WISSENSCHAFTSPHILOSOPHIE In systematischer und historischer Perspektive Lutz Geldsetzer Institut für Philosophie der HHU Düsseldorf 2015 WISSENSCHAFTSPHILOSOPHIE in systematischer und historischer Perspektive von Lutz Geldsetzer Lehrmaterialien aus dem Institut für Philosophie (vormals Philosophisches Institut) der HHU Düsseldorf Copyright 2015 vorbehalten Kopie für persönlichen Gebrauch und für Zitierzwecke sowie einzelner Paragraphen für Lehrzwecke erlaubt L. G. Zeichnung: Florian Wies Vorwort Die vorliegende Schrift enthält die Erträgnisse der Studien des Verfassers über die Wissenschaften von etwa drei Jahrzehnten. Gelegenheiten zu Erfahrungen im Wissenschaftsbetrieb ergaben sich schon früher während seiner nun mehr als fünfzigjährigen Lehr- und Forschungstätigkeit an der Düsseldorfer Universität und bei Gastprofessuren an Universitäten in Frankreich, Italien, in den USA und in der VR. China. Das Material hat sich in wiederholten Vorlesungen zum Thema „Wissenschaftstheorie“ so angereichert, daß es einigermaßen umfangreich geworden ist und den Charakter eines Lehrbuches der Disziplin angenommen hat. Es ist in vier Teile gegliedert: Der erste Teil hat vorwiegend systematischen Charakter. Die Disziplin „Wissenschaftsphilosophie“ wird in einer hier vorgeschlagenen Architektonik des Wissenschaftssystems verortet. Dadurch werden ihre Voraussetzungen, die sie von philosophischen Grunddisziplinen übernimmt, und ihre Bezüge zu Bereichsdisziplinen bis hin zu den Einzelwissenschaften sichtbar gemacht. Anhand dieses Leitfadens wird als Zweck und Ziel aller Wissenschaften die Gewinnung, Bewahrung und Begründung von Wahrheit herausgearbeitet. Die Definition der Wahrheit als kohärentes und komprehensives Wissen erlaubt es, ein genuin wissenschaftliches Wahrheits-Ideal von anderen kulturellen Idealen zu unterscheiden, die sich immer wieder und heute verstärkt an seine Stelle drängen oder damit verwechselt werden. Diese Vermischungen führen zu verschiedenen Formen und Gestalten von falschem Wissen und zu dem, was hier „wahr-falsches Wissen“ genannt wird. Die Erarbeitung wahren Wissens in den Wissenschaften hängt in erster Linie von den dazu eingesetzten Methoden ab. Es geht dabei um die Definition der wissenschaftlichen Begriffe, deren Verknüpfung zu wahren Urteilen und der Urteile zu schlüssigen Argumenten, die in der Gestalt von Theorien eine Gesamtdarstellung der einzelnen Wissensressourcen über die jeweiligen Forschungsgebiete erlauben. In allen diesen methodischen Verfahren muß es, wie man sagt, logisch zugehen. Logik ist seit alters die dafür relevante philosophische Methodendisziplin. Von I. Kant stammt die These, die Logik habe „seit dem Aristoteles keinen Schritt rückwärts“ getan, und „daß sie auch bis jetzt keinen Schritt vorwärts hat tun können“. Das wird bis heute gerne wiederholt. Geisteswissenschaftler haben die These meist so verstanden, daß die II Logik Zeit genug gehabt habe, sich so allgemein in allem wissenschaftlichen Tun zu bewähren, daß sie gewissermaßen den „gesunden Menschenverstand“ ausmache, so daß man sie nicht eigens studieren müsse. Naturwissenschaftler verstehen Kants These ganz im Gegenteil dazu so, daß die Logik deshalb überholt sei und durch eine neue „mathematische Logik“ ersetzt werden müsse. Daher sprechen sie von der traditionellen Logik als „klassisch-aristotelischer Logik“, die zu kennen überflüssig geworden sei. In der Tat ist nichts falscher als diese kantische These. Denn die Logik hat wie alle Disziplinen im Laufe der Geschichte sowohl Fortschritte gemacht als auch Fehler und Irrtümer in ihre Lehrgehalte aufgenommen. Deshalb ist es eine wichtige Frage, ob und wie das, was man jetzt mathematische Logik nennt, überhaupt Logik ist, und ob sie die traditionelle Logik wirklich ersetzten kann. Die hier vertretene These ist, daß die „quadriviale“ Mathematik seit der Antike die spezielle Logik der Physik gewesen ist und sich als solche naturgemäß mit dieser zusammen entwickelt hat. Sie ist aus der aristotelischen Logik als ein dialektischer Seitenzweig erwachsen und kultiviert das Denken in Widersprüchen. Daß die Mathematik in den beiden Zweigen der Geometrie und der Arithmetik entwickelt worden ist, deutet selbst schon auf eine Zweiteilung alles Mathematischen hin. Denn die Geometrie ordnet und klärt alle Verhältnisse, die sich zwischen sinnlich wahrnehmbaren Figuren und Gestalten in beliebiger Größe ergeben können. Diese Verhältnisse werden als besonderer „semantischer“ Gegenstandsbereich durchaus logisch und widerspruchslos behandelt. Und das hat die Geometrie in allen handwerklichen, technischen und ökonomischen Angelegenheiten zu einer widerspruchslosen Methodik gemacht. Wo allerdings die Geometrie ohne Bezugnahme auf Anwendungen rein als Teil der Mathematik behandelt wird, besitzt sie ebenso wie die Arithmetik ihre für sie eigentümliche Dialektik. Die Arithmetik erforscht und konstruiert gänzlich unanschauliche Zahlgebilde und ihre Verhältnisse. Alles, was hier gesagt werden konnte, wurde zwar, um überhaupt verständlich zu sein, anhand geometrischer Modelle veranschaulicht, wie man bei Platon und Euklid sieht. Aber zu einer durchgehenden Veranschaulichung reichte die Geometrie schon in der Antike nicht mehr aus. Vor allem in den Bereichen, wo arithmetische Verhältnisse ins Infinite und Infinitesimale ausgeweitet wurden. Das bedeutete, daß die arithmetischen Theorien ihre geometrischen semantischen Beziehungen zum Teil verloren. Zahlen und Zahlverhältnisse wurden und werden seither als arithmetische Konstrukte behandelt, die nur noch teilweise geometrisch veranschaulicht werden können. III Zahlen treten durch die Operatoren ihrer Rechenarten zueinander in Relationen, die eine spezielle Semantik unanschaulicher Objekte erzeugen. Sie bilden Mengen und Größen, die zugleich weder Mengen noch „groß“ oder „klein“ sein können, weil es derartiges nur in der sinnlichen Anschauung gibt. Sie erzeugen auch Relationen zwischen „bekannten Unbekannten“ (Variablen). Sie definieren durch Gleichungen Begriffe von arithmetischen Sinngebilden, die zugleich Behauptungen wahrer Einsichten sein sollen. Und alles dies wird reflexiv bzw. ipsoflexiv auf einander angewendet. Dies ließ und läßt sich mit den Mitteln einer trivialen Logik, die auf Widerspruchslosigkeit angelegt ist, nicht bewältigen. Die Logik mußte erweitert werden. Und sie wurde dadurch erweitert, daß das in der trivialen Logik ausgeschlossene Dritte als widersprüchliche Denkfigur positiv aufgenommen und zu einer eigenen Technik des Umgangs mit unanschaulichen Sinngebilden verwendet wurde. „Quadriviale“ Mathematik als dialektische Speziallogik trat dadurch in Konkurrenz zur „trivialen“ Logik und verdrängte diese gänzlich aus der naturwissenschaftlichen Methodologie. Als sich im Laufe des 19. Jahrhunderts der quadriviale Teil der Wissenschaften aus den Philosophischen Fakultätsstudien abspaltete und zu eigenen Mathematisch-Naturwissenschaftlichen Fakultäten verselbständigte, kam auch in diesen neuen Fakultäten das Bedürfnis auf, sich der logischen Grundlagen ihrer Fächer erneut zu vergewissern. Die Mathematik, die als Einzelwissenschaft bis dahin unbestritten die Methodologie der Naturwissenschaften darstellte und ohne logische Methodologie auskam, entwickelte für sich die fachspezifische Logik, die seither die logischen Grundlagen der Mathematik selber zu klären begann. Das Resultat dieser Bestrebungen war in erster Linie die Entdeckung zahlreicher logischer Widersprüche und Paradoxien in den mathematischen Theorien. Das führte jedoch nicht dazu, die traditionelle „triviale“ Logik selber weiter zu entwickeln, sie eventuell von Fehlern zu reinigen und ihre Besonderheiten bei der Anwendung auf die Mathematik und die Naturwissenschaften herauszustellen. Vielmehr weitete man den Anspruch der mathematischen Logik dahingehend aus, daß sie überhaupt die einzige Methodologie aller avancierten Wissenschaften sei. Dieser Anspruch schien durch die gewaltigen Erfolge der mathematischen Naturwissenschaften in allen technischen Anwendungen gerechtfertigt zu sein, die man durchweg auf die forcierte Mathematisierung der Naturwissenschaften zurückführte. Der Anspruch ist, wenn nicht falsch, so doch weit übertrieben. Denn technische Anwendungen der Naturwissenschaften verdanken sich in erheblichem Ausmaß dem praktischen Know How von Handwerkern IV sowie von Geräte- und Maschinenbauern. Doch angesichts der Tendenz zur Mathematisierung möglichst aller Wissenschaften, bemühen sich auch die wenigen übrig gebliebenen „trivialen“ Logiker der Philosophischen Fakultäten inzwischen, die „klassische“ Logik in die Formalismen der mathematischen Logik einzukleiden. Die Kluft zwischen den traditionellen logischen Denkweisen von Laien und Geisteswissenschaftlern und mathematisch ausgebildeten Naturwissenschaftlern erweiterte sich beständig bis zu den heute vielbeklagten „zwei Kulturen“, in denen sich nun beide Lager in gegenseitiger Verständnislosigkeit gegenüber stehen. Daß dieser Methodenantagonismus auf die Lage und die Probleme der Wissenschaftstheorien zurückwirkt und dringend der Klärungen bedarf, dürfte auf der Hand liegen. Deshalb wurde in diesem systematischen Teil große Aufmerksamkeit auf die so entstandenen Unterschiede zwischen den entsprechenden Denkweisen und ihre Verteilungen auf gewisse wissenschaftliche und populäre Einstellungen im Lehr- und Forschungsbetrieb gelegt. Vor allem aber wurde ein Beitrag zur Wiederbelebung und Verbesserung der „trivialen“ Logik in Gestalt eines kleinen Lehrbuches der „pyramidalen Logik“ mit einem besonderen Formalismus und den sich daraus ergebenden Folgerungen für die Unterscheidung der traditionellen und der mathematischen Logik und ihrer Besonderheiten vorgestellt. Um dem Leser einen Vorgeschmack auf das zu geben, was er hier erwarten kann, seien die wesentlichen Thesen der mathematischen Logiker, auch diejenigen, die aus der klassischen Logik übernommen worden sind, und eine Beurteilung derselben vom Standpunkt der pyramidalen Logik einander konfrontiert. Mathematische Logiker, manchmal auch in Übereinstimmung mit der klassischen Logik, behaupten: 1. Daß Logik und Mathematik zwei rein „formale“ Denkmethodiken seien, welche Wahrheit und Falschheit - und darüber hinaus Wahrscheinlichkeit(en) jeweils auf spezifische Weise und für ihre besonderen Bereiche ohne Bezug auf inhaltliche Gegenstände darstellen, unterscheiden und beweisen könnten. Es wird gezeigt, daß es nur eine einzige Logik geben kann, die für alle Wissenschaften, also auch für die Mathematik, gilt. Sie kann niemals inhaltlos praktiziert werden. Ihre Formalismen sind selbst ihr inhaltlicher bzw. semantischer Gegenstand. 2. Der Unterschied zwischen traditioneller und mathematischer Logik wird darin gesehen, daß es so etwas wie rein intensionale und rein extensionale Logiken gäbe. Wobei die „klassische“ bzw. die aus den V „trivialen“ Disziplinen der Philosophischen Fakultät herstammende Logik mehr intensional, die aus den „quadrivialen“ Disziplinen herstammende Mathematik und ihre Logik mehr extensional ausgerichtet seien. Rein intensionale und rein extensionale Logiken kann es jedoch nicht geben. Und zwar, weil ihre Grundelemente, nämlich die Begriffe, ohne deutliche Definition ihrer Intensionen (Merkmale) und klare Bestimmung ihrer Extensionen (Umfänge) keine Begriffe wären. Ohne klare und deutliche Begriffe aber können auch die Urteile und Schlüsse, in denen sie vorkommen, keine eindeutigen Wahrheitswerte erhalten. 3. Große Übereinstimmung herrscht unter Mathematikern darüber, daß die klassische Logik mittlerweile durch die mathematische Logik überholt und überflüssig gemacht worden sei, da in letzterer alle positiven Einsichten der ersteren erhalten und in klareren Formalismen dargestellt werden könnten. Dieser Anspruch besitzt keine Grundlage. Vielmehr ist die mathematische Logik selbst eine auf ihre mathematischen Objekte eingeschränkte triviale Logik, die das sogenannte Dritte als Widerspruch zuläßt. Das Dritte besitzt hier eine dominierende „dialektische“ Funktion. D. h. die Zulassung des Dritten ist die Grundlage für die Erzeugung vieler widerspruchsvoller mathematischer Sinngebilde. 4. Sowohl von klassischen wie mathematischen Logikern wird angenommen, daß sich die allgemeinsten „Begriffe“ (Kategorien und axiomatische Begriffe) sowie die individuellen Kennzeichnungen (Eigennamen) nicht definieren ließen. Es wird gezeigt, daß sowohl axiomatische Grundbegriffe als auch individuelle Eigennamen definiert werden können. Allerdings nicht mit der aristotelischen Standarddefinition mittels Genus proximum und spezifischer Differenz bezüglich des Allgemeinsten, und auch nicht durch Aufzählung aller Spezifika oder durch die Annahme eines sogenannten Taufereignisses (S. Kripke) beim Individuellen. Erst die Definitionsmöglichkeit der allgemeinsten (axiomatischen oder kategorialen) wie der speziellsten Begriffe (die gelegentlich durch Eigennamen gekennzeichnet werden) kann überhaupt die Logik zu einer Methodik der Wahrheitsauszeichnung machen. 5. Mathematische Logiker nehmen für die Mathematik in Anspruch, daß mathematische Begriffe durch „vollständige“ Induktion gewonnen und definiert werden. Dagegen sei die Induktion in der klassischen Logik stets „unvollständig“. Man unterstellt ihr, es handele sich dabei um einen unbefugten Schluß „von einigen auf alle Instanzen“ (Beispielsmerkmale) des induzierten Begriffs. VI Die pyramidale Erklärung der Induktion zeigt dagegen, daß die Begriffsbildung durch logische Induktion immer vollständig und sicher ist. Sie ist kein Schluß von einem Artbegriff auf die zugehörige Gattung, sondern sie expliziert nur, daß die Merkmale (Intensionen) eines induzierten Artbegriffs allen seinen Instanzen in seiner Extension zukommen. Das haben schon Wilhelm von Ockham und Francis Bacon bewiesen. Und sie zeigt überdies, daß gerade die Mathematik die unvollständige Induktion als Schluß „von einigen auf alle Fälle“ verwendet, ohne jemals „alle“ Fälle zu kennen oder jemals prüfen zu können. 6. Mathematische Logiker haben aus der klassischen Logik die Meinung übernommen, daß die logischen Junktoren und mathematischen Operatoren sinnfreie Elemente und jedenfalls keine Begriffe seien. Sie dienten nur dazu, nicht-wahrheitswertfähige Begriffe zu wahrheitswertfähigen Urteilen und diese zu Schlüssen zu verknüpfen, deren Sinn gerade in Wahrheiten, Falschheiten und Wahrscheinlichkeiten bestünden. Es ist jedoch die gemeinsprachliche Bedeutung der logischen Junktoren wie der mathematischen Operatoren für die Grundrechenarten, deren Verständnis erst die Definition von nicht wahrheitswertfähigen Begriffen und Ausdrücken sowie die Komposition von wahrheitswertfähigen Urteilen und Schlüssen erlaubt. Die gemeinsprachliche Bedeutung der jeweiligen ausdrucks- und satzbildenden Junktoren ist aber selbst „auf Begriffe zu bringen“. Dann zeigt sich, daß zwischen den satzbildenden Junktoren (die den Wahrheitswert von Behauptungen bestimmen) und den begriffs- und ausdrucksbildenden Junktoren (ohne Wahrheitswerte) strikt unterschieden werden muß. Die gemeinsprachliche Bedeutung der Junktoren und Operatoren vermittelt auch den Bezug der logischen Formalismen auf sprachliche Inhalte. 7. Mathematiker sind seit Euklids Zeiten davon überzeugt, daß Gleichungen eine genuin mathematische Form behauptender Urteile mit Wahrheitswerten sei. I. Kant hat diese Meinung auch in der Logik und bei Philosophen verbreitet, indem er eine mathematische Gleichung als Beispiel eines „synthetischen Urteils a priori“ ausgab. Die Gleichung stellt jedoch eine logische Äquivalenz dar. Deren Hauptfunktion ist die Definition von Begriffen und Ausdrücken. Sie gehört zu den ausdrucksbildenden Junktoren und kann daher keineswegs wahrheitswertfähige Behauptungen bzw. Urteile ausdrücken. Die Gleichungsäquivalenz definiert identischen Sinn mittels verschiedener Zeichenausdrücke. Dies entspricht der gemeinsprachlichen Funktion der Synonyme. Die Gleichung ist weder voll- noch teilidentisch mit der logischen Kopula oder mit einer Implikation, die logische Behauptungen auszeichnen. VII 8. Von der klassischen Logik haben mathematische Logiker übernommen, daß die logischen ebenso wie die mathematischen Wahrheitswertnachweise und Beweise auf den drei angeblich unbegründbaren Axiomen der Identität, des Widerspruchs und eines Dritten beruhen. Von diesen „Prinzipien“ soll die Identität – als Tautologie und reine Wahrheitform – angestrebt, satzmäßiger Widerspruch und Drittes als falschheitsträchtig – vermieden oder gar ausgeschlossen sein. Es wird gezeigt, daß Identität, Widerspruch und Drittes nicht die tatsächlichen Axiome bzw. Prinzipien von klassischer und mathematischer Logik sind. Sie ergeben sich erst als Deduktionen aus den eigentlichen Axiomen Wahrheit und Falschheit und der aus beidem komponierten Wahr-Falschheit. 9. Nicht nur die mathematische, sondern auch die klassische Logik geht davon aus, daß der Satzwiderspruch ein formales Kennzeichen der Falschheit sei. Deswegen mache ein Widerspruch auch jede inhaltliche Theorie falsch, in der er vorkommt. Diese traditionelle Meinung setzt voraus, daß eine widerspruchsvolle Behauptung keinen semantischen Bezug zur Wirklichkeit habe und deshalb nichts behaupte bzw. „sinnlos“ sei. Dabei leugnet niemand, daß ein Satzwiderspruch aus einer wahren und einer falschen Behauptung über einen und denselben Sachverhalt zusammengesetzt ist. Mathematische Logiker meinen unter Berufung auf A. Tarskis Metatheorie der Sprachstufen, die Verknüpfung des wahren und des falschen Satzteiles verleihe dem Gesamtsatz den neuen „Meta-Sinn“ der „Falschheit“, der die Wahrheitswerte der Basissätze neutralisiere bzw. ersetze. Ein „wahrer“ MetaWahrheitswert wird dagegen dogmatisch beim alternativen Urteil angenommen. Die Urteilsalternative gilt als wahr, wenn eine ihrer Komponenten wahr, die andere falsch ist. Dagegen wird anhand zahlreicher Beispiele nachgewiesen, daß durch die Verknüpfung des wahren und des falschen Satzteils im widersprüchlichen Urteil kein Metasinn entstehen kann. Dies ebenso wenig wie bei nichtwidersprüchlicher Verknüpfung eines wahren und eines falschen Satzes. Deshalb muß der Satzwiderspruch seinen Sinn als „wahr und falsch zugleich“ sowohl formal wie auch in seinen inhaltlichen Anwendungen behalten. Die These von der „Falschheit des Satzwiderspruchs“ erweist sich damit als unbegründetes Dogma bzw. als reine Konvention mit sehr schädlichen Folgen. Denn wenn der Satzwiderspruch als falsch gilt, wird auch seine wahre Komponente für falsch erklärt. Umgekehrt verhält es sich bei der Urteilsalternative, der dogmatisch der Metasinn „wahr“ zugesprochen wird, obwohl sie ersichtlich ebenfalls wahr und falsch zugleich ist. Paradoxien und viele traditionell für widerspruchslos gehaltene widersprüchliche Begriffe und Ausdrücke, die in Satzwidersprüchen in Subjekts- und/oder VIII Prädikatsstellung verwendet werden, sind nicht nur alltagssprachliche rhetorische, sondern auch logische Mittel, durch Lügen die Wahrheit zu sagen, und mittels der Wahrheit zu lügen. Mit „wahren“ alternativen Urteilen behält man deswegen stets Recht, weil sie nicht ausdrücken, welche ihrer Komponenten die wahre und welche die falsche ist. 10. Aus dem Dogma von der Falschheit des Widerspruchs ergibt sich die in der mathematischen Logik verbreitete Meinung, daß logische und mathematische Wahrheit auf der Widerspruchslosigkeit beruhe. Wahrheit ist jedoch nicht aus der Widerspruchslosigkeit deduzierbar, sondern umgekehrt Widerspruchslosigkeit aus der Wahrheit. Ebenso wenig ist Falschheit aus dem Widerspruch deduzierbar, sondern umgekehrt der Widerspruch aus der Verknüpfung von Wahrheit und Falschheit. Wahrheit und Falschheit sind daher die tatsächlichen logischen Prinzipien. Sie definieren sich gegenseitig durch Negation (Wahrheit = Nicht-Falschheit; Falschheit = Nicht-Wahrheit). Beide zusammen definieren die Wahrscheinlichkeit als Wahr-Falschheit. Nur aus dem dialektischen Prinzip der Wahr-Falschheit läßt sich sowohl Wahres wie auch Falsches ableiten. 11. Mathematische Logiker glauben auch, daß Wahrscheinlichkeit als ein in mehrwertigen Logiken „zugelassenes Drittes“ neben der Wahrheit und der Falschheit näher bei der Wahrheit als bei der Falschheit stehe. Die Wahrscheinlichkeit ist jedoch aus der (dialektischen) Synthese von Wahrheit und Falschheit als Wahr-Falschheit deduzierbar. Somit ist auch Wahrscheinlichkeit stets wahr und falsch zugleich. Das sogenannte Dritte ist daher selbst eine Form des Widerspruchs und somit als besonderes logisches Prinzip überflüssig. Allerdings ist zwischen logischer und mathematischer Wahrscheinlichkeit strikt zu unterscheiden. Das logisch Wahrscheinliche ist zu gleichen Teilen wahr und falsch. Deshalb wird es (mathematisch) auch als „50%-Wahrscheinlichkeit“ formulierbar und beim Münzwurf anschaulich. Mathematische Wahrscheinlichkeit versucht, die wahren und die falschen Anteile des Wahr-Falschen detailliert zu quantifizieren. Das resultiert zwar in statistischen (auf Datenmengen bezogene) Wahrscheinlichkeitsquotienten, besagt jedoch nichts für den Einzelfall. Das wird beim Würfeln anschaulich gemacht. Auch auf die mathematischen Wahrscheinlichkeiten ist vorrangig die logische Wahrscheinlichkeit anzuwenden. Denn jeder „einzelne Fall“ von mehreren „möglichen Fällen“ tritt ein oder nicht. Logische und mathematische Wahrscheinlichkeitsurteile sind daher die Hauptformen unentscheidbarer Urteile. IX 12. Logiker allgemein, daher auch die mathematischen Logiker, gehen davon aus, daß die Dialektik – abgesehen von Platonischer Kunst der Gesprächsführung – eine logische Methode des falschen Denkens in Widersprüchen sei, die jede Urteils- und Theoriebildung verfälsche. Jedoch gerade in der Mathematik und in der mathematischen Logik wird die Dialektik als Grundmethode des unanschaulichen bzw. überanschaulichen Denkens kultiviert. Paradoxien und Widersprüche als Ergebnisse der Dialektik sind daher - als zugleich wahr und falsch – keine Fehlanzeigen, sondern sie sind konstitutiv für die Mathematik. Da die Dialektik jedoch auch eine logische Methode des kreativphantastischen Denkens und somit eine logische Methode der Erfindung und der Kreationen (Heuristik) ist, bereicherte sie seit jeher die Mathematik mit neuen mathematischen Elementen. 13. Das zeigt wohl am besten die sogenannte Modallogik, die in der mathematischen Logik eine besondere Konjunktur hat. Sie ist von Aristoteles als „Logik des Zukünftigen“ konzipiert worden, wird jedoch mittlerweile ubiquitär eingesetzt. Modallogik ist jedoch ein dialektischer Fremdkörper in der trivialen Logik geblieben. Das „Mögliche“ ist die ontologische Domäne widersprüchlicher Begriffe. Es ist als „seiendes Nichts“ bzw. als „nichtseiendes Sein“ zu definieren. In der Begründung der mathematischen Logik und in der Mathematik selber hat die Modallogik daher eine bisher undurchschaute dialektische und kreative Funktion. Die Relevanz der kritischen Bemerkungen zur klassischen und mathematischen Logik und zur Mathematik selbst kann sich nur in den sie anwendenden Wissenschaften erweisen, d. h. im Kontext der gegenwärtigen und vergangenen Lage von Forschung und Lehre. Deswegen wurde insbesondere auf die in der Wissenschaftstheorie seit jeher vernachlässigten Zustände in der Lehre geachtet. Diese haben einen weit unterschätzten Einfluß auf die Forschung und ihre Erkenntniskapazität. Denn die Befassung allein mit der logischen und mathematischen Methodologie genügt nicht den Wissensanforderungen, die an den Wissenschaftstheoretiker zu stellen sind. Hinzukommen muß eine solide Kenntnis des geschichtlichen Stoffes, der das inhaltliche Wissen von und über die Wissenschaften ausmacht. Diesem Thema wird daher in den folgenden historischen Teilen der vorliegenden Schrift besondere Aufmerksamkeit gewidmet. Der geschichtliche Stoff wird hier im Sinne einer Dogmengeschichte abgehandelt, wie das ansonsten noch in der Jurisprudenz und in den Theologien üblich ist. D. h. aus den Ergebnissen der philosophie- und wissenschaftsgeschichtlichen Forschung wird vor allem dasjenige aus- X gewählt und interpretiert, was auf die heutige Fachlage Bezug hat und dazu geeignet ist, diese selber durchsichtiger zu machen. Die entsprechende Interpretationsmethodologie wird im letzten Paragraphen über die Hermeneutik in den Geisteswissenschaften besonders herausgestellt. Die „dogmatische Hermeneutik“ erklärt, wie institutionell gestützte Sinngehalte durch regelgeleitete Interpretationen für ihre Anwendung auf Glaubens-, Entscheidungs- und Lehrprobleme aufbereitet werden. Die „zetetische Hermeneutik“ erklärt dagegen, welche Wissensressourcen für wahre Interpretationen von Artefakten in der geisteswissenschaftlichen Forschung aufgeboten werden müssen. Der zweite Teil der vorliegenden Schrift behandelt zunächst die neuzeitlichen Motive zur Ausbildung einer besonderen philosophischen Disziplin von den Wissenschaften unter dem gräzisierenden Titel „Technologia“, die sich bei dem Schulphilosophen Clemens Timpler 1604 ankündigt. Zu seiner Zeit fließen eine Reihe von Interessenahmen und Beschäftigungsweisen mit Wissenschaften zusammen, nämlich bibliographische Bestandsaufnahmen, lexikalische Erörterungen, politische Nutzenkalküle. Hinsichtlich der Wissenschaften ergibt sich daraus eine Neuorientierung der Philosophie, die auf diesen Grundlagen Fundierungsversuche für die Einzelwissenschaften entwickelt. Darin kündigt sich an, was erst im 20. Jahrhundert in der besonderen Disziplin Wissenschaftsphilosophie zusammenläuft. Der dritte Teil enthält in vier Abschnitten die für den Gegenstand wichtigen Ideen und Beiträge der Antike, des Mittelalters, der Neuzeit und der heute florierenden Schulen und Richtungen der Wissenschaftsphilosophie. Vorweg sollte darauf hingewiesen werden, daß hier die Langzeitwirkung historischer Ideen in allen späteren wissenschaftlichen Verlautbarungen von Autoren vermutet und gegebenenfalls zum Verständnis herangezogen wird. Das unterscheidet die hier herausgestellten historischen Zusammenhänge von der sonst fachüblichen Methode, Einflüsse und Übernahmen nur in den Fällen anzunehmen, wo Autoren selbst durch Zitat und andere Hinweise auf solche Inspirationen hingewiesen haben. Man unterschätzt jedoch dabei gewöhnlich den Anteil von Wissenstraditionen, die nicht in dokumentierter Weise ihren Niederschlag gefunden haben, sondern als “tacid knowledge“ (M. Polanyi) im Lehrbetrieb und den dazu verwendeten Quellen lebendig waren, so daß sie selten überhaupt erwähnt werden Der leitende Gedanke ist im übrigen, daß es für die abendländische Wissenschaft von ihren Anfängen an auch in aller von den Philosophen angestrebten „Weisheit“ stets um wissenschaftliches Wissen ge- XI gangen ist. Dies könnte allerdings nur auf dem hier ausgesparten Hintergrund des Vergleichs mit anderen Kulturen deutlicher sichtbar werden, wo das wissenschaftliche Wissen allenfalls eines neben anderen, besonders soteriologischen Weisheitsformen war und teils noch ist. Und selbst da, wo religiöse und zu Theologien ausgebaute Wissenskomplexe in den Vordergrund traten, sind diese stets wissenschaftlich unterfüttert und durch wissenschaftliche Kritik gezwungen worden, sich in den Formen der Wissenschaften zu artikulieren. Wo es viel Wissen gibt, das Anspruch auf Wahrheit macht, gibt es auch viel falsches Wissen. Die übliche Einschätzung und die Erwartungen gegenüber den Wissenschaften laufen jedoch darauf hinaus, daß der Anteil des wahren Wissens in allen Wissenschaften letztlich nur zunimmt und der falsche Anteil eliminiert oder im Problematischen gehalten wird. Das ist, wie im ersten Teil deutlich gemacht wird, selber falsch. Und wenn das so ist, ergibt sich die Aufgabe, auch im gegenwärtigen Wissen die falschen Anteile kenntlich zu machen. Damit halten wir für die Durchdringung des historischen Materials einen der ältesten Gedanken der abendländischen Philosophie fest, den Parmenides in seinem Lehrgedicht klar formuliert hat: Es gibt „zwei Wege der Forschung“, nämlich den „Weg der Wahrheit“ und den „Weg der Falschheit“. Parmenides hielt das auf Einheit abzielende Seins-Denken für den Weg der Wahrheit und die sinnliche Wahrnehmung des Vielfältigen und Bewegten für den Weg der Falschheit. Er hat damit den Rationalismus in den Wissenschaften befördert und den Empirismus nachhaltig beeinträchtigt. Jedoch hat er damit Recht behalten, daß es diese beiden Wege der Forschung gibt. Unter modernen Bedingungen sind die Ausgangspunkte für die Wege, die zur Wahrheit und zur Falschheit führen, in den metaphysischen Begründungen der wissenschaftlichen Theorien zu suchen. Sie gehen letztlich von den zwei antagonistischen metaphysischen Grundeinstellungen, nämlich vom Realismus und vom Idealismus aus. Ihr Gegensatz in der abendländischen Philosophie und Wissenschaft ging stets um den Wahrheitsanspruch, den jede von ihnen für sich behauptete, und den er seiner Alternative absprach. Beide begründeten ihre Falschheitskritiken an der Gegenposition mit den bei den Gegnern ausgespähten Widersprüchen. Die Widersprüche in ihren eigenen Grundeinstellung übersahen sie entweder geflissentlich, oder sie stellten sie als noch künftig „zu lösende“ Probleme dar. Die Grundwidersprüche der realistischen und idealistischen Metaphysiken, von denen jeweils weitere abhängen, werden im § 40 herausgestellt. Wenn jedoch Widersprüche keineswegs nur falsch sind, sondern auch einen Anteil von Wahrheit enthalten, so stellt sich XII das gegenseitige Verhältnis von Realismus und Idealismus anders dar, als es bisher eingeschätzt wurde. Es kommt darauf an, ihre wahren und ihre falschen Komponenten zu unterscheiden sowie die gemeinsamen wahren Komponenten festzuhalten und die falschen zu eliminieren. Die falsche Komponente des Realismus ist schon genügend von der idealistischen Kritik herausgestellt worden und deswegen wohlbekannt. Es ist die Behauptung, daß es hinter oder neben den Bewußtseinserscheinungen noch unerkennbare „Dinge an sich“ als eigentliche Realität bzw. Wirklichkeit gäbe, die gänzlich unabhängig vom Bewußtsein seien. Eliminiert man diese These, so bleibt die wahre Komponente des Realismus übrig, die völlig mit der idealistischen Grundbehauptung übereinstimmt. Es ist die These, daß Wissen nur durch ein wahrnehmendes und denkendes, sich erinnerndes und manchmal auch phantasierendes Bewußtsein zustande kommt, und daß es daher kein Wissen von der Existenz und den Eigenschaften bewußteinsunabhängiger „Dinge an sich“ geben kann. Auch I. Kant hat dies in der ersten Auflage der „Kritik der reinen Vernunft“ betont, indem er die „Dinge an sich“ als „Noumena“ (Denkgebilde) im Bewußtsein bezeichnete. Die falsche These des Idealismus ist noch nicht herausgestellt und geklärt worden. Sie besagt, daß auch das Bewußtsein ein Ding an sich sei. Das ding-an-sichhafte Bewußtsein wird seit der Antike nach dem Muster physikalischer Kräfte als Vermögen bezeichnet und seither in den meisten psychologischen Theorien als selbstverständlich vorausgesetzt. Gleichwohl haben Naturkräfte und Bewußtseinsvermögen stets etwas Gespenstiges an sich. Wenn sie wirken bzw. tätig sind, wird ihre Existenz als Ursache für Effekte behandelt. Wenn sie nicht wirken, sollen sie doch („virtuell“ oder „potentiell“) existent sein. Gerade diese potentielle Existenz, die sich in keiner Weise manifestiert, macht dann ihren Ding-an-sich-Charakter aus. Viele Idealisten postulieren für die Erforschung des Bewußtseins eine besondere Aktart der „Reflexion“, durch die das Bewußtsein sich selbst zum Gegenstand und damit als Ding an sich erkennbar mache. Damit nicht zufrieden, postulieren einige sogar ein „präreflexives Bewußtsein“, das auch das Reflektieren erst ermögliche. Aber damit steht es nicht besser als mit dem schon von Platon erfundenen „unbewußten Grund im Bewußtein“, aus dem mittels der Anamnesis, d. h. der bewußten Wiedererinnerung, alle Ideen ins Bewußtsein überführt werden könnten. Es handelt sich hier um eine ebenso falsche optische Metapher wie in der realistischen Widerspiegelungstheorie der ding-an-sichhaften Außen- in der bewußten Innenwelt. Nämlich so, als ob das Bewußt- XIII sein sich selber bespiegeln könne und obendrein auch noch die Beleuchtung dazu liefere. Eliminiert man die These über das ansichhafte Bewußtsein, so bleibt die wahre Komponente der realistische These übrig, daß es Bewußtseins-Erscheinungen gibt. Es entfallen alle Thesen über die solche Bewußtseins-Erscheinungen angeblich bewirkenden sogenannten Seelenvermögen. Das Resultat der sich dadurch ergebenden Überlappung von realistischer und idealistischer Erkenntnistheorie ist eine phänomenalistische Erkenntnistheorie, wie sie erst in neuerer Zeit skizziert worden ist. Sie enthält die gemeinsame Wahrheit des Realismus und des Idealismus und schließt deren falsche Sätze aus. Phänomenalismus ist jedoch nur eine Erkenntnistheorie. Damit ist die Frage nach einer wahren metaphysischen Theorie, die neben der Erkenntnistheorie auch die übrigen Grunddisziplinen begründet, noch nicht beantwortet. Hierzu ist induktiv von den Merkmalen der Axiome der Grunddisziplinen auszugehen. Es wird danach gesucht, was in deren axiomatischen Grundbegriffen als Gemeinsames und Identisches, mithin als „generisches Merkmal“ neben ihren spezifischen Differenzen ausweisbar ist. Mit G. Berkeley definieren wir das (ontologische) Sein als erkanntes Sein, d. h. als Idee. Und mit Fichte definieren wir Erkenntnis als Handlung, und umgekehrt. Darüber hinaus gilt es jedoch, auch das Gemeinsame bzw. Identische von erkanntem Sein und getätigter Erkenntnis auf den Begriff zu bringen. Der Begriff ergibt sich aus der Einsicht, daß getätigte Erkenntnis gar nichts anderes ist als Seinserkenntnis; und umgekehrt, daß Seinserkenntnis nichts anderes als Bewußtseinserscheinung ist. Um dies Gemeinsame zu bezeichnen, haben wir die traditionelle Bezeichnung „Idee“ oder „das Ideelle“ für das idealistische Prinzip übernommen. Es bestimmt den Idealismus als wahre Metaphysik. Um deutlich zu machen, um was es sich dabei handelt, wurde die Entstehung und Entwicklung des abendländischen Idealismus in den drei philosophiegeschichtlichen „Wendungen zum Subjekt“ herausgestellt. „Wendungen“ deshalb, weil der Idealismus sich gegen den Realismus durchzusetzen hatte, und weil sich in der Kritik am Realismus erst allmählich zeigte, was Idealismus überhaupt ist. Die erste Wendung war die sophistische und sokratische Wende zum Subjekt, die Protagoras der klassischen griechischen Philosophie vorgab („Der Mensch ist das Maß aller Dinge: der Seienden, daß sie sind, und der Nichtseienden, daß sie nicht sind.“). Die zweite war die Augustinische Wende („noli foras ire, in interiori homine habitat veritas“ / „Gehe nicht nach außen, im inneren Menschen wohnt die XIV Wahrheit“). Die dritte war die neuzeitliche Wende zum Subjekt des Nikolaus von Kues („Der Mensch als kleiner, schaffender Gott“). Sie blieben die Grundlage der Cartesischen Cogito-Philosopie, der Leibnizschen Monadenlehre, des Kantischen transzendentalen Idealismus, der Systeme des deutschen und europäischen Idealismus bis hin zu einer wohlverstandenen Phänomenologie. Deren Spuren sind bis in die verfremdenden Gestalten des Existentialismus, Konstruktivismus und Dekonstruktivismus sowie zahlreicher Neo-Klassiker-Ismen in den Geisteswissenschaften bemerkbar. Die exponentiale Zunahme des wissenschaftlichen Personals in aller Welt, die forcierte Spezialisierung aller Ausbildungszweige und die damit verbundene Absenkung der wissenschaftlichen Standards läßt das Phänomen Wissenschaft heute in etwas fahlem Licht erscheinen. Insbesondere sind Probleme der Abgrenzung von Wissenschaft gegenüber allen anderen zivilisatorischen und kulturellen Institutionen angesichts der Verwissenschaftlichung aller Lebensverhältnisse immer schwieriger und auch dringlicher geworden. Die Übersicht über die gegenwärtig prominenten wissenschaftstheoretischen Richtungen bzw. Schulen, mit der die vorliegende Schrift beschlossen wird, setzt bei deren Begründern und Meisterdenkern an und läßt allenfalls einige Perspektiven auf die gegenwärtige Lage zu. Die meisten Schulen gehen dabei von den Naturwissenschaften aus und konzentrieren sich auf diese. Die Lage der Geisteswissenschaften ist dem gegenüber geradezu chaotisch. Deshalb ist die Darstellung ihrer Probleme und Methodenansätze ausführlicher geraten. Hier galt es gewissermaßen noch Schneisen in unübersichtliches Gelände zu schlagen. Die metaphysische Grundlage der herrschenden Theorien der Geisteswissenschaften ist die Lebensphilosophie. Sie verdankt ihren Aufstieg im 19. Jahrhundert den großen Erfolgen der entwickelnden Biologie, aber zum Teil auch den weiterwirkenden Anstößen der romantischen Naturphilosophie, besonders der Philosophie Schellings. Wilhelm Dilthey hat auf dieser lebensphilosophischen Grundlage die Geisteswissenschaften auf den hermeneutischen Weg gewiesen. Seine Maxime „die Natur erklären wir, das Seelenleben verstehen wir“ hat hier überall gewirkt. Sein Verstehensbegriff als „Nacherleben fremden Lebens“ steht überall noch in voller Geltung. Und doch wurde dadurch ein Irrweg, ein zweiter Weg der Forschung im Sinne des Parmenides, eingeschlagen. Um diesen Irrweg zu markieren, wurden anhand der geisteswissenschaftlichen Leitwissenschaften, nämlich der Geschichtswissenschaft und der Sprachwissenschaft, die lebensphilosophisch-metaphysischen und die ontologischen und erkenntnistheoretischen Voraussetzungen XV der auch in den Geisteswissenschaften verbreiteten realistischen Auffassungen kritisch beleuchtet und mit der idealistischen Begründung konfrontiert. Als Ergebnis zeigt sich, daß weder die Geschichtsschreibung noch die Sprachwissenschaft auf ein realistisches Wirklichkeitsfundament bauen können, obwohl sie in immer neuen Variationen die „Verseinung“ der historischen Objekte der Vergangenheit und des Sinngehalts der Laut- und Schriftsprachen betreiben. An deren Stelle tritt der Nachweis des ideellen Gegenwartscharakters der sogenannten res gestae und der sprachlichen Sinngebilde und Bedeutungen im aktuellen kollektiven Bewußtsein. Wie mit Sinngebilden und Bedeutungen methodisch umzugehen ist, sollen die dann folgenden Überlegungen zur Hermeneutik zeigen. Angesichts der ausufernden Hermeneutikdiskussion in der Wissenschaftstheorie der Geisteswissenschaften wurde zunächst an gemeinsame methodische Voraussetzungen, die die Geisteswissenschaften mit allen anderen Wissenschaften teilen, erinnert. Diese bestehen im Beschreiben und Erklären. Ihre Permanenz seit ihrer Begründung durch Aristoteles auch in den heutigen Faktenfixierungen bzw. Datensammlungen und in den Erklärungsmethoden wird aufgezeigt. Besonders dürfte die Permanenz des aristotelischen VierUrsachen-Erklärungsschemas und seine Ausgestaltung auch in den modernsten Theorien auffallen. Dabei erweist sich die naturwissenschaftliche Behauptung, daß nur die Wirkursachen Erklärungswert besäßen, als irreführend. Ganz zu Unrecht werden von dieser Seite nur die Wirkursachen im Verhältnis zu Wirkungen als genuine „Ursachen“ anerkannt, während die teleologischen, die formalen und die materialen Ursachen in verfremdender Terminologie immer noch in Anspruch genommen, jedoch in ihrer Erklärungsfunktion verkannt werden. Zugleich aber wird auch der Vorrang der teleologischen Erklärungen unter dem Titel des hermeneutischen Verstehens in den Geisteswissenschaften nachvollziehbar. Aber auch diese geisteswissenschaftliche Erklärungsweise funktioniert nur im Zusammenhang mit den übrigen drei Ursachen, wie gezeigt wird. Auch auf die Ausgestaltungen der Hermeneutiktheorien schlagen metaphysische Begründungen durch. Idealistische Metaphysik hat sich seit der Antike in der Voraussetzung niedergeschlagen, daß die platonischen Ideen den unerschöpflichen Sinngehalt aller wahrnehmbaren Dinge, erst recht auch aller Artefakte menschlicher Produktionen ausmachen. Auf dieser Grundlage haben die Theologen und Juristen ihre vorn erwähnten „dogmatischen Hermeneutiken“ entwickelt und ausgebaut. Bei ihnen kommt alles auf die zuverlässige Gewinnung von Antworten auf Glaubens- und Rechtsfragen aus der XVI Hl. Schrift und den überkommenen Gesetzen als Sinnrepositorien an. Die überschießende platonische Sinnfülle der dogmatischen Texte wurde auf konkurrierende Sinnalternativen eingeschränkt, auf die die dogmatischen Interpretationen verpflichtet wurden. Diese eher eine Technik zu nennende Verwendung institutionengeschützter Texte wurde seit der Renaissance von den Philologen auch auf die antike wissenschaftliche und philosophische Literatur ausgeweitet. Auch hier wurden die autoritativen Übersetzungen, Wörter- und Lehrbücher zu Dogmatiken, die für alle philologischen Probleme konkurrierende Antworten und Lösungen bereitstellen. Die Dominanz der philologischen und historischen Fächer in der neuen von den mathematischen Naturwissenschaften getrennten Philosophischen Fakultät hat im 19. Jahrhundert auch die Philosophie in solchem Ausmaß geprägt, daß sie fast gänzlich in Philosophiegeschichtsschreibung und Klassiker-Philologie aufging. Die philologisch-historische Orientierung wurde bis heute so selbstverständlich, daß man ihre dogmatische hermeneutische Technik kaum noch wahrnimmt. Zumal ja im modernen Wissenschaftsverständnis alles „Dogmatische“ gegenüber dem Anspruch vorurteilsfreier Forschung und Lehre als verdächtig und überwunden gilt. Erst auf dem Hintergrund dieser idealistischen dogmatischen Hermeneutik entwickelt sich in der nachidealistischen Wende der Wissenschaften zum Realismus eine Forschunghermeneutik, die wir „zetetisch“ genannt haben. Dem Ideal der Gewinnung wahren Wissens verpflichtet, versteht diese zetetische Hermeneutik das Verstehen historisch-literarischer Dokumente als „Wahrheitsgeschehen“, in welchem sich dem Interpreten eindeutiger Sinn offenbaren soll. Unsere Kritik an diesem Prozedere, das die realistische Unterscheidung von ding-an-sichhaftem Sinn des Interpretandums und seiner nacherlebenden Beschreibung in der Interpretation voraussetzt, wird in einer ausführlichen Analyse des Verstehensbegriffs ausgeführt. Wir gehen davon aus, daß für das zetetische Interpretieren nur das idealistische Wahrheitskriterium der logisch-kohärenten komprehensiven Konstruktion von Interpretationen anwendbar ist. Gegen die „dialogische“ Erklärung des Verstehens, gemäß dem die Texte „sprechen“, wird auf eine Eigenschaft von Texten und Artefakten hingewiesen, die sie mit optischen Spiegeln gemeinsam haben. So wie nur das vor den Spiegel Hingestellte im Spiegel erscheint, erscheint auch nur das in die Interpretation eingebrachte Wissen des Interpreten vor dem Text als einheitlicher und kohärenter Sinn im Text. Im Schlußabschnitt wird auf eine Tendenz der neueren Geisteswissenschaften aufmerksam gemacht und unter den Titel der „Verkun- XVII stung der Geisteswissenschaften“ und zugleich der „Verwahrheitung der Künste“ gestellt. Diese Entwicklung dürfte die Konsequenz der Schellingschen Lebensphilosophie sein, wonach die Wissenschaften insgesamt erst dahin kommen müßten, wo die Kunst immer schon sei, und daß nur durch Kunst die Wahrheit zu gewinnen sei. Damit wuchs ein Geniekult heran, der in den Künsten zum Virtuosentum und in den Geisteswissenschaften zur Figur des dichtenden Denkers bzw. des denkenden Dichters führte. Die Spuren lassen sich von Kierkegaard über Nietzsche bis Heidegger und Gadamer aufzeigen. Die Auszeichnung zahlreicher Geisteswissenschaftler und besonders von Philosophen mit Nobelpreisen für Literatur und mit anderen nationalen Literaturpreisen zeigt die Übereinstimmung dieser Tendenz mit dem breiten internationalen Publikumsgeschmack. Sie hat mit der 68er Revolution des Hochschulwesens unter der Feyerabend-Maxime des „Anything goes“ nochmals Verstärkung bekommen. Ihr vorläufiges Resultat zeigt sich u. a. auch im Bologna-Prozeß, der nach dem Vorbild US-amerikanischer Liberal Arts-Fakultäten auf die Verschmelzung von Geisteswissenschaft und Kunst an den Universitäten und an den Kunsthochschulen zur Eingliederung aller Kunstausbildung in neue „Universitäten der Künste“ führte. Hier gibt es seither „creative art research“ als letzte Blüte des geisteswissenschaftlichen Bildungssystems. Auch die Philosophen haben sich dieser Tendenz angepaßt, wie an einigen ihrer gerade deshalb als bedeutend angesehenen Repräsentanten gezeigt wird. Ihre Themen sind jetzt die Mythen der Vorzeit und die „Geschichten“, die vormals in der Literatur publikumsnah ausgebreitet wurden und den Verständnishorizont der sogenannten Eliten für das abstecken, was die Geisteswissenschaften ihnen zu bieten haben. Düsseldorf, im Dezember 2015 XVIII INHALTSVERZEICHNIS Vorwort S. I - XVII Inhaltsverzeichnis S. XVIII - XXV 1. Einleitung: Die Grundideen S. 1- 183 § 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und Wissenschaft S. 1 Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des „trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue „geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissenschaften. § 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie S. 4 Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind. Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag einer Architektonik der Wissenschaften. § 3 Wahrheit als Ideal der Wissenschaft S.7 Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die Vermischung der KulturbereichsIdeale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Der realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile und Stärken und ihre Problematik. § 4 Wissen, Glauben und Intuition in den Wissenschaften S. 17 Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verkleidungen. XIX § 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken S. 28 Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne Bildung der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik. Ursprüngliche Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken und wissenschaftlichem Denken bezüglich der Begriffe von Wissen, Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame eine Lebenswelt der Laien und die vielen „möglichen Welten“ der Wissenschaftler. Geschichte und Zukunft als mögliche Welten. Die vordergründige Welt der Erscheinungen und die „Hinterwelten“ der Wissenschaft. § 6 Die alte und die reformierte Hochschulforschung und -Lehre S. 30 Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium im Baccalaureus-MagisterDoctorsystem und seine Modernisierung. Alte und neue Verständnisse der „Einheit von Forschung und Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs. Die Bildung und die Elite einst und jetzt. § 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik S. 43 Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik. Moderne Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik, auch im Hinblick auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer erneuerten klassischen Logik und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung als definitorischer Ausdruck und als methodische Artikulationsform der Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen. Über Sprache und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen guten Formalismus § 8 Über den Unterschied logischer und mathematischer Denkmethoden S. 67 Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und des extensionalen Aspektes und die Verselbständigung von intensionaler und extensionaler Logik. Die Funktion der Dialektik als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische Verschmelzung der logischen Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion der dreiwertigen Logiken. § 9 Die logischen und mathematischen Elemente S. 93 Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion. Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik. Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre. Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit. XX § 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften S. 137 Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs als Fusion von Wirklichkeit und Möglichkeit. . § 11 Die Paradoxien der Wahrscheinlichkeit S. 148 Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit. § 12 Die Rolle der Modelle und der Simulationen in den Wissenschaften S. 152 Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-Simulation. § 13 Die Bestimmung des wissenschaftlichen Wissens S. 176 Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches und wahrfalsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen. § 14 Die Bestimmung von Wissenschaft S. 179 Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung. Wissensbasen und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und Zusammenhang von Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die Aufgaben der Forschung. II. Zur Geschichte der Disziplin „Wissenschaftsphilosophie“ S. 184 - 192 § 15 Das Aufkommen der Bezeichnung „Wissenschaftsphilosophie“ und die Tendenzen zur Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie S. 184 Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien, der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften. Die Philosophie als Vernunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die Vorbilder der klassischen Methodologien XXI III. Zur Geschichte der Wissenschaftsphilosophie S. 193 - 319 A . Die Antike § 16 Die Vorsokratiker S. 193 Die Erfindung der Arché als Ursprung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen zum Subjekt. Die Entdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des dialektischen (widersprüchlichen) Begriffs. Der pythagoräische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias. § 17 Platon (437-347) S. 200 Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die Begriffe, Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken als Noesis und Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw. Modellen. Die Entdeckung des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammenhang und als Institution der freien Künste. Der Zeitbegriff als „stehende Zahl“ und die Konstitution des Vergangenen in der Wiedererinnerung. § 18 Aristoteles (384-322) S. 208 1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien als Fragen nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft: Das Vier-Ursache-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der Wissenschaften, a. die Begriffslehre, b. die logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke. § 19 Euklid (um 300 v. Chr.), seine „Elemente“ und das Vorbild der Mathematik S. 250 Der platonische Charakter der Elemente als „dialektische Logik“. Vermeintliche geometrische Anschaulichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variablen). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die Probleme als praktische Konstruktionsaufgaben und als Methodenarsenale. Die Elemente und der philosophische „Mos geometricus“. § 20 Der Epikureismus S. 277 Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit als Grundlage des guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der Freundschaften. Epikureismus als Hausphilosophie der empirischen Ärzte. § 21 Die Stoa S. 280 Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philosophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das Wissenschaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwendung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier Kardinaltugenden des Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen Philosophie als Hausphilosophie der Juristen. XXII § 22 Die Skepsis S. 301 Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische Urteilsenthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“. Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit. Kritik der induktiven Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“ der Begründung. Kritik der Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen Kausaltheorien und die platonischidealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und als Glaube. § 23 Der Neuplatonismus S. 307 Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des hierarchischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische Kausaltheorie. Die Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte bei Philon von Alexandrien: Buchstabensinn und philosophischer Hintersinn. § 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie S. 314 Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der Metaphysiken. Das Gesetz der Evidenzialisierung der Archai. B Das Mittelalter: Patristische und scholastische Wissenschaftslehre S. 320 - 386 § 25 Der ideengeschichtliche Kontext S. 320 Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken Erbes im Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“ der Theologie, Jursprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die „Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die „2. Wende zum Subjekt“ bei Augustinus. § 26 Aurelius Augustinus (354 - 430) S. 323 1. Die Begründung der christlichen Theologie als Wissenchaft vom Göttlichen. 2. Dialektische Dogmendefinition. 3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der Seele. 4. Die heilige Schrift und die wissenschaftliche Interpretation. 5. Das „Buch der Natur“ und die Erkenntnis der sinnlich-phänomenalen Welt mittels der Zeit. § 27 Die Enzyklopädisten und die Tradition des antiken Wissens S. 332 Philosophiegeschichte bei Diogenes Laertios. Stobaios. Hesychios. Suidas. Athenaios. Eunapios. Die Enzyklopädien der sieben freien Künste: Martianus Capella, Cassiodorus Senator, Isidor von Sevilla, Beda Venerabilis, Vincenz von Beauvais und Gregor Reisch. Die Bedeutung des Boethius für die KlassikerTradition. § 28 Die scholastische Methode S. 337 Die Lectio oder Vorlesung als Hauptmittel der Lehre und Textvermehrung. Ihr Fortleben bis heute. Die Disputatio oder Diskussion und der Seminarbetrieb. Ihr Fortleben in einigen akademischen Prüfungsverfahren. Die „Sic-et-Non-Methode“ oder „Quaestionenmethode“ als Forschungsmethode der Alternativen von Wahrheit und Falschheit. Ihr Schema in den Dispositionen des Stoffes der großen „Summen“. Ihr Fortleben im Gerichtsprozeß. XXIII § 29 Der Universalienstreit und die Konstitution der wissenschaftlichen Objekte S. 341 Die neuplatonische bzw. platonistische Konstitution der Universalien als eigentliches Sein: „Universalia ante rem“. Der logische Aristotelismus bzw. Nominalismus spricht nur den Dingen (res) und den Zeichen eigentliches Sein zu und leitet die Universalien von diesen ab: „Universalia post res“. Die Perfidie der Bezeichnng „Ideenrealismus“ für den platonischen Standpunkt bei den Aristotelikern. Die Konkordienformel des Albertus Magnus: „Universalia ante rem, in re et post rem“. Folgen für die Konstitution von Geistes- und Naturwissenschaften. § 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des Wissens durch Glauben S. 344 Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie vs. die Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die Definition des metaphysischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard. Wissen und Glauben bei Thomas von Aquin und Wilhelm von Ockham. Der Auftrieb des quadrivial-mathematischen Studiums des „Buches der Natur“ als Glaubens- und Wissensquelle. Die Rationalisierung der Dogmen durch die Mathematik bei Roger Bacon und Nikolaus von Kues. Die Synthese des Nikolaus von Kues: die Docta ignorantia als höchste mathematische „Vernunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat Glaubensvoraussetzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens durch (wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit. § 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“ und die neue „Quadriviallogik“ der Mathematik S. 368 Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen Lehrprogramm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie bei Thomas von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die euklidisch-mathematische Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen Begriffe durch geometrische Darstellungen und ihre Formalisierungen. Die Null und das Infinitesimal-Infinite als „Zahl und zugleich NichtZahl“. Euklidisch-mathematische Logik als „höchste dialektische Vernunfteinsicht“ bei Nikolaus von Kues und Kant. Das Auseinandertreten der trivialen Logik und der euklidisch-quadrivialen Logik. C. Die Wissenschaftsphilosophie der Neuzeit S. 387 - 452 § 32 Allgemeine Charakteristik der Tendenzen S. 387 Antike Wissenschaften als Vorbilder der neuzeitlichen Wissenschaften. Die Osmose der Paradigmen. Die Spezialisierung der Wissenschaftler und das Aufkommen des Genie-Kultes der „göttlichen“ Schöpferpersönlichkeit. Die humanistische Wende zum Subjekt. Antischolastizismus und neue Scholastik in den neuen Universitäten und außeruniversitären Institutionen. § 33 Die „humanistische“ Wende zum Subjekt S. 389 Der Renaissance-Humanismus als dritte Wende zum Subjekt. Die „klassische Philologie“ als Vermittlungsinstitution des antiken Wissens. Die Präponderanz des geistigen Wesens des Menschen. Der neue (platonische) Idealismus bei Descartes, im englischen Idealismus, bei Malebranche, Spinoza und Leibniz. Vom geistigen Wesen des Menschen zum „transzendentalen Subjekt“ und zum „Weltgeist“. Von der Geisteswissenschaft zu den modernen Geisterlehren. § 34 Der Antischolastizismus der Renaissance S. 391 „Ad fontes!“ oder die Jagd nach den Dokumenten der Antike. Die philologische Textforschung und die Reformation. Antischolastizismus als protestantische Kritik an der katholischen Theologie und ihrer Indienstnahme der Wissenschaften. Die Wiederbelebung der antiken quadrivialen Wissenschaften und ihre Stilisierung als Überwindung scholastischer Irrtümer. Zeugnisse aus J. F. Fries „Geschichte der Philosophie“ von 1848. Neuere Korrekturen und das Fortwirken des Antischolastizismus im Antihistorismus der modernen Mathematik und Naturwissenschaften. XXIV § 35 Die Methodenentwicklung der Natur- und Geisteswissenschaften: Empirische Datensicherung und theoretische Erklärung der Phänomene S. 396 Die Ausgestaltung der platonischen „freien Künste“ zu den neuzeitlichen Geistes- und Naturwissenschaften. Ihre aristotelische Stufung in beschreibende „Graphien“ als Basis und erklärende Zusammenhangsstiftung als theoretischer Überbau. Die vermeintliche Überwindung der aristotelischen Vier-Ursachenerklärung. Deren Fortwirkung und Ausgestaltung in platonisch-dialektischer (mathematischer) Begriffsbildung in der klassischen Mechanik und Dynamik von Cusanus über Kopernikus, Kepler, Galilei, Descartes, Leibniz bis Newton und d‟Alembert. Die hermeneutische Vier-Ursachenerklärung in den Geisteswissenschaften. Der Entwicklungsgedanke als neuzeitlicher Ersatz der Vier-Ursachenkonzeption. §36 Die Vereinseitigung der deskriptiv-empirischen und der theoretischen Forschungsmethodologien, ihre philosophischen Begründungen und ihre Folgen für die Lage der Natur- und der Geisteswissenschaften S. 414 Die historische Kategorisierung eines kontinentaleuropäischen Rationalismus und angelsächsischen Empirismus steht im Widerspruch zur handwerklich-experimentellen und theoretischen Grundlage der Naturwissenschaften und zur historischen und systematischen Ausrichtung der Geisteswissenschaften. Methodische Vereinseitigungen von Empirie und Theorie in der Wissenschaftstheorie und ihre Fortwirkung bis zum Positivismusstreit. Die vorbereitende Rolle der ontologischen Zwei-Weltenlehre seit Descartes für das Gegenstandsverständnis der Geistes- und Naturwissenschaften. Die Folgen der Spaltung der Philosophischen Fakultät im 19. Jahrhundert an der Nahtstelle von Trivium und Quadrivium für die Ausdifferenzierung von Einzelwissenschaften in der Philosophischen und in der Mathematisch-Naturwissenschaftlichen Fakultät sowie in den Technischen Hochschulen. Ihre Mehrfach-Studiengänge und die Ein-Fachstudien in den ehemals „Höheren Fakultäten“ und ihren Ausgründunge § 37 Die Ausbildung der „-Ismen“ als Charakterisierungsmittel wissenschaftlicher Globalsysteme S. 423 Die antiken und mittelalterlichen Kennzeichnungen von Denkweisen und Weltanschauungen nach Schulen, ihren Vordenkern und nach Schulorten. Die neuzeitliche Philosophiegeschichtsschreibung (J. J. Brucker) und ihre Systembezeichnungen auf der Grundlage des mos geometricus. Die „evolutionären Systeme“ seit Schelling und Hegel. Übersicht der geläufigen Ismen. § 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die Ausbildung der modernen Metaphysiken S. 427 Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinander. Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Friessche („Münchhausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstammen. Die moderne Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische Metaphysiken als Physikalismus, Biologismus und Psychologismus. Moderne idealistische Metaphysiken als Pragmatismus, Empirismus-Historismus und Rationalismus. § 39 Realismus und Idealismus in der Wissenschaftsphilosophie S. 434 Die Widersprüchlichkeit des klassischen realistischen Prinzips: Dinge an sich als unerkennbar-erkannte Wirklichkeit. Die Widersprüchlichkeit des klassischen idealistischen Prinzips: Pychische Vermögen als tätig-untätige Subjektbestimmungen. Die Tilgung der Negationen in den widersprüchlichen Prinzipien und die Induktion des idealistischen Prinzips: Die Identität der positiven Merkmale des realistischen und idealistischen Prinzips. Der gereinigte Idealismus als wahre phänomenalistische Metaphysik. XXV D. Die gegenwärtigen wissenschaftstheoretischen Schulen bzw. Strömungen S. 453 612 § 40 Der logische Empirismus bzw. die Analytische Philosophie S. 453 Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Die Einheit der Wissenschaft. Das Sinnkriterium wissenschaftlicher Sätze. Die wissenschaftliche Erklärung. Wahrscheinlichkeit. Theoriendynamik. Das Bedeutungsproblem. Kritik der Theorien von Frege, Carnap, Tarski, Quine, Goodman, Putnam, Dummet und Davidson § 41 Der kritische Rationalismus S. 475 Kritischer Rationalismus als Filiation der Analytischen Philosophie. Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff K. R. Poppers. Zur Methode der Falsifikation. Zentrale Probleme: Das Demarkationsproblem. Die Bewährung von Theorien. Das Begründungsproblem. Wahrheit und Wahrscheinlichkeit. Die evolutionäre Wissenschaftsentwicklung nach Th. S. Kuhn. Das LeibSeeleproblem bei Popper und Eccles. § 42 Der Konstruktivismus S. 483 Der Ausgang von Konstruktionshandlungen im Handwerk und in der Experimentalphysik. Zur Geschichte: J. G. Fichtes Pragmatismus. Hugo Dingler, Paul Lorenzen, die intuitionistische Mathematik und der französische Konventionalismus Pierre Duhems, Jules Henri Poincarés und LeRoys. Die konstruktivistische Enzyklopädie: Jürgen Mittelstraß und seine Mitarbeiter. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Das Begründungsproblem. Das Problem der Protophysik. Das Problem der Wissenschafts- und Philosophiegeschichte. § 43 Die „kritische Theorie“ der Frankfurter Schule und der dialektische Materialismus S. 493 Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und seine Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in der BRD. Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von Marx und Engels und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung der Hegelschen Dialektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang des Wissens. Die kritische Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme. Die Einheit und Klassifikation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung. Das Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs. § 44 Die Wissenschaftstheorie der Geisteswissenschaften in der Lebensphilosophie, Phänomenologie und in der Existenzphilosophie: Die Hermeneutik des Strukturalismus und die postmoderne Dekonstruktion S. 509 - 612 Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietzsche, Dilthey, Spencer, Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die Sprachwissenschaft von de Saussure bis Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre 535. Zentrale Probleme und Themen: Einheit und Klassifikation der Wissenschaften 546. Die Entwicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische Grundlagen 550. Hermeneutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre Kanons in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564, hinsichtlich der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre Kanons vor allem in den geschichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in der Sprache 583. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst 588. Heidegger u. a. als denkende Dichter 597. Die Kunst als wissenschaftliche Forschung 607 - 612. I. Einleitung: Die Grundideen § 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und Wissenschaften Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des „trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue „geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissenschaften. Zu den Gestalten, in denen heute die Philosophie auftritt, gehört als bekannteste das Fach Philosophie im Rahmen der anderen Fachwissenschaften, vor allem der manchmal noch so genannten Philosophischen Fakultät. Ihre einstmals propädeutische Funktion für das Studium anderer Fachwissenschaften ist seit etwa zweihundert Jahren institutionell der Oberstufe der Gymnasien anvertraut worden, wo sie sich noch als didaktische Befassung mit den philosophischen Klassikern und gelegentlich auch mit modernen philosophischen Strömungen nützlich macht. Gleichwohl ist Philosophie in ihrer propädeutischen Funktion nicht gänzlich aus den Kurrikula der Fachwissenschaften verschwunden. Deren Lehrbücher und einführende Lehre können auch heute nicht auf Hinweise auf philosophische Klassiker und auf deren grundlegende Ideen und maßgebliche Methoden verzichten. Zumal der Appell, daß es in jedem Fach „logisch“ zugehen müsse - neben den Bereichen, wo es „mathematisch“ zugeht - ruft Erinnerungen an die Philosophie hervor, zu deren Bereichsdisziplinen die Logik noch immer als Methodenlehre gehört. Im allgemeinen aber haben sich alle Fachwissenschaften ihre eigenen Propädeutika geschaffen, in denen das philosophische Element kaum noch erkennbar ist. Und ebenso unerkennbar wird es gewöhnlich auch bei manchen Forschungserträgen der Einzelwissenschaften, wo es gewöhnlich in spezifische Fachterminologien eingekleidet ist. Philosophie ist also auch in den Fachwissenschaften schon immer präsent, ob erkannt oder unerkannt. Es bedeutet daher keine Einmischung der Philosophie in die Bereiche und Belange der Einzelwissenschaften, wenn sie daran anknüpft und das Ihre dazu beiträgt, diese Bestände bewußt zu machen und auf ihre Weise zu deren Klärung und Konsolidierung beizutragen. Doch ist Philosophie bekanntlich ein weites Feld, das selber im Zuge der „Verwissenschaftlichung“ in vielerlei Bereiche ausgeweitet und in Spezialdisziplinen 2 gegliedert worden ist. Einer dieser Bereiche betrifft das Verhältnis der Philosophie zu den Einzelwissenschaften, von denen sich die meisten erst seit dem 19. Jahrhundert von der Philosophie getrennt haben. Am weitesten haben sich die ehemals „quadrivialen“ Anteile der Philosophie, also dasjenige, was sich seit Beginn des 19. Jahrhunderts als „Mathematisch-Naturwissenschaftliche Fakultät“ verselbständigte, von der Philosophie getrennt. Und so ist es auch kein Wunder, daß die Mathematiker und die Naturwissenschaftler, die in der Regel keine Philosophen unter sich duldeten und ihnen keine propädeutische Stellung in den neuen Mathematisch-Naturwissenschaftlichen Fakultäten einräumten, am meisten das Bedürfnis spürten, sich ihre eigene fachnahe Philosophie zu entwickeln. Diese Philosophie bildete sich seit Beginn des 20. Jahrhunderts als „Wissenschaftsphilosophie“ der mathematischen Naturwissenschaften aus und ist seither ein Schwerpunkt der Bemühungen der neuen philosophischen Disziplin „Wissenschaftstheorie“ bzw. „Wissenschaftsphilosophie“ geblieben. Das Verhältnis der Philosophie zum ehemals „trivialen“ Teil ihrer Disziplinen, die sich seit Beginn des 19. Jahrhundert in den neuen „Philosophischen Fakultäten“ (einschließlich des Faches „Philosophie“) und darüber hinaus in den alten „höheren Fakultäten“ Theologie und Jurisprudenz als „Geisteswissenschaften“ etablierten, ist demgegenüber immer vergleichweise eng geblieben. Zeitweise war es so intim, daß die Philosophie des 19. Jahrhunderts geradezu nur noch als Philologie und Geschichte der philosophischen Klassiker, also gleichsam als Teilbereich der Philologien und Historiographien Bestand hatte. Und diese Tendenz ist auch heute noch stark genug, um der Gestalt der Philosophie an so manchen philosophischen Fakultäten und Fachbereichen den Anschein zu verleihen, sie sei gerade nichts anderes mehr als Philosophiegeschichte und Klassiker-Philologie. Gerade diese Nähe zu den Geisteswissenschaften oder vielmehr die Integration der Philosophie in die Geisteswissenschaften hat lange verhindert, daß die Philosophie ein entsprechend distanziertes Verhältnis zu den Philologien und Historiographien entwickelte und eine „Wissenschaftsphilosophie der Geisteswissenschaften“ als Bereichsdisziplin entwickelte. Erst seit einigen Jahrzehnten wird dies unter dem Titel der „Hermeneutikdebatte“ nachgeholt. Es liegt aber auf der Hand, daß eine „Philosophie der Wissenschaften“ zugleich und gleichmäßig sowohl eine „Wissenschaftstheorie“ der mathematischen und nicht-mathematischen Naturwissenschaften wie auch der logischen (und manchmal unlogischen) Geisteswissenschaften sein muß. „Wissenschaftstheorie“ wird diese Disziplin in Analogie zur älteren „Erkenntnistheorie“ genannt, obwohl es sich in beiden Fällen keineswegs um eine Theorie, sondern um viele Theorien handelt, die in der Disziplin der „Wissenschaftsphilosophie“ (engl.: Philosophy of Science) verwaltet, diskutiert und auch neu entwickelt werden. Eine solche Spezialphilosophie mit Blick auf die Wissenschaften ist also noch relativ neu und weit davon entfernt, in wünschenswerter Weise konsolidiert zu sein. Man kann heute allenfalls davon sprechen, daß gewisse Theorienbestände über die exakten Naturwissenschaften weiter entwickelt sind und daher eher als 3 konsolidiert gelten als derjenige Teil, der auf die Reflexion der Geisteswissenschaften ausgerichtet ist. Die Wissenschaftsphilosophie arbeitet mit dem Ideenpotential, das das Fach Philosophie insgesamt in seinen geschichtlichen und systematischen Dimensionen bereitstellt, und bündelt es gleichsam in Hinsicht auf die Einzelwissenschaften mit ihren je eigenen Problem- und Erkenntnisbeständen. Auf diese Weise wächst der Wissenschaftsphilosophie bei der üblichen Studienorganisation im Hochschulbetrieb eine hervorgehobene interdisziplinäre Stellung zu. Man studiert - als Erbschaft des alten Studienstils in den Fakultäten, in denen man wie jetzt noch in der Jurisprudenz, Medizin und Theologie alle beteiligten Fakultätsdisziplinen zu studieren hatte -, mindestens eine, gewöhnlich zwei, oftmals (und besonders im Ausland) auch mehrere Fakultätswissenschaften neben dem Fach Philosophie und bringt somit immer schon eine gewisse Vertrautheit mit dem Wissensstand wenigstens der einen oder anderen Fachwissenschaft mit. Die Wissenschaftsphilosophie ist dann die sich anbietende Schwerpunktdisziplin, die anstehenden methodischen und enzyklopädischen Voraussetzungen dieser Fachwissenschaften im Lichte allgemeiner philosophischer Gesichtspunkte zu erörtern und zu vertiefen. Aus der Architektonik der philosophischen Disziplinen läßt sich auch vorgängig schon erkennen, auf welche Gesichtspunkte es dabei wesentlich ankommt. Jede Einzelwissenschaft macht grundsätzlich metaphysische Voraussetzungen, die als „Letztbegründungen“ gewöhnlich im Fach selbst kaum mehr erkannt und demnach auch nicht diskutiert werden. Weiterhin setzt sie sich ontologische Rahmungen für die Abgrenzung ihres Gegenstandsgebietes von den Gegenständen der übrigen Einzelwissenschaften. Nicht minder gehen erkenntnistheoretische, praxeologische und anthropologische Vorgaben in die Konstitution jeder Einzelwissenschaft ein, die gewöhnlich als so selbstverständlich und natürlich gelten, daß man höchstens in Krisenlagen eines Faches auf sie aufmerksam wird. In der Tat jedoch schreiben die verschiedenen Einzelwissenschaften in der Regel ziemlich altüberkommene philosophische Grundlagentheorien aus der Geschichte der Metaphysik, Ontologie, Erkenntnistheorie, praktischen Philosophie und philosophischen Anthropologie fort. Und um darauf aufmerksam zu werden und dementsprechend auch Neuerungen in diesen Feldern benutzen und anwenden zu können, muß und kann man bei diesen Erwägungen immer wieder die ganze Philosophiegeschichte zurate ziehen. So können wir zusammenfassend feststellen: Als Bereichsphilosophie gehört die Wissenschaftsphilosophie zu denjenigen Disziplinen der Philosophie, die das Studium der philosophischen Grunddisziplinen Ontologie, Erkenntnistheorie einschließlich der Logik, philosophische Anthropologie und Praxeologie sowie der Metaphysik voraussetzen und deren Ideenpotentiale für die Reflexion auf die Einzelwissenschaften bündeln. Sie faßt affine Probleme, Thematiken und Voraussetzungen dieser Grunddisziplinen für die philosophische Grundlegung der Einzelwissenschaften und die spekulative Durchdringung der ihnen zugeordneten 4 Wirklichkeitsbereiche zusammen. Sie ist darum auch für die Selbstreflexion der Einzelwissenschaften und die philosophische Vertiefung ihres Studiums eine wesentliche Voraussetzung. § 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind. Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag einer Architektonik der Wissenschaften Eine Architektonik der Philosophie macht den Voraussetzungszusammenhang der Disziplinen und Einzelwissenschaften und ihr Verhältnis zu ihren Gegenstandsbereichen deutlich. Ihre Struktur spiegelt sowohl historische wie systematische Zusammenhänge in der Philosophie wider. Philosophie beginnt bei den Vorsokratikern mit metaphysischen Problemstellungen, und sie entwickelt sich im Laufe ihrer Geschichte zu immer differenzierterer Problembetrachtung in Grund- und Bereichsdisziplinen, aus denen sich ihrerseits die meisten Einzelwissenschaften ablösen und verselbständigen. Der systematische Zusammenhang ist u. a. auch ein logischer: Die Benennungen der Disziplinen und Wissenschaften gliedern sich in ein Gattungs-, Art- und Unterartgefälle und stellen eine Klassifikation der Wissenschaften dar. Das allgemeinste „metaphysische“ Ideenpotential erhält sich im jeweils untergeordneten Besonderen als „generischer“ Ideenbestand und wird hier spezifiziert. Ontologie setzt Metaphysisches voraus als Vorbegriff von Wirklichkeit, die nun näher nach Wirklichkeitsbereichen oder Wirklichkeitsschichten spezifiziert wird. Philosophische Anthropologie setzt ein metaphysisches „Wesen des Menschen“ voraus und spezifiziert es nach seinen Anteilen an ontologischer Wirklichkeit bzw. nach Vermögen, Kräften und Anlagen. Erkenntnistheorie (Gnoseologie) setzt die beiden metaphysischen Pole eines (ontologischen) Erkenntnisgegenstandes und eines (anthropologischen) Erkenntnissubjektes voraus und spezifiziert deren Verhältnisse zueinander. Praktische Philosophie (Praxeologie) ergänzt die „theoretischen“ Aspekte des Verhältnisses von menschlicher zur übrigen Wirklichkeit um die Aspekte des Handelns und Schaffens, der Eingriffe und Verflochtenheit des menschlichen Subjektes in die objektive Wirklichkeit. 5 Was in diesen Grunddisziplinen als Erkenntnis- und Ideenvorrat erworben wurde, wird seinerseits Voraussetzungspotential für die Bereichsdisziplinen. Natur, Kultur und Sinngebilde sind spezifizierte ontologische Bereiche, die in jeweils speziellen Formen, Mustern, Schematen von Menschen erkannt und handelnd durchdrungen werden. In diesem Bemühen hängen die Bereichsdisziplinen der Philosophie und die Einzelwissenschaften aufs engste zusammen und sind auf vielen Forschungsgebieten kaum von einander zu trennen. Dieser Zusammenhang der philosophischen Disziplinen und der Wissenschaften ist in der Wirklichkeit selber begründet, die grundsätzlich eine einzige ist. Die Wissenschaften betrachten und erforschen einzelne Teile dieser Einheit. Aber aus ihrer traditionellen Arbeitsteilung heraus neigt jede Einzelwissenschaft dazu, ihren Wirklichkeitszuschnitt als einen selbständigen und von den Gegenständen der anderen Wissenschaften unabhängigen Gegenstand anzugehen. Eine solche Unabhängigkeit kann es aber nicht geben. Die Verbindungen jedoch, durch die sie zusammenhängen, bleiben gewöhnlich im blinden Fleck ihrer Sichten. Es sind gerade die philosophischen Disziplinen und letzten Ende die Metaphysik, deren Blick einzig und allein auf das Ganze der Wirklichkeit gerichtet ist und diese Einheit zum Thema macht. Machen wir einen Vorschlag zu einer solchen Architektonik. Ihre philosophische Ausgangsdisziplin ist also die Metaphysik als Kerndisziplin der allgemeinsten Prinzipien der Philosophie bzw. der Gesichtspunkte aller Weltanschauungen. Sie liefert die speziellen Ausgangsgesichtspunkte für die vier Grunddisziplinen Ontologie (Wirklichkeitslehre), philosophische Anthropologie (philosophische Lehre vom Menschen, nicht mit der biologischen und medizinischen Anthropologie zu verwechseln), Erkenntnistheorie (Erkenntnislehre) und praktische Philosophie (Lehre vom Handeln und Schaffen, nicht mit praktischem Philosophieren zu verwechseln). Aus ihnen stammen die Leitgesichtspunkte für die sogenannten Bereichsdisziplinen. Diese stehen in engstem Kontakt mit den Einzelwissenschaften und können daher nicht ohne deren einschlägiges Fachwissen entwickelt, studiert und gelehrt werden. Zur Klassifizierung der Bereichsdisziplinen und der ihnen zugeordneten Einzelwissenschaften dienen in der Regel ontologische Abgrenzungen von Wirklichkeitsbereichen als deren Forschungsobjekten. Die in Europa älteste und bis heute geläufig gebliebene ontologische Unterscheidung ist diejenige in Natur- und Geisteswissenschaften. Davon wird in den folgenden Paragraphen noch vielfach die Rede sein. Diese Unterscheidung knüpft an die traditionelle Vorstellung der Trennbarkeit von materieller Natur und immateriellen psychischen bzw. geistigen Gegebenheiten an. Darunter stellte man sich früher Seelen und Geister, Engel und Götter oder den Gott, später auch Bewußtsein und Bewußtseinsinhalte als rein geistige Gebilde vor. So wurde „Geisteswissenschaften“ gemeinsame Bezeichnung für die wissenschaftliche Befassung mit solchen Gebilden. 6 An diese traditionelle Grundunterscheidung anknüpfend, sei hier eine weitere Unterscheidung innerhalb der Geisteswissenschaften vorgeschlagen, die den modernen Entwicklungen Rechnung trägt. Es ist die Unterscheidung zwischen reinen Sinngebilden (Ideen, Formen, Normen) die von einer materiellen Naturunterlage als deren „Träger“ genau unterscheidbar sind, und demjenigen, was man Kultur (das Gesamt der Artefakte) nennt. Kultur als ontologischer Wirklichkeitsbereich ist dadurch gekennzeichnet, daß sich Geistiges als Sinn und Bedeutung“ mit natürlichen Trägern dieses Sinnes verbindet und gleichsam amalgamiert. Mit dieser Unterscheidung haben wir es folglich mit drei philosophischen Bereichsdisziplinen und entsprechend mit drei Gruppen von Wissenschaften zu tun: Naturwissenschaften, Kulturwissenschaften und Sinngebildewissenschaften. Naturphilosophie umfaßt weiter spezialisiertes Forschungsbemühen um die sogenannte tote Natur, die lebendige (organische) und die menschliche Natur. Kulturphilosophie läßt sich nach den einzelnen Kulturbereichen wie Sprache, Recht, Religion, Kunst, Technik, auch Wissenschaft selbst, usw., weiter einteilen. Und das gilt dann auch für entsprechende Kulturwissenschaften. Deshalb bilden sich auch heute spezielle „Wissenschaftswissenschaften“ heraus wie etwa Wissenschaftssoziologie, Wissenschaftsgeschichte, Wissenschaftspsychologie, Wissenschaftsökonomie usw. Als Sinngebildephilosophien bezeichnen wir diejenigen Bereichsphilosophien, in denen Normen, Werte, Regeln und reine Ideen als Sinngebilde speziell betrachtet und erforscht werden. Sie sind als Regelanweisung und deren Systematisierung für das Handeln entwickelt worden und behielten von daher stets einen methodischen oder technischen Charakter. Man kann sie daher überhaupt als Methodiken für die Anwendung von Ideen auf einzelne Gebiete bezeichnen. Darauf verweisen auch ihre Bezeichnungen, die gewöhnlich auf „-ik“ enden (von griech.: iké téchne). Am beständigsten hat sich seit der Antike die Logik (in der Antike und im Mittelalter auch „Dialektik“ genannt) als Methode und Regelkanon für das richtige Denken gehalten. Sie ist daher auch stets eine der wichtigsten philosophischen Bereichsdisziplinen geblieben. Neben ihr stehen aber auch Ethik, Ökonomik und Politik (aus den aristotelischen „praktischen Disziplinen“) mit den in ihnen entwickelten Normen, Maximen, Regeln und „Gesetzen“. Auch aus den ehemaligen Trivialdisziplinen Grammatik und Rhetorik des platonischen Kanons haben sich eine Reihe jetzt selbständiger Geisteswissenschaften entwickelt. Mathematik mit den Schwerpunkten Arithmetik und Geometrie aus dem platonischen Quadrivium gehört jetzt als exemplarische Einzelwissenschaft zu diesen Sinngebildewissenschaften. Sie bleibt auch im Rahmen der Disziplinen der mathematisch-naturwissenschaftlichen Fakultät eine reine Geisteswissenschaft bzw. Sinngebildewissenschaft und wird deshalb im Titel der „MathematischNaturwissenschaftlichen“ Fakultät stets besonders genannt. Der Vorschlag zu einer Architektonik der philosophischen Disziplinen und der zugeordneten Wirklichkeitsbereiche sieht demnach folgendermaßen aus: 7 Architektonik der Wissenschaften Kerndisziplin: Grunddisziplinen: Bereichsdisziplinen: METAPHYSIK Ontologie Anthropologie Erkenntnistheorie Praxeologie Naturphilosophie Kulturphilosophie Sinngebildephilosophie Wissenschaftsphilosophie Einzelwissenschaften: Naturwissenschaften Kulturwissenschaften Wissenschaftswissenschaften Sinngebildewissenschaften Wirklichkeitsbereiche: SINNGEBILDE NATUR KULTUR (Artefakte) Wissenschaft § 3 Wahrheit als Ideal der Wissenschaft Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die Vermischung der Kulturbereichs-Ideale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Die realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile und Stärken und ihre Problematik Die Wissenschaft als Kulturinstitution ist auf die Akkumulation, Sicherung, Verwaltung, Tradierung und Erweiterung von Wissen abgestellt. Diese Aufgabenstellung spricht sich schon in ihrer über zwei Jahrtausende konstant gebliebenen Bezeichnung aus. Die über alle Jahrhunderte unangefochtene Kontinuität der Institution Wissenschaft im Abendland spricht dafür, daß sie diese Aufgabe im allgemeinen zum Nutzen der Staaten, Gesellschaften und der einzelnen Menschen gemeistert hat. Davon zehrt natürlich auch die heute noch bemerkbare Hochschätzung der Wissenschaft. Sie zeigt sich vor allem in der oft beschriebenen „Verwissenschaftlichung“ aller Lebensbereiche, einer Durchdringung der Menschenbildung – gleichsam von der Wiege bis zur Bahre – mit wissenschaftlichen Inhalten, und jeder Art von Praxis mit wissenschaftlichen Methoden und Techniken. Erst recht zeigt sie sich in den Erwartungen, die man gegenüber der Wissenschaft für die Lösung von Gegenwarts- und Zukunftsproblemen hegt. Die 8 „Ressource“ Wissenschaft gilt, wenigstens den politischen Verlautbarungen nach, in allen Staaten, denen es an Bodenschätzen, klimatisch günstigen Bedingungen und anderen natürlichen Ressourcen fehlt, als das wichtigste Gut, mit dem sich individuelles Wohlbefinden (Gesundheit, langes Leben, „Glück“), allgemeiner Wohlstand und Weltfrieden herbeiführen und sichern lasse. Unerwünschte Nebenfolgen der verwissenschaftlichten Zivilisation gelten als „Kollateralschäden“, die sich durch noch mehr Wissenschaft in Gestalt wissenschaftlicher „Techniknebenfolgenabschätzung“ und ethischer Kontrolle beseitigen, vermeiden oder konterkarieren ließen. Auch wer dies anders sieht und sich etwa als moderne Kassandra betätigen möchte, tut gut daran, sich auf Wissenschaft zu berufen, wenn er überhaupt gehört und ernst genommen werden möchte. Was die Wissenschaft immer im Innersten zusammengehalten hat ist ihr Ideal der Wahrheit, das sie als einen der höchsten Kulturwerte etabliert hat. Von daher scheint es ganz natürlich, daß man wissenschaftliches Wissen immer auch als wahres Wissen verstanden hat, und wissenschaftliches Wissen einen Vertrauensvorsprung vor allem anderen Wissen genießt. Auch andere Kultur- und Zivilisationsbereiche außerhalb und neben der Wissenschaft haben ihre traditionellen Wertideale, die für deren Institutionen und Praktiken Ziel und Gehalt bestimmen und gleichsam ihre Permanenz gewährleistet haben. Der Religion und dem Kultus geht es um das Heil, dem Rechtswesen um die Gerechtigkeit, der Politik um das Bonum Commune des jeweiligen Staates, der Wirtschaft um die optimale Daseinsvorsorge, dem Medizinalwesen um die Gesundheit, der Technik um das Machbare, dem Sport geht es (leider fast nur noch) um die Ausweitung der körperlichen Leistungsfähigkeiten des Menschen. Worum es heute der Kunst geht, ist sehr umstritten; ehemals ging es ihr um das Schöne. Alle diese Zwecksetzungen haben in der Geschichte mit der Wissenschaft darin konkurriert, ihre Ideale zu verallgemeinern und auf die übrigen Bereiche und besonders auf die Wissenschaft auszudehnen. Und diese Tendenzen sind immer noch aktuell und tragen heute mehr denn je zur Unklarheit über das Wesen der Wissenschaft und die Ideale der übrigen Kulturbereiche bei. Wenn man nur noch wissenschaftlich, d. h. „theologisch“ fromm und gläubig ist, die Gerechtigkeit nicht mehr von jedem Rechtsgenossen erspürt und gelebt, sondern von rechtswissenschaftlicher Forschung und Auslegung erwartet wird, wenn das Bonum Commune von wissenschaftlicher Politikberatung abhängig gemacht wird, die Wirtschaft nach Nobelpreistheorien gesteuert, Gesundheitsvorsorge nach dem letzten Stand der Schulmedizin bemessen wird, die Technik nur noch als „Forschung und Entwicklung“ begriffen, der Sport von der Dopingmedizin getragen, das, was Kunst sein soll, vom Urteil der Kunstwissenschaft bestimmt wird, so braucht man sich nicht zu wundern, wenn die Laien in allen diesen Bereichen irritiert oder frustriert sind. Es wird ihnen zugemutet, ihre traditionellen Einstellungen in diesen Bereichen für wissenschaftlich überholt und als falsch geworden anzusehen. 9 Die traditionellen Ideale der Kulturbereiche treten jetzt als religiöser Fundamentalismus, quärulatorische Übersensiblität in den Rechtsverhältnissen, politischer Dezisionismus aus partikulären Machtinteressen, als primitive Sammler-, Jägerund Tauschmentalitäten sowie als vorindustrielle Produktion und Landwirtschaft, alternative Gesundheitsmagie, sportliches „body-building“ und als „Jedermann ist Künstler“-Einstellungen auf und erleben eine gewisse Konjunktur als Gegenwehr und Alternativen zu den wissenschaftlich vorgegebenen Zielen. Aber auch für die Wissenschaft ist das folgenreich. An die Stelle ihres epochalen Ideals, der Wahrheit zu dienen, treten diese traditionellen Ideale der einzelnen Kulturbereiche, oder diese Kulturideale gehen mannigfaltige Verschmelzungen mit dem Wahrheitsideal ein. Von der Wissenschaft erwartet man dann gläubig das Heil der Welt. Man unterstellt ihre Organisation dem Gerechtigkeitsideal und verlangt von ihr die politische Förderung des Bonum Commune. Man bewertet sie ökonomisch als Dienstleistungs- und Produktionsstätte von Wissen und ausgebildetem Humankapital. Man empfielt sie als Diagnostik, Anamnese und Therapeutik für alle Gebrechen der modernen Welt. Man hält sie weitgehend nur noch nach dem Maßstab des Einsatzes avanciertester Technik für seriös. Und man feiert nicht zuletzt (wie früher in der Kunst) die Auffälligkeit, den Glanz, die Schönheit und Eleganz sowie die Genialität ihrer Spitzenleistungen. Die hybriden Ideale dienen jetzt überall als Kriterien für die Beurteilung wissenschaftlicher Leistungen. Von Wahrheit ist dabei am wenigsten oder überhaupt nicht mehr die Rede, wie jeder Gutachter in wissenschaftlichen Angelegenheiten weiß. Wissenschaftliche Leistungen werden kaum noch danach beurteilt, inwieweit sie wahres Wissen fördern, sondern wie weit und kräftig sie einem der genannten Hybridideale entsprechen. Jedoch hat die Amalgamierung des Wahrheitsideals der Wissenschaft mit Idealen anderer Kulturbereiche eine lange Geschichte. Nennen wir nur einige jedem Wissenschaftler bekannte Beispiele. In der mittelalterlichen Scholastik sollte nach einigen (aber keineswegs allen) Theologen „die Philosophie die Dienerin der Theologie sein“ (philosophia ancilla theologiae), wobei Philosophie für alle Wissenschaften des Triviums und Quadriviums stand. Das wurde meist so verstanden und auch praktiziert, daß Wissenschaft von der Kirche, und mittels ihres Einflusses auch durch weltliche Machthaber, überhaupt nur soweit zugelassen und gefördert wurde, als sie theologischen Interessen, d. h. dem Heile der christlichen Gesellschaft diente. Diese Einstellung setzte sich von Seiten der katholischen Kirche über den „Modernistenstreit“ des 19. bis zum berühmten Werturteilsstreit zu Beginn des 20. Jahrhunderts fort. Seither haben sich jedoch im christlichen Abendland alle Kirchen und die meisten ihrer Theologen dem Kantischen Votum angeschlossen, daß dieser Dienst der Philosophie nicht darin bestehe, hinter der Theologie – „ihr die Schleppe tragend“ - herzulaufen, sondern – „ihr das Licht der Vernunft vorantragend“ (I. Kant) – 10 voranzugehen. Aber das gilt ersichtlich nicht von allen Religionen, die heute in der Welt ihre „Wahrheiten“ verkünden. Im 20. Jahrhundert wurden große Teile der Wissenschaft in den ideologischen Dienst des Faschismus und Kommunismus genommen. Statt der Wahrheit hatte Wissenschaft politischen Idealen der „Parteilichkeit“ und der nationalen Gewinnung des „Weltmachtstatus“ zu dienen. Was in den beteiligten Staaten und für die Welt dabei herauskam, ist bekannt, ebenso das, was an Nachwehen bis heute wirksam blieb. Mit der 68er-Revolution trat das Ideal der Emanzipation in den Mittelpunkt der politischen Diskussion. Den Juristen erinnerte „Emanzipation“ noch an die römischrechtliche Entlassung von Kindern aus der Obhut und Gewalt des „pater familias“. Für linke Ideologen war Emanzipation das Ziel aller historischen Klassenkämpfe zur Befreiung des Individuums aus gesellschaftlichen Zwängen. Für Pädagogen war es das Erziehungsziel der „Mündigmachung“ junger Menschen, wie es in der „mittleren Reife“ und im „Reifezeugnis des Abiturs“ verbrieft wurde. In den neueren Studienreformen aber wurde die Emanzipation zum Recht auf Teilhabe am zwanglosen permanenten Diskurs, und die wissenschaftliche Wahrheit dadurch zum Ergebnis solcher „emanzipatorischen“ Diskurse. Wie man weiß, war die Umsetzung des Emanzipations-Ideals in den modernen westlichen Gesellschaften überall im Sinne der Propagandisten erfolgreich. Die Väter und Mütter büßten die rechtliche Verantwortung für ihre Kinder ein oder gaben sie auf. Die Erreichung des „Reifezeugnisses“ und die Zulassung zum wissenschaftlichen Hochschulstudium wurde fast zum Menschenrecht, und die Standards aller Ausbildungsgänge wurden entsprechend angepaßt. Während die emanzipatorische Revolution noch weiterläuft, scheint inzwischen das Ideal der ökonomischen Daseinsvorsorge das gesamte westliche Wissenschaftssystem zu steuern. Wissenschaft wird gemäß herrschender „Shareholdervalue-Mentalität“ ständig nach ökonomischem Nutzen evaluiert, industriell organisiert und nach maximalem Output an wirtschaftlich und technisch umsetzbaren Ideen und beruflich verwendbaren Absolventen finanziert. Die Organisation der Hochschulen wurde im „Bolognaprozeß“ durch neue Hochschulgesetze gänzlich nach BWL-Gesichtspunkten, d. h. als wirtschaftliche Unternehmung gestaltet. Der Staat schließt „Zielvereinbarungen“ und „Pakte“ mit seinen Hochschulen ab, die auf Lieferung des gewünschten Outputs an Forschungs- und Ausbildungsresultaten abgestellt sind. So wurde die einstige Gelehrtenrepublik in viele Präsidialdiktaturen umgewandelt. Die Universitäten und Hochschulen haben statt Rektoren nun allmächtige Vorstandsvorsitzende, die von niemandem verantwortlichen Hochschulräten (deren Mehrheit aus Vorstands- und Aufsichtsräten von Großbetrieben und von gesellschaftlichen Gruppen stammt) gewählt und beraten werden. Die ehemaligen akademischen Selbstverwaltungsgremien führen hinsichtlich ihrer übriggelassenen Kompetenzen ein Schattendasein, wenn auch voller Betriebsamkeit. Sie dürfen ständig neue Richtlinien umsetzen und Vollzugsmeldungen abgeben und 11 sich im übrigen um „Exzellenz“ bemühen. Diese besteht bisher weitgehend darin, werbewirksame Großprojekte, d. h Absichtserklärungen, „Alleinstellungsmerkmale“ und „Profile“ für künftige Forschungsvorhaben auszuarbeiten. Die Lehrinhalte bzw. Kurrikula werden durch private Akkreditierungs- und Evaluationsagenturen lizensiert, d. h. genehmigt oder abgeschafft. Die Ausstattungen der Fakultäten und Institute sind seit langem auf niedrigem Niveau und weit hinter den Bedürfnissen erheblich zunehmender Studierendenzahlen eingefroren. Die Lehrenden und Forscher werden hauptsächlich danach beurteilt, ob und wieviel „Drittmittel“ sie von Stiftungen und Sponsoren für ihre Forschungsvorhaben und die Anstellung von Mitarbeitern einwerben können. Daß die Wirtschaft mit ihren speziellen Idealen nicht als Vorbild für die Wissenschaft taugt, liegt zwar offen zutage, hat aber noch nicht zu einer höchst nötigen Tendenzwende geführt. Bleiben wir diesen modernen Tendenzen gegenüber dabei, daß es in der Wissenschaft wesentlich um die Wahrheit geht. Das heißt zugleich, daß es in ihr auch um die Falschheit und um das, was zwischen beidem liegt, gehen muß. Das zu betonen ist schon deshalb wichtig, weil das Falschheitsproblem und das Problem des Mittleren zwischen Wahrheit und Falschheit, nämlich das, was man üblicherweise Wahrscheinlichkeit nennt, und das im folgenden als „Wahr-Falschheit“ definiert wird, gegenüber dem Wahrheitsproblem stark unterbelichtet geblieben sind. Die Frage nach der Wahrheit begleitet die Philosophie und die Wissenschaften seit ihren Anfängen. Daher kann es nicht verwundern, daß die Entfaltung der Philosophie in Grunddisziplinen, wie wir sie im vorigen Paragraphen dargestellt haben, entsprechende Fassungen des Wahrheitsproblems und spezifische Wahrheitsbegriffe hervorgebracht haben, die auch im heutigen Verständnis noch eine Rolle spielen. Man spricht hier von ontologischen, anthropologischen, praktischen bzw. pragmatischen oder gar pragmatistischen und erkenntnistheoretischen Wahrheitsbegriffen, die sich dann auch in den Einzelwissenschaften zur Geltung bringen. Der zentrale und für die Wissenschaftsphilosophie ausschlaggebende Wahrheitsbegriff gehört indessen zu den metaphysischen Vorgaben aller Wissenschaften. Von ihm müssen sich auch die grunddisziplinären Wahrheitskonzeptionen ableiten lassen. Der metaphysische Wahrheitsbegriff geht als sogenanntes generisches Merkmal in alle Arten und Unterarten von Wahrheitsbegriffen ein, die ihn nach ihren disziplinären Bedürfnissen spezifizieren. Betrachten wir die grunddisziplinären Wahrheitsbegriffe. Der sogenannte ontologische Wahrheitsbegriff läßt sich am besten durch den Begriff der Echtheit näher bestimmen. Man sagt bekanntlich, das Echte sei das Wahre, weil es „wirklich so ist, wie es sich zeigt“. Ontologisch Wahres ist daher „reines bzw. objektives Sein“. Jeder kennt auch die „echte Geldnote“ und unterscheidet sie von der „falschen bzw. gefälschten“. Das verweist auf das ontologische Gegenteil des Echten, nämlich den „Schein“ oder die „Erscheinung“, hinter 12 denen sich entweder etwas anderes als das Echte verbirgt oder überhaupt „Nichts“ steht. Der ontologische Wahrheitsbegriff hat in den Geistes- und Literaturwissenschaften immer schon eine bedeutende Rolle gespielt. Die in den Philologien und in den historischen Disziplinen gepflegte „Quellenkritik“ richtete sich stets auf die Unterscheidung des Echten vom Falschen bzw. Gefälschten. Und zur sogenannten Kunstkritik gehörte immer die Bemühung um Unterscheidung der „echten“ Kunstwerke von den gefälschten. Dies blieb eine ständige Aufgabe. Auch in den Naturwissenschaften hat diese Unterscheidung von Echtheit und Fälschung oder Verfälschung eine oft unterschätzte, aber neuerdings in der Gestalt fraudulösen Schwindels wieder viel beachtete Bedeutung. Hierzu gehört der Unterschied zwischen den tatsächlichen Naturphänomenen, die man gerne wahre oder echte nennt, von den künstlich in die Faktenfixierung (etwa durch Beobachtung) hineingetragene Verfälschungen. Diese „künstlichen Effekte“ nennt man „Artefakte“. Dieser naturwissenschaftliche Artefaktbegriff ist von dem kultur- und geisteswissenschaftlichen Artefaktbegriff zu unterscheiden. Von manchen naturwissenschaftlichen Artefakten ist bis heute umstritten, ob es um echte Phänomene oder Artefakte (oft auch „Dreckphänomene“ genannt) handelt. Der anthropologische Wahrheitsbegriff ist eine Ausweitung des ontologischen Echtheitsbegriffs auf den Menschen bzw. auf ein Subjekt, das einem ontologischen Objekt gegenübergestellt wird. Hier spricht man von Wahrhaftigkeit bzw. Ehrlichkeit eines Menschen oder Charakters und stellt sie wiederum der Falschheit, evtl. der Verlogenheit, Verschlagenheit oder Verstellungskunst eines Charakters gegenüber. Diese menschliche Wahrhaftigkeit und Ehrlichkeit ist naturgemäß integrativer Bestandteil des wissenschaftlichen Wahrheitsideals. Ohne sie hätte der wissenschaftliche Forscher und Lehrer im Abendland nicht das Ansehen gewinnen können, von dem seine gesellschaftliche Stellung noch immer zehrt. Der praxeologische bzw. pragmatistische Wahrheitsbegriff, der heute eine besondere Konjunktur hat, verknüpft Wahrheit mit dem Nutzen bzw. dem Erfolg von Handlungen. Das klingt schon deshalb recht plausibel, weil man seit jeher Mißerfolg und Schaden gerne auf „falsche“ Handlungen oder Handlungsstrategien zurückführt. Beim Wahrheitsideal der Nützlichkeit handelt es sich ersichtlich um die Umschreibung von Zweckmäßigkeit und um Richtigkeit (die sachangemessene und zweckmäßige Ausrichtung) von einfachen oder produktiven Handlungen auf einen definierten Nutzen hin. Der wichtigste und am meisten verwendete ist jedoch der erkenntnistheoretische Wahrheitsbegriff. Er wurde schon von Aristoteles definiert. Ausgehend von der Unterscheidung zwischen objektiver Realität (res) und subjektivem Erkenntnisvermögen der Vernunft (intellectus) wird Wahrheit aristotelisch als ein Ähnlichkeitsverhältnis zwischen beiden definiert. Die scholastische Definitionsformel dafür lautet nach Thomas von Aquin: Adaequatio rei et intellectus. Die neuere Erkenntnistheorie nennt das den Korrespondenzbegriff der Wahrheit. Hier wird das Ähnlichkeitsverhältnis zwischen den Polen des Objektiven und Subjek- 13 tiven bzw. zwischen Erkenntnisobjekt und erkennendem Subjekt als „Entsprechung“ (correspondentia) gefaßt. Als Modell für diese Entsprechung gilt allgemein das Abbildverhältnis zwischen einem Gegenstand und seinem Bild. So wird dieser Korrespondenzbegriff der Wahrheit auch gewöhnlich in ausgefeilten „Abbild(ungs)theorien“ der Wahrheit expliziert. Man stellt sich vor, daß – über die Sinne vermittelt – im Bewußtsein ein Bild von einem Gegenstand in der Außenwelt bestehen könne. Gemäß dem mathematischen Bildbegriff wird das Abbildungsverhältnis als „eineindeutige Zuordnung“ von Bewußtseinsgegebenheiten zu objektiven Sachverhalten näher bestimmt. Man kann den Korrespondenzbegriff der Wahrheit ohne weiteres als den derzeit in den Wissenschaften allgemein und in der Wissenschaftsphilosophie speziell herrschenden Wahrheitsbegriff bezeichnen. Dies umso mehr, als er Ausdruck und Folge des in den modernen Wissenschaften vorherrschenden Realismus ist, demgemäß ja die Voraussetzung der Unterscheidung von Außen- und Innenwelt bzw. objektiver Realität und Bewußtsein als sakrosankte Selbstverständlichkeit gilt. Er krankt freilich an Mängeln, die seinen Vertretern wohlbekannt sind, die aber als ein durch weitere erkenntnistheoretische Forschung zu lösendes Problem aufgefaßt werden. Und so ist auch ein beachtlicher Teil der erkenntnistheoretischen und wissenschaftstheoretischen Literatur dem Bemühen um dieses Problem gewidmet. Das Problem ergibt sich allerdings nur unter der realistischen Voraussetzung der Unterscheidung und Unterscheidbarkeit von Bewußtsein und sogenannter objektiver Realität und dementsprechend von Erkenntnis und Erkenntnisgegenstand. Es verschwindet aber unter der idealistischen Voraussetzung, daß diese Unterscheidung nicht gemacht werden kann. Dies ist ein deutlicher Hinweis darauf, daß der erkenntnistheoretische Wahrheitsbegriff seinerseits in metaphysischen Theorievoraussetzungen begründet wird. Zwar ist das Abbildungsmodell (insbesondere als Photographie-Modell), gemäß dem man ja einen Sachverhalt und sein Bild sehr gut mit einander vergleichen und die entsprechenden ein-eindeutigen Punktzuordnungen effektiv vornehmen kann, sehr suggestiv. Aber man unterschlägt dabei, daß der Sachverhalt und das Abbild mit demselben Auge eines Betrachters von Sachverhalt und Abbild gesehen und verglichen wird. Und das würde bei der Übertragung auf das Erkennen erfordern, daß der Erkennende über ein „Organ“ verfügte, mit dem er sowohl die „äußeren“ Dinge wie auch die „inneren“ Abbilder der Dinge im Bewußtsein unterscheiden, nebeneinander betrachten und mit einander vergleichen könnte. Derartiges gibt es aber nicht. Zwar ist das hier oft als Argument angeführte Bild auf der Netzhaut des betrachtenden Auges ein dem Photo vergleichbares Abbild der Dinge vor dem Auge. Aber das Bild auf der Netzhaut gehört selbst zu den „äußeren“ Dingen, zu denen es in einem gesetzmäßigen optischen Korrespondenz-Verhältnis steht. Es ist aber nicht mit dem zu verwechseln, was mit bewußter Wahrnehmung gemeint ist. 14 Wenn jemand Dinge oder Sachverhalte sieht, so sieht er sie als solche, keineswegs aber Abbilder von ihnen. Sieht er sie aber nicht mehr, sondern erinnert sich nur, daß er sie gesehen hat, so sieht er sie gerade nicht. Und erst dann nennt er das, an was er sich erinnert oder was er sich phantasierend vorstellt, mit einem gewissen Recht „Abbilder“ der Wirklichkeit. Was also als „korrepondierend“ verglichen werden kann, ist allenfalls das unmittelbar Gesehene und das mittelbar Erinnerte oder Phantasierte. Die Unterscheidung von unmittelbarer sinnlicher Wahrnehmung und Erinnerung an Wahrgenommenes ist die eigentliche Grundlage für die Unterscheidung von Ding und „korrespondierender“ Abbildung und damit der Korrespondenzdefinition der Wahrheit. Das verweist auf den Vorrang der idealistischen Erklärung auch für die realistische Wahrheitstheorie. Das Ausweichen auf andere Sinnesleistungen wie das Betasten, Beriechen, Schmecken oder Hören von Sachverhalten, die zugleich gesehen werden, führt nicht zu einer solideren Begründung des realistischen Korrespondenzbegriffs der Wahrheit. Denn das durch verschiedene Sinne erfahrene Ding oder der Sachverhalt ist dann immer noch unmittelbar und keinesfalls als Abbild gegeben. In diesem Falle „korrespondieren“ nur die verschiedenen sinnlichen Erfahrungsinhalte untereinander in gesetzmäßiger Weise, jedoch ersichtlich nicht als bildhafte Entsprechungen. Hält man schließlich ein Ding für die Ursache eines sogenannten Sinneseindrucks, und letzteren also für dessen Wirkung, so hat man – wie Kant (in der 1. Auflage seiner „Kritik der reinen Vernunft“) sehr richtig feststellte – nur das Erinnerte als Ursache und das aktuell Wahrgenommene als Wirkung, beides zusammen als „korrespondierende“ kausale Verbindung gedeutet, aber keineswegs ein bewußtseinsunabhängiges Wirkliches (Kants „Ding an sich“) mit einer Bewußtseinsgegebenheit kausal verknüpft. Daß man von einem in der realistischen Wahrheitskonzeption vorausgesetzten bewußtseinstranszendenten „Ding an sich“ in keiner Weise etwas wissen kann, das wissen auch die Realisten. Kant nennt es in der 2. Auflage seiner „Kritik der reinen Vernunft“, in der er sich zum metaphysischen Realismus bekennt, ganz richtig ein „unbekanntes Ding“. Von dem Unbekannten jedoch zu behaupten, daß es existiere (oder nicht existiere) belastet die realistische Erkenntnistheorie mit einer contradictio in principiis. Anstatt das Ding an sich schlicht zu streichen, wie vor Kant schon George Berkeley und nach ihm alle deutschen Idealisten von Fichte bis Schopenhauer vorgeschlagen haben, macht man es in der neueren realistischen Erkenntnis- und Wissenschaftstheorie zum Gegenstand eines unendlichen Arbeits- und Forschungsprogramms. Gegen den Idealismus aber argumentiert man mit der Unfaßbarkeit und Subjektivität des Bewußtseins, das noch schwerer zu erfassen sei als das nur einfach schwierige „Ding an sich“. Nun ist es selber schon falsch zu meinen, wenn es kein Ding an sich bzw. keine „Außenwelt“ gäbe, bliebe eben das Bewußtsein alleine übrig. Und dies sei über- 15 haupt die Grundthese des Idealismus. Das mag zwar für einige ältere Versionen des Idealismus gelten, aber es ist nicht das letzte Wort in der Sache. Schon George Berkeley, dem wir hier folgen können, betonte im 18. Jahrhundert, daß es in einem wohlverstandenen Idealismus nicht darum gehen könne, „die Dinge zu Ideen (im Bewußtsein) zu machen, sondern umgekehrt die Ideen zu Dingen“1. Das heißt, daß von Bewußtsein überhaupt nur die Rede sein kann, wenn es sachhaltig ist. Das heißt aber zugleich, daß von Bewußtsein nicht die Rede sein kann, wenn es nicht sachhaltig ist. Aber gerade über solches nicht-sachhaltige Bewußtsein wird ständig geredet. Sei es, daß man es als „Vermögen“ auffaßt, das auch dann existiert, wenn es gerade nicht wahrnimmt, empfindet, denkt oder sonstwie tätig ist; sei es, daß man eine gespensterhafte Fiktion von einem „leeren Bewußtein“ aufstellt oder vom „Unbewußten im Bewußtsein“ redet. Hinter das Bewußte kann in der Tat nicht zurückgegangen werden. Das ist die metaphysische Grundthese des Idealismus. Sie schlägt auf die erkenntnistheoretische Problematik in der Weise durch, daß sich ausnahmslos alles, was man Wirklichkeit, Realität, Sein – aber auch Nichts – nennt, als bewußtes Phänomen (wir vermeiden das Wort „Inhalt eines Bewußtseins“) erweisen muß. Und das heißt umgekehrt, daß alles dies – auch das Nichts – nur als „Bewußtes“ sinnvoller Gegenstand der Wissenschaft sein kann. George Berkeleys nicht hoch genug zu veranschlagende metaphysische Einsicht war es zu zeigen, daß die Wirklichkeit, das Sein, nur und ausschließlich als sinnliche Erfahrung gegeben sein kann. Das ist der Sinn seines Prinzips „Esse = Percipi“ (Sein bedeutet dasselbe wie Wahrgenommenwerden). Was Berkeley freilich dabei nicht bemerkte, war, daß ebenso auch das Nichts ein ganz normaler Gegenstand der sinnlichen Erfahrung ist. Man sieht, fühlt, hört, riecht, schmeckt eben „Nichts“ – wie die Sprache ganz richtig ausdrückt – wenn man bei aufmerksamem Schauen, Tasten, Lauschen, Schnüffeln oder Erschmecken eben „nicht Etwas“ wahrnimmt, das sich in der Sprache der positiven Erfahrungen als „Etwas“ und „Seiendes“ benennen ließe. Und das erlebt jedermann gewöhnlich in vollkommener Dunkelheit und Stille, die darum immer wieder als „Metaphern“ des Nichts dienen müssen, während sie in der Tat doch empirische Beispiele, nämlich Arten des Nichts sind. Man sollte sich diesbezüglich dem Sprachgebrauch anvertrauen (der zuweilen, wie L. Wittgenstein richtig bemerkte, „ganz in Ordnung ist“), und dabei ontologisch und logisch vom Nichts nicht mehr fordern als von jedem Etwas, nämlich daß es sich in der Sinneserfahrung ausweise. Die ontologische Grenze, die die Realisten (und Materialisten) zwischen den „Dingen an sich“ und dem Bewußtsein zu ziehen pflegen, erweist sich so als eine 1 “I am not for changing things into ideas, but rather ideas into things; since those immediate objects of perception, which, according to you, are only appearences of things, I take to be the real things themselves”. George Berkeley, Three Dialogues between Hylas and Philonous, in opposition to sceptics and atheists, in: G. Berkeley, A new theory of vision and other select philosophical writings (Everyman‟s Library ed. by E. Rhys), London-New York o. J., S. 282. 16 bewußtseinsmäßige Grenze zwischen dem unmittelbar sinnlich Wahrgenommenen und der Erinnerung an Wahrgenommenes, das nicht bzw. nicht mehr wahrgenommen wird. Dies ist die Grundlage dafür, überhaupt theoretisch „am Schreibtisch“ über Dinge in der Welt reden zu können, die man nicht „vor Augen“ oder im „unmittelbaren Zugriff“ hat. Es ist aber zugleich auch die Grundlage für den idealistischen Wahrheitsbegriff. Dieser idealistische Wahrheitsbegriff wird gewöhnlich als Kohärenzbegriff der Wahrheit bezeichnet. Er spielt auf den „logischen Zusammenhang“ zwischen den bewußten Gegebenheiten an, vor allem zwischen dem unmittelbar sinnlich Gegebenen und dem Erinnerten, d. h. mit dem Bereich des historischen Wissens. Darüber hinaus aber auch mit dem aus Erinnerungsbeständen kombinierten „spekulativen“ Material unserer kreativen Phantasie. Diese Gegebenheitsweisen des Bewußten genau zu unterscheiden, ist zwar prinzipiell möglich, tatsächlich aber ein höchst schwieriges Geschäft. Und dies angesichts der Tatsache, daß die sinnliche Wahrnehmung offenbar ständig von Erinnerungen begleitet wird. Denn erst dies ermöglicht jede Wiedererinnerung an schon Erfahrenes und jede Unterscheidung des Neuen und Unbekannten vom schon Erfahrenen. Ebenso aber sind auch die unmittelbaren sinnlichen Erfahrungen und die Erinnerungen gewöhnlich mit phantastischen „Antizipationen“ bzw. Erwartungen und spekulativen Elementen durchschossen, die die bewußte Aufmerksamkeit bei den Wahrnehmungen steuern. Was hierbei kohärent genannt werden kann, hängt in erster Linie von den logischen Methoden der Verknüpfung aller dieser Komponenten und in zweiter Linie von den für die einzelnen Erfahrungsbereiche bzw. Forschungsfelder vorliegenden Theorien ab. Logische Kohärenz können wir ohne weiteres mit dem in der Logik selbst verbreiteten Konzept der Widerspruchslosigkeit einer Theorie gleichsetzen. Das heißt zugleich, daß Widersprüche in einer Theorie Ausdruck von Inkohärenzen – gleichsam Risse im logischen Netz der Gedanken - sind. Das deutet grundsätzlich auf Einschüsse von Falschheit in einer Theorie hin. Gewöhnlich hält man aber inkohärente bzw. widersprüchliche Theorien für in toto falsch. Wir werden aber Argumente vorbringen, die zeigen, daß diese Meinung viel zu weit geht und daher selber falsch ist. Was die Theorien über bestimmte Wirklichkeitsbereiche in den Einzelwissenschaften und einzelnen philosophischen Disziplinen betrifft, so hält man sie unter dem Einfluß der Kohärenztheorie der Wahrheit gewöhnlich schon dann für wahr, wenn sie überhaupt nur widerspruchslos sind. Widerspruchslose Theorien über engste Wirklichkeitsbereiche oder Sachverhalte aufzustellen, dürfte jedoch einem Logiker immer möglich sein, und daher gibt es reichlich Angebote von solchen. Das hat in allen Bereichen zur Konkurrenz kohärent-wahrer Theorien geführt, die sich gleichwohl gegenseitig ihren Wahrheitsanspruch bestreiten und insofern selber untereinander widersprechen. Daraus resultiert der sogenannte Theorienpluralismus. Er hat seinerseits dahin ge- 17 wirkt, den Kohärenzbegriff der Wahrheit selbst in Verruf zu bringen und einen Wahrheitsskeptizismus in der Wissenschaft zu befördern. Dem läßt sich aber dadurch entgehen, daß man den Kohärenzbegriff der Wahrheit – wie es ja selbstverständlich sein sollte – nicht auf einzelne Detail- und Ressorttheorien bezieht, sondern innerhalb der Grenzen einer Einzelwissenschaft auf das „Ganze“ des hier etablierten Wissens, und über diese Grenzen hinaus auf das „Ganze“ des interdisziplinären Begründungszusammenhanges der Einzelwissenschaften und der philosophischen Disziplinen bis hin zur metaphysischen Letztbegründung. Kohärenzwahrheit kann sich so überhaupt nur in einem kohärenten Gesamtwissen zeigen, das seinerseits einzelwissenschaftliches Wissen in einem „systematischen Ganzen der Erkenntnis“ (Kant) integriert. Das Kohärenzkriterium der Wahrheit muß, um dem Wahrheitsproblem gerecht zu werden, durch das „Komprehensibilitätskriterium“ (bzw. Umfassendheitskriterium) ergänzt werden. Dies hat Hegel mit seinem Dictum vorgeschlagen: „Das Wahre ist das Ganze“ 2. Und wenn auch sein philosophisches System heute nur als Vorschlag und Muster gelten kann, wie ein solches Ganzes des Wissen zu gewinnen sei, so war es doch zugleich eine gültige Formulierung des „Ideals der Wahrheit“, dem alle Wissenschaften sich anzunähern bestrebt sein sollten. § 4 Wissen, Glauben und Intuition in den Wissenschaften Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verkleidungen Jakob Friedrich Fries (1773 – 1843), der „Forscherphilosoph“ (wie ihn Alexander von Humboldt genannt hat), einer der frühesten expliziten Wissenschaftsphilosophen und dabei entschieden realistischer Kantianer, hat mit seinem Frühwerk „Wissen, Glaube und Ahndung“ von 1805 3 drei Stichwörter geliefert, denen man auch jetzt noch einen guten Sinn beilegen kann. 2 3 G. W. F. Hegel, Phänomenologie des Geistes, hgg. von J. Hoffmeister, Hamburg 1952, S. 21. Jetzt in: J. F. Fries, Sämtliche Schriften, hgg. von G. König und L. Geldsetzer, Band 3, Aalen 1968. 18 Fries meinte, daß es „Wissen“ nur über das psychische Innenleben bzw. die Bewußtseinsgehalte des Subjekts geben könne. Dagegen könne ein subjektunabhängiges Objekt als natürliche „Außenwelt“ (Kants „Ding an sich“) nur Gegenstand des „Glaubens“ (nicht des Wissens!) sein. Dies hatte in England auch Thomas Reid (1710 – 1796) behauptet. Weiter zeigte Fries, daß sich aus den Forschungsergebnissen des Wissens und Glaubens eine „Ahndung“ davon ergebe, was das metaphysische Prinzip sei, das er das Göttliche nannte, und das alles Psychische und Physische hervorbringe und trage. Für alle drei Einstellungen bzw. Haltungen des Wissenschaftlers postulierte er im Sinne Kants „apriorische Voraussetzungen“, die die grundsätzliche Wahrheit des Wissens, des Glaubens und der Ahndung verbürgen sollten. Man wird leicht bemerken, daß Fries hierbei das Wissen und seine Wahrheit ganz idealistisch bzw. kohärentistisch interpretierte, den Glauben und seinen „außenweltlichen“ Gegenstand realistisch, d. h. daß er die Glaubenswahrheit entsprechend korrespondenzmäßig auffaßte, und daß er unter Ahndung eine metaphysische Letztbegründung eines wahren metaphysischen Systems verstand. Daran ist auch heute noch richtig, daß die Wissenschaft wesentlich auf Wissen, Glauben und Ahndungen beruht. Man nennt es jetzt nur meist auf Englisch knowledge, belief und intuition. Geändert hat sich freilich die Einstellung gegenüber einer kantisch-apriorischen Wahrheitsgarantie dieser Einstellungen. Zwar gibt es noch immer Kantianer und Transzendentalphilosophen, die dem Apriori eine wahrheitsverbürgende Funktion zuweisen. Und auch der logische Positivismus bzw. die sogenannte Analytische Philosophie beruft sich gelegentlich auf die apriorische Begründetheit der logischen und mathematischen Methodologie, um damit immer noch im Sinne Kants der Wissenschaft ein Fundament „allgemeiner Gültigkeit“ und „unbezweifelbarer Notwendigkeit“ zu vindizieren. Aber die meisten Wissenschaftler dürften jeden Apriorismus längst verabschiedet haben. Sie begnügen sich mit K. R. Poppers „vorläufiger Bewährung“, “ständiger Verbesserungsfähigkeit“, stets zu gewärtigender „Fallibilität“ und daher mit bloßer „Wahrscheinlichkeit“ ihrer wissenschaftlichen Einsichten und Erkenntnisse.4 Das hat Folgen für das Verhältnis dieser Einstellungen zueinander und zur Wahrheit. Insbesondere wird dadurch die Rolle der Falschheit und der WahrFalschheit in der Wissenschaft mehr in den Mittelpunkt des Interesses gerückt. Daß es wahres Wissen gibt, beweist jede „ent-täuschte“ Sinnestäuschung und jeder aufgedeckte Irrtum und Betrug. Daß es auch falsches Wissen gibt, das zeigen die Sinnestäuschungen, Täuschungen, Selbsttäuschungen, die Irrtümer und der Betrug. Man kann sie freilich erst nach der Aufdeckung als falsches Wissen durchschauen und hält sie bis dahin gewöhnlich für wahres Wissen. Und selbstredend kommt es vor, daß die Wahrheit, die als Korrektur einer Falschheit 4 Vgl. Gr. Schiemann,Wahrheitsgewißheitsverlust.. Hermann von Helmholtz‟ Mechanismus im Anbruch der Moderne. Eine Studie zum Übergang von klassischer zu moderner Naturphilosophie, Darmstadt 1997, S. 3: „Modern heißt eine Erkenntnis nur dann, wenn sie durch die Relativität ihres Geltungsanspruchs ausgezeichnet ist“. 19 gewonnen wurde, ihrerseits wiederum als Irrtum entlarvt wird. Das zeigt aber nur, daß die Wahrheitsfindung in der und durch die Wissenschaft ein schwieriges und dauerndes Geschäft ist. Wahres und falsches Wissen unterscheiden sich durchund gegeneinander, was auch immer für das eine oder andere gehalten wird. Wahrheit und Falschheit werden aber nicht nur bezüglich einzelner Wissensgegenstände einander gegenübergestellt, sondern auch auf umfassende Wissenskomplexe bezogen. Die einfachste Konfrontation ist diejenige, die jeden historischen Stand der Wissenschaften für überholt und damit für falsch, und somit den letzten aktuellen Stand der Wissenschaften für wahr hält. Man wird dies in der Literatur kaum so schlicht ausgedrückt finden. Jedoch hat man mit solcher Einstellung bei den sogenannten aktualistischen Wissenschaften zu rechnen, die ihre historischen Entwicklungsstufen des Wissens strickt vom aktuellen Stand des Wissens unterscheiden. In solchen aktualistischen Wissenschaften gilt die historische Reflexion als eine luxurierende Spezialdisziplin, mit der sich der Wissenschaftler an der Front der Forschung nicht zu befassen braucht. Verbreitet ist jetzt auch die Einschätzung, alles vorhandene Wissen sei falsch, und wahres Wissen sei nur von der zukünftigen Wissenschaft zu erwarten. Man kann das (von F. Nietzsche bis K. R. Popper) für eine kokette Einstellung halten, aber sie eignet sich gut für den Ruf nach immer mehr Wissenschaftsförderung. Nur noch apart dagegen erscheint die Sicht, daß wahres Wissen nur in den mythischen Ursprüngen der Wissenschaft oder allenfalls bei den Klassikern zu finden sei, so daß, was nachher kam und daraus entstand, nur „seins- und wahrheitsvergessene Verdeckung“ (frei nach M. Heidegger) und also falsches Wissen sei. Angesichts der Schwierigkeiten, Wahrheit und Falschheit im wissenschaftlichen Wissen zu unterscheiden und als solche zu kennzeichnen, verlagert sich die wissenschaftliche Gewißheitserwartung auf den wissenschaftlichen Glauben. Viele Wissenschaftler und Wissenschaftstheoretiker nennen das, was sie für wahres, weil (korrespondenzmäßig oder kohärent) begründetes Wissen halten, jetzt Glauben („belief“). Dazu hat der Mathematiker und Logiker Charles Sanders Peirce (1839 – 1914) wesentlich beigetragen, der mit seiner Version des Pragmatismus die Hauptaufgabe der Wissenschaft in der „Festlegung des Glaubens“ sah (in seinem Aufsatz „The Fixation of Belief“ von 1877). Das wird so erläutert: „Das Wesen des Glaubens besteht in der Ausbildung einer Gewohnheit, und verschiedene Glauben unterscheiden sich durch die verschiedenen Handlungsweisen, die sie hervorrufen“.5 Mit dem „theologischen“ Glauben der Scholastiker hat der wissenschaftliche Glaube von heute gemeinsam, daß er keine Falschheit zuläßt. Die verbreitetste Gestalt dürfte jetzt der von Thomas S. Kuhn beschriebene Glaube an eine paradigmatische Theorie sein, zu der man sich schulmäßig bekennt. 5 Ch. S . Peirce: „The whole essence of belief is the establishment of habit, and different beliefs are distinguished by the different modes of action to which they give rise“. Zit. nach: Pragmatic Philosophy, hgg. v. Amely Rorty, New York 1966, S. 30. 20 Weniger verbreitet als früher ist der Glaube als metaphysische Überzeugung. Dies aber nur, weil metaphysische Bildung unter Wissenschaftlern selten geworden ist. Anstelle eines metaphysisch versierten Glaubens (wie noch bei Fries) machen sich solche Überzeugungen eher als „blinder Glauben“ geltend. Von unserem idealistischen Standpunkt aus handelt es sich dabei z. B. um den realistischen Glauben an die „Realität der Außenwelt“ bzw. an ein „Ding an sich hinter den Erscheinungen“, der bisher durch keinen Grund zu begründen und durch kein Argument zu erschüttern ist. Gelegentlich zeigt sich freilich der wissenschaftliche Glaube auch in purer Gesinnung. Diese Gestalt des Glaubens verträgt sich mit jeder Ideologie und meist auch mit jedem Dilettantismus in der Wissenschaft. Was Fries (mit einem schon seinerzeit altbackenen Wort) als „Ahndung“ bezeichnete, dürfte gut abdecken, was man heute Intuition nennt. Intuition (lateinisch: „direkte Anschauung“) wurde in der Tradition platonischen Denkens als eine „Schau mit dem geistigen Auge“ verstanden und auf den Umgang mit axiomatischen Grundbegriffen bzw. axiomatischen Grundsätzen und mit ihren Bedeutungen bezogen. Von diesen nimmt man gewöhnlich an, daß sie keinen anschaulichen Bedeutungsgehalt hätten, daß sie also „unanschaulich“ und undefinierbar seien. Man braucht daher, um sich überhaupt etwas bei ihnen zu denken, „überanschauliche Vorstellungen“, die ihnen einen Inhalt verschaffen. Da es aber weder „geistige Augen“ noch „überanschauliche Vorstellungen“ gibt (beide Ausdrücke sind der Verlegenheit verdankte dialektische Metaphern), so treten an deren Stelle zwangsläufig konkrete sinnliche Anschauungen (oder Erinnerungen an solche), die sich der Wissenschaftler ad hoc zurechtlegt. Man nennt sie auch „Modelle“, die als anschauliches Quid-pro-quo des vorgeblich Unanschaulichen dienen sollen (vgl. dazu § 12). Das Denken in solchen Modellen geht schon auf den Vorsokratiker Demokrit zurück, der sich bekanntlich die von ihm postulierten „unanschaulichen“ Atome, die wegen ihrer Winzigkeit der sinnlichen Anschaung nicht zugänglich sein sollten, wie Buchstaben vorstellte. Was als Modellvorstellung dienen kann, muß natürlich bestens bekannt sein. Aber wer ein solches Modell benutzt, weiß zugleich, daß das, was es anschaulich vor Augen stellt, gerade nicht das ist, was gemeint ist. Es kann nur irgendwie „ähnlich“ sein, und man hat gemäß dem modellhaften Beispiel allenfalls eine „Ahn(d)ung“, wie sich die gemeinte Sache vielleicht verhalten könnte. In der Tat spielen die Intuitionen und somit das Modelldenken in allen Wissenschaften „an der Front der Forschung“ eine eminent wichtige Rolle. Die in den Naturwissenschaften und mittels ihrer mathematischen Methodologie standardisierten Modelle für die kleinsten Wirklichkeitselemente (Teilchen, Welle, string o. ä.) und die in den Geisteswissenschaften verbreiteten „Metaphern“ sind die heuristischen Werkzeuge schlechthin, Erkenntnisschneisen ins Unbekannte zu schlagen. 21 Eine verbreitete Gestalt findet sich etwa in wissenschaftstheoretischen Lehrbüchern, wenn logisch-mathematischen Formalisierungen bzw. „logischen Rekonstruktionen“ komplizierter Sachverhalte eine „intuitive Sizze“ vorausgeschickt wird. Es wird dabei in der Regel eine mehr oder weniger schlichte „Geschichte“ erzählt, die den unanschaulichen Formalismus, mit dem die Problematik vorgeblich auf exakteste Weise gefaßt würde, erläutern soll. In den Anfangszeiten der Telegraphie hat man so die „Geschichte vom Dackel“ als Modell für die Kabelkommunikation erzählt: Tritt man dem Dackel hinten auf den Schwanz, so bellt er vorne. „Dasselbe ohne Dackel“ erklärt dann modellhaft die drahtlose Telegraphie. Nur wenig komplexer ist das Modell der mehrdimensionalen Räume in der Geometrie und Physik. Kennt man den dreidimensionalen (euklidischen) Raum, so braucht man nur zählen zu können, um wenigstens eine Ahnung von vier- und höherdimensionalen Räumen zu entwickeln, in denen jede einzelne Dimension genau so ist wie eine der drei euklidischen, allerdings ohne daß man sie als rechtwinklig zueinander stehend vorstellen kann. Und kann man zudem ordentlich subtrahieren, so machen auch zwei- und eindimensionale „Räume“ keine Schwierigkeit, die man sich zwar wie Flächen oder Linien vorstellen muß, die aber, da sie ja „Räume“ sein sollen, keine Flächen und Linien sein sollen. Raffinierter sind die Intuitionen, die an den großen Vorrat historisch überlieferter „Denkansätze“ von Philosophen (z. B. „apriori“ im Sinne Kants, „cogito“ im Sinne Descartes‟) oder Klassikern der Einzelwissenschaften (z. B. Korpuskularvorstellung der Materie, Vis formativa-Vorstellung oder Evolutionsmodell des Lebendigen) angeschlossen werden. Man setzt dann voraus, daß eine „Intuition“ des jeweiligen Klassikers durch den Ablauf der Zeiten und die Nachwirkungsgeschichte des Gedankens so klar und anschaulich geworden sei, daß sie Gemeingut der jeweiligen Forschergemeinschaft wurde. Das kommt zwar auch vor und wird in der neueren Wissenschaftsphilosophie (seit Th. S. Kuhn) „Paradigma“ (Beispielsfall) genannt. Man hat jedoch immer Grund zu dem Verdacht, daß es sich dabei um eine rhetorische Floskel handelt, die Abgründe von Meinungsverschiedenheiten über die Interpretation solcher Intuitionen zudeckt. Geradezu modisch geworden sind Intuitionen, die an die Alltagserfahrung und den alltäglichen Sprachgebrauch anknüpfen, um daran vorgeblich verallgemeinerte unanschauliche Prinzipien und Strukturen zu exemplifizieren. An diese muß man schon glauben, um dem vermeintlichen Zauber der „einfachen Sprache“ und der „lebensweltlichen Anschaulichkeit“ der Modelle zu erliegen. Genau genommen widerlegt sich dadurch jedoch der Anspruch theoretischer und „abstrakter“ Wissenschaft, irgend etwas besser zu erklären, als es das anschauungsgesättigte Alltagsdenken selbst schon vermag. Besonders reizvoll sind schließlich die didaktischen Modelle, mit denen „geniale“ Forscherpersönlichkeiten ihre „überanschaulichen“ Intuitionen der Öffentlichkeit oder auch der Fachwelt darzulegen pflegen. Insbesondere mathematische und physikalische Formeln und Gleichungen stehen in dem Rufe, das 22 überanschauliche Denken direkt auszudrücken. Und so gilt die Aufstellung einer solchen Formel oder Gleichung oft schon selbst als geniale Leistung. Es kann dann Jahrzehnte dauern, bis man ein Modell bzw. eine „Interpretation“ für das findet (oder auch nicht findet), was sie bedeuten könnte. Nicht alle Genies sind dabei so bescheiden und zugleich so frivol wie Ludwig Wittgenstein aufgetreten, der in seinem eigenen formelgespickten „Tractatus logico-philosophicus“ am Ende bekannte: „Meine Sätze erläutern dadurch, daß sie der, welcher mich versteht, am Ende als unsinnig erkennt, wenn er durch sie – auf ihnen – über sie hinausgestiegen ist. (Er muß sozusagen die Leiter wegwerfen, nachdem er auf ihr hinaufgestiegen ist)“.6 Häufig artikulieren sich solche Intuitionen aber auch durch neu vorgeschlagene Termini, deren Bildung aus bekannten Wörtern oder Wortbestandteilen genügend Vorstellungsgehalte assoziieren lassen, um unmittelbar als sinnvoll zu gelten, die aber vor allem auch genügend Dunkelstellen für die interpretierende Ergänzung durch Ahnungen bieten. In dieser Weise hat bekanntlich Martin Heidegger mit seinem Seinsbegriff bisher drei Generationen von Philosophen Anlaß gegeben, über seine Intuition vom „Seyn“ oder gar vom kreuzweise durchgestrichenen „Sein“ nachzudenken. Vergleichbares gelang Jacques Derrida mit seinem Terminus „différance“. Allzu benevolente Hermeneutiker unterstellen in solchen Fällen, die Autoren solcher „neuen Begriffe“ hätten ihrerseits eine präzise Vorstellung von dem gehabt, was dadurch gemeint sein sollte. In der Tat sind aber die meisten Neologismen heuristische Ahnungen, die ihre Lebensfähigkeit gerade erst in mehr oder weniger langen Interpretationsdiskussionen erweisen müssen. Sehr oft ist dann das Ergebnis solcher Diskussionen, daß sie als „alte – umgekrempelte – Hüte“ erkannt werden. Zwischen Wissen, Glauben und Ahnungen bzw. Intuitionen gibt es freilich noch das weite Feld wissenschaftlicher Prätentionen, die in mancherlei rhetorischen Floskeln in wissenschaftlichen Vorträgen und Anträgen bei den Förderorganisationen wissenschaftlicher Projekte (die man heutzutage auch in Deutschland vorwiegend in englischer Sprache verfaßt) ihren Niederschlag finden. Das Hausblatt der deutschen Hochschullehrer (Forschung und Lehre, 7/2006, S. 424) hat eine beliebig zu verlängernde Reihe davon zum besten gegeben und darauf hingewiesen, „wie reich das Vokabular sein kann, um Unwissenheit, Unwillen oder – Unvermögen zu umschreiben“. Wir möchten es dem aufmerksamen Leser nicht vorenthalten und warnen die deutschsprachigen Wissenschaftler ausdrücklich davor, die überaus klare deutsche Übersetzung bei Vor- und Anträgen zu verwenden. Die Liste lautet folgendermaßen: „It is believed ... Ich glaube ... / It has long been known ... Ich habe mir das Originalzitat nicht herausgesucht ... / In my experience ... Einmal ... / In case after case ... Zweimal ... / In a series of cases ... Dreimal / Preliminary experiments 6 L. Wittgenstein, Tractatus logico-philosophicus, 6.54, Ausgabe Frankfurt a. M. 1963, S. 115. 23 showed that ... Wir hoffen, daß ... / Several lines of evidence demonstrate that ... Es würde uns sehr gut in in den Kram passen / A definite trend is evident ... Diese Daten sind praktisch bedeutungslos / While it has not been possible to provide definite answers to the questions … Ein nicht erfolgreiches Experiment, aber ich hoffe immer noch, daß es veröffentlicht wird / Three of the samples were chosen for detailed study ... Die anderen Ergebnisse machten überhaupt keinen Sinn / Typical results are shown in Fig. 1 ... Das ist die schönste Grafik, die ich habe / Correct within an order of magnitude ... Falsch / A statistically-oriented projection of the significance of these findings … Eine wilde Spekulation / A careful analysis of obtainable data … Drei Seiten voller Notizen wurden vernichtet, als ich versehentlich ein Glas Bier darüber kippte / It is clear that much additional work will be required before a complete understanding of this phenomenon occurs … Ich verstehe es nicht / After additional study by my colleagues … Sie verstehen es auch nicht / Thanks are due to Joe Blotz for assistance with the experiment and to Cindy Adams for valuable discussions … Herr Blotz hat die Arbeit gemacht, und Frau Adams erklärte mir, was das alles bedeutet / The pupose of this study was ... Es hat sich hinterher herausgestellt, daß ... / Our results conform and extend previous conclusions that ... Wir fanden nichts Neues / It is hoped that this study will stimulate further investigation in this field … Ich geb‟s auf!“ § 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne Bildung der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik. Ursprüngliche Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken und wissenschaftlichem Denken bezüglich der Begriffe von Wissen, Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame eine Lebenswelt der Laien und die vielen „möglichen Welten“ der Wissenschaftler. Geschichte und Zukunft als mögliche Welten. Die vordergründige Welt der Erscheinungen und die „Hinterwelten“ der Wissenschaft. Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den Wortschatz der Bildungssprachen. Früher wurden sie aus griechischen und lateinischen Wörtern zusammengesetzt, aus deren Kenntnis man meist schon ihre Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als englische Lehnwörter importiert. Daneben gibt es freilich einen neueren Brauch, künstliche „Termini“ (Acronyme) aus Anfangsbuchstaben von Wörtern zu bilden, aus denen man die Bedeutung nicht mehr erraten kann. Z. B. DNS = „Desoxy- 24 ribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC = massive open online courses, HD-Schema = hypothetisch-deduktives Schema der Kausalerklärung, es wird auch HO-Schema = Hempel-Oppenheim-Schema nach seinen Erfindern genannt. Geradezu uferlos ist die Erfindung von kommerziellen Bezeichnungen für Heilmittel durch die Pharmaindustrie. Witzig gemeint sind Alltagswörter als Abkürzungen wie z. B. „Juice“ = Jupiter Icymoon Explorer, d. h. ein Weltraumprojekt zur Erkundung, ob sich unter dem Eis von Jupitertrabanten Wasser befindet. Das alles führt in der Wissenschaft zu einer Esoterisierung des Wissens, das den Zugang nicht in diesen Jargon eingeweihter Laien fast unmöglich macht. Bei weitem die meisten Theorien werden aber noch immer in der gewöhnlichen Bildungssprache formuliert. Und so läßt sich auch an sprachlichen Beispielen demonstrieren, was auch in der Wissenschaft Begriffe, wahre und falsche Sätze, Schlüsse und begründende Argumente sind. Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist die Grundlage für die Formalisierung in der Logik und dann auch für die Ausbildung der formalen als einer zweiwertigen Logik geworden, und dies in „trivialer“ Abgrenzung von Grammatik und Rhetorik. Die Abgrenzung von Logik und Grammatik im klassischen Trivium (dem „geisteswissenschaftlichen“ Teil der „sieben freien Künste“ Platons) ging jedoch nicht so weit, daß man nicht grammatische Elemente für die Zwecke der Logik herangezogen und beachtet hätte. Bestimmte grammatisch ausgezeichnete Wörter (Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen (Buchstaben bzw. Zahlen) ersetzt. Grammatische Behauptungssätze erhielten die Form des Urteils als Verknüpfung von Subjekts- und Prädikatsbegriffen. Dabei behielten die sprachlichen Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn, den man ohne weiteres sprachlich versteht. Diese, wie Bejahung, Verneinung, und, oder, wenn ... dann, alle, einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen notiert. Dies zu bemerken ist deshalb wichtig, weil eine alte logische Tradition und die gegenwärtig herrschende Meinung davon ausgeht, diese Verknüpfungswörter hätten überhaupt keine eigene Bedeutung, sondern sie erhielten sie allenfalls durch die Verknüpfung mit den bedeutungshaltigen Begriffen (deswegen nannte sie Aristoteles „Synkategoremata“ = „Mitbedeuter“). Das ist jedoch falsch. Dafür spricht schon, daß diese Junktoren auch in jedem Sprachwörterbuch als sinnvolle Wörter angeführt und erläutert werden. Gewisse grammatische Satzformen wie Wunsch-, Befehls- und Fragesätze wurden in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht gelassen. Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade dadurch, daß in ihnen auch derartige Satzformen formalisiert worden sind, um sie 25 als wahrheitswertfähig zuzulassen. Einen besonders florierenden Bereich bilden die Modallogiken und die hier entwickelten Modalkalküle. In der sogenannten deontischen Logik („Sollens-Logik“) werden die drei „Werte“ Geboten, Verboten und Erlaubt, und in der sogenannten temporalen Logik („tense-logic“) die Zeitdimensionen Vergangen, Zukünftig und Gegenwärtig durch besondere Junktoren formalisiert und dem logischen Schematismus der Aussagen- und Schlußbildung unterworfen. Das hat wesentlich zur Komplizierung der Wahrheits- und Falschheitsfragen beigetragen. Dies vor allem deshalb, weil man sich dadurch erhoffte, rechtliche und ethische Normierungen sowie Probleme der Zeitontologie (der Physik und Historiographie) mit logischen Wahrheitswert-Formalismen „rational“ (d. h. hier eben: logisch) diskutierbar zu machen und evtl. zu „begründen“. U. E. hat dies aber nur dazu geführt, daß das neuerdings inflationär gebrauchte Schlagwort „rational“ die Wahrheitsfrage aus den entsprechenden disziplinären Diskursen verdrängt hat. Denn es geht dann nur noch um Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit, Normgemäßheit usw. Man kann angesichts dieser Veränderungen davon ausgehen, daß die Vorstellungen von Wissen, Glauben und Intuitionen bzw. Ahnungen in der Wissenschaft sich ziemlich weit von den Vorstellungen der Laien darüber entfernt haben. Der Laie oder der sogenannte normale Mensch „mit seinem gesunden Menschenverstand“ und damit oft auch der Anfänger in der Wissenschaft hält noch an den überkommenen Bedeutungen fest. Wissen versteht er als wahres Wissen. Und was er als wahres Wissen vertritt, das sagt er in behauptenden Urteilen und Sätzen. Er kann dies gelegentlich auch „im Brustton der Überzeugung“ tun. Was er nur glaubt, das wird er ehrlicherweise nicht behaupten, sondern allenfalls für wahrscheinlich halten. Er äußert sich dann im sprachlichen Konjunktiv, mit dem er Vermutungen ausdrückt: Es könnte so oder so sein, vielleicht aber auch nicht. Nennt er das, was er glaubt oder vermutet, „wahrscheinlich“, so verbürgt er sich keineswegs für die Wahrheit, sondern er läßt es offen, ob und daß es auch falsch sein könnte. Ahnungen hat er meist nur bei drohendem Unheil oder vor strengen Prüfern. Soll er sie in Rede fassen, so fehlen ihm die klaren und deutlichen Begriffe dafür. Wer etwas behauptet, ohne zu wissen oder Gründe dafür zu haben, daß es wahr ist, den hält man gewöhnlich für naiv oder für dumm. Die Wahrheit zu wissen, aber an ihrer Stelle das Falsche zu behaupten, gilt noch immer als Lüge und Betrug. Wer etwas offensichtlich Wahres für wahrscheinlich ausgibt, den hält man bestenfalls für einen Schelm, schlimmstenfalls aber für schwachsinnig. Ansonsten mag man alles glauben, was andere wissen, sei es nun wahr oder falsch. Wer sich zu sehr in Ahnungen ergeht, den hält man meist für unwissend, und das nennt man oft auch „ahnungslos“. In Bezug auf die Wirklichkeit vertraut der Laie durchaus darauf, daß er nur in einer Welt lebt, die ihm als seine Lebens- oder Umwelt bekannt wird. Und diese ist ihm durch die geometrischen und chronographischen Koordinaten des Hier und 26 Jetzt und des Dort und Damals seiner sinnlichen Erfahrung und seiner Erinnerungen bestimmt. Die „Welten“ seiner Erinnerungen und seiner Träume, seiner Wünsche und Hoffnungen unterscheidet er sehr genau von seiner im wachen Zustand erlebten Welt. Und dies erst recht dann, wenn er bemerkt, daß seine Erinnerungen immer wieder mit dem übereinstimmen, was er jeweils auch gegenwärtig noch wahrnimmt. Damit bestätigen sie eine gewisse Konstanz seiner Lebenswelt. Er bemerkt auch, daß seine Träume aus Erinnerungsbeständen verflochten sind, über die er daher auch nur in der grammatischen Vergangenheitsform berichten kann. Auch seine Wünsche, Hoffnungen und Phantasien bedienen sich dieser Erinnerungsmaterie, so daß er sie nicht für eigene „reale Welten“ hält. Tut er es doch, so hält man dies für einen bedenklichen Krankheitszustand. In der Wissenschaft verhält sich alles dies ganz anders. Hier kann man Behauptungen über Sachverhalte aufstellen, die grundsätzlich niemand kennt oder wissen kann, geschweige denn, ob sie wahr oder falsch sind. Vermutungen bzw. Hypothesen muß man logisch oder mathematisch in Behauptungsformen ausdrücken, denn es gibt keinen logischen oder mathematischen Konjunktiv. Besonders K. R. Popper scheint nachhaltig bewirkt zu haben, daß man im wissenschaftlichen Sprachgebrauch Vermutungen (Hypothesen), die nicht wahrheitswertfähig sind, und Theorien, die wahrheitswertfähig sein müssen, gleichsetzt. Und das zieht die Gewohnheiten nach sich, Vermutungen auch in wissenschaftlichen Prosatexten als Behauptungen vorzutragen. Weil dieser Unterschied zwischen wahrheits- bzw. falschheitsfähigen Behauptungen und nicht-wahrheits- bzw. falschheitsfähigen Vermutungen in der Wissenschaft kaum noch gemacht wird, werden auch die allerbewährtesten Naturgesetze, die früher als exemplarische Wahrheiten galten, häufig nur noch als statistische Wahrscheinlichkeiten, d. h. als Vermutungen und Hypothesen dargestellt. Nichtwissen einzugestehen, etwa ein hermeneutisches „non liquet“ (es geht nicht, d. h. ein Verständnis ist unmöglich!) bei Interpretationen zuzugeben, ist bei gestandenen Wissenschaftlern geradezu verpönt. Der Wissenschaftler lebt nicht, wie der Laie, in einer Welt, sondern in vielen möglichen Welten, von denen diejenige, die er mit dem Laien gemeinsam bewohnt, nur eine ist. Logiker und Mathematiker nennen diese gemeinsame Welt die „notwendige Welt“, von der sie alle „möglichen“ und sogar „unmögliche“ Welten unterscheiden. I. C. Lewis und C. H. Langford haben diese möglichen Welten in mathematischer Logik formalisiert und sie als Systeme S 1 bis S 5 (und weitere dürften noch zu erwarten sein) differenziert.7 S. A. Kripke hat dann große Aufmerksamkeit und Anerkennung dafür gefunden, daß er umgekehrt mit seinen „starren Deskriptoren“ ein logisches Mittel gefunden haben wollte, gewisse Bestandteile der „notwendigen Welt“ auch in den möglichen Welten aufzuweisen. 7 I. C. Lewis und C. H. Langford, Symbolic Logic, New York-London 1932, 2. Aufl. New York 1959. 27 Wie sollte man sich auch in den möglichen Welten zurechtfinden wenn nicht durch das, was in allen Welten identisch ist? 8 Diese „notwendige Welt“ ist jedoch auch nur ein Teil der wirklichen Welt. Und zwar derjenige Teil, der durch Kausalgesetze bestimmt sein soll. Der Laie nennt sie gerne den wissenschaftlichen Elfenbeinturm, also ein Gefängnis, von dem aus die Sicht auf die eine ganze Welt sehr beschränkt erscheint. Dafür erstrecken sich die möglichen Welten der Wissenschaft ins Unabsehbare. Zu den möglichen Welten gehört auch die sogenannte „geschichtliche Welt“. Merkwürdigerweise galt sie in der Scholastik und z. T. auch jetzt noch als paradigmatisch „notwendige“ Welt, da alles Geschichtliche vorgeblich nicht mehr verändert werden könne. Zumindest jedoch hält man sie für einen integralen Teil der wirklichen Welt. Sammelt und ordnet der Historiker seine und anderer Gewährsleute Erinnerungen und bringt sie in einen theoretischen Zusammenhang, so bewegt er sich nach herrschendem Selbstverständnis der Historiker in der „geschichtlichen Welt“, die er emphatisch als „historische Realität“ beschreibt. Archäologen, Evolutionsbiologen, Geologen und physikalische Kosmologen bauen diese Welt weit über alle Erinnerungen hinaus zu einem Kosmos aus, in welchem sie gar den Ursprung aller Dinge (etwa als kosmischen Big Bang) so schildern, als seien sie gerade dabei anwesend und könnten ihn direkt beobachten. Und doch wissen sie genau, daß diese „historische Realität“ vergangen und vorbei ist und somit nicht mehr, d. h. überhaupt nicht, existiert. Was dabei für den jeweiligen Historiker und den Kosmologen wirklich existiert und zur Gegenwartswelt gehört, sind die materiellen Relikte alter Kulturen und Texte, Schriftgut und Zeugnisse neuerer Epochen, Fossile und geologische Proben, die gegenwärtig ans Licht gebracht werden, kosmische Strahlungen, die jetzt auf der Erde ankommen. Wirklich ist nur das, was gerade jetzt auf der Erde ausgegraben, vielleicht entdeckt, mit empfindlichsten Geräten empfangen und gemessen wird. Alles dies dient aber dem Historiker und Kosmologen nur als Dokument und gleichsam als Sprungbrett zum Sprung in die mögliche Welt „historischer Realitäten“. Je dichter und umfassender die geschichtliche Welt ausgebaut ist, um so geeigneter wird sie zu einem weiteren Sprung in die mögliche Welt der Zukunft. Da werden geordnete Erinnerungen an das Vergangene als Konstanten in die Zukunft „extrapoliert“, zwischen denen die kreative Phantasie neue Verknüpfungen herstellt und variable Versatzstücke ansiedelt. Früher war dies ein Betätigungsgebiet der Dichter von Zukunftsromanen. Heute wird es als „Science fiction“ gepflegt. Von da ist es nur ein kleiner Übergang zur „Zukunftsforschung“, deren phantastische Prognosen schon längst in die Politikberatung einfließen. 8 S. A. Kripke, Identity and Necessity, in: Identity and Individuation, hgg. v. M. K. Munitz, New York 1971, dt. Übers. „Identität und Notwendigkeit“, in: Moderne Sprachphilosophie, hgg. von M. Sukale, Hamburg 1976, S. 190 – 215; erw. Aufl. u. d . T. Name und Notwendigkeit, Frankfurt a. M. 1981. 28 Medienexperten nennen mittlerweile sogar alles „Mediatisierte“ „organisierte Phantasie“ 9 Das dafür immer noch gültige Beispiel haben die Astronomen der Wissenschaft gegeben, indem sie die künftigen Sternkonstellationen aus der Extrapolation vergangener Konstellationen prognostizierten. Der alten Himmelsmechanik ist die physikalische Mechanik der irdischen Vorgänge gefolgt. Schließlich haben fast alle Wissenschaften das Comtesche „Savoir pour prévoir“ (Wissen um Vorauszuwissen) mehr oder weniger übernommen und sich in Prognostik und Prophetie geübt. Das alles ist nur so lange plausibel, als das Prognostizierte in seinen wesentlichen Bestandteilen genau so ist wie das Erinnerte. Denn von diesem kann man immer sagen, daß es die Grundbeständigkeit unserer einen Welt ist, in der wir leben. Aristoteles hat es „Substanz“ genannt und als „To ti en einai“ („das was war und ist“, bzw. das Ge-Wesen) definiert. Das Neue und Andere, das evtl. in unserer Gegenwart auftaucht und entdeckt oder als Zukünftiges prognostiziert wird, existiert aber gerade nicht, solange es nicht entdeckt worden ist, oder ehe es Gegenwart geworden ist. Deshalb bleibt der Glaube daran, daß sich irgend etwas Zukünftiges „verwirklichen“ ließe, ein riskantes Spiel. Zwischen geschichtlichen Vergangenheitswelten der Erinnerung und zukünftigen Welten der Hoffnungen, Wünsche, Planung und der prognostischen Phantasie haben wir es noch mit vielerlei wissenschaftlichen Hinterwelten hinter der erscheinenden Gegenwartswelt zu tun. Kants „Ding an sich hinter den Erscheinungen“ gilt für die meisten Wissenschaftler als Modell solcher Hinterwelten. Es sind die Sinn- und Bedeutungswelten hinter den Texten und Dokumenten aller Philologien, die Welt der Zahlen und Strukturen hinter den Zeichen, die Welt des Unbewußten hinter den psychischen Erscheinungen, die Welten der Dämonen, Geister, Engel und des Absoluten hinter den Manifestationen der sinnlichen Wirklichkeit, die nicht nur in den Theologien diskutiert werden. Erst diese Phänomene machen es verständlich, warum auch die Wissenschaftsphilosophie und die Logik sich so intensiv mit dem Thema der möglichen Welten befassen. Es handelt sich um den prekären Versuch, gleichsam intellektuelle Raumschiffe zu konstruieren, mit denen man zwischen all diesen möglichen Welten hin und herfahren kann. Für solche Raumschiffe benötigt man einen Startund Landeplatz, um den sich dann auch die logischen Weltenbauer emsig bemühen. Das ist die vorn genannte Vorstellung von einer „notwendigen Welt“, die gleichsam das Gemeinsame in den möglichen Welten ins Auge faßt und von der man glaubt, daß sie alle möglichen Welten zusammenhält. (Vgl. dazu auch § 10). Nun hat der Laie irgendwo durch seinen Lebenszusammenhang und durch seine Lebenserfahrung Kompetenzen. Lebens- und Berufserfahrung geben sie ebenso wie Hobbys und Liebhabereien oder jugendliche Übungen. Man kann sich z. B. 9 J. Hörisch und U. Kammann (Hg.), Organisierte Phantasie. Medienwelten im 21. Jahrhundert, - 30 Positionen. Paderborn 2014. 29 nur wundern, welches Maß von historischen Kenntnissen so mancher Fußballfan über die Geschichte und aktuelle Lage dieses Gebietes hat, oder mancher Jugendliche über die „Szene“, in der er sich bewegt. Von daher sollte jedermann auch ein gewisses Urteil darüber haben, was man von Fachleuten auf ihren wissenschaftlichen Gebieten erwarten kann. Aber das ist gewöhnlich nicht der Fall, und wenn, so traut man sich kaum, es gegenüber wissenschaftlicher Kompetenz oder was man dafür hält, in Anschlag zu bringen. Erst ganz neuerdings erhebt sich eine Potestbewegung, die diese Erfahrungen der Laien und Dilettanten ernst genommen haben will. Sie nennt sich „Citizen Science“. In den Hochschulen selber ist eine der Schnittstellen zwischen sogenanntem Alltagswissen und wissenschaftlichem Wissen das Studium junger Leute. Im allgemeinen hat sich bei diesen und in der Öffentlichkeit das Vertrauen darauf erhalten, sie seien durch die gymnasiale oder andere schulische Ausbildung schon einigermaßen „wissenschaftlich vorgebildet“. Davon kann aber heute kaum noch die Rede sein, wie die immer zunehmenden Brücken- und Nachholkurse beweisen, mit denen heute versucht wird, die Studierenden erst einmal studierfähig zu machen. Das frühere Propädeutikum ist inzwischen weithin zu einem Postpädeutikum geworden. Es ist keineswegs so, daß die Studienanfänger kein Wissen oder keine Kompetenzen für ihr Studium mitbringen. Was sie aber mitbringen, haben wir vorn schon als Alltagswissen skizziert. Eine andere Schnittstelle ist durch den neuerlich vermehrten Einzug von Senioren in die Studiengänge gegeben. Man muß freilich daran erinnern, daß die Zugänglichkeit der universitären Lehre für Senioren und ein weiteres Publikum ein alter Brauch und eigentlich selbstverständlich war. So war es auch nichts besonderes, daß etwa in den Vorlesungen von Fichte, Hegel, Schleiermacher, Boeckh, Ranke und vielen anderen berühmten Professoren oftmals die höhere Ministerialität und die Bildungselite Berlins teilnahm. In entsprechender Weise trifft sich die pariser „haute vollée“ auch jetzt noch in den Vorlesungen prominenter Professoren des Collège de France. Manche Hochschulen haben dem neuerlichen Ansturm der „älteren Semester“ durch die Einrichtung eines abgesonderten Seniorenstudiums Rechnung getragen. Im Ausland, wo man das Institut der in Deutschland verbreiteten Volkshochschulen nicht kannte, sind (wie etwa in Straßburg durch Lucien Braun) eigene „Universitäten des dritten Alters“ (Université du Troisième Age) gegründet worden. Aber die meisten Hochschulen haben ihre Studiengänge einfach auch für die Senioren und Gasthörer wieder geöffnet. Ersichtlich sind hier diejenigen Fächer am meisten nachgefragt, wo die Laien sich am meisten Kompetenzen und eigene Erfahrungen und Motivationen für die Teilnahme zutrauen. Zeitzeugen, Kunstkenner, Roman- und Gedichtleser und Selbstdenker sind die neue Klientel der neueren und der Zeit-Geschichte, der Kunstgeschichte und der Literaturwissenschaften sowie der Philosophie. Die Reaktion der heutigen Hochschullehrer zeugt meistenteils von Aufgeschlossenheit. Nur hier und da ergibt sich Widerstand gegen „Überfüllung der 30 Seminare“, „Besserwissen der selbsternannten Zeitzeugen“, der „Kunstliebhaber“, „Literaturkenner“ und „Selbstdenker“. Das wird dann oft zur Begründung der Ausgliederung und Organisation von eigenen Seniorenstudiengängen genommen. In diesen abgesonderten ebenso wie in den integrierten Studiengängen aber findet die heute charakteristische Begegnung zwischen den Laien und den Wissenschaftlern statt. § 6 Die alte und die reformierte Hochschulforschung und -Lehre Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium im Baccalaureus-Magister-Doctorsystem und seine Modernisierung. Alte und neue Verständnisse der „Einheit von Forschung und Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs. Die Bildung und die Elite einst und jetzt Wer heute im Hochschulbereich – der durch Fachhochschulen und private Hochschulen und Akademien weit über die alten Universitäten ausgeweitet wurde, – seine Studien beginnt, sei es als Abiturient oder auf einem der zahlreichen neuen Zugangswege – dürfte es schwer haben, sich in dieser „akademischen Welt“ zurechtzufinden. Darum seien hier einige Bemerkungen über die alten und die neuen Prinzipien des Hochschul- und Studienwesens angefügt.10 Was das Lehrpersonal betrifft, so ist jeder Wissenschaftler auf seinem Gebiet Fachmann und muß über dieses Gebiet bescheidwissen. Dafür sorgen schon die Auswahl- und Qualifikationsverfahren. Aber es dürfte auch den Laien nicht entgangen sein, daß die Fachgebiete, auf denen Wissenschaftler wirklich qualifiziert sind, immer enger gezogen werden. Und dies im Rahmen der ganzen Wissenschaften und ihrer Disziplinen, für die die Fachleute Diplome und Titel erwerben und auch vergeben. Man erwartet dann mit einem gewissen Recht, daß die Fachleute nicht nur ihr engeres Fachgebiet, sondern das ganze Gebiet beherrschen, für das sie ihre Titel erworben haben. Das gilt vor allem von den einstigen höheren Fakultäten Medizin, Jurisprudenz und Theologie, in denen man auch heute noch sämtliche Spezialdisziplinen studieren muß, und deren Diplome und Doktortitel noch immer 10 L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München (Alber) 1971; ders., Traditionelle Institutionen philosophischer Lehre und Forschung, in: Philosophie, Gesellschaft, Planung. Kolloquium H. Krings zum 60. Geburtstag, hgg. v. H. M. Baumgartner u. a. (Bayerische Hochschulforschung I), München 1974, S. 28 – 48). 31 eine umfassende Kompetenz des Arztes, Juristen und Geistlichen verpricht. Seit Beginn des 19. Jahrhunderts ist den Absolventen der einstigen höheren Fakultäten noch der Nationalökonom beigetreten. Vordem studierten die Ökonomen in der juristischen Fakultät die Staatswissenschaften und „Kameralistik“, was an manchen Standorten auch „Politische Ökonomie“ genannt wurde. Aber auch diese alten Titel „Dr. med.“ „Dr. theol.“ (früher auch „D.“), „Dr. juris“ (ggf. „Dr. juris utriusque“, d. h. des staatlichen und des Kirchenrechts) und des „Dr. rer. pol.“ (Doktor der politischen Angelegenheiten) garantieren längst nicht mehr, was sie einst bedeuteten. Auch in diesen Fakultäten, soweit es sie noch gibt (es gibt sie meist nur noch in Gestalt der sogenanten „Fakultätentage“, zu denen sich die früher zugehörigen Disziplinen regional zusammenschließen) und soweit sie nicht in mehr oder weniger zufällige Fachbereichskombinationen verteilt worden sind, ist die Spezialisierung weit fortgeschritten. Auch in der „Philosophischen Fakultät“ studierte man bis ins 19. Jahrhundert hinein alle Fächer des „geisteswissenschaftlichen“ Triviums und des „mathematisch-naturwissenschaftlichen“ Quadriviums, die dazu gehörten. Bis dahin behielt sie auch ihren Status als „propädeutische“ (vorbereitende) Fakultät, die man vor der Zulassung zum Berufsstudium der vorgenannten „höheren Fakultäten“ durchlaufen mußte. Aber nach der humboldtschen Reform zu Beginn des 19. Jahrhunderts erhielt diese Fakultät neben ihrer weiterbestehenden propädeutischen Aufgabe für alle höheren Studien zusätzlich die Aufgabe der regulären Berufsausbildung der Gymnasiallehrer. Diese praktische Zielvorgabe der Philosophischen Fakultät ist jetzt etwa zweihundert Jahre alt. Wer sich aber als Studierender an dieser Fakultät immatrikuliert hat, mußte meist feststellen, daß der Lehrbetrieb auf die Lehrerausbildung wenig und gelegentlich gar keine Rücksicht nahm. Das dürfte auch ein wesentlicher Grund dafür geworden sein, daß die Lehrerausbildung in einigen Bundesländern den meisten ihrer Universitäten wieder weggenommen und an wenigen Hochschulen konzentriert worden ist. Die in der Philosophischen Fakultät Lehrenden haben aber das traditionelle Bewußtsein beibehalten, die Propädeutik für alle Universitätsstudien zu betreiben, und sie stellen es in mancherlei Arten von „Studium generale“, jetzt vermehrt auch als „Seniorenstudium“ in den Vordergund. Dies umso mehr, als ja neben der Ausbildung der Gymnasiallehrer und seit einiger Zeit auch der Lehrer anderer Schultypen die sogenannten akademischen Studiengänge für eine Reihe anderer Berufe in allen Kultur- und Medienbereichen qualifizieren sollen. Wilhelm von Humboldt hat bei seiner Gymnasialreform (neben der Universitätsreform) das Kurrikulum der Oberstufe des Gymnasiums mit denselben Fächern ausgestattet, die auch an der damaligen Philosophischen Fakultät, die noch die quadrivialen Studien der Mathematik und Naturwissenschaften einschloß, gelehrt wurden. Und so blieben die Lehrpläne für das Gymnasium in der Regel ein Fächerspiegel der einstigen Philosophischen Fakultät. Die einstigen höheren Fakultäten aber hatten und haben daher kein gymnasiales Propädeutikum. 32 Sie entwickelten an seiner Stelle ihre jeweils eigenen fakultätsbezogenen Propädeutika. In der Medizin entstand im 19. Jahrhundert das sogenannte Physikum, in welchem die naturwissenschaftlichen und mathematischen Grundkenntnisse und die Medizingeschichte für die weiteren Studien vermittelt wurden. Bei den Juristen entwickelte sich ein rechtsphilosophisches und rechtsgeschichtliches, oft auch rechtssoziologisches Vorstudium. Und es blieb typisch, daß diese Gebiete keineswegs als „Service-Leistungen“ von den Fachleuten der Philosophischen Fakultät gelehrt wurden. Vielmehr wachten die Juristischen Fakultäten geradezu eifersüchtig darüber, ihre Rechtsphilosophen, Rechtshistoriker und evtl. Rechtssoziologen aus der eigenen Fakultät zu rekrutieren. Bei den Theologen aber waren immer die Sprachstudien, insbesondere Hebräisch bzw. Aramäisch, die klassischen Sprachen und die Anfänge einer biblischen Archäologie Schwerpunkte des Propädeutikums. Und auch diese wurden üblicherweise keineswegs als Service-Leistungen von den Gräzisten und Latinisten sowie den Altertumskundlern der Philosophischen Fakultät gelehrt. Das macht jedenfalls verständlich, daß alle diese relevanten Propädeutika in der Philosophischen Fakultät gleichsam ausgespart wurden. Ebenso auch, daß die Rechtsphilosophen, Rechtshistoriker und ggf. Rechtssoziologen der Fakultät wenig oder gar keinen Kontakt mit den Philosophen, Historikern und Soziologen der Philosophischen Fakultät haben. Nach Absolvierung dieser Fakultäts-Propädeutika erhielt und erhält der Arzt, Jurist, Theologe und Ökonom noch immer eine Ausbildung in allen „dogmatischen“ Fächern seiner Fakultät. Diese birgt sehr viel Handwerkliches und gewissermaßen Arkanes in sich, das man nur im langjährigen Umgang mit den Lehrern im Fach erlernen bzw. sich vielmehr aneignen muß. Erst diese Schulung verleiht dem Absolventen dieser Fakultäten das Flair und den Habitus, an dem der Laie den typischen Arzt, Juristen und Theologen, manchmal auch den Volkswirtschaftler (neuerdings meist BWLer) erkennt. Man kann sie immer noch leicht von den Studierenden der Philosophischen und Mathematisch-Naturwissenschaftlichen Fakuläten unterscheiden. Gewiß haben auch die aus der (alten) Philosophischen Fakultät hervorgehenden Gymnasiallehrer einen besonderen Habitus und gleichsam eine eigene Physionomie angenommen. Wer sich darüber wundert, wie geschwind das Lehrpersonal der Philosophischen und der Mathematisch-Naturwissenschaftlichen Fakultät mit den Kravatten ihre einstigen akademischen Gepflogenheiten im Umgang unter einander und mit den Studierenden abgelegt haben, der unterschätzt den sozialen Druck, den das pädagogische Ideal, sich den Auszubildenden anzugleichen, hier ausübt. An den Turnschuhen, Jeans, offenen Hemdkragen und Pullovern, langen Haaren und Baseballkappen wird man hier schwerlich noch den smarten Studierenden vom Assistenten oder auch vom Professor unterscheiden können. Die Absolventen der Philosophischen Fakultät, soweit sie Gymnasiallehrer wurden, werden noch Philologen genannt. Dieser Gymnasiallehrertyp war anfangs in allen Gymnasialfächern einsetzbar, d. h. in den historischen und philologischen 33 Nachfolgefächern des Triviums und in den mathematischen und naturwissenschaftlichen Nachfolgefächern des Quadriviums. Und daher versteht es sich, daß nicht nur Sprach- und Geschichtslehrer, sondern auch Mathematiker, Physiker, Chemiker und Biologen im gymnasialen Schuldienst auch jetzt noch gleichermaßen Philologen genannt werden, und daß ihre Standesvertretungen „Philologenverbände“ geblieben sind. Veränderungen im Lauf des 19. Jahrhunderts betrafen einerseits die Abtrennung der Mathematisch-Naturwissenschaftlichen Fakultät (also des einstigen quadrivialen Teils) von der übrigbleibenden Philosophischen Fakultät, andererseits eine in beiden neuen Fakultäten einsetzende Spezialisierung sowohl der Studiengänge wie der Lehrerqualifikation. So entstand das sehr eingeschränkte Haupt- und Nebenfachstudium (oder auch Zwei-Hauptfächerstudium) der Gymnasiallehrer. Der ehemalige Allroundphilologe, der alle „trivialen“ und „quadrivialen“ Fächer studiert haben mußte, war deshalb auch in allen Fächern des gymnasialen Lehrplans einsatzfähig. Der neuere Philologe ist jetzt nur für zwei Hauptfächer ausgebildet und kann sich weitere Lehrbefähigungen allenfalls durch Zusatzstudien und entsprechende Ergänzungsprüfungen erwerben. Der Absolvent der neuen Philosophischen Fakultät ist keineswegs „Philosoph“. Er kann es allenfalls ausnahmsweise sein, wenn er die Philosophie als Spezialgebiet studiert hat. Er ist jetzt vielmehr im speziellen Sinne Philologe einer bestimmten Sprache und Literatur, oder er ist Historiker (neuerdings speziell für alte, mittelalterliche, neuere oder Gegenwarts- bzw. Landesgeschichte), oder Sozialwissenschaftler (evtl. speziell Soziologe, Politologe, Medienwissenschaftler) oder Erziehungswissenschaftler. Gelegentlich ist er auch Psychologe, falls er diese Qualifikation nicht in der naturwissenschaftlich-mathematischen oder auch in der medizinischen Fakultät erwirbt. Der Naturwissenschaftler ist Mikro- oder Makrophysiker, Chemiker, Biologe (aber statt Zoologen und Botanikern gibt es jetzt nur noch „Molekularbiologen“). Oder er ist Mathematiker, und auch dies mit einer Reihe von Spezialisierungen, darunter mindestens theoretische und angewandte Mathematik sowie mehr und mehr „Informatik“. Den alten Nationalökonomen bzw. Volkswirt gibt es kaum noch. An seine Stelle sind die Betriebswirtschaftler („BWLer“) getreten. Gewiß erinnern hier die in Prüfungsordnungen geforderten Studien in einem oder zwei Nebenfächern gleichsam als Schwundstufe noch an die einstige Forderung nach einem Studium aller zur Fakultät gehörigen Disziplinen. Vor allem hatte sich das bis vor einigen Jahren noch im „Philosophicum“ als Zwischenprüfung für Lehramtskandidaten gehalten, bei welchem man über seine Hauptfächer hinaus auch philosophische und pädagogische Studien nachzuweisen hatte. Aber solche breiten Fakultätsstudien sind heute ein Erinnerungsposten, der in der Praxis bekanntlich kaum ernst genommen wird. Die Nebenfachstudien gehen in der Regel kaum über die Einführungskurse der jeweiligen Grundstudien hinaus. Überdies sind die Nebenfächer an vielen Fakultäten noch durch die Aufteilung 34 traditioneller Hauptfächer vermehrt worden, so daß ein früheres Fachstudium sich jetzt aus zwei oder mehreren Nebenfächern zusammensetzt. Studierte man z. B. früher Germanistik, so kann man jetzt die beiden Spezialitäten Germanistische Linguistik als Sprachwissenschaft und Germanistische Literaturwissenschaft studieren. Hinzu treten neuerdings Spezialstudiengänge wie „Deutsch als Fremdsprache“, „Übersetzungswissenschaft“ oder „literarisches (kreatives) Schreiben“, von denen man meinen sollte, die dazu nötigen Kompetenzen würden im normalen Germanistik-Studium erworben. Daß davon keine Rede mehr sein kann, wirft ein bezeichnendes Licht auf das, was im Normalstudium als zu erwerbende Kompetenz gilt. Diese Entwicklungen der letzten Jahrzehnte sind von allen Seiten begrüßt und ständig weitergetrieben worden. Insbesondere die Bologna-Vereinbarungen der europäischen Wissenschaftsminister zur Nachahmung angelsächsischer Bachelorund Masterstudiengänge haben auf diese Spezialisierungen bezug genommen. Die Gliederung der Studien in Bachelor- und Masterstudien ist eine Erbschaft der mittelalterlichen Studienorganisation. Diese gliederte sich in ein propädeutisches Grundstudium von zwei bis drei Jahren, das mit dem Grad des Baccalaureus („Junggeselle“) abgeschlossen wurde und erst den Eintritt in das Hauptstudium mit nochmals zwei bis drei Jahren Studiendauer erlaubte. Dieses wurde mit dem Magistergrad („Meister“) abgeschlossen. Der Magistergrad war wiederum die Voraussetzung zur Zulassung zum Doktorstudium in den höheren Fakultäten Jurisprudenz, Theologie und Medizin, das mit dem Doktorgrad („Gelehrter“) abgeschlossen wurde und im allgemeinen Vorbedingung für die Berufsausübung oder den Zugang zum Professorenamt war. Diese Studienorganisation war auf die Auswahl der Besten und Geeignetsten für die Wissenschaften in Forschung und Lehre abgestellt. Sie hat das abendländische Universitätssystem überhaupt zu dem gemacht, was es bis heute noch teilweise ist. Und das heißt zugleich, daß es auch dort, wo die alten Bezeichnungen verschwanden, durchaus aufrecht erhalten wurde. Daher kann es nicht verwundern, daß es besonders den deutschen Universitäten keine allzu großen Schwierigkeiten gemacht hat, ihre immer noch bestehende Studienstruktur wieder in die alten bzw. jetzt neuen englischen Bezeichnungen einzukleiden. Aber Bachelor-Studien sind und bleiben Grundstudien. Daß sie von der Bildungsbürokratie gesetzlich als Berufsstudien mit Berufsfähigkeitskompetenz und eigenen Diplomen ausgewiesen worden sind, zeigt nur an, welch überspannte Vorstellungen heutige Bildungspolitiker von der Leistungsfähigkeit dieser Grundstudien haben. Teils aus Einsicht, teils resignierend nehmen sie es daher hin, daß die einstigen höheren Fakultäten sowie die Ingenieur-Hochschulen sich diesem Trend verweigern und keinen ihrer Absolventen als Bachelor in ihre (freien) Berufe entlassen wollen. Und diese Fakultäten tun das aus dem Bewußtsein ihrer Verantwortung gegenüber der Öffentlichkeit, nur ausstudierte und kompetente Fachleute in die Berufspraxis zu entlassen. Daß auch die meisten Bachelors das längst eingesehen haben, sieht man schon daran, daß sie weiterstudieren und 35 mindestens den Master-Grad erwerben wollen. Und um dies weitestgehend zu ermöglich, geben sich die meisten Lehrenden auch alle Mühe, die Prüfungsanforderungen für den Erwerb des „Bachelors“ so weit abzusenken, daß jeder Studierende die „Befriedigend-Hürde“ zum Weiterstudium überwinden kann. Das Hauptstudium in allen Studiengängen heißt jetzt Master-Studium. Die daneben noch teilweise bestehenden Staatsexamens- und Diplom-Ingenieur-Studiengänge werden allerdings von den Medizinischen, Juristischen und Ingenieurwissenschaftlichen Fakultäten mit Zähnen und Klauen verteidigt. Zum Teil sind sie in einigen deutschen Bundesländern, wo sie schon abgeschafft worden waren, wieder eingeführt oder zugelassen worden. Dies nicht zuletzt deshalb, weil ihre Absolventen weltweites Ansehen genießen und ihre Diplome eine vielfach weit über dem Mastergrad liegende Berufskompetenz garantieren. An das Hauptstudium kann sich noch das „Graduierten-Studium“ des potentiellen Hochschullehrernachwuchses anschließen. Auch das Graduierten-Studium mit dem Abschluß des Doktorgrades ist gegenwärtig im Begriff, sich zu verändern. Die individuelle Betreuung der Doktoranden durch einen verantwortlichen „Doktorvater“ oder eine „Doktormutter“ wird mehr und mehr abgelöst durch das kollektive Betreuungssystem der „Graduierten-Studiengänge“, die dann meist „Colleges“ genannt werden. Sie werden durch finanzielle Sonderzuweisungen an die Hochschulen gefördert und tragen dadurch wesentlich zum Ausweis von „Exzellenz“ der sie einrichtenden Hochschulen bei. Diese Veränderungen sind ein Beispiel dafür, daß moderne Reformen teilweise auf die Wiederherstellung alter Formen und Muster hinauslaufen. Zum überwiegenden Teil handelt es sich aber um politische Experimente mit dem Bildungswesen, von denen noch niemand absehen kann, ob sie zum Vorteil oder zum Schaden künftiger Generationen ausschlagen werden. Bei alledem sollte man nicht vergessen, daß auf allen Stufen der HochschulAusbildung herausragende Studierende auch zur Lehre herangezogen wurden, was ja gerade für den Nachwuchs die beste Lehre für die Lehrbefähigung darstellt. Das gehörte und gehört zum System. Wilhelm von Ockham (um 1290 – um 1348), einer der bedeutendsten scholastischen Philosophen, erwarb nur den Grad eines Baccalaureus, während die meisten mittelalterlichen Philosophen darüber hinaus den Magistergrad der Philosophischen Fakultät und dann den Doktorgrad der Theologischen Fakultät erwarben. Ockham wurde daher „venerabilis inceptor“ (verehrungswürdiger Lehrer, zugleich aber auch „Anfänger“) genannt. Unter heutigen Verhältnissen würde man ihn Assistenz- oder Juniorprofessor genannt haben und hätte ihn bei seiner offensichtlichen Bewährung in der Lehre alsbald mit dem Titel „apl. Professor“ (außerplanmäßiger, d. h. nicht im Stellenplan des Universitätshaushaltes besoldeter Hochschullehrer) oder „Honorarprofessor“ (d. h. „ehrenhalber mit dem Professorentitel versehen, ebenfalls nicht im Stellenplan) versehen. Man kann erwarten, daß dieses System in allen Wissenschaften noch immer hervorragende Wissenschaftler hervorbringt. Es sind vor allem auch nicht weniger 36 als vor einem halben Jahrhundert, als der gesamte Wissenschaftssektor und die Zahl der Hochschulen viel kleiner war als heute. Aber vermutlich liefert es auch heutzutage nicht mehr hervorragende Wissenschaftler als damals, da das alte System – entgegen einer modischen Kritik an den sozialen Bildungsschranken - längst darauf abgestellt war, mit Hilfe von Stipendien alle Begabungsressourcen auszuschöpfen. Sie bilden das heran, was man heute allenthalben als Elite beschwört, so als hätte man keine mehr. Aber das Bild dieser wissenschaftlichen Elite in der Öffentlichkeit ist weder klar noch adäquat, sonst hätten der Exzellenzdiskurs und ministerielle Bemühungen, Exzellenz überhaupt erst hervorzubringen, nicht aufkommen können. Offensichtlich fehlt es dieser Elite an Zeit und Willen, ihre Leistungen in der Medienöffentlichkeit angemessen zu vermitteln. Und diejenigen, die das für sie besorgen, sind nicht immer ihre überzeugendsten Repräsentanten. Wie aber schon gesagt, sind moderne Wissenschaftler meist Fachleute in den immer enger gezogenen Grenzen ihrer Fachgebiete, in denen sie sich in der Regel nur durch ihre veröffentlichten Forschungsleistungen bekannt machen. Damit kommen wir aber zu einem Punkte, an dem das gegenwärtige Wissenschaftssystem besonders in Deutschland am meisten im argen liegt. Und es ist gerade dieser Punkt, wo der Laie und der Studierende dem Wissenschaftssystem zuerst und mit nachhaltigsten Auswirkungen begegnet. Noch immer beruht das neuere deutsche Wissenschaftssystem, besonders der Universitäten, auf den Ideen und Plänen Wilhelm von Humboldts.11 Ihre Realisierung führte die deutsche Wissenschaft im 19. Jahrhundert an die Weltspitze und wurde in den USA, Japan und einigen anderen Ländern übernommen. W. v. Humboldt stellte in seinen einschlägigen Schriften die zwei wesentlichen Grundsätze der „Einheit von Forschung und Lehre“ und des „forschenden Lernens in Einsamkeit und Freiheit“ heraus und schrieb sie gewissermaßen fest. Die Einheit von Forschung und Lehre entsprach einer auch vordem an vielen Universitäten herrschenden Tradition, nach der nur ausgewiesene Forscher dort lehren sollten. Damit war ein grundsätzlicher Unterschied zwischen Schulen (auch dem Gymnasium) mit streng geregeltem „Unterricht“ und Universitäten mit „freier Lehre“ begründet. Dieses Organisationsprinzip der Universitäten wird neuerdings durch die sogenannte Verschulung der Hochschulen und durch die (noch weitgehend nur geplante bzw. diskutierte) Einführung reiner „Lehrprofessuren“ konterkariert. Deren Lehrdeputat soll zwischen 12 und 20 Veranstaltungsstunden pro Woche betragen, was dem üblichen Lehrpensum der Gymnasiallehrer entspricht. „Studienräte im Hochschuldienst“ gab es aber auch bisher schon vereinzelt. So soll durch die Lehrprofessuren dies Institut nur ausgeweitet werden. 11 W. von Humboldt, Über die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin (ca. 1810), in: W. v. Humboldt, Studienausgabe in 3 Bänden, hgg. von K. Müller-Vollmer, Frankfurt a. M. 1972, Band 2, S. 133 – 141. 37 Das humboldtsche forschende Lernen in Einsamkeit und Freiheit entsprach ebenfalls einem verbreiteten Brauch, die Studierenden als erwachsene Menschen ernst zu nehmen, die in der Lage sein sollten, nach eigenen Begabungen, Neigungen und Interessen aus dem vielfältigen Lehrangebot dasjenige auszuwählen, was sie selber zur Bildung ihrer Persönlichkeit und zur Qualifikation für künftige Berufsaufgaben für richtig und wichtig hielten. Daß dies in engster Zusammenarbeit mit ihren Lehrern, nämlich „in Teilnahme an ihren Forschungen“, geschehen konnte, ergab sich bei der meist geringen Zahl der Studierenden von selbst. Humboldts Ideen werden bis heute immer wieder beschworen, und sie gehören zweifellos noch immer zum Selbstverständnis der meisten Wissenschaftler, und dies nicht nur in Deutschland. Ihre Anwendung in der Praxis des modernen Hochschulbetriebes ist freilich weithin zu einem Zerrbild geraten. Die Einheit von Forschung und Lehre wird vom durchschnittlichen Hochschullehrer so verstanden, daß er nur das lehrt, was er selbst erforscht hat. Da dies naturgemäß nur einige Schwerpunkte seines Faches betreffen kann, das er vertreten soll, findet man kaum noch Lehrer, die den Überblick über ihr Fach behalten haben und es in den sogenannten „großen Vorlesungen“ oder in umfassenden „Lehrbüchern“ vorführen können. So kann es auch nicht wundern, daß nunmehr der Doktorand als studentischer Tutor oder der Doktor in der Rolle des Assistenzoder Juniorprofessors zur maßgeblichen Hochschullehrerfigur wird, da er in seinem Seminar unmittelbar aus seinen Forschungen schöpft und schöpfen muß. Die „Einsamkeit und Freiheit“ der Studierenden macht zweifellos noch immer die große Attraktivität des selbstbestimmten Studentenlebens im „Freiraum Hochschule“ aus. Dies im Unterschied zu den Schulen (und auch Fachhochschulen), wo der (einstmalige) Schülerstatus merkliche Zwänge der Präsenz und Assiduität mit sich brachte und z. T. noch mit sich bringt. Es ist gewiß in erster Linie dem Ernstnehmen dieser Freiheit der Studierenden durch die Universitätslehrer geschuldet, daß sie eher darauf warten, ob und daß Studierende in ihre Lehrveranstaltungen und zur Beratung und Betreuung zu ihnen kommen, als daß sie ihnen nachlaufen und irgend welchen Druck auf sie ausüben. Das Problem besteht eben darin, in welchem Maße die vielfach „nicht erwachsen werden wollenden“ jungen Leute dieser Freiheit gewachsen sind. Jedenfalls sind es nicht die Professoren, die es ihnen verdenken oder sie gar daran hindern, ihre Freiheit dazu zu benutzen, im gesellschaftlich einigermaßen angesehenen Status der „Studierenden“ alles andere zu betreiben als zu studieren. Und wäre das nicht so, so wäre ein einigermaßen geregelter Lehrbetrieb und die Betreuung in den meisten Fächern wegen Überfüllung schon längst nicht mehr möglich. Andererseits wird man sich nicht verhehlen, daß immatrikulierte Studenten, auch wenn sie nicht studieren, den regulären Arbeitsmarkt merklich entlasten. Am meisten dürfte aber das „forschende Lernen“ unter gegenwärtigen Bedingungen mißverstanden werden. Die „Teilnahme an der Forschung“ kann ersichtlich nur im engeren Kreis der Fortgeschrittenen, etwa bei der Anfertigung von Examensarbeiten unter Anleitung und Betreuung der Hochschullehrer, stattfinden. 38 Dafür gibt es in den meisten Disziplinen jetzt besondere Forschungskolloquien. Der durchschnittliche Student und besonders der Anfänger geht aber davon aus, daß die Forschung schon im Proseminar oder einer „Übung“ beginne. Somit gilt jetzt gewöhnlich schon das Lesen eines Aufsatzes oder gar eines ganzen Buches oder das Herunterladen eines Textstückes aus dem Internet als echte Forschungsleistung. Dies umso mehr, als heute das Lesen wissenschaftlicher Texte selbst schon als kaum zumutbare Arbeit gilt. Darum erwarten viele Studenten von ihren Lehrern, daß sie ihnen „vortragen, was in den Büchern steht“ (wie es auch von studentischen Fakultätsvertretern gelegentlich gefordert wird). Und das muß der Hochschullehrer dann auch in gehörigem Maße tun. Vorauszusetzen, daß alle oder auch nur die Mehrzahl von Seminarteilnehmern einen thematischen Text vor der Seminar-Diskussion gelesen hätten, hieße, über die Köpfe der meisten hinwegzureden und sich von vornherein um den Lehrerfolg oder um eine positive Bewertung in den neuerdings eingeführten Lehrevaluationen durch die Studierenden zu bringen. Ein verhängnisvoller Mißstand der Studienorganisation besteht heute darin, daß sich die Professoren auch wegen solcher Erfahrungen im Grundstudium weitgehend aus den Lehrveranstaltungen des Grundstudiums, also der Anfänger, zurückgezogen haben und die ganze Propädeutik der Fächer Aufgabe der wissenschaftlichen Mitarbeiter oder auch der studentischen Hilfskräfte geworden ist. Bis in die frühen sechziger Jahre war das geradezu umgekehrt. Es war fast Ehrensache und daneben auch von pekuniärem Reiz wegen der „erlesenen Hörgelder“ (nämlich 2,50 DM pro Hörer und Vorlesungsstunde), daß die Professoren möglichst große Übersichts-Vorlesungen für Anfänger und „Hörer aller Fakultäten“ hielten. Die Assistenten, die bis dahin durchweg mindestens schon den Doktorgrad erworben haben mußten, durften, wenn sie überhaupt zur Lehre herangezogen wurden, Spezialseminare über ihre eigenen Forschungsgegenstände abhalten. Heute ist es dagegen fast allgemein üblich geworden, daß die sogenannten Mitarbeiter meistens Doktoranden (gelegentlich auch „Magistranden“) sind, die sich erst noch in ihren Forschungsgegenstand einarbeiten müssen. Nur die wenigsten dieser wissenschaftlichen Mitarbeiter haben längerfristige Stellen (die früheren Assistentenstellen bei einem Professor) inne. Die meisten werden jetzt aus Drittmitteln eines Forschungsprojektes dotiert. Und das hat überall zu dem geführt, was man das Prekariat nennt: junge und oft schon voll ausgebildete Leute, die ihre besten Jahre in oft nur auf einige Monate befristeten Projektstellen verbringen, bei denen kaum absehbar ist, ob sie verlängert werden, entfallen oder durch ein anderes Projekt ersetzt werden können. Diese Mitarbeiter werden aber in den meisten Fällen auch zur Lehre herangezogen. Bis dahin und weithin noch jetzt war und ist das Vorlesunghalten überhaupt ein striktes Privileg der Professoren und der mit der „Venia legendi“ (Verleihung des Rechts, Vorlesungen zu halten) versehenen Privatdozenten. Eine eigentliche Ausbildung für das Vorlesungshalten gab es nie. Allenfalls ergaben sich Gelegen- 39 heiten zur Vertretung der Professoren bei deren Abwesenheit durch ihre Assistenten in einzelnen Lehrveranstaltungen. Aber das Abhalten von Vorlesungen überhaupt und das der „magistralen Vorlesungen“ über das ganze Fach insbesondere hatte für die Professoren den sehr großen Vorteil, daß sie dadurch jederzeit den Überblick über ihr ganzes Fach zu erarbeiten, zu behalten und zu pflegen hatten. Es war gleichsam eine ständige Turnübung für Geistesgegenwart. Und darüber hinaus war die Übung auch heuristisch fruchtbar. Wer sich ständig um diese Geistesgegenwart bemühte, setzte sich auch in die Lage, immer wieder neue Verknüpfungen zwischen den Inhalten herzustellen, sie zu überprüfen und daraus Gesichtspunkte für neue Forschungsfragen zu entwickeln. Als 1964 die genannten „erlesenen“ Hörgelder in der Bundesrepublik pauschaliert wurden, um den krassen Unterschied der Erzielung von Hörgeldern in den großen Massenfächern und den kleinen sogenannten Orchideenfächern aus Gründen der Gerechtigkeit einzuebnen, entdeckten die Didaktiker, daß sogenannter Frontalunterricht, unter den man auch die akademischen Vorlesungen subsumierte, autoritär und indoktrinierend sei. Sofort sank das Interesse an den Vorlesungen zugunsten des freien Dialogs im Seminarbetrieb, bei dem fortan der nummerus clausus der Kleingruppen regierte. Das kam vielen Privatdozenten und neu berufenen Professoren sehr zupaß, denn sie hatten oft vor ihrem Amtsantritt noch nie eine Vorlesung gehalten, wußten andererseits aber genau, wieviel Arbeit und Mühe dazu hätte investiert werden müssen. Hinzu kam durch dieselbe Besoldungsreform der Oktroi einer Lehrverpflichtung für die Professoren von acht (jetzt mancherorts neun), für Assistenten bzw. wissenschaftliche Mitarbeiter von mindestens zwei Stunden. Vordem waren die Professoren nur dazu verpflichtet, „nach Bedarf im Fache“ Lehrveranstaltungen abzuhalten. Das konnten zuweilen 15 Stunden sein, aber auch „mindestens eine Lehreinheit“ (d. h. eine Vorlesung und ein zugeordnetes Seminar), wie man sie im allgemeinen von den Privatdozenten forderte und auch jetzt noch fordert. Manche berühmten Professoren, an deren Forschungen die Universität und das zuständige Ministerium besonders interessiert waren, hatten sich in ihren Berufungsverhandlungen sogar ausbedingen können, überhaupt keine Lehrveranstaltungen abzuhalten, um sich gänzlich der Forschung zu widmen. Begleitend zur Einrichtung reiner Lehrprofessuren sollen übrigens nach neuesten Plänen auch wieder vermehrt solche reine Forschungsprofesssuren (ohne Lehrverpflichtung) eingeführt werden. Der Lehrverpflichtung seit 1964 ließ sich am bequemsten durch Seminare und Kolloquien nachkommen, da die Zeit für die Ausarbeitung von Vorlesungen immer knapper wurde. Wer heute in das Vorlesungsverzeichnis einer Universität schaut, wird leicht bemerken, daß nur noch die Historiker – ans Geschichtenerzählen gewöhnt – in nennenswertem Umfang Vorlesungen halten, die übrigen Professoren allenfalls eine einzige pro Semester, und die Assistenten dürfen und mögen es immer noch nicht. Die neuen Junior-Professoren haben inzwischen 40 dieselben Lehrverpflichtungen wie ihre älteren Professorenkollegen. In manchen Fächern, die sich besonders forschungsintensiv geben, verzichtet man zugunsten der Forschungsseminare von vornherein auf Vorlesungen. Die fatalen Folgen dieser Studienorganisation liegen eigentlich auf der Hand. Aber man spricht kaum darüber, es sei denn, daß sie als Fortschritt gepriesen werden. Die ehemaligen „großen Fächer“ (Einzelwissenschaften) leben praktisch nur noch in Instituts- und Seminarbezeichnungen fort. Die einstigen „Lehrstühle“ für das ganze Fach, die man durchweg als Parallelprofessuren eingerichtet hatte, werden jetzt für vielerlei Unterdisziplinen ausgelegt und ausgeschrieben, und das setzt sich bei den ehemaligen „Extraordinariaten“, den vorigen C-3 und jetzigen W-2 Professuren weiter fort. Die Zerstückelung der Fächer in Spezialdomänen der bestallten Hochschullehrer schon bei den Stellenausschreibungen wird zwar überall mit der notwendigen und sachangemessenen Spezialisierung der Forschung begründet. Aber solche Spezialisierungen ergaben sich als „Schwerpunkte“ innerhalb des zu vertretenden Lehrfaches schon immer von selbst. Die jetzt praktizierten SpezialistenAusschreibungen dienen aber vor allem dem Zweck, überhaupt neue Professorenund Mitarbeiterstellen zu erhalten und jede Konkurrenz zwischen den Fachvertretern, wie sie nur durch die früher üblichen Parallelprofessuren in den Fächern gewährleistet war, zu verhindern. Das überall geforderte „Profil“ der Fächer besteht dann vor allem in der Vielzahl und Buntheit der Spezialitäten an den einzelnen Fakultäten und Universitäten. Es kann nicht verwundern, daß viele Professoren diese Gelegenheit nutzen, ihr persönliches Lehrangebot und ihre speziellen Forschungsinteressen in einem neuen Studiengang zu etablieren. An attraktiven und vielversprechenden Bezeichnungen dafür fehlt es nirgends. Dadurch sind aber die tatsächlich angebotenen Studieninhalte kaum noch erkenbar oder vergleichbar geworden. Und um hier dem Wildwuchs neuer Studiengänge zu steuern, haben die dadurch überforderten Kultus- bzw. Wissenschaftsministerien deren Überprüfung, Vergleichung und Vereinheitlichung privaten Akkreditierungsgesellschaften übertragen, vor denen die Fakultäten und Fachbereiche ihre Studiengänge in regelmäßigen Abständen offenzulegen und zu rechtfertigen haben. Diese Akkreditierungsgesellschaften rekrutieren ihr Personal zum größten Teil aus selbsternannten „Hochschuldidaktikern“ und zum geringeren Teil aus Fachkollegen, die dadurch reichlich Gelegenheit und Mittel finden, ihre Vorstellungen von den richtigen und zukunftweisenden Inhalten der kurrikularen Lehrangeboten den jeweiligen Fächern aufzuoktroieren. Die auf diese Weise verursachte Zersplitterung des Lehrangebots hat kompensatorisch zur Einrichtung von „interdisziplinären“ Kooperationen und Koalitionen (Clustern) mit einem Superprofil geführt. Was man dabei als „interdisziplinäre Forschung und Lehre“ bezeichnet, ist zwar manchmal eine echte Kooperation der Fachleute, die das Spezialwissen ihrer Fächer einbringen, sehr oft aber ein dilet- 41 tantisches Herumwildern in allen Disziplinen, die die Lehrenden vorher nicht studiert haben. Nichts erscheint jetzt einfacher, als für beliebige Probleme neue Professuren oder gar Institute „In“ und „An“ den Hochschulen einzurichten, die das Problem interdisziplinär „beforschen“ und in der Lehre plausibel darstellen sollen. Die Lehr-Kurricula dieser „innovativen Fächer“ bestehen dann in der Regel aus den Service-Leistungen älterer bodenständiger Fächer. Die Forschungsmethodologie ergibt sich meist aus dem „Praxisbezug“ und allenfalls aus demjenigen, was die dazu eingesetzten Lehrpersonen früher selbst studiert haben. Und hinter allen aus dem Fächerfundus der traditionellen Universitäten gespeisten neuen Disziplinen und Wissenschaften dehnt sich dann noch das weite Reich ehemaliger Fachschulund Handwerkslehren aus, die überall auf die „Akademisierung“ ihrer Kurrikula an Universitäten drängen. Die Blüten solcher Entwicklungen kann man jede Woche in den zahlreichen Annoncen neuer Studiengänge und Fortbildungsangeboten von Hochschulen in der Tagespresse zur Kenntnis nehmen. Die Anzahl der in Deutschland studierbaren Fächer und Fächerkombinationen beträgt aktuell etwa eintausendachthundert. Für die Studienanfänger und für die Öffentlichkeit ist diese Organisation der Lehre naturgemäß bunt, verwirrend und interessant. Sie kommt den Erwartungen an Vielfalt, Schwierigkeit und Tiefe der Fächer entgegen. Nur einen ungefähren Überblick über das zu gewinnen, was zunächst oder überhaupt zu studieren wichtig ist, ist selbst zu einem Teil des Studiums geworden und trägt damit schon von selbst seinen Teil zur Verlängerung der Studienzeiten bei. Studierte man in früheren Zeiten das oder die Fächer, für die man in der gymnasialen Oberstufe am meisten Interesse entwickelt und die besten Schulnoten bekommen hatte, so kommt es jetzt häufig oder gar überwiegend vor, daß man gerade das interessant und studierenswert findet, wovon man auf der Schule nichts oder wenig erfahren hatte. Naturgemäß erfreut sich gerade die Philosophie dieser Attraktivität in besonderem Maße, was überall zu hoher Studiennachfrage und vergleichsweise vielen Mißerfolgen im Studium führt. Dabei verstärkt sich eine Anforderung an die Studierenden beträchtlich, die auch Wilhelm von Humboldt schon im Auge gehabt hatte. Humboldt hatte gefordert, daß die Studierenden die „Universalität“ des Lehrangebotes in ihrer persönlichen „Individualität“ zu einem Ganzen, einer „Totalität“ der erworbenen Bildung verknüpfen sollten. Er ging dabei davon aus, daß diese Totalität gerade nicht von den Lehrenden vorgegeben werden konnte noch sollte, da sie ja jeweils nur ihre Fächer bzw. ihre Wissenschaft zu vertreten hatten. Die Umsetzung lieferte daher Absolventen, in deren Köpfen sich nicht nur die studierte Einzelwissenschaft, sondern überhaupt wissenschaftliche Bildung zu einem Ganzen fügte. Unter heutigen Verhältnissen kann dies kaum noch auf das Gesamt einer einzigen, geschweige denn mehrerer oder gar aller Wissenschaften bezogen werden. Im gleichen Maße wie die allgemeine Bildung verschwindet, nimmt das öffentliche Reden über und Fordern von „Bildung“ zu. Auch die spezialisierten 42 Lehrer und Forscher haben, wie wir schon sagten, gewöhnlich nicht mehr den Überblick über das Ganze ihres Faches. Und auch deswegen schotten sich die einzelnen Fakultäten bzw. Fachbereiche mehr und mehr gegeneinander ab. Für „interfakultative“ Gespräche und Treffen der Fachvertreter fehlt es bei der zunehmenden Spezialisierung und dem zeitlichen Druck der Geschäfte sowohl an Zeit wie an Interesse. Wohl aber hat der bei so vielen Spezialisten studierende junge Kopf noch immer alle Chancen, sich Überblicke über den „Tellerrand“ seines engeren Studienfaches hinaus zu erarbeiten. Doch den meisten sind bei der jetzt üblichen Kapazitätsplanung des Stundenbudgets für Besuch sowie Vor- und Nachbereitung der Lehrveranstaltungen (die sich am Arbeitsvolumen von ca. 40 Wochenstunden der lohnabhängig Beschäftigten orientiert) engste Grenzen gesetzt. Erwähnen wir aber auch die neueste Initiative des Landes Nordrhein-Westfalen im letzten Hochschulgesetzt von 2014 zur Aufhebung der persönlichen Anwesenheitspflichten der Studierenden in den Lehrveranstaltungen. Sie wird damit begründet, daß so viele Studierende aus unterprivilegierten Bevölkerungsschichten tagsüber ihren Lebensunterhalt durch eine berufliche Tätigkeit finanzieren müßten. Da sie auf diese Weise tagsüber nicht mehr an Lehrveranstaltungen teilnehmen können, kann die Präsenz bei Lehrveranstaltung nur noch in besonders zu begründenden Fällen verbindlich gefordert werden. Die einstige akademische Freiheit zum Besuch oder Nichtbesuch von Vorlesungen (und nur von diesen) an den Universitäten, wodurch die Studierenden gegebenenfalls auch ihren Beifall oder ihre Mißbilligung bezüglich des jeweiligen Dozenten zum Ausdruck brachten, wird durch das neue Hochschulgesetz auf alle Übungen und Seminare an allen Hochschulen ausgedehnt. Gewitzte Geister vermuten, daß im nächsten Hochschulgesetz alle Hochschulen des Landes der Fern-Universität Hagen, die mit ca. 80 000 Studierenden ohnehin die größte Hochschule Deutschlands ist, eingegliedert werden. Für das danach folgende Hochschulgesetz wäre in Konsequenz zu erwarten, daß auch der gesamte Lehrbetrieb eingespart und durch ein zentrales Videoprogramm exzellenter Lehre im MOOC-Verfahren ersetzt wird. Deren Inhalte lassen sich preisgünstig als Video-Mitschnitte von Lehrveranstaltungen der prominentesten Professoren USamerikanischer Ivy-League-Universitäten und auch schon einiger deutscher Exzellenz-Universitäten kaufen.12 12 Eine vorsichtige Empfehlung des MOOC-Verfahrens (Massive Open Online Courses) liegt schon seit einiger Zeit vor. Der geschäftsführende Direktor der German-American Fulbright Commission Rolf Hoffmann verspricht sich davon: „Neue didaktische Modelle im online-learning erhöhen die Qualität der Lehre, vermitteln komplexe Inhalte verständlicher, öffnen auch kleinen Hochschulen neue Nischen bei der Rekrutierung und Einbindung Studierender (gerade im dualen Bereich) und erreichen potenziell Studierwillige, die sonst nicht den Weg zur Hochschule finden“. In: Forschung und Lehre 8/13, S. 606. 43 § 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik. Moderne Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik, auch im Hinblick auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer erneuerten klassischen Logik und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung als definitorischer Ausdruck und als methodische Artikulationsform der Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen. Über Sprache und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen guten Formalismus Um in die Wissenschaft überhaupt und in die Philosophie insbesondere einzudringen, tut man gut daran, sich mit der Logik zu befassen. Diese versteht sich wesentlich als Lehre von der wissenschaftlichen Wahrheit, Falschheit und Wahrscheinlichkeit. Sie ist die methodische Hauptdisziplin für alle Wissenschaften. Seit jeher wird sie als Teildisziplin der Philosophie gelehrt und erfüllt damit einen letzten Rest ihrer früheren propädeutischen Aufgabe für alle Wissenschaften. Da die Logik als Disziplin schon fast in den Anfängen der Philosophie von den Megarern begründet, von den Sophisten geübt, von Aristoteles auch z. T. formalisiert und jedenfalls in ihrer klassischen Gestalt schon ausgearbeitet worden ist, von da an auch ständig ein beachtliches Hilfsmittel für die inhaltlichen Wissenschaften war, ist ihr Gebrauch selbstverständlich geworden, auch im alltäglichen Denken. Auch der wissenschaftliche Laie ruft gelegentlich einen Gesprächspartner dazu auf, irgend eine Angelegenheit „logisch zu beurteilen“, sich überhaupt „einen Begriff von einer Sache“ zu machen und aus bestimmten Sachverhalten „Schlüsse zu ziehen“. Auch das geflügelte Wort vom „gesunden Menschenverstand“ dürfte sich der Tatsache verdanken, daß man wenigstens die Rudimente logischer Kultur in den weitesten Kreisen voraussetzt. Das hat dazu geführt, daß viele Wissenschaftler glauben, ihre gleichsam mit der Muttermilch aufgesogene logische Kompetenz genüge auch in ihrem Fache, und eine besondere Befassung mit der disziplinären Logik erübrige sich. Wenn argumentiert wird, versucht man seine Thesen zu begründen und beruft sich eventuell auf das Leibnizsche Prinzip vom Grunde. Hält man etwas für falsch, so versucht man einen Widerspruch aufzudecken und beruft sich auf das Prinzip vom zu vermeidenden Widerspruch. Auch das Prinzip der Identität wird noch gerne beschworen, falls jemand im Gespräch von einer zu einer anderen Bedeutung eines ins Feld gestellten Terminus übergeht. Und will man ein Diskussionsende erzwingen, so stellt man den Gesprächspartner gerne vor die Alternative, sich entweder für oder gegen eine entscheidende These auszusprechen. 44 Denn: „tertium non datur“, wie bekanntlich das Prinzip vom ausgeschlossenen Dritten besagt. Damit kommt man in den meisten Fällen ganz gut durch. Doch der wissenschaftstheoretisch etwas gewitztere Kollege kontert mit Autoritäten und neueren Forschungsergebnissen. Er weiß von Karl Albert, daß man in der Wissenschaft überhaupt nichts begründen kann. Denn jede Begründung ist entweder „dogmatisch“ (und schon deswegen theologischer Voreingenommenheit verdächtig), oder sie beruht auf einer Petitio principii, (sie beweist, was sie vorausgesetzt hat, und sie setzt voraus, was sie beweisen will), oder sie führt zu einem unendlichen Regreß immer weiter zurückreichender Begründungen, und etwas Viertes gibt es nicht. Das Argument geht auf Jakob Friedrich Fries zurück und ist mittlerweile auch als Friessches Trilemma bekannt.13 Auch beim Widerspruch behauptet etwa die neuere Paralogik (wie schon I. Kant bezüglich der „dynamischen Antinomien der reinen Vernunft“), daß Widersprüchliches gelegentlich wahr sein könne. 14 Bezüglich der Identität der Begriffe hat L. Wittgenstein behauptet, daß sich unter Begriffen nur „Familienähnlichkeiten“ und gegebenfalls gar keine Identitäten der Bedeutungen erfassen ließen.15 Wem dies schon zu lange her ist, der beruft sich auf die neueste daraus entstandene „Fuzzi-Logik“, die „unscharfe Begriffe“ (hinsichtlich ihrer Intensionen und/oder Extensionen) zuläßt.16 Das Tertium non datur gilt vielen schließlich durch die avanciertesten Theorien der Mathematik und Mikrophysik als längst überholt und als eingeschränkter Spezialfall für klassische Problembewältigung. 17 Werden solche Argumente noch durch einige logische bzw. mathematischlogische Formeln unterstützt, so wird der Muttermilch-Logiker sicher sogleich die Waffen strecken und das Gespräch verständnislos beenden. Was ihn aber nicht hindert, auf seiner Meinung zu bestehen und die moderne Logik und Wissenschaftstheorie insgesamt für sophistisches Gerede zu halten. Auch darin zeigt sich die zunehmend sich weitende Kluft zwischen den wissenschaftlichen Kulturen und den sogenannten Laien. Die Mathematik hat für die sogenannten exakten Naturwissenschaften, aber immer mehr auch darüber hinaus in Wissenschaften, die sich mit dem Prestige der „Exaktheit“ der Naturwissenschaften, insbesondere der Physik, schmücken wollen, ebenfalls methodische Funktionen. Hervorgetreten sind hier vor allem die Ökonomie, die Soziologie und Teile der Sprachwissenschaften. Auch die Mathematik stellt eigene Theorien über Wahrheit, Falschheit und Wahrscheinlichkeit 13 K. Albert, Traktat über kritische Vernunft, Tübingen 1968, S. 13. Manuel Bremer, Wahre Widersprüche. Einführung in die parakonsistente Logik, Sankt Augustin 1998. 15 L. Wittgenstein, Philosophische Untersuchungen (1953), Frankfurt a. M. 1971, Nr. 67, S. 57 f. 16 L. A. Zadeh, Fuzzy Logic and Approximate Reasoning, in: Synthese 30, 1975, p. 407 – 428. 17 K. Gödel, On Formally Undecidable Propositions of Principia Mathematica and Related Systems, hgg. von R. B. Braithwaite, New York 1962; dt. Original: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematische Physik 38, 1931, p. 173-198; N. Vasallo, Sulla problematicità del principio del terzo escluso. Linguisticità e senso concreto del principio nella lettura intuizionista di L. E. J. Brouwer. In: Epistemologia 23, 2000, p. 99-118; F. von Kutschera, Der Satz vom ausgeschlossenen Dritten. Untersuchungen über die Grundlagen der Logik, Berlin-New York 1985. 14 45 zur Verfügung. Nicht von ungefähr gilt ja eine richtige Gleichung wie etwa „2 mal 2 = 4“ als exemplarische Wahrheit, und die „Scheingleichung“ „2 mal 2 = 5“ als falsch. Wahrscheinlichkeiten gelten als die eigentliche Domäne der mathematischen Statistik. Die Mathematik hat sich, anders als die Logik, zu einer höchst umfangreichen Einzelwissenschaft mit großen Instituten (an manchen Universitäten sogar zu „Mathematischen Fakultäten“), einem eigenen Studiengang und einem Berufsprofil der Mathematiker ausgeweitet. Die Schwierigkeit und damit der Aufwand zu ihrem Studium ist beträchtlich und schreckt die meisten Wissenschaftler und immer mehr auch die jungen Leute davon ab, sich näher damit zu befassen. Gleichwohl empfiehlt es sich, und besonders für den Wissenschaftstheoretiker, sich mathematische Grundkenntnisse anzueignen. Auch die Mathematiker diskutieren ihre Grundlagenprobleme „logisch“. Und viele betonen, daß die von ihnen gepflegte „mathematische Logik“ nur ein Anwendungsgebiet der allgemeinen Logik für die Zwecke der Mathematik sei. Die meisten mathematischen Logiker dürften jedoch der Meinung sein, daß die sogenannte mathematische Logik bzw. „Logistik“ die von ihnen nun „klassisch“ genannte traditionelle Logik abgelöst und fast gänzlich ersetzt habe. W. Stegmüller schreibt etwa: „Mit Recht wird heute zwar darauf hingewiesen, daß die aristotelische Syllogistik nur einen infinitesimalen Teil dessen ausmacht, was man gegenwärtig als Logik bezeichnet. Mit fast derselben Sicherheit kann man aber behaupten, daß bereits in wenigen Jahrzehnten dasjenige, was heute Logik genannt wird, nur mehr als Bruchteil der Logik betrachtet werden wird“ (wobei mit „die Logik“ im wesentlichen die moderne mathematische Logik gemeint ist.18 Der Mathematiker Gottlob Frege, der diese Wendung am Ende des 19. Jahrhunderts mit eingeleitet hat, betont ausdrücklich, „daß die Arithmetik weiter entwickelte Logik ist, daß eine strenge Begründung der arithmetischen Gesetze auf rein logische und nur auf solche zurückführt“. 19 Der Mathematiker Hans Hermes bekräftigte dies mit dem Hinweis: „Die Besinnung auf die Grundlagen der Mathematik hat zu dem Versuch geführt, die Logik auf der Basis formaler Sprachen von Grund auf neu zu begreifen und ihr Verhältnis zur Mathematik zu untersuchen“. 20 Wobei vorausgesetzt wird, daß „formale Sprachen“ selbst schon mathematische Zeichenkomplexe sind, die Wittgenstein in seinem „Tractatus logico-philosophicus“ von 1921 als „Idealsprachen“ von den Gemeinsprachen strikt unterschieden hatte. Zugleich bemerkt Hermes aber auch: „Zu einer genauen Beschreibung des mathematischen modus procedendi gehört also die Diskussion der logischen Schlußregeln. Welche Regeln werden angewandt? 18 W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band 1: Wissenschaftliche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. XVI. 19 G. Frege, Funktion und Begriff, in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien, hgg. von G. Patzig, Göttingen 1962, S. 25. 20 H. Hermes, Methodik der Mathematik und Logik, in: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, hgg. v. M. Thiel, 3. Lieferung, München-Wien 1968, S. 4. 46 Merkwürdigerweise haben sich die Mathematiker mit dieser Frage fast zweitausend Jahre lang kaum befaßt. Noch heute wird z. B. von einem an einer deutschen Universität studierenden Mathematiker nicht verlangt, daß er sich mit diesem Problem beschäftigt. ... Obwohl der Mathematiker offenbar auch ohne Kenntnis der logischen Regeln seine Wissenschaft betreiben kann, so sollte er doch beachten, daß die Strenge der Mathematik mit den logischen Regeln zusammenhängt, und daß es doch sehr erstaunlich ist, daß man in einer so intensiv betriebenen Wissenschaft, wie es die Geometrie ist, mehr als zweitausend Jahre benötigte, um eine wesentliche Lücke in der Beweisführung zu entdecken. Eine solche Panne wäre vermutlich nicht eingetreten, wenn man die Regeln der Logik gekannt hätte“. 21 Dem kann man nur zustimmen. Tatsächlich wird jedoch von Seiten der meisten Mathematiker der Anspruch erhoben, eine zeitgemäße moderne Logik könne nur eine Teildisziplin der Mathematik sein. Diese Meinung ist zuerst von dem Mathematiker George Boole (1815 - 1864) in seiner „Untersuchung über die Denkgesetze, auf welche die mathematischen Theorien der Logik und der Wahrscheinlichkeiten gegründet sind“ 22 vertreten worden. Aber in diesem Werk zeichnen sich auch schon gravierende Unterschiede zwischen der alten „klassischen“ und der neuen „mathematischen Logik“ ab. Man findet zum ersten Mal die Ersetzung der logischen Kopula als Hauptjunktor des Urteils durch die mathematische Gleichung (die eine logische Äquivalenz ist und keineswegs mit der Kopula „ist“ in behauptenden Urteilen verwechselt werden darf!). Daraus ergibt sich die seither in der mathematischen Logik herrschende Auffassung, das Verhältnis von Subjekt und Prädikat im Urteil sei, wie in mathematischen Gleichungen, ein solches der Bedeutungsidentität, das durch die verschiedenen terminologischen und ausdrucksmäßigen Formulierungen, etwa durch die Quantifikation des Subjekts und/oder eine Quantifikation des Prädikats dissimuliert werde. Wahre Urteile müßten daher als „Tautologien“ (wie Wittgenstein im „Tractatus logico-philosophicus“ behauptete) verstanden werden. An Boole schließt sich der Ausbau einer „Boolschen Algebra der Logik“ durch W. S. Jevons und Ch. S. Peirce an, in der die Logik als „mathematischer Kalkül“ verstanden wird. H. Hermes definierte: „Jeder Kalkül besteht aus einem System von Regeln, die es erlauben, Figuren herzustellen, die aus den Buchstaben eines Alphabets gebildet sind, welche zu K (d. h. zum Kalkül) gehören“.23 Man wird also bei der „mathematischen Logik“ grundsätzlich davon ausgehen müssen, daß es sich dabei um Anwendung der Mathematik auf einige traditionelle logische Sachverhalte handelt. Was sich aus dem Bestand der klassischen Logik für diese Anwendungen nicht eignet, wird dabei außer Betracht gelassen. Unseren Bedenken gegen diese Auffassung von Logik haben wir in der „Logik“ (Aalen 1987), im „Grundriß der pyramidalen Logik mit einer logischen Kritik der mathematischen Logik und Bibliographie der Logik“ (Internet der Phil.-Fak. der 21 H. Hermes, Methodik der Mathematik und Logik, S. 16. G. Boole, Investigation of the Laws of Thought on which are Founded the Mathematical Theories of Logic and Probabilities, London 1854, ND New York 1958. 23 H. Hermes, Methodik der Mathematik und Logik S. 34. 22 47 Universität Düsseldorf 2000) sowie in den „Elementa logico-mathematica“ (Internet der Phil. Fak. der HHU-Universität Düsseldorf 2006) sowie in einer englischsprachigen Veröffentlichung 2013 24 Ausdruck gegeben. Wir schließen damit an einen Grundlagenstreit an, den Günther Jakobi mit seinem Buch „Die Ansprüche der Logistiker auf die Logik und ihre Geschichte“ 25 und Bruno v. Freytag-Löringhoff mit seiner „Logik, ihr System und ihr Verhältnis zur Logistik“ 26 eröffnet hatten, ohne daß von den „Logistikern“ bzw. den „mathematischen Logikern“ jemals darauf reagiert wurde. Im Sinne von G. Jakobi und B. von Freytag-Löringhoff, wenn auch nicht auf ihren Grundlagen, haben wir uns daher bemüht, eine klassisch-logische Kritik der mathematischen Logik und ihrer Denkweisen zu entwickeln. Das veranlaßt uns auch hier, dem Leser einige Winke zu geben, auf die er achten sollte, und zwar besonders in Hinsicht auf das, was wir oben über die Erwartungen des Laien gegenüber der Wissenschaft gesagt haben. Vor allem sollen dazu gewisse Unterschiede in der klassisch-logischen und mathematisch-logischen Denkweise hervorgehoben werden. Dazu sei an einige traditionelle Forderungen erinnert, die an die Logik als allgemeine wissenschaftliche Methodologie gestellt werden. Die Logik sollte zunächst Kriterien dafür bereithalten, was in der Wissenschaft als „Begriff“ gelten kann. Denn die Begriffe sind überall der Grundstoff, aus dem das wissenschaftliche Wissen besteht. Darüber hinaus sollte man von ihr erwarten, daß sie zeigt und Kriterien dafür hat, wie aus Begriffen und begrifflichen Ausdrücken Urteile, Schlüsse und Argumente entstehen, mit denen man Wahres und Falsches ausdrücken und ggf. nachweisen kann. Vor allem sollte man aber auch Aufschluß darüber erwarten, wie man Wahres und Falsches von einander unterscheiden kann, und wie die Frage dieser Unterscheidung oder ggf. ihrer Nichtunterscheidbarkeit mit der Wahrscheinlichkeit zusammenhängt. Insbesondere sollte die Logik auch deutlich machen können, wie sich aus alledem „Theorien“ zusammensetzen lassen, die nur das Wahre festhalten, es begründen und evtl. beweisen und das Falsche ausscheiden. Schließlich muß gezeigt werden, was Wahrscheinlichkeit ist und was sie mit den „Hypothesen“, in denen wissenschaftliche Vermutungen ausgedrückt werden, zu tun hat. Über alle diese Gegenstände haben sich in der klassischen Logik und in der mathematischen Logik verschiedene und oft entgegengesetzte Meinungen herausgebildet. Und da die vorherrschende Meinung in der wissenschaftlichen Methodologie darauf hinausläuft, daß die moderne und auf der Höhe der Wissenschaft stehende Logik nur die mathematische Logik sein könne, die klassische Logik aber durch sie überholt sei, so herrscht allgemein auch die Meinung, die ge24 Erweiterte und durch Anmerkungen und Korollarien ergänzte englische Übersetzung: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013 25 Stuttgart 1962. 26 Stuttgart 1955, 3. Aufl. 1961. 48 nannten Gegenstände seien in der klassischen Logik gleichsam nur angedacht und in gänzlich unklaren Gestalten überliefert worden. In der mathematischen Logik aber seien sie erst in angemessener formaler Fassung diskutierbar und mehr oder weniger schon ein „fundamentum inconcussum“ jeder brauchbaren wissenschaftlichen Methodologie geworden. Bei dieser Lage kann es nicht verwundern, daß auch gutwillige Liebhaber der klassischen Logik kaum noch Anlaß gesehen haben, deren Potentiale weiterzuentwickeln und überhaupt die klassische Logik in eine moderne Form zu bringen. Geschweige denn, daß sie diese Potentiale dazu benutzt hätten, daraus kritische Gesichtspunkte zu entnehmen, um die mathematische Logik selber von ihrem Standpunkt aus zu prüfen. Genau dies haben wir in den oben genannten Veröffentlichungen versucht. Als Ertrag dieser Studien und Ausarbeitungen der klassischen Logik seien folgende hier relevante Punkte angeführt, zu denen auch einige Fehler in den Grundlagen der klassischen Logik gehören, die z. T. auch in die mathematische Logik übernommen worden sind. 1. Es war und ist bisher ein erstrangiges Ideal sowohl der klassischen wie der mathematischen Logik, den logischen Formalismus so auszubauen, daß sich in der „logischen Formalisierung“ wissenschaftlicher Erkenntnisse deren Wahrheit unmittelbar „ablesen“ lassen könne. Natürlich sollte das auch dafür genügen, die Falschheit formal kennzeichnen zu können, und über Wahrheit und Falschheit hinaus auch die Wahrscheinlichkeit. Dies ist weder in der klassischen noch in der mathematischen Logik gelungen. In beiden Konzeptionen hat man sich damit begnügt, den Widerspruch als formales Kennzeichen der Falschheit auszuweisen. Genauer gesagt: dies zu behaupten. Somit auch die Aufdeckung von Widersprüchen in formalisierten Theorien als Hauptmittel der Widerlegung von Irrtümern in der Wissenschaft zu benutzen. Daß dies falsch ist, weil der Satzwiderspruch aus einem wahren und einem falschen allgemeinen Satz, die im Negationsverhältnis zueinander stehen, zusammengesetzt ist und also nicht ausschließlich falsch sein kann, ist wohl auch Aristoteles nicht entgangen. Nur hat er sich dazu nicht genau genug geäußert, als er nur auf das Falsche beim Widerspruch hinwies. Zu dem Begründungsargument für die übliche Auffassung, es handele sich bei der dann sogenannten Widerspruchsfalschheit um ein metasprachliches Phänomen, werden wir weiter unten Stellung nehmen. Unter dieser also selbst falschen Voraussetzung geht man davon aus, daß alles „Logische“, in dem kein Widerspruch nachzuweisen ist, als „wahr“ (oder „gültig“) zu behandeln sei. Das hat zur Folge, daß man einerseits jede noch so phantastische Spekulation, wenn sie nur widerspruchslos ist, als wahr hinnehmen solle. Es hat auch zur Folge, daß die Wahrscheinlichkeit immer nur hinsichtlich ihrer 49 „Wahrheitsnähe“ thematisiert wurde, nicht aber, wie es richtig wäre, ebenso hinsichtlich ihrer Falschheitsnähe. Wir haben uns demgegenüber bemüht, auf der Grundlage der in der Logik altbekannten „porphyrianischen Bäume“ bzw. der „Begriffspyramiden“ (das sind „auf den Kopf gestellte“ Begriffsbäume) einen neuen logischen Formalismus zu entwickeln, der dem alten logischen Ideal der Wahrheits- und Falschheitsdarstellung – und darüber hinaus der Wahrscheinlichkeitsdarstellung – direkt zu genügen vermag. Der „pyramidale Formalismus“ beruht auf der prinzipiellen Voraussetzung, daß die Logik allgemein und ein logischer Formalismus speziell, die intensionalen und extensionalen Begriffseigenschaften in allen logischen Verhältnissen gemeinsam beachten und zum Ausdruck bringen muß. Das heißt, daß eine sogenannte rein intensionale Logik (wie man sie gewöhnlich den Geisteswissenschaften unterstellt) ebenso wie eine rein extensionale Logik (auf die sich Mathematiker zu berufen pflegen) schon deswegen keine Logik sein kann, weil sie nur eine Seite des logisch Relevanten berücksichtigen. Diese Verkennung der intensional-extensionalen Verknüpftheit in allen logischen Elementen hat den ungeheuren Aufwand zur Folge, den man bei der Entwicklung und Ausgestaltung dieser Einseitigkeiten der vermeintlich nur intensionalen und der nur extensionalen Logik betreibt. Und auch von diesem Aufwand kann man bei genauem Hinsehen feststellen, daß er immer wieder davon zehrt, daß auf versteckte oder unbemerkte Weise intensionale Voraussetzungen in die extensionale, und umgekehrt extensionale Voraussetzungen mehr oder weniger unbemerkt oder gar dissimuliert in die intensionale Logik eingehen, ohne welche ja Logik niemals funktionieren kann. Der in unserer Logik vorgestellte pyramidale Formalismus integriert also beides, nämlich intensionale und extensionale Logik, wieder zu einem Ganzen. In ihm werden die gewohnten alphabetischen Notationszeichen (allerdings in Anwendung auf Intensionen von Begriffen, nicht auf „ganze“ Begriffe) mit graphischen Strukturen für die Anwendung auf Extensionen und auf die Verknüpfungsfunktion der Junktoren verbunden. Der hier vorgeschlagene pyramidale Graph formalisiert die logischen Verhältnisse so, daß an ihnen unmittelbar die intensional-extensionale Struktur von Begriffen, ihrer Verknüpfungen mittels der Junktoren zu Ausdrücken und Urteilen, und schließlich auch deren Verknüpfung zu Schlüssen und ganzen Theorien sichtbar und kontrollierbar wird. In diesem Formalismus wird nicht nur die intensional-extensionale Definition der im Formalismus vorkommenden Begriffe, sondern auch die „logische Wahrheit“ der mit ihnen gebildeten Urteile unmittelbar an den regulären Relationen, die zwischen ihnen in der Pyramidenstruktur bestehen, sicht- und ablesbar. Erweiterungen zu irregulären Strukturen machen entsprechend sicht- und ablesbar, was als logisch formalisierte Falschheit und Wahrscheinlichkeit gelten kann. Damit wird das eingangs genannte Ideal der Logik, Wahrheit, Falschheit und Wahrscheinlichkeit direkt im Formalismus sichtbar zu machen, verwirklicht. 50 2. Das Verhältnis von logischem und mathematischem Formalismus zu inhaltlichen Erkenntnissen bzw. Theorien ist bisher höchst problematisch geblieben. Man spricht üblicherweise von der Anwendung des Formalismus auf inhaltliches Erkenntnismaterial und entsprechend von der „Erfüllung“, „Interpretation“, „Deutung“ und „Modellierung“ des Formalismus durch dieses Erkenntnismaterial. Aber oft spricht man auch umgekehrt von der „Interpretation“ inhaltlicher Sätze durch den Formalismus. Dabei wird gewöhnlich vorausgesetzt, daß der Formalismus als solcher „sinnund bedeutungslos“ bzw. „sinnleer“ sei, das materielle Wissen dagegen sinn- und bedeutungshaltig, jedoch unstrukturiert und vage, so daß es (ohne Formalisierung) nur in „Intuitionen“ und vagen Vorstellungen gehandhabt werden könne. Man spricht bei diesem Prozedere der Anwendung des Formalismus auf inhaltliches Wissen gerne von „logischer Rekonstruktion bzw. Formalisierung einer Intuition“. Die Unterscheidung von Formalismus und sachlichem Inhalt – die noch immer von der aristotelischen Unterscheidung von Form und Materie zehrt – führt dann allgemein zu der Unterscheidung von zwei Sphären mit jeweils eigenen Wahrheiten, Falschheiten und Wahrscheinlichkeiten. Es ist dann die Rede von „logischformaler Wahrheit, Falschheit und Wahrscheinlichkeit“ und von „empirischer Wahrheit, Falschheit und Wahrscheinlichkeit“, die im besten Falle zur Deckung gebracht werden können, in vielen Fällen aber auseinanderklaffen. Im Extremfall kommt es dann zu Thesen wie etwa der, daß etwas „logisch wahr“ aber „inhaltlich falsch“ sein könne oder umgekehrt. Nun zeigt aber schon eine kleine Überlegung, daß ein Formalismus, der ja aus logischen bzw. mathematischen Zeichen besteht, niemals sinnleer bzw. inhaltlos sein kann. Dies ebenso wenig wie ein Zeichen überhaupt ein Zeichen sein kann, wenn es keine verweisende bzw. semantische Bedeutung hat. Die Frage kann also nur sein, was die tatsächliche Bedeutung formaler Zeichen und damit des Formalismus selber ist. Daß die logisch relevante Bedeutung der in der Logik und Mathematik verwendeten großen und kleinen griechischen und lateinischen Buchstaben zunächst einmal in ihrem Lautwert liegt, den man stets mitverstehen muß, um die Buchstaben als Zeichen zu lesen, zu erkennen und zu unterscheiden, dürfte auf der Hand liegen. Ihre genuin logischen Bedeutungen, die zu den sprachlich-lautlichen Bedeutungen hinzutreten, sind aber selbst auf Begriffe zu bringen. Deren Intensionen und Extensionen bilden auch in Urteilen, Schlüssen und Argumenten deren eigenen formalen Sinngehalt. Dieser wird also nicht erst durch einzelne inhaltliche Beispiele für Begriffe, Urteile, Schlüsse usw. geliefert. In der Mathematik sind die mathematischen Gebilde wie geometrische Figuren, Zahlen, Mengen, Strukturen, usw. selbst Sinngebilde. Und das steht zunächst einmal in auffälligem Widerspruch zu der o. a. Meinung, der Formalismus als solcher sei sinnleer und bedeutungslos. 51 Neben den Buchstaben benutzt man im logischen und mathematischen Formalismus Verknüpfungszeichen, die sogenannten Junktoren (in der Mathematik meist Funktoren bzw. Operatoren genannt). Diese hält man schon seit Aristoteles für sinnleer oder bedeutungslos und geht davon aus, daß sie erst in Verbindung mit (inhaltlichen) Begriffen (oder ganzen Sätzen) Bedeutung und Sinn erhielten. Sie wurden daher von Aristoteles „Mit-Bedeutende“ („Synkategoremata“) genannt. Gottlob Frege hat die These dahingehend erweitert, daß die Junktoren auch in Verbindung mit Begriffen keine Bedeutung hätten (er nennt sie „ungesättigte Funktionen“). Sie erhielten Bedeutung erst in behauptenden Sätzen bzw. Aussagen, und zwar auch in reinen Formalismen. Diese These ist zweifellos inzwischen zu einem Dogma der mathematischen Logik geworden. Frege hat bei seiner Voraussetzung die Bedeutung der logischen Sätze bzw. Aussagen grundsätzlich auf nur zwei Gegenstände beschränkt, die er „Wahrheitswerte“ nannte, nämlich Wahrheit und Falschheit. Man beachte dabei, daß die Falschheit hier unter den allgemeineren Begriff „Wahrheitswert“ subsumiert wurde. Das muß man zumindest als terminologische Fahrlässigkeit bewerten. Er hätte ihn besser nur „Behauptungswert“ nennen sollen. Damit führte er zwar die alte Tradition der zweiwertigen klassischen Logik fort, aber er gab ihr auch die als modern und umstürzend eingeschätzte Wendung, die sogenannten zwei „Wahrheitswerte“ Wahrheit und Falschheit direkt zur „Bedeutung“ des Formalismus der „Aussagenlogik“ zu machen. Indem Frege für seine mathematische Logik nur die zwei „Wahrheitswerte“ in Betracht nahm, wirkte seine ihm nachmals zugewachsene Autorität dahin, daß die Frage nach einem dritten Wahrheitswert, wie ihn das sonst ausgeschlossene Dritte und der Satzwiderspruch bzw. die sogenannte Wahrscheinlichkeit zweifellos repräsentieren, auf lange Zeit aus logischen Analysen ausgeschlossen blieb. Wenn ein dritter und evtl. weitere Wahrheitswerte in den letzten Dezennien diskutiert werden, so in den speziell entwickelten „drei- und mehrwertigen Logiken“, deren Zusammenhang mit der traditionellen zweiwertigen Logik und mit der aristotelischen Modallogik ziemlich unterbelichtet blieb. Von den von ihm allein festgehaltenen zwei Wahrheitswerten („wahr“ und „falsch“) als „Bedeutungen“ logischer Aussagen unterschied Frege den „Sinn“ von Aussagen. Der Sinn sollte sich nach Frege unmittelbar an der Verknüpfungsweise von Begriffs- und Junktorzeichen ablesen und verstehen lassen. Der Sinn von formalisierten Aussagen sollte also darin liegen, daß sie etwa positive, negative, konjunktive bzw. adjunktive, disjunktive, implikative oder (wie in mathematischen Gleichungen und den darin vorkommenden Rechenausdrücken) äquivalente Ausdrücke darstellen. Auch diese „Sinngebung“ des Formalismus kann inzwischen als kanonisch in der mathematischen Logik gelten. Sie widerspricht jedoch dem, was Frege selber „Ungesättigtheit“ solcher Zeichenverbindungen genannt hat. 52 Frege übernahm seine Unterscheidung von Sinn und Bedeutung des logischen bzw. mathematischen Formalismus aus der Hermeneutik.27 Das hat den mathematischen Gleichungs-Formalismus grundsätzlich „mehrdeutig“ gemacht. Die Fregesche Unterscheidung von Sinn und Bedeutung reproduziert ersichtlich die alte hermeneutische Unterscheidung von vordergründigem Literalsinn eines Textes (bei Frege der „Sinn“ der Formeln der Aussagenlogik bzw. mathematischer Formeln) und „geistigem“ oder „mystischem“ Hintersinn (bei Frege die beiden Wahrheitswerte „Wahrheit“ und „Falschheit“ als „Bedeutungen“ des Formalismus). Diese Unterscheidung von Literalsinn und „Hintersinn“ (= Bedeutung) wurde schon seit Philon von Alexandrien (ca. 25 v. Chr. – ca. 50 n. Chr.) und Augustinus (354 – 430 n. Chr.) für die Interpretation der heiligen Schriften, dann auch in der juristischen Gesetzesinterpretation entwickelt. Sie ist seither in der Hermeneutik aller Textwissenschaften verbreitet worden. In der mittelalterlichen Logik aber war die Lehre von den „Suppositionen“ (d. h. das als gemeint „Unterstellte“) der Zeichen ein bedeutendes Lehrstück über die mehrfache Bedeutung bzw. des Sinnes von Wörtern, wobei zwischen Bedeutung und Sinn nicht unterschieden wurde. Durch Freges (implizite) „logische Hermeneutik“ des Doppelsinnes wurde der logische Formalismus grundsätzlich zu einer eigenen „formalen Sprache“ gemacht. Frege selbst bemühte sich in einem seiner Hauptwerke, für diese formale oder „ideale“ Sprache eine neue „Begriffsschrift“ zu entwickeln. 28 Daran war soviel richtig, daß es bei den üblichen logischen Formalismen tatsächlich um eine Notationsweise von ausgewählten sprachlichen Elementen geht. Das zeigt sich in der Verwendung von Buchstaben und im gemeinsprachlichen Sinn der meisten Junktoren. Falsch jedoch war es, den Formalismus als solchen für eine selbständige Sprache zu halten. Keiner spricht „Mathematik“, und die Formalismen werden auch nicht übersetzt, sondern in allen Sprachen in derselben Gestalt notiert. Gleichwohl hat sich seither die Auffassung, die Logik und insbesondere die mathematische Logik seien insgesamt „formale Sprachen“ (oder „Idealsprachen“) ziemlich allgemein durchgesetzt. Und auch das widerspricht ersichtlich der sonst herrschenden Meinung, der Formalismus sei als solcher sinnleer. Entsprechend dieser Sprachauffassung vom Formalismus wurden auch immer mehr grammatische Kategorien in die mathematische Logik übernommen. Man spricht seither von „logischer Semantik“, womit man die „Bedeutungslehre“ als Lehre von den Wahrheitswerten meint, von „logischer Syntax“, was die Verknüpfungsweisen mit ihrer „Sinn“-Befrachtung meint, und von „logischer Pragmatik“, den methodischen Benutzungsweisen der vorgeblichen Idealsprache. 27 W. Hogrebe, Frege als Hermeneut (Bonner Philosophische Vorträge und Studien 16), Bonn 2001, S. 19 sieht Freges hermeneutische Erkenntnis wesentlich darin, daß er von „nichtpropositionalen Ahnungen“ des Gemeinten speziell bei undefinierbaren axiomatischen Begriffen spricht, zu denen auch „Sinn“ und „Bedeutung“ gehören sollen. – Zur „dogmatischen Hermeneutik der Mathematik“ vgl. den entsprechenden Abschnitt in § 44. 28 G. Frege, Begriffschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879; jetzt in: G. Frege, Begriffsschrift und andere Aufsätze, hgg. von I. Angelelli, Darmstadt 1964. 53 Nun ist es schon an sich bedenklich, bezüglich des logischen bzw. mathematischen Formalismus von einer besonderen Sprache zu reden. Wie schon gesagt, keiner spricht oder schreibt „Logik“ oder „Mathematik“. Wären Logik und Mathematik Sprachen, so müßten sie sich in andere Sprachen übersetzen lassen. Es wäre ausgeschlossen, logische oder mathematische Formalismen in allen Kultursprachen als Notationssystem gleicherweise zu verwenden und in diesen Gemeinsprachen zu interpretieren. Man kann allenfalls „logisch“ reden oder „mathematisch“ argumentieren. Aber dabei werden nur logische oder mathematische Denkstrukturen in einer inhaltlichen Bildungssprache verwendet. Es scheint den Logikern und auch den Mathematikern gänzlich entgangen zu sein, daß die logischen Junktoren durchweg aus der Gemeinsprache übernommene und somit selbst eine sprachliche Bedeutung mit sich führende logische Elemente sind. Ihre logische Bezeichnung geschieht deshalb auch durch logisch-formale Zeichen, die nur stenographische Kürzel für bestimmte Verbindungswörter der Gemeinsprache sind, die man in der Regel auch sprachlich sogleich versteht. Was „und“ („“), „oder“ („“), „wenn... dann“ („“) „ist“ („“), „ist gleich“ („“) und „nicht“ („“ bzw. „ “) bedeuten, steht in jedem guten Wörterbuch jeder Einzelsprache. Dasselbe gilt aber auch von den meisten mathematischen Junktoren, die man als Rechenzeichen kennt. Einige von ihnen haben dieselbe Bedeutung wie bestimmte logische Junktoren. Insbesondere muß auch hier betont werden, daß das mathematische Gleichheitszeichen mit der logischen Äquivalenz identisch ist, keineswegs aber mit der Kopula (dem „ist“). Einige mathematische Junktoren aber bilden spezifisch mathematische Begriffe und Ausdrücke, die kein logisches oder sprachliches Pendant haben. Es gehört also schon ein besonderer Sinn für Mystisches dazu, sich beim formalen Gebrauch dieser Zeichen nicht an ihre gemeinsprachliche Bedeutung zu erinnern oder sich gar eine andere als die gemeinsprachliche Bedeutung vorzustellen. Der Umgang mit diesen Junktoren in der Logik und Mathematik besteht gerade darin, ihre gemeinsprachliche Bedeutung in den Formalismus zu übertragen. Irreführend ist daher die häufig anzutreffende Darstellung, die Bedeutung der Junktoren nähere sich nur gelegentlich und gar zufällig der gemeinsprachlichen Bedeutung mehr oder weniger an und sei dann geradezu deren logisch und mathematisch exaktere Fassung. Sind aber diese für die Logik tragenden Elemente der Junktoren schon selber Bestandteile der Gemeinsprache, so kann das Verhältnis von Formalismus und Sprache keineswegs als dasjenige von zwei verschiedenen Sprachen - einer formalen und einer inhaltlichen - angesehen werden. Der Abendländer ist gewohnt, seine Sprache wesentlich als geregelte Lautartikulation aufzufassen, wobei die Schrift als Wiedergabe der Lautungen dient, die Bedeutungen aber unabhängig von der Lautung hinzugedacht werden müssen. Im allgemeinen hat er keine Übung im Umgang mit ikonischen Schriften, die nicht die Lautung, sondern unmittelbar die Bedeutungen von Wörtern in anschaulichen Bildern oder Symbolen notiert, wie es etwa im Rebus oder auch im Chinesischen 54 der Fall ist (wobei freilich manche chinesischen Schriftzeichen zugleich auch einen Aussprachelaut mitrepräsentieren, wie das ja auch bei den alphabetischen logischen Zeichen der Fall ist). Die üblichen logischen und mathematischen Formalismen sind nach dem Vorbild abendländischer Lautschriften entwickelt worden. Das sieht man schon äußerlich daran, daß sie wie Texte in Zeilen von links nach rechts, und die Zeilen untereinander geschrieben werden. Daher gleichen formalisierte Argumentationen noch immer sprachlichen Texten, gelegentlich auch Versen. Der Vorteil dieser „Schrift“ liegt darin, daß sie in allen Sprachen und Lautungen gelesen und verstanden werden kann. Und nur deshalb gibt es bei dieser formalen Notation kein Übersetzungsproblem in andere Sprachen. Sicherlich ist sie deswegen von Leibniz als „characteristica universalis“ (universelles Zeichenreservoir) bezeichnet worden. In der Mathematik haben seit der Antike geometrische Sachverhalte als Veranschaulichungsmittel arithmetischer Verhältnisse gedient, und sie dienen auch bis heute nicht nur in der Didaktik diesem Zweck. In der Logik sind seit der Spätantike auch Strukturbilder (sog. Graphen oder Diagramme), vor allem Baumschemata (und diese umgedreht in der Neuzeit als Pyramidenschemata) für die Darstellung von Begriffsverhältnissen, vor allem der Hierarchie von Gattung, Arten und Unterarten verwendet worden. Durch Raimundus Lullus in der Scholastik, G. W. Leibniz, J. C. Lange (1712), Leonard Euler (1768) im 18. Jahrhundert und vor allem durch John Venn im 19. Jahrhundert sind dann Kreise als Bilder von Begriffsumfängen eingeführt worden. 29 Dadurch ließen sich auch Implikations- und Inklusionsverhältnisse sowie Teilidentitäten von Begriffen durch Einschreiben von kleineren in größere Kreise oder durch Überschneidungen von Kreisen bildlich darstellen. Und da diese Verhältnisse auch als Urteile und Schlüsse gelesen werden können, wurden dadurch auch diese z. T. bildlich repräsentiert. Man hält solche graphischen Darstellungen gewöhnlich nur für Hilfsmittel, unterschätzt sie damit aber sehr. Denn in der Tat handelt es sich dabei um ikonische Notationen, die wenigstens einige logische Sachverhalte unmittelbar sinnlich-anschaulich darstellen und andere sonst nötige Notationen entbehrlich machen. Unser Vorschlag einer neuen „pyramidalen“ Notation für den logischen Formalismus knüpft an diese Tradition an, indem er bisherige lautschriftliche und ikonische Repräsentationen der logischen Verhältnisse vereinigt. 3. Die logischen und mathematischen Anteile der Bildungssprache sind naturgemäß nur demjenigen zugänglich und verfügbar, der die hier vorkommenden logischen und mathematischen Begriffe kennt. Das gilt aber allgemein von allen 29 John Venn, On the Diagrammatic and Mechanical Representations of Propositions and Reasoning, in: The London, Edinburgh and Dublin Philosophical Magazine 10, S. 1-18, London 1880. Vgl. dazu G. Wolters, Art. „Venn-Diagramme“ in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 4, Stuttgart-Weimar 1996, S. 496 – 498; ders., Art. “Diagramme, logische“, ibid. Band 1, Mannheim-Wien-Zürich 1980, S. 462 – 463. 55 wissenschaftlichen Teilen der Bildungssprache. Ein guter Mathematiker hat ersichtlich dieselben Schwierigkeiten mit den Begriffen etwa der Literaturwissenschaftler wie umgekehrt der Literaturwissenschaftler mit den Begriffen der Mathematiker. Die Fachbegriffe der Logik, die im Formalismus dargestellt werden, sind selbst Begriff (dazu Intension und Extension bzw. Merkmal und Umfang), Subjektsbegriff, Prädikatsbegriff, Gattung, Art, Individuum, Junktor, Urteil bzw. Aussage, Schluß, Prinzip, Axiom, Argument, Identität, Widerspruch, Drittes u. s. w. Die der Mathematik, soweit sie in der mathematischen Logik gebraucht werden, sind etwa Einheit, Allheit, Zahl, Größe, Menge, Element, Unendliches (Infinites, Infinitesimales), Gleichung, Ungleichung, Abbildung, Summe, Differenz, Produkt, Quotient, Differentialquotient, Integral, Struktur, Axiom, Theorem, Beweis usw. Und nicht zuletzt sind, wie vordem schon gesagt, auch Wahrheit, Falschheit und Wahrscheinlichkeit sowohl in der Logik wie in der Mathematik einschlägige Begriffe. Diese Grundbegriffe werden im Formalismus durch jeweils spezifische Zeichen notiert. Hinzu kommen dann die „stenographischen“ Kürzel für die Junktoren. Schließlich spielen auch die Zitatzeichen eine bedeutende und in der neueren Logik geradezu ausschlaggebende Rolle. Oft werden sie nach mathematischem Brauch als einfache oder mehrfache Klammern notiert. Man sollte sich allerdings von dem Vorurteil freimachen, die logischen und mathematischen Begriffe seien schon als solche klar und deutlich und hätten in allen Verwendungen eine unumstrittene einzige Bedeutung. Mehr oder weniger sind sie genau so umstritten und werden ebenso problematisiert, wie das in der Regel für jeden Begriff anderer Disziplinen und Wissenschaften gilt. Vor allem hat man damit zu rechnen, daß sich hinter einem als eindeutig eingeschätzten und verwendeten logischen oder mathematischen Begriff Mehrdeutigkeiten verbergen, die oft nicht erkannt werden und dann in der Verwendung zu widersprüchlichen Folgerungen führen. Nicht zuletzt steht fast hinter jedem wissenschaftlichen Begriff eine „etymologische“ Geschichte seines Bedeutungswandels, die zum Verständnis seiner jeweils aktuellen Bedeutung oftmals in Betracht zu nehmen ist. Die Ausbildung des logischen Formalismus geht auf Aristoteles zurück, der logische Begriffe (Subjekt- und Prädikatsbegriffe) durch griechische Buchstaben (die aber auch als Zahlen gelesen werden können) bezeichnete, die Junktoren dabei aber in der Gemeinsprache ausdrückte. Für den mathematischen Formalismus hat man seit ältesten Zeiten geometrische Gebilde wie Punkte, Strecken, Flächen und Körper als Zeichen für Zahlen und Zahlverhältnisse benutzt. Auch die speziellen Ziffern als Zahlzeichen verdanken sich wohl diesem Verfahren, anschauliche Gruppierungen von Gegenständen durch ihr stilisiertes Bild darzustellen. Erst seit der Renaissance wurden für gewisse Zahlen bzw. Begriffe von Zahlen auch die in der Logik schon lange üblichen Buchstaben verwendet, was dann zu einer schnellen Blüte der sogenannten Buchstabenrechnung und der sogenananten analytischen Geometrie führte. 56 Betrachten wir einige grundlegende Züge des traditionellen logischen Formalismus und knüpfen zugleich einige kritische Bemerkungen daran, die uns veranlaßt haben, selber den neuen „Pyramiden“-Formalismus für die Logik vorzuschlagen. Wir haben an den traditionellen logischen Zeichen des Formalismus in erster Linie zu beanstanden, daß ihre Grundzeichen für Begriffe – etwa „A“ und „B“ keine echten Radikalzeichen sind, sondern ihrerseits schon für recht komplexe logische Sachverhalte stehen. Diese Buchstaben verdecken nämlich den Aufbau dieser komplexen Gebilde aus elementaren Bestandteilen. Bei den Begriffen ist es der Aufbau aus den Intensionen und Extensionen (Merkmale und Umfänge), aus denen sich jeder Begriff zusammensetzt. Diese Dissimulationswirkung des logischen Formalismus hat zur Folge, daß vieles, was im logischen Prozedere betrieben wird, nur auf eine Kompensation von Unklarheiten hinausläuft, die die damit operierenden Formalismen selbst erzeugen. Was wir damit meinen läßt sich an den chinesischen Schriftzeichen für die Begriffe zeigen, die aus Radikalen und Kombinationen aus Radikalen, und zwar bis zu sechs Radikalen in einem einzelnen Schriftzeichen, bestehen. So gibt es im Chinesischen z. B. ein Radikalzeichen für „Frau“ (nü) und für „Kind“ (zi), die auch als stilisierte Bilder einer Frau und eines Säuglings entstanden sind. Jeder chinesische Schüler lernt in der Grundschule, daß diese Zeichen stilisierte Bilder sind. Werden diese zu einem einzigen (komplexen) Zeichen nebeneinander gestellt, so erhält man das Schriftzeichen für „gut“ (hao), und jeder gebildete Chinese versteht dadurch ganz anschaulich, was nach altchinesischer Tradition überhaupt „gut“ sein kann. Diese Bildungsweise der chinesischen Schriftzeichen für Wörter und Begriffe entspricht aber genau dem, was wir in unserem „pyramidalen“ Formalismus für die Notation der Intensionen bzw. Merkmale als der eigentlichen logischen Radikale, aus denen Begriffe zusammengesetzt sind, vorgeschlagen haben. Werden sie sichtbar gemacht, so erübrigt sich jede „Definition“ der Begriffe. Man sieht an den Buchstabenkombinationen in einem Begriff auf einen Blick, was an ihm „generische Merkmale“ allgemeinerer Begriffe sind, unter die er fällt, und was seine spezifische Differenz gegenüber gleichrangigen Nebenbegriffen (bzw. seinen Negationen) und zugleich zu seinen Oberbegriffen ist. Vor allem aber sieht man auch, welches (oder welche) Merkmale die axiomatischen Spitzenbegriffe enthalten, durch die sie definierbar sind. Und das zeigt, daß die traditionelle These von der Undefinierbarkeit der Axiome falsch ist. Durch die Intensionen ist zugleich auch die Einordnung jedes Begriffs in eine klassifikatorische „Begriffspyramide“ festgelegt, die die zugehörigen Quantifikationen, insbesondere diejenigen der in seinem jeweiligen Umfang liegenden Unterbegriffe, graphisch zum Ausdruck bringt. (Vgl. dazu § 9). Entsprechendes ist kritisch zur „aussagenlogischen“ Notation von Urteilen bzw. Sätzen (auch nach englischem Vorbild „Propositionen“ genannt) zu sagen. An den hier verwendeten Zeichen für ganze Sätze „p“ und „q“ läßt sich nicht erkennen, 57 wie die Sätze aus Subjekts- und Prädikatsbegriffen zusammengesetzt sind (was in der klassisch-logischen Notation etwa als „S ist P“ wenigstens noch zum Teil gewährleistet war). Schon gar nicht wird dadurch die Verknüpfungsweise durch spezielle Junktoren, einschließlich auch der Quantoren, sichtbar gemacht. Wird das Satzsymbol („p“) durch ein vorgesetztes Negationszeichen spezifiziert („-p“, d. h. „nicht p“), so wird dies gewöhnlich als Notation eines falschen Satzes erklärt. Tatsächlich können negierte Sätze aber auch wahr sein, ebenso wie umgekehrt positive Sätze falsch sein können. Vor allem läßt sich zeigen, daß im Urteil keineswegs immer „ganze“ Begriffe als Prädikate mit dem Subjektsbegriff verbunden werden, sondern oft auch nur reine Intensionen. Damit erübrigen sich auch viele Fragen nach der vermeintlichen begrifflichen und insbesondere ontologischen Natur der Prädikate, um die sich seit dem Mittelalter der Universalienstreit vergeblich bemüht. Man sucht seither nach dem ontologischen Ort z. B. des Begriffes „Röte“, während man bei seiner prädikativen Verwendung im Urteil doch nur dem Begriff von Fläche oder Ausdehnung eine pure Intension als Merkmal „rot“ zuspricht. Ebenso wird im Formalismus der Schlüsse ohne weiteres sichtbar, warum sie „gelten“ - und auch, daß einige klassische Syllogismen des Aristoteles keineswegs „gültig“ sein können. Insbesondere kann gezeigt werden, daß die bei den aristotelischen Syllogismen vorkommenden partikulär und individuell quantifizierten Sätze keineswegs Urteile mit einem für Urteile erforderlichen Behauptungssinn sein können. Sie sind vielmehr Definitionen und müßten als Gleichungen bzw. Äquivalenzen notiert werden. 4. Ist der Formalismus eine Spezialschrift eines Teils der spezialisierten Bildungssprache, so ergibt sich von selbst, daß man mittels des Formalismus über den Formalismus selbst reden und verhandeln kann, ebenso wie man in der Sprache auch über die Sprache selbst reden und verhandeln kann. Und nicht weniger muß dann gelten, daß man in der Bildungssprache über den Formalismus und mittels des Formalismus über die Bildungssprache reden kann. Dieses „Reden über ...“ wird in der Logik und Mathematik unter dem Titel „Meta-Verhältnis“ thematisiert. Dabei wird vorausgesetzt, daß dasjenige, was im Meta-Verhältnis zueinander stehen soll, gänzlich verschiedene Sprachen, nicht aber Teile einer und derselben Bildungssprache seien. Die kanonische Meinung ist die, mit der formalen (logischen oder mathematischen) Metasprache ließe sich über die (inhaltliche) Gemeinsprache („Objektsprache“) reden, über die formale Metasprache ihrerseits in einer dann „Metameta-Sprache“ genannten weiteren formalen Sprache, usw. Als bislang ungelöstes Problem gilt es dann, daß eine letzte Meta-meta...-Sprache wiederum die Gemein- 58 sprache sein müßte, so daß die Meta-Verhältnisse schließlich in einem Begründungszirkel enden.30 Diese Auffassung von den Meta-Stufungen selbständiger Sprachen ist ersichtlich von dem Verfahren der Mathematik inspiriert, gewisse Zeichen oder Ausdrücke in Klammern zu setzten, den Klammerausdruck ggf. wiederum mit anderen Klammerausdrücken in doppelte Klammern einzuschließen, usw. Beim Umgang mit diesen „Klammerausdrücken“ gilt dann die Regel, daß man vom Sinn der eingeklammerten Ausdrücke gänzlich absehen könne, wenn man sich mit den „höheren“ (Meta-) Sinn- und Bedeutungsstufen befaßt. Das hat eine gewisse Ähnlichkeit mit dem Zitatwesen. Vom Zitieren und den dabei verwendeten Anführungszeichen stammt auch die übliche logisch-formale Notation. Das logische Zitieren und das mathematische Einklammern ist das Hauptmittel dafür geworden, von inhaltlichen Sprachelementen oder Beispielen zum Formalismus überzugehen. Das geschieht aber im allgemeinen unter der o. a. Voraussetzung der zwei gänzlich unterschiedenen Sprachen: der inhaltlichen Gemeinoder Wissenschaftssprache und der rein formalen Ideal- oder Metasprache, die dann noch mehrere Meta-Sprachstufen enthalten können soll. Wer also den gemeinsprachlichen Satz: Der Schnee ist weiß, dessen Sinn in einer Behauptung über die Farbe des Schnees besteht (und der überdies als „analytisch wahr“ verstanden wird, weil es eben ein Merkmal des Schnees ist, weiß zu sein), logisch als Zitat „Der Schnee ist weiß“ notiert, der sollte nach dieser Sprachstufenunterscheidung in der logischen Metasprache damit nur meinen, daß das Zitat ein logischer (im Beispiel überdies ein analytisch wahrer) Behauptungssatz sei, und er sollte dabei gänzlich vom Sinn des Ausgangssatzes absehen können. Nach demselben Schema geht man vom Zitat zum Zitat des Zitats und damit von der Meta- zur Meta-metasprache über. Die gemeinsprachliche Behauptung Der Schnee ist weiß wird zum metasprachlichen (wahren) Satz „Der Schnee ist weiß“, und dieser wird (nach Alfred Tarski) als ‚ „Der Schnee ist weiß“ ‟ zu einem Begriff (bzw. zum Namen) eines wahren Satzes in der Meta-metasprache.31 Der logische und mathematische Anfänger hat bekanntlich die größten Schwierigkeiten, diesen Vorgang des „Abstrahierens“ (Wegsehens) vom Zitat- oder Klammersinn einzusehen und zu lernen. Meistens bemißt man logische und mathematische Begabung gerade an dieser zu erwerbenden Fähigkeit des vorgeblich abstrakten Denkens. Aber wie uns scheint, ganz zu Unrecht. Denn der sich dabei sträubende gemeine Verstand des Lernenden hat die Erfahrung auf seiner Seite, daß er ohne Verstehen und Festhalten des Behauptungssinnes des Aus30 Vgl. S. C. Kleene, Introduction to Metamathematics, Amsterdam-Groningen 1952; L. Borkowski, Formale Logik. Logische Systeme – Einführung in die Metalogik (aus dem Polnischen 1968), Berlin 1976, 2. Aufl. München 1977; H. Rasiowa and R. Sikorski: The Mathematics of Metamathematics, 3. Aufl. Warschau 1970. 31 Vgl. A. Tarski, Der Wahrheitsbegriff in den formalisierten Sprachen, in: Studia Philosophica 1, 1935, S. 261 - 405. ND in: Logik-Texte, hgg. v. K. Berka und L. Kreiser, Berlin 1971, S. 445 - 559, 4. Aufl.. 1986, S. 443 - 546; A. Tarski, Die semantische Konzeption der Wahrheit und die Grundlagen der Semantik, 1944, in: Wahrheitstheorien, hgg. von G. Skirbekk, Frankfurt a. M. 1977, S. 140 – 188. 59 gangssatzes keineswegs nachvollziehen kann, daß und warum das Zitat überhaupt ein Satz sein soll. Und noch weniger kann er nachvollziehen, daß und warum das Zitat des Zitats einen logischen Begriff bzw. den „logischen Namen“ eines wahren Satzes (wie Tarski behauptet) darstellen soll. Er muß dies als pure „aussagenlogische“ Konvention zur Kenntnis nehmen. Wir halten diese logische und mathematische Konvention einer vorgeblichen Sinn-Eliminierung durch Zitatzeichen und Klammern (neuerdings spricht man hier von „Deflation“) für irreführend und überflüssig. Mit dem hermeneutischen Commonsense sind wir der Meinung, daß Zitatzeichen und Klammern keineswegs die Sinnhaltigkeit logischer Zeichen eliminieren oder neutralisieren, sondern ihren eigenen Zeichensinn zum Sinn des Zitierten hinzufügen. Und genau dies macht erst ihren Gebrauch in der Logik verständlich und gemäß vollziehbaren Regeln beherrschbar. Eine kleine Überlegung zum Zitieren in der hermeneutischen Praxis der Geisteswissenschaften kann dies zeigen. Der eigene Sinn der Zitatzeichen in der Schriftsprache ist grundsätzlich der, das Zitierte hervorzuheben und die Aufmerksamkeit darauf zu lenken (wir machen davon im vorliegenden Text reichlich Gebrauch!). Das Zitierte erhält dadurch den Doppelsinn einer inhaltlichen (semantischen) Bedeutung und einer formalen (syntaktischen) Bedeutung. Es war ersichtlich diese Doppeldeutigkeit, die G. Frege zu seiner Unterscheidung von Sinn und Bedeutung veranlaßte. Ein drittes und weitere Zitatzeichen werden zwar beim mathematischen Einklammern verwendet, das kommt aber in der sprachlichen Verwendung nur in Ausnahmefällen vor. Man kann damit allenfalls signalisieren, daß etwa ein Autor ein Wort, einen Ausdruck oder einen Satz verwendet hat, den dann ein anderer zitierter Autor von dem ersten Autor übernahm. Konsequenterweise muß aber auch das zweite Zitatzeichen dem Doppelsinn noch einen weiteren Sinn hinzufügen. Und dies führt zu einer Sinnverdoppelung im Formalismus selber, die nur entweder tautologisch („der Satz des Satzes“) oder widersprüchlich („der Satz ist zugleich kein Satz“) werden kann. Diese Meta-Weiterungen der Logik sind ein Beispiel dafür, wie die Logik sich auch durch die Metastufentheorie der Sprachen Probleme selber schafft, die sie dann nicht lösen kann. 5. Um hier weiter zu kommen, ist zu zeigen, daß und wie der logische Formalismus als Spezialschrift für einen Teil der Bildungssprache selber eine Semantik, d. h. eine inhaltliche genuin logische Bedeutungssphäre besitzt. Wir sagten schon, daß die Junktoren selbst gemeinsprachliche Bedeutungen festhalten. Ein „und“ oder „oder“ verknüpft – wie in jeder Gemeinsprache – zwei Gegebenheiten. Das können Intensionen, Extensionen, Begriffe oder Urteile bzw. Aussagen sein. So bei allen Junktoren mit Ausnahme der in der modernen Logik erfundenen „Selbstimplikation“. Sie soll etwas Gegebenes mit sich selbst verknüpfen. Aber derartiges kann in der Tat gar keine Verknüpfung sein. Denn ersichtlich wird dadurch in widersprüchlicher Weise aus einer Einheit eine Zweiheit gemacht, die gleichwohl eine Einheit bleiben soll. Vielleicht war Kant für diese Auffassung 60 mitverantwortlich dadurch, daß er in seiner Kategorienlehre die Substanz als Unterkategorie unter die Relationskategorie stellte. 32 Er definierte dadurch jede „Substanz“ als eine „selbstbezügliche Relation“. Und das widersprach jedem bis dahin überkommenenen Substanzverständnis als „selbständige ontologische Einheit“. Mit der „Selbstimplikation“ werden durchweg logische Widersprüche produziert, insofern das mit sich selbst Verknüpfte zugleich dasselbe und zweierlei Unterschiedenes sein soll. Das hat sich in Bertrand Russells paradigmatischem „Mengenparadoxon“ deutlich erwiesen. Denn die dazu erfundene mathematische „Menge, die sich selbst enthält“, ist gewiß eine und zugleich zwei Mengen. Das gilt auch für die Art und Weise, wie man in der Logik die sogenannte Tautologie notiert, nämlich wie sie J. G. Fichte in seiner „Wissenschaftslehre“ als „X = X“ (bzw. als Beispiel: „Ich bin Ich“) als ersten logischen Grundsatz der Position bzw. Einführung eines Begriffs benutzte. 33 Die logische Tautologie gilt zwar (besonders seit L. Wittgensteins „Tractatus logico-philosophicus“) als exemplarische analytische Wahrheit, insofern sie das Identitätsprinzip formal darstelle. Aber das ist in zweierlei Hinsicht falsch. Denn einerseits werden Tautologien nicht als behauptende Urteile mit Wahrheitswerten formalisiert, sondern als Äquivalenzen bzw. Gleichungen, die eine Identität definieren sollen. Andererseits stellt eine Tautologie das Identische in der Gleichung „x = x“ durch gleiche Zeichen dar. Und das widerspricht dem formalen Sinn der Gleichung bzw. der logischen Äquivalenz, die eine identische Bedeutung durch verschiedene Zeichen darstellen muß. Schon die stoischen Logiker haben derartige „selbstbezüglichen“ Ausdrücke als „Wiederholungen“ eines und desselben Elementes aus der Logik ausgeschlossen. Sie haben richtig erkannt, daß durch solche tautologischen Wiederholungen weder etwas definiert noch behauptet werden kann. Daß jedoch die logische Tautologie inzwischen als populäre Floskel in Verkehr geraten ist, sieht man an dem dümmlichen Spruch „eine Rose ist eine Rose ist eine Rose…“, in welchem auch die (mathematische) Gleichheit mit der logischen Kopula verwechselt wird. Bei den dann übrigbleibenden Junktoren ist es außerordentlich wichtig, zwischen zwei gänzlich verschiedenen Arten von Junktoren zu unterscheiden, nämlich den ausdrucksbildenden und den urteilsbildenden Junktoren. Die ausdrucksbildenden Junktoren verbinden nur Begriffe untereinander zu begrifflichen (komplexen) Ausdrücken. Ausdrucksbildend sind „und“, “oder“, die negative Bezeichnung eines Begriffs (z. B. „Nicht-Raucher“) sowie die Quantifikatoren „alle“, „einige“, „ein“ und „kein“. Mit ihnen allein läßt sich kein Behauptungssinn ausdrücken. Das zeigen Ausdrücke wie „Max und Moritz“, „Sein oder Nichtsein“, „Nicht-Raucher“, „ein Ding“, „einige Tiere“, „alle Vögel“, „kein Mensch“. Derartige Ausdrücke besitzen keinen Wahrheitswert. Setzt man solche 32 I. Kant, Kritik der reinen Vernunft, A 80/B 106, in: I. Kant, Werke, hgg.von W. Weischedel, Band 2, Darrmstadt 1956, S. 118. 33 J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1794, hgg. von W. G. Jacobs, Hamburg 1970, S. 12 – 15. 61 Ausdrücke z. B. als Subjekte oder Prädikate in behauptende Urteile ein, kompliziert dies die Urteilsformen beträchtlich. Und das hat in neueren Zeiten zur Entwicklung von Prädikatenlogiken höherer Stufen geführt. Besonders sei hier betont, daß auch der mathematische Äquivalenzjunktor „ist gleich“ (bzw. „=“) zu den ausdrucksbildenden Junktoren gehört. Er dient zur Definition von Begriffen und begrifflichen Ausdrücken durch jeweils andere Begriffe. Dies ist jedermann (in sprachlichen Beispielen) bei Synonymen in einer Sprache oder im Verhältnis verschiedener Sprachen geläufig, wo zwei verschiedene Wörter eine und dieselbe Bedeutung besitzen. Bei Definitionen erläutert man – wie in Sprachwörterbüchern üblich - eine und dieselbe Bedeutung eines Begriffs (oder Wortes) oder Ausdrucks durch einen anderen, wie z. B. „Armut = Pauvreté“ oder „Wasser = H2O“. In der modernen Logik wird diese Äquivalenz auch als „gegenseitige Implikation“ bezeichnet und mit „Wenn A dann B, und wenn B dann A“ oder kürzer mit „A dann und nur dann wenn B“ formalisiert. Dies ist jedoch eine irreführende Notationsweise, da die Implikationen Wahrheitswerte besitzen und die „doppelte bzw. gegenseitige Implikationen“ suggeriert, dies sei auch bei Äquivalenzen der Fall. In der Mathematik spielen die Gleichungen eine erheblich größere Rolle als in der Logik. Fast alles, was in der Mathematik artikuliert wird, bedient sich dazu der Gleichungen. Daß die Gleichung in der Mathematik diese Bedeutung erlangt hat, dürfte auf Euklids Behandlung des Themas „Gleichheit“ in seinem Lehrbuch „Elemente“ zurückzuführen sein. Dieses Werk ist bekanntlich bis ins 19. Jahrhundert das paradigmatische Lehrbuch der Mathematik im Abendland gewesen. Mathematiker haben es stets als Muster für den Aufbau einer wissenschaftlichen Disziplin geschätzt. Auch von den „trivialen“ Logikern ist seine Methodik der Voranstellung von begründenden Axiomen und Ableitung von Folgesätzen aus diesen als „Mos geometricus“ geschätzt worden. Manche Lehrbücher einzelner Disziplinen im 17. und 18. Jahrhundert betonen im Untertitel, daß sie „more geometrico demonstrata“ (nach geometrischer Weise des Euklid) aufgebaut und in allen Teilen bewiesen seien.34 In § 19 wird über Euklid ausführlicher berichtet, so daß hier nur auf dasjenige hingewiesen zu werden braucht, was aus seinem Werk bei den Gleichungen relevant geworden ist. 34 Prototypisch dafür war die Darstellung seiner eigenen Philosophie durch Descartes unter dem Titel „Renati Des Cartes Principiorum philosophiae pars I et II, more geometrico demonstratae, Amsterdam 1644 u. ö. B. Spinoza hat die Philosophie des Descartes unter demselben Titel bearbeitet und in Amsterdam 1663 veröffentlicht. Auch sein postum veröffentlichtes Hauptwerk „Ethica, ordine geometrico demonstrata“ (in seinen Opera posthuma), Amsterdam 1677 trug wesentlich zur Verbreitung bei. In Deutschland hat sich vor allem Chr. Wolff für den mos geometricus stark gemacht und ihn als „methodus scientifica“ in seinen zahlreichen lateinischen Disziplinendarstellungen verbreitet. Vgl. dazu besonders seinen „Discursus praeliminaris de Philosophia in genere / Einleitende Abhandlungen über Philosophie im Allgemeinen, (1728), historisch-kritische Ausgabe, übers., eingel. und hgg. von G. Gawlik und L. Kreimendahl, Stuttgart-Bad Cannstatt 1996. Im Gegensatz zum modernen Axiomenverständnis legte Wolff größten Wert darauf, daß die axiomatischen Begriffe klar und deutlich definiert sein müssen, um aus ihnen Folgesätze ableiten zu können. 62 Euklid thematisiert die Gleichheit nach der Behandlung der Definitionen und Postulate.35 Es handelt sich bei seinen Ausführungen darüber offensichtlich um Einsichten, die an den Eigenschaften der Waage gewonnen wurden, die hier als Modell für den Umgang mit Gleichem und Ungleichem dient. Andernfalls wären diese angeblichen „Axiome“ unverständlich. Hauptsache dabei ist die Vorstellung vom Gleichgewicht, die man an jeder Waage mit zwei gleichen Hebelarmen (in gerader Linie und parallel zum Horizont, bei Euklid „Ebene“ genannt) beobachten kann. Machen wir aber auch auf die Dialektik aufmerksam, die in die platonischeuklidische Mathematikbegründung eingebaut ist, und die sich auch am Waagemodell erweist. Die hier herausgestellte Gleichheit der beiden Seiten beruht ersichtlich zugleich auf der Ungleichheit ihrer Ausrichtung, also auf ihrem Gegensatz, d. h. auf der Ungleichheit ihrer (vektoriellen) Ausrichtung. Diese Dialektik macht sich später noch in Newtons Definition der Kräfte bemerkbar, wonach bekanntlich jede Kraft einer entgegengesetzten Kraft „gleich“ sein soll, obwohl sie ihr in dieser Entgegensetzung gerade „ungleich“ ist. Die Erfahrung lehrt, daß der Gleichgewichtszustand einer Waage sich auch dadurch aufrecht erhalten läßt, daß man verschiedene Gewichte in jeweils verschiedenen Abständen vom Aufhängepunkt der Waage anbringt. Jedes Wiegen und Wägen besteht ja darin, daß man ausprobiert, welche Gewichte in welchen Abständen vom Aufhängepunkt die Waage im Gleichgewicht halten. Dies geschieht in kontinuierlichen Veränderungen der jeweiligen Gewichte und der Abstände vom Aufhängepunkt der Waagebalken. Damit aber ergibt sich auch die Modellvorstellung für das jenige, was man seither bei den Umwandlungen von Gleichungen in einfachere oder komplexere Gestalten (sog. Kürzen oder Herübernehmen von Ausdrücken der einen auf die andere Seite unter Auswechseln der Rechenjunktoren) praktiziert. Ein entscheidender Schritt in der Entwicklung der Mathematik war dann die Ablösung der Arithmetik von jeder geometrischen Veranschaulichung in der sogenannten Algebra, und zwar unter Beibehaltung der Gleichung als Hauptmittel der methodischen Artikulation. Was man als geometrische Gleichung jederzeit mit Pythagoras demonstrieren kann, nämlich die Gleichung a² + b² = c² (FlächenSumme der Kathedenquadrate = Flächen-Summe des Hypothenusenquadrats am rechtwinklichen Dreieck) läßt sich rein arithmetisch keineswegs für beliebige Zahlen beweisen. Für a = 3, b = 4, c = 5 ist es auch eine arithmetische Gleichung. Für a = 2, b = 3, c = 4 ist es keine Gleichung, obwohl es so erscheint. Damit eröffnet sich ein ungeheures Problemfeld für diese neue Disziplin, nämlich der Nachweis, ob solche Formeln überhaupt Gleichungen sind oder nicht, und welche Zahlenwerte sie „erfüllen“, damit sie Gleichungen bleiben. Irgendwelche Formeln als Gleichungen zu notieren, ohne zu wissen, ob es tatsächlich Gleichungen sind, erfüllt auch in der Mathematik den Tatbestand der Irreführung und Täuschung. 35 Euklid‟s Elemente. Fünfzehn Bücher aus dem Griechischen übersetzt von J. F. Lorenz, neu hgg. von C. Brandan Mollweide, 5. verb. Ausgabe Halle 1824, S. 4. 63 Die von den ausdrucksbildenden Junktoren strikt zu unterscheidenden Verbindungspartikel sind die urteilsbildenden Junktoren, die stets einen Behauptungssinn des Urteils produzieren. Urteile besitzen im Unterschied zu Ausdrücken einen Wahrheitswert, d. h. sie können wahr, falsch oder beides zugleich sein. Behauptende Urteile werden also nur mittels der urteilsbildenden Junktoren formuliert. Die meist gebrauchten sind die Kopula „ist“ und ihre Negation „ist nicht“, der Existenzjunktor „es gibt“ sowie vier genau unterscheidbare Implikationsjunktoren „wenn ... dann“. Dies sind die allgemeine, materiale, formale und korrelative Implikation. Sie sind in den üblichen Formalismen bezüglich ihrer Verküpfungsweise kaum unterscheidbar und werden daher oft miteinander verwechselt. In der pyramidalen Darstellung zeigen sich jedoch ihre Unterschiede sehr deutlich Die klassische und die mathematische Logik unterscheiden sich erheblich in ihrem Verständnis der Bedeutung und Funktion der Junktoren. Viele „klassische“ Logiker halten die Definitionen (als Äquivalenzen) für behauptende Urteile (mit Wahrheitsanspruch) und sprechen deswegen gerne von „wahren Begriffen“. Wenn Begriffe als solche jedoch wahr sein könnten, müßte jedes Sprachwörterbuch mit seinen fremdsprachlichen Äquivalenzen der Lemmata als Wahrheitstresor gelten. Was wohl niemand behaupten wird. Auch in der mathematischen Logik und speziell in der Arithmetik gilt die logische Äquivalenz (die mathematische Gleichung) allgemein als Standardjunktor für mathematische Behauptungen mit Wahrheitsanspruch. Dabei identifiziert man oft die Kopula „ist“ mit dem Äquivalenzjunktor „ist gleich“. Wir haben schon vorn Beispiele für diese „mathematischen Wahrheiten“ und dann sprichwörtlich gewordenen Alltagswahrheiten genannt wie „2 ∙ 2 = 4“ oder Kants Paradeexempel für ein „wahres synthetisches Urteil apriori“: „5 + 7 = 12“. Charles Sanders Peirce hat das mit der Einführung eines besonderen Zeichens „€ ” sanktioniert, das er aus „C“ (= Kopula für logische „Unterordnung“) und Äquivalenzjunktor „ = “ (für Gleichungszeichen) kombiniert hat. Er sagt darüber: “Die Kopula ‚ist‟ wird bald die eine, bald die andere der beiden Beziehungen ausdrücken, die wir mittels der Zeichen C und = dargestellt haben. ... Ausführlichst wird dieses Zeichen als ‚untergeordnet oder gleich‟ zu lesen sein“.36 Peirce hat zwar richtig gesehen, daß die logische Kopula eine Unterordnung eines Subjektbegriffs unter seine Gattung anzeigt, und daß das Gleichheitszeichen die Bedeutungsidentität zweier Ausdrücke besagt. Aber diesen wesentlichen Unterschied in einem neuen Junktor unsichtbar werden zu lassen, hat in der mathematischen Logik große Folgeschäden gehabt. Der Mathematiker Hermann Weyl dokumentiert, daß die Kantische Auffassung von der mathematischen Gleichung als behauptendes Urteil sakrosankt war – und läßt dabei seine Fehleinschätzung der Logik erkennen: 36 Ch. S. Peirce, Vorlesungen I, zitiert nach J. M. Bochenski, Formale Logik , 3. Aufl. Freiburg i. Br. S. 357. 64 „(Beispiel für) ein wirkliches Urteil (ist) 17 + 1 = 1 + 17“.... „Ein Existentialsatz – etwa ‟es gibt eine gerade Zahl‟ - ist überhaupt kein Urteil im eigentlichen Sinne, das einen Sachverhalt behauptet. Existential-Sachverhalte sind eine leere Erfindung der Logiker“.37 Daß die mathematischen Gleichungsformeln Definitionen ohne Wahrheitswert sind, bemerkt man schon daran, daß die Zahlbegriffe (d. h. ihre Bedeutungen als „Größen“) stets durch viele Ausdrücke darstellbar sind und sich somit untereinander ersetzen bzw. „substituieren“ lassen. Man lernt und memoriert diese Definitionen als „kleines und ggf. großes Einmaleins“. Man weiß dann, daß etwa die Bedeutung der Zahl 4 dieselbe (identisch) ist mit den Summen 1 + 3, 2 + 2, oder mit den Differenzen 5 – 1, 7 – 3, oder mit dem Produkt 2 ∙ 2 (und zugleich auch -2 ∙ -2) , oder mit dem Quotient 8 : 2, oder mit der 2. Potenz von 2, oder mit der Wurzel aus 16. Die erstmalige Definition (man spricht jetzt nach S. Kripke vom „Taufereignis“) neuer Zahlbegriffe (über die in den Beispielen angebenen Ausdrücke für „natürliche positive sowie negative Zahlen“ hinaus) ergab sich historisch aus dem Problem, die Rechenarten über den anschaulichen Bereich abzählbarer Gegenstände hinaus auszuweiten. Subtrahiert man 4 von der 4, so bleibt Nichts übrig. So wurde die Null (lat.: nullus = keiner) definiert als „4 – 4 = 0“. Subtrahiert man 5 von der 4, so definiert man eine negative Zahl: „4 – 5 = – 1“. Multipliziert man eine Zahl mit sich selbst, so definiert man eine Potenzzahl: 4 ∙ 4 = 16“. Teilt man 1 durch 3, so definiert man eine Irrationalzahl: „1 : 3 = 0,333...“ Zieht man die 2. Wurzel aus einer negativen Zahl, so definiert man eine imaginäre Zahl: „√-4 = 2i“, usw. Das Definieren neuer Zahlarten und Unterarten von Zahlen läßt sich beliebig ausweiten und ist längst über jeden Verständnishorizont von Nicht-Mathematikern ausgeweitet worden. Die Definition einer neuen Zahlart gilt jedoch in der Mathematik und mathematischen Logik als Entdeckungsleistung und Einsicht in neue Wahrheiten. Aus der Sicht der klassischen Logik aber handelt es sich dabei um die Ausweitung eines fachspezifischen arithmetischen Synonymenlexikons. Algebraische Funktionsgleichungen (mit „Unbekannten“, z. B. x, y), die sich einer geometrischen Veranschaulichung gänzlich entziehen, werden zwar wie die analytischen (auf die Geometrie bezogenen) als Gleichungen notiert, eben weil man die Gleichungen für Behauptungssätze hält. Sie sind aber korrelative Implikationsurteile, die in der Form: „wenn es ein so beschaffenes y gibt, dann gibt es (auch) ein so oder anders beschaffenes x“ (oder: „y → (f)x“) zu formalisieren wären. Sie können deswegen im Gegensatz zu normalen bzw. echten ÄquivalenzGleichungen des Typs „y = (f)x“ wahr oder falsch sein. In ihnen werden rein 37 H. Weyl, Über die neue Grundlagenkrise der Mathematik (1921), in: O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl. Freiburg-München 1964, S. 350. 65 arithmetische Größenwerte (ohne Bezug auf geometrische Sachverhalte) einander zugeordnet. Diese Größenwerte sind in der Regel verschieden und als solche erkennbar. Es können jedoch auch gleiche Zahlenwerte einander zugeordnet werden. Das dürfte ein Grund dafür sein, daß solche Korrelationen als Äquivalenzen erscheinen und immer noch in Gleichungsform notiert werden. 6. Am meisten macht sich der Unterschied zwischen logischem und mathematisch-logischem Denkstil in der modernen Aussagenlogik bemerkbar. Die Bezeichnung „Aussagenlogik“ suggeriert von vornherein, es handele sich dabei um einen modernen Kalkül wahrer und falscher Behauptungen. Dieser Kalkül beruht aber grundsätzlich auf der Nichtunterscheidung von ausdrucksbildenden und urteilsbildenden Junktoren. In den Wittgensteinschen (und Postschen) Wahrheitswerttabellen werden allen dort aufgeführten Junktoren Wahrheitswerte zugesprochen. Die klassische Kopula und die Quantifikatoren werden allerdings nicht aufgeführt und somit nicht definiert. Dies signalisiert von vornherein einen gravierenden Mangel der sogenannten Wahrheitswerttabellen für die Junktordefinitionen und damit auch des Gesamtkonzepts der „Aussagenlogik“. Darüber hinaus aber beruht die Aussagenlogik auf der irreführenden Benutzung der Metastufentheorie, von der vorn schon die Rede war. Sinn bzw. Bedeutung der Junktoren wird in der Aussagenlogik als Meta-Sinn bzw. Meta-Bedeutung der durch sie verknüpften wahren und/oder falschen sog. Elementarsätze definiert. Dabei wird jedoch grundsätzlich verkannt, daß die objektsprachlichen wahren und/oder falschen Sätze auf der Metastufe nur noch als begriffliche Ausdrücke (eben: „wahrer Satz“ / „falscher Satz“) aufgefaßt werden, die keinen Behauptungssinn und damit auch keinen Wahrheitswert besitzen können. Überhaupt defininiert die Aussagenlogik für alle ausdrucksbildenden Junktoren einen Wahrheitswert. Es wurde aber schon gezeigt, daß ein Ausdruck wie „wahrer und falscher Satz“ (der in der Aussagenlogik als „falsche“ Behauptung definiert wird, überhaupt kein wahrheitswertfähiger Behauptungssatz sein kann. (Mehr darüber in § 9). 7. Ist der Formalismus entsprechend gebaut, so wirkt er gleichsam wie ein strukturierter Filter. Er läßt nur Begriffe und begriffliche Ausdrücke, behauptende Sätze und Satzketten als Schlüsse durch und zwingt ihnen seine Form auf. Alles andere Sprach- und Vorstellungsmaterial aber läßt er nicht passieren. Das heißt zugleich auch, daß nicht alles, was man sich vorstellen und selbst in grammatisch korrekter Weise besprechen kann, logisch formalisiert werden kann. Ein falsch verstandenes Logikkonzept verunklart den formalen Logikfilter dadurch, daß er ihn der Grammatik einer Sprache annähert oder gar mit Teilen einer Sprachgrammatik gleichsetzt. Die sprachliche Grammatik ist aber selbst ein Filter der Sinnhaftigkeit von Laut- und Schriftgebilden. Werden in dieser Weise grammatische Elemente zu logischen Formen gemacht, so kommt es zu den diversen Logiktypen etwa einer speziell temporalen, deontischen, Normen-, Wunsch- oder 66 Quaestionenlogik und der Wahrscheinlichkeitslogik. Die neuerdings erfundene „Fuzzy-Logik“ ist ein Versuch, die letzten Reste des in der Gemeinsprache vorkommenden logisch Nicht-Formalisierbaren auch noch zu formalisieren. 8. In den üblichen Formalismen sind die bisherigen formalen Elemente wie Buchstaben, Junktorenzeichen, Klammern und Zitatzeichen, auch mathematische Rechenzeichen, weit davon entfernt, das einzulösen, was man sich seit Leibniz unter einer Kalkülisierung des logischen Prozedere verspricht. Die in der mathematischen Logik vertretene Kalkülisierung bzw. Algebraisierung des Denkens insinuiert zwar, man habe nach dem Vorbild des mechanischen Rechnens längst einige zuverlässige „intellektuelle“ Denkmaschinen (sog. Turing-Maschinen) erfunden. Aber es handelt sich trotz allem, was man darüber sagt, um pure mathematische Metaphern, die dem logischen Denken nur sehr vage und allenfalls so weit entsprechen, als auch in der Mathematik Logik enthalten ist. Ganz außer acht bleibt dabei, daß die Mathematik selbst auf weite Strecken dialektisch ist. Das wird über die quasi-mathematischen Formalismen der mathematischen Logik naturgemäß in die klassische Logik zurückübertragen. Der ursprüngliche römische Calculus war ein Kalksteinchen, bei den Griechen Psephos genannt. Er diente zur sinnlichen Repräsentanz einer Recheneinheit. Man konnte mehrere von ihnen gruppieren, einteilen und trennen und so die Grundrechenarten mechanisch praktizieren. Reste von diesen Verfahren finden sich noch im Abacus und im japanischen Soroban. Die Hauptsache bei einem solchen Rechenkalkül war und ist es, den Zahlen oder Anzahlen von Gegenständen Rechensteine zuzuordnen, um dann unter ihnen Gruppierungen gemäß den Rechenarten vorzunehmen. Von einem „logischen“ Kalkül sollte man erwarten, daß er den aus Reden oder Schriften entnommenen Begriffen in gleicher Weise manipulierbare Dinge zuordnet. Genau dies haben wir bei der Entwicklung der „Begriffspyramide“ im Auge gehabt. Sie ordnet den Begriffen Positionen in einer Begriffspyramide zu. Die in den Reden und Schriften verwendeten Junktoren, soweit sie Ausdrücke und Urteile bestimmen, zeigen die sich ergebenden Relationen zwischen den Begriffspositionen an. Dadurch wird das hierarische Allgemeinheitsgefälle und die Nebeneinanderstellung der vorkommenden Begriffe abgebildet. Trägt man die so verstandenen Begriffe in die Pyramidenpositionen ein (oder stellt sie sich in dieser pyramidalen Ordnung vor), so wird man leicht erkennen, welche Begriffe dabei regulär sind, und welche – wenn sie nicht in die reguläre Pyramidenstruktur passen – irregulär, also z. B. kontradiktorisch sind. Und vor allem wird man dann bei einiger Übung und Routine sogleich noch weitere junktorielle Verknüpfungen zwischen ihnen herstellen (oder sich vorstellen) können, als in der Rede oder Schrift artikuliert werden. Für das eigene logische Argumentieren wird man demnach seine eigenen Gedanken schon von vornherein als pyramidal geordnete Begriffe explizieren. Gelingt dies nicht in erhoffter Weise, so kann dies nur ein Anzeichen für unklares 67 Denken oder eine im begrifflichen Material liegende Problematik sein. Gelingt es aber, so wird man mit Leichtigkeit von einem Begriff zum nächsten – sei es ein allgemeinerer oder speziellerer oder durch Negationen abgetrennter – übergehen und darin zugleich einen „rhetorischen Leitfaden“ für die theoretische Ordnung einer mehr oder weniger umfassenden Argumentation zur Verfügung haben. § 8 Über den Unterschied logischer und mathematischer Denkmethoden Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und des extensionalen Aspektes und die Verselbständigung von intensionaler und extensionaler Logik. Die Funktion der Dialektik als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische Verschmelzung der logischen Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion der dreiwertigen Logiken Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den Wortschatz der Bildungssprachen. Aber sprachliche Wörter bezeichnen regelmäßig nur die Intension(en) eines Begriffs, nicht aber die zugehörigen Extensionen. Deswegen sind sprachliche Wörter nicht mit wissenschaftlichen Begriffen zu verwechseln. Traditionellerweise wurden die wissenschaftlichen Begriffe aus griechischen und lateinischen Wörtern gebildet, aus deren Kenntnis man meist schon ihre Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als englische Lehnwörter (oder was man dafür hält) importiert. Daneben gibt es freilich einen neueren Brauch, künstliche „Termini“ aus Anfangsbuchstaben von Wörtern zu bilden (Akronyme), aus denen man die Bedeutung nicht mehr erraten kann (z. B. DNS = „Desoxyribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC = massive open online course). Das ist man zwar aus Firmenbezeichnungen gewöhnt, in der Wissenschaft aber führt es zu einer Esoterisierung der Terminologie, die ein Verständnis „nichteingeweihter“ Laien und nicht weniger auch von Wissenschaftlern anderer Disziplinen fast unmöglich macht. 68 Vielfach ist es auch üblich, wissenschaftliche Gegenstände, Begriffe, Probleme, Hypothesen mit dem Namen ihrer Entdecker oder Erfinder zu bezeichnen (z. B. „Friessches Trilemma“, „Kant-Laplacesche Hypothese“, „Einsteinsche Relativitätstheorie“, „Heisenbergsche Unbestimmtheitsrelation“). Auch deren Verständnis setzt schon Insiderwissen voraus, das dem Laien meist unzugänglich ist. Man möchte jedoch dem Laien empfehlen, von denen, die solche Bezeichnungen ge brauchen, eine Erläuterung zu erbitten. Sehr oft stellt sich dann nämlich heraus, daß auch Experten keine klare oder übereinstimmende Vorstellung vom Gemeinten besitzen. Bei weitem die meisten wissenschaftlichen Theorien werden aber noch immer in der gewöhnlichen Bildungssprache formuliert, besonders wenn sie wissenschaftliche Begriffe in den Bildungswortschatz aufgenommen hat. Und so läßt sich auch an sprachlichen Beispielen demonstrieren, was auch in der Wissenschaft Begriffe, wahre und falsche Sätze, Schlüsse und begründende Argumente sind. Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist überhaupt die Grundlage für die Formalisierung in der Logik und dann auch der Ausbildung der formalen als einer zweiwertigen Logik geworden. Bestimmte grammatisch ausgezeichnete Wörter (Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen (Buchstaben bzw. Zahlen) ersetzt. Grammatische Behauptungssätze erhielten die Form des Urteils als Verknüpfung von Subjekts- und Prädikatsbegriffen. Komplexe Wortverknüpfungen wurden durch ausdrucksbildende Junktoren dargestellt. Dabei behielten die sprachlichen Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn bei, den man ohne weiteres sprachlich versteht. Die satzbildenden Junktoren wie Bejahung, Existenzbehauptung („es gibt“), Verneinung, Folgerungen, und die ausdrucksbildenden Junktoren wie und, oder, alle, einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen notiert. Weitere grammatische Satzformen wie Wunsch-, Befehls-, Fragesätze wurden in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht gelassen. Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade dadurch, daß sie auch derartige Satzformen formalisiert haben und sie damit als wahrheitswertfähig zulassen. Das hat wesentlich zur Komplizierung der Wahrheits- und Falschheitsfragen beigetragen, die seither mit Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit, Normgerechtheit u. ä. vermischt, gelegentlich auch dadurch abgelöst werden. Die wichtigste Einsicht in die logische Natur der Begriffe seit Platon und Aristoteles ist wohl die, daß sie aus Intensionen („Begriffsmerkmale“, die ihre Bedeutung ausdrücken) und Extensionen („Umfänge“, die ihren Anwendungsbereich markieren) zusammengesetzt sind. 69 Seit Aristoteles weiß man auch, daß die Intensionen allgemeiner Begriffe vollständig als sogenannte generische Merkmale in den Merkmalsbestand aller in ihrem Umfang liegenden spezielleren Begriffe eingehen und bei deren Bedeutungsverstehen mitgedacht werden müssen. Die niederen bzw „konkreteren“ Begriffe enthalten zusätzliche Merkmale („spezifische Differenzen“), die in ihnen mit den generischen Merkmalen vereinigt werden (concresci = lat.: zusammenwachsen). Unterste Begriffe nennt man daher im Unterschied zu den abstrakten oberen auch konkrete Begriffe. Meist sind sie Eigennamen oder quantifizierte allgemeinere Begriffe. Letztere nennt man seit Bertrand Russell Kennzeichnungen. Aus diesem Zusammenspiel der Intensionen und Extensionen der Begriffe ergibt sich unter ihnen das, was man ihre Hierarchie oder das Allgemeinheitsgefälle nennen kann. Dieses ist schon durch den einführenden Kommentar (Isagoge) des Porphyrios (um 232 – um 304 n. Chr.) zum aristotelischen Organon als „porphyrianischer Baum“ beschrieben worden und hat in der scholastischen Logik immer wieder auch zu graphischen Baumdarstellungen von Begriffshierarchien geführt. Bei Porphyrios bilden die allgemeinsten Begriffe (Gattungen) den Stamm und die Arten (Eidos) und Unterarten bis zu den Individuen die Äste und Blätter. Moderne Fassungen solcher Begriffshierarchien stellen das Allgemeinheitsgefälle in der Gestalt der Begriffspyramide dar, also gegenüber dem Baumschema gleichsam auf den Kopf gestellt, wovon auch in der hier vorgeschlagenen „pyramidalen Logik“ ausgegangen wird. Nun sollte man meinen, von einem Begriff könne in der Logik und mittels der Logik in den Wissenschaften überhaupt nur die Rede sein, wenn seine intensionalen und extensionalen Bestimmungen genau bekannt sind und offengelegt werden. Ebenso sollte man meinen, daß Intensionen (Merkmale) und Extensionen (Umfänge) für sich genommen nicht selber Begriffe sein können, da sie ja erst in ihrer Vereinigung einen Begriff ausmachen. Um dies aber in der logischen Begriffslehre klar und deutlich festzuhalten, war die von Aristoteles eingeführte und seither beibehaltene Formalisierung der Begriffe durch einfache Großbuchstaben (die im Griechischen zugleich Zahlzeichen sind) nur unzulänglich geeignet. Sie konnte die Intensionen und Extensionen der Begriffe nicht selbst formal darstellen und verdeckte dadurch den internen Aufbau des Begriffs aus Intensionen und Extensionen. Als Kompensation dieses Nachteils der formalen Notation der Begriffe erfand Aristoteles die nach ihm benannte Definitionsweise. Sie besteht darin, für einen Begriff seine generischen Merkmale und die spezifische Differenz (zusätzliches Merkmal) gesondert anzugeben. Dies geschieht für einen beliebigen Begriff durch Angabe des nächsthöheren Allgemeinbegriffs (genus proximum), dessen sämtliche Merkmale er (als „generische Merkmale“) aufnimmt und in dessen Umfang der zu definierende Begriff liegt. Hinzu tritt das sogenannte spezifische Merkmal, das ihn einerseits von der Gattung, andererseits auch von anderen unter dieselbe Gattung fallenden Art- 70 begriffen unterscheidet. Auf diese Weise wurde etwa das gemeinsprachliche Wort „Tier“ als wissenschaftlicher Begriff definiert, indem man als nächsthöhere Gattung „Lebewesen“ angab (das „Lebendigsein“ ist generisches Merkmal von „Tier“), als spezifische Differenz seine es von den Pflanzen unterscheidende Eigenschaften der Beweglichkeit und Sinnesausstattung. Mit dieser aristotelischen und auch jetzt noch als logischer Standard geltenden Definitionsweise können keineswegs alle Intensionen und Extensionen eines Begriffs offengelegt werden. Um die Definition genau und vollständig zu machen, müßten alle generischen Merkmale aller allgemeineren Begriffe, in deren Umfang der zu definierende Begriff liegt, offenliegen (d. h. die ganze Hierarchie der allgemeineren Begriffe, nicht nur das genus proximum, müßte bekannt sein). Platon hat das schon in seiner „Definition“ des „Angelfischers“ (im Dialog Sophistes) sehr klar vorgeführt. 38 Ebenso müßte aber auch die Extension des Begriffs durch Angabe aller untergeordneten Begriffe, die in seinen eigenen Umfang fallen, deutlich werden. Das wiederum kann man im „Angelfischer“-Beispiel in Platons Dialog Sophistes an den verschiedenen „Handwerkern“ (einschließlich des Angelfischers) sehen, die unter den Begriff „Handwerker“ fallen und dort eine ganze Hierarchie ausmachen. Die Grenzen des aristotelischen Definitionsverfahrens wurden freilich schon in der Antike entdeckt und diskutiert. Sie liegen in Richtung des Allgemeineren darin, daß man beim Versuch, Begriffshierarchien aufzustellen, zu „obersten Gattungen“ (Aristoteles‟ Kategorien, Euklids „axiomatische“ Grundbegriffe) gelangt, die dann kein genus proximum mehr über sich haben. Nach unten aber gelangt man so zu konkreten Ding- und Lagebezeichnungen („Eigennamen“) mit so vielen Eigenschaften, daß man von ihnen dann unübersehbar viele Merkmale nebst einer spezifischen Differenz angeben müßte. Dies hielt man gemäß dem scholastischen Diktum: „individuum est ineffabile“ (das Individuelle läßt sich nicht erschöpfend aussagen) für unmöglich. Diese Begrenzungen – die in der Tat aber nur Schwächen der aristotelischen Definitionsweise sind – haben dazu geführt, daß man „nach oben“ die Kategorien und axiomatischen Grundbegriffe und „nach unten“ die Individuen weitgehend aus der logischen Betrachtung ausnahm bzw. ihnen eine restringierte logische Stellung einräumte. Diese Beschränkungen der aristotelischen Standarddefinitionsweise sind bis heute dogmatisch als allgemeine Grenze der Definierbarkeit von Begriffen festgehalten worden. Seither sind die Logiker und Mathematiker gleicherweise der Meinung, Grundbegriffe als höchste Gattungen (Kategorien, „Axiome“) könnten überhaupt nicht definiert werden, und ebensowenig unterste konkrete Begriffe, die allenfalls durch Eigennamen oder Russellsche Kennzeichnungen angedeutet werden könnten. 38 Platon, Sophistes 219 a – 221 a, in: Platon, Sämtliche Werke nach der Übersetzung von F. Schleiermacher hgg. von W. F. Otto u. a. (Rowohlts Klassiker der Literatur und der Wissenschaft, Griechische Philosophie Band 5) Hamburg 1958, S. 188 – 192. 71 Dies ist höchst erstaunlich angesichts der Tatsache, daß es neben der aristotelischen eine Menge anderer Definitionsweisen gibt, die geeignet sind, das hier Vermißte zu leisten. Bei höchsten Begriffen kann es nur darauf ankommen, von den spezifischen Differenzen der nächst niederen Arten abzusehen und das ihnen gemeinsame Merkmal festzuhalten und zu benennen, wofür freilich nicht immer ein geeignetes „Wort“ zur Verfügung steht. Bei den sogenannten Individuen lassen sich die generischen Merkmale, die es ja mit anderen Arten und Gattungen gemeinsam hat, durch diese oberen Begriffe angeben, und die Spezifität als spezifische Differenz immer auf ein einziges Merkmal reduzieren (und sei es die nur einmal vergebene Buchstaben-Nummernkombination eines individuellen Automobils oder eines Personalausweises). Deshalb kann und muß eine effektive Begriffslogik auch die höchsten und untersten begrifflichen Positionen in Begriffshierarchien hinsichtlich ihrer intensionalen und extensionalen Komponenten genau konstruieren und definieren. Dadurch wird eine empfindliche Lücke in der Begriffslogik und in der Theorie der Axiome geschlossen. Die aristotelische Standarddefinition geht von den Intensionen (Merkmalen) eines Begriffs aus, die dann als generische Leitfäden zugleich auch die Begriffsumfänge festlegen. Daran anschließend hat man später gemeint, es ließe sich auch eine rein „intensionale Logik“ unter Absehung von den Begriffsextensionen entwickeln. Da aber „Begriffe ohne Umfang“ grundsätzlich keine Begriffe sein können, laufen diese Versuche auf reine „Bedeutungslehren“ (Semantiken) von Wörtern hinaus, wie sie in der philologischen Lexikographie zum Thema werden. Von daher lag es aber nahe, als Gegenstück auch so etwas wie eine rein „extensionale Logik“ zu entwickeln. Es waren die Mathematiker, die sie als „Klassenlogik“ und mathematische Mengenlehre entwickelten. Sie wurde zum Kern der modernen mathematischen Begriffslehre. Auch dazu ist kritisch anzumerken, daß „Begriffe ohne Intensionen“ grundsätzlich keine Begriffe sein können, so daß eine strikt durchgehaltene extensionale Logik keine Logik sein kann, sondern allenfalls zu Klassifikationen dienen kann. Dies hat sich spätestens auch in der Logik von William Van Orman Quine, einem der renommiertesten mathematischen Logiker in den USA, gezeigt. In seiner Logikkonzeption des von ihm sogenannten Extensionalismus haben die (rein extensional definierten) „Begriffe“ keinen bestimmbaren Inhalt, sie „referieren nicht“ auf Bedeutungen. Daher können sie auch nicht in andere „Sprachen“ (d. h. hier andere logisch konstruierte Theorien) „übersetzt“ werden. Die mit ihnen gebildeten Sätze (propositions) konstruieren und gliedern immer nur einen ganzen „holistischen“ Theorieraum, der ausschließlich durch den Anwendungsbereich (Umfang) eines solchen „Begriffes“ bestimmt sein soll. In der Tat werden jedoch in der mathematischen Klassen- und Mengenlogik die Extensionen zugleich (aber meist nicht explizit) auch als Intensionen der Klassenund Mengenbegriffe behandelt. Das macht sie manchmal doppeldeutig und zu dem, was wir als contradictiones in adiecto vorgeführt haben. Sie sind dann ganz 72 wesentlich für die sich hier ergebenden Widersprüche und Paradoxien verantwortlich. Dies zeigt sich aber erst, wenn man die klassische Begriffslogik und unsere Analyse des Aufbaus der nichtregulären (dialektischen) Begriffe als Maßstab anlegt. Dann zeigt sich auch genauer der Unterschied, der zwischen klassisch-logischer und mathematisch-logischer Begriffslehre besteht und damit auch die logische von der mathematischen Denkweise trennt. Dieser Unterschied besteht unserer Einschätzung nach wesentlich in der Stellung, die die Dialektik in den Begriffslehren der klassischen und der mathematischen Logik einnimmt. Und dies hat wieder beträchtliche Unterschiede zwischen der logischen und mathematischen Auffassung von der Definition und ihrer Formalisierung zur Folge. In der klassischen Logik galt und gilt die Dialektik als eine „Logik des Widerspruchs“, die man traditionellerweise zu vermeiden und zu bekämpfen suchte, die aber auch immer ihre Anhänger und Vertreter hatte. In der mathematischen Logik aber gilt das Denken in Widersprüchen und mit Hilfe widersprüchlicher Begriffe geradezu als unmöglich. Schon die Bezeichnung „Dialektik“ ist hier verpönt. Wenn Widersprüche auftauchen und in der Forschung herausgearbeitet werden – wie die zahlreichen mathematischen Paradoxien es zeigen – gelten sie als Grundlagenprobleme der Disziplin. Und von daher hält sich unbeirrt die Meinung der Mathematiker und mathematischen Logiker, die reine Mathematik und mathematische Logik könne und müsse widerspruchslos auf- und ausgebaut werden. So definiert ein älteres Lexikon die „Mathematik“ folgendermaßen: „Die reine Mathematik hat das Eigentümliche, daß sie aus gewissen einfachen Begriffen und Voraussetzuungen ihre Ergebnisse durch rein logische Schlüsse ableitet, deren Richtigkeit jedes Wesen, das mit menschlicher Vernunft begabt ist, zugeben muß. Erforderlich ist dabei nur, daß jene Begriffe und Voraussetzungen so gewählt sind, daß man niemals auf einen Widerspruch stößt, denn ein solcher würde sofort das ganze Gebäude umstoßen. Deshalb entnimmt die Mathematik ihre ersten Begriffe und Voraussetzungen der Anschauung. So entnimmt die Analysis den Begriff der ganzen Zahl und die Erzeugung der ganzen Zahlen aus der Einheit der inneren Anschauung und entwickelt daraus alles Weitere; die Geometrie entnimmt die Begriffe der geraden Linie etc. der äußeren Anschauung. In beiden Fällen aber werden von den Merkmalen der Begriffe, die man in der Anschauung vorfindet, nur gerade so viele beibehalten, als erforderlich sind, um daraus Schlüsse ziehen zu können. Wenn nun jemand jene ersten Begriffe und Voraussetzungen zugibt, was bei zweckmäßiger Auswahl jeder wird tun müssen, so kann er nicht umhin, auch alles, was daraus gefolgert wird, als richtig anzuerkennen. In diesem Sinne haben die mathematischen Sätze eine solche Sicherheit, daß man sprichwörtlich von mathematischer Gewißheit, Strenge und Wahrheit spricht, und eine Beweisführung mathematisch nennt, um sie als völlig einwandfrei zu bezeichnen. In diesem Sinne nennt man auch die Mathematik vorzugsweise eine exakte Wissenschaft“.39 Dieser „hohe Ton“ ist zwar heute aus den Lexika verschwunden. Sicher aber nicht die darin zum Ausdruck kommende Überzeugung von „Gewißheit, Strenge, 39 Art. „Mathematik“ in: Meyers Großes Konversationslexikon, Band 13, 6. Aufl. Leipzig-Wien 1908, S. 432. 73 Exaktheit und Wahrheit“ aus den Köpfen der Laien und der meisten Mathematiker. Der zitierte Artikel ist, wie man leicht erkennt, im Kantischen Sinne formuliert, wo bekanntlich Geometrie und Arithmetik auf die „Anschauungsformen“ (Raum und Zeit) begründet werden. Jetzt ist man mehrheitlich wieder auf die platonische „Anschauung mit einem geistigen Auge“ zurückgekehrt (was ersichtlich ein dialektisches Oxymoron ist). Und dies nicht zuletzt, um den zahlreichen Perplexitäten der sinnlichen Anschauung zu entgehen, an denen schon die antike Mathematik sich abgearbeitet hatte. Aber auch von der sinnlichen Anschauung gilt die Kant-Horazische Maxime: Naturam expellas furca, tamen usque recurret. Soll heißen, auch die moderne Mathematik kommt nicht ohne Anschaung aus. Was man jetzt „reines Denken“ oder „unanschauliche Vorstellung“ nennt, bedarf, um überhaupt einen Gehalt zu haben, anschaulicher Elemente. Soll das „reine Denken“ einen Gehalt besitzen, so kann er nur in dem bestehen, was die Sinne dem Gedächtnis und der Phantasie übermittelt haben. Ohne solchen Gehalt bleibt keineswegs reines Denken übrig, sondern pures Nicht-Denken. Daher sind Gedächtnis und Phantasie auch diejenigen sogenannten Vermögen, die in der Mathematik am meisten benötigt und kultiviert werden. Phantasie unterscheidet sich von der direkten „Anschaung“ (und zwar aller einzelnen Sinne) dadurch, daß sie auch dasjenige noch zu irgend einer einheitlichen Vorstellung bringt, was nicht zugleich und im gleichen Erfahrungskontext anschaulich gemacht werden kann. Gerade diese kreative Vorstellungsbildung ist aber das Wesen aller sogenannten Dialektik geworden. Davon haben die Künste gezehrt, die den „Pegasus“ (der nur als Pferd oder Vogel anschaubar ist) als „geflügeltes Pferd“ kreierten. Ebenso aber auch die griechischen Mathematiker, als sie „Punkt und Linie“ sowie „Eines und Vieles“ in Begriffe faßten. Das Verfahren dieses kreativen dialektischen Denkens war den antiken Philosophen geläufig. Das zeigen die Formulierungen des Parmenidesschülers Zenon vom „fliegenden Pfeil, der ruht“, und des Heraklit vom „Logos“, der das „Widersprechende vereinigt“. Derartige Denkbemühungen wurden bei den Logikern im alten Megara und bei den Sophisten zu einem Denksport geselliger Unterhaltung. Platon hat in seiner Ideenlehre vielfach davon Gebrauch gemacht und die Dialektik jedenfalls nicht verachtet. Aristoteles aber wollte sie aus seiner Logik, die wesentlich auf der sinnlichen Anschauung beruht, ausscheiden oder vermeiden. Aber auch ihm gelang es nur teilweise, denn er hat sie in seine sogenannte Modallogik integriert und dadurch an die Nachwelt weitergegeben. Es dürfte nun gerade die im obigen Zitat beschriebene Einstellung und Grundhaltung gewesen sein, die sowohl die Laienwelt als auch die Mathematiker selbst blind gemacht hat für die offensichtliche Tatsache, daß Mathematik und die an sie anknüpfende mathematische Logik in weiten Teilen eine ausgebaute Dialektik widersprüchlicher Grundprinzipien und Grundbegriffe ist. Zeigen wir es an einigen Beispielen. 74 Das mathematische Hauptbeispiel für inhaltliche Begriffe waren und sind die Zahlen. In den Zahlen sah und sieht man in der neuzeitlichen Mathematik autonome ontologische Gebilde, die entdeckt, erforscht, erkannt und auf Begriffe gebracht werden müssen. Den Zahlen als mathematischen Begriffen mußten demnach autonome mathematische Bedeutungen bzw. Intensionen zukommen, ebenso Extensionen, die sich wiederum auf (andere) Zahlen erstrecken mußten. Deren dialektische Definitionen haben wir an anderer Stelle (vgl. Elementa logicomathematica, Internet der Phil. Fak. der HHU Düsseldorf, 2006)40 dargestellt. Danach ist der allgemeine Zahlbegriff eine widersprüchliche Verschmelzung der logischen Quantoren „ein“ und „alle“ D. h. er ist zugleich elementare Einheit bzw. genauer: Einzelheit, wie auch Gesamtheit bzw. Totalität. Logisch ist er als „AllEinheit“ oder „Ein-Allheit“ zu definieren. Und demgemäß ist auch jede weiter zu definierende Zahlart im Umfang des allgemeinen Zahlbegriffs ein Gebilde, das mittels des generischen Merkmals des allgemeinen Zahlbegriffs zugleich eine Zahleinheit und ein Gesamt von (anderen) Zahlen darstellt. So ist die Eins („ 1 “) eine „elementare“ Einheit der natürlichen Zahlen, zugleich aber auch das Gesamt aller ihrer echten Bruchzahlen geworden. Und jede andere natürliche Zahl ist zugleich eine „Zahleinheit“ als Gesamt (z. B. Summe, Produkt usw.) von Einheiten der natürlichen Zahlen. Aber daß die Zahlen als solche in dieser Weise dialektisch zu definieren wären, hat man stets „vermieden“, und wo es nicht vermieden werden konnte, durch Dissimulationen unsichtbar gemacht. Das gelang in der Neuzeit durch die systematische Trennung von Geometrie und Arithmetik. Die alte Auffassung bis auf die Zeit von Descartes bezog die Zahlen als bloße Quantifikationen auf geometrische Gegenstände. Diese galten als vorgegebene „Bedeutungen“ (Intensionen), denen durch die zahlenmäßigen Quantifikationen „Umfänge“ (extensionen) zugesprochen wurden. In dem quantifizierten Ausdruck „3 Meter“ steht „Meter“ für die Intension der (konventionellen) Maßeinheit einer geraden Linie; „3“ ordnet der Intension als Umfang „drei hinter einander gelegte Einheitslängen“ zu. Das „in einer geraden Linie Hintereinanderlegen“ wird freilich nicht ausgedrückt. Es muß mitverstanden werden. Bei Euklid wurden z. B. die später sogenannten natürlichen Zahlen als Punkte oder auch als Erstreckungseinheiten von geometrischen Linien dargestellt. Darüber hinaus sprach Euklid von Flächenzahlen (zweite Potenzen) und Körperzahlen (dritte Potenzen). Von daher stammt die Meinung, es ließe sich überhaupt eine rein „extensionale Logik“ der Quantifikationen aufbauen. Das hieß jedenfalls, daß die geometrischen Gebilde neben anderen Gebilden, etwa Viehherden, wirtschaftlichen Gütern, Münzbeständen usw. ein Anwendungsbereich arithmetischer Quantifikationen war. 40 Zuletzt in: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concept: The Logical and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 26 und S. 94f. – Vgl. dazu auch § 9 der vorliegenden Schrift. 75 Auf dieser Nutzbarkeit der arithmetischen Quantifikation in Bezug auf zählbare Gegenstände der Wirklichkeit beruht ersichtlich bis heute die überaus große Bedeutung der Mathematik für die Berechenbarmachung der Welt, insbesondere in der Physik. Soweit die Arithmetik solche inhaltliche Anwendung auf zähl- und meßbare Gegenstände erfuhr (und noch erfährt), blieb und bleibt sie frei von jeder Dialektik. So lernt man denn auch den Umgang mit den Zahlen durch Abzählen (Quantifizieren) von Dingen oft schon früher als den Umgang mit Begriffen. Nichts erscheint daher selbstverständlicher und widerspruchsloser als ein primitives Zahlverständnis, das an den vorgewiesenen Fingern von Eins bis Zehn zählt und die Null durch die in der Faust verborgenen Finger demonstriert. Genau so widerspruchslos kann man Kindern am selben Gegenstand „Faust“ auch logische Qualifikationen und Quantifikationen beibringen. Dann würde man am vorgehaltenen Finger die „Bedeutung“ (die Merkmale des Begriffs „Finger“, etwa daß ein Finger aus „artikulierten“ Knochen, Muskeln und Sehnen, Haut und einem Fingernagel besteht) klarlegen. Anschließend würde man erklären, was „ein Finger“, „einige (oder manche) Finger“, „alle Finger“ und „kein Finger“, also die logischen „Extensionen“ (Quantifikationen) besagen. Und schließlich könnte man durch die Eigennamen der Finger (wie im Kinderlied: „das ist der Daumen ...“) die individuellen Finger benennen bzw. kennzeichnen. Bei solchen Übungen würde man leicht bemerken, daß die mathematische Quantifikation durch Zahlen und die Null mit dem logischen Prozedere des Quantifizierens identisch ist. Der Unterschied liegt nur darin, daß das logische „einige“ durch jede beliebige Zahl oberhalb der Eins innerhalb einer Gesamtheit ersetzt werden kann (das logische „einige“ oder neuerdings sogenannte „manch“ wird zahlenmäßig gespreizt). Das logische „alle“ wird immer durch die letztgezählte Zahl eines Gesamts ausgedrückt. Nur das, was man „einige“ und „alle“ nennt, wird man dem Kind dann auch als „Menge von Fingern“ erklären. Keineswegs aber wird man es dadurch verwirren, daß man auch „einen“ oder gar „keinen Finger“ eine „Menge von Fingern“ nennt. Das aber tut die mathematische Mengenlehre, und es ist noch vor einiger Zeit einigen Generationen deutscher Schüler mit der „Mengenlehre“ eingebleut worden. Schon gar nicht wird man die in der Faust verborgenen fünf Finger als „fünf negative Finger“ bezeichnen. Die widerspruchslose Logizität des mathematischen Quantifizierens von gegebenen Dingen ist die Grundlage für alle Anwendungen der Mathematik in dazu geeigneten Einzelwissenschaften und in der Alltagspraxis geblieben. Bei solchen Anwendungen werden inhaltliche Begriffe der Wissenschaften und des Alltags (z. B. physikalische Örter, Zeitpunkte, Massen, Kräfte etc.), deren Intensionen durch die jeweilige Wissenschaft oder den Sprachgebrauch vorgegeben werden, mit zahlenmäßig quantifizierten Extensionen versehen. So spricht man etwa von „einem Ort“, „zwei Uhr“ (gemeint sind zwei Stunden seit Mittag), „drei Pfund Butter“, „vier Pferdestärken“ („PS“) usw. Und auf dieser Gegenstands-Quanti- 76 fizierung beruht letztlich die allgemeine Anwendung, Fruchtbarkeit und Überzeugungskraft der Mathematik. Die Übereinstimmung mit der Logik und ihrer Anwendbarkeit auf Gegenstände hört aber auf, sobald die Arithmetik nicht mehr nicht-mathematische Begriffe bloß quantifiziert, sondern von mathematischen „Begriffen“ (z. B. den Zahlen als solchen) die Rede ist. Was dann an die Stelle der Logik tritt, ist eine autonom gewordene Arithmetik und Algebra. Nach Platon, Euklid und Proklos meint der mathematische Platonismus, diese genuin mathematischen Begriffe ließen sich als vorgegebene „Ideen“, d. h. als genuine Begriffe, durch ein „geistiges Auge“ (wie Platon sagte) erschauen, und sie ließen sich dann auch noch zusätzlich dem gemeinsamen logisch-arithmetischen Quantifikationsverfahren unterwerfen. Das platoni(sti)sche Programm fordert dann, das zählende Quantifizieren auf den Begriff der Zahl zu bringen und den Zahlbegriff selbst zu quantifizieren. Ein wichtiges Resultat dieser Bestrebung zeigte sich in der von Franciscus Viëta (François Viète, 1540 - 1603) eingeführten sogenannten Buchstabenrechnung. In ihr stehen aristotelische Begriffszeichen (große Buchstaben) für Zahlen, die ihrerseits durch Zahlen quantifiziert werden (z. B. „5 X“ oder „2 Y“). Nun hat gewiß noch kein Mensch mit seinem sinnlichen Auge, und das sind die einzigen Augen, die der Mensch besitzt, das gesehen, was man eine Zahl oder Menge an sich bzw. als solche nennt. Man benutzt die Wörter „Zahl“ und „Menge“ normalsprachlich daher in der vorn geschilderten anwendenden bzw. extensionalen Weise so, daß man von „Mengen von etwas“ oder auch „einer Anzahl von etwas“ spricht, was man in der Regel sinnlich wahrnimmt. Man verharrt auch dabei, Ausdrücke wie „Menge von einer Sache“ (Einer-Menge) und „Menge von keinen Sachen“ (Null-Menge) für grammatischen Unsinn zu halten. Von der Mathematik muß man sich jedoch belehren lassen, daß es eine „überanschauliche Anschauung“ gäbe, die es im Studium auszubilden und zu üben gelte. Wenn das gelinge, könne man sich sehr wohl Zahlen und Mengen „an sich“ vorstellen, daher auch „Einer-Mengen“ und „Nullmengen“ („leere Mengen“), schließlich sogar „Mengen von Zahlen“ und „Zahlen von Mengen“ sowie „abzählbare Mengen“, bei denen sich jedem sogenannten Element der Menge eine natürliche Zahl zuordnen läßt. Dazu auch „überabzählbare Mengen“, bei denen eine solche Zuordnung nicht möglich ist. Hilfsweise dürfe man sich der unzulänglichen „Modelle“ der anschaulichen logischen Mengenvorstellungen bedienen, die freilich bei weitem nicht alles mathematisch Denkbare abdecken. Daß die „mathematischen“, genauer gesagt, die mathematisierten Begriffe anders gebildet werden als die logischen, dürfte daraus schon hervorgehen. Man unterscheidet sie als „metrische“ oder „quantitative“, nach E. Cassirer auch als „Funktionsbegriffe“, von den logischen Begriffen, die dann „qualitative“ genannt werden. Daß das Quantitative bzw. Metrische sich auf die zahlenmäßige Quantifizierung solcher Begriffe bezieht, liegt auf der Hand. Aber diese Charak- 77 teristik genügt bei weitem nicht, sich einen (logischen) Begriff von diesen mathematischen Begriffen zu machen. Sollen sie überhaupt Begriffe sein, so muß das Metrisch-Quantitative auch auf Intensionen bezogen werden. Das geschieht allerdings durch die stillschweigende Voraussetzung bzw. die Gewohnheit, daß die Intensionen mathematischer Begriffe immer noch wie bei Euklid geometrische Sachverhalte bedeuten, nämlich (unausgedehnte) Punkte, Ausdehnungen, Strecken, Abstände. Ohne diese traditionellen Veranschaulichungen, die heute „Modelle“ oder „Graphen“ genannt werden, lassen sich die mathematischen Begriffe gar nicht denken. Das aber hat zur Folge, daß die Anwendung der mathematischen Begriffe auf Wirklichkeitsbereiche zunächst eine Geometrisierung der Objekte verlangt. Zeigen wir auch dies an einigen Beipielen. Der „quadriviale“ Hauptanwendungsbereich der Mathematik war und ist die Physik geblieben. Alles, was in der Physik mit mathematischen Begriffen erfaßt wird, enthält daher das geometrische Ausdehnungsmoment (Strecke) als generisches Merkmal. Und mit ihm zugleich auch die Voraussetzung, daß diese Ausdehnung aus (geometrischen) Punktreihen bestünden. Wie man weiß, ist aber das Verhältnis der vorausgesetzten Diskontinuität von Punkten und des Linienkontinuums bis heute ein vieldiskutiertes geometrisches Problem, dem selber eine Dialektik zugrunde liegt. Diese Dialektik von Punkt und Linie bzw. Unausgedehntheit und Ausdehnung überträgt sich also von vornherein in die physikalischen Grundbegriffe. Redet man vom physikalischen Zeitbegriff, so muß er zunächst als Ausgedehntes, nämlich als Zeitstrecke, aber zugleich auch als Punktreihe von „Zeitpunkten“ verstanden werden. Ebenso beim physikalischen Raumbegriff, der ein Komplex seiner Erstreckungsdimensionen in Punktreihen ist (gemäß der cartesianischen analytischen Geometrie). Die physikalische Masse wird ebenso als „Punktmasse“ (man spricht dann von „Idealisierung“) verstanden, die sich immer schon an bestimmten Raum- und Zeitpunkten befinden soll, während sie tatsächlich doch immer räumlich ausgedehnt ist. Das ist von Descartes geradezu zum Wesensmerkmal („extensio“) der physikalischen „Substanzen“ erklärt worden. Entsprechend der logischen Bildung abgeleiteter (deduzierter) Begriffe verstehen sich dann alle weiteren physikalischen Begriffe als aus diesen Grundbegriffen zusammengesetzt. Aber ihre Zusammensetzung ist nicht eine von generischen und spezifischen Merkmalen. Vielmehr werden diese Komplexierungen der abgeleiteten physikalischen Begriffe gemäß den Rechenarten gebildet. Es sind vor allem die Rechenarten der Summierung, der Subtraktion (zur Definition negativer Begriffe), der Multiplikation, der Potenzbildung und der Division, in der Neuzeit dann die Differential- und Integralbildung, später noch die Logarithmenbildung, die die mathematischen Hauptmittel als mathematische Junktoren bzw. Operatoren dazu hergeben. Und je nach ihrer Anwendung zur Bildung der entsprechenden Begriffe könnte man sie Tupel-Begriffe (Paare, Drillinge usw.), negative Begriffe, Produktbegriffe, Potenzbegriffe, Quotientenbegriffe, Differen- 78 tialbegriffe und Integralbegriffe bzw. entsprechende komplexe Ausdrücke nennen. Solcherart gebildete Begriffe und Ausdrücke können dann ihrerseits wiederum nach denselben Rechenarten miteinander zu noch komplexeren Begriffen und Ausdrücken zusammengesetzt werden. Eine Grenze für die Erzeugung derartiger Komplexionen kann es offenbar nicht geben, wohl aber Grenzen der Darstellbarkeit durch Zeichen und ihrer rechnerischen Handhabbarkeit. Nehmen wir als Beispiel den physikalischen Geschwindigkeitsbegriff. Er ist gewiß einer der einfachsten physikalischen Begriffe und geht in viele andere physikalische Begriffe und Ausdrücke ein. Und doch weist er alle Charakteristika auf, die ihn von logischen Begriffen unterscheiden. Logisch sollte man denken, daß Geschwindigkeit eine Eigenschaft von Bewegung, und diese wiederum eine Eigenschaft eines bewegten Körpers sei. Und das wird natürlich auch in der physikalischen Mechanik stillschweigend vorausgesetzt. Der physikalische Begriff der Geschwindigkeit aber enthält keinen Hinweis darauf, daß die Geschwindigkeit einer Bewegung an einen bewegten Körper gebunden ist. Er wird als Quotient aus räumlicher und zeitlicher Erstreckung dargestellt. Logisch ist er jedoch als Verhältnis bzw. Proportion einer räumlichen zu einer zeitlichen Strecke definiert („s : t“). Und das ist keineswegs dasselbe wie ein Quotient als Resultat einer Division. In der Mathematik werden aber sowohl die Proportionen wie auch die Quotienten mit demselben Ausdruck bezeichnet („s / t“) bezeichnet. Als Terminus für die Geschwindigkeit steht dafür „v“ (velocitas), der durch die Gleichung „v = s / t“ definiert wird. Die physikalische Begriffsbildung suggeriert die Unanschaulichkeit des damit Gemeinten. Man kann keine für sich bestehende Geschwindigkeit (ohne etwas Bewegtes) als solche beobachten. Was damit gemeint ist, ist daher logisch nicht nachvollziehbar. Es sei denn, man ließe sich darauf ein, über „körperlose“ Bewegungen von Geistern zu spekulieren. In der Physik aber gehört die körperlose Geschwindigkeit zum Standard-Begriffsarsenal. Da die räumliche und zeitliche Erstreckung einer Bewegung auch für jeden Punkt der jeweiligen (cartesianischen) Dimensionen gelten muß (da ja die geometrischen Strecken als Punktreihen vorgestellt werden), fällt es dem Physiker auch nicht schwer, von „Punktgeschwindigkeit“ eines bewegten Körpers zu reden. Der physikalische Laie wie auch der Logiker (und auch schon der Parmenideer Zenon), der (mit Euklid) davon ausgeht, daß ein Punkt keinerlei Ausdehnung besitzt, muß es jedoch für unlogisch halten, einem bewegten Gegenstand überhaupt eine Punktgeschwindigkeit zuzusprechen. Und zwar deshalb, weil ja die physikalische Geschwindigkeit ausdrücklich als Quotient (genauer: als Proportion) von Strecken (also nicht von Punkten) definiert ist. Wäre s = 0 („keine Strecke“) und ebenso t = 0 („keine Dauer“), so wäre die Punktgeschwindigkeit als v = 0 / 0 zu definieren. Der Logiker würde dann sagen, die Geschwindigkeit verwandelt sich in Nichtgeschwindigkeit, und das könnte logisch nur das Gegenteil von Bewegung, also „Stillstand“ (physikalisch „Ruhe“) bedeuten. 79 Nun geht der Physiker davon aus, daß ein auf einer Strecke in bestimmter Zeit bewegter Körper auch auf jedem Punkt der Strecke und zu jedem Zeitpunkt diese Geschwindigkeit besitzen muß. Um gerade dies auch zu beweisen, haben Leibniz und Newton mit ihrer Erfindung der Fluxions- und Differentialbegriffe in dialektischer Weise den Punkt zur Strecke gemacht. Sie definierten den euklidischen „ausdehnungslosen Punkt“ zu einem „unter jede zahlenmäßige Bestimmbarkeit hinabreichende („infinitesimale“ = „gegen Null verschwindende“) Erstreckung“ um. Und dies zweifellos nicht ohne den verschwiegenen Einfluß von Berkeleys sensualistischer Geometrie, in welcher der geometrische Punkt als ein „minimum sensible“, also als etwas minimal Ausgedehntes definiert war. Diese dialektische Definition verbirgt sich noch bis heute hinter manchen Mystifizierungen in der Lehre von den Differentialen. Denn wohl kein Mathematiker wäre geneigt zuzugeben, daß der Widerspruch in die Erfindung und Definition dieser neuen arithmetischen „Größen“ („unterhalb jeder zahlenmäßigen Bestimmbarkeit“) gleichsam eingebaut ist. Der Leibnizsche Differentialquotient „d s / d t“ hält ersichtlich die Geschwindigkeitsdefinition als Proportion einer räumlichen und einer zeitlichen Erstreckung bei. Aber die durch das Zeichen „d“ („differential“) quantifizierten Strecken sollen gemäß Definition als „infinitesimale“ (gegen Null verschwindende) Größenbezeichnung zugleich auch keine quantifizierbaren Strecken („Größen“) sein. Was nur heißen kann, daß die als Differentialgeschwindigkeit definierte Punktgeschwindigkeit sowohl eine meßbare Größe als auch keine (quantifizierbare) meßbare Größe ist. Und so ist das Differential von Leibniz als neuer widersprüchlicher Zahlbegriff in die Arithmetik eingeführt worden. Logisch läßt er sich nur als widersprüchlicher Begriff definieren, nämlich als „bestimmtunbestimmte Zahlengröße“. Was hier von Leibnizens Begriff des Differentials gesagt wurde, gilt mutatis mutandis auch vom Fluenten-Begriff Isaak Newtons. Die Definition der Punktgeschwindigkeit durch den Differentialquotienten beherrschte die klassische Mechanik. Als man jedoch um die Wende zum 20. Jahrhundert mit verfeinerten Beobachtungs- und Meßinstrumenten in die Ausdehnungsbereiche der (damaligen) Elementarteilchen vordrang, glaubte man, die (infinitesimalen) Punktgeschwindigkeiten von Elementarteilchen ließen sich mit den neuen Meßmethoden direkt und exakt bestimmen. Wäre es dabei logisch zugegangen, so hätte sich das von vornherein als vergebliche Mühe einschätzen lassen. Die Punktgeschwindigkeiten der Elementarteilchen konnten auch in den Bereichen der Mikrophysik nichts anderes sein als Proportionen von Raum- und Zeitstrecken.41 Aber die mathematische Denkart verlangte in diesen Mikrodimensionen nach der messenden Feststellung einer „idealen“ Punktgeschwindigkeit. Bei dieser mußte, wie man voraussetzte, der „genaue Ort und der genaue Zeitpunkt eines 41 Vgl. dazu L. Geldetzer, Über den Begriff des Zeitpunktes bei Meßbestimmungen kanonisch-konjugierter Größen in der Physik und über das Problem der Prognostik in der Mikrophysik. In: Geschichte und Zukunft, Festschrift für Anton Hain, hgg. v. Alwin Diemer, Meisenheim (Hain) 1967, S. 142 - 149. 80 Teilchens auf seiner Bahn“ ermittelt werden. So sehr man aber in den darauf gerichteten Experimenten die Meßskalen verfeinerte, stellte sich durchweg eine Grenze der Geschwindigkeitsmessungen „auf dem Punkte“ heraus. Anstatt diese Grenze auf den als Streckenproportion bzw. als Quotienten definierten Geschwindigkeitsbegriff selber zurückzuführen, brachte Werner Heisenberg sie in seiner Formel von der grundsätzlichen „Unbestimmtheit“ der „gleichzeitigen“ Erfassung von Raumstelle und Zeitpunkt der Elementarteilchen mit dem Planckschen Wirkungsquantum h in Verbindung. Was bedeuten sollte, daß es zwar Punktgeschwindigkeiten der Elementarteilchen geben müsse, daß aber der messende (und somit wirkungsübertragende) Eingriff in die Bewegung der Teilchen deren genaue Bestimmung in der Größenordnung des Wirkungsquantums verhindere. Heisenberg erhielt dafür bekanntlich den Nobelpreis. Und das konnte nur bedeuten, daß alle Mikrophysiker diese Theorie als wahr und grundlegend anerkannten. Heisenbergs Theorie von der prinzipiellen „gleichzeitigen“ Unbestimmtheit von Ort und Zeitpunkt (und anderer in Proportionen bzw. Quotientenbegriffen „konjugierten Größen“) der Mikrophysik begründet seither das moderne physikalische Weltbild mit seiner Unterscheidung von Makro- und Mikrophysik und den diesen Bereichen jeweils zugeschriebenen kausalen und indeterministischen (akausalen) Strukturen. Auch die Bezeichnung „Quantenphysik“ verdankt sich der Theorie von der punktuellen Unbestimmtheit in der Größenordnung des Planckschen Wirkungsquantums. Die Natur offenbart sich, so meint man seither, in ihren Mikrophänomenen nur „gequantelt“. Unsere Überlegungen dürften aber schon gezeigt haben, daß sich auch die Makrophänomene nur in „gequantelten“ Geschwindigkeits-Proportionen bzw. Quotienten definieren und messen lassen. Betrachten wir aber noch weitere dialektische Einschüsse in der physikalischen Behandlung der Geschwindigkeit. Ändert sich die Geschwindigkeit eines bewegten Körpers, so versteht man logisch ganz richtig, daß sie zu- oder abnimmt, und man nennt es gemeinsprachlich Beschleunigung oder Verlangsamung. Kommt eine Bewegung eines Gegenstandes aber zum Stillstand, so wird man logisch überhaupt nicht mehr von Bewegung und Geschwindigkeit reden. In der Physik ist das anders. Hier wird jede Veränderung einer Geschwindigkeit (also auch eine Verlangsamung), ja sogar die Richtungsänderung einer Bewegung, als „Beschleunigung“ definiert. Da wundert sich der laienhafte Autofahrer, der mit einer Geschwindigkeit von 80 Kilometer pro Stunde in der Kurve fährt, daß er dabei seine (logische) Geschwindigkeit beibehält und zugleich (physikalisch) beschleunigt. Logisch sollte man vermuten, daß eine Geschwindigkeit v, die als beschleunigte gleichmäßig zunimmt, allenfalls als Summe der Ausgangsgeschwindigkeiten und der hinzugekommenen (erhöhten) Geschwindigkeiten bezüglich der zurückgelegten Strecken definiert werden müßte. Und das wird in der Praxis durch Integralbildung über die differentiellen Geschwindigkeiten der zurückgelegten 81 Strecke so berechnet. Definiert aber wird die Beschleunigung als eine weitere Proportion der Geschwindigkeit im Verhältnis zur Zeit, also v / t = (s / t) / t. Logisch sollte man wiederum meinen, daß eine Geschwindigkeit, die selber nur das Verhältnis einer zurückgelegten Raumstrecke zu einer Zeitstrecke sein kann, nicht nochmals in ein Verhältnis zu derselben Zeitstrecke gestellt werden könnte. Der mathematisch denkende Physiker aber produziert aus den beiden Zeitstrecken (die eine und dieselbe, aber zugleich auch zwei verschiedene sein müssen) ein Zeitquadrat „ t² “ und definiert die Beschleunigung als „s / t² “. Da nun aber die einfache gleichmäßige Geschwindigkeit als Proportion s / t definiert ist, muß sich der mathematische Physiker die Beschleunigung nunmehr als eine Proportion einer räumlichen Strecke und einer zeitlichen Fläche vorstellen. Was aber eine zeitliche Fläche oder auch ein mit sich selbst multiplizierter Zeitbegriff „ t² “ bedeuten könnte, das wird er sich kaum vorstellen können (es sei denn, er nehme seine Zuflucht zu M. Heideggers Spekulationen über die „Zeitlichkeit der Zeit“). Er beachtet nur die extensionalen Quantifikationen seines Begriffs. Mit anderen Worten: Er hält sich daran, daß jede Einsetzung von Zahlen an die Stellen seiner Strecken- und Zeitparameter eine durch Division errechenbare Zahl (den Quotienten) ergibt, die ihm die Größe der jeweiligen Beschleunigung anzeigt. Und er beschwichtigt sein unzulängliches Vorstellungsvermögen mit der Meinung, es handele sich ja bei den Begriffszeichen um bloße Meßanweisungen („Dimensionen“) der jeweiligen Begriffskomponenten. Doch auch damit sind die dialektischen Einschüsse bei den physikalischen Geschwindigkeitsvorstellungen nicht erschöpft. Sie setzen sich in den Grundlagen der sogenannten Relativitätstheorie kosmischer Geschwindigkeiten fort. A. Einsteins „revolutionärer Sturz der klassischen Newtonschen Mechanik“ durch seine Relativitätstheorie beruhte grundsätzlich darauf, daß er die Lichtgeschwindkeit c als Naturkonstante postulierte. 42 Einstein trug damit den negativen Resultaten der Michelson-Morley-Experimente Rechnung, die darauf ausgerichtet waren, den Einfluß der Eigengeschwindigkeit von Lichtquellen auf die Geschwindigkeit der ausgestrahlen Licht-Quanten (oder Lichtwellen) festzustellen. Logischerweise hätte man erwarten können, daß sich die Geschwindigkeiten der jeweiligen Lichtquelle und des ausgestrahlten Lichtes addieren oder subtrahieren ließen, wenn sie sich auf einer und derselben Strecke bewegen. So, wie bekanntlich eine aus einem fliegenden Jet in Flugrichtung abgeschossene Rakete um den Betrag der Jet-Geschwindigkeit schneller fliegt, als sie es von einem stehenden Abschußgerät aus tun würde. Aber dies freilich unter der Voraussetzung, daß sich die sogenannten Lichtquanten wie nacheinander abgeschossene Raketen von der Lichtquelle entfernen. Paradigmatische Phänomene hatten sich vorher schon beim akustischen „Doppler-Effekt“ gezeigt: Das Motorengeräusch eines sich entfernenden Fahrzeugs klingt dumpfer oder tiefer, eines sich nähernden „höher“ als zum 42 Vgl. dazu H. A. Lorentz, A. Einstein, H. Minkowski, Das Relativitätsprinzip. Eine Sammlung von Abhandlungen mit einem Beitrag von H. Weyl und Anmerkungen von O. Sommerfeld. Vorwort von A. Blumenthal, 6. Aufl. Darmstadt 1958. 82 Zeitpunkt des Passierens. Und das wird erklärt als Verlängerung bzw. Verkürzung der Schallwellen, die beim Hörer eintreffen. Einstein postulierte nun zur Erklärung der negativen Befunde Michelsons und Morleys, daß sich das Licht ganz unabhängig von der Eigengeschwindigkeit der Lichtquelle immer mit gleicher Geschwindigkeit nach allen Richtungen hin ausbreite. Die Lichtausbreitung zeige also, anders als die Schallausbreitung, keinen Doppler-Effekt. Das war die Einsteinsche Idee von der absoluten „Konstanz der Lichtgeschwindigkeit nach allen Richtungen und unabhängig von der Eigenbewegung der Lichtquelle“. Ersichtlich war dies eine „paradoxe“ und mithin als Widerspruch in sich hinzunehmende Idee. Sie wurde von den meisten Physikern auch so verstanden. Was allerdings zeigt, daß sich in der Physik das dialektische Denken wenigstens in dieser Frage durchzusetzen begann. Es wurden seither zahlreiche weitere Dialektiken bzw. Widersprüche in der Relativitätstheorie entdeckt. Sie machen sich etwa als „Uhrenparadox“ bei der Abstimmung gegeneinander mit annähernder Lichtgeschwindigkeit bewegter Uhren bemerkbar (was freilich nur im Gedankenexperiment demonstriert wird). Die Relativitätstheorie verbietet auch, die Ablenkung von Lichtstrahlen („Perihelverschiebung“) im Gravitationsfeld kosmischer Massen als „Beschleunigung der Lichtgeschwindigkeit“ zu deuten. Einstein begründete das damit, daß der kosmische Raum insgesamt in Abhängigkeit von der Verteilung der Sternmassen in ihm „gekrümmt“ sei, so daß die krummen Linien dieser sogenannten (nicht-euklidischen) Minkowski-Räume eben als „gerade Linien“ des relativistischen kosmischen Raumes anzusehen seien. Nun haben die bekannten Rotverschiebungen im Spektrum des Lichtes weit entfernter Sterne, die man weiterhin analog zum akustischen Doppler-Effekt als Maß für die sich vergrößernde Entfernung solcher Sterne (und als Argument für eine fortschreitende Ausdehnung des Universums) benutzt, nicht dazu geführt, das Einsteinsche Postulat der Konstanz der Lichtgeschwindigkeit, das ersichtlich den Rotverschiebungen widerspricht, aufzugeben. Einstein selbst schlug vielmehr die „Relativierung“ der kosmischen Maßeinheiten vor. Alle Maßeinheiten für Entfernungsmessungen (auch der Lichtquellen!) sollen in Proportion zur Geschwindigkeit der Bewegung der Meßgeräte „kontrahieren“, d. h. kürzer werden, und dementsprechend sollen auch die Zeitperioden der Zeitmeßinstrumente „dilattieren“, also länger werden. Auch das ist für den Logiker nicht nachvollziehbar. Denn es wird ihm zugemutet sich vorzustellen, daß ein Metermaß, das er evtl. bei einem Raumflug (mit angenäherter Lichtgeschwindigkeit) mit sich führt, zugleich dasselbe bleibt und auch kürzer wird. Und daß die mitgeführte Uhr in gleichem Rhythmus weitertickt und zugleich langsamer geht. Physiker „erklären“ dies dem Laien so, daß der Raumfahrer bei der langsamer verstreichenden Zeit der Reise jünger bleibt als die zurückgebliebenen Erdbewohner (was ersichtlich die Raumfahrt attraktiv macht). Der Logiker aber wird dagegenhalten, daß die widersprüchliche Relativitätstheorie auch den gegentei- 83 ligen Schluß zuläßt. Der zurückbleibende Erdbewohner entfernt sich mit derselben Geschwindigkeit vom Raumschiff wie dieses von der Erde. Und so müssen auch die irdischen Uhren im Verhältnis zu den Uhren im Raumschiff langsamer ticken. Dialektisches Denken erlaubt es, beides zu beweisen. 1983 hat die (internationale) 17. Allgemeine Konferenz für Maße und Gewichte eine neue Längeneinheit (anstatt des Pariser „Urmeters“) als diejenige Strecke definiert, die das Licht im Vakuum in 1/299792458 Sekunden zurücklegt. „Damit wurde die Lichtgeschwindigkeit c als Naturkonstante endgültig festgelegt und die Längendefinition von der Zeitdefinition abhängig gemacht“.43 Man kann das eine Art apostolischer Definition nennen. Denn wenn die physikalischen Grundbegriffe Raum und Zeit durch die Lichtgeschwindigkeit definiert werden, kann man sie nicht mehr Grundbegriffe nennen und die Geschwindigkeit durch sie definieren. Ein anderer wichtiger physikalischer Begriff ist der Kraftbegriff. Er ist schon von Aristoteles in die Naturphilosophie eingeführt worden, und zwar im Zusammenhang seines Vier-Ursachenschemas der Erklärung von Veränderungen und Bewegungen der natürlichen Dinge (vgl. dazu § 18). Bei Aristoteles ist Kraft eine Disposition bzw. Anlage der toten und lebendigen Wesen, auf Grund ihrer „materialen Ursache“ (hýle, ὕλη, lat. materia) „Formen“ (morphé, μορθή, lat. forma) anzunehmen, die ihre dann veränderten Bewegungszustände bzw. ihre veränderten Gestalten als „aktuellen Zustand“ (energeia ἐνέργεια, lat. actus, dt. wörtlich “Beim-Werke-sein“ oder „Wirklichkeit“) anzeigen. Aristoteles nannte diese Eignung zur Aufnahme von Formen „Dynamis“ (δύναμις, lateinisch potentia, Kraft). Das blieb im späteren abendländischen Wortschatz als „Potenz“ und somit auch in der Bezeichnung von Kräften erhalten. Die Bezeichnung des jeweils „aktuellen“ Zustandes aber blieb im modernen Energiebegriff erhalten. Das Vier-Ursachenschema diente vor allem der Erklärung von natürlichen und (durch andere Körper) erzwungenen Bewegungen (ί, lat. motus) der irdischen und kosmischen Körper und legte insofern den Grund für eine „dynamische“ Physik bzw. physikalische Kinetik. Als „natürliche Bewegungen“ beschrieb Aristoteles die sinnlich beobachtbaren geradlinigen Bewegungen von erdhaften und flüssigen Substanzen zum Erdmittelpunkt, die geradlinigen Bewegungen von lufthaften und feurigen Substanzen in entgegengesetzter Richtung nach oben, schließlich die Bewegungen der Gestirne auf „vollkommenen“ Kreisbahnen. Diese natürlichen Bewegungen erklärte Aristoteles durch teleologische Ursachen (ηέ, causa finalis), die das „Ziel“ dieser natürlichen Bewegungen als ihren „heimatlichen Ort“ (ἰκῖ ηóπος oikeios topos) bestimmten. Als „Entelechie“ (ἐνηελέτεια, lat. impetus, tendentia, „inneres Streben“) bezeichnete er die ständige Ausrichtung des bewegten Körpers bzw. des sich verändernden Lebewesens auf dieses Ziel hin. Vermutlich hat ihm dafür 43 R. Knerr, Goldmann Lexikon Mathematik, Gütersloh und München 1999, S. 247. 84 die beständige Ausrichtung einer Magnetnadel auf einen Magneten bei allen Lageveränderungen als Modell für das Entelechiekonzept gedient. „Erzwungene Bewegungen“ ergaben sich bei Aristoteles durch die Berührungen und Kreuzungen der natürlichen Bewegungen der Körper. Wobei der Eingriff des Menschen in diese natürlichen Bewegungen selbst das deutlichste anschauliche Beispiel für das Bewirken von Veränderungen wurden. Die erzwungenen Bewegungen werden durch eine Wirkursache (ὅ ἡ ἀὴ ηῆ ή, „woher der Ursprung der Bewegung“, causa efficiens) hervorgebracht. Ein Stoß oder Druck (πή, lat impulsus, „Einschlag“) verleiht einem Körper eine Bewegung in eine Richtung, die von der natürlichen ungezwungenen Tendenz zu seinem „heimatlichen“ Ziel abweicht. Die durch Wirkursachen hervorgerufenen Bewegungen stören also die natürlichen Bewegungen. Dies aber nach Aristoteles nur solange, bis die natürlichen Bewegungen der Substanzen wieder bestimmend werden und diese ihre natürlichen Ziele „anstreben“. Das ist von der neuzeitlichen Newtonschen Physik im Begriff der Trägheitskraft als Beharren in einer ungestörten geradlinigen Bewegung sowie als Beharren in „Ruhe“ beibehalten worden. Bis in die Spätscholastik wurde das aristotelische Vier-Ursachenschema soweit ausgebaut, daß die vier Ursachen die Interventionen der Körper untereinander auf folgende Weise erklärten: die materielle Ursache erklärte überhaupt die Existenz eines oder mehrerer Körper. Die formale Ursache erklärte ihre Gestalt. Die kausale Ursache wirkte als „Einschlag“ (impulsus) eines Körpers auf einen anderen in direkter Berührung, wodurch eine Kraft (potentia) übertragen wurde. Und die Finalursache bewirkte als sogenannter Impetus (lat. intus petere, wörtlich: inneres Streben oder Tendenz) die Einhaltung der natürlichen Bewegung, die ggf. durch einen Impuls gestört wurde. Die neuzeitliche Physik entwickelte sich aus dem Zusammentreffen dieser aristotelischen (nicht-mathematischen und sozusagen phänomenologischen) Physik mit der neuplatonischen Phänomen- und Geisterlehre und ihrer teilweisen Durchdringung. Der Platonismus aber brachte auch die Mathematisierung in die neuzeitliche Physik. Die neuplatonischen Geister (Engel) galten als die „Ausflüsse“ (Emanationen) aus dem göttlichen Schöpfergott. Wie Gott die Welt geschaffen hat, so wirken auch diese Geister unsichtbar auf die sinnlichen Erscheinungen ein. Die Veränderungen in der körperlichen Naturwelt wurden alsbald neuplatonisch in der aristotelischen Terminologie von Kräften (Potenzen, Energien und Entelechien) erklärt. Neuplatonischen Physikern war es daher selbstverständlich, daß man diese Kräfte nicht sinnlich beobachten und wahrnehmen, sondern nur auf Grund ihrer Wirkungen erschließen konnte. Und die Ausbreitung des neuplatonischen Denkens in weiteren Kreisen führte gleichzeitig mit der Entwicklung der modernen Physik zu einem wuchernden Gespenster- und Hexenglauben in der Bevölkerung. Die Unbeobachtbarkeit der Kräfte und Energien blieb seither ein neuplatonisches Erbstück der neuzeitlichen Physik. Man nennt derartiges heute „unbeobachtbare Parameter“. Da man sie nur aus ihren Wirkungen erschließen können 85 sollte, wies man den beobachteten natürlichen und erzwungenen Bewegungsformen des Aristoteles jeweils diese Kräfte als Wirkursachen zu. Und das veränderte die aristotelische Erklärungsweise mittels des Vier-Ursachenschemas. Das neuzeitliche Methodenbewußtsein der Physiker stellt als wesentliche Veränderung und als wissenschaftlichen Fortschritt die Eliminierung der (aristotelischen) teleologischen Ursachen zugunsten reiner „Kausalerklärungen“ (allein mittels der causa efficiens) heraus. Das ist jedoch eine falsche Ansicht späterer Naturwissenschaftler, die das aristotelische Vier-Ursachenschema als überholt ansahen und dabei die tatsächliche Rolle des aristotelischen Entelechie- und Impetusbegriffs mißverstanden. Zwar verschmähte man den Terminus „Entelechie“ zusammen mit der „causa finalis“ und schnitt diese Terminologie gleichsam mit dem Ockhamschen Rasiermesser aus dem physikalischen Sprachgebrauch heraus, weil man sie für „überflüssige“ Reminiszenzen an Spuk- und Geistereinflüsse in die Naturwelt hielt. Tatsächlich aber wurden sie unter anderen Bezeichungen in die Grundlagen der modernen Physik übernommen. In neuer Terminologie sprach man nun von der „Kraft der Beharrung im Zustand entweder der Ruhe (Trägheits- bzw „Faulheits“-Kraft) oder der ungestörten gleichformigen und geradlinigen Bewegung“ (I. Newton). Sowohl die „Ruhe“ als auch die „geradlinige Bewegung“ wurden so als die einzig übrigbleibenden „natürlichen Bewegungen“ des Aristoteles beibehalten und durch die „Trägheitskraft“ (als Nachfolger der „Entelechie“) erklärt. Die Kreisbewegungen (zugleich mit allen Bewegungsformen gemäß den geometrischen Kegelschnitten) aber wurden nunmehr als erzwungene Bewegungen angesehen und mußten „kausal“ (ausschließlich durch Wirkursachen) erklärt werden. Als materielle Ursache galt weiterhin die Materie. Von Demokrit und Epikur übernahm man die Bezeichnung „Atom“. Die Atome aber wurden dann zu „Korpuskeln“ und schließlich zur physikalischen „Masse“ („m“). Definiert wurde die Masse zuerst mittels ihrer (natürlichen teleologischen) Entelechie, sich auf den Erdmittelpunkt hin zu bewegen, was man dann ihre „Schwere“ oder „Gewicht“ nannte. Nachdem die sogenannte kopernikanische Revolution aber die Erde zu einem „Himmelskörper“ neben den anderen (Planeten, Sonne und alle Sterne) erklärt hatte, wurde die „Erdenschwere“ zu einer allgemeinen Bestimmung aller Himmelskörper im gegenseitigen Verhältnis zueinander. Die „Schwere“ wurde zu einer Entelechie aller Himmelskörper. Die berühmte „Gravitationskraft“ (Schwerkraft oder Anziehungskraft) der Massen Newtons, die dieser bekanntlich weder erklären wollte noch konnte, resultierte aus der Verallgemeinerung der alten aristotelischen „natürlichen“ Bewegungsrichtung der „schweren“ Massen untereinander. Die Interventionen der kosmischen und sublunarischen Körper wurden dadurch zu einem Kräftespiel der Beharrungs- und Veränderungskräfte, das man nur an ihren Bewegungen ablesen konnte. Es kam alles darauf an, eine Darstellungsweise einzuführen, die die Identität der beobachtbaren Körper, ihrer Bewegungen, Geschwindigkeiten, Beschleunigungen mit ihren Potenzen zu formulieren ge- 86 stattete. Das war die mathematische Gleichungsform und ihre Eignung zur Definition quantifizierter Größen. Was man dabei als Kraft definieren sollte, darüber bestand lange keine Übereinstimmung unter den Physikern. Descartes und seine Schule schlugen vor, die physikalische Kraft als m × s / t. (d. h. „Massen-Geschwindigkeit“) zu definieren: also K = m × v. Das ist auch so beibehalten worden. Aber die Kraft des bewegten Körpers ließ sich so nur für geradlinige und gleichförmig bewegte Körper bestimmen. Man hatte es aber in vielen und interessanten Fällen mit beschleunigten und nicht auf geraden Linien bewegten Körpern zu tun. Hierzu machte man Gebrauch von den Definitionsgleichungen der Beschleunigungen, die wir vorn schon behandelt haben. Es war Leibniz, der dafür den Begriff der „lebendigen Kraft“ (vis viva“ vorschlug, weil sich solche unregelmäßigen Bewegungen augenfällig bei Lebewesen beobachten ließen. Das wurde zunächst angenommen und mit dem gleichsam brachliegenden aristotelischen Begriff der Energie („E“) benannt. Die Definition der Energie bei Leibniz und seinen Zeitgenossen lautete E = m × v². Auch dies wurde festgehalten, wie man noch bei Einstein sieht, der die (gesamte kosmische) Energie als „E = m × c² “ (Masse multipliziert mit dem Quadrat der Lichtgeschwindigkeit c) definierte. Daß es den Physikern aber auf die rein quantitativen Bestimmungen dabei nicht allzu sehr ankam, sieht man daran, daß Jean LeRond d‟Alembert schon im 18. Jahrhundert und G. C. Coriolis 1829 die Leibnizsche Definition durch den Faktor ½ korrigieren wollten und die Energie somit als „ ´ m × v² “ definierten. Diese Korrektur berücksichtigt die Entdeckung der „Calculatores“ (Rechenkünstler) des Oxforder Merton-Colleges in der Scholastik, wonach die Endgeschwindigkeit einer gleichmäßig beschleunigten Bewegung der „mittleren“ Durchschnittsgeschwindigkeit entspricht.44 Diese Definitionen typischer physikalischer Begriffe zeigen, daß in der Physik die Berechnungsweisen von Meßdaten der Grundgrößen von Zeit- und Raumstrecken in die intensionalen Definitionen der jeweiligen komplexeren Begriffe übernommen werden. Logisch aber besteht doch Bedarf, über die Tragweite und Sinnhaftigkeit dieses Verfahrens genauere Klärungen herbeizuführen. So ist es schon logisch fragwürdig, Proportionen zwischen irgendwelchen Größen, die als Quotientenbegriffe dargestellt werden, grundsätzlich auszurechnen. Bei den Geschwindigkeiten hat man sich daran gewöhnt. Aber wer würde etwa das Ergebnis eines Fußballspiels von 6 : 2 Toren als 3 Tore angeben? Ganz abgesehen davon, daß dasselbe Torverhältnis auch als 2 / 6 = 0, 333... „ oder „1/3“ angegeben werden könnte. Noch fragwürdiger erscheinen die mathematischen Potenzierungen von Begriffen, in denen logisch ja ohne Zweifel Begriffe mit sich selbst zu neuen Begriffen vereinigt werden. Auch an dieses Verfahren hat man sich seit Euklids Zeiten 44 Vgl. dazu M. Jammer, Art. „Energie“, in: J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 2, BaselStuttgart 1972, Sp. 494 - 499. 87 durch die Definitionen von Flächen (a²) und Körpern (a³) durch Potenzierung ihrer Seitenlängen gewöhnt. Aber man hat nicht darauf geachtet, daß das Meßverfahren, einen Maßstab a an zwei bzw. drei ganz verschieden ausgerichtete (im rechten Winkel zueinanderstehende, d. h. vektoriell verschiedene) Seiten eines Quadrats oder eines Kubus anzulegen, keineswegs darauf schließen läßt, daß eine Quadratfläche aus der 2. Potenz des Begriffs Strecke bzw. ein Kubus aus der 3. Potenz einer Strecke hervorgehen könnte. Und somit erst recht nicht bei nichteuklidischen Flächen und Körpern. Es kann nur diese Denkgewohnheit sein, die dem Physiker auch Begriffe wie Zeitquadrat oder Geschwindigkeitsquadrat in irgend einer Weise als „rationale“ Denkhilfe bei seinen Begriffen erscheinen lassen. Geht man der historischen Entwicklung dieser Denkgewohnheit in Potenzen nach, so stößt man auf „logische“ Begriffsbildungen, die als „Reflexionsbegriffe“ bekannt geworden sind und seit jeher als rätselhaft gelten. Der Prototyp scheint des Aristoteles „noesis noeseos“, d. h. „Denken des Denkens“ gewesen zu sein. Aristoteles hielt das „Denken des Denkens“ für eine nur einem Gotte zukommende Fähigkeit. Aber später machte dieser Reflexionsbegriff als „Selbst-Bewußtsein“ auch bei minderen Geistern bedeutend Fortüne. Raimundus Lullus (um 1235 – 1315) hat in seiner Ars Magna schon jede Menge anderer Begriffe in dieser Weise mit sich selbst potenziert. Auch Charles Bouillé (Carolus Bovillus, 1470 - ca. 1553, ein seinerzeit berühmter Logiker aus der Schule des Petrus Ramus (Pierre de la Ramée) hat - freilich recht beiläufig vorgeschlagen, eine produktive Verschmelzung eines Begriffs mit sich selbst in die Logik einzuführen. Er schlug vor, den ersten Menschen Adam als „homo“, Eva als aus dem ersten Menschen gemacht als „homo-homo“ und Abel als dritten Menschen und gemeinsames Produkt der Eltern als „homo-homo-homo“ zu bezeichnen.45 Aber bekanntlich wurden solche Vorschläge von den Logikern niemals ernst genommen, wohl aber von Leibniz. Und Leibniz hat maßgeblich daran mitgewirkt, diese „mathematische Begriffsbildung“ für „logisch“ und selbstverständlich zu halten. Die Dialektik in der mathematischen und physikalischen Begriffsbildung ist gewiß nicht allen Mathematikern und Physikern entgangen. 46 Aber die meisten halten die entdeckten Widersprüche und Paradoxien für Probleme, die auf dem Wege künftiger Forschung durch widerspruchslose Lösungen zu überwinden seien. Manche jedoch, wie etwa der Nobelpreisträger Richard P. Feynman, behaupten, daß z. B. die Quantenphysik – im Unterschied zum logischen Commonsense – der „Absurdität“ (d. h. Widersprüchlichkeit) der Natur Rechnung tragen müsse: 45 Carolus Bovillus, Liber de Sapiente, im Nachdruck der Ausgabe seiner Schriften Paris 1510, Stuttgart-Bad Cannstatt 1970 (erst 1973 erschienen) S. 132. 46 Zum Widerstand einiger Philosophen und Logiker gegen Riemanns mehrdimensionale Raumtheorie vgl. R. Torretti, Philosophy of Geometry From Riemann to Poincaré, Dordrecht-Boston-London 1978, Chap. 4, 1: „Empiricism in Geometry“ und 4,2: „The Uproar of Boeotians“, S. 255 – 301. 88 „Die Theorie der Quanten-Elektrodynamik beschreibt die Natur vom Standpunkt des Commonsense als absurd. Und sie stimmt gänzlich mit den Experimenten überein. So hoffe ich, daß Sie die Natur als das akzeptieren können, was sie ist, - absurd“.47 Und offensichtlich in der Meinung, solche Widersprüchlichkeiten ließen sich weder denken noch verstehen, sagt er an anderer Stelle: „Ich denke man kann mit Sicherheit sagen, daß niemand die Quantenmechanik versteht“.48 Andere wie N. D. Mermin umschreiben den Sachverhalt als „magisch“: „Das Einstein-Podolski-Rosen-Experiment kommt der Magie so nahe wie jedes physikalische Phänomen, das ich kenne, und an Magie sollte man sich erfreuen“.49 Paul Marmet, dem diese Äußerungen (in meiner Übersetzung) entnommen sind50, bucht solche Widersprüche gänzlich auf das Konto der sogenannten Kopenhagener Schule Niels Bohrs und ihre (angeblich auf George Berkeley gründende) idealistische Erkenntnistheorie. Er glaubt, sie alle durch einen entschiedenen Realismus und Rationalismus „lösen“ zu können. Die Mathematik aber nimmt er gänzlich von dem Vorwurf aus, sie könne für diese Widersprüche verantwortlich sein. Für ihn „bildet der mathematische Formalismus, der in der Physik gebraucht wird, wahrscheinlich dasjenige, was das kohärenteste und logische interne System ist, welches es in der Wissenschaft gibt“ (ibid. S. 20). Da irritiert ihn nicht einmal Werner Heisenbergs Eingeständnis, daß die „Paradoxien der dualistischen Wellen- und Teilchenvorstellungen“ in der Mikrophysik „irgendwie im mathematischen (Denk-)Schema verborgen liegen“.51 Kommen wir nach den Beispielen der physikalischen Begriffsbildung zu den Gemeinsamkeiten und Unterschieden, die zwischen Logik und mathematischer Logik bzw. Mathematik hinsichtlich ihrer Urteilsbildung oder Aussageformen bestehen. Auch sie sind beträchtlich. Gemeinsam ist der logischen wie der mathematischen Methodologie, daß sie die Urteils- bzw. Aussageformen (Propositionen, engl.: propositions) als Mittel der Formalisierung von wahren und falschen Behauptungen, darüber hinaus auch von Wahrscheinlichkeiten behandeln. Für diese Formalisierungen werden bestimmte Junktoren benutzt, durch welche die jeweiligen Begriffe verknüpft werden. Die gemeinsame Vorlage, gleichsam das Muster dafür, ist der reguläre grammatisch wohlgebildete sprachliche Behauptungssatz: „Irgend etwas ist (oder verhält sich) so“. 47 R. P. Feynman, The Strange Theory of Light and Matter, Princeton University Press , N. J., 1988, S. 10. R. P. Feynman, The Character of Physical Law, 1967, S. 129. 49 N. David Mermin, „Is the Moon There when Nobody Looks? Reality and Quantum Theory“, in: Physics Today, April 1985, S. 47. 50 P. Marmet, Absurdities in Modern Physics: A Solution, or: A Rational Interpretation of Modern Physics, Ottawa 1993. 51 W. Heisenberg, Physics and Philosophy, the Revolution in Modern Science, New York 1966, S. 40, zit. bei Marmet S. 24. 48 89 In der Logik ist der Hauptjunktor für behauptende Urteile bzw. Sätze die sprachliche Partikel „ist“, die sogenannte Kopula geblieben. Sie wird daher auch seit jeher schlechthin „Verknüpfungsjunktor“ (lat.: copula) genannt. Und in Anknüpfung an die logische und sprachliche Verwendung der Kopula wurde auch in der Mathematik das „ist“ beibehalten. Allerdings mit einer entscheidenden Einschränkung, die mit der Behauptung der „Gleichheit“ ausgedrückt wird. Die Behauptungsformel in der Mathematik lautet also „irgend etwas ist gleich einem anderen etwas“. Der Verfasser gesteht bei dieser Gelegenheit gerne, daß er sich im mathematischen Grundschulunterricht – weil im Deutschen „gleich“ auch „sofort“ bedeutet - eine zeitlang zu der Meinung verführen ließ, die Mathematiker hätten es mit ihren Gleichungen nur auf Schnelligkeit des Denkens, d. h. „sofortige“ Ausrechnungen der Gleichungen angelegt. Nun wird diese mathematische Gleichheitsaussage seit jeher für eine exaktere Form der logischen kopulativen Sätze gehalten. Wie das von Ch. S. Peirce und H. Weyl begründet wurde, ist schon im vorigen Paragraphen gezeigt worden. Man sieht das auch an dem laxen Sprachgebrauch vieler Mathematiker, die ihre Gleichungen auch in der Form „a ist b“ oder ähnlich lesen. Und so findet man zwischen Descartes und Kant immer wieder mathematische Gleichungen als Beispiele für besonders klare und exakte Urteile angeführt. Berühmt ist das schon erwähnte Beispiel Kants für das, was er für ein „synthetisches Urteil a priori“ hielt, nämlich die Gleichung „7 + 5 = 12“.52 Der logische kopulative Behauptungssatz drückt jedoch in keiner Weise irgend eine Gleichheit zwischen einem Subjekt und einem Prädikat aus. Handele es sich, um mit Kant zu reden, um analytische oder synthetische Urteile, so wird in ihnen durchweg gerade eine Ungleichheit zwischen Subjektsbegriff und Prädikatsbegriff vorausgesetzt. Nämlich dadurch, daß („analytisch“) eine Eigenschaft (ein Merkmal), das sich neben anderen Merkmalen im Subjektbegriff findet, eigens herausgestellt und betont wird, oder daß es („synthetisch“) zu den Merkmalen des Subjektsbegriffs hinzugefügt wird. In mathematischen Gleichungen stehen jedoch die Ausdrücke links und rechts vom Gleichheitszeichen in keinerlei logischem Subjekt-Prädikatverhältnis. Durch die Gleichung wird vielmehr die vollkommene logische Identität der Bedeutungen der Ausdrücke links und rechts vom Gleichheitszeichen zum Ausdruck gebracht. Und deswegen kann eine mathematische Gleichung keineswegs eine exaktere Form eines logischen kopulativen Urteils sein. Die Gleichung ist in der Tat eine „Aussageform“, die in der klassischen Logik ebenfalls immer benutzt worden ist, nämlich eine sogenannte Äquivalenz. Die Gleichung bzw. Äquivalenz geht vermutlich auf den philologischen Brauch zurück, in den Wortlisten und späteren Sprachlexika Wörter verschiedener Sprachen mit identischer Bedeutung nebeneinander anzuordnen, wobei das Gleichheitszei52 I. Kant, Kritik der reinen Vernunft, A 164, sowie Einleitung B 16 und B 205; auch in den Prolegomena, Vorerinnerungen § 2, c. 90 chen eingespart wird (z. B. Armut = Pauvreté). Dasselbe Verfahren der Nebeneinanderstellung wurde und wird aber auch innerhalb einer und derselben Sprache bei den sogenannten Synonymen verwendet, also bei verschiedenen Wörtern oder Ausdrücken, die dasselbe bedeuten. Die logische Form dieser Äquivalenzen ist dann zur Standardform der logischen Begriffsdefinition geworden. Es kommt hierbei ausschließlich darauf an, einen (durch ein Wort bzw. Term bezeichneten) Begriff dadurch zu erläutern, daß seine Merkmale (Intensionen) und sein Anwendungsbereich (die Extension) deutlich werden. Auch die aristotelische Standarddefinition durch Angabe der generischen und spezifischen Merkmale bezweckt nichts anderes. Nun kann man freilich auch den Logikern den Vorwurf nicht ersparen, daß sie den Unterschied zwischen kopulativen Behauptungen und definitorischen Erläuterungen (Äquivalenzen) nicht immer bemerkt und beachtet haben. Kennzeichnend dafür ist, daß man etwa die sogenannten Subalternationen, bei denen „einige“ und „ein“ Exemplar einer Gattung (also eine von mehreren Arten und ein bestimmtes Individuum einer Gattung) definiert werden, für partikuläre und individualisierende „Urteile“ mit einem bestimmten Wahrheitswert hält. Hält man den Unterschied zwischen kopulativen behauptenden Urteilen der Logik und gleichungsmäßigen Definitionen der Mathematik fest, so muß man auch einsehen, daß die mathematischen Gleichungen in ihrer regulären Verwendung nur Definitionen mathematischer Begriffe und Ausdrücke sein können. Und das muß dann auch für die Anwendungen mathematischer „metrischer Begriffe“ in den mathematisierten Wissenschaften, insbesondere in der Physik gelten. Es gilt also mit dem epochalen Mißverständnis Schluß zu machen, mathematische Gleichungen wie „3 ∙ 3 = 9“ oder physikalische wie „s / t = v“ seien überhaupt Urteile bzw. Behauptungen, die mit Wahrheit oder Falschheit in Verbindung zu bringen seien. Es sind vielmehr Definitionen von Begriffen und evtl. Ausdrücken, denen ein Terminus zugeordnet wird. Und die dadurch eingeführten Begriffe sind teils durch ihr Alter, teils durch Auswendiglernen in der Alltagssprache sanktioniert worden. Da es sich dabei um Ausdrücke und Begriffe handelt, haben sie logisch also keinen sogenannten Wahrheitswert. Das kann allerdings nicht heißen, daß der Umgang und die Beherrschung solcher Ausdrücke und Begriffe immer so leicht wie beim Auswendiglernen eines Vokabulars oder des kleinen Einmaleins wären. Jede Rechenaufgabe in der Form einer Gleichung mit größeren Zahlen und/oder komplexeren Rechenanweisungen stellt gegebenenfalles eine große Herausforderung dar. Aber ein nach allen Regeln der praktischen Rechenkunst erzieltes Rechenergebnis als wahre Erkenntnis oder neues Wissen zu deuten, geht an den logischen Tatsachen vorbei. Und das gilt auch in den Fällen, wo die praktische Rechenkunst bei Nicht-Aufgehen von Rechnungen dazu geführt hat, immer neue Zahlarten (wie die negativen Zahlen beim Subtrahieren über die Null hinaus, oder die imaginären Zahlen beim Wurzelziehen aus negativen Zahlen) zu definieren. 91 Der Übergang zu etwas anderem als Begriffsdefinitionen liegt allerdings dort vor, wo Mathematiker und Physiker sich in Prosatexten ohne Gleichungsformeln äußern oder zu solchen Äußerungen veranlaßt werden. Hier müssen sie mittels Behauptungen gleichsam Farbe bekennen, nämlich über das, was sie für wahr und/oder falsch halten. Dabei unterliegt aber die Prüfung von Wahrheit und Falschheit ausschließlich logischen Kriterien. Und das zeigt, daß letzten Endes auch Mathematik und Physik in ihren Einsichten, Erkenntnissen und Theorien auf die klassische Logik verpflichtet werden können und müssen. Der Unterschied zwischen der logischen und mathematischen Denkweise reduziert sich dadurch auf professionelle Voreingenommenheiten bezüglich ihrer Textsorten. Denn der Logiker achtet auf die grammatische und logische Korrektheit der mathematischen und ggf. physikalischen Behauptungen und sucht in den mathematischen Formeln allenfalls Erläuterungen dazu, falls er sie nicht gänzlich überschlägt. Der Mathematiker und Physiker aber geht davon aus, daß sich der Behauptungsgehalt am deutlichsten und exaktesten in den angeführten Gleichungen darstelle, und daß alles Reden darüber nur eine mehr oder weniger einleuchtende Interpretation sei. Und dies kann nach allem, was über Gleichungen zu sagen war, nur als Selbsttäuschung bezeichnet werden. Die Lage kompliziert sich dadurch, daß es bei logischen Urteilen mit der zweiwertigen Logik von „wahr“ und „falsch“ nicht getan ist. Hinter dem Thema dreiund/oder mehrwertiger Logiken verbergen sich mehrere Problematiken, von denen man kaum wird sagen können, daß sie bis jetzt angemessen geklärt geschweige denn gelöst sind. Zunächst hat man damit zu rechnen, daß in der Wissenschaft neben manifest wahrem und methodisch falsifiziertem falschem Wissen, das in klaren Behauptungen formuliert wird, vielerlei in Vermutungen, Hypothesen, Konjekturen und – wie eingangs schon behandelt – in der Gestalt von Glauben und Intuitionen artikuliert wird. Das mag noch mancher vorsichtige Forscher in seinen Reden und Texten im sprachlichen Konjunktiv oder mittels verbaler Relativierungen des Behauptungscharakters wie „könnte“, „dürfte“, „sollte“, „möglicherweise“ u. ä. formulieren. Hat er aber logische oder mathematische Ambitionen, so kann er nicht auf die nichtbehauptende Satzform der Vermutung zurückgreifen, denn weder in der Logik noch in der Mathematik gibt es einen Konjunktiv. Also bleibt ihm gar nichts anderes übrig, als seine Vermutungen in der behauptenden Urteilsform oder mathematisch in der vermeintlich behauptenden Gleichungsform auszudrücken. Auf diese Weise formulierte Vermutungen zielen naturgemäß auf die Wahrheit. Und deshalb zeigen sie vor allem, was der Autor für wahr hält, viel weniger aber, was er eventuell für falsch halten könnte. Und deswegen wiederum spricht man angesichts solcher Vermutungen von „Wahrscheinlichkeit“. In welchem Begriff ja der Wahrheitsanspruch und zumindest eine gewisse Wahrheitsnähe prätendiert wird. Es „scheint so“, als sei die Wahrheit in der Vermutung schon enthalten. Man weiß natürlich, daß eine Vermutung gelegentlich auch bestätigt wird, und das gilt 92 als „Verifikation“ bzw. Wahrheitsbeweis. Aber ebenso weiß man auch, daß eine Vermutung gänzlich „daneben liegen“ kann. Aber dafür gibt es bisher leider keinen gleichwertigen Begriff der „Falschscheinlichkeit“ von Vermutungen. Dies waren und sind sicher genügend ernsthafte Gründe, die Wahrscheinlichkeit in der Logik als einen dritten „Wahrheitswert“ auszuzeichnen und ihn in der mathematischen Wahrscheinlichkeitslehre noch numerisch zu einem Kontinuum von „Wahrscheinlichkeiten“ zu spreizen. Wir gehen nun davon aus und haben schon früher gezeigt (vgl. Logik, Aalen 1987), daß die „Wahrscheinlichkeit“ von Vermutungen, aber dann auch in der logischen Form der Behauptung, nichts anderes ist als ein „zugelassenes Drittes“ zwischen und neben den wahren und falschen Behauptungen. Ebenso wurde schon gezeigt, daß dieses „Dritte“ mit dem „Widerspruch“ identisch ist und also „Wahr-Falschheit“ genannt werden sollte. Die Widersprüche im Wahrscheinlichkeitsbegriff erweisen sich anhand von mehren Charakteristika, die man leicht auch als Paradoxien formulieren kann. Auch bezüglich der Wahrscheinlichkeitskonzepte halten sich die Unterschiede zwischen logischem und mathematischem Denken durch. Logische Wahrscheinlichkeit ist stets symmetrisch wahr und falsch zugleich; mathematisch-numerische Wahrscheinlichkeit spreizt die Wahrheit und Falschheit zu unterschiedlich quantifizierten Anteilen auf, bzw. sie geht davon aus, daß dies so wäre. Gleichwohl liegt die logische nicht-quantifizierbare Wahrscheinlichkeit auch jeder mathematischen Wahrscheinlichkeit zugrunde. Wegen der großen Wichtigkeit der Wahrscheinlichkeit und ihrer immer noch recht undurchsichtigen Natur, soll ihr ein eigener § 11 gewidmet werden. 93 § 9 Die logischen und mathematischen Elemente Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion. Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik. Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre. Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit Ausgehend vom Primat der Logik auch für das Verständnis der elementaren mathematischen Begriffe, seien im Folgenden die logischen Elemente vorgestellt und erläutert. Soweit möglich, seien dann auch die elementaren mathematischen Elemente im Vergleich mit den logischen vorgestellt und ggf. auf diese zurückgeführt. 1. Begriffe und ihre logische Konstruktion Begriffe und ihre Bildung und Handhabung sind grundlegend für alle Wissenschaften. Jede Wissenschaft ist durch die Anzahl und logische Qualität an Klarheit und Deutlichkeit ihres Begriffsbestandes grundsätzlich bestimmt und begrenzt. Über ihren eigentlichen Begriffsbestand hinaus verfügt jedoch jede Wissenschaft über einen mehr oder minder umfangreichen Vorrat an bildungssprachlichen Wörtern. Diese tragen zu einem mehr oder weniger klaren Vorwissen über den thematischen Bereich bei, auf den sich die jeweilige Wissenschaft bezieht. Die Bildungssprache liefert allerdings in der Regel nur „Bedeutungen“ der jeweiligen thematischen Wörter, die gewöhnlich in den allgemeinen sprachlichen Lexika verzeichnet sind. Selten oder gar nicht liefert sie zugleich auch Vorwissen über die Extensionen bzw. Umfänge, die in den eigentlichen wissenschaftlichen Begriffen unabdingbar damit verbunden sind, und durch die alle relevanten Begriffe in einer „theoretischen“ bzw. wissenschaftlichen Allgemeinheitshierarchie untereinander verknüpft werden. Begriffe sind keine „Einheiten“, wie es die alphabetischen Fachlexika und die üblichen Formalismen insinuieren. Vielmehr sind sie mittels ihrer Bedeutungen (Intensionen) und Umfänge (Extensionen) untereinander verknüpfte Hierarchien von Themen- und Verweisungskomplexen des wissenschaftlichen Wissens. Die hierarchische Ordnung eines wissenschaftlichen Begriffsbestandes drückt sich im Allgemeinheitsgefälle von Gattung, Art, Unterart, Unter-Unterart usw. bis zu untersten Begriffen als „Kennzeichnungen“ individueller Fakten und Daten aus. Ihre hierarchische Struktur wird in Begriffspyramiden (den umgekehrten „porphyrianischen“ Begriffsbäumen) sichtbar. Obere (allgemeinere) Begriffe teilen ihre Bedeutungen – hier durch Buchstaben bezeichnet - allen in ihrer Extension liegenden unteren Begriffen als „generische Merkmale“ in identischer Weise zu. 94 Untere Begriffe aller Stufen enthalten zusätzlich als „spezifische Differenzen“ weitere Bedeutungsmerkmale. Dies läßt sich in einem pyramidalen Formalismus für die regulären (widerspruchslosen) Begriffe eines Themenkomplexes darstellen. Links in den Kreisen (Begriffspositionen) werden die generischen Merkmale notiert, rechts außen stehen die spezischen Differenzen. Extensional-dihäretische Begriffspyramide mit eingeschriebenen Intensionen Extensional-multiple Begriffspyramide mit eingeschrieben Intensionen A AB ABD A AC ABE ACF AB ACG ABF ABG AC AD ADH ADI AE ADJ 2. Die Gewinnung von regulären Begriffen durch Induktion Eine reguläre Begriffspyramide zeigt, was eine logische Induktion (Epagogé) bzw. begriffliche Abstraktion ist. Merkmalsreiche unterste Begriffe werden verglichen und darauf hin geprüft, welche Merkmale in ihnen gleich sind, d. h. Identitäten darstellen, und worin sie sich spezifisch unterscheiden. Identische Merkmale werden hierbei durch gleiche Buchstaben dargestellt. In höheren bzw. allgemeineren Begriffen werden sie zusammengefaßt und wiederum entsprechend überprüft. Zuletzt wird die jeweils höchste Gattung für den Prüfbereich gebildet, die mindestens ein allen Unterbegriffen gemeinsames Merkmal enthält. Diese Induktion zur Begriffsbildung ist immer vollständig. Die Induktion legt keine bestimmte Abstraktionsrichtung zu bestimmten Oberbegiffen fest. Jedes beliebige Merkmal läßt sich für die Wahl einer Induktionsrichtung (Verallgemeinerung) benutzen. Durch die Merkmalswahl wird ein Induktionsrahmen festgelegt. Durch die verschiedenen Induktionsrahmen unterscheiden sich verschiedene Theorien über demselben Erfahrungsbereich. Drei verschiedene Induktionen mögen das an einem inhaltlichen Beispielen zeigen: 1 2 AB Sokrates = ein philosophischer Grieche C B A ABC 3 BA BAC Sokrates = ein griechischer Philosoph CB CBA Sokrates = einer der „Sokrates“ genannten Personen unter den philosophischen Griechen Merkmale bzw. Intensionen: A = griechisch B = philosophisch C = sokratisch 95 Erläuterung: In 1 wird „Griechentum“ als Induktionsrahmen gewählt, innerhalb dessen „einige Griechen“ Philosophen, einige (d. h. alle anderen) Nicht-Philosophen sind. „Sokrates“ wird als „ein philosophischer Grieche“ definiert. In 2 wird „Philosoph“ als Induktionsrahmen gewählt. „Einige Philosophen“ sind Griechen, einige sind Nicht-Griechen. Sokrates wird als „ein griechischer Philosoph“ definiert. In 3 bilden „alle Sokrates“ genannten Individuen den Induktionsramen, von denen „einige Philosophen“, einige Nicht-Philosophen sind. Sokrates wird als „einer der ‚Sokrates„ genannten philosophischen Griechen definiert. Schon beim Thema Induktion zeigt sich ein wesentlicher Unterschied der logischen und mathematischen Auffassung. Von der logischen Induktion, wie sie durch Platon und Aristoteles als „Epagogé“ („Hinführung zum Allgemeinen“) eingeführt wurde, ist zu zeigen, daß sie immer „vollständig“ ist. Schon von einer individuellen Instanz aus (wie Wilhelm von Ockham mit Recht bemerkte und wie die obigen Beispiele zeigen 53) läßt sich durch Weglassen spezifischer Differenzen ein Allgemeinbegriff induzieren. Dessen Merkmale bestimmen dann, welche anderen bekannte oder noch unbekannte Instanzen entweder dieselben Merkmale des induzierten Allgemeinbegriffs aufweisen und deswegen „unter ihn fallen“ oder mangels dieser Merkmale nicht unter ihn fallen. Es kann bei der Induktion also keinesfalls darauf ankommen, ob und wieviele weitere Instanzen hinsichtlich dessen überprüft werden, ob sie die Merkmale eines regelrecht induzierten Allgemeinbegriffs aufweisen oder nicht. In der Logik hat sich aber durch Sextus Empiricus (um 200 - 250 n. Chr.) die falsche Meinung durchgesetzt, daß die Begriffsinduktion grundsätzlich „unvollständig sei“, (genauer: unmöglich sei!) weil man niemals alle Instanzen überprüfen könne“. 54 Die Mathematik vertritt demgegenüber die ursprüngliche Meinung von Platon und Aristoteles. Das was hier mathematische Induktion zur Gewinnung z. B. des allgemeinen Zahlbegriffs genannt wird, sei grundsätzlich „vollständig“. Das gilt zwar für die Induktion ganz allgemein, dürfte aber in der Arithmetik geradezu paradox erscheinen angesichts der Tatsache, daß man weder „alle Zahlen“ kennt noch eine einheitliche Meinung darüber besteht, was überhaupt die gemeinsamen Merkmale aller Zahlen in mathematischen Zahlbegriffen sind. 53 Vgl. Léon Baudry, Lexique philosophique de Guillaume d‟Ockham, Paris 1958, art. Induction, S. 119: “Aliquando universale quod debet induci habet pro subiecto speciem specialissimam et ad habendam cognitionem de tali universali frequenter sufficit inducere per unam singularem” / Zuweilen hat der zu induzierende Allgemeinbegriff als Instanz eine speziellste Unterart, und um die Kenntnis eines solchen Allgemeinbegriffs zu erreichen genügt es häufig, ihn von einem Einzelnen aus zu induzieren. 54 Sextus Empiricus, Pyrrhoneische Grundzüge. Aus dem Griechischen übersetzt und mit einer Einleitung und Erläuterungen versehen von Eugen Pappenheim, Leipzig 1877, Kap. 15, S. 142: „Sehr abzulehnen aber, meine ich, ist auch die Weise in Betreff der Induction. Da sie (scl.: die Logiker) nämlich durch sie von den Einzeldingen aus das Allgemeine beglaubigen wollen, so werden sie dies thun, indem sie entweder doch an all die Einzeldinge herangehen oder an einige. Aber wenn an einige, so wird die Induction unsicher sein, da möglich ist, dass dem Allgemeinen einige von den in der Induction ausgelassenen Einzeldingen entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen, da die Einzeldinge unbegrenzt sind und unabschließbar. So dass auf diese Weise von beiden Seiten, mein„ ich, sich ergibt, dass die Induction wankend wird“. 96 Ersichtlich ist auf Grund dieser angeblichen mathematischen „Vollständigkeit“ und damit Sicherheit der Induktion auch das negative Vorurteil gegen die logische und das positive zugunsten der mathematischen Induktion entstanden. Das hat wesentlich dazu beigetragen, alle mathematische Begriffsbildung für genauer, zuverlässiger und maßgeblicher zu halten, als es die logische jemals vermöchte. Es ist außerdem zu betonen, daß die Induktion eine Methode der Begriffbildung, jedoch keineswegs eine Methode zur Gewinnung allgemeiner Behauptungssätze ist, wie dies in der neueren Logik seit J. St. Mills Induktionstheorie der Kausalgesetze eingeführt und in der modernen Wissenschaftstheorie allgemein angenommen wird. Denn Behauptungssätze setzen schon die in ihnen verwendeten Begriffe voraus. Das gilt also auch von Kausalgesetzen, bei denen man schon über Begriffe dessen, was Ursache, und dessen, was Wirkung ist, verfügen muß. Erst recht bedarf es bei Kausalsätzen eines Vermittlungselementes zwischen Ursache und Wirkung, das die „Humesche Lücke“ zwischen den Kausalgliedern schließt. Fehlt dieses Zwischenglied, so bleibt ein vermeintlicher Kausalsatz eine korrelative Implikation. Auch dieses vermittelnde Element in kausalen Implikationen muß als Begriff induziert werden (s. u. „korrelative Implikationsurteile“). 3. Die Konstruktion von Begriffen durch Deduktion Eine reguläre logische Deduktion setzt die induktive Gewinnung eines Induktionsrahmens mit einem dadurch wohldefinierten allgemeinsten Begriff voraus. Sie distribuiert die induktiv gewonnenen Merkmale auf die unteren Begriffspositionen und dient insofern zur Kontrolle einer regelrechten Induktion. Widersprüchliche Begriffe (contradictiones in terminis bzw. contradictiones in adiecto) werden gewöhnlich deduktiv gebildet. Sie verschmelzen induktiv gewonnene reguläre Artbegriffe, die in vollständiger Disjunktion (in kontradiktorischem Gegensatz) zueinander stehen, zu einem einzigen Begriff, welcher die sich ausschließenden spezifischen Differenzen bzw. Merkmale zugleich und gemeinsam enthält. G. F. W. Hegel hat allerdings in seiner „dialektischen Methode“ der Begriffsbildung bzw. des Abstrahierens eine Induktion widersprüchlicher Begriffe benutzt. Sie besteht darin, dihäretische Begriffe in einem ersten Schritt zu einem gemeinsamen Begriff zu verschmelzen, in welchem die sich gegenseitig negierenden spezifischen Differenzen der Ausgangsbegriffe gemeinsam enthalten blieben. Erst in einem zweiten Schritt, den er „Aufheben“ (bzw. Abstrahieren) nannte, wurden diese sich negierenden spezifischen Differenzen weggelassen („erstes Aufheben“) und die gemeinsamen generischen Merkmale beider Ausgangsbegriffe in einem regulären Begriff festgehalten („zweites Aufheben“). Der Aufbau von Hegels „Phänomenologie des Geistes“ zeigt diese Induktion. Sie beginnt z. B. mit der Dihärese von „Objekt“ und „Subjekt“, verschmilzt diese zum dialekti- 97 schen Begriff der „Erfahrung“ und abstrahiert daraus den regulären Begriff des „Allgemeinen“.55 In diesem und anderen Beispielen solcher dialektischen bzw. kontradiktorischen Begriffe werden Merkmale der Realität vereinigt, die nicht zu einem gemeinsamen Erfahrungskontext gehören. Sie können daher nur in der Phantasie bzw. in Erinnerungen an absolut Ungleichzeitiges komponiert werden. Widersprüchliche Begriffe sind deswegen auch die Bausteine der sogenannten möglichen Welten. Zu diesen möglichen Welten gehört auch die Welt der mathematischen Gebilde, die in der Regel durch Deduktionen konstruiert werden. Als spekulative Konzeptionen sind solche widersprüchlichen bzw. „dialektischen“ Begriffe für die Wissenschaft, Kunst und Technik kreativ. Für die Forschung sind sie heuristisch fruchtbar und daher unentbehrlich. In der Argumentation verursachen sie Zwei- und Mehrdeutigkeiten, die sich in Widersprüchen und Paradoxien ausdrücken. Und diese werden dann selbst wider Motive zu ihrer „Auflösung“ bzw. Eliminierung oder Ersetzung durch widerspruchslose Begriffe. Kontradiktorische Begriffe lassen sich an jeder Stelle einer Begriffspyramide zwischen je zwei dihäretischen (vollständig disjunkten, d. h. im Negationsverhältnis zueinander stehenden) Begriffen als deren Verschmelzung bzw. Fusion einschreiben. Sie umfassen dann die Extensionen der fusionierten Artbegriffe gemeinsam. Diese Eigenschaft haben sie mit dem jeweiligen Oberbegriff (Gattung) der dihäretischen Artbegriffe gemeinsam, und sie werden daher oft mit Gattungsbegriffen verwechselt. Die Gattung unterscheidet sich von ihnen aber dadurch, daß sie die spezifischen Differenzen der disjunkten Arten nicht enthält, während sie in deren kontradiktorischer Verschmelzung gerade enthalten sind. Das sieht formal so aus: Widersprüchlicher Begriff zwischen dihäretischen Artbegriffen Biologisches Beispiel: A = Lebewesen AB = lebendiger Organismus AC = toter Organismus (Leiche) ABC = Zombie A AB ABC AC Erläuterung: Zombies, d. h. „lebendige Leichen“, trifft man in in keinem Erfahrungskontext der Wirklichkeit an. Es gibt sie nur als Phantasieprodukte von Künstlern und besonders Filmemachern. Auch der Begriff der Zahl als Grundelement der Arithmetik läßt sich als dialektische Verschmelzung in obigem Schema darstellen. Er dürfte dadurch viel von seinem mystischen Charakter verlieren, den er in den üblichen Zahltheorien 55 Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels ‚Phänomenologie des Geistes‟, in: Jahrbuch für Hegelforschung I, hgg. von H. Schneider, Sankt Augustin 1995, S. 43 – 80 und die daraus entnommene Begriffspyramide in Abschn. 8. 98 besitzt. Der Mathematiker Leopold Kronecker hat sich in einem geflügelten Wort so über die Zahlen geäußert: “Die (positiven, d. h. natürlichen) ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk” 56 Die logische Terminologie liefert für den mathematischen Zahlbegriff den Gattungsbegriff (die aristotelische Kategorie) der Quantität (in der obigen Formalisierung: A) und seine beiden dihäretischen Artbegriffe Einheit (AB, logisch: „ein“) und Allheit (AC, logisch: „alle“). Logisch gilt daher : „Einheit ist nicht Allheit“ und umgekehrt. Der mathematische Begriff der Zahl verschmilzt aber diese genau unterschiedenen Artbegriffe zu dem widersprüchlichen Begriff der „Ein-Allheit“ oder „AllEinheit“ (ABC). Zahlen sind daher zugleich Einheiten und Allheiten, von denen dann nach dem obigen formalen Schema die Definitions-Gleichung gilt: „Einheit = Allheit“ bzw. in Umkehr: „Allheit = Einheit“. ABC bezeichnet jede Zahl als ein Etwas, das sowohl als Einheit bzw. „Element“ wie auch als Allheit (bzw. ein Ganzes oder Gesamt von vielen Einheiten) gedacht wird. Daß es „gedacht“ werden muß und keineswesg „sinnlich anschaulich“ gemacht werden kann, erklärt sich wie bei allen dialektischen Begriffen daraus, daß nur die Ausgangsbegriffe der Einheit (logisch: Individuelles) und der Allheit bzw. eines Ganzen (logisch: alles) in jeweils verschiedenen Kontexten anschaulich werden können, niemals aber zugleich und gewissermaßen auf einen Blick. Denn entweder betrachtet man etwas als (elementare) Einheit und erfaßt dann nicht die es umfassende Ganzheit; oder man achtet auf das Ganze und muß insofern dessen Einheiten bzw. Elemente außer acht lassen. Mathematisches Denken aber besteht gerade darin, diese getrennten Erfahrungen kreativ zu „einer Idee“ bzw. zu einem dialektischen Begriff zu vereinen. In der Extension des Begriffs der Zahl liegen alle weiteren speziellen Zahlbegriffe, über deren Definitionen weiter unten zu sprechen sein wird. Daher besitzen sie, soweit es sich überhaupt um Zahlen handeln soll, das generische Merkmal der „All-Einheit“. Das zeigt sich z. B. darin, daß man die Zahl Eins in Bruchzahlen zerlegt, was voraussetzt, daß auch sie eine Allheit von Zahlen umfaßt. Umgekehrt darin, daß jede „größere Zahl“, die aus Einheiten zu einer Allheit bzw. einem Ganzen zusammengesetzt wird, selber eine Zahl-Einheit darstellt.57 Der am meisten logisch klingende „Begriff“ der Zahl ist der Mengenbegriff, den auch Euklid in seinem Lehrbuch „Elementa“ schon definierte. Logisch ist der Mengenbegriff definiert, wenn er nur als logische Gattung der beiden logischen Quantifikationsjunktoren „alle“ und „einige“ verstanden wird. Als mathematischer Begriff ist „Menge“ jedoch geradzu ein Paradigma der Dialektizität der mathematischen Begriffsbildung geworden. Denn man hat in ihm alle logischen 56 Leopold Kronecker in “Ueber den Zahlbegriff”, in: Journal für reine und angewandte Mathematik 10, 1887, p. 261 – 274, auch in: L. Kronecker, Werke, vol. 3, hgg. von K. Hensel, Leipzig 1899, ND New York 1968. 57 Zur pyramidalen Formalisierung der Zahlbegriffe in: L. Geldsetzer, Logik, Aalen 1987, S. 133 – 155; ders., Elementa logico-mathematica, Internet der HHU Duesseldorf 2006; ders., Logical Thinking in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 28. Die Pyramide der Zahlbegriffe in Abschn. 8 (s. u.) ist um die Prim- und Nicht-Primzahlen erweitert worden. 99 Quantifikatoren zusammengefaßt, die in „gespreizten“ zahlenmäßigen Quantifikationen eine Rolle spielen. Der logisch denkende Mensch weiß und hält es für selbstverständlich, daß man „einige“ Dinge „eine Menge“ nennen kann. Er wird es auch verstehen, daß Mengen kleinere Mengen, als sie selbst sind, umfassen und aus ihnen bestehen können. Der moderne mathematische Mengenbegriff (nicht aber der euklidische) verlangt, auch dann von „Menge“ zu reden, wenn sie nur aus einem einzigen Element besteht. Ebenso wenn sie überhaupt kein einziges Element enthält (die „Null-Menge bzw. leere Menge). Und schließlich auch, wenn sie (selbstbezüglich) „sich selbst enthält“. Daß der mathematische Mengenbegriff deshalb geradezu ein Wespennest von Widersprüchen in sich birgt, ist logisch ersichtlich, und die Paradoxien (d. h. die spezifischen Widersprüche) der Mengenlehre sind seit B. Russell allgemein bekannt. Gleichwohl hat man einigen Generationen von Schülern die mathematische „Mengenlehre“ aufoktroyiert und ihnen beigebracht, daß es sich bei diesem mathematischen Mengenbegriff um den einzig „wissenschaftlichen“ handele, und daß daher die gemeinsprachliche, nämlich logische Vorstellung von Menge unzulänglich und überholt sei. Es sei zusätzlich bemerkt, daß die hier vorgeführte Deduktion des Zahlbegriffs aus den logischen ein- und all-Quantoren nur demjenigen Logiker oder Mathematiker als grundsätzlich falsch erscheinen kann, der alles Widersprüchliche für grundsätzlich falsch und nur für falsch hält. Zur logischen Durchsichtigkeit der mathematischen Begriffsbildung scheint es von erheblicher und sehr unterschätzter Wichtigkeit zu sein, sich über den begrifflichen Charakter der Buchstabenzahlen klar zu sein. Diese sind von Franciscus Viëta (François Viète, 1540 - 1603) in die moderne Mathematik eingeführt worden. Eigentlich sollte die üblich gewordene Bezeichnung schon den Verdacht erregen, es handele sich dabei um ein Oxymoron, angesichts der allgemeinen Überzeugung, daß Zahlen nicht Buchstaben und Buchstaben nicht Zahlen sind. Daß sie in der Neuzeit allgemein akzeptiert wurden, ist aber selbst schon Ausweis einer intendierten Logifizierung der Mathematik. Die Buchstaben sollten formale Statthalter für Zahlbegriffe und Zahlausdrücke sein, ebenso wie sie in der formalen Logik seit Aristoteles für die Subjekts- und Prädikatsbegriffe stehen. Die Einführung der durch Buchstaben bezeichneten „Variablen“ trieb alsbald einen neuen Zweig der Arithmetik als „Analysis“ hervor. Von der damals üblichen geometrischen Veranschaulichung der Zahlen durch Strecken blieb erhalten, daß die meistgebrauchten Buchstaben X, Y (evtl. auch Z) noch auf das cartesische Koordinatensystem der Raumdimensionen verweisen, in denen die Zahlen durch Abstände auf den drei Koordinaten veranschaulicht wurden. In der Regel stehen sie für „Unbekannte“ (Zahlen). 100 Die Buchstaben wurden zunächst nur als Variable verwendet. Die Bezeichnung besagt, daß etwa X als Begriff für „beliebige“ Einsetzungen („Erfüllungen“) von Zahlen stehen soll. Und zwar ebenso, wie das logische Zeichen „S“ für beliebige Subjektbegriffe stehen kann. Dies allerdings mit der von der Logik übernommenen Einschränkung, daß bei solchen Einsetzungen in Rechnungen immer dieselbe Zahl (ob man sie kennt oder auch nicht kennt) durch die Variable vertreten wird. Diese Einschränkung wurde aber alsbald fallen gelassen. In den sogenannten Funktionsgleichungen stehen die Variablen in der Regel für verschiedene Zahlen bzw. „Größen“, was in der Logik keine Parallele hat. Da aber Rechnungsgleichungen, wie sogleich zu betrachten ist, kreativ für die Definition von Zahlarten sind, hat man auch einige solcher Zahlarten mit anderen Buchstaben bezeichnet, die man seither Konstanten nennt. Am verbreitetsten sind etwa der Quotient des Verhältnisses von Kreisumfang zum Kreisdurchmesser, genannt „Pi“ (griech.: π = 3,14159…), der nur eine und in allen Berechnung dieses Verhältnisses bei verschieden großen Kreisen gleichbleibende Irrationalzahl bezeichnet. Dann etwa „i“ als Konstante für eine „imaginäre“ Komponente aller Zahlen, die sich aus dem Wurzelziehen (Radizieren) aus negativen Zahlen ergeben. Oder auch der Differentialquotient „δx/δy“, der den sog. Grenzwert einer sich asymptotisch der Null annähernden „unter jeden angebbaren Zahlenwert hinabreichenden“ Quotienten bezeichnet (dazu s. u. über Differentialquotientenbildung). Logisch gesehen sind solche Konstanten Eigennamen für bestimmte mathematische Gebilde, die bei ihrer Einführung wegen „Widersprüchlichkeit“ von vielen Mathematikern abgelehnt und gar nicht als „Zahlen“ anerkannt wurden. Mit ihnen umzugehen muß der Mathematiker ebenso lernen, wie man sich auch sonst bestimmte Wörter und Namen einprägt. Mit der Einführung der Variablen verbunden war das Aufkommen der sog. (mathematischen) analytischen Methode. Sie besteht darin, einerseits beliebige Zahlen durch Variablen vertreten zu lassen, anderseits bestimmte unbekannte Zahlen bzw. Zahlgrößen als bekannt zu behandeln und mit ihnen wie mit bekannten Zahlen zu rechnen. Dadurch wurde die Rechentechnik außerordentlich erleichtert und vereinfacht. Dies vor allem in den Fällen, wo sich die Unbekannten durch geschickte Gestaltung von Rechenoperationen (z. B. das „Wegkürzen“ in Gleichungen) zum Verschwinden bringen lassen. Was man von den „Unbekannten“ ohnehin nicht weiß, braucht man dann auch nicht mehr zu wissen. Man hat wohl bis heute nicht bemerkt, daß die Buchstaben sowohl als Variable wie als Konstanten ebenso wie das (mathematische) analytische Verfahren selbst eine dialektische Seite besitzen. Die Dialektik besteht darin, daß mit den Variablen die sogenannten kommensurablen Zahlen (Zahlen, die aus einer und derselben Einheit zusammengesetzt sind, wie die Rationalzahlen) und die inkommensurablen Zahlen (aus verschiedenenartigen Einheiten, wie die irrationalen und imaginären bzw. komplexen Zahlen und erst recht die Infinitesimalzahlen, die keinen Zahlenwert besitzen) gleicherweise als Zahlengrößen dargestellt werden konnten. Daraus kann man entnehmen, daß die Buch- 101 stabenzahlen bzw. Variablen selbst dialektische Zahlbegriffe aus der Fusion des Begriffs der kommensurablen mit dem Begriff der inkommensurablen Zahlarten sind, was ihren widersprüchlichen Charakter ausmacht. Die Variablen vertreten grundsätzlich Zahlenwerte, die ihrerseits den arithmetischen Quantifizierungen unterworfen werden. Man kann sagen: dadurch werden Quantitäten nochmals quantifiziert. Man versteht mathematisch etwa „3x“ als Multiplikation einer unbekannten Zahl (x) mit 3, oder „3/x“ als drei Xtel. Das versteht jeder, der weiß, was „drei Äpfel“ oder „drei Teile eines Apfels“ sind. Er wird nicht vermuten, daß aus den drei Äpfeln oder drei Apfelteilen beim Multiplizieren etwas ganz anderes als Äpfel werden könnten. In der Mathematik aber muß gelernt werden, daß etwa 3x jede beliebige Zahl bedeuten kann, die sich beim Multiplizieren mit Drei ergeben kann. Setzt man für x die eins ein, so bleibt es bei der Drei. Setzt man 1/3 ein, so ergibt sich die Eins. Rechnet man jedoch im Dezimalsystem, so ergibt sich im letzteren Fall „3 0,333....“, was nicht die Eins, sondern die Irrationalzahl 0,999... ergibt, die ersichtlich keine 1, sondern eine kleinere Zahl als 1 ergibt. Nur Mathematiker finden das, wenn sie es gelernt haben, „ganz logisch“ und vor allem „exakt“. Konträre Begriffe lassen sich zwischen Begriffen in multiplen Artenreihen einschreiben. Ihre Extension besteht dann aus denjenigen der verschmolzenen Artbegriffe. Es handelt sich hier um die sogenannten Dispositionsbegriffe. Dispositionsbegriff „ABC“ zwischen Artbegriffen aus einer multiplen Artenreihe A ABC AB AC AD physikalisches Beispiel: psychologisches Beispiel: A = Aggregatzustand A = Wahrnehmung AB = fest AB = Sehen AC=flüssig (geschmolzen) AC = Hören AD = dampfförmig AD = Tasten ABC = schmelzbar ABC = Wahrnehmungsvermögen Ihr dialektischer Charakter zeigt sich ebenso wie bei den kontradiktorischen Begriffen darin, daß man die in ihnen verschmolzenen Merkmale zwar in verschiedenen bzw. getrennten Erfahrungskontexten, ihre fusionierte Vereinigung aber nicht in einem und demselben Erfahrungskontext wahrnehmen kann. Von dieser Art sind zahlreiche Grundbegriffe der Physik wie auch der Psychologie, nämlich die Begriffe von Kräften und Potentialen sowie von Vermögen, Veranlagungen, Fähigkeiten. Da sie seit Jahrhunderten auch in der Alltagssprache gebraucht werden, vermutet man kaum, daß sie einen dialektischen Charakter besitzen könnten. Man wundert sich nicht einmal darüber, daß man Kräfte und Fähigkeiten niemals sinnlich wahrnehmen kann, sondern nur ihre sogenannten 102 Wirkungen als physikalische Veränderungen von Zuständen, oder psychologisch als manifeste Handlungen und Verhaltensweisen. Nur wenige Physiker, wie etwa Ernst Mach, haben versucht, den Kraftbegriff deshalb gänzlich aus der Physik zu eliminieren. In der Psychologie und Anthropologie sind die „Vermögen“ bzw. „Fähigkeiten“ offenbar niemals auf ihren logischen Charakter hinterfragt worden. 4. Die Junktoren bzw. Funktoren oder Operatoren Begriffe sind zwar unentbehrliche Bausteine des Wissens, aber sie sind als solche noch nicht geeignet, wissenschaftliches Wissen auszudrücken. Dazu müssen sie in die logischen Formen von Urteilen bzw. behauptenden Aussagen eingesetzt werden. Erst in Behauptungsform wird das Wissen wahrheitswertfähig, d. h. es kann als wahres, falsches oder wahr-falsches oder auch „wahrscheinliches“ Wissen ausgewiesen werden. Das logische Mittel, Begriffe zu behauptenden Aussagen zu verknüpfen, stellen einige Junktoren („Verknüpfungspartikel“, in der mathematischen Logik auch Funktoren oder Operatoren genannt) dar. In der hier vorgeschlagenen pyramidalen Formalisierung sind Junktoren selbst zugleich logische Begriffe für die Beschreibung und Lesung der Relationen, die zwischen den Begriffspositionen einer Pyramide bestehen. Es gibt nur vertikale und horizontale Relationen. Deren Richtung ist dabei von entscheidender Bedeutung für die Definition des jeweiligen Junktors. Deshalb lassen sie sich auch durch Pfeile darstellen. Einige ausgerichtete Relationen werden durch die logischen Junktoren in mehrfacher Weise beschrieben. Darauf beruhen Synonymien zwischen einigen Junktoren. Von den Junktoren verknüpfen einige allerdings die Begriffe nur zu begrifflichen Ausdrücken, die nicht wahrheitswertfähig sind. Wir haben sie ausdrucksbildende Junktoren genannt. Ausdrucksbildende Junktoren sind das Und (Konjunktor, manchmal auch Adjunktor genannt) und der mathematische Summenjunktor (Plus), das ausschließende und nicht-ausschließende Oder (Alternative und Disjunktor, letzterer ebenfalls manchmal Adjunktor genannt), die Quantoren (ein, einige, alle, kein) und der Äquivalenzjunktor bzw. das mathematische Gleichheitszeichen. Auch die Negation wird bei sogenannten negativen Begriffen als ausdrucksbildender Junktor gebraucht. Als „bestimmte Negation“ bezeichnet sie einen (positiven) Begriff durch seine negierte (dihäretische) Nebenart und ist dann umkehrbar (z. B. „Raucher“ - „Nichtraucher“: Nicht-Nichtraucher = Raucher). Als unbestimmte Negation bezeichnet sie einen (positiven) Begriff einer multiplen Artenreihe durch eine negierte Nebenart und ist dann nicht umkehrbar. (z. B. „gelb“ – „nicht-gelb“: nicht-nichtgelb ≠ gelb). Der Nichtbeachtung dieses Unterschieds zwischen bestimmter und unbestimmter begrifflicher Negation verdanken sich viele Fehler in logischen Argumentationen (s. u.). Die übrigen logischen Junktoren verknüpfen Begriffe zu wahrheitswertfähigen Urteilen. Wir nannten sie urteils- oder satzbildende Junktoren. Nur durch sie 103 lassen sich Behauptungen formulieren, die wahr, falsch oder auch wahr-falsch sein können. Diese sind die Kopula (ist), das allgemeine und das spezielle (aristotelische) Zukommen, die urteilsbildende Negation (ist nicht) und der Existenz- bzw. Produktjunktor (es gibt) sowie vier verschiedene Implikationsjunktoren (wenn ... dann). Die Unterscheidbarkeit der wird erst in einer regulären Begriffspyramide sichtbar. Ihre traditionelle Nichtunterscheidung hat immer wieder zu Problemen geführt, so daß man sogar mit Nelson Goodman vom „Rätsel der Implikation“ sprach. Die in der folgenden Figur eingezeichneten Pfeile drücken die Verknüpfungsrichtung aus. 104 Begriffspyramide der satzbildenden Junktoren Allg. Implikation ↕↔ Wenn…dann ↔ Korrelative Implikation Wenn...dann ↕ Allg. Aristotel. Zukommen Gehört zu ↑ Kopula Materiale Implik. ist, wenn dann −d Negation ↔ ist nicht ↓ Arist. Zukom. Formale Implik. Inklusion →← Existenzbzw. Produktjunktor Es gibt Es gibt Die ausdrucksbildenden Junktoren lassen sich als widersprüchliche Begriffe in die Pyramide der satzbildenden Junktoren einschreiben. Begriffspyramide aller Junktoren Allg. Implikation ↕↔ Wenn…dann ↕ Allg. Aristotel. ↕↔ Disjunktor vel und/oder ↔ Korrelative Implikation Wenn...dann Zukommen Gehört zu und ↕↔ Quantoren alle, einige, ein ↑ Kopula Materiale Implik. ist, wenn dann ↕↔ Konjunktor und ↓ Arist. Zukom. Formale Implik. Inklusion ↕↔Alter↕↔ native oder, aut = Äquivalenz dist ↔ gleich, d. h. − Negation ist nicht →← Existenzbzw. Produktjunktor Es gibt Es gibt 105 Enthalten Urteile widersprüchliche Begriffe, so erlauben die Junktoren sowohl eine wahre wie eine falsche Lesung. D. h. Urteile mit widersprüchlichen Begriffen sind zugleich wahr und falsch bzw. widersprüchlich. Über die einzelnen urteils- bzw. satzbildenden (behauptenden) Junktoren mit Wahrheitswerten ist folgendes zu sagen. Wir notieren dazu nur einige markante Beispiele: Die oberste Gattung der satzbildenden Junktoren ist die allgemeine Implikation. Ihre Bedeutung ist es, die Pyramidenbegriffe in jeder Richtung miteinander zu verknüpfen. Sie faßt die wahren Wahrheitswerte der drei untergeordneten Implikationsformen zu einem gemeinsamen Wahrheitswert zusammen. Sie besitzt keinen Falschheitswert, weil sich für jede Anwendung ein Wahrheitswert einer speziellen Implikation angeben läßt. Die Nichtunterscheidung der allgemeinen Implikation von den drei speziellen Implikationsformen mit Wahrheitswerten hat in der Geschichte der Logik immer wieder das Problem erzeugt, daß manche ihrer Anwendungen in Beispielen als wahr, andere als falsch erscheinen. Die allgemeine Implikation läßt sich wie folgt darstellen: Allgemeine Implikation „Wenn A dann AB“ und „wenn A dann AC“ „wenn AB dann A“ und „wenn AC dann A“. „wenn AB dann AC“ und „wenn AC dann AB“. A AB AC Die korrelierende Implikation wird hier ohne Pfeil notiert. Sie korreliert nur durch Negation unterschiedene Begriffe. Die beiden dihäretischen Arten (unter der Gattung der allgemeinen Implikation) sind einerseits das allgemeine (aristotelische) „Zukommen“, das vertikal in beiden Richtungen verknüpft. Sie ist seit langem außer Gebrauch und macht sich nur bemerkbar, wenn untere Begriffe oberen Begriffen zugeordnet werden („Zukommen“ als „Inklusion“ von AB in A), oder wenn die (generischen) Merkmale oberer Begriffe den in ihre Extensionen fallenden unteren Begriffen beigelegt werden („Zukommen“ als Implikation von A in AB und AC). Andererseits die korrelierende Implikation, die allgemein horizontal alle durch Negation bestimmbaren Begriffe verknüpft. Nur die korrelierende Implikation ist zur Formalisierung von Kausalverhältnissen (Ursache ... Wirkung) geeignet. Die dihäretischen Unterarten des allgemeinen Zukommens sind das spezielle „Zukommen“ (Inklusion) bzw. die formale Implikation, welche nur von oben nach unten verknüpft, sowie die materiale Implikation, welche nur von unten nach 106 obenverknüpft. Die Kopula („ist“ bzw. „sind“) ist synonym mit der materialen Implikation. Dihäretische Unterarten der korrelierenden Implikation sind die Negation und der Existenzjunktor, die horizontal in beiden Richtungen verknüpfen (nämlich die Begriffe, die durch die Urteils-Negation „ist nicht“ unterscheidbar und korrelierbar sind). Die Negation ist der Unterscheidungsjunktor von nebenrangigen Begriffen. Sie wird als das „Leere“ zwischen nebenrangigen Begriffspositionen notiert und gelesen. Sie ist nur zwischen dihäretischen Nebenarten einer Begriffspyramide umkehrbar. Zwischen Begriffen einer multiplen Artenreihe oder zwischen beliebigen Begriffen verschiedener Begriffspyramiden ist sie nicht umkehrbar. Viele logische Schlußfehler beruhen auf der Nichtbeachtung dieses Unterschiedes. Negation („ist nicht“) AC AB „AB ist nicht AC“ und „AC ist nicht AB“ Der Existenzjunktor („es gibt“) führt Begriffe in eine Pyramide ein. Er korreliert Intensionen und Extensionen miteinander zur Einheit des Begriffs, d. h. er „produziert“ Begriffe. In Anwendung auf inhaltliche Beispiele behauptet er die Existenz eines dem Begriff entsprechenden Gegenstandes. Da reguläre Begriffe auf der Induktion aus sinnlichen Wahrnehmungen beruhen, bezeichnen die durch Negation unterschiedenen unteren Positionen die Extension, ihre gemeinsamen Merkmale die Intensionen der so eingeführten Begriffe. Existenzjunktor A AB „es gibt A“ , nämlich als induktiv gewonnene Gattung der durch Negation unterschiedenen Artbegriffe AB und AC AC Ausdrucksbildende Junktoren Sie sind aus je zwei der oben genannten dihäretischen urteilsbildenden Junktoren zu widersprüchlichen Junktorbegriffen verschmolzen. Dadurch heben sich deren Funktionen für die Wahrheitswertbildung auf. Die ausdrucksbildenden Junktoren haben daher keinen Wahrheitswert. Die nicht-ausschließende Disjunktion („und/oder“ bzw. lateinisch „vel“) ist aus dem allgemeinen Zukommen und der korrelierenden Implikation verschmolzen und verknüpft in allen Richtungen. Konjunktion bzw. Adjunktion („und“) und Alternative („entweder... oder“, lateinisch „aut ...aut“) spezifizieren diese Verknüpfungsweisen. Der mathematische Summenjunktor („und“ im Sinne von 107 „plus“) verknüpft nur horizontal Gleichartiges. Der mathematische Differenzjunktor („minus“) ist aus der Adjunktion und der Negation zusammengesetzt („und nicht“) und verknüpft ebenfalls nur horizontal Gleichartiges (vgl. unten über Grundrechenarten). Die (positiven) Quantoren bzw. Quantifikatoren (ein, einige alle) sind aus der Kopula und dem speziellen Zukommen verschmolzen und verknüpfen vertikal in beiden Richtungen. „Alle“ verknüpft einen Begriff mit sämtlichen in seinem Umfang liegenden Unterbegriffen. „Einige“ verknüpft unbestimmt einen Begriff mit einem seiner Unterbegriffe. Er drückt aber nicht aus, mit welchem von zweien oder mehreren. „Ein“ verknüpft einen Begriff unbestimmt mit einem seiner Unterbegriffe bzw. einem in seinen Umfang fallen Individuum, drückt aber nicht aus, mit welchem von „allen“, die unter den Begriff fallen. Deshalb sind die partikulär und individuell quantifizierten Begriffe stets definitionsbedürftig. die Quantoren bzw.Quantifikatoren A einige A ein A einige A ein A Quantifizierte Begriffe in dihäretischer Position liefern als „Gegenprobe“ Definitionen ihrer Gegenarten: „einige A = AB“/„einige A = nicht AB (= AC). Als „partikuläre Urteile“ wären sie Widersprüche. Eigennamen definieren Individuen: „ABD = ein A“ (z. B. „Sokrates = ein Mensch“). Mathematische Quantoren sind bezüglich von Einheiten synonym mit dem logischen „ein“. Bezüglich bestimmter Zahlenwerte („größer als Eins“) sind sie Spreizungen (Spezifikationen) des logischen „einige“. Bezüglich infinitesimaler und „unendlicher“ (infiniter) mathematischer Bestimmungen sind sie synonym mit dem logischen „alle“. Das logische „kein“ ist aus der Negation und dem „ein“ zusammengesetzt („nicht ein“). In der Mathematik wird die Negation auch mit dem „alle“ verknüpft. Dieser Ausdruck heißt dann auch „leer“. Die mathematische Quantifikation des „Leeren“ ist die Null („leere Menge“). Die Äquivalenz bzw. der mathematische Gleichungsjunktor Der Äquivalenzjunktor ist aus der Negation und dem Existenzjunktor verschmolzen. Die Äquivalenz verknüpft horizontal durch bestimmte Negation Unterscheidbares. Diese Unterscheidbarkeit bedingt, daß in einer Äquivalenz niemals etwas mit sich selbst (also Ununterscheidbares) äquivalent sein kann, wie es der falsche Gebrauch der sogenannten Tautologie in der Logik insinuiert. In der Mathematik ist die tautologische Gleichungen (z. B. 2 = 2) per Konvention üblich. Die Äquivalenz induziert zugleich eine gemeinsame Bedeutung des Unterschiedenen, wie es der Existenzjunktor vorgibt. Im Gemeinsprachengebrauch wird die Äquivalenz Synonymie genannt. 108 Neuerdings wird die Äquivalenz auch als „gegenseitige Implikation“ („genau dann wenn“ bzw. „dann und nur dann, wenn“) dargestellt. Dies ist jedoch irreführend insofern, als durch diese Verwendung der „Implikation“ der Eindruck erweckt wird, es handele sich bei der Äquivalenz um behauptende Urteile mit Wahrheitswerten. Indem die Äquivalenzen jedoch Synonymien zwischen Begriffen und Termini bzw. zwischen Rechenausdrücken und Zahlwerten audrücken, sind sie logische Ausdrücke ohne Wahrheitswerte. Sie dienen als Definitionen, die „frei setzbar“ sind. In der Mathematik wird das meiste, was überhaupt behandelt wird, in der Gestalt von Gleichungen vorgeführt. Und durch die Anwendung der Mathematik ist die Gleichung auch in der Physik die Hauptform der Argumentation geworden. Es bleibt aber auch hier zu betonen, daß Gleichungen grundsätzlich Äquivalenzen bzw. Definitionen ohne Wahrheitswert sind. Gleichwohl gelten sie, wie im vorigen Paragraphen schon gesagt wurde, in der Mathematik und und ihren Anwendungen seit G. Boole als behauptende Urteile mit Wahrheitswerten. Mehr darüber wird unten bei den Definitionen zu sagen sein. Die mathematischen Grundrechenarten sind logisch gesehen ausdrucksbildende Junktoren, die bestimmte Zahlkonfigurationen definieren, nämlich Summe, Differenz, Produkt und Quotient. An ihnen läßt sich eindrucksvoll zeigen, wie und wo das mathematische Prozedere logisch ist, und wie und wo es von der Logik zur Dialektik übergeht. Das Addieren ist eine auf gleichrangige Nebenarten eingeschränkte Konjunktion bzw. Adjunktion. Logisch daran ist, daß man beliebige Zahlen bzw. Zahlausdrücke zu Summen zusammenfassen kann. So wie man „einen Apfel und einen (anderen) Apfel“ zu einem „Äpfelpaar“ summiert oder „mehrere Äpfel“ zu einer „Apfelmenge“. Dialektisch ist die Aufhebung der Restriktion auf Gleichrangigkeit der Summanden bei der Integralsumme. Darin wird das mathematische Additionsverfahren kreativ. Denn hierbei werden gerade lauter ungleichartige Summanden (nämlich Differentialquotienten) summiert. Bekanntlich handelt es sich beim Integrieren einerseits um eine Summenbildung, andererseits aber auch um Nichtsummenbildung. Das zeigt sich darin daß Integrale nicht ausrechenbar sind, sondern daß ihre Zahlenwerte „empirisch“, d. h. durch gemessene Exhaustion von unregelmäßigen Flächen oder Körpern gewonnen und in Tabellen zur Verfügung gestellt werden. Das Subtrahieren ist eine Verknüpfung der logischen Konjunktion und der Negation zu einem Ausdruck von Differenzen. Logisch ist es, wenn man sagt „AB und nicht AC“: Und das bleibt bei Anwendung auf Beispiele so lange logisch, wie der Subtrahend kleiner ist als der Minuend. Es ist also logisch, daß man nicht mehr „wegnehmen“ kann als „vorhanden“ ist. Nimmt man jedoch genau das weg, was vorhanden ist, so wird das Subtrahieren dialektisch und kreativ. Die Subtraktion 109 definiert dann in widersprüchlicher Weise „Etwas und nicht Etwas“ als „Nichts“ und definiert somit die Null als Zahl (mathematisch „+ 2 -2 = 0“). Die Dialektik setzt sich fort in der kreativen Definition der negativen Zahlen, denn dabei wird mehr weggenommen als vorhanden ist. Logisch muß man sagen: negative Zahlen sind zugleich negierte bzw. Nicht-Zahlen. Deshalb wurde ihr Zahlcharakter von vielen Mathematikern bis in die Neuzeit bestritten. Als man im Handel und Bankwesen den negativen Zahlen eine positive Bedeutung als Schulden oder Kredit zusprach, setzten sich auch die negativen Zahlen als spezifische Zahlen in der Arithmetik durch. Noch Kant befaßte sich in seinem „Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen“ 58 mit diesem Problem. Er diagnostizierte ganz richtig den logisch widersprüchlichen Charakter des Verfahrens und versuchte gleichwohl, die inhaltliche Anwendung des Verfahrens als „Realrepugnanz“ antagonistischer Entitäten (wie z. B. Newtons Kraft und Gegenkraft), als nichtwidersprüchlich darzutun. Das Multiplizieren hat als logische Grundlage die Verschmelzung bzw. Fusion beliebiger Intensionen zu Begriffen unter Zuweisung von Extensionen. Diese Verschmelzung geschieht nicht mittels eines verknüpfenden Junktors. Wie sie funktioniert wurde bei der Begriffsbildung vorgeführt. Die logische Fusion führt zur „Produktion“ neuer Begriffe, seien sie regulär oder auch widersprüchlich. Beispiele sind zusammengesetzte Begriffe wie das reguläre „Gast-Haus“ oder das irreguläre „hölzerne Eisen“ (ein bekanntes sprachliches Oxymoron). In der Arithmetik wird die Fusion auf Zahlen und Zahlausdrücke angewandt und liefert dadurch mathematische „Produkte“. Als Rechenverfahren wird die Multiplikation auf wiederholtes Summieren zurückgeführt (3 2 = 2 + 2 + 2) und dadurch erläutert und definiert. Die Multiplikation dient neben den anderen Rechenverfahren ebenfalls zur Definition der Zahlen. Im mathematischen Grundunterricht werden die Definitionen der Zahlen aus der dezimalen Zahlreihe am häufigsten mittels des (kleinen) „Ein-mal-Eins“ auswendig gelernt. Die traditionelle geometrische Veranschaulichung hat die Mathematiker an die Kreativität der Produktbildung gewöhnt, so daß sie als „logisch“ erscheint. Man stellt Zahlgrößen durch Strecken dar, die multipliziert Flächeninhalte (ein nichtstreckenhaftes Produkt!) produzieren. Dabei wird grundsätzlich ausgeblendet, daß es sich nicht um gleiche Strecken, sondern um Vektorstrecken (die in der Fläche ganz verschieden ausgerichtet sind) handelt. Und nur so kann die Multiplikation von Strecken (a b) zu einem nicht-streckenhaften Flächenprodukt („ab“) führen. Dieses traditionelle Beispiel findet weite Anwendung bei der multiplikativen Fusion unterschiedlich dimensionierter naturwissenschaftlicher Begriffe. Der Physiker verschmilzt z. B. den Massenbegriff (m) mit dem Begriff einer Strecke (s) und bildet so den Begriff „Arbeit“ (ms = Masse Weg). Wollte man das Ver58 I. Kant, Versuch, die negativen Größen in die Weltweisheit einzuführen, Königsberg 1763, in: I. Kant, Werke in sechs Bänden, hgg. v. W. Weischedel, Darmstadt 1960, S. 777 – 819. 110 fahren am logischen Beispiel erläutern, so müßte man definieren können: „Äpfel mal Birnen = Kompott“. Das Potenzieren Die Dialektik setzt sich fort in der Potenzbildung, also im sogenannten Potenzieren. Hierbei wird, logisch gesehen, etwas mit sich selbst verschmolzen, was einerseits eines und dasselbe bleibt, andererseits auch etwas anderes sein kann. Ersteres zeigt sich in der Einerpotenz (1 1 = 1), letzteres in den Potenzen aller anderen Zahlen (z. B. 3 3 = 9). Die Selbstfusion von etwas mit sich selbst und somit die Widersprüchlichkeit des Potenzierens wird in der Mathematik durch die traditionelle Veranschaulichung an geometrischen Anwendungen dissimuliert. Daher spricht man bekanntlich seit Euklid von „Quadratzahlen“ (2. Potenz) und „Kubikzahlen“ (3. Potenz). Diese Art der Begriffsbildung wird seit der Renaissance heuristisch und spekulativ benutzt, um gewisse Probleme auf den Begriff zu bringen. So ist z. B. in der Kinematik (Bewegungslehre) der Geschwindigkeitsbegriff (v, d. h. die Proportion Wegeinheit zu Zeiteinheit) mit sich selbst zu „v²“ potenziert worden, um damit die Beschleunigung zu erfassen. (Nach der vorn schon genannten MertonRegel wird allerdings Beschleunigung als „mittlere Geschwindigkeit zwischen der langsamen Anfangs- und der schnelleren Endgeschwindigkeit, also als „ ½ v² “ definiert.) Man findet in der einschlägigen Literatur keinen Hinweis darauf, daß Physiker sich darüber Rechenschaft gaben, daß sie damit einen Begriff bildeten, der eine Proportion von flächenhaften „Streckenquadraten“ und „Zeitquadraten“ darstellt, die sich jeder Veranschaulichung hinsichtlich bewegter Massen entzieht. Und das wird in der Regel damit begründet, daß es sich bei den Potenzbegriffen um rein numerische und an Beispielen empirisch verifizierte Meßgrößen handele. In der nichtmathematischen Begriffsbildung ist das Verfahren des Potenzierens Grundlage für das Verständnis sogenannter reflektiver bzw. ipsoflexiver (selbstbezüglicher) Begriffsbildung in der Reflexionsphilosophie. Beispiele sind etwa das „Denken des Denkens“ (aristotelische „noesis noeseos“) oder „Bewußtsein von Bewußtsein = Selbstbewußtsein“). Diese Begriffsbildung wird jedoch ebenso wenig wie der mathematische Potenzbegriff als dialektisch durchschaut und anerkannt. Das Wurzelziehen Das als Umkehrung des Potenzierens eingeführte Wurzelziehen bzw. Radizieren zerlegt die Potenzzahlen in ihre Faktoren. Darauf beruht die Notation der Potenzzahlen, die die „Wurzel“ als Basis und die Anzahl der multiplizierenden Fusionen als Exponent notiert, wie z. B. 32 oder auch 3x . Wurzelzahlen lassen sich insofern aus allen durch Potenzieren definierte Zahlen ziehen. Läßt man diese Beschränkung fallen, so wird auch das Radizieren kreativ für die Definition neuer Zahlarten, und zwar sogleich mehrfach. Einerseits definiert man so die irrationalen Zahlen, die wir „ungenau“ nennen können (vgl. unten bei Division), andererseits 111 die sogenannten imaginären Zahlen als Wurzeln aus negativen Zahlen. Hinzu kommt, daß dieselbe Potenzzahl sich aus positiven wie negativen Wurzeln gleicher Größe definieren (z. B. √4 = +2 und = –2). Wollte man diese doppelte dialektische Definition an einem nicht-mathematischen Beispiel demonstrieren, so könnte man sagen: „Der Wurzelbegriff des Selbst-Bewußtseins ist sowohl das Bewußte wie das Nicht- bzw. Unbewußte“. Die Division Das Dividieren bzw. die Teilung hat zur logischen Grundlage die logischen Quantoren. Es liegt auf der Hand, daß „einige A“ und „ein A“ Teile von „A“ (bzw. von „allen A“) sind. Diese Teile sind in allen Bildungssprachen schon durch eigene Wörter bezeichnet, wie etwa „Element von...“, „Hälfte“, „Drittel“ usw. Worauf es ankommt ist, daß die Partikularisierungen stets das „alle“ bzw. „das Ganze“ im Blick behalten. Daher entsteht das Rechenverfahren der Division aus einer Verschmelzung bzw. Fusion des Allquantors mit den Partikularisierungsquantoren. Logisch könnte man dies „Teil-Ganzes“ nennen. Das erklärt, daß der mathematische Quotient als Ergebnis der Rechenoperation Division ebenfalls nur einen Teil eines Ganzen definiert. Logische Teilungen eines Ganzen können über „Teilbereiche“ nur bis zu „Elementarteilen“ (was immer man in Beispielen dafür hält) führen. So ist es ganz logisch, daß man All- oder Ganzheiten, die aus Einheiten bestehen, in vielfacher Weise in ihre Teile bis zu den Einheiten zerlegen kann. Wobei das Divisionsverfahren z. B durch die Rechengleichung „6 : 3 = 2“, wie gesagt, nur den Zahlenwert eines Teils definiert. Die beim Teilen entstehenden übrigen Teile verschwinden gleichsam im mathematischen Nirvana. Und dies ist logisch und didaktisch die Grundlage für das Erlernen des Divisionsverfahrens. Das mathematische Teilungsverfahren geht dialektisch darüber hinaus und wird kreativ für die Definition neuer Zahlarten, nämlich der Bruchzahlen oder kurz: der Brüche und insbesondere der sog. unendlichen Brüche. Die „elementare Einheit“, aus der nach Euklid alle Zahlen zusammengesetzt werden, erscheint hierbei zugleich als logische Einheit und als Allheit. Sie kann darum in noch „elementarere Einheiten als die Zahleinheit“ zerlegt bzw. „zerbrochen“ werden. Darauf beruht schon die übliche Notierung der Brüche als „1/2“, „1/3“, „1/4“ usw. gemäß den sprachlichen Bezeichnungen „eine Hälfte“, „ein Drittel“ und „ein Viertel“ (immer hinzugemeint: von einem Ganzen), usw. Die Notation der Bruchzahlen mittels des Bruchstriches („ / “) ist zugleich eine Formalisierung der Rechenaufgabe. Das Divisionsergebnis, das man speziell „Quotient“ nennt, ist jedoch nur eine Umformung in die Dezimalnotation mittels der Äquivalenz-Gleichung, d. h. von der Bruch- in die Dezimalform (1/2 = 0,5). Dabei erweist sich wiederum der kreative dialektische Charakter des Verfahrens bei der Definition der „unendlichen“ Brüche. „1/2 = 0,5“ definieren sich gewiß gegenseitig. Aber schon der einfache Quotient „1/3“ ist nicht in dezimaler Form definierbar. Die Gleichung „1/3 = 0,333...“ (bei Abbruch der Rechnung an belie- 112 biger Stelle hinter dem Komma) liefert ersichtlich keinen genauen dezimalen Zahlenwert. Sie definiert daher logisch gesehen ungenaue Zahlen (sog. „Grenzwerte“ von Reihen) als eine besondere „ungenaue“ Zahlart neben denjenigen Zahlen, die man „genaue Zahlen“ nennen kann. Die Gleichung ist dann zugleich (dialektisch!) keine Gleichung bzw. sie wird eine Ungleichung. Die Division hat ebenso wie das Multiplizieren und Potenzieren zu höchst kreativen Begriffsbildungen in der Mathematik und ihren Anwendungen geführt. Die übliche Formulierung von Divisionsaufgaben (als Rechenoperation) ist selbst zugleich Ausdruck für Proportionen, bei der die proportionierten Größen bzw. Dimensionen selbständige Begriffe sind. Das hat auch Euklid in seinen „Elementen“ berücksichtigt, als er die Proportionen von den Teilungen unterschied. Proportionen sind Teilungen, bei denen berücksichtigt wird, daß dabei nicht nur ein „Quotient“, sondern ebenso viele „Quoten“ entstehen, wie der Divisor vorgibt. Diese für den Praktiker jederzeit anschauliche und verständliche Operation wäre eigentlich formal z. B. als „6 / 3 = 2 3“ zu notieren. Das ist in der Mathematik jedoch ausgeschlossen, weil es als Ungleichung und „falsche Rechnung“ verstanden würde. Und doch werden diese Proportionen als gemeinsprachige Ausdrücke häufig verwendet, z. B. bei der Angabe von Wettkampfergebnissen („Eins zu Drei“ oder umgekehrt, etwa bei Ergebnissen von Fußballspielen). Es würde wohl niemandem einfallen, Fußballergebnisse in der Weise einer Divisionsaufgabe auszurechnen, also das obengenannte „Eins zu Drei“ auszurechnen und als ein Drittel bzw. 0,333... (oder umgekehrt: 3/1 bzw. 3,0) anzugeben. Das Beispiel kann darauf aufmerksam machen, daß es logisch auszuschließen ist, eine quantifizierte Proportion als Divisionsaufgabe auszurechnen. Die Ausrechnung von Proportionen führt jedoch in der Mathematik zu Definitionen einer Reihe genuin mathematischer und in Anwendungen physikalischer Begriffe. Als Beispiel wurde schon die Proportion von Kreisumfang und Kreis-Durchmesser als Quotient genannt, die mit dem (stets ungenau bleibenden) Zahlenwert 3,14159... ausgerechnet wurde. Das Ergebnis ist die Definition der Naturkonstante Pi (π), die für alle Kreise aller beliebigen Größen gilt. Der mathematische Formalismus erzwingt jedoch nach der Zulassung der Null als Zahl auch die Ausrechnung von Divisionsproblemen, bei denen Nullwerte im Dividenden oder Divisor vorkommen. Die Rechenergebnisse reichen dann ins Infinite und Infinitesimale. Dabei ist man allerdings nicht konsequent geblieben. Man hat solche Rechenausdrücke als „sinnlos“ bzw. unzulässig „verboten“. Dies aber erzeugte den Bedarf, auf andere Weise mit dem sich hier zeigenden Infinitesimalproblem umzugehen. Und das Ergebnis war die Einführung einer besonderen Quotientenart: des sogenannten Differentialquotienten. Bei den Differentialquotienten tritt die arithmetische Dialektik dem Logiker wohl am eindrucksvollsten entgegen. Es handelt sich um ein Divisionsverfahren mit 113 „Zahlen, deren Zahlenwert unter jede bestimmbare Größe hinabreicht und sich asymptotisch der Null annähert (d. h. ohne sie zu erreichen)“. Logisch wird man solche „Zahlen ohne Zahlengröße“ als Nichtzahlen bezeichnen. Die Buchstabenrechnung war jedoch das geeignete Mittel, diese dialektische Eigenschaft als irrelevant erscheinen zu lassen. Und so wurden diese „hybriden“ nicht-zahlhaften Zahlen als „Infinitesimalzahlen“ zugelassen und buchstabenmäßig (was dann „algebraisch“ genannt wurde) wie Zahlen behandelt. Daraus hat sich eine ganze mathematische Disziplin, die „Infinitesimalmathematik“ entwickelt. Nun sollte man nicht erwarten, daß in der Mathematik angesichts ihrer rein „theoretischen“ (d. h. unanschaulichen) Ausrichtung überhaupt etwas unendlich Kleines (Infinitesimales) oder auch unendlich Großes (Infinites) vorkommen könnte, da sich Großes und Kleines und ungeheuer Großes oder winzig Kleines ausschließlich in der sinnlichen Anschauung findet. Hier hat man dasjenige, was man bei der Beobachtung mit bloßem Auge unendlich klein und unendlich groß nennt, mit Mikro- und Teleskop ziemlich vergrößert oder verkleinert. Die Infinitesimalmathematik empfiehlt und plausibilisiert sich daher mit dem (allerdings metaphorischen) Versprechen, gewissermaßen in eine Feinstruktur der Zahlen (und ebenso in eine Megastruktur des Zahlenkosmos mittels der Cantorschen „Mächtigkeiten“ von Zahlsystemen) einzudringen. Ein Mathematiker bekennt dazu: „In den letzten 200 Jahren hat sich dieser Zweig der Mathematik zu einem umfassenden Hilfsmittel der Naturwissenschaften entwickelt. Er ist immer noch nicht völlig erforscht.“ 59 Daß hier noch viel Forschungsbedarf besteht, kann den Logiker nicht verwundern. Das wird auch so bleiben, wenn man sich in der Infinitesimalmathematik nicht über die hier waltende Dialektik im klaren ist. Und das war schon so, als besonders George Berkely das infinitesimal-geometrische Verfahren von Leibniz und das physikalisch-mechanische Fluxions-Verfahren von Newton als dialektisches Unternehmen analysierte und kritisierte. Die Preußische Akademie der Wissenschaften hatte dies in einer Preisfrage für das Jahr 1784 über das Wesen des Unendlichhen so formuliert: „Man weiß, daß die höhere Geometrie kontinuierlich vom unendlich Großen und unendlich Kleinen Gebrauch macht. Indessen haben die Geometer, und sogar die antiken Analysten, sorgfältig alles vermieden, was mit dem Unendlichen zu tun hat; und berühmte Analysten unserer Zeit bekennen, daß die Termini unendliche Größe widerspruchsvoll sind. Die Akademie verlangt also, daß man erkläre, wie man aus einer widerspruchsvollen Annahme so viele wahre Sätze deduziert hat, und daß man ein sicheres und klares, d. h. wirklich mathematisches Prinzip angebe, das geeignet ist, das Unendliche zu ersetzen, ohne die Forschungen, die darauf beruhen, zu schwierig oder zu lang zu machen.“ 60 59 R. Knerr, Goldmann Lexikon Mathematik, Art. „Infinitesimalrechnung“, München 1999, S. 163. Nouveaux Mémoires de l‟Académie Royale des Sciences et Belles-Lettres, Berlin 1784, S. 12: „On sait que la haute Géometrie fait un usage continuel des infiniment grands et des infiniment petits. Cependant les Géometres, et mȇme les Analystes anciens, ont évité soigneusement tout ce qui approche de l‟infini; et de grands Analystes modernes avouent que les termes grandeur infinie sont contradictoires. L‟Académie souhaite donc qu‟on explique comment on a déduit tant de théoremes vrais d‟une supposition contradictoire, et qu‟on indique un principe sȗr, clair, en un mot vraiment mathématique, 60 114 Eine Antwort vom logischen Standpunkt hätte auch damals lauten können: Der Differentialquotient, der ausschließlich in Buchstabenzeichen (δx/δy) dargestellt wird, bleibt logisch immer eine nicht auszurechnende Proportion (wie bei den Fußballergebnissen). Die Proportion wird aber (wie im Falle von Pi) als Quotient bzw. Divisionsaufgabe behandelt und (wenn auch nur buchstabenmäßig) „ausgerechnet“. Das Ergebnis wird dann als neu definierter mathematischer Begriff behandelt, dessen Widersprüchlichkeit keine mathematische Besonderheit darstellt, wie es die Preisfrage der Preußischen Akademie unterstellt, da sie dem dialektischen Verfahren der üblichen mathematischen Begriffsbildung entspricht. G. W. Leibniz hatte das dialektische Verfahren dadurch begründet, daß er alle Begriffe kontinuierlich bzw. „stetig“ in einander übergehen ließ. Dafür postulierte er seine berühmte „Lex continuationis“61. Dies „Gesetz“ steht in offenbarem Widerspruch zur logischen Begriffsbildung und Begriffsunterscheidung, wonach grundsätzlich keine Kontinuität zwischen Begriffen bestehen kann, da sie gerade durch ihre gegenseitige Abgrenzung (griech. peras, lat. definitio, im Gegensatz zum apeiron als „Infinitem) zu Begriffen werden. Die Widersprüchlichkeit zeigt sich in dem von Leibniz in die Geometrie eingeführten Begriff vom „Grenzübergang“, der einerseits eine Abgrenzung der Begriffe voraussetzt, andererseits diese Grenze negiert. Was hier eine Grenze überschreitet, gehört somit beiden Bereichen diesseits und jenseits der Grenze zugleich an. Ersichtlich lassen sich daraus widersprüchliche geometrische Urteile über dasjenige deduzieren, was einerseits zum Bereich diesseits, andererseits jenseits der Grenze gehört und zugleich beiden Bereichen gemeinsam sein soll. Und dies beantwortet die Akademie-Preisfrage nach der Fruchtbarkeit des Verfahrens. Naturgemäß weisen Leibnizens Beispiele aus der projektiven Geometrie der „in einander übergehenden“ Kegelschnitte eben dieselbe kreative Dialektik auf. Und das gilt nicht minder für alle erst im 19. Jahrhundert entwickelten Kontinuitätstheorien der Zahlentheorie (Dirichlet). Leibnizens Hauptbeispiel für die Deduktion des Differentialquotienten ist eine geometrische Strecke (die Sekante einer Kurve), die „im Grenzübergang“ in einen geometrischen Punkt (Berührungspunkt einer Tangente) übergeht. Übrigens ein Beispiel, das auch Nikolaus von Kues schon in vielen Variationen diskutiert hat.62 Im Grenzübergang kann daher die Strecke zugleich Punkt und Strecke sein. Der dialektische Begriff „Grenzübergang“ wurde nachfolgend aber nicht auf die Grenze zwischen Strecken und Punkten beschränkt, sondern in der Geometrie allgemein auf alle Punkte einer Strecke (oder Kurve) angewandt, die dann zugleich auch Strecken in einem Punkte sein sollten. Das konnte logisch nur bepropre à ȇtre substituté à l‟Infinie, sans rendre trop difficiles, ou trop longues, les recherches qu‟on expédie par ce moyen” (zit. nach G. W. F. Hegel, Ges. Werke, Band 7, Hamburg 1971, Anhang S. 369f. Hier auch die Titel der eingereichten und weiterer Arbeiten). 61 G. W. Leibniz, „Principium quodam generale“ / „Über das Kontinuitätsprinzip“, in: Hauptschriften zur Grundlegung der Philosophie I, hgg. von E. Cassirer, Leipzig 1904, auch Hamburg 1966, S. 84 – 93. 62 Nikolaus von Kues, „De mathematica perfectione / Über die mathematische Vollendung“, in: Nikolaus von Cues, Die mathematischen Schriften, hgg. v. J. Hofmann und J. E. Hofmann, Hamburg 1952, S. 160 – 177. 115 deuten, daß alle Punkte auf einer Strecke zugleich als „Strecken-Punkte“ und die Strecken in einem Punkte als „Punkt-Strecken“, d. h. als ausgedehnt und zugleich nicht-ausgedehnt definierbar wurden. Isaak Newton hat diesen dialektischen Begriff „Fluente“ genannt. Sein Hauptbeispiel entstammt der physikalischen Kinematik: Die Geschwindigkeit einer physikalischen Bewegung bliebe danach auch in einem „Zeitmoment“ (d. h. in einem Zeit-Punkt) erhalten. Logisch widerspruchslos läßt sich allerdings nur behaupten: Eine Strecke ist kein Punkt; und eine durch Raum- und Zeiterstreckungen definierte Geschwindigkeit läßt sich nicht auf einen Punkt übertragen, denn dies wäre allenfalls ein „Ruhepunkt“ (was übrigens Zenon, der Schüler des Parmenides, schon in der Antike und Nikolaus von Kues im Übergang vom Mittelalter zur Neuzeit demonstriert hatten). Sicher dient es zur Dissimulierung dieses Widerspruchs im Begriff des Differentialquotienten, daß er in Lehrbüchern immer noch anhand von Leibnizens geometrischer Veranschaulichung als „Grenzübergang“ von einer SekantenStrecke zu einem Tangenten-Punkt einer Kurve dargestellt wird. Man hat sich so sehr daran gewöhnt, daß diese Demonstration nicht mehr als widersprüchlich durchschaut wird, wenn damit behauptet wird, die Eigenschaften einer Strecke (bezüglich ihrer Lage im Raum) blieben auch im unausgedehnten Punkt erhalten. Die Folge ist, daß man dann auch in der Physik von „Punktgeschwindigkeiten“ redet, wo logisch nur das Gegenteil von Geschwindigkeit, nämlich „keine Geschwindigkeit“ angetroffen werden kann. Werner Heisenberg hat, wie schon vorne erwähnt, mit seiner „Unschärferelation“ bei sogenannten konjugierten physikalischen Größen aus der Not dieses Widerspruchs die Tugend einer ontologischen Eigenschaft der Mikro-Natur gemacht. 5. Die Definitionen Definitionen sind Äquivalenzausdrücke. Sie sind daher keine behauptenden wahrheitswertfähigen Urteile, und darum frei bzw. willkürlich festsetzbar. Es ist ein verhängnisvoller Fehler, sie mittels der Kopula zu notieren oder auszudrücken, anstatt durch das Gleichheitszeichen oder mit Hilfe sprachlicher Wendungen wie „das heißt“. Die Mathematik bezieht, wie schon gezeigt wurde, einen beträchtlichen Teil ihres wissenschaftlichen Renommees aus diesem Mißverständnis, ihre Gleichungen seien wahrheitswertfähige Behauptungen. Definitionen beschreiben einen Begriff mit extensionalen und/oder intensionalen Eigenschaften in den Ausdrücken anderer Begriffe, oder umgekehrt. Die Definitionen der Begriffe sind in der „pyramidalen“ Formalisierung durch die Position des zu definierenden Begriffs in einer Begriffspyramide direkt ablesbar. Die aristotelische Standarddefinition umschreibt einen Begriff durch explizite Angabe seiner generischen Intensionen mittels des „nächst höheren“ Begriffs (Gattung) und durch die spezifische Intension bzw. „Differenz“, die ihn von der Gattung und seinen Nebenarten unterscheidet. Die aristotelische Definitionsweise 116 erlaubt keine Definition höchster Gattungsbegriffe (axiomatische Grundbegriffe). Wohl aber lassen sich solche axiomatischen Begriffe auf andere Weise (siehe Induktion) definieren. Die üblicherweise in der Logik und Mathematik angenommenen axiomatischen Grundbegriffe bzw. Kategorien, die nicht definierbar sein sollen, können daher überhaupt keine Begriffe sein. Die sogenannten partikulären Urteile sind Definitionen. D. h. daß auch sie keine wahrheitswertfähigen Urteile sind. Gleichwohl werden sie seit jeher und noch immer ganz allgemein für Urteile gehalten und in den Lehrbüchern als solche behandelt. Sie drücken die Äquivalenz zwischen einem extensional unterbestimmten Begriff und einem Begriff aus („Einige Lebewesen, d. h. Tiere“). Die Negation führt hier stets zu einer weiteren Definition (Einige Lebewesen, d. h. Nicht-Tiere). Die Negation eines sogenannten partikulären Urteils kann daher als Gegenprobe auf ihren Definitionscharakter gelten. Die sogenannten singulären bzw. individuellen Urteile sind ebenfalls Definitionen. Sie drücken die Äquivalenz zwischen einem Begriff und seiner Umschreibung durch die generischen Merkmale und die singuläre Extension seiner Gattung aus („Mensch, d. h. ein vernünftiges Lebewesen“). Mathematische Gleichungen sind ebenfalls Definitionen. Sie drücken Äquivalenzen zwischen einer Zahl und deren Umschreibung durch Rechenausdrücke bzw. zwischen Rechenausdrücken mit Variablen aus. Tautologien in der Gleichungsform „x = x“ sind weder logische Ausdrücke noch sprachlich sinnvolle Sätze. Sie sind mißbräuchliche Verwendungen der logischen Definitionsform für den Ausdruck der Identität (mehr darüber unten bei Axiome). Sogenannte Funktionsgleichungen („Funktionen“) sind einerseits Äquivalenzen von Rechenausdrücken mit Variablen (Unbekannten). Ihre übliche formale Gleichungsnotierung „y = f (x)“ besagt nur, daß der Begriff y dasselbe bedeutet wie ein durch f (eine spezifische Differenz) bestimmter anderer Begriff x. Z. B. „Quadrat, d. h. gleichseitig-rechtwinkliges Viereck“, oder „Gattin, d. h. verheiratete Frau”. Insoweit sind auch Funktionsgleichungen Definitionen. In der sogenannten analytischen Geometrie, die auf die cartesische Veranschaulichung der Zuordnung von Zahlgrößen zu geometrischen Punkten in der Fläche zurückgeht, wird die Gleichungsform auf die Zuordnung auch gänzlich verschiedener Zahlgrößen angewandt. Diese analytischen Funktionsgleichungen definieren durch Gleichungen einen oder mehrere gemeinsame Punkte auf Kurven bzw. anderen geometrischen Gebilden, und zwar durch zwei verschiedene Zahlarten, nämlich der x- und der y-Größen auf den Flächenkoordinaten. Insofern ist ihre Notation als Gleichung gerechtfertigt. Bei den algebraischen Funktionsgleichungen aber entfällt die geometrische Veranschaulichung als Bezug auf die definierten Punkte. Dadurch werden die Gleichungen zu Ungleichungen im Gewande von Gleichungen. Als Ungleichungen werden sie zu korrelierenden Implikationsurteilen über das Verhältnis der Variablen y und x. Solche algebraischen Funktionsgleichungen sind daher logisch 117 zu formulieren als: „wenn y dann (f)x“. Als Implikationen sind diese Funktionen Behauptungen und haben daher Wahrheitswerte (Über behauptende Funktionen mit Wahrheitswerten siehe unten bei Urteil). 6. Urteile bzw. Propositionen Urteile machen den Bestand des Wissens aus. Sie können wahr, falsch oder beides zugleich sein. Letzteres im Falle der widersprüchlichen Urteile bzw. der Wahrscheinlichkeitsurteile. Sie sind immer allgemein, wie die stoische Logik gegen Aristoteles mit Recht annahm. Und zwar, weil die sogenannten partikulären und individuellen Urteile, wie gezeigt, Definitionen ohne Wahrheitswerte sind. Wahre Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide mittels der urteilsbildenden Junktoren gemäß deren Wahrheitsdefinition. Beispiele für wahre Urteile in der pyramidalen Formalisierung 1. 2. A AB alle AB sind A = wenn AB dann A (kopulatives Urteil = materiale Implikation) 3. A AB A kommt allen AB zu = wenn A dann AB (aristotel. „Zukommen = formale Implikation) alle AB sind nicht AC = kein AB ist AC, wenn AB dann AC AB AC (allg. negatives Urteil und korrelative Implikation) Die materiale und die formale Implikation können nicht zur logischen Formalisierung von Kausalrelationen dienen. Dies offensichtlich deshalb, weil Begriffe nicht kausale Ursachen von einander sind. Die übliche Rede von „logischen Gründen“ verführt aber häufig zu Verwechslungen von logischen und kausalen „Gründen“. Die korrelative Implikation dient einerseits zur Formalisierung von beliebigen Nebeneinanderstellungen. Sie ist jedoch auch die formale Gestalt von Kausalrelationen. Bei diesen bedarf es jedoch weiterer anwendungsbezogener bzw. inhaltlicher Präzisierungen. Erstens muß ein zeitlicher Unterschied zwischen den Bedeutungen der korrelierten inhaltlichen Begriffen vorausgesetzt werden. Zweitens muß der inhaltliche Oberbegriff als Garant der kausalen Verknüpfung (das seit Hume gesuchte „innere Band“ zwischen Ursache und Wirkung) bekannt und bestimmt sein. Falsche Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide mittels der urteilsbildenden Junktoren gemäß deren Falschheitsdefinition. Diese ergeben sich im Formalismus der Pyramide am einfachsten durch regelwidrige („verkehrte“) Lesung der satzbildenden Junktoren: z. B. der Kopula als negierte Kopula und umgekehrt; oder einer der Implikationen, z. B. der Korrelation als materiale oder formale Implikation, und umgekehrt. 118 Beispiele für falsche Urteilslesung in pyramidaler Formalisierung 1. 2. 3. alle AB sind nicht A AB alle AB sind AC / alle AC sind AB A A AB A kommt AB nicht zu AB AC Verwechselung von Unter- und Oberbegriffen (4 u. 5) und von Nebenarten mit Unterordnung 4. 5. AB 6. AB B A AB A Wahr-falsche (widersprüchliche) Urteile verknüpfen reguläre (nicht-widersprüchliche) und irreguläre (widersprüchliche) Begriffe mittels der urteilsbildenden Junktoren derart, daß die Verknüpfung bezüglich der im irregulären Begriff verschmolzenen Intensionen sowohl als wahr wie als falsch gelesen werden kann. Diese Urteile werden oft nicht als widersprüchlich erkannt, wenn der irreguläre Begriff selbst nicht als contradictio in adiecto erkannt wird. In diesem Falle hat man sich gewöhnlich per Konvention auf eine der beiden Lesungen geeinigt. Die klassische und die mathematische Logik lesen das widersprüchliche Urteil als (in toto) falsch, da sie Wahr-Falschheit als „Drittes“ nicht zulassen. Beispiele für zugleich wahre und falsche Urteile (wahr-falsche bzw. widersprüchliche Urteile) 1 2. A AB wahr als materiale I. falsch als formale und als korrelative Impl. AB wenn AB dann A 4. A -A wahr-falsch als Urteil mit widerspr. Prädikat AB alle AB sind A und -nicht A 3. A wahr als formale I. falsch als mat. I. und als korrelative Impl. wenn A dann AB 5. AB AC ABC wahr-falsch als Urteil mit widerspr. Subjekt alle ABC sind AB und AC wahr als korrelative Impl. falsch als formale und als materiale Implikation AB AC wenn AB dann AC 6. Wahr-falsches Urteil als wahres neg. U. und falsches kopulatives Urteil AB AC alle AB sind AC und nicht AC 119 Widersprüchliche Urteile gelten (zu unrecht) in der klassischen und in der mathematischen Logik als falsche Urteile bzw. Aussagen. Damit wird jedoch in dialektischer Weise das darin enthaltene wahre Urteil ebenfalls für falsch erklärt. Die Begründung für diese merkwürdige Meinung ergibt sich in der klassischen Logik aus deren Zweiwertigkeit. Man schloß einen „dritten Wahrheitswert“ aus der Logik aus und hielt das damit Behauptete für „unvorstellbar“ bzw. „absurd“. Die mathematische Logik bzw. „Aussagenlogik“ übernahm diese Meinung und begründete sie mit der (Frege-Tarski) Unterscheidung von Sinn und Metasinn bzw. „Sinn“ und „Bedeutung“ von Aussagen. Der „Metasinn“ von widerprüchlichen Aussagen wurde dogmatisch als „falsch“ definiert, um damit überhaupt ein formales Falschheitsmerkmal auszuzeichnen. Und dies u. a. auch deshalb, weil man davon ausging, es ließe sich kein rein formallogisches Merkmal für (einfache, nicht-widersprüchliche) falsche Behauptungen angeben. Wie oben gezeigt, ist dies in der pyramidalen Formalisierung möglich. Auch die Urteilsalternativen (z. B. alle AB sind entweder A oder Nicht- A / alle AB sind entweder AC oder nicht-AC) sind wahr-falsche Urteile. Sie ergeben sich durch Einsetzen eines nicht wahrheitswertfähigen alternativen Ausdrucks als Prädikat in ein kopulatives oder implikatives Urteil, welches dadurch Wahrheitswerte erhält. Der alternative Prädikatsausdruck bedeutet dann aber nur, daß die durch „entweder … oder“ verknüpften Prädikatsbegriffe in einem dihäretischen Nebenartverhältnis zueinander stehen. Das kopulative Urteil mit einem alternativen Prädikat behauptet deshalb nur, daß einer der beiden Prädikatsbegriffe auf den Subjektsbegriff zutrifft (was als „wahr“ gilt) und deshalb der andere nicht zutrifft (was als „falsch“ gilt). Ein alternatives Urteil ist allerdings nur sinnvoll zu benutzen, wenn grundsätzlich unbekannt ist, welcher Prädikatsteil zutrifft und welcher nicht. Dagegen wird in der Praxis häufig verstoßen. So besagt etwa die sogenannte Abtrennungsregel, daß man von einem alternativen Prädikat jeden der beiden PrädikatsBegriffe als „wahr“ annehmen und damit weitere wahre Urteile bilden könne. Und dies eben deswegen, weil das alternative Urteil insgesamt wahr sei. Darauf beruhen viele Fehler und Irrtümer bei der Anwendung der Urteilsalternative auf Sachverhalte. Die Meinung, daß alternative Urteile ohne Rücksicht auf inhaltliche Sachverhalte wahr seien, ist in der klassischen und modernen Logik seit jeher dogmatisch festgehalten worden. Eine Begründung dafür ist die, daß der AlternativenJunktor (das ausschließende Oder) den Sinn einer Negation des Und-Junktors („oder = nicht und ...“) hat. Und da die Und-Verknüpfung sich widersprechender Behauptungsanteile als formal „falsch“ gilt, gilt die Negation dieser Falschheit schon deswegen als formale Wahrheit. Da man in der Form alternativer Behauptungen demnach immer eine Wahrheit aussprechen können soll, ist die Urteilsalternative eine der beliebtsten Formulierungsformen in den Wissenschaften geworden. Sie erlaubt es, durch alternative Urteile stets recht zu behalten ohne Rücksicht auf inhaltliche Sachverhalte. 120 Die mathematische (Aussagen-) Logik definiert für die Aussagenalternative auch „falsche Wahrheitswerte“, nämlich wenn beide Prädikatsteile wahr oder beide falsch seien. Dadurch werden aber nur „Nicht-Alternativen“ und nicht etwa falsche Alternativen definiert. In der mathematischen Logik sind daher die „falschen Alternativen“ zugleich nicht-alternative Alternativen. Im Gegensatz zur (vermeintlichen) Absurdität der widersprüchlichen Behauptung behauptet die (echte) Alternative nur das Nichtwissen darüber, welcher Behauptungsanteil wahr und welcher falsch ist (d. h. die Unentschiedenheit oder Unentscheidbarkeit). Sie kann also, wie schon gesagt, nur im Falle solchen Nichtwissens sinnvoll gebraucht werden. Und deshalb ist sie die logische Form „möglicher Antworten“ auf präzise Forschungsfragen, die eine Entscheidung über den wahren bzw. falschen Behauptungsanteil erbringen sollen. In der neuzeitlichen Logik sind auch sogenannte Wahrscheinlichkeitsurteile mehr und mehr in den Vordergrund des Interesses der Logiker getreten. Trotz ihrer Verbreitung im Forschungsbetrieb ist ihre logische Natur noch keineswegs angemessen geklärt worden. Sie sind durchweg Vermutungen (Konjekturen bzw. Hypothesen) im Gewande von Behauptungen. Das läßt von vornherein auf ihren dialektischen Charakter schließen. Was man vermutet, weiß man bekanntlich gar nicht oder nicht genau. Deshalb formuliert man Vermutungen alltagssprachlich im Konjunktiv („es könnte sein daß ...“). Ihr Gegenstandsbereich ist hauptsächlich alles Zukünftige, daneben aber auch gegenwärtig mehr oder weniger Unbekanntes. Niemand, der seine Alltagssprache und ihre Grammatik beherrscht, wird die Konjunktivsätze mit Behauptungen verwechseln. Obwohl Aristoteles in seiner zweiwertigen Logik die Behauptungssätze zum Substrat von Wahrheit und Falschheit gemacht hatte, hat er aber auch Vermutungen (über die „possibilia futura“, d. h. zukünftig Mögliches) in seiner Modallogik in Behauptungsformen ausgedrückt. Bekanntlich gibt es seither weder in der Logik noch in der Mathematik konjunktivische Satzformen. Um gleichwohl dem Nichtwissen in den Vermutungen Rechnung zu tragen, hat man die aristotelische Modallogik zur dreiwertigen Logik erweitert. Der sogenannte „dritte Wahrheitswert“ ist jedoch gerade das, was Aristoteles aus der zweiwertigen Logik ausschließen wollte, nämlich das „Dritte“ neben Wahrheit und Falschheit. Die Bezeichnung für dieses Dritte neben Wahrheit und Falschheit, also die „Wahrscheinlichkeit“, wuchs den damit verbundenen Problemen erst in der Neuzeit zu. Noch Joachim Jungius konnte in seiner „Logica Hamburgensis“ von 1681 die Wahrscheinlichkeit mit der Wahrheit gleichsetzen. Er definierte: „Wahrscheinlich ist, was von den Meisten oder Klügeren gebilligt, d. h. als wahr eingeschätzt wird“.63 Von daher ist dem Wahrscheinlichkeitsbegriff auch später stets die Wahrheitsnähe vindiziert worden. 63 „Probabile verum est, quod plerisque aut sapientioribus probatur, hoc est verum censetur“, Joachim Jungius, Logica Hamburgensis, hgg. v. R. W. Meyer, Hamburg 1957, S. 2 und S. 403. 121 Kant widmete der Wahrscheinlichkeit ein Kapitel seiner Logikvorlesungen und definiert sie schon etwas einschränkender als „ein Fürwahrhalten aus unzureichenden Gründen ..., die aber zu den zureichenden ein größeres Verhältnis haben, als die Gründe des Gegentheils“64. Er unterscheidet dabei zwischen der „mathematischen Wahrscheinlichkeit (probabilitas)“, die „mehr als die Hälfte der Gewißheit sei“ (ibid. S. 91), und der „bloßen Scheinbarkeit (verisimilitudo); einem Fürwahrhalten aus unzureichenden Gründen, insofern dieselben größer sind als die Gründe des Gegentheils“ (ibid. S. 90). Bei letzterer entfällt jeder „Maßstab der Gewißheit“. Daher könne es auch keine „Logik der Wahrscheinlichkeit (logica probabilium)“ geben, „denn wenn sich das Verhältnis der unzureichenden Gründe zum zureichenden nicht mathematisch erwägen läßt, so helfen alle Regeln nichts“ (ibid. S. 91). Kants Hinweis auf den Unterschied zwischen logischer und mathematischer Wahrscheinlichkeit wurde freilich nicht beachtet. Wohl aber wurde durch ihn die (falsche) Meinung verstärkt, daß die (mathematische) Wahrscheinlichkeit näher bei der Wahrheit als bei der Falschheit sei. Kant sah jedenfalls ganz richtig, daß auf den „Schein der Wahrheit“ kein Verlaß ist, und daß hinter dem Schein durchaus auch die Falschheit versteckt sein könnte. Genau das ist auch der Fall. „Wahrscheinlichkeit“ ist eine recht euphemistische Bezeichnung für den dritten Wahrheitswert geblieben, der diesen Namen nicht verdient. Denn was nur „wahr erscheint“, kann ebensowohl „falsch“ sein. Und um dies zu benennen, fehlt es noch bislang an einem Begriff von „Falschscheinlichkeit“. Logisch betrachtet ist die Wahrscheinlichkeit dasselbe wie Falschscheinlichkeit. Und das kann man etwas strikter als „Wahr-Falschheit“ bezeichnen. Was das ist, haben wir schon ausführlich als die logische Form des Urteilswiderspruchs behandelt. Der widersprüchliche Charakter der Wahrscheinlichkeitsurteile zeigt sich zunächst darin, daß sie Vermutungen (also Nicht-Behauptungen) im Gewande von Behauptungen sind. Dann aber auch darin, daß sie (wie die Alternativen) ein Nichtwissen als Wissen „erscheinen“ lassen. Zeigen wir dies am Beispiel von prognostischen Wahrscheinlichkeitsurteilen. Werden Wahrscheinlichkeits-Prognosen als Urteile behandelt (was durchaus problematisch ist), so sind sie wahr-falsche Konjunktionen bzw. Adjunktionen einer positiven und einer negativen Aussage über denselben zukünftigen Sachverhalt. Erweist sich die positive Aussage als wahr (sogenannte Verifikation, was freilich nicht in der Zukunft, sondern in der Gegenwart festgestellt wird, wenn die Prognose nicht mehr Prognose ist!), so war die negative falsch. Erweist sich die negative Aussage als wahr (sog. Falsifikation), so war die positive Aussage falsch. 64 I. Kant‟s Logik. Ein Handbuch zu Vorlesungen, hgg. v. G. B. Jäsche, erl. v. J. H. v. Kirchmann, Leipzig 1876, S. 90. 122 Der logische Musterfall dieser Verhältnisse ist der Münzwurf. Man weiß mit Sicherheit, daß die geworfene Münze Bild oder Zahl zeigen wird, aber man weiß nicht, welche Seite sich zeigen wird. Wenn die Münze auf dem Rand stehen bleibt, gilt dies nicht als Münzwurf. Die logische und zugleich mathematische Formulierung des Falles aber lautet: die Wurfergebnisse stehen im Verhältnis von 1 : 1 (oder „fifty-fifty“). Man beachte dabei, daß es sich bei dieser Formulierung um eine Proportion (wie beim Fußballspiel), keineswegs aber um einen ausrechenbaren Quotienten handelt. Man sieht, daß die Wahrscheinlichkeiten (auch „Chancen“ genannt) für den einen und den anderen Fall der Münze gleichverteilt sind. Man kann auch sagen: Wahrheit und Falschheit der Prognose sind im Gleichgewicht. Was wiederum bedeutet, daß man mittels der logischen Wahrscheinlichkeit überhaupt nichts über das prognostizierte Ergebnis behaupten kann. Mathematiker berechnen die „statistische Wahrscheinlichkeit“ mittels ausgerechneter Quotienten. So ergeben sich Wahrscheinlichkeits- (oder „Risiko-“) Koeffizienten. Darüber soll im § 10 mehr gesagt werden. Jedenfalls kann schon festgehalten werden, und jedes Beispiel numerischer Wahrscheinlichkeiten zeigt es, daß die logische Halbe-Halbe-Wahrscheinlichkeit immer auf alle mathematischen („statistischen“) Wahrscheinlichkeiten durchschlägt. Letztere mögen hoch oder niedrig sein, das Ergebnis ist im Einzelfall immer gänzlich unbestimmt. Selbst das Höchst-Wahrscheinliche passiert manchmal gerade nicht, und das Unwahrscheinlichste passiert. Deshalb kann man mit Wahrscheinlichkeitsaussagen – je nach Standpunkt – immer Recht behalten oder immer falsch liegen. Analytische Funktionsgleichungen sind, wie die Bezeichnung besagt, Gleichungen und als solche Definitionen. Gegenstand der Definitionen waren (und sind) in der analytischen (cartesischen) Geometrie die gemeinsamen Punkte, die durch die Zahlvariablen der zwei (flächenbestimmtenden) oder drei (raumbestimmenden) cartesischen Koordinaten dargestellt werden. Was wir hierbei Definitionsgleichungen genannt haben, wird in der Terminologie der analytischen Geometrie als „Abbildung“ (d. h. ein-eindeutliche Zuordnung) von Variablenwerten (gewöhnlich von y-Werten zu x-Werten in der cartesischen Fläche) verhandelt. Die numerischen Ausdrücke mit den Variablen x und y links und recht des Gleichheitszeichens beziehen sich auf einen Punkt oder alle Punkte auf einer Kurve als ihre gemeinsame Bedeutung. Die Ausweitung der euklidisch-cartesianischen Geometrie auf nicht-euklidische Räume und mehrdimensionale Zahlordnungen hat inzwischen die ursprünglichen geometrischen Veranschaulichungen der Funktionszusammenhänge in den Gleichungen weit hinter sich gelassen. Das führte zur Entwicklung rein arithmetischer algebraischer Funktionen. Zwar versucht man auch für diese - oft aus didaktischem Interesse – geometrische Veranschaulichungen (sog. Graphen) zu finden, aber das ist nur noch beschränkt möglich. Bei komplizierteren Funktionen geht 123 die Gleichungseigenschaft der ein-eindeutigen Zuordnung der Variablenwerte verloren. Die numerische Analysis ist daher dazu übergegangen, die Gleichungsnotation zugunsten einer korrelierenden Implikation aufzugeben. Statt y = f(x) formalisiert man „y → f(x)“ d. h. “wenn x dann ein anderer (nur in Ausnahmefällen derselbe) Zahlenwert von y“.65 Darin deutet sich ein grundsätzlicher Übergang der Funktionentheorie von der Definition ihrer numerischen Ausdrücke zu (hypothetischen bzw. kreativen) Behauptungen in der Form korrelierender Implikationen über das Vorliegen von existierenden neuen numerischen Gebilden an. 7. Schlüsse. Implikative Urteile sind zugleich einfachste Schlüsse. Komplexe Schlüsse, auch Argumente genannt, sind Urteilsverbände, wie die aristotelischen Syllogismen und die stoischen (chrysippschen) Schlüsse. Man bemerke, daß sich bei den Urteilsimplikationen als einfachsten Schlüssen nicht die Frage nach einem „falschen“ ersten oder zweiten Schlußglied stellen kann, da diese selbst nur Begriffe, jedoch keine wahrheitswertfähigen Urteile sind. Aristotelische Syllogismen sind Argumente aus drei Begriffen, deren intensionale und extensionale Verflechtungen in einer Begriffspyramide durch Urteile und/oder Definitionen klar und deutlich dargestellt werden. Ihre Subsumptionsverhältnisse im Gattungs-Art-Individuum-Zusammenhang werden durch die Kopula bzw. die materiale Implikation (oder beides zusammen) von unten nach oben, oder (wie oft bei Aristoteles) durch das spezielle „Zukommen“ bzw. die formale Implikation (oder beides zusammen) von oben nach unten dargestellt. Ihre Unterscheidungen von Nebenbegriffen werden durch die Negation dargestellt. Da hierbei alles auf die Unter- und Nebenordnung der drei Begriffe des Syllogismus ankommt, spielen in den aristotelischen Syllogismen die Quantifikationen die Hauptrolle. Die Nebenordnung kann durch die Negation eines Begriffs („kein ... ist“) oder durch die Negation der Kopula („.... ist nicht“) dargestellt werden. Die in vielen aristotelischen Syllogismen enthaltenen sogenannten partikulären bzw. individuellen Urteile sind als Definitionen zu lesen (statt „ist“ lies „das heißt“). Alle klassischen Syllogismen des Aristoteles lassen sich auf drei Verknüpfungsschemata zurückführen. Diese sind nicht mit den sog. syllogistischen Figuren des Aristoteles zu verwechseln. Sie sehen folgendermaßen aus: 65 R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 131. 124 Die drei Schemata der aristotelischen Syllogismen 1. Leiter 2. Riß 3. Spitze A A AB ABD AB AC AB AC ABD Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund Erklärung: In der „Leiter“ wird eine Unterart bzw. ein Individuum mit einem Artbegriff, dieser mit seiner Gattung und im engeren „Schluß“ ersteres mit letzterem verknüpft. Im Beispiel: Alle Hunde sind Tiere. Alle Tiere sind Lebewesen. Also sind alle Hunde Lebewesen (modus barbara). Im „Riß“ werden Unterart und Artbegriff verknüpft und beide durch Negation von einer Nebenart unterschieden. Im Beispiel: Alle Hunde sind Tiere. Kein Tier ist Pflanze. Also ist keine Pflanze Hund (modus calemes). In der „Spitze“ werden zwei Artbegriffe gegeneinander abgegrenzt und mit ihrer Gattung verknüpft. Im Beispiel: Kein Tier ist Pflanze. Alle Tiere sind Lebewesen. Also sind (eigentl. =) einige Lebewesen Nicht-Pflanzen (modus felapton). Der Schluß i. e. Sinn ist eine Definition von „Tier“ durch Negation der Nebenart „Pflanze“! Die von Aristoteles als „gültig“ dargestellten und in einem berühmten Merkspruch benannten Syllogismen spielen sämlich in diesen Figuren. Jedoch sind nicht alle echte Syllogismen, da in einigen mittels negativer Definitionen mit mehr als drei Begriffen „gespielt“ wird. Die sogenannten stoischen Schlüsse (Chrysipps fünf „Unbeweisbare“ bzw. „Indemonstrablen“) sind Argumente, in denen zwei Begriffe in einem pyramidalen Zusammenhang gemäß den möglichen junktoriellen Verknüpfungen eingeführt („es gibt...“) oder eliminiert werden („es gibt nicht...“). Sie bestehen aus einem hypothetischen bzw. nicht-behauptenden Anteil (falls es gäbe, ... so gäbe es auch …), der sprachlich im Konjunktiv formuliert wird, und einem behauptenden Anteil, den im engeren Sinne sogenannten Schluß (nun gibt es... also gibt es … / gibt es nicht …). Der Einführung oder Eliminierung eines Begriffs in den oder aus dem pyramidalen Formalismus entspricht gemäß dem nicht-formalen Logikverständnis der Stoiker die inhaltliche Behauptung oder Negierung der wirklichen Existenz von Gegenständen, die unter den jeweiligen Begriff fallen. Die Schlüsse i. e. S. behaupten daher die Existenz oder die Nichtexistenz des unter den einen Begriff 125 Fallenden in Abhängigkeit von der Existenz oder Nichtexistenz von Gegenständen, die unter den anderen Begriff fallen (sog. modus ponens und modus tollens). Gemäß der universaldeterministischen Ontologie der Stoiker lassen sich ihre Schlüsse nur auf die logische Klärung des Verhältnisses von Ursache und Wirkung bzw. von Wirkung und Ursache beziehen. Das Kausalverhältnis setzt (worauf Sextus Empirikus besonders hinweist 66 ) stets ein zeitliches Verhältnis voraus: Die Ursache geht zeitlich voraus, die Wirkung folgt zeitlich nach. Ein Ursache-Wirkungsverhältnis kann aber, wie vorn gezeigt wurde, nur durch die korrelierende Implikation zwischen Nebenartbegriffen dargestellt werden. Denn weder kann die Gattung Ursache für Unterbegriffe noch können Unterbegriffe Ursache für ihre Gattungen sein. Nur so erklärt sich der Sinn der fünf „unbeweisbaren“ Schlußformen des Chrysipp. Diese lassen sich so formulieren: a. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im diskutierten Beispielsfall) eine Ursache. Also gibt es (auch) eine Wirkung (modus ponens). b. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im diskutierten Beispielsfall) keine Wirkung. Also gibt es (auch) keine Ursache (modus tollens). c. Es gäbe nicht (gleichzeitig) eine Ursachen und eine Wirkung. Nun gibt es aber eine Ursache. Also gibt es (noch) nicht eine Wirkung. d. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Beispielsfall eine Ursache. Also gibt es (noch) keine Wirkung. e. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Beispielsfall) keine Wirkung. Also gibt es (erst nur) eine Ursache. 67 Der Orientierung der stoischen Schlußlehre am Ursache-Wirkungszusammenhang kann man entnehmen, daß diese Schlußformen in der Wissenschaft eine Hauptform der logischen Methode zur Entdeckung (oder Widerlegung) der Existenz von Kausalfaktoren geworden ist. Beispiel ist die langwährende Debatte der Stoiker über die Existenz des (demokriteischen) Leeren bzw. des leeren Raumes, den sie gegen die aristotelische Bestreitung („horror vacui“ der Natur) zu beweisen suchten. Sie schlossen von der Existenz sichtbarer Schweißperlen auf der Haut, daß es auch unsichtbare „Poren“ in der Haut geben müsse, durch welche die Schweißperlen austreten. Das Beispiel zeigt zugleich, daß die Kausalforschung der Stoiker eine Grundlage für die Suche nach „unbeobachtbaren Parametern“ (wie den unbeobachtbaren Kräften in der Physik) geworden ist. 66 Sextus Empiricus, Pyrrhoneische Grundzüge, aus dem Griechischen übersetzt und mit einer Einleitung und Erläuterungen versehen von Eugen Pappenheim, Leipzig 1877, 3. Buch Kap. 3,26, S. 170. 67 Vgl. die Darstellung der fünf „Unbeweisbaren“ bei J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg-München 1970, S. 145f. 126 Die sogenannte Aussagenlogik Die moderne Aussagenlogik steht zwischen der traditionellen Urteilslehre und der Schlußlehre. Es werden beliebige inhaltliche Urteile („Aussagen“ bzw. sog. Elementarsätze als Beispielsfälle) in die Begriffspositionen eingesetzt, so daß die Junktoren nicht mehr Begriffe, sondern selbständige wahre oder falsche Urteile zu komplexen Aussagen verknüpfen. Diese komplexen Aussagen ähneln den Verknüpfungen von Urteilen zu Schlüssen. Für die komplexen Aussagen werden je nach den darin verwendeten Junktoren eigene Wahrheitswerte („wahr“ oder „falsch“; ein dritter Wahrheitswert wird strikt ausgeschlossen) definiert bzw. festgesetzt. Die vorne satzbildende Junktoren genannten Operatoren behalten ihre traditionellen (von den Stoikern detaillierter als bei Aristoteles ausgearbeiteten) Definitionen. Die ausdrucksbildend genannten Junktoren erhalten in der Aussagenlogik ebenfalls Wahrheitswert-Definitionen, deren Sinn rätselhaft erscheint und deshalb umstritten ist. Dies kann nicht verwundern, weil sie gar keinen Wahrheitswert besitzen können. Die für die Definitionen aller Junktoren aufgestellte „Wahrheitswerttabelle“ 68 gilt als bedeutende Errungenschaft der modernen Logik. Obwohl sich Wittgenstein selbst später vom damaligen Stand seiner Philosophie distanziert hat, gehört der „Tractatus“ noch immer zum obligatorischen Lehrstoff der Logikseminare. Die Aussagenlogik beruht auf zahlreichen fehlerhaften Annahmen, die mehr Probleme in der Logik aufgeworfen als gelöst haben. Die grundlegende (falsche) Voraussetzung ist das Vorurteil, die Logik insgesamt sei eine Meta-Sprache. D. h. ihr „Vokabular“ (Variable und Junktoren) und ihre „Grammatik“ (die Regeln der Verknüpfung der Vokabeln und Junktoren zu „Aussagen“) erzeuge eine autonome logische Bedeutungsschicht mit eigenständiger Wahrheit und/oder Falschheit über dem Bedeutungsbereich der normalen und der inhaltlichen wissenschaftlichen Bildungssprachen, die jeweils ihre eigenen Wahrheitswerte besitzen. Das hat vielfach widersprüchliche oder gar paradoxe Folgen. Sie bestehen darin, daß die definierten Wahrheitswerte der Meta-Sprache selbst in Widerspruch zu den Wahrheitswerten der Beispielsätze geraten. Wittgenstein hat selbst den Terminus „Elementarsatz“ eingeführt, aber niemals ein Beispiel für einen Elementarsatz geliefert. Aus seiner Definition: „Der Elementarsatz besteht aus Namen. Er ist ein Zusammenhang, eine Verkettung, von Namen“ (Tractatus 4.22) kann man aber schließen, daß er mathematische Ausdrücke wie Summen, Quotienten, Produkte und ihre „Verkettungen“ für wahrheitswertfähige Behauptungssätze hielt. Das ist jedoch, wie gezeigt wurde, falsch. 68 Vgl. L. Wittgenstein im Tractatus logico-philosophicus. 1920/21 Satz 5.101, in: L. Wittgenstein, Tractatus logicophilosophicus. Logisch-philosophische Abhandlung, Frankfurt a. M. 1963, S. 60. – Vgl. dazu die Darstellungen bei J. M. Bochenski und A. Menne, Grundriß der Logistik, 4. Aufl. Paderborn 1973, S. 36f. sowie W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band I: Wissenschaftliche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. 6 - 25. 127 Eine weitere (falsche) Voraussetzung Wittgensteins besteht darin, daß die in der Aussagenlogik verknüpften „Elementarsätze“ (Basissätze) keinerlei thematischen Kontext zu besitzen brauchen. Was Aristoteles durch den „Mittelbegriff“ als Zusammenhang zwischen Prämissen und Folge garantiert hatte, ist also fallengelassen worden. Das aber hat u. a. zur Folge, daß auch die Abfolge von Vorderund Hintersätzen (bzw. von Prämissen und Folgerungen) willkürlich gewählt werden kann. So lehrt die Aussagenlogik, die gewöhnlich beliebige Behauptungssätze als Elementarsätze verwendet, z. B. folgende metasprachliche „Wahrheiten“: Werden ein beliebiger wahrer und ein ebenfalls beliebiger falscher Satz durch den Junktor „und“ zu einem aussagenlogischen Argument verknüpft, so hat das Argument insgesamt den Wahrheitswert „falsch“. Werden ein beliebiger wahrer Satz und ein beliebiger falscher Satz durch den Junktor „oder“ (hier ist das ausschließende „entweder ... oder“, die Alternative, gemeint) zu einem Argument verknüft, so hat das Argument den Wahrheitswert „wahr“. Wird ein beliebiger falscher Satz und ein beliebiger wahrer Satz durch den Junktor „wenn ... dann“ (Implikation) zu einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“. Wird in umgekehrter Reihenfolge ein beliebiger wahrer und ein beliebiger falscher Satz durch den Implikationsjunktor zu einem Argument verknüpft, so hat das Argument den Wahrheitswert „falsch“. Und werden zwei beliebige falsche Satze durch den Implikationsjunktor zu einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“. Die Formen dieser Argumentbildungen erscheinen nur deshalb in einigen Hinsichten als plausibel, weil sie die Urteilsbildung der klassischen Logik nachahmen. Aber der Schein trügt. Es wurde vorn schon gezeigt, daß in der klassischen Urteilslehre ausdrucksbildende Junktoren ohne Wahrheitswert und satzbildende Junktoren, die den Wahrheitswert bestimmen, zu unterscheiden sind. Gerade diese grundlegende Unterscheidung wird in der Aussagenlogik außer acht gelassen. Nimmt man die Voraussetzungen der Aussagenlogik beim Wort, so muß man z. B. ganze Bücher voller falscher Sätze mit einer daraus gefolgerten falschen These für „wahr“ halten. Und das kommt in den Wissenschaften nicht selten vor (und wird durch die Aussagenlogik gleichsam abgesegnet). Der entscheidende Fehler, der viele andere nach sich zieht, ist also der, den ausdrucksbildenden Junktoren bzw. Operatoren generell und speziell auf der Meta-Ebene Wahrheitswerte zuzusprechen. Geben wir noch einige Beispiele dieses Fehlers, die sich aus dem MetaEbenenansatz ergeben. So muß z. B. eine „alternative“ Verknüpfung zweier beliebiger wahrer Sätze (mit „entweder ... oder“) wie „entweder ist Paris die Hauptstadt von Frankreich oder die Erde ist ein Planet“ für falsch gehalten werden. Man bemerkt aber, daß es sich nicht um eine falsche, sondern überhaupt nicht um eine Alternative handelt. Ebenso gilt die Konjunktion (mit „und“) eines falschen und eines wahren Satzes wie „Paris ist die Hauptstadt von Deutschland und die Erde ist ein Planet“ (ebenso 128 in umgekehrter Reihenfolge) als falsch. Zu verstehen dabei ist allenfalls, daß die Konjunktion nach dem Muster der Widerspruchsfalschheit für falsch gehalten wird, obwohl es sich keineswegs um einen echten Widerspruch handelt. Es handelt sich vielmehr um eine bloße Nebeneinanderstellung eines selbständigen wahren und eines falschen Satzes. Man sieht dabei nicht ein, warum die beiden Sätze noch einen übergeordneten Meta-Wahrheitswert haben sollten. Formalisiert man die Beispielsätze selbst (üblicherweise mit den Variablen für ganze Behauptungssätze „p“ (= wahrer Satz) und „-p“ (falscher Satz), so verkennt der gesamte Meta-Sprachenansatz und mit ihm die Aussagenlogik, daß durch diese Formalisierung (p bzw. –p) der inhaltliche Beispielsatz seine eigene wahre oder falsche Satz-Bedeutung verliert und ein nicht wahrheitswertfähiger Ausdruck an seine Stelle tritt. „Wahrer Satz“ bzw. „falscher Satz“ sind nicht selbst wahre oder falsche Behauptungen, sondern Bezeichnungen eines (logischen) Sachverhaltes. Dies ebenso wie die nebeneinandergestellten Ausdrücke „weiße Kuh und schwarze Kuh“. Die Aussagenlogik ist entwickelt worden, um komplexe Satzverknüpfungen als Argumente formalisieren zu können. Tatsächlich lassen sich die behauptenden komplexen Urteile (also solche mit satzbildenden Junktoren) in der Regel auf syllogistische und stoische Schlußformen zurückführen. Als Hauptjunktor verwendet man dann die Implikation (wenn ... dann) und interpretiert die damit verknüpften Aussagen nach der scholastischen Faustregel: „Ex falso seqitur quodlibet“ (Aus dem Falschen folgt Beliebiges, d. h. Wahres und Falsches) und „Verum sequitur ex quolibet“ (Wahres folgt aus Beliebigem, d. h. aus Wahrem und aus Falschem). Diese Faustregeln, die aus der scholastischen Syllogistik in die Aussagenlogik übernommen worden sind, machen aber nur Sinn, wenn das „Beliebige“ als Widerspruchsfalschheit (also als wahr und falsch zugleich) verstanden wird. Nur wenn ein widersprüchliches Urteil wahr und falsch zugleich ist, kann sowohl Wahres als auch Falsches daraus gefolgert werden. Und ebenso folgt das Wahre nur dann aus Beliebigem, wenn das „Beliebige“ ebenfalls als widersprüchliches Urteil sowohl wahr als auch falsch zugleich ist und damit das Wahre mitenthält. Diese – eigentlich auf der Hand liegende – restriktive Bedingung für das Funktionieren solcher Schlüsse hat aber weder die scholastische Logik noch die Aussagenlogik anerkannt. Als logisches „Falsum“ wurden und werden einfach falsche Beispielsätze (anstatt widersprüchliche Sätze) in die Faustregel-Schemata eingesetzt, und man wundert sich dann oft über die Schlußfolgen. Dieser traditionelle Fehler verbindet sich schließlich mit dem durch die Aussagenlogik neu eingeführten weiteren Fehler, den wir schon genannt haben. Er macht sich auch in den gerade genannten Beispielssätzen bemerkbar. Er besteht darin, daß bei der Formalisierung der Argumente auf jeden begrifflichen Zusammenhang zwischen den Argumentsätzen verzichtet wird. Dieser „kontextuelle“ Zusammenhang bleibt jedoch für jede Schlußbildung eine wesentliche Bedingung. In der Aussagenlogik wird aber aus beliebigen Sätzen und Ausdrücken und ihren 129 Verknüpfungsweisen durch die Junktoren auf die Wahrheit oder Falschheit des Gesamtarguments geschlossen. Deshalb kann man auch nur aus der Aussagenlogik (nicht aber aus einem aristotelischen Syllogismus) den „wahren Schluß“ lernen: „Wenn 4 eine Primzahl und Berlin die Hauptstadt von Frankreich ist, dann ist die Erde kein Planet“. Pfiffige Geister können daraus den moralischen Schluß ziehen: Glaubwürdigkeit ergibt sich auch durch konsequentes Lügen. Die von L. Wittgenstein vorgeschlagene Wahrheitswerttabelle von 16 Wahrheitswerten für die Kombination zweier Elementarsätze hat seither durch ihren mathematischen Charakter der Variation aller möglichen Nebeneinanderstellungen zweier Elementarsätze mit ihnen zugelegten Wahrheitswerten fasziniert. Sie dürfte der bislang letzte Ausläufer der Lullischen Kunst sein, die darin bestand, alle Kombinationen von 9 Kategorien mechanisch zu erzeugen.69 Nach allem, was vorn über die logische Leistungsfähigkeit der Junktoren gesagt wurde, dürfte klar sein, daß die Wahrheitswertdefinitionen der Aussagenlogik sich insgesamt dem mathematischen „dialektischen“ Prozedere verdanken. Daher wird z. B. die Kopula, sicher der wichtigste, weil in der Logik meistgebrauchte Junktor, überhaupt nicht definiert, sondern mit dem Gleichheitszeichen und dem Existenzjunktor gleichgesetzt (Tractatus 3.323). Die vieldiskutierte „Tautotologie“ mit dem Wahrheitswert „immer wahr“, mit der Wittgenstein gar das Wesen der Logik erfaßt haben wollte, besteht in einer (nicht wahrheitswertfähigen) Konjunktion zweier (widersprüchlicher) Selbstimplikationen („Wenn p, so p; und wenn q so q“).70 (Die „Kontradiktion“ mit dem Wahrheitswert „immer falsch“, wird gleichsam spiegelbildlich als Konjunktion zweier widersprüchlicher Satzvariablen dargestellt („p und nicht p; und q und nicht q“). Es sei dem Leser überlassen, sich über den Unterschied der logischen und mathematischen Denkweise anhand solcher Belege weiter klar zu werden. 8. Theorie Theorien sind logisch geordnete Begriffspyramiden über einem abgegrenzten Erfahrungsbereich. Basisbegriffe einer Theorie sind unterste Artbegriffe bzw. Beschreibungstermini oder Eigennamen. Alle anderen Begriffe sind induktiv durch Weglassen der spezifischen Differenzen und Festhalten der gemeinsamen generischen Merkmale aus diesen zu abstrahieren. Das gilt insbesondere für die höchsten Gattungsbegriffe, die sogenannten axiomatischen Grundbegriffe oder Kategorien der Theorie. Beachtet man nur die Begriffe einer Theorie, ohne auf die Relationen zwischen ihren Begriffspositionen Rücksicht zu nehmen, so hat man es mit dem zu tun, was man als den „harten Kern“ (hard core) einer Theorie bezeichnen kann. Über diese Begriffe zu verfügen, nennt man wissenschaftliche Kenntnisse. Erst die Notierung 69 Vgl. dazu L. Geldsetzer, Metaphysik. Einleitung und Geschichte der antiken und mittelalterlichen Metaphysik. Internet des Philosophischen Instituts der HHU Duesseldorf 2009. 70 Vgl. jedoch dazu Tractatus 4.243: „Ausdrücke wie ‚a = a‟, oder von diesen abgeleitete, sind weder Elementarsätze, noch sonst sinnvolle Zeichen“! 130 und Lesung der satzbildenden junktoriellen Beziehungen zwischen den Begriffen einer Theorie liefert ihre Behauptungen, die man wissenschaftliche Erkenntnisse nennt. Bei Theorien kann es vorkommen, daß nur einzelne ihrer Sätze falsch oder wahr-falsch sind. Man kann diese, wenn sie erkannt werden, aus der Theorie durch Umordnung ihrer Begriffspositionen eliminieren. In der üblichen Praxis und unter der Voraussetzung, daß Satzwidersprüche „logisch falsch“ seien, hält man eine Theorie jedoch insgesamt für falsch und widerlegt, wenn sich nur ein oder nur einige Widersprüche darin finden. Da diese sich aber durch Umstrukturierung ihres pyramidalen Zusammenhanges eliminieren lassen, kann man vorhandene Theorien verbessern. Das erklärt die ebenso übliche Praxis, bewährte Theorien nicht aufzugeben (was K. Popper jedoch empfahl), sondern sie zu „retten“ und der Erfahrungslage anzupassen. Induktiv gewonnene Theorien sind in der Regel widerspruchslos und werden, wenn dies (evtl. durch Deduktion aller involvierten Begriffe) bestätigt wird, als wahr akzeptiert. Man muß freilich betonen, daß es tatsächlich wahre Theorien gibt angesichts der unter Wissenschaftlern verbreiteten Meinung, Theorien könnten allenfalls wahrscheinlich sein. Letzteres würde nach den hier vorgestellten logischen Prinzipien nur bedeuten, daß sie Widersprüche enthalten. Viele Theorien werden allerdings rein deduktiv entwickelt. Sie sind in der Regel anfällig für die absichtliche oder unbemerkte Einführung widersprüchlicher Begriffe. Die Verknüpfung solcher widersprüchlicher Begriffe liefert dann auch widersprüchliche Aussagen bzw. Theoreme dieser Theorien. Alle Theoriebegriffe müssen definierbar sein, wie bei der Induktion gezeigt wurde. Allerdings geht man in der Logik wie in der Mathematik seit Aristoteles ganz allgemein davon aus, daß die obersten Gattungsbegriffe (axiomatische Grundbegriffe) nicht definierbar seien. Wir sagten vorne schon: wenn dies so wäre, würde es sich dabei nicht um Begriffe handeln. Und in der Tat werden sie auch durch „Intuitionen“ eingeführt, die keinen Anspruch darauf machen, als Begriffe akzeptiert zu werden. Das hält die üblichen Theorien gewissermaßen lebendig und jeweils offen für vielfältige Interpretationen. Als Beispiele für eine induktiv konstruierte Theorie in Form einer Begriffspyramide sei hier zunächst eine formale und zugleich semiformale Darstellung der Hauptgedanken der „Phänomenologie des Geistes“ von Hegel vorgestellt. Semiformal heißt: anstelle der Intensionen-Variablen sind die inhaltlichen Begriffe Hegels in die Begriffspositionen eingetragen. 131 Die „Theorie“ der Hegelschen „Phänomenologie des Geistes A Erinnerung absoluter Geist Vern. Wissen AB Selbstbewußt sein,Person ABD unglückl. Bewußtsein ABDF Totes Äußeres, Sinne ABDFHI Wahrnehmung ABDFH Täuschung Allgemeines Dieses, sagen ABDFHJ Ding, Objekt ABDFHJK Erfahrung ABDFG Begreifen Begriff ABDFI Einzelnes, Meinen ABDE Handeln Begierde ABDG Inneres Leben Verstand ABDGL Kraft ABC Schaffen Taten AC Institutionen Normen ABE freies HerrenBewußtsein ACP Sitte ABEN "stoisches" Bewußtsein ABDGLM Erklärung ACQ Recht ABEO "sekptisches" Bewußtsein ABDDGM Gesetz ABDFHK Ich, Subjekt Erläuterung: Hegel beginnt mit der Induktion der „Erfahrung“, in welcher die beiden sich dihäretisch gegenüberstehenden Instanzen Objekt und Subjekt bzw. Ding und Ich zu einem dialektischen Begriff verschmolzen sind. „Erfahrung“ enthält die spezifischen Merkmale des Objektiven (…J) und Subjektiven (…K) gemeinsam. Werden diese weggelassen, so wird der Begriff des „Allgemeinen“ bzw. des als „Dieses … Sagbare“ als Oberbegriff der beiden Ausgangsbegriffe erreicht. Dem „Allgemeinen“ (…H) steht im Negationsverhältnis gegenüber der Begriff des „Einzelnen“ (…I) bzw. des nur „Meinbaren“. Allgemeines und Besonderes bzw. das Sag- und Meinbare werden zum dialektischen Begriff dessen, was zugleich „Wahrnehmung” und „Täuschung“ ist, verschmolzen. Wird von den gemeinsamen spezifischen Differenzen (…HI) abgesehen („aufheben 1“), gewinnt man den höheren Begriff des durch die „Sinne wahrgenommenen Äußeren” und „Toten“ („aufheben 2“). Diesem steht im Negationsverhältnis gegenüber das durch den „Verstand zu erfassende innere Leben“. Usw. bis zur letzten Induktion des „absoluten Geistes“ mit seinen „Er-Innerungen“ des gesamten Induktionsprozesses. Man bemerke, daß Hegel nicht alle Begriffe als „dialektische“ konstruiert, sondern daß er dialektische Begriffe als eine Stufe der Begriffsinduktion einschaltet. Gelegentlich deduziert er aus der erreichten Stufe weitere Begriffe, wie sie auf der rechten Seite des Schemas erscheinen. 132 Als Beispiel für eine deduktiv konstruierte Theorie sei eine semiformale Pyramide der Zahlbegriffe vorgestellt. Semiformale Dartellung einer logisch begründeten Zahlentheorie Logische Quantifikation Zahlbegriff Menge Logisches Ein = Element Buchstabenzahl Variable, Konstante Kommensurable rationale Zahl Null Positive Zahl Logisches Alle = Ganzes Inkommensurable komplexe Zahl Non-standardZahl Negative Neg. number Zahl ganze Zahl and und Integer rationale Bruchzahl ra- Irrationalzahl z.B.period.Bruchzahl irrationale Wurzel Imaginäre Zahl Wurzel aus negativer Zahl tional fractals rationale Bruchzahl ganze Zahl „natürliche“ Zahl ungerade Zahl nicht halbierbar gerade Zahl halbierbar nmber Primzahl nur durch sich selbst teilbar Nicht-Primzahl nicht nur durch sich selbst teilbar nmber Erläuterung: Es handelt sich um den Vorschlag einer logisch begründeten Deduktion des allgemeinen Zahlbegriffs (Menge) und der hauptsächlichen Zahlarten und Unterarten. Er unterscheidet sich als „logische Deduktion“ ersichtlich von allen bisher vorgeschlagenen mathematischen Zahldefinitionen. Die Pyramide stellt bei Lesung der Verknüpfungen zwischen den Begriffspositionen eine Zahltheorie dar. 133 Die in die Elipsen eingezeichneten Begriffe sind logische Quantifikationsbegriffe. Aus den Begriffen „Eines“ (Element) und „Alles“ (Gesamt) wird der mathematische Grundbegriff „Zahl“ (logisch „Menge“ genannt) fusioniert, der beide logische Merkmale zugleich enthält. Von diesem dialektischen Zahlbegriff ist der nichtwidersprüchliche logische Quantifikator „Einige“ zu unterscheiden, der die mittlere Position in der multiplen Artenreihe „ein, einige, alle“ einnimmt und deswegen die sich widersprechenden Merkmale des mathematischen Zahlbegriffs nicht enthält. Alle spezielleren Zahlbegriffe enthalten die widersprüchlichen Merkmale des Mengen- bzw. Zahlbegriffs als generische Merkmale und sind deswegen in Rechtecke eingeschrieben. Aus den dihäretisch deduzierten Nebenarten von Zahlen lassen wiederum fusionierte dialektische Zahlbegriffe induzieren, die die spezifischen Differenzen der beiden Nebenarten gemeinsam enthalten, und deren Extensionen sie gemeinsam umfassen. Die Deduktion der Primzahlen als „ungerade nur durch sich selbst teilbare“, und der Nichtprimzahlen als „nicht nur durch sich selbst teilbare ungerade ganze Zahlen“ ergibt sich aus der – an anderer Stelle ausgeführten – Kritik an der seit Euklid üblichen Zulassung der 2 und Nichtzulassung der 1 als genuiner Primzahlen. Corollarium zur Goldbachschen Vermutung: Die Vermutung von C. Goldbach (1690 – 1764) lautet bekanntlich, daß jede gerade Zahl, die größer als 2 ist, durch die Summe zweier Primzahlen dargestellt werden könne. Die Vermutung kann ersichtlich wegen der üblichen Primzahldefinition nicht entschieden werden. Die Zulassung der 1 als Primzahl sollte eigentlich selbstverständlich sein. Denn sie erfüllt die traditionelle euklidische Definition der Primzahlen als „nur durch sich selbst und die 1 teilbare (natürliche ganze) Zahl“, wie auch Henry Lebesgue annahm. Daß die 1 als Primzahl zugelassen wird, ist für die Lösung des Problems ausschlaggebend. Ob die 2 als Primzahlen zugelassen wird oder nicht, spielt für die Goldbachsche Vermutung jedoch keine Rolle. Wohl aber, daß die 1 eine ungerade und die 2 eine gerade Zahl ist. Das Kriterium für eine Lösung liegt in den Primzahlzwillingen (also Primzahlabständen der Größe 2). Nur mit der 1 als Summand läßt sich zur Bildung jeder geraden Zahl, die größer als 2 ist, der kleinere Primzahlzwilling zur „Summe zweier Primzahlen“ ergänzen. Q. e. d. 9. Axiome Axiome als oberste Gattungsbegriffe werden, wie gesagt, in vielen Wissenschaften als „unableitbare“ Kategorien des jeweiligen Bereiches vorgestellt. Da sie nach klassischem aristotelischem Definitionsmuster nicht definierbar sind und diese Meinung sich allgemein durchgesetzt hat, spricht man mit D. Hilbert von ihrer impliziten Definition, die sich erst im Verlauf von Deduktionen und Interpretationen aus ihnen herausklären lassen soll. 134 Die definitorische Unbestimmtheit der Kategorien als oberster Gattungen der wissenschaftlichen Theorien hat seit der Antike den großen Freiraum für Interpretationen dessen geschaffen, was mit ihnen in den jeweiligen Wissenschaften bzw. Wissenszusammenhängen gemeint sein konnte. Die Fachtermini zur Bezeichnung der Kategorien konnten sich so über Jahrhunderte konstant erhalten. Die Auslegung ihres Sinnes hat jedoch zu allen Zeiten und bei allen Schulbildungen innerhalb der Disziplinen eine große Variationsbreite gehabt. Die Technik solcher Auslegungen führte schon in der Spätantike zur Ausbildung sogenannter dogmatischer und zetetischer Hermeneutiken in der alexandrinischen Philologie und von daher in der Jurisprudenz und Theologie.71 Am deutlichsten hat sich die hermeneutische Methode in der Ausbildung einer eigenen mathematischen Disziplin „Axiomatik“ zur Geltung gebracht. Ihr Gründer war David Hilbert. Er reklamierte in einem berühmt gewordenen Dictum „jeden Gegenstand des wissenschaftlichen Wissens“ in einer ausgereiften Theorie als „Gegenstand der axiomatischen Methode“ und somit „indirekt als Gegenstand der Mathematik“.72 Dieser axiomatische Aufbau der Mathematik geht von vornherein davon aus, daß die axiomatischen Grundbegriffe der Mathematik grundsätzlich nicht definierbar seien, sondern daß sich ihr Sinn erst in den Interpretationen offenbare. Kompensatorisch dazu hat die Mathematik jedoch eine Reihe von Kriterien entwickelt, die zur Auszeichnung und Bestimmung derjenigen „Ideen“ dienen sollen, die sich als Axiome verwenden lassen. Diese Kriterien lauten bekanntlich: Unabhängigkeit (von einander), Widerspruchslosigkeit, Vollständigkeit und ggf. Evidenz. Kriterien sind nun freilich keine Theoriebegriffe. Es handelt sich dabei eher um Ideale oder „Postulate“, die das Selbstverständnis der Mathematiker über Ziel und Zweck ihrer Wissenschaft ausdrücken. Man möchte in den vorhandenen mathematischen Theorien diejenigen Begriffe herausfinden, die als „unabhängig“ von einander nicht deduziert werden können. Man strebt an, daß alles mathematisch Demonstrierte und Bewiesene widerspruchslos sei. Auch soll alles Mathematische in der Gestalt von Theorien vorgeführt werde, die ihrer Natur nach einen thematischen Bereich „vollständig“ abdecken. Und das alles soll sogleich auch „einleuchten“ (evident sein) und insofern überzeugen. Nach allem, was vorn über den pyramidalen Zusammenhang von Begriffen in Begriffspyramiden von Theorien gesagt wurde, dürfte leicht zu sehen sein, daß diese sogenannten Kriterien oder vielmehr Ideale für ihre Zwecke untauglich sind – und sich schon gar nicht dazu eignen, gleichsam als Super-Kategorien behandelt zu werden. Denn wenn Axiome unabhängig von einander sein sollen, können sie nicht auf Widerspruchslosigkeit hin geprüft werden. Wenn sie widerspruchslos sein sollen, 71 Vgl. dazu und zum Folgenden L. Geldsetzer, Art. „Hermeneutik“ in: Handlexikon der Wissenschaftstheorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 127 – 138, sowie § 45 im vorliegenden Text. 72 Vgl. D. Hilbert, Axiomatisches Denken, in: Mathematische Annalen 78, 1918, S. 405 – 415, ND in: Gesammelte Abhandlungen III, Berlin 1935, S. 146 – 156; ND New York 1965. 135 können sie nicht unabhängig von einander sein. Wenn sie vollständig sein sollen, muß schon der ganze Inhalt der Theorie aus ihnen abgeleitet, begründet und bekannt sein. Wenn sie evident sein sollen, müssen ihre Intensionen und Extensionen bekannt sein, d. h. es geht nicht ohne ihre Definition. Als oberste Gattungen („axiomatische Grundbegriffe“ oder „Kategorien“) sowohl der Logik wie auch der Mathematik gelten seit jeher die Begriffe Identität, Widerspruch und Drittes. Da sie in Axiomatiken als nicht-definierbar gelten, kann man sich nicht wundern, daß sie bis heute höchst umstritten, d. h. interpretierbar geblieben sind. Ihre Problematik dürfte aber nur eine scheinbare sein, denn es läßt sich zeigen, daß es sich bei der Identität, dem Widerspruch und dem Dritten keineswegs um Kategorien, sondern um nachrangige Begriffe logischer Theorien handelt. Dafür spricht, daß sie bei Erläuterung ihrer logischen und mathematischen Natur gewöhnlich mit den Begriffen Wahrheit und Falschheit in Verbindung gebracht werden. Man sagt, die Identität garantiere die Wahrheit, der Widerspruch bringe die Falschheit zum Ausdruck, und das Dritte liege außerhalb von Wahrheit und Falschheit. Diese Meinung wird damit begründet, daß die Identität eine Tautologie sei, bei der man gewissermaßen keinen Irrtum begehen könne; daß der Widerspruch in der Form einer Behauptung überhaupt „Nichts“ behaupte (deshalb wird sein Wahrheitswert aussagenlogisch mit 0 (Null) = Falschheit bezeichnet); das Dritte aber liege jenseits der zweiwertigen Logik und werde erst in der neueren dreiwertigen oder in mehrwertigen Logiken als eigenständiger Wahrheitswerte-Bereich ausgespreizt. Dieser Bereich umfasse die sogenannten Wahrscheinlichkeitswerte. Als die tatsächlichen Axiome der Logik und Mathematik erweisen sich dadurch die Begriffe von Wahrheit, Falschheit und Wahr-Falschheit. Wahrheit und Falschheit sind diejenigen obersten Gattungen, in deren Extension alle logischen und mathematischen Urteile und Schlüsse liegen. Im Umfang des Wahrheitsbegriffes liegen sämtliche wahren Urteile und Schlüsse; im Umfang des Falschheitsbegriff liegen alle falschen Urteile und Schlüsse. Die Begriffe von Wahrheit und Falschheit stehen im Negationsverhältnis zueinander. Dadurch können sie auch in Äquivalenzgleichungen definiert werden. Diese lauten: Wahrheit = Nicht-Falschheit; sowie: Falschheit = Nicht-Wahrheit. Wahr-Falschheit ist ein kontradiktorischer Begriff, der aus der Verschmelzung der Begriffe von Wahrheit und Falschheit entsteht. Man erinnere sich, daß die Extension eines kontradiktorischen Begriffs die Extensionen beider verschmolzenen Ausgangsbegriffe umfaßt. In seiner Extension liegen daher alle wahr-falschen sowie Wahrscheinlichkeitsurteile und -Schlüsse, da sie aus wahren und falschen Urteilen bzw. Schlüssen zusammengesetzt sind. Die Definition lautet demnach: Wahr-Falschheit = Wahres und Falsches bzw. Nicht-Wahres und Nicht-Falsches. Man bemerke, daß Begriffe als logische und mathematische Elemente nicht unter diese Kategorien von Wahrheit, Falschheit und Wahr-Falschheit fallen. 136 Begriffe können nicht wahr oder falsch oder wahrscheinlich sein. Insbesondere sind es kontradiktorische und konträre widersprüchliche Begriffe nicht, die man oft „falsche Begriffe“ nennt. Sie sind allerdings als Prädikatsbegriffe in Urteilen das Hauptmittel, diese Urteile wahr-falsch zu machen. Im übrigen sind sie, wie gezeigt wurde, phantastische Vorstellungen mit erheblicher heuristischer und kreativer Relevanz. Die Definitionen von Wahrheit, Falschheit und Wahr-Falschheit lassen erkennen, daß diese Kategorien nicht „unabhängig“ sondern im Gegenteil abhängig von einander sind. Daher stellt sich die Frage der Kriterien anders als es die mathematische Axiomatik vorschlägt. Das Wahrheitskriterium besteht in der logischen Kohärenz (oft auch Konsistenz genannt) und Komprehensibilität (Umfassendheit) einer Theorie als Urteilssystem. Kohärenz ergibt sich im definitionsgemäßen Gebrauch und entsprechender Lesung der satzbildenden Junktoren in Anwendung auf reguläre Begriffe. Komprehensibilität bedeutet, daß eine einzelwissenschaftliche Theorie sich in das Gesamt des jeweiligen Fachwissens einschließlich seiner philosophischen (metaphysischen und grunddisziplinären) Begründungen kohärent einfügen läßt. Das Falschheitskriterium bedeutet: logische Inkohärenz bzw. Nicht-Kohärenz. Diese zeigt sich im definitionswidrigen Gebrauch und entsprechender Lesung der satzbildenden Junktoren in Anwendung auf reguläre (widerspruchslose) Begriffe. Bei der Verwendung widersprüchlicher Begriffe in Urteilen ergibt sich die Inkohärenz durch die falschen Anteile in den wahr-falschen Behauptungen. Das Kriterium der Wahr-Falschheit ergibt sich aus gleichzeitiger Kohärenz und Inkohärenz einer Theorie. Diese zeigen sich im definitionsgemäßen Gebrauch und entsprechender Lesung satzbildender Junktoren in Anwendung auf irreguläre (kontradiktorische und konträre) Begriffe. Hauptformen sind die widersprüchlichen Urteile, insbesondere als Möglichkeitsurteile, Paradoxe und Wahrscheinlichkeitsurteile. Bemerken wir auch an dieser Stelle: Es ist ein häufiger, jedoch irreführender logischer Sprachgebrauch, widersprüchliche Urteile als „unlogisch“ oder gar „sinnlos“ bzw. “absurd“ zu bezeichnen, und dies im Unterschied zu falschen Urteilen. Denn Urteilswidersprüche gehören ebenso wesentlich zur Logik wie widerspruchslose falsche Urteile. Sind dadurch die logischen und mathematischen begrifflichen Axiome klar und deutlich als „Kohärenz“ und „Inkohärenz“ definiert, so lassen sich mit ihnen auch die logischen und mathematischen „axiomatischen Grundsätze“ formulieren: 1. „Alles Wahre ist kohärent“, 2. „Alles Falsche ist inkoherent“. 3. „Alles WahrFalsche bzw. Wahrscheinliche ist kohärent und inkohärent zugleich“. Diese axiomatischen Eigenschaften lassen sich im pyramidalen Formalismus sowohl darstellen als auch ablesen. 137 § 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs als Fusion von Wirklichkeit und Möglichkeit In § 5 wurde bereits auf den Unterschied zwischen der gemeinsamen wirklichen Lebenswelt des Menschen und den sonderbaren möglichen Welten der Wissenschaftler aufmerksam gemacht. Nachdem im Vorangegangen zusätzlich einiges über die Logik ausgeführt worden ist, kann nunmehr etwas genauer über diese möglichen Welten gehandelt werden. Die bereits von Aristoteles konzipierte Modallogik hat zu einer in der ganzen Logikgeschichte bearbeiteten Formalisierung der Vermutungen bzw. Hypothesen geführt. Aristoteles hatte seine Modallogik als Theorie der „zukünftigen Möglichkeiten“ (possibilia futura) entwickelt. Mit ihr sollten nicht wahre oder falsche Behauptungen formalisiert werden, sondern „unentscheidbare“ Vermutungen über zukünftige Ereignisse, also gerade das, was man im grammatischen Futur oder in grammatisch-konjunktivischen Sätzen äußert. Aristoteles stellte diese Vermutungen als „Möglichkeitsurteile“ neben die Notwendigkeitsurteile und die Wirklichkeitsurteile. Unter Notwendigkeitsurteilen konnte man in der aristotelischen Logiktradition die rein formalen Urteile verstehen, da der logische Formalismus als „zwingende Notwendigkeit“ aufgefaßt wurde. Inhaltliche bzw. nicht-formalisierte Urteile galten dann als Wirklichkeitsurteile. Zusammen mit diesen wurden die Vermutungen als Möglichkeitsurteile i. e. S. dann in der sogenannten Modallogik behandelt. Gerade dadurch, daß die Modallogik als traditioneller Teil der klassischen Logik galt und die Möglichkeitsurteile zusammen mit den Notwendigkeitsurteilen (seit Kant: „apodiktische Urteile“) und den Wirklichkeitsurteilen (seit Kant auch: „assertorische“ bzw. „faktische Urteile“) behandelt wurden, wurden auch die „Möglichkeitsurteile“ (Kant nannte sie „problematische Urteile“) zum Gegenstand zweiwertiger Wahrheitswertbetrachtungen. Daraus haben sich eine Reihe spezieller Modallogiken und Modalkalküle entwickelt.73 Das hat dahin gewirkt, daß 73 Vgl. dazu neben den im § 5 genannten Arbeiten die Artikel „Modalität“, „Modalkalkül“ und „Modallogik“ von K. Lorenz in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, Band 2, Mannheim-Wien-Zürich 1984, S. 904 – 906, 906 – 907 und 907 – 911. 138 man den Möglichkeitsbegriff selbst für einen regulären logischen Begriff gehalten hat. Leibniz definierte den Möglichkeitsbegriff in Übereinstimmung mit dieser logischen Tradition als „das Widerspruchslose“ bzw. als das, „was eingesehen werden kann, d. h. was klar eingesehen wird“. 74 Das wird durch Christian Wolff (1679 – 1754) in seiner Definition: das Mögliche ist das, „was keinen Widerspruch in sich enthält“ 75 gemeine Auffassung der neueren Philosophie. Kants Transzendentalphilosophie legt ebenfalls diese Möglichkeitsdefinition zugrunde. Transzendentalphilosophie verstand sich ausdrücklich als eine Erforschung der „Bedingungen der Möglichkeit von Erkenntnis“, d. h. der begrifflichen Grundlagen der Erkenntnis. Dabei sollte diese „Ermöglichung“ der wissenschaftlichen Erkenntnis (neben den Anschauungsformen der Sinne und den „dialektischen“ Ideen der Vernunft) wesentlich in Grundbegriffen („Kategorien“ bzw. „konstitutiven“ Grundbegriffen) des Verstandes bestehen, die widerspruchslos sein sollten. Die Leibniz-Wolff-Kantische Möglichkeitsdefinition macht jedenfalls verständlich, daß die begrifflichen „Möglichkeiten“ als reguläre (widerspruchslose) Begriffe gefaßt werden. Umgekehrt hat es auch dazu geführt, daß Begriffe überhaupt als „Möglichkeiten“ verstanden werden. Das Mögliche soll sich also widerspruchslos denken bzw. vorstellen lassen. Was aber einen Widerspruch enthält, gilt danach als negierte Möglichkeit, also als „unmöglich“ (daher auch „absurd“ bzw. „sinnlos“). Auch das ist so von der modernen Logik übernommen worden. Der Möglichkeitsbegriff ist außerhalb der Logik zum Stammbegriff einer Reihe von Grundbegriffen in den Einzelwissenschaften geworden. Auf das griechische „dynamis“ und die lateinische Übersetzung „potentia“ gehen der physikalische Kraftbegriff und die „Potentialität“ sowie die anthropologischen und psychologischen Begriffe „Vermögen“, „Anlage“, „Disposition“ zurück. Von der Medizin bis in die Vulgärsprache sind auch die aristotelischen Begriffe der geschlechtlichen „Potenz“ und des Geschlechts-„Akts“ erhalten geblieben. Die vorgenannten Begriffe von Kräften und Vermögen haben in den betreffenden Wissenschaften immer etwas Rätselhaftes behalten. Sie sollen als angenommene Ursachen manifest Wirkliches (bei Aristoteles „energeia“, lateinisch „actus“, deutsch wörtlich: „Wirklichkeit“), das immer sinnlich wahrnehmbar ist, aus einem unsichtbaren und theoretisch konstruierten Hintergrund erklären. Physikalische Kräfte werden erst in ihren Wirkungen erfaßt und bemessen, psychische Vermögen und Anlagen erst, wenn sie sich in manifesten Leistungen darstellen. Daher hat es auch nicht an Kritikern gefehlt, die z. B. eine Physik ohne Kräfte 74 „Possibile est, quod intelligi potest, id est ... quod clare intelligitur“, in: G,. W. Leibniz Confessio philosophi, 1673, zit. nach H. Seidl, Art. Möglichkeit, Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter und K. Gründer, Band 6, BaselStuttgart, 1984, Sp. 85. 75 Vgl. H. A. Meissner, Philosophisches Lexikon aus Christian Wolffs Sämtlichen Deutschen Schriften, Bayreuth und Hof 1737, ND hgg. von L. Geldsetzer, Instrumenta Philosophica, Series Lexica III, Düsseldorf 1970, S. 379. 139 (Ernst Mach) oder eine Psychologie ohne Vermögen (J. H. Herbart) gefordert haben. Die meisten Physiker und Psychologen fuhren jedoch fort, von den Kräften und Vermögen so zu reden, wie man vordem von Geistern und Dämonen redete. Diese bewirken alle physischen und psychischen Prozesse, doch nimmt sie niemand wahr, und sie zeigen sich niemals in manifesten Erscheinungen. Und so bilden auch jetzt noch die „potentiellen Kräfte“ und „unentdeckten, unausgeschöpften und unbewußten Vermögen bzw. Kapazitäten“ (jetzt manchmal auch „Kompetenzen“ genannt) ein wissenschaftstheoretisches Gespensterreich hinter denjenigen physikalischen und psychischen Phänomenen, die aktuell beobachtet werden. Der traditionelle Glaube in der Philosophie und in den Wissenschaften, daß da, wo ein Wort eine lange Geschichte aufzuweisen hat und als „Terminus“ in den Wissenschaften verbreitet ist, auch ein regulärer Begriff zugrunde liegen müsse, hat den Begriff der „Möglichkeit“ immer davor geschützt, als das erkannt und durchschaut zu werden, was er ist: nämlich ein widersprüchlicher Begriff (contradictio in terminis). Da widersprüchliche Begriffe bei der Satz- und Urteilsbildung widersprüchliche Urteile nach sich ziehen können, liegt in solchen Begriffen die Grundlage für die „dialektische Logik“, die von der klassischen auf Nichtwidersprüchlichkeit abzielenden Logik unterschieden werden muß. Die faktische Existenz dieser Dialektik ist auch dort, wo man sie nicht vermutet, offensichtlich. Nun scheint es besonders die vermeintliche Undefinierbarkeit der höchsten Gattungen gewesen zu sein, die die Logiker und Ontologen seit jeher dem Möglichkeitsbegriff zugute gehalten haben. Sie verstehen ihn dann als (oberste) Gattung über den beiden ontologischen Artbegriffen „Sein“ und „Nichts“ bzw. „Wirklichkeit“ und „Unwirklichkeit“. Verwendet man den Möglichkeitsbegriff („das Mögliche“) als genus proximum über den Begriffen „Sein“ und „Nichts“, so ergibt sich die gewiß im Abendland traditionelle Definition von „Sein“ als „SeinsMöglichkeit“ und von „Nichts“ als „Nicht-Möglichkeit“ bzw. „Unmöglichkeit“. Vom Sein läßt sich dann als wahr behaupten, daß es nicht Nichts ist; und vom Nichts, daß es nicht Sein ist. Trotz der Plausibilität und allgemeinen Verbreitung dieser Definition weist sie jedoch einen gravierenden logischen Fehler auf, der erst durch die genaue Analyse der Intensionen und Extensionen des Möglichkeitsbegriffs sichtbar wird. Wäre „Möglichkeit“ die Gattung über „Sein“ und „Nichts“, dann müßte zur Bildung des Begriffs der Möglichkeit von den spezifischen Differenzen „Sein“ und „Nichts“ (bzw. „Nichtsein“) abstrahiert werden können. „Möglichkeit“ bliebe dann nur als gemeinsame Gattung übrig, und „möglich“ müßte als generisches Merkmal den Artbegriffen „Sein“ und „Nichts“ zukommen. Was zur Folge hätte, daß alles Seiende und alles Nichtige auch möglich sein müßte. Dieses reine „Mögliche“ müßte sich in irgend einer Weise denken bzw. vorstellen lassen, und zwar ohne Verknüpfung mit irgendwelchen Vorstellungen von Sein oder Nichts, denn davon müßte ja abstrahiert werden. Es verhielte sich nicht anders als 140 beispielsweise beim Begriff des „Lebendigen“, dessen Definition man durch Abstraktion von den spezifischen Merkmalen der Arten des Lebendigen, nämlich der „Tiere“ und der „Pflanzen“ erhält. Der Möglichkeitsbegriff kann jedoch keine Gattung über den Artbegriffen Sein und Nichts sein. Die Logiker entledigen sich jedoch der Frage nach seinen Intensionen und Extensionen durch die These von der grundsätzlichen Undefinierbarkeit höchster Begriffe, zu denen die „Möglichkeit“ neben „Sein“ und „Nichts“ traditionellerweise gerechnet wird. Es wurde schon früher 76 vorgeschlagen, den Möglichkeitsbegriff als widersprüchlichen Begriff zu verstehen. „Möglichkeit“ wird danach nicht durch Abstraktion von Sein und Nichts als gemeinsame Gattung beider induziert, wie das bei regulären Gattungsbegriffen (und somit auch bei höchsten Gattungen bzw. Kategorien) der Fall ist, sondern durch Verschmelzung der beiden im Negationsverhältnis zu einander stehenden Begriffe „Sein“ und „Nichts“ zu einem dritten Begriff. „Möglichkeit“ ist dann als „Sein-Nichts“ oder auch (wegen der Symmetrie der Verschmelzung) als „Nichts-Sein“ zu definieren. Schon die Tatsache, daß solche zusammengesetzten Bezeichnungen in der Philosophie- und Logikgeschichte bisher nicht aufgetaucht sind, zeigt, daß diese dialektische Begriffsverschmelzung im Möglichkeitsbegriff bisher nicht gesehen worden ist. Intensional bedeutet das, daß der Möglichkeitsbegriff die sich ausschließenden Intensionen „Sein“ und „Nichts“ zugleich enthält, was eben seine Widersprüchlichkeit ausmacht. Daneben aber enthält der Möglichkeitsbegriff kein eigenes Merkmal, wie es von einer gemeinsamen Gattung über Sein und Nichts zu fordern wäre. Die Extension des Möglichkeitsbegriffs besteht hier in den vereinigten beiden Extensionen der Ausgangsbegriffe „Sein“ und „Nichts“. Das hat aber weitreichende Folgen für das, was man sich bei „Möglichkeit“ vorzustellen und zu denken hat. Es handelt sich nicht um etwas Transzendentes, was über Sein und Nichts bzw. Wirklichkeit und Nichtwirklichkeit hinausliegen könnte (wie bei einer Gattung zu fordern wäre), sondern gerade um alles das, was man zugleich und in gleicher Hinsicht „nichtiges Sein“ und „seiendes Nichts“ nennen könnte. Wer also von Möglichkeiten spricht und sich dabei etwas denkt bzw. vorstellt, der kann damit in der Regel nur etwas Wirkliches meinen, das er zugleich für unwirklich hält, oder umgekehrt etwas Unwirkliches, was er zugleich für wirklich hält. Bezüglich der „Möglichkeit“ denkt sich freilich jeder Logiker und Wissenschaftler irgend etwas, wenn es auch schwer fällt zu sagen, was es ist und wie es beschaffen sein könnte. Und darum meint man allgemein auch, „Möglichkeit“ müsse etwas anderes sein als ein Widerspruch in sich. Und das soll dann ebenso von den oben genannten Ableitungsbegriffen (den ebenso dialektischen Artbegriffen) der Möglichkeit wie Kraft, Vermögen, Anlage gelten. Jeder, der damit umgeht, stellt sich unter irgend einem Modell bzw. einem Gleichnis etwas dabei 76 Vgl. L. Geldsetzer, Logik, Aalen 1987, S. 94 und S. 98. 141 vor und beruhigt sich damit, im Modell (besser gesagt: in der jeweiligen Privatmythologie) ließe sich dem Unanschaulichen gewissermaßen als Denkhilfe etwas Bildhaftes beigesellen. Was bei diesem widersprüchlichen Begriff gedacht bzw. vorgestellt werden soll und kann, ist jedoch einerseits das, was als Seiendes oder Existierendes (d. h. als etwas unter den Begriff „Sein“ Fallendes) wahrgenommen und nur durch die Wahrnehmung in seiner faktischen Existenz überhaupt bestätigt werden kann. Andererseits ist es zugleich auch das, was in der Erinnerung an das Wahrgenommene nach dessen Verschwinden (ein Fall von Nichts!) vorgestellt wird. Ohne Erinnerung an Vergangenes könnte man darüber nicht als von einem vordem wahrgenommenen Sein oder Wirklichen reden. Wahrnehmung und Erinnerung sind in aller Regel wohlunterschiedene geistige Tätigkeiten. Während und solange man etwas wahrnimmt, bemerkt man nicht, daß man zugleich dieses Wahrgenommene auch erinnert. Es muß aber begleitend erinnert werden, wenn es als etwas mehr oder weniger Beständiges ausgezeichnet werden kann. Aristoteles scheint dies mit seiner Substanzdefinition gemeint zu haben. Sie lautet bekanntlich „to ti en einai“ bzw. „das, was war und (noch) ist“ (wir haben es mit „Ge-Wesen“ übersetzt). Wohl aber bemerkt man an den Erinnerungen, daß das, was ihnen als Wahrgenommenes zugunde lag, ins Nichts abgeglitten ist. Es ist für keine sinnliche Wahrnehmung mehr verfügbar. David Hume hat die Erinnerungen „schwache Bilder“ und „weniger lebhafte Wahrnehmungen“ von Sinneseindrücken (faint images und less lively perceptions) genannt.77 Als solche schwachen Bilder werden die Erinnerungen gewiß nicht mit den sinnlichen Wahrnehmungen verwechselt. Für den realistischen Empirismus, wie ihn Hume vertrat, ist nur das Wahrgenommene in und während der Wahrnehmung eigentliches Sein. Die „schwachen Bilder“ nach der Wahrnehmung repräsentieren das ins Nichts Verschwundene. Die erinnerten Bilder sind das Sein dieses Nichts im Bewußtsein. Die realistischen Erkenntnistheorien erklären die sinnliche Wahrnehmung bekanntlich selbst schon als eine Abbildung eines (an sich unerkennbaren) Objektes, des „Dinges an sich“ Kants. Sie verkennen den Unterschied zwischen nicht-abbildenden Wahrnehmungen und bild-bildenden Erinnerungen und übertragen das letztere Verhältnis auf das erstere. Idealistische Erkenntnistheorien, wie diejenige George Berkeleys, betonen jedoch gerade die Identität von sinnlicher Wahrnehmung und Gegenstand der Wahrnehmung. Abbildhaftigkeit von Erkenntnissen ergibt sich für einen wohlverstandenen Idealismus, wie ihn Berkeley vertrat, 77 “By the term impression, then, I mean all our more lively perceptions, when we hear, or see, or feel, or love, or hate, or desire, or will. And impressions are distinguished from ideas, which are the less lively perceptions, of which we are conscious, when we reflect on any of those sensations or movements above mentioned”, D. Hume, An Inquiry Concerning Human Understanding, ed. by. J. McCormack and M. Whiton Calkins, Leipzig 1913, S. 15 / „Unter der Bezeichnung Eindruck verstehe ich also alle unsere lebhafteren Auffassungen, wenn wir hören, sehen, tasten, lieben, hassen, wünschen oder wollen. Eindrücke sind von Vorstellungen unterschieden, welche die weniger lebhaften Auffassungen sind, deren wir uns bewußt werden, wenn wir uns auf eine jener oben erwähnten Wahrnehmungen oder Regungen besinnen“, D. Hume, Eine Untersuchung über den menschlichen Verstand, 9. Aufl. hgg. von R. Richter, Leipzig o. J. S. 18. 142 ausschließlich und nur durch das Verhältnis der Erinnerungen zu den Wahrnehmungen, die sie abbilden. Die Verschmelzung von Sein und Nichts im Möglichkeitsbegriff hat nun ihre weiteste Anwendung in den historischen Wissenschaften. Man sollte vorsichtigerweise sagen: eigentlich müßte es so sein. Denn der Gegenstand der historischen Wissenschaften ist nichts anderes als ein ins ontologische Nichts verschwundenes Sein, das teilweise in mehr oder weniger ausgearbeiteten und geordneten Erinnerungen präsent gehalten wird. Das Vergangene und Gewesene gilt jedermann als etwas, das „nicht mehr“ existiert. Das heißt jedoch ontologisch konsequent: Es ist Nichts bzw. zunichte geworden. Zugleich hat es ein Sein in der Erinnerung als historisches Geschichtsbild. Das Objekt der Geschichtsschreibung war und ist diese Identifikation von Nichts und Sein, die zuerst Heraklit auf den Begriff des „Logos“ zu bringen versucht hat. Heraklit hat seinen Logosbegriff (der gewöhnlich, aber fälschlich als Prototyp eines regulären widerspruchslosen Begriffs interpretiert wird) präzise als die „Einheit des Entgegengesetzten“ definiert. Seine „Dialektik“ richtete sich gegen Parmenides, der in seinem berühmten Lehrgedicht den größten Gegensatz von Sein und Nichts herausgearbeitet hatte. Das Sein hatte Parmenides als nur zu denkendes ruhendes Eines, das Nichts als vielfältiges und bewegtes sinnlich Wahrnehmbares erklärt. Und darauf gestützt sollte Wahrheit im Seinsdenken bestehen, Falschheit, Irrtum und Täuschung aber in jeder sinnlichen Wahrnehmung. Heraklit aber zeigte, daß diese Gegensätze ihrerseits als Einheit begreifbar sein mußten, nämlich als Werden. Und es ist das Werden, das alles Geschichtliche auszeichnet. Daher sein bekanntes Dictum „Alles fließt“ (panta rhei). Heraklits „Eines auch Alles“ (Hen kai Pan) sowie zahlreiche weitere Beispiele erweisen die logische Natur seines „Logos“ als Einheit entsprechender extremer Gegensätze. Über des Heraklit Logoslehre ist die Philosophie jedoch als zu „tief, dunkel und unverständlich“ hinweggegangen. Schon die Zeitgenossen haben Heraklit als den „Dunklen“ ausgegeben. Es war Platon, der der Wiedererinnerung (Anamnesis) an die angeblich vorgeburtlich geschauten Ideen einen so wichtigen Platz in der Ideenlehre zusprach. Er hielt die erinnerten Ideen selber für das eigentliche Sein im Unterschied zu der Nichtigkeit der wahrgenommenen Phänomene. Und so war es auch Platon, der dem Vergangenen als erinnerten Ideen diesen besonderen Seinscharakter vindizierte, den man ihm heute noch zuspricht. Denn wenn man das Vergangene noch immer „historische Realität“ nennt, meint man, daß es wirkliches Sein sei. Aber mit Heraklit ist daran zu erinnern, daß es sich dabei um eine „nicht-reale Realität“ handelt. Und das ist genau das, was man sich in Erinnerungen (seien sie auch kollektiv in wissenschaftlicher Arbeit konstruiert) als „historische Möglichkeiten“ vorzustellen hat. Man sollte freilich hinzufügen, daß die historischen Geschichtsbilder nicht allein auf den aufgezeichneten Erinnerungen von Zeitzeugen oder späteren Historikern 143 beruhen. Deren Berichte über Fakten und Daten gelten zwar, je älter desto mehr, als die eigentlichen Quellen des historischen Wissens. Jedoch sind die sogenannten Relikte bzw. Überbleibsel als gegenwärtige Quellen von Daten und Fakten, die durch Interpretationen unter steter Bezugnahme auf die vorgenannten Berichtsquellen gewonnen werden, wesentlich für die Konstruktion der Geschichtsbilder. Für die Epochen der Geschichte vor der Erfindung der Schriften sind sie als archäologische Funde ersichtlich alleinige Faktenquellen, aus denen auf ein Sein des Nichtseienden geschlossen wird. Betonen wir aber sogleich, daß so erarbeitetes historisches Wissen keine hypothetische Spekulation darüber sein kann, „wie es eigentlich gewesen“ ist (Leopold v. Ranke), sondern daß es direkt „das Historische selbst“ ausmacht. Denn es gibt kein „reales historisches Sein“, mit dem historisches Wissen konfrontiert und verglichen werden könnte. Man kann das in traditionellen Termini der Geschichtswissenschaft auch so ausdrücken: Die sogenannten „res gestae“ (historische Fakten) sind nichts anderes als „historiae“ (aufgezeichnete Erinnerungen), und dies zusammen mit den Schlußfolgerungen aus der jeweils gegenwärtigen Existenz von Relikten. Das hatten wohl auch schon die antiken stoischen Juristen im Sinne mit ihrer noch immer den Juristen geläufigen Maxime: Quod non est in actis non est in mundo (Was nicht aufgezeichnet ist, das gibt es gar nicht in der Welt). Bezüglich der vorgeblichen „historischen Realität“ hat sich seit langem die Vorstellung verfestigt, sie sei das einzige ontologische Fundament gesetzlicher Notwendigkeiten. Man stellt sich vor, was einmal geschehen ist, kann nicht mehr verändert werden. Scholastische Philosophen gingen so weit zu behaupten, nicht einmal der allmächtige Gott könne verändern, was er in der Zeit selbst erschaffen habe. Dadurch erhielten die historischen Fakten den logischen Charakter von Notwendigkeiten. Aber die Vorstellung von Notwendigkeiten in der Welt verdankt sich nur dem stoischen Glauben an das Fatum und die Ananke, der sich im Abendland als Kausaldeterminismus verfestigt hat. Solange die „Historiographie“ ihren Status als pure Faktenbeschreibung behielt, blieb sie – wie andere „Graphien“ – auf die Faktensicherung beschränkt. Diese erschöpfte sich in den „Historien“, die auch in dem deutschen Begriff „die Geschichte“ (oftmals bis ins 19. Jahrhundert) ein grammatischer Plural blieb. Aber die aristotelische Wissenschaftstheorie verlangte für eigentliche Wissenschaft die Erklärung der Fakten durch die vier Ursachen. So konnte man erwarten, daß auch die Historiker immer wieder bestrebt waren, die historischen Fakten und Daten als manifeste Wirkungen von Ursachen anzusehen und die „verborgenen“, d. h. nicht als historische Fakten bekannten Ursachen, hypothetisch zu konstruieren. Dabei waren es stets die aristotelischen (und zugleich stoischen) Wirk- und Zielursachen, die so konstruiert wurden. Das führte einerseits zu spekulativen Hypothesen über die Wirkursachen historischer Fakten, andererseit zu teleologischen Spekulationen über den Sinn und Zweck der Daten und Fakten. Die Zweckursachen verwiesen im Geschichtsgang jeweils auf jüngere Fakten und Daten, 144 also das, was man ebenfalls in historischen Erinnerungen deren Wirkungsgeschichte nennt. Wie in der Naturwissenschaft verfielen jedoch die Zweckursachen in der Neuzeit mehr und mehr dem Verdikt theologischer Vorurteile und der Verfälschung der Tatsachen. So blieben – ebenfalls wie in der Naturwissenschaft – die Wirkursachen allein zur Erklärung historischer Fakten übrig. Es war Leibniz, der dafür mit seinem logischen Erklärungsprinzip der „rationes sufficientes“ das Leitmotiv der historischen Erklärungen formulierte und es auf den Begriff der „Entwicklung“ bzw. „Evolution“ brachte. Für die Betrachtung der Geschichte spielt seither der Entwicklungsgedanke eine primordiale Rolle. Er geht zwar auf den neuplatonischen Emanationsgedanken zurück, erhielt aber in der Neuzeit eine ganz neue Fassung. Vor allem verschmolz er fast gänzlich mit dem Fortschrittsgedanken. Man kann sagen, er brachte das die Neuzeit beherrschende Lebensgefühl geradezu auf den Begriff. Sein Gegenteil, nämlich Niedergang, Degeneration, Rückschritt wurde auch schon von Leibniz „Involution“ genannt. Aber weder der Begriff noch eine entsprechende Geschichtsbetrachtung erlangte gleichen Rang und Ansehen wie die „Evolution“ als Fortschritt. Eigentlich hätte man erwarten können, daß der Begriff „Revolution“ statt „Involution“ für Dekadenztheorien verwendet würde. Aber er war in der Astronomie schon für die Bezeichnung der Planeten-Kreisläufe vergeben. In der Renaissance geriet er selbst ins Bedeutungsfeld des Fortschritts- und Evolutionsbegriffs. Revolution wurde – ebenso wie „Reformation“ - mehr und mehr zum Schlagwort einer bestimmten Art von Entwicklung durch Erneuerung. Der Entwicklungsgedanke wurde durch Leibniz zu einer der fruchtbarsten dialektischen Kategorien der Geschichtswissenschaft, und dies auf Grund der darauf angewendeten mathematisch-dialektischen Denkweise. Der Entwicklungsbegriff verschmilzt nämlich eine aktuelle Wirklichkeit mit dem Nichts der Vergangenheit zur Einheit. Und dies ist gerade das, was als Möglichkeit verstanden wird. Was sich entwickelt, hat zu jedem Zeitpunkt seinen aktuellen Zustand. Aber dieser muß als Resultat bzw. Wirkung der näheren oder ferneren vorangegangenen Zustände verstanden werden, die als in ihm „aufgehobene“ Ursachen erinnert werden müssen. Diese schon vergangenen Zustände als Ursachen sind bzw. existieren „nicht mehr“ und darum überhaupt nicht. Der dialektische Charakter des Leibnizschen Entwicklungsbegriffs zeigt sich in den sonderbaren Bestimmungen der „Enkapsis“ bzw. des „Enthaltenseins“ und in der Verwendung des Möglichkeitsbegriffs bei Leibniz. Die jeweils gegenwärtige wirkliche Welt ist für Leibniz bekanntlich „die beste aller möglichen Welten“. D. h. wenn auch wegen der Güte des Schöpfers die „beste“, so doch „mögliche Welt“. Und was so der geschaffenen „möglich besten“ Welt an Wirklichkeit abgeht, das kommt der göttlichen Zentralmonade als höchster Realität zu, die in Akten der „creatio continua“ ständig die beste aller möglichen Welten „effulguriert“ (aus sich „herausblitzt“). 145 Verführt von der vermeintlichen Beobachtung des Leeuwenhoek, der in den tierischen Samen schon en miniature ausgebildete Gestalten der nächsten Generation zu sehen glaubte78, schloß Leibniz, daß alle seitherigen und nicht minder alle künftigen Generationen in dieser Weise schon in den erstgeschaffenen Monaden enthalten bzw. „präformiert“ sein müßten – er nannte es „Enkapsis“ (Eingeschlossenheit). 79 Und darum sei der Welt-Geschichtsprozeß insgesamt eine Auswicklung dessen, was so schon von Anfang an in vorbestimmter, „determinierter“ Weise als das große „Verhängnis“ (das stoische Fatum oder die Anangke) vorgegeben, „präformiert“ und wirklich sei.80 Was so aber für die Geschichte gelten sollte, das verlängerte sich in die Zukunft. Leibniz betont, daß alle Gegenwart „mit der Zukunft schwanger“ sei. 81 Das konnte nur heißen, daß alle künftigen Möglichkeiten in der Gegenwart schon vorbestimmt und dadurch – wie der Fötus im Mutterleib - zugleich auch wirklich seien. Dies ist auch eine dialektische Verschmelzung der sonst gegensätzlichen Begriffe von Determiniertheit und Freiheit bzw. von Kausalität und Teleologie. Zugleich aber auch eine Grundlage für ein Verständnis von Entwicklung als symmetrisches Verhältnis von Herkunft aus dem Nichts der Vergangenheit und dem Nichts der Zukunft, das im Sein einer jeweils vorfindlichen Gegenwart verankert ist. Von den Späteren hat Hegel in seiner Entwicklungstheorie den dialektischen Grundzug im Entwicklungsbegriff in den Vordergrund gebracht. Und zwar durch die Verschmelzung der gegensätzlichen Bedeutungen des „Aufhebens“ (sowohl des Beseitigens als auch des Konservierens) in jeder Entwicklung. Auch dies läßt sich modal erläutern, wie Hegel es auch getan hat: „Die ungeheure Arbeit der Weltgeschichte“, die die Späteren sich in der historiographischen Arbeit aneignen, deren „Inhalt (ist) schon die zur Möglichkeit getilgte Wirklichkeit, die bezwungene Unmittelbarkeit, die Gestaltung bereits auf ihre Abbreviatur, auf die einfache Gedankenbestimmung, herabgebracht.“ 82 Die Umgestaltung der vorher weitgehend klassifikatorischen bzw. taxonomischen Botanik und Zoologie zur Entwicklungsbiologie durch Lamarck und Darwin hat bis heute den Eindruck hinterlassen, der Entwicklungsgedanke sei überhaupt eine Errungenschaft der naturwissenschaftlichen Biologie gewesen und habe sich von dort aus erst in der zweiten Hälfte des 19. Jahrhunderts ausgebreitet. Tatsächlich setzt jedoch das biologische Evolutionskonzept den Möglichkeits78 Vgl. Em. Radl, Geschichte der biologischen Theorien in der Neuzeit, 1. Teil, Leipzig-Berlin 1913, S. 173. „Denn gleichwie sich findet, daß die Blumen wie die Tiere selbst schon in den Samen eine Bildung haben, so sich zwar durch andere Zufälle etwas verändern kann, so kann man sagen, daß die ganze künftige Welt in der gegenwärtigen stecke“. G. W. Leibniz, Von dem Verhängnisse, in: Hauptschriften, hgg. von E. Cassirer, Band II; ähnlich in Nouveaux Essays, Vorwort. 80 „Das Verhängnis besteht darin, daß alles an einander hänget wie eine Kette, und ebenso unfehlbar geschehen wird, ehe es geschehen, als unfehlbar es geschehen ist, wenn es geschehen ... Und diese Kette besteht in dem Verfolg der Ursachen und der Wirkungen“. Vom dem Verhängnis, in: Leibniz, Hauptschriften Band II, S. 129f. 81 „Ex rationibus metaphysicis constat praesens esse gravidum futuro“. G. W. Leibniz, Fragment über die apokatastasis panton, Erstausgabe in: M. Ettlinger, Leibniz als Geschichtsphilosoph, München 1921, S. 30. 82 G. W. Hegel, Phänomenologie des Geistes, hgg. v. J. Hoffmeister, Hamburg 1952, S. 28. 79 146 begriff in Anwendung auf die Geschichte voraus und hebt einige speziellere Aspekte seiner Dialektik heraus. Man sollte doch zumindest bemerken, daß die biologisch-evolutionäre Rede von der „Vererbung“ aus dem Erbrecht und also historisch-kulturellen Zusammenhängen übernommen wurde. Jedes Erbe ist ja ein je gegenwärtiges Wirkliches, das Vergangenes und ins Nichts Verschwundene in sich aufbewahrt. So ist auch nach der Entwicklungslehre jedes Lebewesen Produkt und Resultat seiner Ahnen und insofern ein Erbe aller vorangegangenen Generationen. Im Unterschied zum Erbrecht aber wird in der Biologie die Art und Weise, wie die Erbschaft von Familien (bzw. biologisch: der Gattungen) und des Individuums in der Geschichte zustandegekommen und aufgehäuft wurde, mit in den Evolutionsbegriff aufgenommen. Das Individuum wird als Wirklichkeit von Möglichkeiten verstanden, sowohl seiner vergangenen wie auch seiner zukünftigen. Die Möglichkeit des Vergangenen wird im Darwinismus zur kausal konstruierten Genidentität. Die Gene aber sind dabei noch stets die Substanz des geschichtlichen Werdens geblieben, die Aristoteles als To ti en einai, als „Ge-Wesen“ definiert hat. Die zukünftigen Möglichkeiten erweisen sich in der „Anpassungsfähigkeit“ an die jeweilige Umwelt im Überleben einer je existierenden Generation und ihrer Individuen (survival of the fittest). Im gegenwärtig wiederbelebten Lamarckismus jedoch wird das Individuum teleologisch konstruiert: als Träger erworbener Eigenschaften, Fähigkeiten und „Vermögen“, die sich in einer hier konstruierten Memidentität (Meme, eigentlich „Mneme“, sind im Gedächtnis niedergelegte Möglichkeiten) zeigen sollen. Ersichtlich ist man sich heute beim so selbstverständlichen Gebrauch des Entwicklungsgedankens in den Einzelwissenschaften von der Kosmologie über die Biologie bis zu den Technik-, Kultur- und Geisteswissenschaften dieser Dialektik nicht bewußt. Allenfalls sind Spuren in der Definition des Entwicklungsbegriffes des Begründers der modernen Entwicklungsphilosophie Herbert Spencer auszumachen. Er hatte „Evolution“ und zugleich ihr Gegenteil, die „Dissolution“ folgendermaßen definiert: „Evolution in ihrem einfachsten und allgemeinsten Aspekt ist die Integration der Materie und die Zerstreuung der Bewegung; während Auflösung Absorption der Bewegung und begleitende Differenzierung der Materie ist“.83 Die Evolutionsmerkmale Integration und Dissolution (= Differenzierung) klingen vertraut als mathematische Bestimmungen: Integrieren und Differenzieren gehören zu den komplizierten höheren Rechnungsarten, und sie sind höchst gegensätzlich. Sie waren dem studierten Ingenieur Spencer wohl vertraut. Indem er versucht, diese gegensätzlichen Merkmale einerseits auf Materie, andererseits auf Bewegung zu beziehen, will er ihren dialektischen Charakter verschleiern. Im 83 “Evolution under its simplest and most general aspect is the integration of matter and concomitant dissipation of motion; while dissolution is the absorption of motion and concomitant desintegration of matter”. Herbert Spencer, First Principles § 97, zitiert nach R. Eisler: Wörterbuch der philosophischen Begriffe, 3. Aufl. Berlin 1910, Band 1 Art. Evolution, S. 356. 147 spencerschen Entwicklungsbegriff wird die „Integration des Differenzierten“ zum dialektischen Merkmal der „bewegten Materie“. Anders als bei der „Notwendigkeits-Möglichkeitskonstruktion von Vergangenheit verhält es sich mit den schon von Aristoteles zum Ausgangspunkt seiner Modallogik gemachten „zukünftigen Möglichkeiten“. Ihr Anwendungsbereich sind vor allem die Gegenstände und Ereignisse, von denen in naturwissenschaftlichen und wirtschaftswissenschaftlichen Prognosen und in manchen Hypothesen die Rede ist. Man nennt das Zukünftige gewöhnlich „noch nicht Seiendes“, d. h. aber konsequent ontologisch: Es ist ebenfalls Nichts. Und dies im Gegensatz zum gegenwärtigen Sein der beobachteten und wahrgenommenen Wirklichkeit. Auch alles Zukünftige wird so zur Möglichkeit, indem es als (noch) nicht Seiendes (= Nichts) in einer erinnerungs- und beobachtungsgesteuerten realen Antizipation gedacht, phantasiert, vorgestellt und evtl. prognostiziert, aber auch geplant, gewünscht oder befohlen wird. Wem diese ontologische „Vernichtung“ des Vergangenen und Zukünftigen zugunsten einer „Verseinung“ der erinnernden und antizipierend-prognostischen stets gegenwärtigen „seienden“ Bewußtseinsleistung zu idealistisch (der Patristiker Aurelius Augustinus hat sie bekanntlich schon genauer ausgearbeitet) erscheint, der wird gleichwohl am Leitfaden des Möglichkeitsbegriffs denken und argumentieren. Denn der Realist hält buchstäblich die „historische Realität“, und ebenso die antizipierten zukünftigen Ereignisse für ontologisches Sein, und er spricht darüber meist sehr emphatisch als „objektive“ Realitäten. Aber dafür hält er das Bewußtsein mit seinen Erinnerungen und Antizipationen für etwas ontologisch Nichtiges, das er als „subjektiven Faktor“ möglichst aus seinen Überlegungen auszuschalten bemüht ist. Wie man sieht, hat er nur die Seins- und Nichtsbegriffe gegenüber dem Idealisten ausgetauscht. Daß das Nichts als Gegenbegriff zum Sein in der abendländischen Philosophie bisher nicht Gegenstand solcher logischen Analysen geworden ist, die für die Klärung des Möglichkeitsbegriffs vorausgesetzt werden müssen, verdankt sich offensichtlich den stets im Abendland dominierenden Seinstheorien des Parmenides, Platons und Aristoteles‟. In ihnen wird das Nichts als Inbegriff aller Falschheiten - das logisch Falsche wird bis heute als „Bedeutung“ aller falschen Behauptungen formalisiert - perhorresziert oder als „Mangel an Sein“ stets vom Sein her thematisiert. Als eigenständiges Thema hat der Nichtsbegriff allerdings in der indischen und chinesischen Philosophie stets große Aufmerksamkeit auf sich gezogen. Von den Ergebnissen dortiger Gedankenarbeit kann auch die abendländische Philosophie und Wissenschaftstheorie noch fruchtbare Anregungen übernehmen. 148 § 11 Die Paradoxien der Wahrscheinlichkeit Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit. Von entsprechender Wichtigkeit wie beim Möglichkeitsbegriff dürfte in der Erkenntnistheorie, in der Logik und in der Mathematik eine Analyse des Wahrscheinlichkeitsbegriffs sein. Auf der Verschmelzung von Wahrheit und Falschheit zum Begriff des WahrFalschen beruht eine bestimmte Version des Lügner-Paradoxes (des „Eubulides“). Man könnte die hier gemeinte Person den „wahrsagenden Lügner“ nennen, weil er die Wahrheit mittels einer Lüge und zugleich eine Lüge mittels der Wahrheit behaupten soll. Das hält man gemäß traditionellen Meinungen über die Zweiwertigkeit der Logik und die Natur des Widerspruchs für „unmöglich“, „falsch“ und jedenfalls für „wider alle Meinung“ (para doxan). Ebenso steht es aber mit dem Wahrscheinlichkeitsbegriff. Er ist seiner logischen Konstitution nach ein Beispiel für dieses Dritte Auch er zeigt deswegen paradoxe Züge, denen wir im folgenden nachgehen wollen. In einer dreiwertigen Logik, bei der neben Wahrheit und Falschheit ein „Drittes“, nämlich eben die Wahrscheinlichkeit explizit zugelassen wird, kann das Paradox kein Paradox bleiben. Man hat sich so sehr an die Wahrscheinlichkeit als Drittes gewöhnt, daß man auch in der begrifflichen widersprüchlichen Verschmelzung von Wahrheit und Falschheit zur Wahrscheinlichkeit den Widerspruch nicht mehr erkennt. Der wahrsagende Lügner bzw. lügende Wahrsager (man könnte ihn auch einen „ehrlichen Betrüger“ nennen) ist daher inzwischen eine in vielen Wissenschaften notorische Person. Es handelt sich um denjenigen Wissenschaftler, der Wahrscheinlichkeitsbehauptungen aufstellt. Das funktioniert jedoch nur in der Wissenschaft. Denn im Alltagsleben stellt man nur über dasjenige Behauptungen auf, was man sicher weiß. Was man aber nur glaubt oder gar nur ahnt, darüber spricht man im Alltagsleben im Konjunktiv, und der ist zum Behaupten nicht geeignet, sondern zum Vermuten gemacht. Wer statt des Konjunktivs oder in Verbindung damit etwas „wahrscheinlich“ nennt („es könnte wahrscheinlich so sein!“), der behauptet es damit nicht, sondern läßt die Frage offen. Bei diesem Sprachgebrauch hat die „vermutende Wahrscheinlichkeit“ nichts mehr mit urteilsmäßiger Wahrheit und Falschheit zu tun, auch nicht mit einer urteilsmäßigen Wahr-Falschheit. Der erste paradoxale Zug am Wahrscheinlichkeitsbegriff ist also der, daß er von Aussagen bzw. Behauptungen gelten soll, die gar keine Aussagen bzw. Behaup- 149 tungen sein können. Sie sind Vermutungen im Gewande von Behauptungen. Als Vermutungen besitzen sie überhaupt keinen Wahrheitswert, d. h. sie sind weder wahr noch falsch. Als Behauptungen aber besitzen sie einen Wahrheitswert, und der ist „wahr und falsch zugleich“, was dann als „wahrscheinlich“ bezeichnet wird. Ein weiterer paradoxaler Zug am Wahrscheinlichkeitsbegriff liegt in seiner doppelten Beziehung auf das subjektive Wissen bzw. Glauben einerseits und auf einen angeblich objektiven Wirklichkeitsbestand andererseits. Nur das erstere konnte bei seiner Verwendung schon durch die antiken Skeptiker gemeint sein, und es wird weiterhin in der sogenannten subjektiven Wahrscheinlichkeitstheorie84 beibehalten. Letzteres, die „objektive Wahrscheinlichkeit“, ist eine Erfindung der neuzeitlichen Mathematik, die ihren eigenen Begriffen ein ontologisches Korrelat zu geben bemüht war. Die Kalkülisierung von „probabilités“ 85 beruhte auf der Annahme, daß diese mathematischen „Wahrscheinlichkeiten“ objektive Zustände seien, die sich durch Messungen, d. h. Anwendung der Arithmetik auf empirische und besonders physikalische Gegebenheiten, annäherungsweise erfassen ließen. K. Popper hat solche objektiven Wahrscheinlichkeiten „propensities“ (etwa: Tendenzen) genannt. Messungen sind in aller Regel ungenau und oszillieren um gewisse „Häufigkeitspunkte“, die man als Grenzwerte „unendlicher“ (d. h. beliebig lange fortsetzbarer aber nie zuende zu bringender) Meßreihen berechnet. Aus diesen Grenzwerten ergeben sich dann „idealisierte“ Meßwerte, von denen man annimmt, sie drückten die Wirklichkeit aus. Es waren und sind noch immer diese genuin mathematischen Verfahren, die dazu geführt haben, daß so viele Naturwissenschaftler davon überzeugt sind, die Wirklichkeit ließe sich überhaupt und grundsätzlich nur noch in Wahrscheinlichkeitsbegriffen erfassen. Und da Naturgesetze grundsätzlich durch quantitative Messungen gewonnen werden, gibt man in diesem Sinne auch die Naturgesetze nunmehr als Wahrscheinlichkeitsgesetze aus. Dies fällt dem mathematischen Logiker und Physiker umso leichter, als er seit Leibniz (und Nikolaus Cusanus) daran gewöhnt ist, wohlunterschiedene Begriffe in Kontinua aufzulösen, die an ihren definitorischen Grenzen ineinander übergehen. Danach ist etwa der „nichtausgedehnte Punkt“ zugleich eine „minimal ausgedehnte Fläche“ (in der dann unendlich viele infinitesimale Flächenelemente enthalten sind). Genau so erscheint dann die Wahrheit zugleich auch als „maximale (100 %ige) Wahrscheinlichkeit, und die „minimale“ (0%ige) Wahrscheinlichkeit als Falschheit. Darin zeigt sich aber nur ein weiterer paradoxaler Zug am 84 Vertreter sind L. J. Savage, The Foundations of Statistics, New York 1954, 2. Aufl. 1972 sowie B. de Finetti, Probability, Induction, and Statistics. The Art of Guessing, London-New York 1972. 85 Pioniere dieser Wahrscheinlichkeitstheorie waren Jakob Bernoulli, Ars coniectandi, Basel 1713, ND Brüssel 1968 und P. S. de Laplace, Théorie analytique des probabilités, Paris 1812, ND Brüssel 1967; dazu auch: Jak. F. Fries, Versuch einer Kritik der Principien der Wahrscheinlichkeitsrechnung, Braunschweig 1842, auch in Sämtl. Schriften, hgg. von L. Geldsetzer und G. König, Band 14, Aalen 1974. 150 gängigen mathematischen Wahrscheinlichkeitsbegriff. Für den Logiker aber bleiben Wahrheit und Falschheit streng von der Wahrscheinlichkeit unterschieden. Denn er wird ganz logisch behaupten: Wahrscheinlichkeit koinzidiert nicht mit Wahrheit oder Falschheit. Die entscheidende Paradoxie im Wahrscheinlichkeitsbegriff ergibt sich aus der Verschmelzung logischer und mathematischer Vorstellungen in ihm. Die logische Wahrscheinlichkeit wird nur logisch quantifiziert, die mathematische aber numerisch. So ergibt sich die paradoxale Erscheinung, daß das für wahrscheinlich Gehaltene logisch nur entweder vorliegt (ohne daß man es kennt) bzw. daß es in der Zukunft eintreten soll (was man daher in der Gegenwart auch nicht feststellen kann), oder daß es nicht vorliegt (oder eintritt). Das mathematisch Wahrscheinliche aber wird in zahlenmäßiger Quantifizierung als Proportion „günstiger Fälle“ zu „allen möglichen Fälle“ ausgedrückt und dann als Quotient auch ausgerechnet. Dadurch soll einem komparativen Mehr oder Weniger des Wahrscheinlichen hinsichtlich seiner Wahrheitsnähe Rechnung getragen werden. Die Redeweise von „günstigen Fällen“ stammt aus dem Anwendungsbereich der Glücks- und Wettspiele, wo der günstige Fall der erhoffte oder gewinnbringende Ausgang eines Zufallsarrangements (Spiel) ist. Die „möglichen Fälle“ umfassen den gesamten Risikobereich, der durch die nach den Spiel- oder Wettregeln zugelassenen Spielzüge und Spielergebnisse beschrieben wird. Man geht also davon aus, daß „alle möglichen Fälle“ neben den ungünstigen auch die günstigen Fälle enthalten. Daher werden in der mathematischen Proportion die günstigen Fälle doppelt angerechnet: einmal im ersten Glied der rein günstigen Fälle, zum anderen nochmals im zweiten Glied aller Fälle. Das kann logisch gesehen keine echte Proportion von günstigen zu ungünstigen Fällen darstellen. Beispielsweise hält man nach mathematischen Vorstellungen die Wahrscheinlichkeit eines bestimmten Zahlwurfes mit einem fairen Würfel für 1 / 6. In Prozenten ausgedrückt: 1 / 6 von 100 = 16,666... %. Dies gibt den Wahrscheinlichkeitswert für einen „günstigen“ Wurf. Wobei die 1 im Zähler des Quotienten für den (erhofften) günstigen Fall, die 6 im Nenner für die sechs möglichen Fälle einschließlich des einen günstigen Falles beim Würfelwurf steht. Logisch aber gilt zugleich, daß jeder günstige Fall nur entweder eintritt oder nicht eintritt, so oft man auch würfeln mag. Die mathematische Wahrscheinlichkeit eines prognostizierten Wurfergebnisses kann gar nichts über den jeweils erhofften günstigen Fall besagen. Glücksspieler dürften sich daher nicht beklagen, wenn etwa eine erhoffte und für sie günstige Würfelzahl (die doch nach den Regeln der Wahrscheinlichkeitsrechnung „durchschnittlich“ einmal pro sechs Würfen erscheinen sollte) bei noch so vielen Würfen (und „unendlich“ oft kann man nicht würfeln!) überhaupt nicht erscheint. Sie freuen sich aber, wenn wider alle Erwartung der günstige Fall gleich beim nächsten Wurf oder gar in Serie eintritt. 151 Der Münzwurf, bei dem es nur zwei gleichwertige Möglichkeiten (Bild und Zahl) gibt, bietet das Beispiel der logischen Wahrscheinlichkeit. Was wir hier logische Wahrscheinlichkeit nennen, wird gewöhnlich als „fify-fifty“ bzw. ´ oder 50 %ige Wahrscheinlichkeit mathematisch quantifiziert. Die numerischen Formulierung auch der logischen Wahrscheinlichkeit (50 %) erweckt den Anschein, als sei der mathematische Wahrscheinlichkeitsbegriff der einzig angemessene und schließe den logischen Wahrscheinlichkeitsbegriff ein. Das führt aber nur dazu, daß die Paradoxie mathematisch so lautet: Jede nicht 50 %ige Wahrscheinlichkeit (von 0,999... bis 0,000...1) ist zugleich eine 50 %ige. Wie man ja leicht bei jedem Glücksspiel feststellen kann. Die Attraktivität, ja der Zauber der mathematischen Wahrscheinlichkeit beruht auf zweierlei. Einerseits auf dem „statistischen“ Erhebungsverfahren staatlicher Behörden, mit dem ursprünglich alle Fälle in einem Erfahrungsbereich erhoben wurden (z. B. die Zahl der Einwohner, der Heiraten und der Geburts- und Sterbefälle in einem bestimmten Zeitintervall in einer bestimmten Region). Das konnte bei gehöriger Sorgfalt der Erhebung zu wahren Ergebnissen führen und versah alles „Statistische“ mit dem Renommee der Zuverlässigkeit und der Wahrheit. Diese Erwartung erhielt sich auch bei der Ausweitung der Anwendung statistischer Verfahren auf repräsentative Stichproben, die mehr oder weniger mit Ungenauigkeiten behaftet sind. Diese werden dann ihrerseits mit statistischen Schätzungen über den Umfang der Abweichung von Erwartungswerten austariert. Damit aber kam der mathematische Wahrscheinlichkeitsbegriff ins Spiel. Er ließ bei allen Anwendungen der mathematischen Statistik eine zahlenmäßig abschätzbare Wahrheitsnähe assoziieren, wie ja schon die Bezeichnung selber nahelegt. Sie ist bei allen Anwendungen der statistischen Wahrscheinlichkeitsberechnungen bei Prognosen, insbesondere ökonomischen und spieltheoretischen Risikoabwägungen relevant geworden. Logisch gesehen aber wird in der Tat mit dem Wahrscheinlichkeitsbegriff zugleich eine jeweils entsprechende Falschheitsnähe angesagt, die man dabei grundsätzlich unterschlägt, die aber in dem hier vorgeschlagenen Begriff „Wahr-Falschheit“ sehr deutlich zum Ausdruck kommt. Im Falle der Glücksspiele sollte sich der würfelnde Glücksspieler klarmachen, daß – gemäß dem herrschenden mathematischen Wahrscheinlichkeitsbegriff seine Hoffnung auf den mit 16,666... % Wahrscheinlichkeit für ihn günstigen Fall immer zugleich mit einer Restquote von 83,333...% „Falschscheinlichkeit“ begleitet wird. Zugleich kann er aber über das Ergebnis des nächsten Wurfs überhaupt nichts wissen (sofern der Würfel gut geeicht, d. h. „fair“ und nicht gefälscht ist). Stellt man aber die Berechnung von Wahrscheinlichkeiten nicht, wie in der Mathematik üblich geworden, als Proportion von günstigen zu allen möglichen Fällen (und „alle möglichen Fälle“ erinnern hier an die ursprüngliche statistische Gesamterhebung „aller“ Daten) dar und rechnet sie zudem als Quotient aus, sondern beachtet, wie es logisch allein angemessen ist, die Proportion der günstigen zu den ungünstigen Fällen, so ergeben sich auch ganz andere numerische 152 Wahrscheinlichkeitsergebnisse. Beim Würfeln ist die Proportion dann 1 zu 5 und nicht 1 zu 6. Oder in Prozenten: statt 16,666...% sogar 20 % für den günstigen Fall und 80 % für den ungünstigen. Diese Formulierung des Wahrscheinlichkeitsquotienten ist in der Mathematik längst vorgeschlagen worden, hat aber keinen Anklang gefunden. Bringt man auch noch die oben explizierte logische Wahrscheinlichkeit in Anschlag, so lautet die Proportion von günstigen zu ungünstigen Fällen sowohl beim Münzwurf wie beim Würfeln 1 zu 1, also 50 % zu 50%. Die mathematischen Wahrscheinlichkeiten könnten also als 1 / 6, 1 / 5 und 1 / 2 (oder in entsprechender Dezimalform) angegeben werden. Man sollte meinen, auf Grund dieser Erwägung müßten nun alle Wahrscheinlichkeitsaussagen und Prognosen korrigiert bzw. umgerechnet werden. Daß dies aber weder nötig noch zielführend ist, ergibt sich schon daraus, daß die Wahrscheinlichkeiten ganz unerheblich für erwartete bzw. prognostizierte Daten sind. Sie waren und sind eine mit großem mathematischem Apparat vorgeführte „Docta ignorantia“, in der ein grundsätzliches Nichtwissen als verläßliches Wissen vorgetäuscht wird. In dem wissenschaftstheoretisch so prominenten Thema der Wahrscheinlichkeit treffen noch immer die seit der Antike kontroversen Ansichten der Stoiker und Epikureer über die Frage zusammen, ob die Gesamtwirklichkeit einer durchgängigen Kausalität unterliege oder ob sie ganz und gar indeterminiert, d. h. „spontan“ und alles in ihr „zufällig“ sei. Der stoische (kausale) Universaldeterminismus dominierte bis zum Beginn des 20. Jahrhunderts in der Physik. Nämlich bis auf Grund unlösbar scheinender Probleme der Mikrophysik der epikureische Indeterminismus wieder in den Vordergrund der Überlegungen trat. Seither sieht die Lage in der Physik, die man gemeinhin für die entscheidende Einsichtsquelle in die kausal-determinierte oder indeterminierte Struktur der Wirklichkeit hält, nach einem Waffenstillstand beider Lager aus. Man sagt, in der Makrophysik herrsche der kausale Determinismus; in der Mikro- bzw. Quantenphysik aber der Indeterminismus. Die Verbindung zwischen beiden aber stelle die statistische Wahrscheinlichkeitsbetrachtung her. Nun sind beide Standpunkte ersichtlich Totalisierungen beschränkter Einsichten. Nämlich daß es viele zuverlässige Erkenntnisse über Kausalitäten in der Natur gibt, und daß es andererseits viele (vielleicht nur vorläufig) kausal unerklärliche Erscheinungen in der Natur gibt. Der kausale Determinismus erweist sich so als eine Hypothese bzw. Vermutung, daß in irgend einer fernen Zukunft alles bisher kausal Unerklärbare kausal erklärt werden könne. Ihm steht der Indeterminismus gegenüber als eine Hypothese bzw. Vermutung, daß alles bisher schon kausal Erklärte sich in irgend einer fernen Zukunft noch tiefergehend als spontane (chaotische bzw. freie) Selbstorganisation der Natur erklären lasse. Beide Strategien treiben naturgemäß die Forschung voran und legen die Vorstellungen von asymptotischen Annäherungsprozessen an die Wahrheit nahe, wie sie K. Popper propagiert hat. 153 Beide Strategien aber unterschätzen die Bedeutung und die Natur des Nichtwissens in der Wissenschaft. Die alte „docta ignorantia“ des Sokrates, des Cusaners und Pascals ist in neueren Zeiten gerade in die Wahrscheinlichkeitsproblematik eingebaut worden. Sie berührt aber darüber hinaus höchste Interessen der Menschheit, nämlich die Interessen an einer Begründung der Freiheit einerseits, und der Kalkulierbarkeit der Welt andererseits. Soll Freiheit mehr sein als Abwesenheit von sozialen Zwängen, so fällt sie überall mit dem Bereich des Nichtwissens zusammen. Und soll Notwendigkeit mehr sein als ein dringendes Bedürfnis, so fällt sie mit dem Bereich der erkannten Kausalitäten zusammen. § 12 Die Rolle der Modelle und der Simulation in den Wissenschaften Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der KlimaSimulation In jeder Kultur greift der Mensch in die Dinge und Sachverhalte ein, verändert ihre Konstellationen und erzeugt neue Gegenstände. Die Wörter als artikulierte Lautkonstellationen in den Gemeinsprachen gehören selbst schon zu solchen „künstlichen“ Gegenständen. Aber ein großer Teil der künstlichen Dinge ahmt die natürlichen Dinge nach und stellt Abbilder von ihnen dar. Auch die Lautnachahmungen vieler Wörter (wie das berühmte „Wau-wau“) verdanken sich dieser primitiven Kulturtätigkeit. Erst recht aber auch die verkleinerten oder vergrößerten Bildwerke, die schon in den ältesten archäologischen Funden zutage getreten sind. Es muß schon ein gewaltiger Schritt in der Kulturgeschichte gewesen sein, als diese Abbilder von räumlichen Gegenständen zu Bildern wurden, d. h. in 154 flächige Figuren überführt wurden, wie sie in den Fels- und Höhlenzeichnungen, die vermutlich bis zu 40 000 Jahre alt sind, gefunden wurden. Die Repräsentationen der natürlichen Dinge durch körperliche und flächige Abbilder machte die Dinge verfügbar für den zivilisatorischen Umgang mit ihnen. Spiel, Belehrung, Kult, Erinnerungskultur, Handel, Thesaurierung und vieles mehr beruhte auf dieser Verfügbarkeit. In ihrem Gebrauch wurden sie zu Zeichen für das, was sie abbilden. Am deutlichsten sieht man es noch in den chinesischen („ikonischen“) Schriftzeichen, die als stilisierte Abbildungen von Dingen und Sachverhalten entwickelt wurden. Derjenige verstand die Zeichen, der sie mit ihren Vor- oder Urbildern, den Gegenständen selbst, vergleichen konnte. Aber mit zunehmender Komplexheit der Zivilisationen und Kulturen wurden die Zeichen „abstrakt stilisiert“. Der Zusammenhang mit dem, was sie abbildeten, wurde prekär und vieldeutig. Am deutlichsten zeigt sich das in der Verschiedenheit der kulturgebundenen Laut-Sprachen. Durch die eigene (Mutter-) Sprache hat noch jeder einen bestimmten konkreten Zugang zu seiner Umwelt. Wer eine Fremdsprache lernt, muß die Spuren noch vorhandener Abbildlichkeit aus ihrer Kultur lernen. Selbst der Hahnenschrei „lautet“ in den verwandten europäischen Sprachen immer wieder anders als das deutsche „Kikeriki“. Der Umgang mit den Abbildern ist die Grundlage von Kunst und Wissenschaft geworden. Deren Entwicklungen gehen Hand in Hand. Frühe Wissenschaft bedient sich der Kunst, wenn sie deren Abbilder und Zeichen zu ihren besonderen Gegenständen macht. Dadurch präsentiert sich das Große und Ferne als Kleines und Nahes der unmittelbaren Inspektion und Manipulation der Wissenschaftler. Lao Zi (ca. 571 – 480 v. Chr.) drückte es in China so aus: „Ohne aus der Tür zu gehen, kennt man die Welt. Ohne aus dem Fenster zu spähen, sieht man das Himmels-Dao (den Prototyp des Weltgesetzes). ... Darum kennt sich der Heilige (d. h. der prototypische Wissenschaftler) ohne zu reisen aus. Er nennt die Dinge beim Namen ohne herumzuspähen, und er bringt etwas zustande ohne einzugreifen“.86 Auch der moderne Wissenschaftler befindet sich vor seinem Buch oder Computer noch in der gleichen Situation, indem er die Welt über Verbildlichungen zu sich kommen läßt. Frühe Kunst aber bedient sich solchen Wissens und der anfänglichen Formen von Wissenschaft, wenn sie ihre Bilder und Zeichen verfeinert, stilisiert, typisiert. Mathematik in ihren beiden Zweigen Geometrie und Arithmetik dürften die ältesten Wissenschaften sein. Geometrie arbeitet aus den Abbildungen der Dinge und Sachverhalte deren einfachste Formen heraus und perpetuiert ihre ständige Reproduzierbarkeit mit Zirkel und Lineal. Man setzt den Zirkel an einem „Punkt“ 86 Lao Zi, Dao De Jing, neu übersetzt von L. Geldsetzer, II. Teil, 47, im Internet des Philosophischen Instituts der HHU Düsseldorf, 2000; auch in: Asiatische Philosophie. Indien und China. CD-ROM, Digitale Bibliothek (Directmedia Publishing GmbH), Berlin 2005. 155 ein und zieht damit „Kurven“ und „Kreise“. Dem Lineal verdankt man den geraden Strich, die „Linie“. Arithmetik unterwirft alle Dinge der Abzählbarkeit, indem sie verfügbare Dinge als Abbilder von Dingen gruppiert und ordnet. Ihre plastischen und schon abstrakten Abbilder der Dinge dürften zuerst Psephoi (Kalksteinchen), alsbald Münzen gewesen sein. In den verschiedenen Münzmetallen unterscheidet die Arithmetik (axiein = wertschätzen) die Abbilder, die Einzelnes und Vielfaches repräsentieren. Was wir so sagen können, ist eine hypothetische historische Spekulation über Ursprünge, und dies im Sinne einer historischen Möglichkeit, wie sie vorne definiert wurde. Sie soll am Einfachen und Schlichten auf etwas Wesentliches an der Wissenschaft hinweisen. Wissenschaft beruht auf der Anschauung und sinnlichen Erfahrung der Welt. Noch immer erinnern ihre vornehmsten Begriffe daran: „Wissen“ hat die etymologische Wurzel im „Sehen“ (indogermanisch Vid-; griech. idea, lat. videre), „Theorie“ in der „Gesamtschau“ einer Gesandtschaft, die darüber berichtet (griech. theorein), „Intuition“ in der „Betrachtung des Einzelnen“. Auch die arabische Wissenschaft, die an die antike griechische Bildung anknüpfte, führt ihre Theoriebegriffe auf das „Anschauen“ (arab.: nazar) zurück. Was darüber hinausgeht, heißt noch immer „Spekulation“, d. h. „Spiegelung“ der Bilder, das zu neuen und vermittelten Bildern führt. Spekulation ist der Ausgang des philosophischen Denkens aus der Anschauung in ein anderes Medium, über dessen Natur noch immer heftig diskutiert und geforscht wird. Die einen nennen dies Medium „überanschauliches Denken“, manche „unanschauliches Denken“. Auch die „Ahn(d)ung“ und die Intuition, von der wir eingangs sprachen, weist in diese Richtung. Wird das Denken von der Sinnesanschauung unterschieden und getrennt, wie es für abendländische Wissenschaft und Philosophie konstitutiv wird, so muß das Denken etwas anderes und Selbständiges gegenüber der sinnlichen „bildhaften“ Wahrnehmung sein. Parmenides (geb. um 540 v. Chr.) übersprang die sinnliche Anschauung als täuschend und identifizierte das reine Denken (to noein) als Eines mit dem Sein (to einai). Anaxagoras (ca. 499 – ca. 428 v. Chr.) nannte es „Nous“ (Vernunft oder Denkkraft). Bei Platon, Aristoteles und bei den Stoikern wurde der Nous (lat. ratio) zum eigentlichen Erkenntnisorgan. Descartes wiederholte in der Neuzeit die parmenideischen und platonischen Argumente, indem er die sinnliche Anschauung skeptisch in Frage stellte und das Vernunftdenken als einzig zuverlässige Erkenntnisquelle herausstellte. In einer der wirkkräftigsten spekulativen Philosophien der Moderne, in der Transzendentalphilosophie Kants, wurde reines Denken zur „reinen Vernunft“. Alle Formen des philosophischen Rationalismus berufen sich seither auf Descartes und Kant und beschwören die Selbständigkeit der Vernunft gegenüber aller sinnlichen Anschauung. Zu dieser Frage der Stellung und Rolle der Vernunft muß auch der Wissenschaftstheoretiker Stellung beziehen. Er muß metaphysisch Farbe bekennen, ob er sich auf die eingefahrenen Bahnen des Rationalismus oder des Sensualismus 156 begeben will. Machen wir also keinen Hehl aus dem diesen Ausführungen zugrunde liegenden Sensualismus. Und verschweigen wir nicht die offensichtliche Tatsache, daß der Rationalismus in der Moderne die Mehrheit der Wissenschaftler hinter sich hat, der empiristische Sensualismus aber nur wenige Denker des 18. Jahrhunderts wie George Berkeley (1685 -1753) und Etienne Bonnot de Condillac (1714 – 1780). Ein wesentlicher Prüfstein für die Leistungsfähigkeit des Rationalismus bzw. des Sensualismus sind die in der Wissenschaft verwendeten Modelle. Ihre Rolle ist ein Modethema der neueren Wissenschaftstheorie geworden.87 Aber die Modelle haben unter den Bezeichnungen Gleichnis, Metapher, Symbol u. ä. eine lange Geschichte. Der erste Philosoph, der die Modelle zum Thema machte, war Demokrit (2. Hälfte des 5. Jhs v. Chr.). Er suchte, wie alle Vorsokratiker, nach dem Grund und Ursprung aller Dinge (arché) und fand ihn im Vollen der Atome und im Leeren des Raumes. Von den Atomen aber sagte er, man könne die winzigsten von ihnen nicht sehen bzw. sinnlich wahrnehmen, und ebenso wenig den leeren Raum. Gerade das, was der Grund und Ursprung aller Dinge in der Welt sein sollte, könne nicht sinnlich wahrgenommen werden. Es mußte zur Erklärung der unsichtbaren winzigen Atome (größere Atome könne man u. U. als Sonnenstäubchen sehen) und des leeren Raumes „gedacht“ werden. Das wurde zur Matrix der physikalischen Theorien von den „unbeobachtbaren Parametern“, die eines der umstrittensten Themen der modernen Physik geworden sind. Aber „unanschauliches Denken“ konnte Demokrit sich nicht vorstellen. Und so führte er die Modelle zur Veranschaulichung des Unanschaulichen ein. In seinem Falle waren es die (erst kurz vor ihm in Griechenland eingeführten) Buchstaben der Schrift. Ihre verschiedenen Gestalten vertraten die verschiedenen Atomsorten, ihre Verbindungen zu Wörtern und Sätzen vertraten die Komplexionsformen der Moleküle. Und man darf vermuten, daß er die Lücken zwischen Wörtern für anschauliche Modelle des Leeren hielt (auch bei der alten scriptio continua mußten sich die gelesenen Wörter von einander abgrenzen lassen, um verstanden zu werden). Der zweite wichtige Entwicklungsschritt zur Modelltheorie war Platons (427 – 347 v. Chr.) Ideenlehre. Von Demokrit hat er den Modellgebrauch für Veranschaulichungen übernommen. Seine Modelle für die „unanschaulichen“ und nur „zu denkenden“ Ideen waren seine berühmten Gleichnisse (Höhlengleichnis, Sonnengleichnis, Liniengleichnis im „Staat“), und viele andere. Daß er gleichwohl von „Ideenschau“, und zwar mit einem „geistigen Auge“, sprach, darf man selbst schon als Metaphorik, in welcher das sinnliche Auge als Modell für das „unsinnliche Denken“ steht, verstehen. Aber es wurde zu einer Wurzel des „dialektischen Denkens“, in welchem das sichtbare Modell mit dem Unsichtbaren ver87 Für eine Übersicht der Modelltypen und Anwendungsgebiete vgl. H. Stachowiak in: Handlexikon zur Wissenschaftstheorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 219 – 222; ders., Allgemeine Modelltheorie, Wien 1977, sowie ders., Modelle - Konstruktion und Simulation der Wirklichkeit, München 1983. 157 schmolz (wie modellhaft die immer sichtbare Vorderseite des Mondes mit seiner unsichtbaren Rückseite). Die Nachfolger der platonischen Ideen waren in der abendländischen Philosophie und Wissenschaft der Gott, die Geister und die Kräfte. Sie sind immer da und wirken, aber man nimmt sie nicht wahr. Wie man über sie „dialektisch“ redete und dachte, zeigt sich in der Erbfolge des Platonismus und Neuplatonismus. Für alle Geisteswissenschaften wurde die Lehre des Neuplatonikers Philon von Alexandria (um 25 v. Chr. – um 50 n. Chr.) vom mehrfachen Schriftsinn eine immer sprudelnde Quelle der geisteswissenschaftlichen Modelle, die hier die Form der Metaphern und Allegorien annahmen. Auf dem Hintergrund der platonischen Ideenlehre war für Philon der „geistige Sinn“ der heiligen Schriften und insbesondere der jüdischen Thorah etwas nur zu Denkendes. Von diesem nur zu Denkenden unterschied Philon seine Veranschaulichung in den Texten. Zentral wurde sein hermeneutischer Kanon vom „allegorischen Sinn“, in dem Platons Gleichnislehre perenniert wurde. Er liegt auch Cassians vierfachen Kanones vom literalen, allegorischen, moralischen und anagogischen Sinn zugrunde, die vor allem den Laien der religiösen Gemeinde die „geistige Botschaft“ durch die wörtliche Einkleidung, die gleichnishaften und moralischen Beispiele und die Hinweise bzw. Andeutungen prophetischer Art anschaulich vermitteln. Der dritte wesentliche Entwicklungsschritt der Modelltheorie war die Theorie der Stoiker über das Verhältnis von Mikrokosmos und Makrokosmos. Die stoische Neuerung bestand darin, daß sie nicht das Unanschauliche durch Modelle repräsentierten, sondern etwas Anschauliches durch etwas anderes Anschauliches. Das wurde zum Ausgang einer allgemeinen Metaphorologie, in welcher alle Dinge Symbole für einander werden konnten. Da sie im allgemeinen einen kausalen Universaldeterminismus vertraten, hat sich bei den Stoikern das MikroMakroverhältnis mit der Meinung vermischt, das Modell-Verhältnis sei ein Kausalverhältnis. Davon zeugt der römische Augurenkult und im weitesten Ausmaß die Astrologie und Mantik. Sternkonstellationen, Handlinien, Physiognomien sind bekanntlich auch heutzutage noch in weitesten Kreisen motivierende Kausalitäten für praktisches Verhalten, Tun und Entscheidungen. Kommen wir aber zu einer mehr systematischen Betrachtung der Modelle. Modelle sind seit Demokrit ein „Quid pro quo“ geblieben. Etwas Anschauliches steht für etwas anderes. Was dies andere aber sein kann ergibt sich aus metaphysischen Begründungen sowie aus der Abgrenzung der Wissenschaftsgebiete und deren Gegenständen. 1. Wichtig ist, daß ein Modell grundsätzlich etwas anderes ist als das mit ihm „Veranschaulichte“. Das Modell für die „Sache selbst“ nehmen, ist daher ein schwerer aber weitverbreiteter Fehler in den Anwendungen. Solchen Fehlern sind wir schon in den bisherigen Ausführungen begegnet. 158 2. Modelle sind grundsätzlich Verkürzungen dessen, was sie darstellen sollen. Was nicht in ihnen dargestellt wird, bleibt außer Betracht, obwohl es als existent vorausgesetzt wird. 3. Nicht alles eignet sich dafür, als Modell für etwas gebraucht zu werden. Aber die tatsächlich verwendeten Modelle werden oft in ihrer Modellfunktion verkannt. 4. Auch wird leicht übersehen, daß ganze Disziplinen und Wissenschaften mit ihren Objekten Modell für andere Wissenschaften geworden sind. Letzteres ist gerade bei der Geometrie zuerst und bis heute der Fall. Die geometrischen Gebilde Punkt, Linie, Kurven, Fläche, Körper waren und sind durch die Arbeit der Geometer stets verfeinerte und untereinander zu immer komplexeren Gebilden ausgestaltete Abbilder von Dingen und Sachverhalten der Erfahrungswelt geworden. Sie werden zuerst anschauliche Modelle für die Ausbildung der Arithmetik, wie man am Lehrbuch des Euklid und in seiner Tradition in der Mathematik sehen kann. Aber auch die Naturphilosophen verwendeten die geometrischen Figuren als Modellvorrat. Davon zeugt die antike Kosmoslehre in ihrer selbstverständlichen Voraussetzung, daß die Himmelskörper auf Fix-Punkten („Firmament“) stehen oder auf Kreisbahnen laufen sollten, ebenso mit der Voraussetzung, daß sich beim Schattenwurf des Lichts zwischen Lichtquelle und Gegenstand gerade Linien ergeben. Nicht minder verbreitet war aber auch die Benutzung geometrischer Figuren in der Landvermessung (daher die Bezeichnung „Geometrie“) und deren proportionierte Verkleinerungen in der Kartographie und in Bau- und Konstruktionsplänen der alten Architekten und Ingenieure. Man erinnere sich, daß die griechischen Tempelbauer nur in Proportionen bauten, nicht aber mit geeichten numerischen Maßen. Nicht zwei Tempel der antiken Welt weisen übereinstimmende „Maße“ auf, obwohl sie fast alle in ihren geometrischen Proportionen übereinstimmen. Die Entwicklung der Arithmetik als Wissenschaft des „unanschaulichen Denkens“ war ohne die Modelle der geometrischen Gebilde nicht möglich. Und die Didaktik der numerischen Mathematik kann auch heute nicht auf die geometrischen Modelle verzichten. Erst die neuzeitliche Erfindung der „analytischen Geometrie“ hat diesen Modellzusammenhang von Geometrie und Arithmetik gelockert, aber sie hat den Zusammenhang nicht aufgehoben. Die neuzeitliche analytische Geometrie des Descartes verstand sich selbst als Autonomisierung der Arithmetik, die das ganze Gebiet der Geometrie als Anwendungsbereich der Numerik vereinnahmte. Das führte bekanntlich zu enormen Fortschritten der konstruierbaren Komplexität der geometrischen Gebilde, die weit über deren ursprünglichen Abbildungscharakter hinausging. Aber auch für die arithmetischen Strukturen und Gebilde werden noch immer „Graphen“ (d. h. geometrische Modelle) gesucht und entwickelt. Die Grenzgebilde zwischen geometrischer Anschaulichkeit und arithmetischer Unanschaulichkeit kann man besonders in der Entwicklung der Infinitesimal- und Unendlichkeitsnumerik be- 159 sichtigen, die als „transzendent“, d. h. über geometrische Demonstrierbarkeit hinausgehend, bezeichnet werden. Der Verlust anschaulich-geometrischer Modelle in der sogenannten Analysis eröffnete zwar neue Perspektiven für unanschauliches mathematisches Denken. Aber dessen Vollzug und Nachvollzug ist weitgehend Sache der individuellen und privaten Modelle ihrer Entwickler und ihrer Interpreten. Kommt es dabei zu neuen Vorschlägen, so werden die mathematischen Denker für ihre Denkergebnisse durch die „Fielding-Medaille“ (den „Nobelpreis“ der Mathematiker) und Prämien von speziellen Stiftungen ausgezeichnet. Dem Laienpublikum sind sie in der Regel schon lange nicht mehr verständlich zu machen, und dem Mathematiker anderer Spezialisierung meist ebenso wenig. Es gibt wohl keine andere Wissenschaft, in der die Spezialisierung so weit getrieben worden ist, daß nur noch zwei oder einige wenige Spezialisten sich darüber verständigen können, worüber sie forschen und reden und was sie sich dabei „denken“. Die Physik wurde sowohl in der platonischen Zuordnung zum Quadrivium wie im Aristotelischen System der „theoretischen Wissenschaften“ aufs engste mit der Mathematik zusammengestellt. Mathematik ist bei Aristoteles die zweite „theoretische Wissenschaft“ nach der Ontologie (die später „Metaphysik“ genannt wurde); die dritte theoretische Wissenschaft ist die Naturwissenschaft („Physik“). Das gilt bis heute als selbstverständlich und alternativlos. Daß es nicht immer selbstverständlich war, erkennt man daran, daß die aristotelische Physik bis in die Renaissance fast ohne Arithmetik, wohl aber auf geometrischer Grundlage, entwickelt wurde. Die Einbeziehung der Arithmetik in die Physik war immer eine platonische und dann neuplatonische Erbschaft, wie man an der Licht-Geometrie des Robert Grosseteste (ca. 1168 – 1253), Roger Bacons (ca. 1214 – ca. 1292) , bei den „Calculatores“ des Merton-Colleges an der Universität Cambridge, dann vor allem bei Nikolaus von Kues (1401 – 1464) und danach bei Galileo Galilei (1564 – 1642) sehen kann. Die mathematische Physik bestand und beruht bis heute auf der Verwendung der Geometrie als Modellreservoir für die Abbildung der physikalischen Welt. Alles, was Gegenstand physikalischer Forschung und Erklärung sein kann, muß zunächst „geometrisiert“ werden, um es dann auch numerisch-messender Betrachtung zu unterwerfen. Erst in dieser geometrisierten Gestalt können physikalische Objekte auch Gegenstand der numerisch-messenden Physik werden. Man sieht das an der kosmologischen Big-Bang-Theorie (Urknall), die den Anfang des Kosmos als Punkt-Ereignis und die Ausdehnung des Kosmos als sphärisch-lineare Ausbreitung geometrisiert. Die alternative Theorie einer kosmischen Oszillation von Ausdehnung und Zusammenziehung („ohne Anfang“, nach dem „SystoleDiastole“-Modell des Empedokles) bedient sich teilweise des geometrischen Wellenmodells. Daß man in der Physik solche Modelle „selbstverständlich“ verwendet, verdankt sich einer langen Tradition des Modelltransfers und der Modellkonkurrenz zwischen den einzelnen physikalischen Spezialdisziplinen. 160 Die „physikalische“ (eigentlich: physische) Natur bietet sich dem Betrachter dar in Gestalt diskreter fester Körper und als kontinuierliches Fließen von Flüssigkeiten und Wehen von Winden (Gasen). Ob und wie man das eine für den Grund des anderen halten konnte, darüber haben sich Demokrit und die stoischen und epikureischen Atomisten mit Heraklits (um 544 – 483 v. Chr.) Dictum „Alles fließt“ (panta rhei) und neuplatonischen „Emanations-Philosophen“ (emanatio = „Herausfließen“) auseinandergesetzt. Die Physik hat zunächst beide Phänomene in getrennten Disziplinen erforscht. Daraus entstanden einerseits die sogenannte korpuskulare Mechanik und andererseits die „Hydrodynamik“ der Flüssigkeiten. I. Newton (1643 – 1727), der Korpuskularphysiker, und Christian Huygens (1629 - 1695), der Hydrodynamiker, wiederholten den antiken Streit zwischen den Atomisten und Emanatisten um den Vorrang ihrer Modelle für die Erklärung des Lichts und seiner Eigenschaften auf den Grundlagen der mathematischen Physik ihrer Zeit. Es ging um die Frage, welches Modell – diskrete Körper oder kontinuierliche Flüssigkeiten – sich besser dazu eigne, die Lichterscheinungen mathematisch elegant und vollständig zu erklären und zugleich anschaulich zu machen. Wie man weiß, blieb der Streit unentschieden. Beide Modelle blieben in Konkurrenz auch in neueren physikalischen Disziplinen. Die entsprechenden Theorien sind die Korpuskel-Mechanik und die Wellenmechanik. Mathematisches dialektisches Denken aber vereinigt mittlerweile beide zur „dualistischen“ Theorie der Partikel-Wellen-Mechanik. Daß es überhaupt zu einer Abgrenzung der „Mikrophysik“ (der Elementarteilchen oder Wellen) von der klassischen Makrophysik gekommen ist, verdankt sich ebenfalls zum Teil einem Modelltransfer. Die alte Physik der Himmelskörper und ihrer mechanischen Bewegungen wurde selbst zum Modell, sich die Atome wie kleine Sonnen vorzustellen, um welche die Elektronen wie Planeten kreisen (Bohrsches Atommodell). Aber die genauere Erforschung des Verhaltens der Elektronen (deren Theorie ja in der „Hydro“-Dynamik des elektrischen “Stroms“ entwickelt worden war) zeigte das Ungenügen dieser Modellvorstellung. Statt um „Flüsse“ und ihr „Strömen“ geht es nun um „Strahlungen“, in denen etwas bewegt wird, was sich manchmal an Meßpunkten identifizieren läßt, manchmal aber auch nicht (non-locality). Die anhaltende Verlegenheit um eine Modellvorstellung dafür äußert sich in der „String-Theorie“ („Schleifen“). Ebenso war die Entwicklung der Relativitätstheorie, die heute die makrokosmische Physik beherrscht, zunächst inspiriert von den Erkenntnissen der Akustik, insbesondere des Dopplereffektes bewegter Schallquellen. Schallausbreitung wurde zum Modell der Lichtausbreitung, bis sich das Ungenügen der Modellanalogien des Schalls angesichts der (von A. Einstein postulierten) Konstanz der Lichtausbreitung herausstellte. Inzwischen steht auch die Astronomie im Zeichen der Modellierung und Simulation, wie es im Titel der Jahrestagung der astronomischen Gesellschaft in Deutschland 2011 zum Ausdruck kam: „Surveys and Simulations / The Real and the Virtual Universe“. 161 Die Chemie war in ihrer Geschichte (als Alchemie) ziemlich weit entfernt von Mathematisierung. Antoine Laurent Lavoisier (1743 – 1794) und John Dalton (1766 – 1844) aber haben erste quantitative Gesetze der Elementenverbindungen aufgestellt und damit ihre Mathematisierung eingeleitet. Atome wurden durch Jens Jakob Berzelius (1779 – 1848) mit latinisierten Eigennamen bezeichnet (z. B. „H“ für „Hydrogenium“ bzw. Wasserstoff). Moleküle als chemische Verbindungen von Atomen bezeichnete er mit Wörtern bzw. „Formeln“, die ihren Aufbau gemäß der Zahl ihrer Atome darstellten (z. B. „H2O“ für das Wassermolekül, bestehend aus 2 Wasserstoffatomen und einem Sauerstoffatom). Molekülvorstellungen aber unterwarf man dann auch in der Chemie der Geometrisierung mittels „Strukturformeln“, die die gegenseitige Lage der Atome im Molekül veranschaulichen sollten. Diese wurden dann auch durch dreidimensionale Modelle dargestellt. Die Modelle erwiesen sich als fruchtbare heuristische Instrumente für die Entdeckung vieler komplizierterer Molekülverbindungen. August Kekülé von Stradonitz (1829 – 1896) berichtete 1865, wie er im „Halbtraum“ das Strukturmodell des Benzolrings (C6H6) in Gestalt einer sich selbst in den Schwanz beißenden Schlange fand. Francis Crick und James Watson entdeckten 1953 die Doppelhelix als Strukturmodell der DNA und erhielten dafür den MedizinNobelpreis. Ein bedeutender Schritt in der chemischen Modellierung waren die sogenannten chemischen Reaktionsgleichungen. Sie stellen Anfangs- und Ergebniskonstellationen von chemischen Prozessen dar. Auch bei ihnen kann man den Effekt dialektischer Mathematisierung feststellen. Denn sie drücken zugleich die Gleichheit und die Unterschiedlichkeit der Anfangs- und Endkonstellationen von Prozessen in Gleichungsform dar, wo man logisch behauptende kausale Implikationen erwartet hätte. Auch die Biologie hat an dieser Geometrisierung ihrer Gegenstände teilgenommen. Goethes „Urform“ der Pflanze im Modell des Ginko-Blattes war ein Vorschlag dazu. Eine wichtige Vorstufe, die Biologie näher an die Physik heranzubringen, war die geometrische Beschreibung der tierischen und pflanzlichen „Zellen“ durch Matthias Jakob Schleiden (1804 – 1881). Noch weitergehend versuchte dies der „Energetismus“ der Monisten-Schule des Chemie-Nobelpreisträgers Willhelm Ostwald (1853 – 1932) und Ernst Haeckels (1834 – 1919). Der Physiker Felix Auerbach (1856 – 1933) ging von dem Ansatz der Monistenschule aus, daß die Organismen insgesamt „Energiewesen“ sind, die in ihren Körpern Energie speichern und „verkörpern“, zugleich aber auch in ihren Lebensprozessen Energie umsetzen. Er erkannte dabei, daß der Bereich des organischen Lebens sich vom Bereich der toten physikalischen Natur dadurch unterscheidet, daß die Lebewesen nicht dem 2. Hauptsatz der Thermodynamik unterliegen. Dieses sogenannte Machsche Gesetz besagt, daß in „geschlossenen Systemen“ der Physik (ohne Energiezufuhr von außen) die Energiepegel eine „entropische Tendenz“ zum allgemeinen Niveauausgleich aufweisen (deshalb nennt man das Machsche Gesetz auch Entropiegesetz), wodurch zugleich auch die physikalische 162 Zeitrichtung (von der Vergangenheit in die Zukunft) definiert bzw. simuliert wird. Auerbach nannte den Energiehaushalt lebendiger Organismen im Gegensatz zur Physik geschlossener Systeme „ektropische Systeme“, (in denen sich auch die Zeitrichtung, die die Entwicklung der Lebewesen bestimmt, umkehrt. 88 Heute spricht man diesbezüglich von „Negentropismus“ (= negativer Entropismus). Auf dieser Grundlage hat dann Karl Ludwig v. Bertalanfy (1901 - 1972) sogenannte Fließdiagramme der Lebewesen erarbeitet. Diese hat er in Modellen von „offenen Systemen“ (GST, d. h. General System Theory) darzustellen versucht.89 Obwohl die Möglichkeit einer adäquaten Darstellung „offener Systeme“ und erst recht deren Anwendung in anderen Wissenschaften wie Psychologie und Soziologie umstritten ist, war dieser Ansatz doch ein wichtiger Beitrag zur Eingliederung der biologischen Objekte in das physikalisch-geometrische Paradigma. Aber erst die neuere Rückbindung der Biologie an die physikalische Chemie („Molekularbiologie“ und „Molekularmedizin“) hat diese Tendenz zur herrschenden gemacht. Die moderne Tendenz zur Mathematisierung weiterer Einzelwissenschaften hat auch das Modelldenken in diesen Wissenschaften zur dominierenden Methode gemacht. Hier sind vor allem die Soziologie und die Ökonomie zu nennen. Für beide Bereiche war einer der Ausgangspunkte die Max Webersche Theorie von den „Idealtypen“, die schon als Modelle in nuce angesprochen werden können.90 Kern- und Ausgangspunkt für ökonomische Modelle ist etwa der „vollkommene Markt“ (ohne Monopole und Kartelle bei vollständiger Information aller Marktteilnehmer über die Marktlage) oder der „Homo oeconomicus“, der sich stets marktgerecht „rational“ verhält.91 Von den Geisteswissenschaften hat sich die Linguistik („Computerlinguistik“) am meisten dieser Tendenz geöffnet.92 Die Psychologie hat sich seit dem 19. Jahrhundert in einen geisteswissenschaftlichen (W. Dilthey, H. Lipps u. a.) und einen medizinisch-klinisch-naturwissenschaftlichen Zweig (im Anschluß an J. F. Herbart) geteilt. Für den letzeren Zweig dürften das Hauptmodell der Computer und seine Leistungskapazitäten geworden sein. In die Philosophiegeschichtsschreibung hat das Modellkonzept mit Rudolph Euckens „Bilder und Gleichnisse in der Philosophie“ 93 Einzug gehalten. Aber es 88 Vgl. F. Auerbach, Ektropismus und die physikalische Theorie des Lebens, Leipzig 1910. K. L. v. Bertalanfy, Biophysik des Fließgleichgewichts, Braunschweig 1953, 2. Aufl. Berlin 1977; ders., General System Theory, Scientific-Philosophical Studies, New York 1968, 2. Aufl. 1976. 90 M. Weber, „Über einige Kategorien der verstehenden Soziologie“ sowie „Die drei reinen Typen der legitimen Herrschaft“, in: M. Weber, Soziologie, Weltgeschichtliche Analysen, Politik, hgg. v. J. Winckelmann, Stuttgart 1956, S. 97 – 166. 91 Vgl. R. Mayntz, Formalisierte Modelle in der Soziologie, Neuwied 1967; D. Maki und M. Thompson, Mathematical models and applications. With emphasis on the social, life, and management sciences, Englewood Cliffs, N. J. 1973; K. Troitzsch, Modellbildung und Simulation in den Sozialwissenschaften, Opladen 1990; H. Albert, Marktsoziologie und Entscheidungslogik, Neuwied-Berlin 1967, neue Aufl. Tübingen 1998. 92 Vgl. N. Chomsky, Explanatory models in linguistics, in: Logic, Methodology and Philosophy of Science, hgg. von E. Nagel, P. Suppes und A. Tarski, Stanford Univ. Press 1962, S. 528 – 550; H. P. Edmundson, Mathematical Models in Linguistics and Language processing, in: Automated Language Processing, hgg. von H. Borko, New York 1968, S. 33 – 96. 89 163 dauerte bis in die zweite Hälfte des 20. Jahrhunderts, bis es von Hans Leisegang unter dem Titel „Denkform“ 94 und Ernst Topitsch in Verbindung mit dem Mythosbegriff wieder aufgenommen wurde. Topitsch arbeitete insbesondere technomorphe, biomorphe, soziomorphe und psychomorphe Modelle als anschauliche Denkgrundlagen der großen historischen Philosophiesysteme heraus. Dies allerdings in der kritischen Absicht, sie als gänzlich unzulängliche Stützen überholter Denksysteme der „wissenschaftlichen Philosophie“ des Wiener Kreises, d. h. der Analytischen Philosophie gegenüber zu stellen.95 Eine positive forschungsleitende Bedeutung erhielt das Modelldenken bei Hans Blumenberg (1920 - 1996) für diejenigen Philosophen, welche die Philosophie im engen Anschluß an die Sprach- und Literaturwissenschaften betrieben. Er ging von theologischen und literarischen Metaphern- und Mythenstudien aus, wo es seit jeher gepflegt wurde, und hat es geradezu zur Leitmethode eines „trivial“philosophischen Denkens gemacht. Für ihn sind Metaphern und Mythen das genuine Denkmittel einer philosophischen Sinnkonstruktion für die Welterklärung. Dies in scharfem Gegensatz zum begrifflichen und abstrakten wissenschaftlichen Denkstil der neuzeitlichen Naturwissenschaft. „Die Metaphorologie sucht an die Substruktur des Denkens heranzukommen, an den Untergrund, die Nährlösung der systematischen Kristallisationen, aber sie will auch faßbar machen, mit welchem ‚Mut‟ sich der Geist in seinen Bildern selbst voraus ist und wie sich im Mut zur Vermutung seine Geschichte entwirft“.96 So fruchtbar sich diese Version der Metaphern- und Mythenforschung in Blumenbergs eigenen Schriften und in denen seiner zahlreichen geisteswissenschaftlichen Schüler erwiesen hat, so betonte er in seinem letzten Werk „Die Lesbarkeit der Welt“ 97 auch die Kehrseite überkommener Mythen und Modelle als Verführung und Irreführung der wissenschaftlichen Forschung. Dies am Beispiel der (augustinischen und galileischen) Metapher vom „Buch der Natur“ („das in geometrischen und arithmetischen Zeichen geschrieben ist“). Erst die neuzeitliche Naturwissenschaft habe sich von der darin implizierten Leitvorstellung eines göttlichen Buch-Autors verabschiedet und den Nachweis erbracht, daß es sich um das Modell eines Buches mit gänzlich leeren Seiten gehandelt habe. Zuletzt hat sich noch Kurt Hübner für die Unentbehrlichkeit des Modelldenkens in den Wissenschaften stark gemacht. 98 Auch er ging von der theologischen Mythenforschung aus und stellte die Mythen als empirisch nicht widerlegbare 93 R. Eucken, Bilder und Gleichnisse in der Philosophie, Leipzig 1880. H. Leisegang, Denkformen, Berlin 1951. 95 E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, Wien 1958; ders., Mythische Modelle in der Erkenntnistheorie, in: E. Topisch, Mythos, Philosophie, Politik. Zur Naturgeschichte der Illusion, Freiburg 1969, S. 79 - 120. 96 H. Blumenberg, Paradigmen zu einer Metaphorologie“, Bonn 1960, S. 11; ders., Arbeit am Mythos, Frankfurt a. M. 1979. - Vgl. dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert, Meisenheim 1968, S. 172 173. 97 H. Blumenberg, Die Lesbarkeit der Welt, Frankfurt a. M. 1981. 98 K. Hübner, Die Wahrheit des Mythos, München 1985, 2. Aufl. Freiburg-München 2010; ders., Die nicht endende Geschichte des Mythischen, in: Texte zur modernen Mythenforschung, Stuttgart 2003. 94 164 „ontologische“ Erfahrungssysteme mit eigenem Recht neben die naturwissenschaftliche Ontologie. Die mythischen Modelle, so meint er, besäßen im Unterschied zu den wissenschaftlichen Theorien den Vorzug der unmittelbaren sinnlichen Anschaulichkeit der in ihnen benutzten Begriffe. Kommen wir aber auf die eigentlichen methodologischen Grundlagen des Modelldenkens in der Logik und Mathematik und seine Relevanz für die Veranschaulichung des „unanschaulichen Denkens“ zurück. Die mit der „quadrivialen“ Mathematik konkurrierende „triviale“ Logik galt ebenso wie jene seit jeher als eine Praxis des unanschaulichen Denkens. Aber im Gegensatz zur Mathematik wurde in der Logik das Denken gerade und nur durch die Beziehung auf inhaltliche Objekte veranschaulicht. Insofern entwickelte sich Logik auch zuerst als „inhaltliches, d. h. anschauliches Denken“ mittels der inhaltlichen Beispiele. Jedes inhaltliche Beispiel für einen Begriff oder ein Urteil galt als Modell dessen, was mit einem Begriff oder Urteil als rein logischen Gebilden gedacht werden sollte. In diesen Veranschaulichungen durch inhaltliche Beispiele wurde die Logik vor allem von den Stoikern kultiviert. An der Stelle, wo sich die Arithmetik der geometrischen Modelle zur Veranschaulichung von Zahlen und Zahlverhältnissen bedienen konnte, entwickelte Aristoteles durchaus in Konkurrenz zur Mathematik seine Logik auf der Grundlage ausgewählter grammatischer Kategorien. Man sollte die aristotelischen Buchstaben (bzw. Zahlzeichen) selbst als ein logisches Pendant zur mathematischen Geometrisierung verstehen. Formale Buchstaben als logische „Variable“ bildeten nicht Gegenstände ab, sondern veranschaulichten bei Aristoteles die sonst unanschaulichen Begriffe, und nur diese. Vielleicht hat er das von Demokrit übernommen. Man sollte nicht verkennen, daß die noch heute verbreitete Gewohnheit von Logikern (aber auch von Mathematikern und Physikern), einen thematischen Gegenstand zuallererst mit einem Buchstaben zu belegen („... nennen wir es X“), der dann in einer Rede oder Schrift für das Gedachte bzw. Gemeinte stehen bleibt, daraus entstand. Die aristotelischen „synkategorematischen“ Junktoren, die nach Aristoteles und auch späterhin keinen eigenen „Sinn“ besitzen sollten, waren in den Anfängen dieser Formalisierung keine Abbildungen von irgend etwas in der Welt, sondern direkter Ausdruck von (vermeintlich) unanschaulichen Denkverknüpfungen bzw. Relationen. Erst ihre Stellung zwischen den formalen Modellen (Variablen) von Begriffen erhielt als „Mitbedeutung“ (connotatio) eine Abbildungsfunktion. So stellten erst die formalisierten Urteile in dieser Junktoren-Verknüpfung mit Begriffen Modelle von Urteilen und Schlüssen dar. Aber dieser Modellansatz in der aristotelischen formalen Logik war ziemlich beschränkt und wurde bekanntlich in der logischen Arbeit von Jahrhunderten nicht wesentlich erweitert. Und noch wesentlicher für die Entwicklung der Logik war es, daß diese einfachen Formalisierungen nicht als Modelle für die Anschaulichkeit des logischen Denkens erkannt und durchschaut wurden. Daher der immer wiederholte Rekurs auf die (anschaulich bleibende) Sprache in der Logikge- 165 schichte bis zur Wittgensteinschen Identifizierung von „Idealsprachen“ mit Mathematik und Logik. In der Sprachverwendung sah man einen unmittelbaren und gleichsam naturwüchsigen Denkvollzug von Zusammenhangsstiftungen zwischen den Objekten des Denkens. Die Interpretation der Einführung (Eisagoge) des Porphyrius (um 232 – um 304 n. Chr.) in das Aristotelische Organon brachte in der mittelalterlichen Scholastik eine explizite Modell-Veranschaulichung der Begriffe und ihrer hierarchischen Ordnung in Begriffspyramiden in den sogenannten Porphyrianischen Bäumen hervor. Aber auch diese Veranschaulichungen beschränkten sich auf das Verhältnis von Oberbegriff zu je zwei Artbegriffen, die in den „Begriffsbäumen“ übereinander abgebildet wurden. Damit konnten allenfalls Extensionen von Begriffen, nicht aber ihre Intensionen und deren Zusammenhang veranschaulicht werden. Und damit auch nicht die durchlaufende Hierarchisierung aller Begriffe einer Theorie von ihrem axiomatischen Grundbegriffen bis zum Eigennamen, geschweige denn von der Satz- bzw. Urteils- zur Schlußbildung. In Bezug auf solche Begriffshierarchien blieb die Logik bis heute auf die Phantasie der Logiker angewiesen. Und dem verdankt sich die Tatsache, daß logisches Denken sich ebenso wie die Arithmetik einen Nimbus der Unanschaulichkeit bewahrt hat. „Rationales Denken“ wird zwar in allen Wissenschaften und besonders in der Wissenschaftsphilosophie beschworen und in Anspruch genommen, aber es besteht keinerlei auch nur annähernd einheitliche Auffassung über das, was Rationalität eigentlich sei. Die Aszendenz von Modelltheorien in der Wissenschaftsphilosophie verdankt sich in erster Linie der Entwicklung der mathematischen Logik hin zu einem Verständnis des Rationalen als Idealsprache. Gemäß linguistischem Sprachverständnis baute man eine besondere „Semantik“ als Lehre von den Objekten aus, über die und von denen in dieser Ideal-Sprache geredet werden kann. Solche Objekte konnten für Mathematiker nur die mathematischen Gebilde selbst sein, also die Zahlen und ihre Aufbaustrukturen sowie die geometrischen Gebilde. Als Objektbereich der Mathematik werden sie – analog der traditionellen Ontologie – auch in der Mathematik als deren „Ontologie“ bezeichnet. Aber auch diese „Ontologisierung“ abstrakter Gegenstände appelliert an die Veranschaulichung des angeblich nur Denkbaren durch die inhaltliche Beispiele, die in den Ontologien einzelner Wissenschaftsbereiche vorgeführt werden. Die Modellauffassung der modernen mathematischen Logik erhebt jede inhaltliche Interpretation bzw. die Anwendung des logischen Formalismus auf einen Sachverhalt zu einem Modell der dafür gesetzten oder geforderten unanschaulichen Denkobjekte ihrer Axiomatik. Und da man den (axiomatischen) Formalismus für eine Wahrheitsgarantie der formalisierten Denkprozesse hält, wird von dem interpretierenden Modell erwartet, daß es ebenfalls zu inhaltlich wahren Aussagen führt. In diesem Sinne wird etwa die mathematische Zahlentheorie als ein Modell der Peanoschen (1858 – 1932) Axiomatik aufgefaßt, die Euklidische 166 Geometrie als Modell der Hilbertschen (1862 – 1943) Axiomatik. Dies dürfte die Standardauffassung in der Wissenschaftsphilosophie sein. Umgekehrt findet man aber auch die Meinung, für jede „intuitive“ inhaltliche Theorie eines Objektzusammenhangs sei der (axiomatische) Formalismus ein Modell. Aber wie man leicht bemerkt, ist das erstere – die Interpretation eines Formalismus - nichts anderes als ein Anwendungsbeispiel. Aus solchen Beispielen aber wird der Formalismus in aller Regel erst gewonnen (wie es die stoische Logik vorführte). Formalismus und Interpretation müssen daher von vornherein „tautologisch“ übereinstimmen. Diese Modellvorstellung ist daher ein Fall einer petitio principii. Da für die Logik die logischen Formalismen die anschaulichen Modelle für das sind, was man logisches Denken (oder oft auch Rationalität schlechthin) nennt, kommt alles darauf an, wie die Formalismen gestaltet sind und was sie dabei „zu denken“ erlauben. Der übliche logische Formalismus mit Begriffsvariablen und Junktoren ist – ebenso wie der mathematische mit Zahlvariablen und Rechenarten als Junktoren („Operatoren“) – an die Textgestalt von Schriftsprachen gebunden. Das Textmodell modelliert die Abfolge von ganzen Begriffen in (behauptenden) Sätzen und deren Abfolge zu weiteren Begriffen und Behauptungen als “Denkprozeß“ entsprechend der Abfolge eines schriftlich notierten Lese- und Vorstellungsablaufes. Dies ist die Grundlage für die sogleich zu behandelnde „Simulation“ von Abläufen geworden. Die Modelle in der Form von Graphen modellieren dagegen keinen sprachlichen Gedankenlauf, sondern geben ein statisches Abbild von logischen Relationen. Als Beispiele haben wir schon die porphyrianischen Bäume, die (umgekehrten) Begriffspyramiden, die Eulerschen Kreise sowie die Vennschen Diagramme erwähnt. Sie gelten zwar als didaktische Hilfsmittel, haben aber eine selbständige und andersartige Funktion ihrer Abbildlichkeit als die textartigen Formalismen. Wesentlich für sie ist, daß diese Graphen-Formalismen als das behandelt werden können, was man Modelle nennt. Der von uns vorgeschlagene und in § 9 ausführlich explizierte Formalismus stellt insofern einen Verbesserungsvorschlag des Pyramidenmodells dar. Hier ist jedoch darauf hinzuweisen, daß es sich bei der hier entwickelten Formalisierung nicht um eine Veranschaulichung eines „unanschaulichen Denkens“ das es nicht gibt - handelt. Was in den logischen Pyramiden „modelliert“ wird ist immer inhaltliches Vorstellen, sei es in direkter sinnlicher Betrachtung des Pyramidenformalismus selbst oder als Erinnerung an seine Gestaltung. Die Formalisierung liefert nur ein normatives Beispiel dafür, wie man mit anschaulichen Vorstellungen, Erinnerungen und Phantasien umzugehen hat, wenn sie in eine logische Ordnung gestellt werden sollen. Der pyramidale Formalismus in seiner Anschaulichkeit ist also selbst ein Exemplar des logischen Vorstellens im Unterschied zu rein sprachlichem Reden, zum Schreiben oder Spekulieren, das der logischen Formalisierung vorauslaufen oder auch nachfolgen mag. 167 Echte Modelle sind stets ein Quid-pro-quo geblieben. D. h. sie „supponieren“ („stehen für...“ wie man in der scholastischen Logik sagte) für etwas, das in bestimmten Hinsichten anders ist als das Modell, das zugleich aber auch etwas Identisches des Gegenstandes und des Modells zur Anschauung bringt und damit definiert. Das zeigt sich am deutlichsten in den maßstäblichen Verkleinerungen und Vergößerungen geometrischer Gebilde. Identisch bleiben zwischen Modell und Dargestelltem die Gestalt, verschieden aber sind die Maßverhältnisse bzw. die Proportionen. Das identisch-verschiedene Verhältnis wird logisch Analogie genannt. Nun hat der Analogiebegriff bekanntlich durch Thomas v. Aquins (1225 – 1274) „Seinsanalogie“ (analogia entis) weite kategoriale und ontologische Anwendungen gefunden. Aber „Analogie“ ist als Begriff des Identisch-Verschiedenen ein weiteres Beispiel für einen dialektischen, d. h. widersprüchlichen Begriff. Er hat auch in der mathematisch-logischen Modelltheorie eine besondere Anwendung gefunden. Daher ist hier besonders auf die „Analogie“ im Modellverständnis der Mathematik und mathematischen Logik einzugehen. Wie gezeigt wurde, gehört das dialektische Denken seit jeher zur Kultur der Mathematik. Es kann daher nicht verwundern, daß es auch bei den mathematischen Modellen durchschlägt. Und es verwundert auch nicht, daß die Modelltheorien der Mathematik in einer eigenen mathematischen Disziplin entwickelt worden sind, die ebenso wie die ganze Mathematik ihre dialektischen Voraussetzungen nicht sieht und geradezu verleugnet. Das hauptsächliche methodische Mittel zur Dissimulierung des dialektischen Charakters der Modellvorstellungen in der Mathematik ist die analytische Methode (nicht mit der analytischen Geometrie zu verwechseln), die etwas Unbekanntes als Bekanntes behandelt. Beispiel dafür ist die Supposition von Variablen für unbekannte Zahlgrößen „als ob sie bekannt wären“. Ein weiteres Mittel ist die (falsche) Verwendung der Gleichungsform für Behauptungssätze. Gemäß diesen methodischen Mitteln wird nun auch das Verhältnis von Modell zum Objekt der Modellierung als Gleichung und zugleich als Analogieverhältnis zwischen beiden formuliert. Das Modell wird in der Mathematik als „ein-eindeutiges Abbild“ („Strukturidentität“) von Modell und Objekt und zugleich als dessen Analogie (teilweise Übereinstimmung bei teilweiser Nicht-Übereinstimmung) dargestellt. Beides steht jedoch im Widerspruch zueinander. Mit der Gleichung wird nur der identische Teil des Bezuges zwischen Modell und Objekt beachtet und dargestellt. Die Analogie aber sollte gerade die Ungleichheiten herausstellen. Aber diese wird bei Modellen ausgeblendet. Es gilt geradezu als Vorzug und Stärke der mathematischen Modelle, daß in ihnen von den Ungleichheiten zwischen Modell und Modelliertem abgesehen bzw. abstrahiert wird, und somit die Abbild-Relation als gegebenes Identitätsverhältnis postuliert wird. Ein Lexikonartikel „Modell“ formuliert dies so: 168 „Modell (nach dem aus lat. modellus, Maßstab (Diminutiv von Modus, Maß) gebildeten ital. (16. Jh.) modello), in Alltags- und Wissenschaftssprache vielfältig verwendeter Begriff, dessen Bedeutung sich allgemein als konkrete, wegen ‚idealisierender‟ Reduktion auf relevante Züge, faßlichere oder leichter realisierbare Darstellung unübersichtlicher oder ‚abstrakter‟ Gegenstände oder Sachverhalte umschreiben läßt. Dabei tritt die Darstellung der objekthaften Bestandteile hinter der Darstellung ihrer relational-funktionalen Beziehungen (Struktur) zurück.“ 99 „Idealisierende Reduktion“, „faßlichere oder leichter realisierbare Darstellung“, „relational-funktionale Beziehungen“ und „Struktur“ sollen hier dasjenige bezeichnen, was ins Modell eingeht. Aber die „objekthaften Bestandteile“, die im Modell nur „zurücktreten“ sollen und als „unübersichtlich“ oder „abstrakt“ gelten, widersprechen als analogischer Anteil ersichtlich der Prätension, es handele sich um ein ein-eindeutiges Abbildungsverhältnis, das in einer Gleichung dargestellt werden könnte. Die mathematischen Modelltheorien setzen, wie vorn gesagt, voraus, daß jede mathematische Theorie – in welcher Disziplin auch immer (einschließlich physikalischer Theorien in mathematischer Form) eine ein-eindeutige Abbildung ihrer Axiomatik sei. Die „wahre“ oder „bewährte“ Theorie sei dann zugleich auch das, was man in der Mathematik ein Modell ihrer Axiomatik nennt. Man kann auch sagen: eine mathematische Theorie veranschaulicht jeweils ihre unanschauliche Axiomatik. Diese Meinung wurde durch David Hilbert (1862 - 1943) begründet und durch die französische Mathematikergruppe, die unter dem Namen „Bourbaki“ veröffentlicht, weiter verfestigt. Alfred Tarski hat die mathematische Modelltheorie zu einem disziplinären Teil der von ihm sogenannten Meta-Mathematik gemacht.100 Die mathematische Modell-Theorie spielt hier die Rolle einer „Semantik“ der Theorie-Objekte, die die „Syntaktik“ der axiomatischen Idealsprache durch ein Modell interpretiert. Unter der (wie wir meinen: falschen) Voraussetzung, daß die mathematischen Objekttheorien widerspruchslos seien, überträgt sie diese Voraussetzung auch auf die (Hilbertsche) Axiomatik zurück und versucht, die Erfüllung der Axiom-Kriterien der Unabhängigkeit, Vollständigkeit, Definierbarkeit, Widerspruchsfreiheit usw. auch für die Axiomatik nachzuweisen. Wir haben aber vorn in § 9 gezeigt, daß die sogenannten axiomatischen Grundbegriffe, die nach Hilbert als „undefinierbare Begriffe“ verstanden werden, logisch keine Begriffe sind. Zur Verdeutlichung dessen, was damit gement sein soll und was als ihr Anwendungsbereich in Frage kommt, bedarf es daher der Anwendungsbeispiele, d. h. eben der ausgeführten Theorien. 99 G. Wolters, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-WienZürich 1984, S. 911. 100 Vgl. A. Tarski, Contributions to the Theory of Models, in: Indagationes Mathematicae 16, 1954, S. 572 - 588; nach G. Wolters, Art. „Modelltheorie“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 913 – 914; vgl. auch G. Hasenjäger, Art. „Modell, Modelltheorie“ in: Wörterbuch der Philosophischen Begriffe, Band 6, hgg. von J. Ritter und C. Gründer, Basel-Stuttgart 1984, Coll. 50 – 52. 169 Ebenso wurde gezeigt, daß die mathematischen Gleichungen im logischen Regelfall Definitionen sind. Das aber heißt, daß die vorgeblichen Modelle als „eineindeutige“ Abbildungen der Axiomatik Definitionen der axiomatischen „Grundbegriffe“ sein müssen, die deren intensional-extensionalen Status überhaupt erst festlegen. Damit klären und erläutern sie aber nur Sinn und Bedeutung der Axiomatik selber von den Modell-Beispielen ihrer Anwendungen her. Wenn aber davon ausgegangen wird, daß mathematisches Denken überhaupt auf der Voraussetzung seiner „Unanschaulichkeit“ beruht, so ist die Modellbildung in interpretatorischen Anwendungen immer noch ein prekärer Versuch der Veranschaulichung des Unanschaulichen. Diese Veranschaulichung aber stützt sich auf das Vorhandensein disziplinärer mathematischer Theorien und kann daher auch nur den Mathematikern selbst als „Veranschaulichung“ dienen. Dem mathematischen Laien dürften die mathematischen Theorien selbst als unanschaulich imponieren. Um sie auch dem Nichtmathematiker verständlich zu machen, bedarf es daher logischer Analysen des mathematischen Apparates, wie wir sie vorn schon vorzuführen versucht haben. Neben den Modellen haben in jüngeren Zeiten die Simulationen eine bedeutende Funktion in den Wissenschaften und in der Technik übernommen. Auch die Simulationen verdanken sich der zunehmenden Ausbreitung mathematischer Methoden in den früher nicht-mathematischen Einzelwissenschaften. Insbesondere spielten die gewaltigen Fortschritte in der Computertechnik und der dadurch gegebenen Manipulierbarkeit großer Datenmassen eine Hauptrolle. Dadurch ist das Thema der Simulation als „Computersimulation“ allbekannt geworden. Das Wort Simulation (lat. simulare, dt. Nachahmen, aber auch Verstellen bzw. Heucheln) insinuiert zunächst einmal, daß hierbei etwas mehr oder weniger Klares bzw. mehr oder weniger Bekanntes der physikalischen Wirklichkeit durch ein besonders scharfes und klares Bild wiedergegeben werde. Dasselbe Verhältnis war ja auch in den Modellkonzeptionen prätendiert. Der Physiker Heinrich Hertz (1857 – 1897) hat es in einem berühmt gewordenen Dictum über die Methode des physikalischen Denkens so ausgedrückt: „Wir machen uns Symbole oder Scheinbilder der äußeren Gegenstände, und zwar derart, daß die denknotwendigen Folgen dieser Bilder stets wiederum die Bilder seien von den naturnotwendigen Folgen der abgebildeten Gegenstände“.101 In diesem Dictum ist schon auf die „Folgen der Bilder“, also das prozessuale Moment der Nachbildung, hingewiesen, welches im Simulationskonzept festgehalten wird. Diese Bedeutung dürfte überhaupt der Grund für die Attraktivität des Terminus „Simulation“ gewesen sein. Daneben hat aber die Simulation schon seit der Antike noch die recht pejorative Nebenbedeutung, die seine positive Bedeutung geradezu ins Gegenteil verkehrt. 101 H. Hertz, Prinzipien der Mechanik, in: Ges. Werke Band 3, Leipzig 1894, zit. nach F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 4, Berlin 1923, S. 422. 170 Man erinnere sich an seinen Gebrauch in der ärztlichen Diagnostik, wo der „Simulant“ der gesunde „Patient“ ist, der eine Krankheit und ihre Symptome „vortäuschen“ kann. Das „Vortäuschen“ dürfte auch jetzt noch nicht ganz aus dem heutigen Sprachgebrauch verschwunden sein. Die Militär-Strategen (wie schon Sun Bin in China, wie Cäsar, aber auch die modernen militärischen Stäbe), die Juristen und Steuerbeamten und nicht zuletzt die Geschäftsleute haben gewiß bis heute die römische Maxime beherzigt: „Quae non sunt simulo, quae sunt ea dissimulantur” (was es nicht gibt, das täusche ich vor; was wirklich der Fall ist, wird verborgen) Angesichts dieser Geschichte der „Simulation“ sollte man also auch in der Wissenschaftstheorie eine gewisse Skepsis gegenüber der Konjunktur der Simulationen nicht ganz hintanstellen. Ebenso wie die mathematischen Modelltheorien beruhen auch die (Computer-) Simulationen auf mathematischen Theorien. Anders als die mathematischen Modelltheorien bezieht sich dabei die mathematisierte Theorie der Computer nicht auf eine Axiomatik, sondern direkt auf große Forschungsbereiche und die hierin gesammelten Daten- und Faktenmassen nebst ihren Zusammenhängen. Ein weiterer Unterschied zu den mathematischen Modellen besteht darin, daß die Objekte der Simulation in der Regel Prozesse bzw. Abläufe sind, die dann auch durch technische Prozesse bzw. ihre mathematischen Formalisierungen in Algorithmen, die das Computerprogramm ausmachen, abgebildet werden. Günter Küppers und Johannes Lenhard haben die Simulationen daher sehr griffig als „Modellierungen 2. Ordnung“ bezeichnet.102 So bleibt das Quid pro quo der Modelle auch in den Simulationen erhalten. Die Attraktivität und Konjunktur der Simulation dürfte sich in erster Linie der Tatsache verdanken, daß sie – ebenso wie die Modelltheorien überhaupt - so gut in den Kontext der realistischen Erkenntnistheorie paßt. Simulationen erscheinen als eine exakte und mathematisierte Form der traditionellen Adaequatio rei et intellectus, der „Übereinstimmung von Sachverhalt und Erkenntnis“. Durch die ein-eindeutige Abbildung eines prozessualen Sachverhaltes soll eine selber progredierende Erkenntnis simuliert werden. Das Paradigma dafür ist das Computerprogramm (und dafür ist wiederum die sogenannte TuringMachine das konzeptionelle Modell), das die maschinellen Prozesse im Computer steuert, die ihrerseits durch bild- und geräuscherzeugende Simulation etwas darstellt, was als schon bekannt und wiedererkennbar erscheint. Das kennt jedermann vom Theater her, in welchem ja historische oder typische Lebensabläufe und Handlungszusammenhänge simuliert werden. Sie gelten in der Ästhetik als umso „wahrer“, je mehr sie „dem vollen Leben entsprechen“. Aller102 Vgl. G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 305 – 329. Eine Ausarbeitung dieses Ansatzes mit zahlreichen Anwendungsbeispielen und kritischen Bemerkungen in Joh. Lenhard, Mit allem rechnen – zur Philosophie der Computersimulation, Berlin 2015. 171 dings war sich die ästhetische Einschätzung der dramatischen Simulationen schon seit dem Sophisten Gorgias (ca. 480 – 380 v. Chr.) bewußt, daß dabei immer auch die „Täuschung“ und Verstellung“ durch die Illusionen der Bühne und die Verstellungskunst der Schauspieler im Spiel war. Diese Bedenken sind jedoch in den quadrivialen Naturwissenschaften und ihren Simulationen verloren gegangen. Umso mehr besteht Bedarf, sie auch hier geltend zu machen. Wie in § 5 gezeigt wurde, lebt die Forschung wesentlich von Vermutungen und Hypothesen, die eigentlich im sprachlichen Konjunktiv zu formulieren wären. Da es diesen Konjunktiv aber weder in der Logik noch in der Mathematik gibt, formuliert man auch die Vermutungen in der behauptenden Urteilsform. Und das erfüllt zunächst den Tatbestand der Vortäuschung von Tatsachen, wo über deren Existenz oder Nichtexistenz, geschweige über deren bestimmten Charakter, nichts behauptet werden kann. Wie sich die Wahrscheinlichkeitskonzeptionen über diesen logischen Sachverhalt selbst hinwegtäuschen, haben wir schon ausführlich beschrieben. Es kann jedenfalls nicht verwundern, daß in den Simulationen ausgebreiteter Gebrauch von statistischer Wahrscheinlichkeit und Schlußfolgerungen daraus gemacht wird. Da diese in ihren mathematischen Formalisierungen als sicheres und wahrheitsgarantierendes Wissen gelten, ersetzen und vertreten sie alles das, was auf der Faktenebene alles andere als sicher, gewiß und etablierte Wahrheit ist. Damit erfüllt das Simulationsverfahren die erste römische Maxime: „Simulo quae non sunt“. Die mathematischen Simulationen stehen als „wahre Theorien“ für nur vermutete und unsichere Fakten. Und zugleich decken sie das Ungewisse, vom dem man nur mit Sicherheit weiß, daß da „irgend etwas ist“, mit Wahrheits- und Gewißheitsansprüchen zu. Damit erfüllen sie auch die zweite römische Maxime: „Quae sunt ea dissimulantur“. Erst die post-festum Verifikationen und Falsifikationen können allenfalls als Begründungen für gelungene oder mißlungene Simulierung dienen. Aber post festum sind die Simulationen nicht mehr Simulationen, sondern Tatsachenbehauptungen. Ersichtlich sind es gerade die schwierigsten Grundprobleme, an denen sich metaphysische Forschung jahrhundertelang abgearbeitet hat, die nun mit der Simulationstechnik in Angriff genommen und mit der Hoffnung auf endgültige Erledigung bewältigt werden sollen. Nämlich die Fragen: Was ist eigentlich Geist, Subjekt, „Intelligenz“ und deren Leistungsfähigkeit; und was ist das „Ding an sich“ als objektiver Kern aller Wirklichkeit. Auf der metaphysischen Grundlage des herrschenden materialistischen Realismus geht die KI-Forschung (Künstliche Intelligenz-Forschung) davon aus, das Gehirn sei das materielle Substrat des Geistes bzw. des Subjekts. Die physiologischen Gehirnprozesse müßten daher durch maschinelle Prozesse simuliert werden können. Der Mathematiker Johann v. Neumann (1903 – 1957), neben Konrad Zuse (1910 – 1995) der Pionier des Computerbaus, der für sein photographisch genaues und zuverlässiges Gedächtnis berühmt war (er konnte schon als Kind eine Tele- 172 phonbuchseite mit allen Namen und Nummern zuverlässig erinnern) hat in seinem Buch „The Computer and the Brain“ 103 die „Analogie“ des Computers zum menschlichen Gehirn unterstrichen. Für die Wissenschaften relevant sind dabei naturgemäß die sogenannten kognitiven Leistungen des Gehirns. Aber wie man durch Maschinen seit jeher die menschlichen körperlichen Leistungen verlängert und verstärkt hat, so natürlich auch die sogenannten intellektuellen Leistungen. Teleskop und Mikroskop, Hörgeräte, Thermometer und Waagen sind Verlängerungen der sinnlichen Organe. Leibnizens Rechenmaschine war die erste Maschine, die auch eine solche – und zwar notorisch aufwendige und umständliche – intellektuelle Leistung, nämlich das Rechnen in den Grundrechnungsarten verlängerte, beschleunigte und fehlerlos ersetzte. Mit Recht sieht man darin die Matrix der Computer. Das Wort Computer ( = „Rechner“) selbst hat diesen Ursprung festgehalten. Nur in Frankreich hat man eine weitere Leistungsfähigkeit der Computer aus jüngeren Entwicklungen in den Vordergrund gerückt. Man nennt sie dort „ordinateur“ und betont damit zugleich mit ihrer Datenspeicherkapazität – die als maschinelles Gedächtnis eingeschätzt wird - die zuverlässige Klassifizierung und Anordnung der Daten und ihre sichere Abrufbarkeit. Gewiß übertrifft der Computer inzwischen jede menschliche Erinnerungs- und Ordnungskapazität. Daher überlassen wohl die meisten Zeitgenossen ihre Erinnerungen und die Registerhaltung ihrer Angelegenheiten ihrem Computer. Und ersichtlich wird im gleichen Maße das individuelle Erinnern und die Ordnungshaltung vernachlässigt und ersetzt. Computerprozesse werden durch Algorithmen gesteuert. Das sind in der Mathematik Handlungs- bzw. Prozeßanweisungen für die Durchführung von Rechnungen. Computerprogramme sind mehr oder weniger komplexe Algorithmen, die das Funktionieren der Computer auf bestimmte Ergebnisse hin abrichten und steuern. Längst setzt man sie daher auch für alle möglichen Berechnungen ein, die ein Mensch wegen Umfang und Dauer nicht mehr durchführen kann. Daraus hat sich auch in der Wissenschaft längst ein computergestütztes „Puzzle-Solving“, also das mechanische Problemlösen, durchgesetzt. Insbesondere mechanisiert man mathematische Beweisverfahren.104 Nun weiß man zwar genau, wie die Computer funktionieren, aber nicht, wie das menschliche Gehirn funktioniert. Gemeinsam haben beide nur, daß man „von außen“ nicht sieht, wie sie ihre Geschäfte erledigen. Beide sind das, was man „black box“ (eine schwarze Kiste) nennt, in die etwas hineingetan wird („in-put“) und etwas herauskommt („out-put“). Und so kommt wiederum das mathematische Modelldenken, verstärkt durch das Simulieren unbekannter Vorgänge durch bekannte Prozesse, ins Spiel. Wenn der Computer so gut rechnen und Daten spei103 J. v. Neumann, The Computer and the Brain, 1958, neue Aufl. New Haven 2000, dt.: Die Rechenmaschine und das Gehirn, 1958. 104 Vgl. dazu die Literatur bei Kl. Mainzer, Artikel „Intelligenz, künstliche“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 255 –256. 173 chern und wieder hervorrufen kann, und beides als ausgezeichnete und geradezu paradigmatische Intelligenzleistung gilt, so läßt man sich gerne zu dem Schluß verführen, geradezu alle Bewußtseinsakte ließen sich computermäßig simulieren. Als Beweis für gelungenes Simulieren der rechnenden und datenspeichernden Intelligenz gilt nicht von ungefähr das Schachspiel der Schachcomputer gegen die Weltmeister des Schachspiels. Und da freies Entscheiden und sogenannte Kreativität als wesentliches Anthropinon gilt, haben viele Tonkünstler und Maler ihre Kreativität längst in die Programmierung von geräusch- und bilderzeugenden Computern mit eingebauten Zufallsgeneratoren verlagert. Was man aber bisher so noch nicht simulieren kann, ergibt dann regelmäßig ein willkommenes und stets auszuweitendes Forschungsprogramm. Neben dem Rechnen ist es das Sprechen, welches gemeinhin als „Out-put“ von Denkprozessen gilt. Das sieht man schon daran, daß alles Schulwesen heute Mathematikkenntnisse und Sprachverfügung als hauptsächliche Testfelder intelligenter Leistungen festgeschrieben hat. Auch bei den sprachlichen Artikulationen findet der Computer seit langem verstärkten Einsatz. Schriftliche und lautliche out-puts gehören längst zum Standard der Computer bei Übersetzungen, bei Robotern und Automaten bis hin zu den Richtungsanweisungen im GPS der Fahrzeuge. Und so hält man es für eine Frage des Fortschritts, bis auch alle weiteren Gehirnfunktionen computermäßig simuliert werden könnten. Puppen lachen und weinen schon und simulieren Gefühle. Die inzwischen aufgelaufene Literatur zur Künstlichen Intelligenz läßt schon ahnen, was man sich davon verspricht, nämlich die Klonung menschlicher Gehirne in Gestalt von Computern und den Zusammenschluß von Computerelementen mit neuronalen Organen (Implantation von Computerchips ins Gehirn). Auch die Tagespresse nimmt regen Anteil an der Reklame.105 Alle diese schönen Hoffnungen und Aussichten, die inzwischen mit Millionendotierungen an zahlreichen Forschungsinstituten genährt und unterhalten werden, beruhen aber, wie schon vorn gesagt, auf naturwissenschaftlichen Modell- und Simulationsmethoden. Der Computer ist Modell des Gehirns, und die Computerprozesse sind die Simulationen des menschlichen Seelenlebens. Daß nur eine Analogie vorliegt, die neben dem, was dabei identisch funktioniert, gerade das Unterschiedliche kennzeichnen sollte, gerät dabei immer mehr aus dem Blick. Man muß schon die Perspektive eines sensualistischen Idealismus einnehmen, um zu erkennen, daß auch Gehirne und ihre Funktionen etwas sind, was erst einmal gesehen, beobachtet und erforscht werden muß, und zwar keineswegs durch Computer. Die sogenannten bildgebenden Beobachtungsverfahren, die die Grundlage für die hirnphysiologischen Erkenntnisse darstellen, haben einstweilen nur eine neue 105 Vgl. z. B. FAZ vom 6. 8. 2011, S. 31: Art. „Unsterblichkeit für alle“: „Unermüdlich arbeitet Ray Kurzweil daran, uns den Weg ins ewige Leben zu weisen. Im Jahr 2029, so prophezeit es der amerikanische Autor und Erfinder, werden das menschliche Gehirn und der Computer eine Einheit bilden“. 174 innersomatische Beobachtungsebene neben den äußeren Beobachtungsflächen psychischer Phänomene (z. B. Verhalten oder Gesichtsausdruck) geschaffen. Sie sind nur eine Fortentwicklung der schon lange üblichen Diagnoseinstrumente, mit denen man „unter die Haut“ gehen kann. Dabei ist man noch weit davon entfernt, die elektrischen, chemischen und physiologischen Funktionen des Gehirns zu durchschauen. Für alle diese Funktionen aber hat sich mittlerweile der gutklingende Terminus „Feuern der Neuronen“ (ein schönes Oxymoron als Modell) eingebürgert. Computer als Maschinen müssen konzipiert, konstruiert und ihre Programme entwickelt werden, und auch dies nicht durch Computer, sondern mittels lebendiger Gehirne. Das wird durch menschliche Intelligenz und psychisches Leben von Subjekten (oder „Geistern“) geleistet, die sich keineswegs selbst konstruieren, programmieren und nach Modell- und Simulationsmethoden erklären lassen. Das andere Feld der Simulationen ist die „objektive Welt“ der Dinge, Sachverhalte und Vorgänge „an sich“. Das erstreckt sich von den mikrophysikalischen Vorgängen in den Atomen mittels des sogenannten Standard-Modells der Teilchen und ihrer Wechselwirkungen bis zur Evolution des Universums mitsamt der Evolution der Lebewesen. Wie dies methodisch geschieht, haben wir vorn schon verschiedentlich berührt. Was man einigermaßen kennt, wird als Modell und Simulation auf das Unbekannte übertragen. Und was nicht zum Modell-Modell paßt, wird aus der Beachtung und Betrachtung ausgeschlossen. Am bekanntesten dürfte heute die Klima-Simulation geworden sein. Sie hat sich aus der Wetterprognostik entwickelt. Daß diese früher stets in Konkurrenz mit „Omas großer Zehe“ stand und dabei oftmals hinter Omas Treffern zurückblieb, dürfte dem älteren Radiohörer noch in Erinnerung sein. Inzwischen ist das Klima so etwas wie die geographische und historische Durchschnittslage aller Wetterverhältnisse über dem Erdplaneten geworden. Die Faktenlage ergibt sich aus historischen Wetteraufzeichnungen, aus der Geschichte der Vulkanausbrüche und vermuteter Meteoriteneinschläge auf der Erde, aus Einlagerungen in Korallen, den Wachtumsringen langlebiger Bäume und der Verteilung und Abholzung von Wäldern, den polaren Eislagern mit konservierten Pollen, den Meeres- und Binnensee-Ablagerungen und den fossilen Funden; darüber hinaus aus Schwankungen der Erdbahnparameter, den Variationen der Sonneneinstrahlung und der Meeresströmungen und der Meerespegel. Die Luftströmungen über Weltmeeren waren übrigens die ersten Wetterphänomene, die auf diese Weise simuliert wurden. Sie waren stets schon für die Schiffahrt wichtig.106 Von Außenseitern wird immer wieder auf weitere Faktoren hingewiesen, die wegen schwieriger Modellier- und Simulierbarkeit nicht in die Klimaprognosen eingehen. So etwa der gesamte und stets ausgeweitete Funkverkehr, der erhebliche Energievolumina in die Wetterverhältnisse einbringt, und den z. B. Klaus106 Zur Entwicklung auch G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 316 – 324. 175 Peter Kolbatz schon seit 1994 für die Zunahme der regionalen Sturm- und Regenkatastrophen verantwortlich macht. Am meisten umstritten ist dabei der Eintrag zivilisationserzeugter sogenannten Treibhaus-Gase, besonders des Kohlendioxyds. Sie waren zwar schon immer eine natürliche Bedingung des Lebens auf der Erde. Jetzt werden sie jedoch wegen vermuteter übermäßiger Freisetzung aus ihren natürlichen Speichern in Kohle, Erdöl und Erdgas als ein Hauptfaktor der Klimaerwärmung angesehen. Die Daten sind recht kontingent und weisen in allen geschichtlichen Epochen eine erhebliche Streuung auf. Je mehr man mit derartigen Daten und den immer dichter ausgebauten Meßstationen der Gegenwart nahe kommt, desto dichter werden sie. Sicher ist vom Klima aber nur das eine: daß es immer und überall ein Klima (als Integral der Wetterlagen) gegeben hat. Aber wie es früher war, ist überwiegend unbekannt, und wie es jetzt ist, kann jedermann direkt beobachten. Es ist schon eine erhebliche (hypothetische) Induktion, vom Wetter in verschiedenen Erdregionen und in begrenzten Zeitperioden zum Klima überzugehen und dabei das Klima als Wetterdurchschnitt bestimmter Zeitepochen oder geographischer Zonen zu definieren. Die Klimax der Simulation aber ist bei alledem die Tendenzformulierung gemäß der Comteschen Devise des „Savoir pour prévoir“. Wie das Wetter (je nach Wunsch und Nutzen) mal für besser, mal für schlechter gehalten wird, so auch die Simulation. Die einen beklagen, die anderen wünschen eine bestimmte Klimatendenz. Und jede gewünschte Tendenz läßt sich auch simulieren. Hier kommen jedoch die nationalen und erst recht die industriellen und kommerziellen Interessen ins Spiel. Wird es tendentiell kälter (in Richtung auf eine neue Eiszeit), so erscheint das genau so gefährlich und lebensbedrohend wie eine Tendenz zur Erwärmung. Beide Tendenzen lassen sich durch entsprechend ausgewählte fotographische Bestandsaufnahmen bestimmter Weltregionen illustrieren. Die Kehrseite dieser Gefahren ist freilich der kaum öffentlich diskutierte Nutzen und Vorteil solcher Tendenzen für die eine oder andere Weltgegend und ihre Bewohner, seien es Menschen oder Tiere und Pflanzen. Die überall privilegierte Ausrichtung der Klima-Simulation zwischen den extremen Tendenzen ist die Konstanthaltung des Klimas geworden, der Status quo, wie er gegenwärtig empfunden wird. Die Simulation liefert ein mathematisches Bild, in welchen die bekannten und die zahlreichen vermuteten unbekannten Faktoren ein prekäres Gleichgewicht aller bekannten und unbekannten Faktoren vortäuschen. Schon die Einteilung natürlicher und zivilisatorischer Faktoren, die in diese Simulationen eingehen, bleibt willkürlich und interessengebunden. Daß die Weltklimakonferenzen dazu auffordern können, das Klima so, wie es sich heute darbietet, zu stabilisieren und dazu ungeheure Ressourcen aufzubieten, dürfte eine der merkwürdigsten Erscheinungen der bisherigen Weltgeschichte sein. 176 § 13 Die Bestimmung des wissenschaftlichen Wissens. Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches und wahr-falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen. Wissenschaftliches Wissen wird gewöhnlich strikt vom Alltagswissen unterschieden und abgegrenzt. Doch geht es in der Regel von diesem aus und bleibt auch immer darauf bezogen. Denn der größte Teil des Alltagswissens ist, jedenfalls im Abendland, wissenschaftliches Wissen von ehedem. Wissenschaftliches Wissen ist auch zu großen Teilen Bestätigung von Alltagswissen, wenn auch oftmals in verfremdeter Terminologie und somit kaum wiedererkennbar. Zuweilen stellt es sich aber gerade als dessen Widerlegung und Korrektur dar. Schließlich aber wird das Wissen auch auf Erfahrungsbereiche ausgedehnt, das den Alltagserfahrungen nicht zugänglich ist. Dieses wissenschaftlich erarbeitete Wissen wird oft mit gehöriger zeitlicher Verzögerung allmählich in das Alltagswissen einspeist und dieses dadurch bereichert. Ganz verfehlt ist die Auffassung, wissenschaftliches Wissen sei - gerade im Gegensatz zu Alltagswissen - durchweg wahres Wissen. Es teilt vielmehr mit jenem die Eigenschaft, teils wahr und teils falsch zu sein. Während Alltagswissen seiner Natur nach täglich auf dem Prüfstand hinsichtlich seiner Wahrheit und Falschheit steht, hat wissenschaftliches Wissen vielerlei Formen und Gestalten entwickelt, in denen es wahr und falsch zugleich ist. Die verbreitetste Gestalt solcher „Wahr-Falschheit“ ist das, was in § 11 als „Wahrscheinlichkeitswissen“ behandelt wurde. Wissenschaftliches Wissen besteht aus Kenntnissen und Erkenntnissen. Dies ist eine Unterscheidung, die Aristoteles herausgearbeitet hat, und die seither festgehalten worden ist. Kenntnisse beziehen sich auf Fakten und Daten. Aristoteles bestimmte sie als dasjenige Wissen, das durch Beschreibungen der „empirischen“ und „historischen“ Erfahrungen gewonnen wird. Werden sie methodisch erhoben, so wird dieses Faktenwissen in den „beschreibenden Wissenschaften“ („-Graphien“ und „Historien“) konsolidiert. Diese Bezeichnung hat sich für einige Wissenschaften bis ins 20. Jahrhundert erhalten, wie z. B. in „Historiographie“ und „Geographie“. Faktenkenntnisse werden in der Regel mittels ihrer Eigennamen und/oder sogenannte Kennzeichnungen gewußt. Man „kennt“ die Namen bzw. Bezeichnungen von Personen, Dingen, Ereignissen, Sachverhalten, Örtern und bedient sich ihrer, um sich an sie zu erinnern und/oder sie sich vorzustellen. Oft braucht es einigen Lernaufwand, um sie sich zu „merken“, wie bei den Eigennamen von Personen und ihren „Daten“ oder bei bestimmten Ereignissen. Dieser Aufwand ist auch beim Studium zu beachten, das grundsätzlich auf solchen Kenntnissen aufbaut. 177 Fachkenntnisse bestehen wesentlich aus Kenntnissen der Terminologie, der Eigennamen von wichtigen Wissenschaftlern, insbesondere von Klassikern, den Titeln ihrer Hauptwerke und ihren Publikationsdaten, von wichtigen historischen Ereignissen und ihren „Daten“, von Formeln und inhaltlichen „Merksätzen“ (evtl. Zitaten oder Argumenten). Jede Prüfung von Studienerfolgen fragt zuerst nach solchen Daten. Erst im Anschluß an solche Kenntnisse kann man nach „Erkenntnissen aus und über“ diese Daten weiterfragen. Mancher Studierende bleibt bei solchen Kenntnissen stehen. Als diplomierter Absolvent mag er sogar mit solchem Faktenwissen glänzen, das er wie ein Papagei vortragen und ausbreiten kann. Was man gelegentlich „falsche Kenntnisse“ nennt, bezeugt aber Unkenntnis. Sie sollte nicht mit falschen Erkenntnissen verwechselt werden. Erkenntnisse beziehen sich auf Beziehungen und Verknüpfungen von Kenntnissen untereinander. Sie werden daher, im Unterschied zum „empirischen und historischen Faktenwissen“, gewöhnlich auch „theoretisches Wissen“ genannt. Aristoteles sah darin das eigentliche „szientifische“ (griech.: epistematische) Wissen derjenigen Wissenschaften, die über die empirisch-historische Stufe hinausgewachsen sind. Sie erklären die einzelnen Daten und Fakten aus Ursachen (vgl. seine Lehre von den „vier Ursachen“). Im Unterschied zu den „graphischen Wissenschaften“ nannte er sie „-Logien“ oder auch „Techniken“. Auch das ist – unter mancherlei Veränderungen der Ursachentheorien – im allgemeinen erhalten geblieben. Noch jetzt benennt man einige Wissenschaften mit der Endung „-logie“ (wie Ontologie, Theologie, Kosmologie, Biologie, Soziologie, Psychologie), andere mit der Endung „-ik“ (wie Logik, Mathematik, Rhetorik, Ethik, Ökonomik, Politik, Pädagogik, usw.). Ursprünglich zeigte die Endung „-ik“ (von griech.: „-iké téchne“) an, daß ihr Gegenstand Handlungsbezüge aufwies. Neuere Wissenschaftbezeichnungen benutzen diese Endungen jedoch eher nach dem Wohlklang (wie z. B. Germanistik, Sinologie). Einfachste Formen solcher Erkenntnisse sind schon die Definitionen wissenschaftlicher Begriffe, die die Termini mit anderen Termini in geregelte logische Beziehungen setzen. Sie zeigen (wie in Prüfungen oft erfragt wird), daß die Daten und Fakten nicht nur bekannt, sondern auch verstanden worden sind. In weiteren Zusammenhängen werden diese Erkenntnisse zu „Argumenten“. Sie können in mehr oder weniger schlichter und konziser Form niedergeschrieben, vorgetragen und diskutiert werden, aber ebenso auch in hochformalisierter Gestalt. Fachliche Kompetenz und ggf. Brillanz zeigt sich darin am meisten. Vor der sich ausbreitenden Manie, Argumente nur als „Intuitionen“ vorzutragen, haben wir allerdings schon eingangs gewarnt. Die elaboriertesten Formen der Erkenntnisse sind die wissenschaftlichen Theorien. Sie verknüpfen im Idealfall nur wohldefinierte Begriffe zu einem systematischen Gesamt („hard core“ im „non-statement-view“). Gelingt dies, so ist ihr pyramidaler Zusammenhang auch in Sätzen (logischen Urteilen), Argumenten und Schlüssen formulier- und lesbar. 178 Es sei auch hier betont, daß neben den Argumenten auch und gerade Theorien, und erst recht Teile von Theorien, wahr, falsch und auch wahr-falsch sein können. Ebenso sei hier nochmals auf die merkwürdige Tatsache hingewiesen, daß in der neueren Wissenschaftstheorie der Mathematik und Naturwissenschaften die Meinung vertreten wird, daß insbesondere die Grundbegriffe bzw. „Prinzipien“ (axiomatische Grundbegriffe) einschlägiger Theorien gerade „undefinierbar“ seien. Es handelt sich dabei jedoch um die ersichtlich wahr-falsche These, daß solche Grundbegriffe zugleich Begriffe und auch keine Begriffe seien. Alles Wissen ist grundsätzlich Wissen lebendiger Menschen. Es besteht daher wesentlich im Vollzug sogenannter geistiger Handlungen. Da diese privater Natur und von anderen Menschen nicht unmittelbar erfaßbar sind, kann man ein Wissen nur auf Grund seiner Verlautbarungen in sprachlichen und anderen symbolischen Zeichen erschließen. Man nennt dies gewöhnlich „Objektivierung“ des Wissens. Sprachliche Äußerungen auf Tonträgern, Texte, Bilder und Schemata gelten allgemein als solche Objektivierungen und sind die Grundlage für alle öffentlichen Institutionen des Wissens. Die Tatsache solcher Objektivierungen des Wissens führt allerdings zu der verbreiteten irrigen Auffassung, Wissen selbst bestünde in diesen Objektivierungen. Daher spricht man heute allgemein von Texten, Dateien u. ä. als „Wissensbasen“. Von da ist es nur ein kleiner Schritt, Dokumentationen, Bibliographien, Bücher, Bibliotheken, Archive insgesamt als „objektives Wissen“ anzusehen und ihre Ordnungsapparaturen als „Expertensysteme“ zu bezeichnen. Besonders die Computer mit ihrer ungeheuren Leistungsfähigkeit für die Speicherung und Zur-Verfügungstellung solcher Objektivationen haben diese Meinung verbreitet, so daß man wegen der Verbreitung der Computer auch die sie benutzende Gesellschaft gerne „Wissensgesellschaft“ nennt. Hinter allen solchen Bezeichnungen verbergen sich aber nur Halbwahrheiten. Es ist wahr, daß solche Apparate Wissen dokumentieren und den Zugang zu ihm erleichtern und ordnen können. Aber es ist eine falsche Meinung, daß die Dokumentation von Wissen schon selber Wissen sei. Wie oben schon betont, kommt Wissen nur (privat und individuell) zustande, wenn die Dokumentation zur Kenntnis genommen, gelesen, verstanden und „bedacht“ wird, und zwar eben durch einen lebendigen Menschen in seinen (privaten) geistigen Kenntnis- und Erkenntnisakten. Frühere Zeiten haben die platonische Einsicht kultiviert, daß Reden, Texte, Dokumentationen stumm und tot bleiben, wenn sie nicht in einem lebendigen Bewußtsein verarbeitet werden. Man war sich darüber im klaren, daß die (materiellen) Formen sprachlicher Verlautbarungen von Texten, Bildern, Schematen ein Mittel waren, geistige Akte zu evozieren und diesen selbst eine bestimmte Form zu geben. Daher nannte man sie „Informationen“ (wörtlich: In-Form-Bringen). Heute spricht man zwar noch in diesem alten Sinne davon, man „informiere sich“, wenn man sich aus Dokumenten ein bestimmtes Wissen verschafft. Aber die Information wird mehr und mehr mit dem Dokument als solchem, dem In-Form 179 Gebrachten, identifiert. Das erzeugt den Anschein, als ob das Dokument selber schon ein Stück Wissen wäre. Man glaubt, Wissen ließe sich im Computer speichern. Abgespeicherte Information ist dann aber nicht mehr die gelesene, aufgenommene, verstandene oder auch unverstandene, und gewußte Botschaft, sondern die materielle Zeichenhülle selbst. Kein Wunder, daß Menschen, die sich auf solches „dokumentiertes Wissen“ verlassen und die Information in Bits und Bytes quantifizieren und sich dabei vom eigenen Erfassen und Denken entlasten, dabei in Gefahr geraten, immer dümmer zu werden. Da dies jedoch eine sehr weit verbreitete Tendenz in den modernen Gesellschaften ist, muß es falsch und irreführend sein, die gegenwärtige Gesellschaftform eine „Wissensgesellschaft“ zu nennen. § 14 Die Bestimmung von Wissenschaft Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung. Wissensbasen und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und Zusammenhang von Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die Aufgaben der Forschung Nach dem bisher Gesagten müssen wir darauf bestehen, daß Wissenschaft wesentlich auf wissenschaftlichem Wissen beruht. Vieles andere kommt noch hinzu, aber es ist nicht mit diesem Wesentlichen zu verwechseln, noch, wie es in der Wissenschaftstheorie häufig geschieht, an seine Stelle zu setzen. Wissenschaft wesentlich auf das Wissen zu gründen, heißt keineswegs, es auf ein anthropologisches oder psychologisches Wissen über das Wissen zu gründen und damit einem reduktionistischen Anthropologismus oder Psychologismus zu huldigen. Denn solches philosophisches Bereichswissen oder einzelwissenschaftliches Wissen, wie es auch das psychologische Wissen selbst ist, könnte allenfalls ein Beispiel, ein Fall von wissenschaftlichem Wissen sein, das selber schon gewußt werden muß. Betonen wir beiläufig: Menschen haben auch vor der Entstehung oder Erfindung von Wissenschaft mancherlei gewußt, und erst recht weiß jeder Mensch vieles, ohne Anthropologe oder Psychologe zu sein und über spezielles Wissen aus diesen Disziplinen zu verfügen. Wenn also die Wissenschaft darauf warten müßte, bis eine besondere Wissenschaft geklärt hätte und „weiß“, was Wissen selber ist, so gäbe es sicherlich noch keine Wissenschaften. Ebenso beiläufig sei gesagt: Wenn Sokrates behauptete, daß er „wisse, daß er Nichts (genauer: nicht) wisse“ und Descartes, daß er „wisse, daß er wisse“, so verdanken diese Sprüche ihre 180 Notorietät offensichtlich gerade der Tatsache, daß sie auf ein Wissen hinweisen, das sich in keiner Weise „objektivieren“ läßt. Ein ebenso falscher Reduktionismus liegt der Denkfigur und der darauf beruhenden Bestimmung des wissenschaftlichen Wissens als „Wissen von...“ zugrunde. Man setzt dabei voraus, dasjenige, von dem oder über das etwas gewußt werde, sei die sogenannte objektive Wirklichkeit, also schlechthin der Gegenstand des Wissens und der Wissenschaft. Diese wissenschaftlichen Objekte müßten unabhängig von allem Wissen erst einmal „gegeben“ und somit dem Wissen von ihnen vorgegeben sein. Diese Denkfigur ist in unseren Zeiten ein Grundgedanke des herrschenden Realismus in den meisten Wissenschaften geworden. Es wird dabei aber nicht bedacht, daß man das „Wovon“ und „Worüber“ des Wissens immer schon erkannt haben und davon wissen muß, um überhaupt darüber reden zu können. Deshalb verweist auch diese „realistische“ Denkfigur nur wiederum auf ein vorgängiges Wissen, das dann weiteres „nachgängiges“ Wissen erzeugt, hinter das aber nicht zurückgegangen werden kann. Da nun Wissenschaft wesentlich auf Wissen beruht und dieses grundsätzlich ein (privater) und bewußter Besitz lebendiger Menschen ist, sollte man sie am ehesten bei den Wissenschaftlern selbst vermuten. In der Tat hat man diejenigen, bei denen man Grund zu dieser Vermutung hatte, seit jeher als „Weise“ geehrt und ausgezeichnet. Dieser Sitte verdanken sich noch immer alle Wissenschaftspreise und Ehrungen. Das alte Wissen darum, daß die Wissenschaft wesentlich vom Wissen der Wissenschaftler getragen wird, ist zwar heute sichtlich im Schwinden begriffen zugunsten der Meinung und Erwartung, „objektiviertes“ Wissen stelle sich in den wissenschaftlichen Institutionen mehr und mehr von selbst und gleichsam automatisch in der oben genannten informationstechnischen Weise her. Aber man wird auf das „lebendige“ Wissen zurückkommen müssen, wenn man Wissenschaft wirklich haben und erhalten will. Wissen erwirbt man bekanntlich durch Lernen aus der Lebenserfahrung oder durch Unterricht. Das gilt natürlich auch für wissenschaftliches Wissen. Ein guter Wissenschaftler hat wie andere Menschen auch schulichen Unterricht genossen und Lebenserfahrungen angesammelt. Wie gut die Schule und sein wissenschaftliches Studium war und wie tief und vielfältig seine Lebenserfahrungen sind, das bestimmt auch nachhaltig die Qualität seines Wissens. Im übrigen lernt er im besten Falle ständig hinzu und unterrichtet sich selbst weiter. „Life long learning“ war immer ein Spezifikum der Wissenschaftlerexistenz. Es nun jedermann zuzumuten kann nur bedeuten, alle Menschen zu Wissenschaftlern bilden zu wollen. Dabei wäre es viel wichtiger, darauf zu achten und Sorge dafür zu tragen, daß und wie schon einmal erlangte Wissensstandards in allen Bereichen des Lebens und der Wissenschaft erhalten, vermittelt und womöglich verallgemeinert werden könnten. 181 Obwohl wissenschaftliches Wissen an allgemeines Schul- und Alltagswissen anknüpft, unterscheidet es sich doch auch von diesem in mancher Hinsicht. Die Wissenschaften haben, so lange es sie gibt, Vermittlung und Erweiterung des wissenschaftlichen Wissens durch besondere Institutionen zu sichern versucht, nämlich durch Lehre und Forschung. Hier ist zunächst zu betonen, daß Lehre und Forschung Hilfsmittel zur Gewinnung, Vermittlung und Erweiterung des wissenschaftlichen Wissens sind, keineswegs aber das Wesentliche der Wissenschaft selber darstellen. Sie sind nächst dem wissenschaftlichen Wissen zwar das Auffälligste und daher am meisten Sichtbare an der Wissenschaft, gehören aber doch nur zum äußerlichen Apparat des wissenschaftlichen Betriebes. Und nur deshalb kann damit herumexperimentiert werden, können Lehre und Forschung ständig verbessert oder verschlechtert, revolutioniert, reformiert oder restituiert werden; kann Lehre schulischem Unterricht angenähert oder auch davon abgehoben werden; können sowohl Lehre als auch Forschung als handwerkliche Praxis, als Technik oder auch als Kunst betrieben werden. Wichtig ist nur, ob sie ihrem Zweck genügen, nämlich wissenschaftliches Wissen aufrecht zu erhalten, zu perennieren, zu gewährleisten, ständig zu kontrollieren und zu überprüfen und es gegebenenfalls zu erweitern. Wissenschaftliche Lehre unterscheidet sich vom schulischen Unterricht nicht nur durch die verschiedenen Lebensalter, in denen Schüler der gesetzlichen Schulpflicht unterliegen und Studierende sich mehr oder weniger zwanglos einem Studium widmen. Die wissenschaftliche Lehre tradiert ein wissenschaftliches Wissen, von dem wir oben schon sagten, daß es wahres, aber auch falsches, und auf weite Strecken wahr-falsches Wissen enthält. Was an diesem Wissen wahr, falsch oder beides zugleich ist, festzustellen, ist gerade dasjenige, was die Lehre mit der Forschung verknüpft, wie es Wilhelm von Humboldt mit seinem Diktum von der „Einheit von Forschung und Lehre“ an Universitäten sehr richtig ausgesprochen, wenn auch nicht erfunden hat. Kurz, die berühmte Wahrheitsfrage ist das ständige Problem der Wissenschaft, und ihre Lösung das Ideal, dem sie nacheifert. Schulischer Unterricht hält sich im Unterschied zur wissenschaftlichen Lehre an sogenannte ausgemachte Wahrheiten und im praktischen Bereich an effiziente und erprobte Kulturtechniken, die dadurch vermittelt werden. Und diese werden daher in den meisten Staaten von Bürokraten unter mehr oder weniger Beratung durch Wissenschaftler in den Schulkurrikula festgeschrieben und kanonisiert. Das ist im optimalen Fall derjenige Teil wissenschaftlichen Wissens, auf den sich die Mehrheit der Fachwissenschaftler als wahr und sicher geeinigt hat. Insofern handelt es sich oft um älteres und insofern etwas abgestandenes Wissen. In anderen Fällen kann es sich aber auch um Wissen von wissenschaftlichen Minderheiten handeln, die ihre für wahr gehaltene Meinung über die Schulkurrikula im Bewußtsein nachwachsender Generationen verankern möchten, ohne daß sie dem Test längerer wissenschaftlicher Auseinandersetzung ausgesetzt gewesen 182 wäre. Dieses „avantgardistische“ Wissen kann sich zwar als wahr bewähren, es kann sich aber auch als (falsche) „Ideologie“ erweisen. Gegenwärtig kann man eine so eingeimpfte Gewißheitserwartung in weiten Kreisen der Studierenden feststellen. Sie sind geschockt, enttäuscht und oft empört, wenn sie an den Hochschulen einer forschungsnahen Lehre konfrontiert werden, in der das meiste vorgetragene Wissen mehr oder weniger unsicher, diskutabel, problematisch erscheint. Gerade auf diese Unsicherheit des wissenschaftlichen Wissens hätte sich ein guter Schulunterricht immer auch propädeutisch im Hinblick auf das wissenschaftliche Studium auszurichten und insofern mit aller Vorsicht auf manche Ungesichertheit und Vorläufigkeit des wissenschaftlichen Wissens vorzubereiten. Begegnet man nun häufig bei den Studierenden und auch in weiten Kreisen der Öffentlichkeit der Meinung, Wissenschaft sei als solche schon der Hort der Wahrheit und eine „richtige“ Lehre vermittle daher lauter(e) Wahrheiten, so ist es anderseits bei den Wissenschaftlern selbst geradezu eine Mode geworden, mit K. R. Popper davon auszugehen daß alles in der Wissenschaft grundsätzlich unsicher sei, daß alles Wissen der Wissenschaft nur vermutendes bzw. hypothetisches „Wahrscheinlichkeitswissen“ sei, und daß sich Wissenschaft in und durch Forschung nur allmählich und „asymptotisch“ der Wahrheit annähere, ohne sie je erreichen zu können. Dem Philosophen mag es zwar schmeicheln, darin eine alte Bescheidenheit wiederzuerkennen, die auf den Titel „Weiser“ (besser: Wissender) zugunsten der „Liebe zur Weisheit“ (besser: zum Wissen) verzichtete - und damit auch auf das Wahrheitsmonopol. Aber die Meinung, daß alles wissenschaftliche Wissen nur wahrscheinlich sei, ist eine falsche Bescheidenheit und erst recht eine ganz falsche Ansicht vom Wesen des wissenschaftlichen Wissens. Das zeigt sich schon daran, daß man, um von einer „Annäherung an die Wahrheit“ (K. E. Popper) auch nur zu reden, schon wissen muß, was die Wahrheit ist. Und wenn man das weiß, wie Popper natürlich voraussetzt, so hat man schon wenigstens ein Stück wahren Wissens, von dem aus sich andere Stücke falschen Wissens als falsch und als abständig von der Wahrheit einschätzen lassen. Die wissenschaftliche Forschung stellten wir als Hilfsmittel zur Erweiterung und Bereicherung des wissenschaftlichen Wissens heraus. Das Wort „Forschung“ (investigatio, auscultatio, scrutatio, skepsis, zetesis)107 verweist auf die Bedeutung des Ausspähens, Herumblickens, Weitersehens, Suchens. So denkt man in erster Linie daran, daß das wissenschaftliche Wissen durch Forschung neue Bereiche an Kenntnissen und ihre erkennende Durchdringung erschließt. Das ist in der Tat so. Die Erschließung ganz neuer Wissens- und Wissenschaftsbereiche besonders in den Naturwissenschaften mit Hilfe neuer technischer Experimentier- und Beobachtungsinstrumente hat diesen Forschungsbegriff verfestigt. Aber zur Forschung gehört neben der Erweiterung auch die Konsoli107 Vgl. L. Geldsetzer, Der Begriff der Forschung im 19. Jahrhundert. In: Jahrbuch der Universität Düsseldorf 1975/76, Düsseldorf 1977, S. 135 – 146. 183 dierung und ständige Revision des wissenschaftlichen Wissens, also das, was wir oben schon Prüfung der Wahrheit und Falschheit dieses Wissens genannt haben. Man darf hier schon sagen: diese Art von Forschung steht heute weit hinter der anderen, ständig auf Neues ausgerichteten - auch in der öffentlichen Wertschätzung - zurück. Der Zustand des kritischen Rezensionswesens in allen Wissenschaften zeigt es an. Es ist überall in vollem Verfall befindlich, und zwar zugunsten übersprudelnder „Informationen“ über neues Wissen, das nur noch darauf hin geprüft wird, ob es nach „wissenschaftlichen Methoden“ erarbeitet, nicht aber ob es wahres oder falsches Wissen ist. Hinzu kommt ein in der Neuzeit sich immer mehr verbreitendes Fortschrittsbewußtsein, das dazu neigt, alles schon vorhandene Wissen für überholt und daher für „falsch geworden“ anzusehen. In gleichem Maße hält man es dann auch der Mühe nicht mehr für wert, sich dieses Wissens überhaupt zu versichern, es zu kennen und das vorgeblich Neue mit ihm zu vergleichen. Gerade dies aber ist die einzig denkbare Probe für tatsächlich Neues. Man kann es auch so sagen: In vielen Bereichen der Wissenschaft wird Amerika ständig neu entdeckt und das Rad immer neu erfunden. Es wird nur anders benannt, und das erzeugt dann den Anschein der Erschließung immer neuer „möglicher Welten“. Forschung zur Erreichung und Verbesserung des Wissens gab und gibt es natürlich auch außerhalb der Wissenschaft. Daher gilt von ihr ebenso wie von der Lehre, daß sie vielfältige Gestalten annehmen kann. Sie kann sich auf handwerkliche Tricks und sogenanntes „know how“ stützen, sie kann als hohe Kunst betrieben werden, und nicht zuletzt ist sie in neueren Zeiten immer mehr mit der Technik verschmolzen worden. Das hat K. R. Poppers Schüler Paul Feyerabend wohl mitgemeint und gesehen, als er für die Forschung die Parole ausgab: „Anything goes“ (Alles geht) 108. Er hat mit dieser Parole aber viel zu weit gegriffen, indem er der Durchmischung aller Methoden und Tricks in der Wissenschaft ziemlich Vorschub geleistet hat. Wir haben aber schon genügend Gründe aufgezählt, die es nahelegen sollten, zwischen wissenschaftlichen und außerwissenschaftlichen Forschungsmethoden zu unterscheiden. Gerichtsprozessuale und „kriminalistische“ Verfahren zur Gewinnung (oder Herstellung) von wahrem Wissen und Entlarvung von Lüge, Täuschung und Betrug sind wohl so alt wie die Kultur überhaupt. Sie haben in vielfältiger Weise Muster und Modelle auch für die wissenschaftlichen Forschungsmethoden vorgegeben. Gleichwohl ist die Forschung für die Wissenschaften derjenige Bereich geworden, auf dem am meisten sichtbare und lehr- und lernbare Methoden entwickelt wurden, die daher im Mittelpunkt der Aufmerksamkeit der Wissenschaftstheoretiker stehen. Angesichts der diesen Methoden gewidmeten Literatur könnte man den Eindruck gewinnen, Wissenschaftstheorie sei fast nur Methodenlehre der Forschung. Das ist bei der Wichtigkeit der Sache kein Wunder. Aber es besteht doch 108 P. K. Feyerabend, Against Method. Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the Philosophy of Science IV, 1970, S. 117 – 130, 2. erw. Ausgabe: Against Method, London 1975; dt. erw. Übers.: Wider den Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976. 184 Grund sich daran zu erinnern, daß auch Forschungsmethoden nur ein Mittel zum Zweck der Wissensgewinnung und Wissenskonsolidierung sind, auf welche in der Wissenschaft schlechthin alles ankommt. II. Zur Geschichte der Disziplin Wissenschaftsphilosophie § 15 Aufkommen der Bezeichnung Wissenschaftphilosophie und die Tendenzen zur Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien, der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften. Die Philosophie als Verunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die Vorbilder der klassischen Methodologien. Die Disziplin wird - wie viele andere auch - durch eine gräzisierende Namengebung in der deutschen Schulphilosophie des frühen 17. Jahrhunderts etabliert. Dies geschieht in der kleinen Schrift von Clemens Timpler: „Wissenschaftswissenschaft oder allgemeine Abhandlung über das Wesen und die Unterschiede der freien Künste bzw. der wissenschaftlichen Disziplinen“ von 1604 109, das auch als Einleitung in sein „Systema metaphysicum“ öfter aufgelegt wurde. Hier steht das griechische Wort „téchne” für das lateinische „artes” bzw. artes liberales, d. h. die freien Künste oder wissenschaftlichen Disziplinen der „Artistenfakultät”, d. h. der Philosophischen Fakultät. Die „Logie” der „technai” versteht sich also als eine neue Wissenschaft von den Wissenschaften der Philosophischen Fakultät, d. h. der „trivialen” (oder „sermocinalen“, auf Reden bezogenen) „Geisteswissenschaften” (Logik, Rhetorik, Grammatik) und der „quadrivialen“ (oder „realen”, auf Sachverhalte bezogenen) „mathematischen“ Naturwissenschaften (Arithmetik, Geometrie, Astronomie bzw. Naturwissenschaft,, musikalische Harmonielehre). Sie ist als Wissenschaft vom Wesen und den Unterschieden der Einzelwissenschaften konzipiert. Damit hat Timpler der Wissenschaftsphilosophie ihre früheste Programmschrift geliefert. Freilich ist eine solche Programmschrift nur sichtbarer Ausdruck von Tendenzen, die zur Konstitution der Disziplin zusammenliefen. Und diese erstrecken sich über längere Zeiträume, z. T. kommen sie erst in der Gegenwart zum Tragen. Dafür seien vor allem die Bestandsaufnahmen des Wissens und der Wissenschaften hervorgehoben, die eine leichte Übersicht erlaubten und zur Reflexion 109 Clemens Timpler, Technologia, seu tractatus generalis de natura et differentiis artium liberalium, Hanau 1604. 185 über diese Materie herausforderten. Sie bringen sich zur Geltung in mehreren Literaturgattungen. Universalenzyklopädien der Wissenschaften.110 Unter diesen sind die bedeutendsten die folgenden: Vincent von Beauvais, Speculum quadruplex (verf. um 1260), 4 Bände Douai 1624, ND Graz 1965 Gregorius Reisch, Margarita Philosophica, Freiburg 1503, 4. Aufl. 1517, ND in Instrumenta philosophica Series Thesauri I, hgg. von L. Geldsetzer, Düsseldorf 1973 Joh. Heinr. Alsted, Scientiarum omnium Encyclopaedia septem tomis distincta, Herborn 1630, 2. Aufl. Leyden 1649 J. Th. Jablonski, Allgemeines Lexikon der Künste und Wissenschaften, 2 Bde Königsberg-Leipzig 1721, 3. verm. Aufl. hgg. v. J. J. Schwaben, Königsberg u. Leipzig 1767 J. Harris, Lexikon technicum, or an Universal English Dictionary of Arts and Sciences, London 1704, 1708, 1710, 1736, Supplement 1744, ND New York 1967 Ephr. Chambers, Cyclopedia, or a Universal Dictionary of Arts and Scienes, 2 Bde London 1728, 6. Aufl. hgg. von A. Rees, 5 Bde London 1788 – 1791 J. H. Zedler (Hg. u. Verleger), Großes vollständiges Universal-Lexikon aller Wissenschaften und Künste, 64 Bde und 4 Suppl.-Bde (A bis Cag), Halle u. Leipzig 1732 – 1754, ND Graz 1961- 1964 D. Diderot und J. LeRond d„Alembert (Hg.), Encyclopédie ou Dictionnaire raisonné des Sciences, des Arts et des Métiers, 35 Bde Paris bzw. Neuchâtel-Amsterdam 1751 - 1780 (mehrere Ausgaben), ND Stuttgart-Bad Cannstatt 1969 ff.- Umarbeitung und Erweiterung durch Ch. J. Pankouke und H. Agasse zur Encyclopédie méthodique ou par ordre des matières, 166 Bände, Paris-Liège 1781 – 1832, Ausgabe in 184 Bänden, Padua 1791 J. G. Krünitz (Hg. u. Verleger), Ökonomisch-technologische Enzyklopädie der Wissenschaften und Künste, 242 Bände Berlin 1773 - 1858 Deutsche Enzyklopädie oder allgemeines Real-Wörterbuch aller Künste und Wissenschaften, von einer Gesellschaft von Gelehrten (sog. “Frankfurter Enzyklopädie”), 23 Bde Frankfurt 1778 – 1807 J. G. Gruber und J. S. Ersch (Hg.), Allgemeine Encyclopädie der Wissenschaften und Künste, 167 Bde (in 3 unvollständigen Serien), Leipzig 1818 – 1889, ND Graz 1969 ff. A. Rees (Hg.), The Cyclopaedia or universal Dictionary of Arts, Sciences, and Literature, 45 Bände London 1819 ff. M. N. Bouillet (Hg.), Dictionnaire universel des Sciences, des Lettres et des Arts, Paris 1854, 12. Aufl. Paris 1877 La Grande Encyclopédie. Inventaire raisonné des sciences, des lettres et des arts, 31 Bände Paris 1885 – 1902. 2. Die Literar- und Wissenschaftsgeschichte im Sinne einer Faktenkunde des Bereichs, wie z. B. 110 Vgl. G. Tonelli, A Short-Title List of Subject Dictionaries of the Sixteenth, Seventeenth and Eighteenth Centuries as Aids to the History of Ideas (Warburg Institute Surveys IV), London 1971.- Vgl. zu den folgenden Materialien und weiteren Literaturgattungen L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München 1971. 186 Dan. Georg Morhof, Polyhistor literarius, philosophicus et practicus, 1688, 4. Aufl. Lübeck 1747, ND Aalen 1970 in 2 Bänden Gottl. Stolle, Anleitung zur Historie der Gelahrtheit denen zum besten, so den freien Künsten und der Philosophie obliegen, 1718, 4. Aufl. Jena 1736 V. Ph. Gumposch, Die philosophische Literatur der Deutschen von 1400 bis auf unsere Tage, Regensburg 1851, ND in Instrumenta Philosophica Series Indices Librorum II, hgg. v. L. Geldsetzer, Düsseldorf 1967 J. Andr. Fabricius, Abriß einer allgemeinen Historie der Gelehrsamkeit, 3 Bände, Leipzig 1752 – 1754 L. Wachler, Handbuch der allgemeinen Geschichte der literarischen Cultur, 2 Bände Marburg 1804, 2. Aufl.: Handbuch der Geschichte der Litteratur, 3 Teile in 2 Bänden Leipzig 1822 – 1824 W. T. Krug, Handbuch der Philosophie und der philosophischen Literatur, 2 Bände, Leipzig 1820 – 1821, 2. Aufl. 1822, 3. verm. Aufl. 1828, ND in Instrumenta Philosophica Series Thesauri III, hgg. v. L. Geldsetzer, Düsseldorf 1969; schwedische Übers. von A. A. Bäckström, Stockholm 1831 W. T. Krug, Allgemeines Handwörterbuch der philosophischen Wissenschaften nebst ihrer Literatur und Geschichte nach dem heutigen Standpunkt der Wissenschaften, 4 Bände nebst Supplementband, Leipzig 1827 - 1829, 2. Aufl. in 6 Bänden 1832 – 1838 F. X. v. Wegele (Hg.), Geschichte der Wissenschaften in Deutschland, 22 Bde, München 1864 – 1913. Darunter Bd.VII Geschichte der Ästhetik von H. Lotze, 1886; XIII Geschichte der Philosophie seit Leibniz von Ed. Zeller, 1873; XVIII (in 6 Teilbdn) Geschichte der deutschen Rechtswissenschaft von R. Stintzing und E. Landsberg, 1880 – 1910; XIX (1-2) Geschichte der klass. Philologie von C. Bursian, 1883; XX Geschichte der deutschen Historiographie von F. X. von Wegele, 1885 F. Wagner und R. Brodführ (Hg.), Orbis Academicus, Problemgeschichte der Wissenschaften in Dokumenten und Darstellungen, 3. Abteilungen in 59 Bänden, Freiburg i. Br. 1950 - 1987. Darunter J. M. Bochenski, Formale Logik, 1956, 6. Aufl. 2002 L. Geymonat (Hg.), Storia del pensiero filosofico e scientifico, 9 Bände Mailand 1970, 2. Aufl. 1975 3. Bibliographie und Wissenschaftskunde: C. Gesner, Bibliotheca universalis, sive catalogus omnium scriptorum, Tomus 1 - 3 nebst Appendix, Zürich 1545 – 1555. ND Tom. 1 und Appendix mit der “Epitome” des Gesamtwerks von J. Simler von 1555, Osnabrück 1966 M. Lipenius, Bibliotheca realis universalis omnium materiarum, rerum et titulorum in theologia, iurisprudentia, medicina et philosophia occurrentium, Frankfurt 1679 - 1685, ND Hildesheim 1965 Burkh. Gotthelf Struwe, Bibliotheca Philosophica, Jena 1704, 5. stark erw. Aufl. hgg. v. L. M. Kahle, Bibliothecae Philosophicae Struvvianae emendatae continuatae atque ultra dimidiam partem auctae, 2 Bände Göttingen 1740, ND in Instrumenta Philosophica Series Indices Librorum, hgg. v. L. Geldsetzer, Düsseldorf 1970 J. G. Sulzer, Kurzer Inbegriff der Wissenschaften und anderer Teile der Gelehrsamkeit, Leipzig 1745, 6. Aufl. 1786 J. M. Gessner, Primae lineae isagoges in eruditionem universam, Göttingen 1757 - 1760, 3. Aufl. 1786 J. S. Ersch, Handbuch der deutschen Literatur seit der Mitte des 18. Jhs. bis auf die neueste Zeit, 6 Bde Leipzig 1822 – 1840, ND Hildesheim 1969 J. S. Ersch und Christian A. Geissler, Bibliographisches Handbuch der philosophischen Literatur der Deutschen von der Mitte des achtzehnten Jahrhunderts bis auf die neueste Zeit, 3. Aufl. Leipzig 1850, ND in Instrumenta Philosophica Series Indices Librorum, hgg. mit Vorwort und Registerbearbeitung von L. Geldsetzer, Düsseldorf 1965 187 J. Joach. Eschenburg, Lehrbuch der Wissenschaftskunde, Berlin 1792 - 1800, 2. Aufl. 1800, 3. Aufl. 1809 K. Chr. Erh. Schmid, Allgemeine Enzyklopädie und Methodologie der Wissenschaften, Jena 1810 A. M. Moschetti und A. Padovani u. a. (Hg.), Grande Antologia Filosofica, 8 Abteilungen, Mailand 1954 ff. W. Schuder (Hg.), Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955 4. Die Architektoniken und Klassifikationen der Wissenschaften, welche den Blick auf ihre Zusammenhangsprinzipien, ihre Voraussetzungsstruktur und ihre Unterschiede lenkt, die auch schon Timpler behandelte. In dieser Hinsicht sind beachtlich: F. Bacon, Novum organum scientiarum (= Instauratio magna I), London 1620, dt. Übers. v. S. Maimon, Neues Organon, Berlin 1793, dt. Übers. von A. T. Brück, Neues Organ der Wissenschaften, Leipzig 1830, ND Darmstadt 1974 J. LeRond d„Alembert, Vom Ursprung, Fortgang und Verbindung der Künste und Wissenschaften (Discours préliminaire zur Encyclopédie, übers. v. J. Wegelin), Zürich 1761, franz. Ausg. Paris 1965 von Berg, Versuch über den Zusammenhang aller Teile der Gelehrsamkeit, Frankfurt a. M. 1794 W. T. Krug, Über den Zusammenhang der Wissenschaften unter sich und mit den höchsten Zwecken der Vernunft, nebst einem Anhang über den Begriff der Enzyklopädie, Jena-Leipzig 1795 Töpfer, Encyklopädische Generalcharte aller Wissenschaften (gestochen von W. v. Schlieben), nebst Kommentar, Leipzig 1806 – 1808 G. B. Jäsche, Grundlinien zu einer Architektonik der Wissenschaften nebst einer Skiagraphie und allgemeinen Tafel des gesamten Systems menschlicher Wissenschaften nach architektonischem Plane, Riga 1817 J. M. Ampère, Essai sur la philosophie des sciences, 2 Bände, Paris 1834 - 1843 (hier wird aus seinem Klassifikationsversuch der Wissenschaften eine „Mathésiologie“) J. Bentham, Essai sur la nomenclature et la classification des principales branches d‟ art et science, 1823 (in : J. Bentham, Engl. Works, Band 8, 1843) H. Spencer, The classification of Sciences, 2. Aufl. New York 1870 W. Schuder, Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955 B. M. Kedrow, Klassifizierung der Wissenschaften, aus dem Russischen übersetzt von L. Keith und L. Pudenkow, 2 Bände Köln 1975 – 1976 5. Die Reflexion auf Nutzen und Relevanz der Wissenschaften für Gesellschaft und Staat. Diese ist immer zugleich eine Reflexion auf ihr Wesen. Sie ist freilich seltener positiv als negativ (Zensur) betrieben worden. Hier sind zu nennen: G. W. Leibniz, Grundriß eines Bedenkens von Aufrichtung einer Sozietät in Teutschland zu Aufnehmen der Künste und Wissenschaften, 1671 Fontenelle, Préface sur l‟ utilité des Mathématiques et de la Physique et sur les travaux de l‟ Académie des Sciences, in: Œuvres, Band V, Paris 1758 Friedrich II., De l‟ utilité des sciences et des arts dans un état, in: Werke, Berlin 1878 ff. I. Kant, Der Streit der Fakultäten, Königsberg 1798 Auguste Comte, Prospectus des travaux scientifiques nécessaires pour réorganiser la société, Paris 1822, dt. : Plan der wissenschaftlichen Arbeiten, die für eine Reform der Gesellschaft notwendig sind, München 1973 188 6. Die Philosophie als Grundwissenschaft im Sinne der Fundamental- oder Begründungswissenschaft für alle anderen Wissenschaften oder gar als “System der Wissenschaften”: Philosophie bzw. eine ihrer Disziplinen so aufzufassen, ist eine aus der Transzendentalphilosophie des deutschen Idealismus erwachsende Tendenz, die auch in vielen Konzeptionen moderner Wissenschaftstheorie eingeht. Unter anderem ist das auch eine Reaktion auf die Verselbständigung der Disziplinen der „philosophischen” Fakultät zu Einzelwissenschaften in der Neuzeit, denen die Philosophie dadurch ein gemeinsames Band und Zusammenhalt verschafft. G. F. W. Hegel, System der Wissenschaft, Band 1: Die Phänomenlogie des Geistes, Bamberg 1807 J. A. Brüning, Anfangsgründe der Grundwissenschaft oder Philosophie, Münster 1809 F. L. Fülleborn, Materialien zu einer Grundwissenschaft (proté philosophia), Berlin 1845 W. T. Krug, Fundamentalphilosophie oder System des transzendentalen Synthetismus, ZüllichauFreistadt 1803, 3. Aufl. 1827 G. W. Gerlach, Grundriß der Fundamentalphilosophie zum Gebrauch bei Vorlesungen, Halle 1816 J. Thürmer, Fundamentalphilosophie, Wien 1827 Fr. X. Biunde, Fundamentalphilosophie, Trier 1838 J. J. Tafel, Die Fundamentalphilosophie in genetischer Entwicklung, Tübingen 1848 In neueren Zeiten haben Joh. Rehmke, Philosophie als Grundwissenschaft, Leipzig - Frankfurt 1910, und sein Schüler Johs E. Heyde, Grundwissenschaftliche Philosophie, Leipzig - Berlin 1924, diese Tendenz gepflegt. Nicht zuletzt kam sie auch in M. Heideggers Konzeption einer Fundamentalontologie zum Ausdruck. 7. Die Philosophie als Vernunftkritik und Wissenstheorie: Sie hat seit Kant im deutschen Idealismus im Zentrum der philosophischen Forschung gestanden. Hier sind wesentliche Klärungen erarbeitet worden, die auch heute noch die Vorverständnisse bezüglich des Wissensbegriffs der Wissenschaften steuern. Sie werden jedoch z. Z. nicht mit der wünschenswerten Intensität weiterbetrieben. I. Kant, Kritik der reinen Vernunft, Riga 1781; ders., Kritik der praktischen Vernunft, Riga 1788; ders., Kritik der Urteilskraft, Berlin und Libau 1790 J. F. Fries, Wissen, Glaube und Ahndung, Jena 1805; ders., Neue oder anthropologische Kritik der Vernunft, 3 Bde Heidelberg 1807, 2. Aufl. 1828, in: Sämtl. Schriften hgg. v. G. König u. L. Geldsetzer, Aalen 1968 ff, Bd. 3 und Bde 4 - 5 E. Stiedenroth, Theorie des Wissens, mit besonderer Rücksicht auf Skeptizismus und die Lehren von einer unmittelbaren Gewißheit, Göttingen 1819 J. A. Voigtländer, Eine Untersuchung über die Natur des menschlichen Wissens, mit Berücksichtigung des Verhältnisses der Philosophie zum Empirismus, Berlin 1845 W. Rosenkrantz, Wissenschaft des Wissens und Begründung der besonderen Wissenschaften durch die allgemeine Wissenschaft. Eine Fortbildung der deutschen Philosophie mit bes. Rücksicht auf Platon, Aristoteles und die Scholastik des Mittelalters, 1. Bd. München 1866, 1. u. 2. Bd. Mainz 1868 Im vergangenen Jahrhundert hat Edmund Husserl die „Phänomenologie“ als eine neue Theorie des Wissens konzipiert. So in: Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Freiburg 1913, 3. Aufl. 1928. Neben ihm vgl. A. Nordenholz, Scientologie, Wissenschaft von der Beschaffenheit und Tauglichkeit des Wissens, München 1934; dazu W. Schingnitz, Scientologie, in: Minerva 7, S. 65 - 75 und 110 - 114. Derartige Studien gewinnen auch heute noch viel durch sorgfältige Interpretation und Aneignung der „klassischen” Erkenntnistheorien Lockes, 189 Berkeleys, Humes, Leibniz„„ u. a. mit ihren „realistischen“ oder „idealistischen” Erkenntnis- und Wissenskonzeptionen. 8. Die Philosophie als Wissenschaftslehre: Philosophie so aufgefaßt, ist sowohl in terminologischer wie sachlicher Hinsicht die genuine Frühgestalt moderner Wissenschaftstheorie. In ihr laufen die erkenntnistheoretischen ontologischen, praxeologischen und anthropologischen Errungenschaften der Aufklärung und des deutschen Idealismus in der Weise zusammen, daß daraus das Konzept einer philosophischen Disziplin von der Natur des Wissens als menschlicher „Tathandlung” und dem Entwurf ihrer Gegenstandsbereiche entsteht. Auch hierin bringt sich eine Tendenz zur Geltung, der Philosophie in der Nachfolge der „Logik” des Triviums der alten philosophischen Fakultät eine verbindende und begründende Funktion gegenüber den verselbständigten trivialen und quadrivialen Wissenschaften zu verschaffen. Im 20. Jahrhundert wird diese Tendenz in der Gesamtdarstellung der philosophischen Grund- und Bereichsdisziplinen in „philosophischen Enzyklopädien“ und Handbüchern weitergeführt J. Chr. Gottsched, Erste Gründe der gesamten Weltweisheit, darinnen alle philosophische Wissenschaften in ihrer natürlichen Verknüpfung in zwei Teilen abgehandelt werden, 1734, 5. Aufl. 1748 - 1749 J. G. Fichte, Über den Begriff der Wissenschaftslehre oder der sog. Philosophie, Weimar 1794; ders., Grundlage der gesamten Wissenschaftslehre, 1794, neu hgg. v. W. G. Jacobs, Hamburg 1970 B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung der Logik, 4 Bände, Sulzbach 1837 H. M. Chalybäus, Entwurf eines Systems der Wissenschaftslehre, Kiel 1846 G. Biedermann, Die Wissenschaftslehre, 3 Bde Leipzig 1845 - 1860 R. Graßmann, Die Wissenschaftslehre in der Philosophie, 4 Teile 1884 W. Wundt, Logik, I. Bd.: Erkenntnislehre, II. Bd.: Methodenlehre, Stuttgart 1880 - 1883, 4. Aufl. in 3 Bänden : I. Allgemeine Logik und Erkenntnistheorie, 1919, II. Logik der exakten Wissenschaften, 1920, III. Logik der Geisteswissenschaften, 1921 A. Baeumler und M.Schröter (Hg.), Handbuch der Philosophie, 4 Bände, München-Berlin 1925 1934 F. Heinemann, Die Philosophie im XX.Jahrhundert. Eine enzyklopädische Darstellung ihrer Geschichte, Disziplinen und Aufgaben, Stuttgart 1959, 2. Aufl. 1963 S. Daval und B.Guillemain (Hg.), Philosophie. 6 Bände in 3 Abteilungen, Paris 1962 u. ö. A. Diemer, Grundriß der Philosophie. Ein Handbuch für Lesung, Übung und Unterricht. Band I: Allgemeiner Teil, Band 2: Die philosophischen Sonderdisziplinen, 2 Bände, Meisenheim 1962 – 1964 9. Die klassischen Vorbilder der wissenschaftlichen Methodologie: Gewisse Werke waren und bleiben prägende Vorbilder auch für moderne wissenschaftstheoretische Konzeptionen. Einige Theorien über das, was Wissenschaft sei, explizieren nichts anderes als dasjenige, was sie als vorbildlich in dem einen oder anderen Werk eines der Klassiker ausgeführt finden und empfehlen es als Exempel bzw. Paradigma für jede ernstzunehmende Wissenschaft. Neben den immer bekannt gebliebenen und vielzitierten Klassikerwerken gibt es jedoch zahlreiche „apokryphe“ wissenschaftliche Arbeitsinstrumente, die zu ihrer Zeit oder noch einige Zeit nach ihrem Erscheinen Aufsehen erregt haben, die jedoch gerade wegen ihrer Verbreitung nicht mehr 190 genannt und zitiert wurden, dafür umso mehr ausgeschrieben und als selbstverständliches öffentliches Gedankengut behandelt wurden.111 Zu solchen Klassikerwerken gehören die folgenden: Aristoteles, Organon (Kategorien, Hermeneutik, Analytiken, Topik, Sophistische Widerlegungen) Euklid, Die Elemente, Buch 1 – 13, dt. Ausgabe Darmstadt 1971 Galenus, Einführung in die Logik, dt. v. J. Mau, Berlin 1960 Porphyrios, Isagoge (Einführung in das Organon des Aristoteles), dt. v. A. Busse, Berlin 1887 Petrus Hispanus, Summulae logicales, Venedig 1572, ND Hildesheim-New York 1982 R. Lullus, Ars generalis ultima, Palma de Mallorca 1645, ND Frankfurt 1970; Ars brevis, Palma 1669, Nachdr. Frankfurt 1970; Logica nova – logica parva – De quinque praedicabilibus et decem praedicamentis, Palma 1744, ND hgg. v. C. Lohr, Frankfurt 1971; R. Lullus, Die neue Logik, lat.dt. übers. von W. Büchel und V. Hösle, Hamburg 1985 Nikolaus von Kues, De docta ignorantia – Die belehrte Unwissenheit (1440), lat.-dt. hgg. v. P. Wilpert u. H. G. Senger, 3. Aufl. Hamburg 1977 – 1979. J. Aconcio, De Methodo, hoc est de recta investigandarum tradendarumque artium ac scientiarum ratione (1558), dt.-lat. Parallelausgabe nach der 2. Aufl. 1582 hgg. v. L. Geldsetzer in: Instrumenta Philosophica Series Hermeneutica IV, Düsseldorf 1971 Fr. Bacon, Novum Organum Scientiarum, 1620; ders., De Dignitate et Augmentis Scientiarum, 1605, dt. Darmstadt 1966 G. Galilei, Discorsi e Dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638, dt. 1891 R. Descartes, Discours de la méthode pour bien conduire la raison et chercher la vérité dans les sciences, Leiden 1637, dt. Hamburg 1969 G. W. Leibniz, Dissertatio de arte combinatoria, in qua ex arithmeticae fundamentis complicationum et transpositionum doctrina novis praeceptis exstruitur, Leipzig 1666 I. Newton, Philosophiae naturalis principia mathematica, 1687, (ND London 1960), 2. Aufl. 1713, 3. Aufl. 1726, dt. Übers. v. J. P. Wolfers, Berlin 1872, ND Darmstadt 1963 G. Vico, De nostri temporis studiorum ratione, Neapel 1708, dt. Übers., Vom Wesen und Weg der geistigen Bildung, Godesberg 1947, ND Darmstadt 1974 G. F. Meier, Versuch einer allgemeinen Auslegungskunst, 1757, neu hg. v. L. Geldsetzer in: Instrumenta Philosophica Series Hermeneutica I, Düsseldorf 1965; auch hgg. von A. Bühler und Luigi Cataldo Madonna, Hamburg 1996 I. Kant, Metaphysische Anfangsgründe der Naturwissenschaft, 1786; ders., Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, 1783 C. Chr. E. Schmid, Erste Linien einer reinen Theorie der Wissenschaft, in: Phil. Journal für Moralität, Religion und Menschenwohl 3, 1794 (neu in: Studien zur Wissenschafttheorie, hg. v. A. Diemer, Meisenheim 1968) G. F. W. Hegel, Die Wissenschaft der Logik, 2 Bde, Nürnberg 1812 – 1816, hgg. v. G. Lasson, Leipzig 1951 Aug. Comte, Cours de philosophie positive, 6 Bde Paris 1830 – 1842 J. St. Mill, A System of Logic, rationative and inductive, 2 Bde London 1843, 9. Aufl. 1875 W. St. Jevons, The principles of science. A Treatise of Logic and scientific Method, 1874, 2. Aufl. 1877 111 Einige davon wurden in Nachdrucken wieder zugänglich gemacht in: L. Geldsetzer, Instrumenta Philosophica, 17 Bände in vier Serien, Series hermeneutica (G. F. Meier, A. F. J. Thibaut, M. Flacius Illyricus, Jac. Aconcio, J. M. Chladenius); Series Lexica (J. Micraelius, St. Chauvin, H. A. Meissner); Series Indices Librorum (J. S. Ersch und Chr. A. Geissler, Ph. V. Gumposch, B. C. Struve, J. H. M. Ernesti; Series Thessauri (Gr. Reisch, K. G. Hausius, W. Tr. Krug), Düsseldorf (Stern-Verlag) 1965 -1972. . 191 A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique philosophique, 2 Bde, Paris 1851 R. H. Lotze, Mikrokosmus. Ideen zur Naturgeschichte und Geschichte der Menschheit, 3 Bände Leipzig 1856 – 1864, 6. Aufl. 1923 H. v. Helmholtz, Über das Verhältnis der Naturwissenschaften zur Gesamtheit der Wissenschaften, 1862 G. Frege, Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879, ND Darmstadt 1974 W. Dilthey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium der Gesellschaft und der Geschichte, 1883 H. Poincaré, La science et l‟ hypothèse, Paris 1902; ders., Science et méthode, Paris 1909 P. Duhem, La Théorie Physique. Son Objet - Sa Structure, Paris 1906 B. Russell und A. N. Whitehead, Principia Mathematica, 3 Bände Cambridge 1910 – 1913 Edm. Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Freiburg 1913, 3. Aufl. 1928 L. Wittgenstein, Tractatus logico-philosophicus, 1921, engl. London 1922; ders., Philosophische Untersuchungen / Philosophical Investigations, deutsch-engl. Ausg. Oxford 1953 u. ö. M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 1922, u. a. über “Kategorien der verstehenden Soziologie”, die “„Objektivität„ sozialwissenschaftlicher Erkenntnis” und den “Sinn der ‚Wertfreiheit„ der Sozialwissenschaften” E. Cassirer, Philosophie der symbolischen Formen (I. Die Sprache, II. Das mythische Denken, III. Phänomenologie der Erkenntnis), 1923 - 1929, 6. Aufl. Darmstadt 1964 R. Carnap, Der logische Aufbau der Welt, Berlin 1928, 3. Aufl. Hamburg 1966 K. R. Popper, Logik der Forschung, Wien 1935, 10. Aufl. Tübingen 1994, engl., The Logic of Scientific Discovery, London 1959, 10. Aufl. 1994 W. V. O. Quine, From a Logical Point of View, Cambridge, Mass. 1953; dt., Von einem logischen Standpunkt, Frankfurt a. M. 1979 H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1960 u. ö. E. Betti, Die Hermeneutik als allgemeine Methodik der Geisteswissenschaften, Tübingen 1962, 2. Aufl. 1972; ders., Teoria generale dell‟interpretazione, Mailand 1955 W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Berlin-Heidelberg-New York 1969 - 1984. Vol. I: Wissenschaftliche Erklärung und Begründung, 1969, 2. ed. 1974, 3. ed. 1983; Vol. II/1: Theorie und Erfahrung: Begriffsformen, Wissenschaftssprache, empirische Signifikanz und theoretische Begriffe, 1970, 2. ed. 1974; Vol. II/2: Theorie und Erfahrung: Theoriestrukturen und Theoriendynamik, 1973, 2. ed. 1985 (Engl.: 1976); Vol. III (mit M. Varga von Kibéd): Strukturtypen der Logik, 1984; Vol. IV/1: Personelle und Statistische Wahrscheinlichkeit: Personelle Wahrscheinlichkeit und Rationale Entscheidung, 1973; Vol. IV/2: Personelle und Statistische Wahrscheinlichkeit: Statistisches Schließen, Statistische Begründung, Statistische Analyse, 1973. Die Wissenschaftsphilosophie hat im 20. Jahrhundert und zumal in dessen zweiter Hälfte einen erstaunlichen Aufschwung genommen. Sie hat sich hauptsächlich aus der traditionellen Grunddisziplin „Erkenntnistheorie“ heraus entwickelt, und daher auch in Deutschland von dieser die Bezeichung „Theorie“ , nämlich „Wissenschaftstheorie“ übernommen, obwohl es sich naturgemäß nicht um eine einzige Theorie, sondern um Lehre und Forschung mittels vieler und über viele Theorien der Wissenschaft handelt. Vielerorts in der Welt werden heute philosophische Lehrpositionen mit dem Forschungs- und/oder Lehrschwerpunkt „Wissenschaftstheorie“ ausgeschrieben 192 und besetzt. Zunehmend verschwindet dabei auch jeder Hinweis auf die Philosophie als Fach, zu dem die Wissenschaftsphilosophie gehört. Dadurch verbreitet sich der Eindruck und die Meinung, es handele sich dabei schon um eine besondere Einzelwissenschaft. Dies umso mehr, wenn sie als Abteilung philosophischer Institute oder sogar als eigene Institute begründet oder ausgestaltet werden. Diesen Ausgründungen kommen dann auch die Forschungen von Einzelwissenschaften entgegen, die sich irgend einem Aspekt der Wissenschaften widmen. Ein enges Verhältnis besteht vor allem zur Wissenschaftsgeschichte, die früher teils als Forschungs- und Lehrschwerpunkt einzelner Einzelwissenschaftler als Geschichte ihres Faches, meist jedoch im Rahmen der Medizingeschichte und damit im Rahmen der Medizinischen Fakultäten gepflegt wurde. Sie hat sich inzwischen an mehreren Standorten als selbständige Wissenschaft etabliert und schließt dann auch die Wissenschaftsphilosophie ein. Die Psychologie, heute mehr und mehr in enger Verbindung zur Gehirnphysiologie, hat sich unter mehreren Aspekten – wie vor allem Intelligenz- und Kreativitätsforschung – den Wissenschaften und ihren hervorragenden Repräsentanten gewidmet und profitiert dabei naturgemäß vom politischen und populären Interesse am Wachstum der wissenschaftlichen Leistungen und Produkte, die sie zu effektuieren verspricht. Wissenschaftssoziologie, Wissenschaftsökonomie und Wissenschaftsstatistik sind ebenfalls längst etablierte Spezialdisziplinen der entsprechenden Einzelwissenschaften, die auf breites Interesse der Öffentlichkeit und der politischen Instanzen treffen. Besonders die ökonomische Betriebswirtschaftslehre ist dabei so erfolgreich gewesen, daß im letzten Dezennium die wissenschaftlichen Verwaltungs- und Betriebsstrukturen auf dem Wege gesetzlicher Vorgaben gänzlich nach den Mustern industrieller und dienstleistender Großbetriebe ausgerichtet worden sind. Darüber wurde im Vorangehenden schon mehrfach gehandelt. Zwei Tendenzen zeichnen sich hier ab. Einerseits die Ersetzung der Philosophie als eigenständiges Lehrfach an Hochschulen durch die Wissenschaftsphilosophie. Andererseits das Verschwinden der Philosophie aus dem Fächerkanon der Hochschulen zugunsten der interdisziplinär vernetzten einzelwissenschaften Forschungen über das Wissenschaftsphänomen. 193 III. Zur Geschichte der Wissenschaftsphilosophie A. Die Antike § 16 Die Vorsokratiker Die Erfindung der Arché als ursrpung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen zum SubjektDie Enttdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des dialektischen (widersprüchlichen) Begriffs. Der pythagoreische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias. Im Gedanken der „Arché” (ἀή) setzen die Vorsokratiker das Grundschema abendländischer Erklärungsweise von Realität fest. Arché ist Grund, Ursache, Erstes, Anfang, Ausgang, Bedingung, aber auch Wesen, Beherrschendes, Eigentliches, wahres Sein, ja Absolutes, lateinisch: principium. „Arché“ wird damit auch das Denkmuster des „Begriffs“ in aller logischen Verwendung, insofern im Begriff das Wesen und die Einheit des vielfältig Erscheinenden gedacht werden soll. Der Arché steht dadurch gegenüber Folge, Wirkung, Zweites, Abgeleitetes, Bedingtes, und entsprechend Erscheinung, Uneigentliches, scheinbare Natur, das schlechthin Abhängige, das Nichtige, Nichtsein. Die Vorsokratiker teilen so alle Realität in zwei wohlunterschiedene Sphären auf. Sie verleihen ihr eine Doppelbödigkeit, die für abendländisches Denken und seine Wissenschaft Leitthema bleibt: Wesen und Erscheinung, Ursache und Wirkung, Grund und Folge, Sein und Nichts. Dieses Schema der Doppelbödigkeit der Objekte wird von den Vorsokratikern tastend auf alle Bereiche der Forschung angesetzt: zunächst und vordringlich auf die Natur (im heutigen engeren Sinne), dann auf den Menschen und die Kultur, nicht zuletzt aber auch auf die Erkenntnis selber. Von besonderer Bedeutung und für die einzelnen Denker spezifisch sind die weiteren Bestimmungen, die sie für diese Sphären festsetzen. Die Arché als eigentliches Sein ist notwendig, eines, ruhend (unbewegt), wahr, göttlich, nur im Denken erfaßbar. Das Abgeleitete, Phänomenale, eigentlich Nichtige ist zufällig, vielfältig, bewegt, „natürlich”, durch die Sinne erfahrbar, aber täuschend, behauptet Parmenides. Als Resultat dieser Forschungen ergibt sich für die anschließende klassische Philosophie der Griechen folgendes ontologisch - anthropologische (Seins- und Erkenntnis-) Schema: 194 Das erkenntnistheeoretische und ontologische Subjekt-Obejekt-Schema Objekt Wesen <==> Phänomen, Erscheinung <==> Subjekt Denken,Vernunft Anschauung, Sinne Aber ungeachtet der Dominanz dieses Subjekt-Objektschemas (bis in die gegenwärtige Philosophie) bleibt die Ausfüllung immer umstritten. Während die frühen Jonier Thales, Anaximenes, z. T. noch Heraklit, dann Xenophanes ein phänomenal Gegebenes: Wasser, Luft, Feuer, Erde, Empedokles dann sämtliche vier „Elemente” Erde, Wasser, Luft und Feuer als Arché ausgeben und so ein Sinnliches unter anderen als das eigentliche Sein auszeichnen, schlagen andere eine Richtung der Erklärung ein, die man eine transzendente Dimension nennen könnte. Sie präludiert dem, was die Aristoteliker später das „Metaphysische” („hinter der sinnlichen Natur Liegende”) nannten. Anaximander nennt seine Arché „Apeiron” (ἄ), d. h. das Grenzenlose, Unbestimmte, Gestaltlose, lateinisch das Infinite (Aristoteles wird es reine Materie und Nicht-Sein nennen), aus dem „nach der Ordnung der Zeit” und nach notwendigem Gesetz Entstehen und Vergehen aller Dinge geschieht. Für Anaxagoras ist Arché der „Nous” (ῦς), das Geistige; für Heraklit der „Logos”, Weltgesetz und Geistiges zugleich; für Parmenides das Sein schlechthin, welches zugleich Geist und Denkkraft ist. Demokrit aber faßt die Bestimmungen des Anaximander und des Parmenides zusammen, indem er aus dem „Kenon”, dem Leeren und Unbestimmten, und aus dem Seienden, das er als vielgestaltig Unteilbares (Atome) und gleichwohl sinnlich nicht Erfaßbares bestimmt, zusammen die phänomenale Welt der Dinge erklärt. Empedokles „dynamisiert” das Erklärungsschema, indem er die vier Elemente durch Liebe und Haß (philia kai neikos íìῖς), Anziehung und Abstoßung, Verbindung und Trennung zu allem Erscheinenden gefügt sein läßt. Heben wir das für die Wissenschaft Bedeutsame heraus: Schon bei diesen Vorsokratikern geht es um die Rolle von Denken bzw. Vernunft und von Anschauung und Beobachtung bzw. Sinnlichkeit in der Erkenntnis und um den eventuellen Vorrang des einen vor dem anderen. Das liefert die erste Weichenstellung für die beiden Wege, die später als Rationalismus und Empirismus in der Philosophie und in wissenschaftlichen Forschungsstrategien eingeschagen werden. Anaxagoras prägt mit dem „Nous“ (Vernunft, Geist, Pneuma, Ratio, Spiritus) auch schon den Titelbegriff für alle späteren Rationalismen. Indem Anaximander (um 610 – um 550 v. Chr) die Arché als Apeiron, ein Unendliches und Grenzenloses faßte, bestimmte er aller Forschung ein unendliches, nie zu erreichendes Ziel und lenkte sie damit auf den Weg des end- und grenzenlosen Fortschreitens in immer tiefere Tiefen und umfassendere Weiten. 195 Noch Poppers „asymptotische Annäherung an die Wahrheit“ (die nie erreichbar sein soll), ist ein aktueller Nachhall dieser Programmatik. Heraklit (um 544 – 483), der schon zu seiner Zeit als „dunkel“ (skoteinos ός) galt und es geblieben ist, gibt aller späteren Logik den Begriff des Begriffs, den Logos (ός), vor. „Dunkel“ war an seinem Logos, daß darin Wort, Sprache, eigentlicher Begriff und „Verhältnis“ ungeschieden beieinander lagen und erst später genauer unterschieden wurden. Aber klar war daran jedenfalls, daß sein „Begriff“ als „Einheit des Gegensätzlichen“ zu denken war, wie er an vielen Beispielen demonstrierte. Sein „Logos“ wurde daher nicht, wie üblicherweise angenommen wird, zum Prototyp des regulären logischen Begriffs, bei dem man die Einheit als Identität des Gemeinsamen (der sog. generischen Merkmale) und keineswegs die Einheit des gegensätzlich Verschiedenen (der sog. spezifischen Differenzen) zu denken hat. Er wurde vielmehr zum Prototyp der logischen Figur der Contradictio in adjectis bzw. in terminis, also des in sich widerprüchlichen Begriffs, bei dem man sowohl die generischen Merkmale wie zugleich die spezifischen Differenzen von dihäretisch unterschiedenen Artbegriffen als Einheit zu denken hat. Der eine Fluß, in den man zum zweiten Mal zum Bade hineinsteigen möchte, ist zugleich derselbe, und er ist auch nicht derselbe wie beim ersten Male. Und das „alles vernichtende Feuer“ ist zugleich die wohltätige Grundlage aller Zivilisation, wie es der Mythos von Prometheus besagt. Hegel hat es spät, aber klar erkannt und Heraklit deshalb den ersten Dialektiker genannt. Wie man mit solchen widersprüchlichen Begriffen umgeht, zeigt eine große Geschichte des „dialektischen Denkens“ bis zur Gegenwart. Aber für zünftige Logiker ist alles Dialektische Anathema, und deshalb ist der Umgang mit solchen „dialektischen Begriffen“ und überhaupt mit dem Widerspruch ein recht unterbelichtetes Kapitel der Logik geblieben. Demokrit (2. Hälfte des 5. Jhdts) behauptet schon dadurch eine ausgezeichnete Stellung, daß sein „Atomismus“ - durch die Schulen der Stoa und des Epikur zu materialistischen Denksystemen ausgebaut - bis heute die Grundlagenmetaphysik des herrschenden Weltbildes der Moderne geblieben ist. Auf seine Lehre vom Leeren (kenon κενόν) bzw. vom leeren Welt-Raum (als Behälter des Vollen der Atome, pléres πλήρες) ist man erst im 20. Jahrhundert wieder zurückgekommen (nach dem negativen Ausgang der Versuche von Michelson und Morley, einen raumfüllenden „Äther“ und damit die Nichtexistenz des leeren Raumes nachzuweisen). Von großem Einfluß, nicht zuletzt bei Platon, wurde auch seine Lehre von der symbolischen Erkenntnis mittels der Modelle. Ausgehend von der genannten Unterscheidung von sinnlicher Anschauung und unanschaulichem Denken in der Erkenntnis, hält er die Archai des Vollen und Leeren (wegen der Kleinheit der Atome und der Ungreifbarkeit des Leeren) für etwas, das nur im Denken zu erschließen sei. Da das Denken auf diese Weise keinen Inhalt hat, muß es sich anschaulicher Bilder bedienen, die in der sinnlichen Erfahrung gewonnen werden. Demokrit nennt sie geradezu „Bildchen“ (eidola 196 ἴ). Als Bilder für die Atome stellt er sich Buchstaben vor, die sich in ihren verschiedenen Gestalten zu Komplexen der Wörter und Sätze „verhakeln“ - und für das Leere mag er an einen Behälter oder an die Leerstellen zwischen den einzelnen Wörtern gedacht haben, was er freilich nicht sagt. Anschauliche Buchstaben werden somit zu anschaulichen „Symbolen“ für das unanschaulich zu Denkende. Ersichtlich sind seine Eidola die Muster aller „Modelle“ und „Symbolisierungen“ geworden, mit denen die Wissenschaft auch heute noch arbeitet. Demokrit hat damit auch das Unanschauliche und nur Denkbare „auf den Begriff“ gebracht. Aber es ist ein - im herakliteischen Sinne – dialektischer Begriff. Wenn die Atome (hier nach dem Modell von Buchstaben, in unseren Zeiten nach dem Modell kleiner Sonnen, um welche die Elektronen wie kleine Planeten kreisen) gedacht werden sollen, so weiß man doch zugleich, daß sie keine Buchstaben (und keine kleinen Sonnen) sind: man stellt sie sich als Buchstaben vor und denkt sie zugleich als Nicht-Buchstaben! Die extremen, für die Wissenschaftsgeschichte folgenreichsten Positionen werden allerdings in Unteritalien von den Pythagoräern und von Parmenides entwickelt. Parmenides (geb. um 540 v. Chr.) überwindet schon im Prinzip die SubjektObjekt-Spaltung, die seine vorsokratischen Zeitgenossen aufgerissen hatten: Denken und Sein ist ihm dasselbe (to gar auto noein estin te kai einai ò γὰρὐòῖἐíεìἶ). Dies zu sagen und zu erforschen ist der eine Weg der Wissenschaft (hier kommt das Thema der Methode, griech.: methodos auf, hodos ὁός = Weg), der zur Wahrheit führt. Und ebenso ist ihm Nicht-Sein, Erscheinung und sinnliche Erfahrung dasselbe. Dies zu sagen und zu erforschen ist ihm der Weg des Irrtums und der Täuschung. Aber unterstreichen wir dies: auch dieser Weg des Irrtums und der Täuschung ist ein Weg der Forschung, und so gehört er auch zur Wissenschaft! So liefert Parmenides die erste Theorie des Irrtums (wir besitzen bis heute keine unumstrittene) und das erste Beispiel einer idealistischen Theorie der Wahrheit. Was hier zu denken ist (und dazu nicht auf anschauliche Modelle zurückgreifen soll), ist die Identität von Sein, Einheit und Unbewegtheit bzw. Ruhe und Wahrheit. Betonen wir das idealistische Moment an dieser These: Es gibt hier nicht ein Denken auf der einen Seite, welches ein einheitliches ruhendes Sein auf der anderen Seite sich gegenüber hätte - und daher auch dann noch Denken bleibe, wenn es nicht (oder Nichts) denkt, vielmehr ist Denken selbst Sein, und Sein ist Gedachtes. Spätere Gestalten des Idealismus sind selten auf der Höhe dieses Gedankens geblieben, und alle Rationalismen haben ihn verleugnet, indem sie die Vernunft und das Denken vom Sein unterschieden und trennten. Von Parmenides haben sie - bis zum heutigen Tag - nur festgehalten, daß mathematisches und logisches Denken nur ruhende Einheiten zu denken vermag. Die Pythagoräer (die Schule des Pythagoras, um 582 – 496 v. Chr.) versuchen gegenüber diesem Ansatz auch die „Phänomene zu retten” (sozein ta phainomena ῴὰό) ein dann beständiges Thema griechischer und abend- 197 ländischer Wissenschaft) um die Dignität der sinnlichen Erkenntnis zu wahren. Für sie ist Grund und Wesen aller Realität die gerade auch sinnlich wahrnehmbare Harmonie (von Tönen, Farben, Gestalten) als eine dialektische Einheit in der Vielheit, die denkend in den Zahlenverhältnissen erkannt wird. Die Zahlen selbst sind daher die mustergültigen Denkformen, die Archai aller Dinge, in denen das Vielfältige dem jeweils Einen verbunden und damit „gerettet“ wird. Wie im musikalischen C-G-C„ Quint-Oktav Akkord dem Ohre wohlklingend verschiedene Töne einheitlich zusammenstimmen, so dem „geistigen“ Auge die Vielheit der Dinge, Bewegungen und menschlichen Verhaltensweisen in den Gesetzen der Mathematik. So werden die Pythagoräer die Väter der abendländischen messenden und meßbar machenden Wissenschaft, die in der Mathematik ihre einzige Methode sucht. Aber ihr Zahlbegriff (arithmos ἀό) ist ein Begriff des herakliteischen Typs, also ein dialektischer Logos, indem er die Einheit zusammen mit der Vielheit und umgekehrt die Vielheit in der Einheit zu denken lehrt. Gerade dies zeigt die sinnliche Anschauung nicht, und das macht ihren Unterschied zum Denken aus: Was gedacht wird, ist Zahl und Zahlenmäßiges, und dieses ist (nach heraklitischem Logos) zugleich und in gleicher Hinsicht Einheit und Vielheit. Man beachte, wodurch sich nun bei den Pythagoräeren die Unanschaulichkeit des mathematisch zu Denkenden vom Anschaulichen der sinnlichen Wahrnehmung unterscheidet: es ist der Unterschied zwischen dem Widerspruch im unanschaulichen Begriff (der Zahl) und der widerspruchslosen anschaulichen Vorstellung. Indem aber die sinnlich wahrnehmbaren Dinge jeweils entweder Einheiten oder Vielheiten (Mengen) sind, werden sie Anwendungsfälle für die Anwendung der Zahl auf sie, da diese beides, Einheit und Vielheit zugleich ist. Es wurde zur Katastrophe für ihr Zahlendenkprogramm, als sie bei solchen Anwendungen auf die Proportionen von Kreisumfang und Kreisdurchmesser oder von Seiten und Diagonalen im Quadrat auf Verhältnisse stießen, bei denen das Verhältnis von genau abzählbaren Vielheiten zur Einheit und umgekehrt nicht auf eine Zahl zu bringen war. Sie entdeckten, daß das anaximandrische Apeiron, das Infinite, nicht nur ein unendlich Großes oder ein unendlich Kleines sein konnte, das man eben deswegen nicht mehr überschauend wahrnehmen oder bemessen konnte, sondern daß es sich auch gleichsam mitten im (geometrisch) genau Überschaubaren und Meßbaren zur Geltung brachte. Auch diese Proportionen nannten sie noch Zahlen, aber da sie zugleich kein Verhältnis (logos, ratio) von Vielheit und Einheit aufwiesen, nannten sie sie „irrationale Zahlen“ (alogoi arithmoi ἄλογοι ἀοί). Genau besehen handelt es sich aber um potenzierte Widersprüchlichkeit im Zahlbegriff. Denn was sie damit denken wollten, mußte zugleich Zahl und NichtZahl sein. Wie man weiß, hat die Mathematik diese Wendung mitgemacht und später noch oft wiederholt. Von den Pythagoräern lernten dann Platon und das Abendland, daß alle dingliche Veranschaulichungen und alle zeichenhaften Symbole niemals das zur Anschauung bringen können, was als Zahl und Zahlverhältnis nur zu denken ist. 198 Zenon von Eleia (1. Hälfte des 5. Jahrh. v. Chr., zu unterscheiden von den beiden späteren Stoikern namens Zenon), der große Schüler des Parmenides, kritisiert diese pythagoräischen Weiterungen, die das Denken mit der Anschauung verknüpfen und anschauliches Denken lehren wollen. Alle seine berühmten paradoxalen Argumente beziehen sich darauf, daß dabei dialektische Begriffe als Denkmittel benutzt werden müssen, mittels derer sich bezüglich des tatsächlichen Denkens der unbewegten Einheit Wahres, bezüglich des anschaulich Vielfältigen und Bewegten aber Falsches aussagen lassen muß. Auch den Zahlbegriff der Pythagoräer hat er dabei kritisiert, denn für ihn und seinen Meister Parmenides konnte die Zahl nur als unbewegte Einheit gedacht werden und nicht zugleich auch als Vielheit, da ja die Vielheit und Veränderung nur der sinnliche Anwendungsbereich dieser Zahleneinheiten beim Zählen sein konnte. Sein durch Zitat überliefertes Argument lautet: „Wenn Vieles ist (wäre), müßte dies zugleich groß und klein sein, und zwar groß bis zur Grenzenlosigkeit und klein bis zur Nichtigkeit“.112 Seine Paradoxien vom fliegenden Pfeil, der ruht; von Achill, der die Schildkröte im Wettlauf nicht überholen kann etc. sind durchweg Scherze, die er über die Erklärungsweise der Pythagoräer macht, wenn sie die Gegebenheiten der sinnlichen Beobachtung zu denken versuchen. Sie sind noch jetzt Herausforderungen an die mathematische Theorie physikalischer Bewegung, der noch heute Abhandlungen und Widerlegungen gewidmet werden. Und gewöhnlich wird dabei der Witz der Sache verfehlt. Denn man hält die zenonischen Paradoxien für schlichtweg falsch und sucht sie zu widerlegen. Tatsache aber ist, daß er damit das faktische Denken der mathematischen Physiker auf den Punkt bringt, das noch immer Wahrheit und Falschheit in widersprüchlichen Denkkonzepten verschmilzt. Soll die Bewegung eines fliegenden Pfeiles mathematisch gedacht und konstruiert werden, so konstruiert ihn auch jetzt noch die Mathematik als einen Pfeil an (jeweils) einem Punkt - und das ist nach Zenon und Parmenides das wahre Denken dessen, was da ist: daß der eine Pfeil ruht! Zugleich aber summiert die mathematische Konstruktion die Vielheit der Punkte zur ballistischen Linie, auf denen viele Pfeile nacheinander sind und auch nicht sind. Genau das macht nach Parmenides und Zenon die illusionäre Falschheit der Anschauung aus. Aristoteles wird den gordischen Knoten zerhacken, indem er zwischen Sein und Nichts eine mittlere ontologische Sphäre ansetzt, in der Bewegung, Vielheit und Veränderung angesiedelt werden: das Werden bzw. die Veränderung. Dieser Gedanke aber lag den Vorsokratikern gänzlich fern, und es ist noch eine offene Frage, ob er zum Segen oder zum Schaden der abendländischen Wissenschaft ausschlug. Sicher waren Parmenides und Zenon zu rigoros und sparsam mit dem Denken, wenn sie es nur auf einheitliche stabile Gegenständlichkeit bezogen und alles andere auf täuschende Anschauung zurückführten. Aber dieser Sparsamkeit 112 O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl., Freiburg / München 1964, S. 42. 199 verdankt die Philosophie und Wissenschaft die Festlegung dessen, was ein regulärer logischer Begriff ist - im Gegensatz zum dialektischen heraklitischen Logos. Dabei ist ja durch Zenon, wie wir dartun wollten, auch sehr deutlich festgestellt worden, was ein dialektischer Logos, nämlich ein widersprüchlicher Begriff ist. Daß Zenon dabei die heiligen Kühe der Pythagoräer und der griechischen Mathematik, nämlich die Zahlen, als widersprüchliche Denkgebilde schlachtete, die man doch schon damals allgemein als paradigmatische Archai und als widerspruchslose Denkgebilde ansah, hat dazu geführt, daß man seine Paradoxien insgesamt als falsch einschätzte. Und so hält man auch bis heute die Zahlen für widerspruchslose Denkgebilde und die Paradoxe und Widersprüche für begriffliche Falschheiten. Und das kann nach allem, was darüber schon ausgeführt wurde, nur selber falsch sein. Der Tatbestand ist selber ein Beispiel für Parmenides‟ These, daß der Weg der Falschheit selbst zur Wissenschaft gehört. Vergessen wir aber auch nicht den Sophisten Gorgias (ca. 480 - 380 v. Chr.) den man gewöhnlich nur als den Erzvater des Nihilismus und der Leugnung aller wissenschaftlichen Erkenntnis hinstellt. 113 Er hatte behauptet, es sei überhaupt Nichts (Me on ὴὄnicht-sein, und wenn Etwas (Sein: on ὄ) sei, so könne es nicht erkannt werden, und wenn es erkannt werden könne, so könne es nicht ausgesprochen werden. Hinsichtlich des Arché-Problems ist seine Stellung eine unabweisbare Konsequenz der Diskussionslinie Anaximander - Parmenides Zenon. Es ist die Einlösung der These des Sophisten Protagoras, daß es vom Menschen abhängt, ob er das Sein oder das Nichts als „Arché“ behauptet. Wenn die Arché aller vordergründigen Realität mit Anaximander als „unbestimmt” gilt, so kann sie (wie es später Aristoteles von der absolut form- und gestaltlosen Materie sagte) auch das Nichts genannt werden. Daß somit das Ziel aller Forschung die Erkenntnis des Seins als eigentlich Nichts sein muß, das haben später alle Mystiker behauptet, zu jener Zeit aber auch die Buddhisten in Indien, von denen mancher auch damals schon als „Gymnosophist“ in Griechenland aufgetreten sein und für die neue Lehre geworben haben mag. Jedenfalls deuten auch die stammelnden Ausdrucksformen der Mystiker darauf hin, daß dies Nichts schwerlich auszusprechen ist. So sollte man auch Gorgias lesen: Es ist überhaupt das Nichts; wenn aber Etwas wäre, so müßte es als Nichts erkannt werden; wenn aber Etwas als Nichts erkennbar wäre, so müßte es als das Nichts ausgesprochen werden. Nimmt man aber Georgias wörtlich und damit ernst, so kann auch seine angeblich skeptische These nur ein Beitrag zur „Rettung der Phänomene“ sein, die sich gegen die parmenideische Lehre vom falschen Weg der Forschung richtete und dessen Lehre über das Nichts nicht mehr als falsche, sondern als wahre Lehre propagierte. Wenn Parmenides im reinen Denken nur die Einheit und Unbe113 Vgl. W. Capelle, Die Vorsokratiker. Die Fragmente und Quellenbericht übers. und eingeleitet, Stuttgart 1968, S. 345 – 353. 200 wegtheit erfaßte, und wenn sein Schüler Zenon das, was da gedacht werden sollte, schon an sinnlichen Phänomenen auswies: daß der eine Pfeil jeweils an einem Ort ruht, so war es konsequent, die Einheit und Unbewegtheit auch einmal gänzlich sinnlich zu demonstrieren. Was aber wäre einheitlicher und unbewegter als die sinnliche Erfahrung der absoluten Stille bei angestrengtestem Horchen, oder der absoluten Finsternis bei angestrengstem Schauen und Spähen, oder gar der reinsten Luft bei angestrengtestem Schnüffeln und Riechen. Was man in diesen Fällen jederzeit sinnlich wahrnimmt, das nennt man schlicht - Nichts. Ersichtlich ist auch das, was man so das Nichs nennt, ein sinnlicher Erfahrungsgegenstand neben vielen anderen. Aber er erfüllt sehr genau die Kriterien, die Parmenides als Wahrheitskriterien der Arché vorausgesetzt hatte, nämlich einheitlich und unbewegt (unveränderlich) zu sein. Gorgias zeichnet es - eben wegen der parmenideisch-zenonischen Wahrheitskriterien, als Arché aller sonstigen vielfältigen und veränderlichen Sinnesgegebenheiten aus und begründet damit den abendländischen Nihilismus. Er hat nicht nur die Phänomene, sondern das Nichts selber als Phänomen „gerettet“. Gewiß hätte ohne diese Rettung des Nichts als Phänomen durch Gorgias auch die Lehre des Demokrit vom Leeren (oder leeren Raum) wohl kaum später solche Fortüne bei den Naturwissenschaftlern machen können. Denn der leere Raum galt nachmals bis auf Newton als ein einheitliches ruhendes Nichts, in dem alles vielfältige und bewegliche Sein „erscheinen“ konnte. Und verhehlen wir uns nicht, daß auch die gegenwärtige kosmische Physik mit ihrer Bilanzierung positiver und negativer Weltmaterie zu einer großartigen kosmischen Null durchaus in den Bahnen dieser Vorstellungen wandelt. So darf auch dieser „sophistische” Ansatz als ein wesentliches und propulsives Moment abendländischer Wissenschaftsgeschichte angesprochen werden. § 17 Platon (437 - 347) Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die Begriffe, Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken als Noesis und Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw. Modellen. Die Entdeckung des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammenhang und als Institution der „freien Künste“. Der Zeitbegriff als „stehende Zahl“ und die Konstitution des Vergangenen in der Wiedererinnerung. Platon hat die parmenideischen und pythagoräischen Tendenzen in seiner Ideenlehre vereinigt und dabei immer wieder mit dem Hilfsmittel des „dialektischen Logos“ des Heraklit gearbeitet. Es ging ihm darum, die Einheit und Unbewegtheit des Seins als „Idee“ zu gewährleisten und trotzdem die „Phänomene zu retten”, d. 201 h. auch der Welt der Sinne und ihren vielfältigen und bewegten Phänomenen gerecht zu werden. Ersteres versuchte er mit Hilfe der sokratischen Entdeckung des Abstraktionsund Verallgemeinerungszusammenhanges der Begriffe, der Induktion (epagoge ἐή: Wie der Allgemeinbegriff das Gemeinsame und Eine im Verschiedenen der Unterbegriffe zusammenfaßt und darstellt (er ist hier gleichsam die „Harmonie” der Pythagoräer), so stellt auch die Idee des Guten (und zugleich Schönen und Wahren) als oberster aller denkbaren Begriffe die Einheit in der Verschiedenheit des ganzen Ideenreiches dar. Sie wird nur im reinen Denken erfaßt. Platon bedient sich allerdings zur „Veranschaulichung“ der demokriteischen ModellMetaphorik, wenn er dies denkerische Erfassen eine „Schau mit dem geistigen Auge“ nennt, dabei doch voraussetzend, daß der Geist kein Auge hat und deshalb auch nicht „schaut“. Diesem Ideenreich sind auch die pythagoräischen Zahlenund Gestaltverhältnisse zugeordnet, gleichsam die Vorhalle zum Tempel des Ideenreiches, in den man nur Zugang findet, wenn man sich durch das Studium der Mathematik mit dem „abstrakten Denken” vertraut gemacht hat. Anders als bei Parmenides wird die Sphäre der Phänomene, der sinnlich wahrnehmbaren Dinge gefaßt. Freilich gibt es über Sinnliches auch bei Platon nur Meinung, Glaube (doxa ό und pistis í), aber diese sind nicht durchweg Irrtum und Täuschung, sondern enthalten auch Wahrheit. Soviel ist allerdings richtig: die Dinge sind nicht das, als was sie erscheinen. Sie „scheinen” etwas zu sein, nämlich wahre Realität, was sie doch nicht sind. Ihre Seinsart ist eine geborgte, nämlich von den Ideen und mathematischen Gebilden. Sie sind deren Abbilder und haben an deren Sein teil (methexis é, participatio = Teilhabe). Platon erläutert dieses Teilhabeverhältnis, indem er auf das analoge Teilhabeund Abhängigkeitsverhältnis von Spiegelbildern und gemalten Bildern von diesen sinnlichen Dingen hinweist. So ergibt sich gemäß dem Teilhabeverhältnis zwischen allen Seins- und Phänomenbereichen eine ontologische Hierarchie. Sie wird durch die Neuplatoniker und die frühchristliche Philosophie fest im abendländischen Denken verankert. Dies hat das pythagoräische Motiv in der Wissenschaftskonzeption verfestigt und die Ideen und Begriffe mit einbezogen: Forschung ist danach die Erkundung der Idee, des begrifflichen Wesens, das in allen vordergründigen Phänomenen nur „zum Ausdruck” kommt. Neben der ontologischen Hierarchie verdankt man Platon eine dieser entsprechende Hierarchie der (anthropologisch begründeten) Erkenntnisvermögen. Dem Bereich der Ideen und mathematischen Gebilde ist die Vernunft zugeordnet. Im reinen Denken „schaut” sie die Idee des Guten, von ihr absteigend über die allgemeinen Begriffe, die Zahlen und Proportionen bis zu den geometrischen Formen und wieder aufsteigend zur Einheit, erkennt und erkundet sie begrifflich-diskursiv das Reich der Ideen und der Wahrheit. Dies erzeugt eigentliche Wissenschaft (episteme ἐή). Im Reich der sinnlichen Dinge und ihrer Spiegel- und Abbilder aber orientieren uns die Sinne, vorzüglich das Auge. Leicht sind sie der Täuschung und dem 202 Irrtum zugänglich. Daher ist, was sie liefern, nur Glaube und Meinung, nicht mehr eigentliche Wissenschaft. Auf den Weg der Wahrheit führen sie nur, wenn sie zur „vernünftigen” Erfassung der Urbilder, Ideen und Begriffe Anlaß geben, wenn die Seele sich anläßlich sinnlicher Anschauung der Phänomene der geistigen Schau der Idee „erinnert” (anamnesis ἀά). So steht bei Plato die Erinnerung (man übersetzt anamnesis gewöhnlich mit „Wiedererinnerung“) zwar für die Ideenschau, die das Einheitliche und StabilRuhende in der Vielfältigkeit und bewegten Veränderlichkeit der Phänomene erfaßt. Aber Platon entdeckt und thematisiert damit genau die Leistungsfähigkeit des Gedächtnisses, das Vergangene, nicht mehr Seiende und damit zum Nichts Gewordene in ein geistiges Sein, eine seiende Gegenwärtigkeit zu verwandeln, die in aller empirisch sinnlichen Anschauung als Folie des Einheitlich-Ruhenden, auf dem sich das Vielfältig-Bewegte abheben kann, miterfahren wird. Aristoteles wird es in seine Bestimmung der Substanz als des „Ge-Wesens“ (to ti en einai ìἦἶ), als desjenigen aufnehmen, das historisch und zugleich empirisch als in der Zeit „Durchständiges“ aufweisbar ist. So erweitert und verfestigt Platon das vorsokratische Subjekt-Objektschema der Erkenntnis und Wirklichkeit und macht es zum festen Besitz abendländischer Wissenschaft: OBJEKT SUBJEKT kosmos noetos, geistige Welt (mundus intelligibilis Wahres, Idee des Guten Sein, Begriffe Zahlen und Zahlverhältnis geometrische Gebilde Denkvermögen, Vernunft <==> <==> <==> <==> Noesis, Intuition Dianoia, begriffliches Denken Dialektik, mathemat. Denken strukturelles Denken kosmos aisthetos, sinnliche Welt (mundus sensibilis) Sinnesvermögen täuschender Schein, Phänomene <==> Abbilder ==> Schatten <==> sinnliche Anschauung sinnl. Ansch. u. Erinnerung sinnl. Ansch. u. Erinnerung Kritisch ist darauf hinzuweisen, daß Platon trotz allem Bestreben, „vernünftige” Erkenntnis als das ganz andere und höhere gegenüber der sinnlichen Anschauung auszugeben, gleichwohl nicht umhin kann, dies nach demokriteischem Vorbild in der Sprache der sinnlichen Anschauung zu verdeutlichen. Nicht nur sind die „Ideen” und zumal die geometrischen Gestalten und Figuren als „Bilder” und sinnliche Formen konzipiert, sondern auch ihre Erfassung gilt ihm als „Schau“, Betrachtung, „Theorie” (griech.: í Schau). Man interpretiert diese Tatsache als notwendige Metaphorik, als Akkomodation an beschränkte menschliche Vorstellungskraft. Und entsprechend interpretiert man die Tatsache, daß sich Platon zur Darstellung der höchsten und wichtigsten Einsichten der Gleichnisse und 203 Mythen bedient 114, als Verbildlichung der „unanschaulichen“ Denkgebilde durch Modelle der sinnlichen Anschauung. Wir können aber hier schon vorausgreifend darauf hinweisen, daß diese platonische Metaphorologie der Erkenntnis im frühen 18. Jahrhundert durch den irischen Platoniker und Bischof George Berkeley gründlich revidiert wurde. Berkeley leugnet die unanschauliche Denkerkenntnis und begründet die Ideenschau direkt in der sinnlichen Wahrnehmung („Esse = Percipi“; „Sein und Wahrgenommenwerden sind dasselbe). Das platonische Metaphernverhältnis wird ihm dadurch zu einem Verhältnis zwischen den Sinnesleistungen der einzelnen Sinne. Was man mittels des Auges sieht, wird nach Berkeley in einer metaphorischen „Natursprache“ gefaßt und auf die Sinneserfahrung des Tastsinnes angewendet. Von Platons Ideenlehre stammen eine Reihe von Grundkonzeptionen der ganzen späteren Wissenschaftsentwicklung ab, die bei vielen Wissenschaftlern als pure Selbstverständlichkeiten gelten. Als solche lassen sich nennen: 1. Die Grundunterscheidung zwischen „unanschaulichem (wahrem) Denken“ und fehlbarer (täuschungsanfälliger) empirisch-sinnlicher Wahrnehmung. Sie hat als parmenideisches Erbe den Vorrang des rationalen Denkens gegenüber empirischer Anschauung und Beobachtung für die Erkenntnis befestigt und zugleich dieses angeblich unanschauliche Denken - da offensichtlich solches „Denken“ überhaupt keinen Inhalt haben kann – nachhaltig mystifiziert. Die Prätention, unanschaulich denken zu können, ist seither eine Domäne besonders von Mathematikern, Physikern und nicht zuletzt Theologen geblieben, die dadurch vorgeblich „geniale Einsichten“ und mystische Partizipation am Göttlich-Geistigen jeder nachvollziehenden Kontrolle entziehen. 2. Die Modell- bzw. Paradigmentheorie. Sie wurde als demokriteisches Erbe ein unentbehrliches Komplement der rationalistischen These vom reinen unanschaulichen Denken. Modelle, Metaphern, Gleichnisse, Analogien, Symbolisierungen sind bisher - nach Wittgensteins eigener Metapher - die „Leitern“ gewesen, auf denen man zum nur noch rein zu Denkenden aufsteigen müsse, um sie nach Erreichung solcher Denkziele „wegwerfen“ zu können. Kritisch wird man bemerken, daß sich so erreichte schwindelnde Einsichtshöhe regelmäßig als Schwindel entlarven läßt. Die vorgeführten Modelle sind stets anschauliche „Sachen selbst“, über welche nicht hinausgegangen werden kann. Gerade deswegen sind sie nicht das, was durch sie vermittelt bzw. symbolisiert werden soll (vgl. dazu das in § 12 Gesagte). 114 Vgl. Platon, Politeia (Staat), 6. Buch, 508 a - 509 b: Sonnengleichnis; 6. Buch 509 d - 510 b: Liniengleichnis; 7. Buch, 514 a - 517 a: Höhlengleichnis. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 6, Hamburg 1958, S. 220 - 222 und S. 224 - 226. – S. auch Platon, Phaidros 246 a - d: Wagenlenker-Modell des Menschen. In: Platon, Sämtliche Werke Band 4, Hamburg 1952, S. 27f. Es dürfte aus dem indischen Kathaka-Upanishad des YayurVeda 3, 7, Vers 3 - 9 übernommen worden sein, vgl. P. Deussen, Sechzig Upanishads des Veda, 4. Aufl. Darmstadt 1963, S. 276f. 204 Die platonische Modelltheorie ist seither auch die Unterlage geblieben für alle hermeneutischen Unterscheidungen zwischen vordergründigem Literal-Sinn und Hintersinn in den interpretierenden Geisteswissenschaften. Aber auch davon gilt, daß jeder metaphorische Hintersinn sich nur als anschaulicher Sachverhalt wirklich verstehen läßt. Ebenso liegt diese Modelltheorie noch allem semantischen Verständnis von logischen und mathematischen Formalismen zugrunde, insofern die Formalismen als sinnlich-metaphorische Veranschaulichung eines nur zu denkenden eigentlichen „Ideengehaltes“ aufgefaßt werden. Hier ist die Lage jetzt dadurch verunklart worden, als man gewöhnlich den Sachverhalt, auf den ein Formalismus „angewendet“ werden soll, als Modell bezeichnet, welches den angeblich „unanschaulichen Formalismus“ veranschauliche bzw. „erfülle“ oder gar „verifiziere“. Abgesehen davon, daß auch Formalismen keine leeren Denkformen sein können (da es dergleichen nicht geben kann), die erst durch Anwendung auf Sachverhalte einen Inhalt gewinnen könnten, sind sie gerade besonders hartnäckige Anschauungsevokationen von Laut- und Bildgestalten, die sich bei Anwendungen mit deren Anschauungsgehalt verknüpfen. 3. Die Definition des (regulären, d. h. widerspruchslosen) Begriffs. Platon entdeckt als Erbe der sokratischen Dialektik das Allgemeinheitsgefälle der Begriffe und die dihäeretische (bzw. dichotomische, d. h. zweiteilende) Einteilungsfähigkeit der Arten und Unterarten der Gattung. Jeder unter ein Allgemeines fallende reguläre Begriff enthält dieses Allgemeine partizipierend als „generisches“ Merkmal in sich und verknüpft es mit einem durch das Wortzeichen besonders bezeichneten Merkmal (von Aristoteles dann „Idion“ ἴ, lat. proprium d. h Eigentümliches genannt). Am Beispiel der Definition des „Angelfischers“ im Dialog „Sophistes“ 115 zeigt Platon, daß die Merkmale von dihäretisch unter eine gemeinsame Gattung fallenden Artbegriffen außer durch das (positive) spezifische Merkmal (Idion) auch durch die Negation des spezifischen Merkmals der Nebenart bezeichnet werden können. Z B. ist der „mit der Angel fischefangende Beutemacher“ zugleich ein „nicht mit dem Netz fischefangender Beutemacher“, wobei der „mit dem Netz fischefangende Beutemacher“ die Nebenart zum Artbegriff des Anglers darstellt. Platons Begriffsdefinition besteht demnach in der (intensionalen) Angabe (soweit möglich) aller über diesem Begriff stehenden Gattungen, an denen er „teilhat“, und dem hinzutretenden Eigenmerkmal (aristotelisch: „Idion“, „Proprium“, „differentia specifica“). Die wesentliche logische Einsicht Platons liegt in der Entdeckung der Substituierbarkeit von eigentümlichen (spezifischen) Merkmalen einer Art durch negativ bezeichnete spezifische Merkmale der dihäretischen Nebenart. Sie begründet den 115 Platon, Sophistes 219 d - 221 a. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 4, Hamburg 1958, S. 189 – 191. 205 Unterschied zum heraklitischen widersprüchlichen Logos, in welchem das jeweilige spezifische Merkmal eines Begriffes zugleich und in gleicher Hinsicht positiv und negativ bezeichnet wird: Der heraklitische „Angelfischer“ wäre zugleich auch ein „Nichtangelfischer“ (z. B. wenn er gerade schläft und deswegen nicht angelt). Man bemerke, daß Aristoteles den heraklitischen „nichtangelnden Angelfischer“ zum „potentiellen Angelfischer“ erklären wird. 4. Das Wissenschaftskonzept Platons. Es bezieht sich einerseits auf den Begründungszusammenhang des Wissens überhaupt, andererseits auf die institutionelle Seite der Wissensvermittlung. a. Der Begründungszusammenhang des Wissens schließt an die Hierarchie der Erkenntnisvermögen und der ihnen zugeordneten Wirklichkeitsbereiche an. Die „intuitive“ Einsicht in das, was die oberste Idee (des Guten, Wahren und Schönen) zu denken geben soll, wird Grundlage für jede spätere sogenannte Axiomatik. Sie begründet insgesamt das Logische als entfalteten Begriffszusammenhang in der Gestalt dihäretischer Begriffspyramiden. Dieser logische Begriffszusammenhang in logischen Urteilen und Schlüssen expliziert – begründet seinerseits die arithmetischen Ideen von Zahlen und Proportionen. Auf ihnen beruhen die geometrischen Konstruktionen, die ihrerseits die unmittelbare ideelle Strukturerfassung der Erscheinungswirklichkeit begründen. Man bemerke, daß dieser Begründungszusammenhang, der zugleich ein Ranggefälle der wissenschaftlichen Disziplinen ausdrückt, bis in die Gegenwart wirksam ist. Moderne Platoniker halten es noch immer für selbstverständlich, daß alle eigentlich wissenschaftliche Phänomenerkenntnis in mathematischen Formen stattzufinden habe (wobei insbesondere seit Descartes geometrische Konstruktionen grundsätzlich nur als „Veranschaulichungen“ der analytischen, d. h. arithmetischen Proportionen aufgefaßt werden), die Mathematik insgesamt logisch zu begründen sei, die Logik aber auf letzten selbstevidenten Axiomen beruhe. b. Die institutionelle Seite der Wissensvermittlung hat Platon im „Staat“ als Konzept der „Enzyklopädie der sieben freien Künste“, die jeder Gebildete zu durchlaufen habe, ausgeführt. Das sogenannte „enzyklopädische Wissenschaftssystem“ (es handelt sich in der Tat allerdings um eine Klassifikation) etabliert sieben Einzelwissenschaften. Platon trägt der sophistischen Entdeckung des grundlegenden Unterschiedes zwischen Natur und Kultur Rechnung, indem er drei dieser Wissenschaften auf die Kultur und das Wesensmerkmal der Sprache des Menschen, das ihn zum Kulturschöpfer macht, bezieht, die vier übrigen aber auf die Natur und (nach pythagoräischem Vorgang) auf die Grundmethode der Naturerforschung, die Mathematik. Die ersteren drei nannte man später in didaktischer Absicht „Trivium“ (d. h. Dreiweg). Es handelt sich um Grammatik, Rhetorik und Dialektik (bzw. Logik), durch die der freie Bürger den richtigen (wissenschaftlichen) Umgang mit der Schriftsprache, mit der öffentlich gesprochenen Rede sowie mit dem logischen Denken lernen sollte. Die letzteren vier hießen später „Quadrivium“ (Vierweg). 206 Dieses umfaßte Arithmetik, Geometrie, Astronomie (auch im weiteren Sinne Naturwissenschaft) und musikalische Harmonielehre, welche seit den Pythagoräern ja als mathematische Proportionenlehre der „Sphärenklänge“ benutzt wurde. Der „Dreiweg“ und der „Vierweg“ als Richtungsausweisung der Wissenschaften haben nachmals die beiden pamenideischen Wege der Wahrheit und der Falschheit abgelöst und aus der Erinnerung getilgt. „Triviales“ Kulturwissen und „quadriviales“ Naturwissen der sieben freien Künste bzw. Disziplinen wurden - angereichert durch die Ergebnisse aristotelischer und stoischer Forschungen - durch die Enzyklopädisten der Spätantike und der beginnenden Scholastik zum Kurrikulum der abendländischen Bildung konsolidiert. In den islamischen Hochschulen (Medresen) und etwas später in den mittelalterlichen Universitäten wurden sie zum Kurrikulum für das Grundstudium (bzw. Propädeutikum) in der „Philosophischen Fakultät“, das man vor der Zulassung zum „praktischen Berufsstudium“ der sogenannten Höheren Fakultäten Theologie, Jurisprudenz und Medizin zu absolvieren hatte. Ersichtlich wurden die sprachlich-historisch orientierten Fächer des Triviums mit ihrer Nähe zum Problembestand der Theologie und Jurisprudenz zum Ausgangspunkt der dann sogenannten Geisteswissenschaften, während das Quadrium mit seiner Nähe zum Problembestand der Körpermedizin zur Grundlage der modernen Naturwissenschaften wurde. Die immer weiter forcierte Arbeitsteilung führte dann im Laufe des 19. Jahrhunderts genau an der Nahtstelle zwischen Trivium und Quadrivium zur Teilung der einstigen „Philosophischen Fakultät“ in die neue rein geisteswissenschaftliche „Philosophische Fakultät“ und die neue „Mathematisch-Naturwissenschaftliche Fakultät“. 5. Das Zeitverständnis Platons soll hier besonders hervorgehoben werden, da es - meistens unterschätzt und „mythologisch“ verharmlost - abendländische Wissenschaft und Weltanschauung nachhaltig geprägt hat. Im „Timaios“ wird die Zeit in allegorischer Weise als „ein bewegliches Bild der Unvergänglichkeit“ und genauer als ein „in Zahlen fortschreitendes unvergängliches Bild der in dem Einen verharrenden Unendlichkeit“ eingeführt.116 Was hier „unanschaulich“ als Zeitbegriff zu denken ist, ist die stehende Einheit. Spätere nannten es ein „nunc stans“, d. h. eine stehende Gegenwärtigkeit der unendlichen vom Demiurgen geschaffenen Welt. Das Modell zur Veranschaulichung dieses Zeitbegriffs aber ist die nach zenonischem Vorgang in Zahlenfolgen gemessene und „festgestellte“ Abfolge der Stadien der Veränderung und Bewegung aller Vielheiten und Teile dieser Welt, maßgeblich aber der Bewegungen der Himmelskörper auf fixierten Ruhepunkten. Dieses Modell bestimmt die Messung der Bewegung und Veränderung der Phänomene durch Reduktion auf stehende „Zeitpunkte“, denen Zahlfolgen entsprechen. Heute ist diese Darstellungsweise durch die Digitaluhren technisch 116 Platon, Timaios 37 d. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 5, Hamburg 1958, S. 160. 207 realisiert worden, insofern man auf ihnen nur stehende Zahlen (für Stunden, Minuten und ggf. Sekunden) sieht. In diesen stehenden Zahlen aber sieht man keinen Hinweis auf vergangene oder zukünftige Zu-Stände. Auf den klassischen Analoguhren, die das aristotelische Prinzip der Anschaulichkeit der Zeit als Bewegung des Früheren über das Jetzt zum Späteren hin zugrundelegen, sieht man auf dem Ziffernblatt die Bewegung der Zeit selbst an den Zeigern. Und man sieht jederzeit hinter den Zeigern eine Vergangenheitsfläche und vor den Zeigern eine Zukunftsfläche auf dem Zifferblatt. An Platons Zeitkonzept zeigt sich zweierlei: einerseits die „Nichtigkeit“ der jeweiligen phänomenalen Gegenwärtigkeit - insofern sie sich auf einen unausgedehnten (Null-)Punkt einschränkt, und andererseits das wahre (ideelle) Sein alles ins phänomenale Nichts hinabgeglittenen Vergangenen, insofern es durch die zahlenmäßige (chronologische) Wiedererinnerung zu einer geistigen Präsenz gebracht wird. Entsprechendes - bei Platon allerdings unthematisiert - muß für alles phänomenal Nichtige der Zukunft gelten, das in der denkenden und planenden Antizipation ebenfalls zu einer ideellen Präsenz gebracht wird. Man wird bemerken, daß dieser platonische Zeitbegriff die logische Struktur eines heraklitischen Logos besitzt. Er ist die Einheit der Gegensätze von Sein und Nichts und damit der ruhende Begriff des Werdens und der Veränderung selbst. Er liegt auch jetzt noch - undurchschaut in seiner logischen widersprüchlichen Struktur - dem Verfahren der physikalischen Mechanik und überhaupt der Naturwissenschaft zugrunde, die mittels des Zeitbegriffs grundsätzlich unerfahrbare Vergangenheiten und Zukünfte vergegenwärtigt (als ob sie vor Augen lägen) und zugleich die jeweils beobachtbaren gegenwärtigen Naturphänomene in der zeitlichen Bestimmung selbst „vernichtet“, indem sie sie in „Zeit-Punkten“ zu berechnen versucht. Über den Kult der Erinnerung in den historischen Geisteswissenschaften ist dies Verfahren auch zur Grundlage der Geisteswissenschaften geworden, insofern hier die chronologisch bestimmten Daten und Fakten, denen ja ontisch-phänomenal Nichts entspricht, zur geistigen „Realität“ aller Sinngebilde gemacht wurden. Um dies zu bemerken, muß man aber die abendländischen Denkgewohnheiten anhand der in anderen Kulturen entwickelten Denkmuster zu relativieren gelernt haben. 208 § 18 Aristoteles (384 – 322 v. Chr.) 1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien als Fragen nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft: Das Vier-Ursachen-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der Wissenschaften, a. die Begrifflehre, b. die logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke Aristoteles ist der große Systematiker, der alle vorsokratischen Motive in sorgfältiger Sichtung und Kritik zusammenfaßt. Da er zwanzig Jahre lang Schüler Platons war, wiegt dessen Einfluß bei weitem am meisten. Dies so sehr, daß man bis ins hohe Mittelalter, ja noch in der Renaissance die Unterschiede zwischen beiden Anschauungen kaum zu unterscheiden wußte und sich umso mehr ihrer „concordantia“ widmete. Und gewiß sind auch die Ähnlichkeiten und Gemeinsamkeiten ihrer Philosophien größer, als man annehmen möchte, wenn man Platon zum Begründer des Idealismus, Aristoteles zum Begründer des Realismus stilisiert. Soviel ist freilich wahr und von ausschlaggebender Bedeutung: daß Aristoteles das Auseinanderreißen von Vernunft und Sinnlichkeit, von Idee und Erscheinung nicht billigt und somit die beiden Reiche wieder zusammenführt, ohne sie jedoch zu verschmelzen. Er „rettet die Phänomene”, indem er dem Sinnlichen und den Dingen ihr Recht einräumt, Etwas, Seiendes, Realität zu sein und nicht nur bildhafter Abglanz höherer eigentlicher Wirklichkeit. Er nennt sie Substanzen, genauer erste Substanzen. Was Platon die Idee genannt hatte, die Bilder und Formen solcher substanziellen Dinge, die ihr Wesen ausmachen, nennt er zweite Substanzen. So wird die Zwei-Substanzen-Lehre des Aristoteles die Theorie, in welcher der platonische Dualismus überwunden erscheint, während er doch zugleich perenniert ist. Nur gewinnen dabei die ersten Substanzen, die sinnlich erfahrbaren Dinge, an ontologischem Rang, was die zweiten Substanzen, die „bloßen“ Ideen und Begriffe vom „Wesen” der Dinge einbüßen. Auch die Sinnlichkeit als Erkenntniskraft gewinnt dabei an Schätzung. Sie wird Grundlage aller wissenschaftlichen Empirie, nicht mehr nur Medium des Meinens und der Vermutung wie bei Platon. 1. Das Wissenschaftskonzept des Aristoteles a. Die empirisch-historische Grundlage. Alle Wissenschaft beginnt mit der sinnlichen Gewißheit der Erfahrung über das „Daß” von Substanzen (Hóti ὅ), mit der Kenntnis vom Einzelnen, Besonderen, sinnlich Bestimmten. Dies ist Empirie (Empeiria ἐμπειρία). Aber jede sinnliche Erfahrung von Gegenwärtigem wandelt sich ständig um in gedächtnismäßigen Besitz von Vergangenem. Dies ist 209 Historia (Historie ἱζηορίη). Die Entfaltung von Empirie und Historie als Wissenschaft ist Faktenkunde und Geschichte. Ihre gemeinsame Methode ist die sorgfältige und genaue Beschreibung dessen, was sich sinnlich beobachten und gedächtnismäßig behalten läßt. Was sich so beschreiben läßt, sind die ersten Substanzen. Die Beschreibung beruht, wie gesagt, auf sinnlicher Beobachtung und Erinnerung an Beobachtetes. Aristoteles bringt das in die Definition der Substanz ein: Die Substanz (Ousia, ủíeigentlich: „Seiendheit“) ist ein „To ti en einai“ (òíἦἶ), „etwas, das war und (noch) seiend ist“. Wir können es mit „Ge-Wesen“ übersetzen. Es ist ein in der Zeit von der erinnerten Vergangenheit her in die Gegenwart identisch Durchständiges. Zur vollständigen Beschreibung gehören aber auch die Eigenschaften und Verhältnisse, die die Substanzen aufweisen und in denen sie stehen. Für die vollständige Deskription hat Aristoteles eine ingeniöse Methode entwickelt. Sie besteht darin, sich am Leitfaden aller möglichen Fragen über das vor Augen Liegende zu orientieren und diese Fragen jeweils durch die Beschreibung zu beantworten. Die Fragenliste liefert das, was man seither seine Kategorienlehre genannt hat. Kategorien sind, wie Aristoteles in der Kategorienschrift des Organons ausführt, allgemeinste Begriffe. Er macht in seiner Kategorienlehre allgemeinste Fragen selbst zu solchen obersten Begriffen und behält die Fragewörter als Begriffsnamen bei. Seine Liste variiert in den bezüglichen Texten, und er wird selbst bemerkt haben, daß sich manche möglichen Fragen überschneiden. Als Hauptkategorien stehen jedoch folgende im Vordergrund, und sie wurden nachmals auch die Grundlage aller weiteren Kategorienlehren, nicht zuletzt bei Kant. Wir geben sie in doppelter Reihe als Fragen und (allgemeine) Antworten wieder: Frage Antwort 1. Was? (Ti, í) 2. Wie beschaffen? (Poion, ό) 3. Wie bemessen? (Poson, ό) 4. In welcher Beziehung? (Pros ti, ό 5. Wo? (Pou, ῦ) 6. Wann? (Pote, é) „Et-Was“, Substanz Eigenschaft, Qualität Maß, Quantität Verhältnis, Relation Ort (Raum) Zeitbestimmung (Zeit) Was als vor Augen liegend beschrieben werden soll, wird demnach zunächst gemäß der ersten Frage als „Gegenstand“ (eine Substanz) benannt. Alle möglichen Antworten können nur in der Angabe einer sprachlich verfügbaren Benennung des Gegenstandes bestehen. Die anschließenden Fragemöglichkeiten faßt Aristoteles als Fragen nach den „hinzukommenden“ (symbebekota, όlat.akzidentellen) Bestimmungen (daher der Ausdruck „zufällig“) zusammen. Sie werden durch Prädikationen in beschreibenden Urteilen mit dem Subjekt verknüpft. 210 Es ist bemerkenswert, daß Aristoteles ausdrücklich davor warnt, die Was-Frage nun ihrerseits auf die akzidentellen Bestimmungen anzuwenden, also etwa nach der Substanz von Qualitäten, Maßen, Relationen, ja auch von Raum- und Zeit(bestimmungen) zu fragen. Und das muß ja auch über das Verhältnis aller Kategorien untereinander gelten. Gerade das aber hat man in späteren Kategorienlehren immer wieder getan. Und das führte zu den Logomachien über die „Substantialität“ von Raum, Zeit und Relationen, die „Zeitlichkeit“ von Substanzen, Räumen, Qualitäten und Quantitäten, die „Relationen“ von substanzialisierten Zeiten und Räumen und anderes mehr. Kompliziert wird die Lage durch den offensichtlichen Fehler des Aristoteles, die Überschneidung der Relationskategorie mit den übrigen Akzidenzkategorien nicht durchschaut zu haben. Ersichtlich lassen sich ja ein Wann und Wo und alle Maßangaben nur selbst als Relationsverhältnisse bestimmen. Ebenso muß auffallen, daß Aristoteles eine wichtige Frage nicht in die Kategorienliste aufgenommen hat, die er doch in seinem Werk immer wieder gestellt und beantwortet hat. Es ist die Frage nach der Wirklichkeit, Notwendigkeit, Möglichkeit oder gar nach der „Nichtigkeit“. Seine Antworten auf diese Frage, die er in der Logik als Modallehre ausführlich behandelt, sind klar genug und maßgebend geworden: Alles, was vergangen ist (und nur durch Erinnerung gegenständlich werden kann), wird als „notwendig“ (anankaion ἀí, das gegenwärtig vor Augen Liegende wird als „wirklich“ (energeia on ἐéὄ„aktuell“), alles als zukünftig Vorgestellte wird als „möglich“ (dynamei on άὄ„potentiell“) beschrieben. Was es aber damit auf sich hat, wurde schon bei ihm zu einer Grundfrage der Logik und ist es in der Weiterentwicklung seiner „Modallogik“ und in der Anwendung derselben besonders in den Naturwissenschaften, aber auch in der Alltagssprache geblieben. Aristoteles wie seine Schule (besonders Theophrast von Eresos ca. 372 - 288 v. Chr.) haben auf der Grundlage dieser Kategorienlehre dem Abendland auf Jahrhunderte hinaus durch ihre beschreibenden „Naturgeschichten” (von Aristoteles„ Verfassungsgeschichten ist nur wenig erhalten) Kenntnis von den Realien verschafft, die als so genau und vollständig galten, daß auf lange Zeiten kaum jemand sie zu überprüfen für nötig fand. Diese Revision wurde erst seit der Renaissance in großem Stil in Angriff genommen und brachte die Blüte neuzeitlicher empirischer und historischer Natur- und Kulturwissenschaft hervor, von der die neuere Historiographie im engeren Sinne ein integrierender Bestandteil ist. b. Die theoretisch-erklärende Wissenschaft. Auf der Basis empirisch-historischer Kenntnisse, die dann zu deskriptiven „Historien“ (oder „-Kunden“) der einzelnen Wirklichkeitsbereiche entfaltet wurden, erhebt sich der Bau der „theoretischen”, erklärenden Wissenschaft, die aus (empirisch-historischen) Kenntnissen „epistemische“ bzw. szientifische Erkenntnis macht. Sie hat das platonische Renommee, die eigentliche und jedenfalls höhere Wissenschaft zu sein, immer behalten. Und 211 doch führt sie nicht über den Bereich der Dinge, die ersten Substanzen hinaus, sondern stiftet nur zwischen ihnen Zusammenhänge. Auch zur Auffindung dessen, was als Erklärung gelten kann, verwendet Aristoteles die Fragemethode. Hier ist sein Leitfaden die Frage nach dem „Warum” (di„ hoti ҅ὅ Und auch diese Erklärungsfrage wird nach vier speziellen Fragemöglichkeiten „kategorisiert“. Es sind die Fragen nach den berühmten „Vier Ursachen“ (aitiai αỉí, causae): nach der (begrifflichen) Form (eidos ἶ causa formalis), nach dem (materiellen) Stoff (hyle ὕ causa materialis), nach der Wirkursache i. e. S. (causa efficiens) und nach dem Zweck bzw. Ziel (telos écausa finalis). Wir können ins Deutsche übersetzen: es geht um das Wodurch (Formbestimmung), das Woraus (materielle Verkörperung), das Woher (das Aristoteles sehr genau mit: „Woher der Ursprung der Bewegung bzw. Veränderung“ ὅἡἀὴῆήumschreibt und das Weshalb bzw. das Worumwillen (bei Aristoteles hou heneka ὗἕoder auch telos έgenannt).117 Durch jede der in diesen vier Fragerichtungen erstrebten Antworten wird eine Ursache für das vorher beschriebene und dadurch gegebene Ding bzw. eine Substanz angegeben. Jede dieser Ursachen aber muß vorher schon selber als beschriebene Substanz festgestellt sein. Dies ist „Episteme“ (lat.: scientia), Wissenschaft im eigentlichen und engeren Sinne. In ihr findet die vorsokratische „Archelogie” ihre fortwirkende Ausgestaltung, und sie gibt zugleich die vier Dimensionen weiterer Ursachenforschung bezüglich der Ursachen von Ursachen bis auf erste (oder letzte) Ursachen vor. Im Zentrum dieser Wissenschaftslehre steht somit das aristotelische Vier-Ursachen-Erklärungsschema. In ihm werden die Richtungen der vorsokratischen und platonischen Ursachenforschung wie in einem Fadenkreuz vereinigt. Ursachen(„Kausal-“) Forschung bleibt nicht eindimensional, sondern wird vierdimensional. Erklärende und ableitende Forschung heißt: das durch historisch-empirische Kenntnis gesicherte Faktum mit vier Arten ebenso und schon vorgängig gesicherter Fakten in einen Zusammenhang zu bringen. Dieser Zusammenhang „erklärt” das je Einzelne und Besondere aus anderem Einzelnen und Besonderen. So ergibt sich folgendes Schema: Formursache Eidos Wirkursache Herkunft Substanz Telos Zweckursache Hyle Materieursache 117 Aristoteles, Metaphysik 983 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 15. 212 Es ist gegenüber einer späteren und üblich gewordenen Neigung zur Mystifizierung dieser Ursachen von größter Wichtigkeit zu bemerken, daß diese Erklärung durch die vier Ursachen ihrerseits die Kenntnis und Gesichertheit derjenigen Fakten und Substanzen, die als Ursache in Frage kommen, voraussetzt. Diese aber bedürfen, wie gesagt, zu ihrer eigenen Erklärung selber der kausalen Ableitung von wieder anderen Fakten. So ist in jeder Forschung weitere Forschung angelegt, die das je Erkannte in weitere Netze der Erkenntnis einbettet. Geben wir ein Beispiel, das Aristoteles selbst in seiner „Metaphysik“ vorführt: Wir sehen (sinnlich gesichert) ein Etwas vor uns stehen. Seine Form erinnert uns an ein Haus (wir wissen schon, was ein Haus ist, oder wir müssen es uns erklären lassen). Dies ist seine Formbestimmung durch seine Bezeichnung bzw. durch einen Begriff. Wir prüfen (sinnlich), woraus es besteht und sehen Steine und Holz. Dies ist seine Materie (wir geben uns damit zufrieden oder lassen uns weiter erklären, was Holz und Steine sind). Wir fragen weiter, woher es stammt, und erfahren (durch Berichte von Augenzeugen, oder wir erinnern uns, gesehen zu haben), daß es von Bauleuten errichtet worden ist. Dies ist sein „Woher der Entstehung”, bzw. die causa efficiens. Und wir vollenden die kausale Erkenntnis dieses Hauses, wenn wir auch seinen Zweck – es ist ein Wohnhaus, ein Stall, ein Tempel, ein Universitätsgebäude – erkundet haben, und falls wir nicht wissen, was das ist, müssen wir uns das ebenso weiter erklären lassen. Die Beispiele, die Aristoteles für das Weitererklären der Ursachen aus deren Ursachen gibt, entstammen den Vorschlägen anderer Philosophen. Daß „Fleisch aus Erde, und Erde aus Wasser, und Wasser aus Feuer“ als Materieursachen, oder „daß der Mensch von der Luft bewegt werde, diese von der Sonne, die Sonne vom Streite“ als Wirkursachen; daß die Zweckursache des Gehens „um der Gesundheit willen, diese um der Glückseligkeit, diese wieder um eines anderen willen“ geschehe, und entsprechend auch bei der Formursache des „Wesenswas“ (To ti en einai òíἦἶ), 118 gibt ersichtlich nicht des Aristoteles„ eigene Meinung wieder. Die Beispiele dienen ihm aber zur Begründung der These, daß die VierUrsachen-Erklärungen nicht ins Unendliche fortgeführt werden können, sondern jeweils zu einer letzten bzw. ersten Ursache führen. Dies ist sein Thema für das, was man seither seine Metaphysik nennt, was Aristoteles selbst aber als eine göttliche Wissenschaft und als Ontologie (theologike episteme ὴἐήὀíbezeichnet Aber diese Leistungsfähigkeit des Erklärungsschemas nach den vier Ursachen hätte sicher nicht genügt, ihm im Abendland auf Jahrhunderte kanonische Geltung zu verschaffen, wenn Aristoteles ihm nicht durch weitere Ausgestaltung versucht hätte, gerade das mitzuerklären, was seit Heraklit, Zenon von Eleia und besonders Platon als Wesensmerkmal der Phänomene und sinnlichen Dinge galt: Veränderung, Wandelbarkeit, Bewegung. Wer die Phänomene retten wollte, mußte sich mit Zenons Paradoxien der Bewegung („der fliegende Pfeil ruht!“), mit dem 118 Aristoteles, Metaphysik 994 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 41f. 213 Logos des Heraklit („Logos als Einheit des kontradiktorisch Entgegengesetzten“) und Platons These, daß man hinsichtlich der Phänomene nur Glaube und Meinung (pistis und doxa), aber kein begriffliches Wissen erlangen könne, auseinandersetzen. Wir wollen nicht behaupten, daß es bis heute befriedigend gelungen sei, phänomenale Bewegung und Veränderung auf den Begriff zu bringen. Aber die von Aristoteles vorgeschlagenen Begriffe und seine Theorie zu diesem Problem befriedigte jedenfalls viele Jahrhunderte. Sie war zum Teil eine Grundlage der klassischen Mechanik in der Physik und ist in die landläufigen Vorstellungen über „Bedingungsgefüge“ von Sachverhalten auch der Gegenwart eingegangen. Das obige einfache Vier-Ursachenschema stellt die uns geläufig gewordene strikte Unterscheidung zwischen den jeweiligen Ursachen und Wirkungen als jeweils ontologisch getrennte Dinge dar. Später hat man das als „extrinsisch“ bezeichnet. Wer gemäß den vier Ursachen etwas erklärt, muß die äußere (extrinsische) Umgebung des Interpretandums kennen. Er muß bei einem Gebäude schon wissen, was ein Haus, was das Bauzeug, was Bauleute und was die Verwendungszwecke von Gebäuden sind. Aber nicht diese sollen erklärt werden – da man sie als schon erklärt und bekannt voraussetzt – sondern was und wie sie in dem Interpretandum „wirken“. Dieses „intrinsische“ Wirken wird durch eine der Bedeutungen von „Arché“, nämlich „Herrschaft“ ausdrückt. Die Herrschaft durchwest und bestimmt das Beherrschte ganz und gar. Diese Bedeutung hat Aristoteles ebenfalls berücksichtigt und durch besondere Begriffe gemäß den vier Dimensionen ausgedrückt. Daß die „Form“ in der Substanz als ihr „Wesen“ enthalten ist, dürfte auch nach heutigem Verständnis von Wesensbegriffen noch nachvollziehbar sein. Die Form als „Begriff der Sache“ muß schon „extrinsisch“ bekannt sein, um ihn auch als „Wesen“ der zu erklärenden Sache wiederzuerkennen. Wer die Form als Begriff der Sache kennt, erklärt dadurch das, was Aristoteles die „Energie“ (ἐέ, lat. actus, „wörtl.: beim Werke sein“, dt. „aktuell“, „Wirklichkeit“) der Sache genannt hat. Ebenso ist leicht verständlich, daß die Materieursache voll und ganz zur „Verkörperung“ der Form in und für die Sache dient und somit in der Sache „intrinsisch“ aufgeht. Man muß jedoch das Baumaterial auch extrinsisch schon kennen um zu erklären, zu welcher Gestaltung in einem Gebäude es geeignet ist. Die in der Sache verkörperte Materie wird von Aristoteles definiert als das zur Aufnahme und Verkörperung von Formen Fähige. Und das wird speziell „Kraft“ (Dynamis ύ, lat. potentia, dt.: Anlage, Fähigkeit, Vermögen, Disposition zu..., Möglichkeit) genannt. Wer also die Materie einer Sache kennt, der erklärt durch sie, welche Möglichkeiten zur Verwirklichung (Formaufnahme) in ihr liegen. Das „seiner Möglichkeit nach Seiende“ (to dynámei on ά ὄ) ist jedoch ein heraklitischer Logos, nämlich der Begriff von etwas, was zugleich ist und nicht ist. Die Sache existiert jeweils als bestimmt geformte Materie, zugleich existiert sie 214 nicht in derjenigen Form und Gestalt, die sie aufnehmen kann aber noch nicht aufgenommen hat. Damit erweist sich die intrinsische Kraft oder Potenz als eine Ursache, die nur als heraklitischer Logos, also als widersprüchlich vorgestellt werden kann, wie das auch schon vorn in § 5 gezeigt wurde. Dasselbe Enthaltensein im zu erklärenden Gegenstand muß nun aber auch für die Wirk- und Zweck-Ursachen gelten, die man später nur als getrennte („extrinsische“) ansah. Die intrinsische Zweckursache wird, wie es Aristoteles mit dem von ihm geprägten Terminus klar ausdrückt, als „Entelechie“ (ἐέentelechia, Tendenz zu …, „das Ziel bzw. den Zweck in sich habend“) bezeichnet. Um mittels der Entelechie etwas zu erklären, muß man die Zwecke und Ziele schon kennen, z. B. beim Hausbau, welchem Zweck es dienen soll. Vermutlich hat Aristoteles diesen technischen Begriff nach dem Beispiel des „Strebens“ (ὁή, hormé, Neigung zu…, Bestreben bei beseelten Lebewesen, deutsch noch in „Sehnsucht“ erhaltengebildet. Bei den beseelten Körpern, die sich „von selbst“ bewegen können, wird die Hormé selbst als „Anfang der Bewegung“ (arché tes kineseos ἀὴῆήdefiniert. Daß die Wirkursache außen vor (extrinsisch) bleibt, dürfte auf der Hand liegen und ist in allen späteren Kausaltheorien festgehalten worden. Aristoteles nennt ihre Wirkung „Schlag“ bzw. „Stoß“ (plegé ήDer Schlag oder Stoß ist eine äußere Berührung durch einen bewegten Körper, die man sinnlich wahrnimmt. Er bewirktdie Bewegung (kinesis íals Ortsbewegung oder als innere Veränderung der Sache. Erst diese Bewegung oder Veränderung ist die intrinsische Wirkung, z. B. daß ein Steinblock durch Behauen die Form und einer Statue annimmt. Dazu muß man die Arbeiter und ihre Handwerke (technai, artes) kennen, um zu erklären, was sie durch ihre Arbeit intrinsisch bewirken. Im Hinblick auf die erwünschte Form und Gestalt beschlagen und behauen sie Steine und bewegen sie zu ihren vorgesehenen Örtern. Der Schlag oder Stoß einer Waffe mag eine Verwundung verursachen, die den lebendigen Organismus gänzlich verändert. Alle Substanzen stehen nach Aristoteles in steter Berührung untereinander, denn es gibt keinen „leeren Raum“ zwischen ihnen, wie sein Argument vom „horror vacui“ gegen die demokritische Lehre vom „Leeren“ (kenón ó) der ganzen Natur zeigt. Ein Schlag ändert deshalb alle vorher bestehenden Kontakte der Substanz mit ihrer Umwelt. Das zeigt Aristoteles bei seinem Paradebeispiel des Steinwurfs, bei dem nicht nur der Stein, sondern auch die ihn umgebende Luft in Bewegung versetzt wird. Bei den Bewegungen der vier materiellen Elemente Erde, Wasser, Luft und Feuer unterscheidet Aristoteles grundsätzlich die „natürlichen“ und die „erzwungenen“ Bewegungen. Die natürlichen Bewegungen sind jederzeit am Fallen von Erdhaftem und von Flüssigkeiten in gerader Richtung auf den Erdmittelpunkt hin zu beobachten. Ebenso bewegen sich Luft und Feuer in gerader Richtung nach oben. Das hatte schon Empedokles gesehen und die vier Elemente durch „Liebe“ 215 und „Haß“ sich gegenseitig anziehen und abstoßen lassen. Es war eine Verallgemeinerung der Erfahrungen mit Magneten. Von ihm hat Aristoteles sowohl die Theorie der vier Elemente wie auch die Theorie, daß Gleiches zu gleichem strebt, übernommen. Aristoteles hat wohl deswegen Leichtigkeit und Schwere (koupha oῦ und baria ί) als „natürlich“ angesehen. Schwere und Leichtigkeit sind bei ihm Bezeichnungen für ihre spezifischen „Entelechien“, die sie auf geradem Wege zu ihrem „heimatlichen Ort“ (oikeios topos ἰĩó) hinführen. Z. B. Erdhaftes und Flüssiges zum Erdmittelpunkt hin, Luft und Feuer in entgegengesetzter Richtung nach oben. Ebenso wächst ein Lebewesen durch seine Entelechie zur vollendeten Gestalt etwa der ausgereiften Pflanze oder des erwachsenen Tieres und des Menschen. Erzwungene Bewegung zeigen sich in allen Bewegungsrichtungen, die von den natürlichen abweichen. Das bedeutet in erster Linie, daß sie die vier Elemente daran hindern, ihren natürlichen Bewegungsrichtungen zu folgen. Der Stein auf dem Tisch und das Wasser im Krug fällt nicht nach unten (und natürlich auch nicht nach oben!), sondern es wird zum Liegenbleiben bzw. zur Ruhe gezwungen. Aufsteigender Luft und dem Feuer wird an der Zimmerdecke eine Ausweichrichtung aufgezwungen. Und nur diese Abweichungen sind es, die durch die Wirkursache (causa efficiens) erklärt werden sollen. Es wird also nicht eine Bewegung oder Veränderung selbst erklärt, sondern die von den natürlichen abweichenden Richtungen dieser erzwungenen Bewegungen. Aristoteles diskutiert das beispielhaft an der Wurfbewegung. Der Wurf eines Steines durch eine werfende Hand bewegt nicht nur den Stein, sondern auch das umgebende Medium der Luft in die aufgezwungene Richtung. Wie die Erfahrung lehrt, verwirbelt sich die mitgeführte Luft alsbald in alle anderen Richtungen. Wäre das nicht der Fall, würde sie den Stein weiter mit sich nach oben führen. Die Erfahrung zeigt, daß der geworfene Stein die ihm „aufgezwungene“ Richtung nicht beibehält, sondern allmählich in einer ballistischen Kurve (die der damaligen Geometrie als Parabel-Kegelschnitt längst bekannt war), zur natürlichen Richtung auf den Erdmittelpunkt zurückkehrt. Hätte es Aristoteles schon mit befeuerten Ballonen zu tun gehabt, hätte er wohl erklärt, daß das Feuer den luftgefüllten Ballon durch und über die Luft zu den Sternen entführen würde. Wie wird nun dieses komplexere Vier-Ursachen-Schema zur Erklärung von Bewegungen und Veränderung der beobachtbaren Dinge in der Welt eingesetzt? Aus dem Schematismus der vier Ursachen ergibt sich, daß Potenz und aktuelle Wirklichkeit (dynamis und energeia) in umgekehrt proportionalem Verhältnis zueinander stehen müssen. Je mehr Potenz, Dynamis, Möglichkeit, Kraft, Macht, Anlage (zu Beginn einer Bewegung oder Entwicklung), desto weniger Akt, Energie, Wirklichkeit. Und umgekehrt: je mehr Wirklichkeit, Energie, „Reife” (gegen Ende einer Entwicklung), desto weniger Potenz, Möglichkeit, Kraft. Aristoteles hat auch einen Begriff für den „Abstand”, die „Beraubung” (steresis έ, 216 privatio), der die jeweilig erreichte Form und Gestalt vom vollendeten Zustand oder Ziel trennt. Dieser „Abstand” muß gemäß der Proportionalität eine negative Größe für die Energie (deshalb der negative Ausdruck „Beraubung”) und eine positive Größe für die Potenz sein. Denn bei großem Abstand von Ziel ist die Dynamis bzw. Potenz, dahin zu gelangen, noch größer als bei jeder weiteren Annäherung. Aristoteles hat es vermieden, bei seinen Erklärungen mittels der vier Ursachen die auch von seinen Vorgängern, erst recht aber von den Nachfolgern ins Spiel gebrachten Begriffe von Raum und Zeit und von quantifizierten Strecken und Längen oder zeitlichen Dauern zu verwenden. Und so stellten sich in seiner Bewegungslehre auch keine zenonischen Paradoxien ein, die sich erst in der Beziehung von Bewegungen auf quantifizierte Strecken und Punkte und ihre zeitliche Bemessung ergeben, wie sie für die neuzeitliche mathematische Physik konstitutiv geworden sind. Fügen wir hinzu, daß für den Bereich mechanischer Ortsbewegungen diese Terminologie trotz aller antiaristotelischen Purgatorien der neuzeitlichen Physik speziell in der Mechanik und „Dynamik” erhalten geblieben ist. Man kann es noch an den physikalischen Begriffen „Impuls“ (als Wirkursache) und „Entropie“ (als richtungsgebende Finalursache von physikalischen Prozessen in abgeschlossenen Systemen, Vorgängerbegriff war der von Joh. Buridan eingeführte Begriff impetus, d. h. „inneres Streben“) erkennen. Für den Bereich der Organismen und für das Wachstums hat sich die Rede von den „entelechialen” Kräften und Tendenzen und aristotelischer Teleologismus fast bis zur Gegenwart erhalten. Um die Jahrhundertwende erhielt die entelechiale Theorie durch die evolutionsgenetischen Befunde großen Auftrieb (wie z. B. bei Hans Driesch). Fassen wir auch diese Modifikationen des Vier-Ursachen-Schemas zur Erklärung bewegter und sich verändernder Dinge zu einem Schema zusammen, so ergibt sich folgende Figur: Form eidos Wirkursache plegé informatio Wesens-Begriff Bewegung Veränderung Substanz hormé u. entelechia Tendenz Dynamis, Potentia, Anlage Telos hyle Materie Es ist hervorzuheben, daß diese Theorie der Bewegung und Veränderung ihrem teleologischen Charakter gemäß jeweils die reife Gestalt bzw. die Ruhe als Ziel einer Bewegung privilegiert. Jede Bewegung kommt zur Ruhe, wenn sich ihre Entelechie erschöpft hat, wenn also ihr Ziel erreicht ist. Die Relativität von Bewegung und Ruhe ist in diesem Schema undenkbar. Erst recht ist es der 217 neuzeitliche Gedanke einer unendlichen ungestörten geradlinigen Bewegung (seit Newton). Ebenso enthält die Theorie keine Aussage über Verfall und Auflösung bei Veränderungen, die doch auch natürliche Prozesse sind. Nicht Verfall und Tod, sondern Vollendung und reife Gestalt sind die ideellen und konzeptuellen Muster, unter denen Aristoteles die lebendige Natur betrachtet hat: eine schwere Hypothek bis in unsere Tage, wo man weithin noch immer fassungs- und gedankenlos vor diesen Phänomenen des Verfalls steht. Einzig und allein die Kreisbewegungen des Firmaments und aller Himmelskörper, die aus reinem Feuer bestehen und deshalb leuchten, sind bei Aristoteles ohne Anfang und Ende. Die Kreisbewegungen sind daher für Aristoteles vollkommene Bewegungen mit stets gleichbleibender „Energie“. Auf den Kreisen und Epizyklen der aristotelisch-ptolemäischen Astronomie läßt sich kein Anfangsoder Endpunkt ausmachen. Vielmehr sind diese Kreisbewegungen selbst die erste Ursache aller Bewegungen im „sublunarischen“ meteorologischen Bereich der Wettererscheinungen und auf der Erdoberfläche, wie z. B. von Flut und Ebbe. Die Kreisbewegung des Mondes um die Erde zieht die Wassermassen der Meere mit sich, bis sie an den erdhaften Küsten zurückprallen und zu ihren heimatlichen Örtern zurückkehren. So entstehen Flut und Ebbe an den Küsten. c. Die metaphysische Letztbegründung. Es dürfte klar sein, daß die Frage nach den letzten Ursachen nicht mehr im Bereich erklärender Forschung liegen kann, die von solchen Ursachen zur Erklärung des Einzelnen Gebrauch macht. Letzte Ursachen haben definitionsgemäß keine Ursachen, wenn es überhaupt letzte Ursachen gibt. Ihre Behandlung ist das Thema der Metaphysik bzw. Theologie) oder einer „ersten Philosophie”. Sie stellt die Frage, ob es in den vier Kausaldimensionen letzte Ursachen geben könnte, die für die von ihnen verursachten Substanzen „erste Gründe“ sein müßten, für den forschenden Wissenschaftler und die Wissenschaft insgesamt aber nur als „letzte Ursachen“ erkennbar sein könnten. Die aristotelische Metaphysik postuliert bekanntlich gemäß den vier Kausaldimensionen vier letzte Ursachen. Es muß einen „ersten Beweger” geben, der selbst unbewegt ist und bleibt, ebenso ein letztes Ziel, einen Endzweck der Welt, was Aristoteles (mit Platon) das höchste Gute nennt. Die Reihe der Formen als allgemeiner Begriffe kann nur durch einen allgemeinsten und höchsten Begriff abgeschlossen werden, den Aristoteles Sein (On ὄ) nennt. „Sein“ bezeichnet die allgemeinste Form ohne jede Beimischung von Materie und wird deshalb auch reine Energie (ἐέlat.actus purus) genannt. Diese drei ersten Ursachen sind das, was alle den „Gott“ nennen. Ebenso muß jedoch die Stufung der Materien mit einer letzten gänzlich formlosen Materie enden. Aristoteles nennt sie „prima materia“ (óὕoder auch „Nichts“ (bzw. Nicht-Sein ὴὄ).. d. Schließlich ist ein Blick auf die Wirkungsgeschichte des aristotelischen VierUrsachen-Schemas zu werfen. Die ersten drei Letztursachen haben der aristote- 218 lischen Theologie der Hochscholastik als metaphysische Argumente für den trinitarischen Gottesbegriff gedient. Die vierte Letztursache der reinen (formlosen) Materie (als Nichts) erlangte in der sogenannten negativen Theologie, dann aber auch bei allen Satans- und Teufelsvorstellungen eine bedeutende Nachwirkung. Die moderne Naturwissenschaft seit Galilei bleibt auch dann noch im Rahmen des aristotelischen Vier-Ursachen-Schemas, wenn sie Erklärungen aus Ziel- und Form-Ursachen ablehnt und die Natur ausschließlich aus Wirkursachen (causae efficientes) als Kräften im modernen Sinne und Materie (Masse) erklärt. Damit überließ sie die Form- und Ziel-Ursachen dem nicht-natürlichen Bereich der Wirklichkeit, der Kultur- und Geisteswelt, als Erklärungsprinzipien, dessen sich die modernen Geisteswissenschaften angenommen haben. Diese, konservativer als die Naturwissenschaften, verzichten zwar nicht darauf, ihre Gegenstände auch aus Materie und Wirkursachen zu erklären und sich so der naturwissenschaftlichen Erklärungsmuster zu bedienen, ihr Schwerpunkt liegt jedoch in der Erklärung aus Formen („Sinn“, Ideen, Begriffen, Gestalten) und Zielen bzw. Zwecken („Bedeutung“). Und dies grenzen sie methodologisch als „Verstehen” gegen das „kausale” Erklären der Naturwissenschaften ab. Will man also verstehen, was hier geschieht, so ist der Rückgriff auf das aristotelische VierUrsachen-Schema noch immer von großer Bedeutung. Es ist selbst eine Form, in welcher wissenschaftliche Tätigkeit, Forschung als Erklären und Verstehen, Gestalt gewonnen hat. Darauf ist später nochmals genauer einzugehen. 2. Die formale Logik als Instrument (Organon) der Wissenschaften Zu den bemerkenswertesten Leistungen des Aristoteles gehört die Begründung der formalen Logik als Lehre von Begriff, Urteil und Schluß und ihren Gesetzen bzw. Axiomen. Sie ist in den „ersten und zweiten Analytiken”, den „Kategorien”, der „Topik”, den „sophistischen Widerlegungen” und in der „Hermeneutik” niedergelegt, welche Schriftengruppe die Späteren zum „Organon” (= „Werkzeug”, Hilfsmittel der Wissenschaften, nicht selber Wissenschaft) zusammengestellt haben. In ihr gewinnt eine der Hauptmethodologien abendländischer Wissenschaft - neben der Mathematik - ihre erste, frühreife und bis heute verbindliche Gestalt. Da Aristoteles keine eigene Sprachphilosophie vorgelegt hat, wohl aber Platon schon (im Dialog „Kratylos“) viele einschlägige und nachwirkende Gedanken über die Sprache entwickelt hatte, kann man davon ausgehen, daß die aristotelische Logik zu einem gewissen Teil seine Sprachphilosophie enthält. In der Tat ist sie ein Unternehmen, dasjenige in der (griechischen) Sprache genauer zu untersuchen und aufzubereiten, was sich für die oben geschilderten beschreibenden und theoretisch-forschenden und erklärendenVerfahren der Wissenschaft eignet. Logisch relevant aus dem umfassenderen Sprachmaterial sind zunächst die der Beschreibung dienenden Wörter für Substanzen (Subjekte der Aussage) und für die akzidentellen näheren Bestimmungen (Satzaussagen, Prädikationen), wie es 219 die Kategorienlehre vorordnet. Sie werden zu logischen „Begriffen“ stilisiert und zugleich durch Buchstaben „formalisiert“. Dabei wird ausdrücklich vor sprachlichen Homonymien (dasselbe Wort für verschiedene Dinge) und Synonymien (verschiedene Wörter für dasselbe Ding) wie auch vor Paronymien (als Bedeutungsübertragungen von einem Ding auf ein anderes) gewarnt. Das sogenannte Identitätsprinzip der aristotelischen Logik fordert das Festhalten eines und desselben Begriffes in thematischen Argumentationen. Und zwar eben deswegen, weil wegen der sprachlichen Synonymien, Homonymien und Paronymien oft schwer festzustellen ist, um welchen Begriff hinter der sprachlichen Bezeichnung es sich handelt. Die beschreibenden „Begriffe“ sind, wie Aristoteles in der Hermeneutikschrift betont, psychische Abbilder von sinnlich beobachtbaren Gegenständen, die von allen Menschen in gleicher Weise vorgestellt bzw. erinnert werden. Nur ihre Laut- und Schriftdarstellung in den verschiedenen Sprachen sind verschieden.119 Offensichtlich entspringt aus dieser sprachlichen Verschiedenheit der Benennungen das Bemühen um die „Formalisierung“ dieser „begrifflichen“ Elemente, die insofern der Versuch einer Neutralisierung der Sprachverschiedenheiten ist. Während die logischen Begriffe etwas zu denken und vorzustellen geben, drücken sprachliche Sätze Verknüpfungen der „kategorialen“ Bestimmungen mittels sprachlicher Verknüpfungswörter aus. Auch hier wählt die Logik einen Teil von Sätzen aus den grammatisch unterscheidbaren Satzformen aus, nämlich solche, die einen Behauptungssinn enthalten und dadurch Wahrheit und/oder Falschheit zum Ausdruck bringen. Der logisch relevante Satz ist für Aristoteles der entweder wahre oder falsche Behauptungssatz. Befehle, Wünsche, Fragen, Vermutungen u. a. sind insofern nicht „wahrheits- bzw. falschheitsfähige“ grammatische Satzformen. Als logisch relevante Verknüpfungswörter in Behauptungssätzen benutzt Aristoteles „zukommen“ (tygchanein ά „ist“ (esti ἐísog. Kopula“nicht“ (ouk ὔegation in Verbindung mit dem „Zukommen“ oder der Kopula), „wenn ... dann“ (ei ... ἶ, in Verbindung mit den vorigen oder auch ohne diese Verbindung). „Und“ (kai í), „oder“ (eite ἶ) und gelegentlich das einfache „nicht“ (me μή) verknüpfen innerhalb eines Behauptungssatzes mehrere Subjekt- oder Prädikatbegriffe zu komplexen begrifflichen Ausdrücken, die als solche (wie auch die selbständigen Begriffe) keinen Wahrheits- bzw. Falschheitswert besitzen. Aristoteles hat diese Funktion der Ausdrucksbildung von „und“, „oder“ und der einfachen Verneinung nicht beachtet, was sich bis heute als Lücke in der Logik bemerkbar macht. Deswegen ist die Natur solcher Ausdrücke, zu denen etwa die negativen Begriffe und die durch mathematische Rechenarten verknüpften Aus- 119 Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 16 a. in: P. Gohlke, Aristoteles, Die Lehrschriften, hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 86. 220 drücke (Summe, Produkt, Differenz, Quotient) gehören, bisher unterbelichtet geblieben (vgl. dazu, was darüber in § 9, 4 gesagt wurde). Die später sogenannten Quantifikatoren „alle“ (tauta ύAllquantor, oder auch katholou óvom Ganzen gesagt), „einige“ (tines íPartikularisator, oder auch en merei ἐέauf einen Teil bezogen) und „ein“ (tis í Individualisator) werden von Aristoteles als Bedeutungsmodifikationen ausschließlich von Substanzbegriffen behandelt (erst die neuere Logik hat versucht, auch die „Prädikate“ zu quantifizieren). Daneben spricht er auch von „unbestimmten“ (ahoristoi ἀὁíBegriffen bzw. Ausdrücken, die also keine Quantifikation aufweisen. Auch hierbei hat Aristoteles übersehen, daß die Quantifikationen ihrer logischen Funktion nach komplexe Ausdrücke bilden, indem sie einen Begriff mit einem oder mehreren anderen Begriffen im Rahmen eines Begriffsumfanges verknüpfen. Diese Verkennung hatte gravierende Folgen für seine Schlußlehre, die sogenannte Syllogistik, die bei ihm in wesentlichen Teilen auf der Struktur dieser quantifizierten Ausdrucksverknüpfung beruht. Von allen diesen Verknüpfungswörtern, später Junktoren (in der mathematischen Logik auch Funktoren oder Operatoren) genannt, meint Aristoteles, daß sie erst in der Satzverbindung selbst und in Abhängigkeit von den kategorialen Begriffen eine eigene - logische - Bedeutung erhielten. Daher nennt er sie „Synkategoremata“ (ήlatconnotationes, „Mitbedeuter“). In der Tat hat er aber ihren gemeinsprachlichen Sinn in die Logik mitübernommen, ohne daß dies von ihm und späteren Logikern durchschaut wurde. Eine eigene Junktorenlehre hat Aristoteles nicht aufgestellt, und er hat die Junktoren auch nicht „formalisiert“ d. h. durch eigene logische Zeichen dargestellt. Aus den sprachlichen Satzverbindungen, den „Reden“, läßt Aristoteles als logisch relevant nur die behauptenden Aussagen zu, durch die sich Wahres oder Falsches darstellen läßt. Daneben behandelt er jedoch als Kernstück seiner Logik auch die aus mehreren behauptenden Sätzen bestehenden Argumente. In diesen stehen die einzelnen Urteile in einem solchen Verhältnis zueinander, daß aus einigen von ihnen („Prämissen“) ein einzelner Behauptungssatz hinsichtlich seiner Wahrheit oder Falschheit abgeleitet bzw. „bewiesen“ wird. Wichtig ist hier die thematische Einheit des Sinnzusammenhangs dieser Satzverbindung (die später von einigen Stoikern und von der modernen Logik aufgegeben wurde). Die argumentative und beweisende Rede wird in der Syllogistik auf gewisse Standardformen der Schlüsse gebracht. Es liegt auf der Hand, daß bei den Behauptungssätzen besonders die Wenn ... dann-Verknüpfungen und darüber hinaus alle Syllogismen das logische Instrumentarium für die Artikulation der theoretischen Erklärungen und der Ursachenforschungen darstellen sollen. Die Syllogismen gelten Aristoteles grundsätzlich als Beweisformen. Die aristotelische Logik greift aus dem Sprachmaterial diejenigen Elemente heraus, die sich für die Darstellung von Wahrheit und Falschheit eignen. Was diese sind, ist offensichtlich auch bei Aristoteles vom parmenideischen Denkan- 221 satz her vorgegeben. Wahrheit wird mit dem Denken des Seins und Falschheit mit dem Denken des Nichts identifiziert. Für Aristoteles ergibt sich Wahrheit, wenn über Seiendes behauptet wird, daß es ist, und über Nichtseiendes, daß es nicht ist. Und umgekehrt ergibt sich Falschheit, wenn über Seiendes behauptet wird, daß es nicht ist, und über Nichtseiendes, daß es ist. Diese etwas schlichte Bestimmung (aus der Hermeneutikschrift) wurde zur Grundlage des seither berühmten „aristotelisch-realistischen Wahrheitskonzeptes der Korrespondenz“ oder kurz zum „Korrespondenzprinzip der Wahrheit“. In der Scholastik wurde es als „Adäquationstheorie der Wahrheit“ formuliert. Man versteht dies so, daß im wahren Denken die Realität (der seienden Dinge und ihrer Verhältnisse) abgebildet werde. Das wahre Denkbild „entspreche bzw. korrespondiere“ dem Sein schlechthin („adaequatio rei et intellectus“ bei Thomas von Aquin). Dann muß das falsche Denken dem Nichts entsprechen, und falsche Behauptungen sind grundsätzlich Reden über Nichts, die das Nichts als ein Seiendes „erscheinen“ lassen. Das setzt nun allerdings voraus, daß man vor und unabhängig vom Behaupten jeweils schon weiß, was Sache ist und wie die Realität beschaffen ist, um das wahre Denkbild mit dem realen Vorbild vergleichen zu können. Wie derartiges möglich sein könnte, hat weder Aristoteles erörtert, noch ist es von den „realistischen“ Vertretern dieser Wahrheitskonzeption jemals befriedigend gezeigt worden. Eine Reaktion auf diese Lage war die Weiterentwicklung des „idealistischen“ platonischen Ansatzes zur sogenannten Kohärenztheorie der Wahrheit, in der alle Wahrheit auf den inneren Zusammenhang (Kohärenz) des Denkens selbst und alle Falschheit auf Inkohärenzen, gleichsam Brüche, im Denken zurückgeführt werden. Inkohärent war und bleibt es, die sogenannte objektive Realität bzw. Kants „Dinge an sich“ (in der 2. Auflage der Kritik der reinen Vernunft) realistisch als etwas ganz anderes (aber „wie anders“ konnte nie erklärt werden!) zu behandeln denn als sinnlich wahrgenommene und gedanklich verarbeitete Erfahrung. Und kohärent war und bleibt es, diese sinnlich erfaßte Erfahrungswelt und ihre gedankliche Vereinheitlichung im Idealismus auszuarbeiten (so in Berkeleys Esse = Percipi-Prinzip und in Kants Lehre vom „Ding an sich als Noumenon“ in der ersten Auflage der Kritik der reinen Vernunft). Als Schüler Platons hat auch Aristoteles diesen kohärentistischen Ansatz für die Ausgestaltung seiner Logik weiterverfolgt. Das zeigt sich darin, daß er sich bemühte, rein logisch-formale Kriterien für die Auszeichnung von Wahrheit und Falschheit aufzustellen - gewissermaßen ohne Hinblick auf die Realität. Er fand sie in dem, was man seither als die drei Grundprinzipien - „Axiome“ - der formalen Logik herausstellt: Identität, Widerspruch und Drittes. Auch auf sie stieß er sicherlich durch genaue Beobachtung der Sprachgebräuche und ihrer Folgen für wahre und falsche Überzeugungen: Man denkt nicht dasselbe (Identische), wenn man sich durch gleichlautende (homonyme) Wörter verführen läßt, Unterschiedliches als dasselbe zu denken. Und man soll sich auch nicht 222 durch verschiedene Benennungen desselben Sachverhaltes (Synonyme) verführen lassen, Identisches als Unterschiedliches zu denken. Man kann und soll auch nicht zugleich und in gleicher Hinsicht etwas bejahen und verneinen, denn eines von beidem muß wahr und deshalb das andere falsch sein, auch wenn man nicht weiß, welches von beidem jeweils wahr oder falsch ist. Bejaht und verneint man dennoch etwas bezüglich einer Substanz zugleich, so ergibt sich ein „Widerspruch“, und dieser ist die auffälligste Gestalt einer logischen Inkohärenz. Und wenn man von Beliebigem nur entweder etwas behaupten oder dasselbe verneinen kann, dann kann es daneben kein „Drittes“ (oder wie Spätere es auch nannten: ein Mittleres) mehr geben, jedenfalls nicht in demjenigen, was für Wahrheiten und Falschheiten in Frage kommt. Was es damit auf sich hat, wurde schon vorn in den Paragraphen 3 und 9 erörtert und bleibt auch im folgenden genauer zu betrachten. a. Die Begriffslehre. Begriffe sind - abgesehen von dem, was durch sie und mit ihnen gedacht und vorgestellt wird (nämlich erste Substanzen und ihre Eigenschaften, auf die die „formale“ Logik anzuwenden ist) – mehr oder weniger komplexe Denkformen, die wir schon als „zweite Substanzen“ kennengelernt haben. Aristoteles hat die Begriffe grundsätzlich als Einheiten behandelt und sie deshalb in seiner Formalisierung durch einfache Zeichen (griechische Buchstaben, die zugleich auch Zahlzeichen sind) dargestellt. Es liegt auf der Hand, daß er dadurch eine wesentliche Einsicht Platons für die Formalisierung ungenutzt läßt, nämlich gerade die Einsicht in die Zusammensetzung der Begriffe aus Merkmalen und Umfängen. Man kann hier schon darauf hinweisen, daß der große Aufwand, den er mit der formalen Syllogistik treibt, nur eine Kompensation dieses Defizits an Durchschaubarkeit der Komplexionsverhältnisse der in den Urteilen und Schlüssen verwendeten Begriffe ist. Diese wird durch eine formale Notation dieser „internen“ Begriffsstrukturen in Begriffspyramiden überflüssig. Wohl aber hat er von Platon gelernt und vorausgesetzt, daß die Merkmale von allgemeinen Begriffen voll und ganz (d. h. identisch) auch zu sogenannten generischen Merkmalen aller unter sie fallenden Art- und Unterartbegriffen werden, wobei bei den Art- und Unterartbegriffen zusätzliche Merkmale, die sogenannten spezifischen Differenzen, hinzutreten. Aber auch diese Einsicht hat er nicht für die Formalisierung genutzt, wohl aber für sein Definitionsschema der Begriffe. Durch die von den Allgemeinbegriffen zu den „spezielleren“ Begriffen zunehmende Komplexheit der Merkmale ergibt sich nun auch das, was man das Allgemeinheitsgefälle der Begriffe nennen kann. Je allgemeiner ein Begriff, desto weniger Merkmale weist er auf. Umgekehrt vergrößert sich sein Anwendungsbereich, der sogenannte Umfang. Diese umgekehrte Proportionalität von Merkmalen (Begriffsgehalt, Intensionen) und Umfängen (Anwendungsbereiche, Extensionen) der Begriffe wurde erst im 17. Jahrhundert (in der Logik von Port-Royal) klar herausgestellt. Aristoteles hat sie nicht durchschaut. Wohl aber hat er es für selbstverständlich gehalten, daß von einem Begriff nur die Rede sein kann, wenn 223 er überhaupt Merkmale, und mindestens ein Merkmal aufweist. Es blieb dagegen der modernen Logik vorbehalten, auch dann noch von Begriffen zu reden, wenn gar kein Merkmal vorhanden ist, was dann zur Entwicklung der sogenannten rein extensionalen Logik (Typ: „Klassenlogik“ und Mengenlehre) führte. Das Allgemeinheitsgefälle der Begriffe nach Gattung, Arten und Unterarten, das man sich nach dem Vorbild der platonischen Begriffspyramide im Dialog „Sophistes“ vorstellen kann, bestimmt nun auch, was man obere und untere Begriffe oder auch abstrakte und konkrete Begriffe nennt. Obere oder abstrakte Begriffe mit größtem Umfang (Kategorien genannt) werden durch das Hinzutreten weiterer Merkmale näher bestimmt, „konkretisiert” (von lat. congresci, zusammenwachsen, nämlich von Merkmalen). Damit werden untere Artbegriffe gebildet, deren Umfang gegenüber dem oberen Gattungsbegriff eingeschränkt ist. Die Hinzufügung von Merkmalen kann im Prinzip beliebig weit fortgesetzt werden, so daß die „konkretesten“ Begriffe „unendlich“ viele Merkmale besitzen können. Deren Umfang bezieht sich dann nur noch auf einen einzigen Anwendungsfall, und sie sind daher Begriffe für einzelne Dinge und werden durch deren Eigennamen bezeichnet. Die Scholastik brachte den Sachverhalt auf die Formel: „individuum est ineffabile” („Die einzelnen Dinge können nicht ausgesprochen werden“). Gemeint ist, daß sie nicht logisch analysiert werden könnten, weil sie „unendlich“ viele Merkmale besitzen. In der Tat werden sie ja gerade durch ihre Namen „ausgesprochen“). Wie es nun nach aristotelischer Begriffslehre keine merkmalslosen obersten Begriffe gibt, so auch keine umfangslosen untersten, die sich auf gar keinen Gegenstand beziehen würden. Derartige „leere Begriffe“ nimmt erst die moderne extensionale Logik in Betracht, um mathematischen Vorstellungen von der Null bzw. der „leeren Menge“ eine logische Grundlage zu geben. Bestehen nun die Begriffe in der geschilderten Weise aus der Vereinigung von Merkmalen und Umfängen, so lassen sich auch Methoden angeben, wie sie daraus gebildet werden. Aristoteles hat sich sehr darum bemüht, solche Methoden auszuarbeiten. Sie sind als „Analyse“ (Analysis ἀάdihairesis αἵ, lat.: resolutio) und „Synthese“ (Synthesis ύoder Epagogé ἐφ, lat.: inductio und constructio) bzw. als Induktion und Deduktion bekannt. Jedoch sind die später in der logischen Methodologie der Begriffsbildung so grundlegenden Verfahren der Analysis und der Synthesis bei der Begriffsbildung doppeldeutig, je nachdem, ob man damit Begriffe aus Merkmalen (Intensionen) oder aus Umfängen (Extensionen) bildet. Entsprechend werden auch die Verfahren der Induktion und Deduktion doppeldeutig. Synthetisiert man Umfänge spezieller Begriffe, so bildet man ihren gemeinsamen Oberbegriff (die Gattung). Dies nennt man üblicherweise Induktion des Allgemeinen aus dem Besonderen. Analysiert man den Umfang einer Gattung, so kommt man auf ihre Art- und Unterartbegriffe zurück, und das nennt man gewöhnlich Deduktion. Gerade umgekehrt verhält es sich aber bei der Merkmalssynthese und -analyse. Synthetisiert man die wenigen Merkmale allgemeiner 224 Begriffe zu merkmalsreichen „konkreten“ Begriffen, so bildet man „deduktiv“ spezielle Begriffe. Und analysiert man die Merkmale merkmalsreicher spezieller Begriffe, so kommt man „induktiv“ auf allgemeinere (merkmalsärmere) Begriffe. In dieser Doppeldeutigkeit von Synthesis und Analysis bzw. von Induktion und Deduktion scheint jedenfalls der Grund für die später notorische Dunkelheit und Problematizität dieser Verfahren zu liegen. Es wurde schon gesagt, daß Aristoteles die Begriffe durch Buchstaben (bzw. Zahlzeichen) „formalisierte“. Dadurch ergab sich zwangsläufig das Bedürfnis, bei der Verwendung solcher formaler Platzhalter bzw. „Variablen“ vorzuschlagen oder auch gelegentlich daran zu erinnern, für welche inhaltlichen Begriffe sie in einem bestimmten Kontext stehen sollen. Auch daraus machte er ein logisches Lehrstück, nämlich die Definitionslehre. Eine Definition (Horismos ὁólat. definitio, Abgrenzung oder Begrenzung) definierte Aristoteles als eine „erläuternde Rede über den Sinn einzelner Begriffe oder auch ganzer Reden“. Er vermied es offensichtlich mit Sorgfalt, von solchen Reden oder Definitionen anzugeben, ob er sie für behauptende Urteile (die wahr oder falsch sein müßten) oder für eine nicht wahrheits- bzw. falschheitsfähige Satzart hielt. Und diese Frage ist auch bis heute ein dunkler Punkt der ganzen Logik geblieben. Daß wir die Definitionen grundsätzlich für nichtbehauptend und somit nicht für wahrheitswertfähig halten, wurde schon in den Eingangsparagraphen, bes. § 9, dargetan. Ersichtlich ist der erste Zweck einer Definition die Einführung der formalen Variablen für inhaltliche Begriffe selber; z. B. für „Mensch“ stehe das Zeichen „A“, und daher auch umgekehrt die Erläuterung: „A“ steht für „Mensch“, so oft es in einem bestimmten logischen Zusammenhang vorkommt. Aber dieser grundlegende Zweck der Definition wurde und wird in der Logik bis heute wohl seiner Trivialität wegen übersehen. Der nächste Zweck, auf den auch Aristoteles insistiert, ist dann die Erläuterung, aus welchen sinnvollen Merkmalen (Intensionen) sich ein Begriff zusammensetzt. Und da er von Platon gelernt hatte, daß die Merkmale einer Gattung sämtlich zugleich auch als generische Merkmale in allen zur Gattung gehörenden Art- und Unterartbegriffen enthalten sind, und daß darüber hinaus jeder Begriff besondere zusätzliche „spezifische Merkmale“ aufweist, die ihn von sogenannten Nebenarten und auch von der Gattung unterscheiden, verwendete er diese Begriffseigentümlichkeit zu dem, was seither die Standard-Definition überhaupt geworden ist. Eine zünftige Begriffsdefinition besteht nach Aristoteles in der Angabe der nächsthöheren Gattung eines Begriffs nebst der Angabe der „spezifischen Differenz“. Hierzu sei nochmals betont, daß Aristoteles die interne Vernetzung der Merkmale und Umfänge in den Begriffen nicht durchschaute und deshalb in dieser Definitionenlehre davon ausging, ein Begriff werde durch die Angabe anderer (ganzer) Begriffe definiert. Er übersah, daß dabei nicht ganze Begriffe, sondern nur Merkmale (gelegentlich auch nur Umfänge) angeführt werden. Die 225 Logik ist ihm darin bis heute gefolgt, wenn sie etwa die „spezifischen Differenzen“ (oder das sog. „Proprium“, d. h. eine individuelle Eigentümlichkeit) als ganze Begriffe zu fassen sucht. Verdeutlichen wir dies durch einige Hinweise auf Voraussetzungen, die auch von erfahrenen Logikern leicht übersehen und vernachlässigt werden. 1. Die Angabe der „nächsthöheren Gattung“ besteht im Hinweis auf einen allgemeineren Begriff, unter den der zu definierende Begriff fällt. Das ist aber zugleich das Mittel, alle Merkmale sämtlicher über einem zu definierenden Begriff stehenden Allgemeinbegriffe mitanzugeben, da sie alle als „generische Merkmale“ in die Merkmale auch aller Unterbegriffe eingehen. Ließe man die „nächsthöhere“ Gattung aus und würde die über-nächsthöhere Gattung angeben, so würde man nur einen Teil der generischen Merkmale benennen können. Wer z. B. erläutern wollte: „Hunde, d. h. lebendige Geschöpfe“, der hätte nicht deutlich gemacht, daß Hunde zunächst Tiere - und nicht etwa Pflanzen - sind, wobei „Tiere“ ihrerseits als bestimmte lebendige Geschöpfe zu definieren wären. 2. Da man die generischen Merkmale in der Definition durch den zugehörigen Gattungsbegriff erläutert, hat man fast immer angenommen, auch die spezifischen Differenzen seien als eigenständige Begriffe anzuführen, und Begriffe seien insgesamt daher so etwas wie „Durchschnitte“ oder gemeinsame Knotenpunkte verschiedener sonst eigenständiger anderer Begriffe. In der Tat hätte Aristoteles auch schon von Platons Umgang mit Ideen lernen können, daß sich Merkmale bzw. spezifische Differenzen ganz ohne Umfänge handhaben lassen, wie er es in der Tat auch praktizierte, ohne sich davon Rechenschaft zu geben. Dies läßt die Frage nach den Umfängen solcher vermeintlicher „Begriffe“ von spezifischen Differenzen gar nicht erst aufkommen. Wichtig ist allerdings die Bemerkung, daß die Wortbezeichnungen der Begriffe in der Regel nur diese spezifische Differenz benennen bzw. von daher gebildet sind, während sie auf den nächsthöheren Gattungsbegriff keinen Bezug nehmen. Aus dem Wort „Tier“ selbst kann man nicht entnehmen, daß in dem dadurch Bezeichneten das Merkmal des Lebewesenhaften mitzudenken ist. Hat man allerdings einen Begriff vom „Tier“, so denkt man es immer schon mit. 3. Da nun Aristoteles die formgerechte Definition auf diesen Typ der Angabe der nächsthöheren Gattung nebst der spezifischen Differenz beschränkte, mußte er grundsätzlich die Definierbarkeit der Begriffe auf einen Begriffsbereich zwischen den höchsten Gattungen (Kategorien) und den untersten Arten (Eigennamen) beschränken. Oberste Gattungen haben naturgemäß keine Gattungen über sich, aus denen ihre Merkmale erläutert werden könnten. Und unterste Arten, die durch Eigennamen bezeichnet werden, haben unüberschaubar viele (wie der scholastische Satz behauptet: unendlich viele) Merkmale, die nicht alle erläuternd angeführt werden können. Dieser Sachverhalt wurde in der späteren Logik kanonisiert mit der Folge, daß man Kategorien und „Individuen“ grundsätzlich für undefinierbar hielt und ihre Behandlung aus der Logik weitgehend ausschloß. 226 4. Gleichwohl ist dies falsch, wie schon vorn in § 9 gezeigt wurde. Denn ersichtlich lassen sich die in einem Begriff implizierten Merkmale auch auf andere Weise angeben. Und erst recht kann man die Begriffe auch durch extensionale Erläuterungen sehr klar definieren. So lassen sich höchste Gattungen (Kategorien) sehr wohl durch Aufweis des gemeinsamen generischen Merkmals ihrer Arten (und zusätzlich durch die extensionale Festlegung ihres Umfangs) definieren. Ebenso kann man sich bei der Definition von untersten Artbegriffen (die für Individuen stehen sollen), auf die Angabe der „wesentlichen“ spezifischen Differenzen beschränken, wie es in der Praxis (und auch in Beispielen des Aristoteles) immer wieder geschieht. 5. Nicht definiert und auch nicht durchschaut hat Aristoteles diejenige Begriffsart, die wir vorn als heraklitischen Logos bzw. als kontradiktorischen Begriff (contradictio in adiecto bzw. contradictio in terminis) erwähnt haben, und die Aristoteles in seiner Modallogik faktisch verwendet. Es handelt sich hierbei um einen Begriff, der zusätzlich zu einer spezifischen Differenz auch deren Negation als Merkmal enthält, welches seinerseits als „positive“ spezifische Differenz eine dihäretische Nebenart unter derselben Gattung defniert. Was z. B. mit „Raucher“ und mit „Nicht-Raucher“ gemeint ist, dürfte bekannt und verständlich sein. Der „nichtrauchende Raucher“ ist dann ein widersprüchlicher Begriff. Damit meint man Personen, die man jetzt häufig in öffentlichen Räumen antrifft, wo den Rauchern das Rauchen verboten ist. Er besagt aber (wegen der Symmetrie der Negationen) nichts anderes als „rauchender Nichtraucher“. Und erst in dieser Formulierung „spürt“ man die Widersprüchlichkeit dieses Begriffs. Gleichwohl ergab sich aus diesem widersprüchlichen Begriff die Hauptbegründung für die neue Anti-Rauchergesetzgebung. Gemeint war nämlich derjenige Nichtraucher, der in verrauchten Kneipen zum Mitrauchen gezwungen wurde. Wir erwähnen das Beispiel, um darauf aufmerksam zu machen, daß widersprüchliche Begriffe keineswegs „unsinnig“, „sinn- und bedeutungslos“ und Ausdruck des „Absurden“ sein können, wie man gewöhnlich voraussetzt. Ersichtlich ist Aristoteles„ Begriff der „Möglichkeit“ auf diese Weise aus den spezifischen Differenzen „seiend“ und „nichtseiend“ und einem von ihm für nicht angebbar gehaltenen generischen Gattungsmerkmal einer gemeinsamen Gattung über dem Seienden und dem Nichtseienden konstruiert. Da er dies selbst nicht durchschaute, hat er den Begriff der „Möglichkeit“ (als Prototyp aller späteren Begriffe von Kraft, Anlage, Disposition, Vermögen) als dritte höchste Gattung neben „Sein“ und „Nichtsein“ behandelt, worin ihm die meisten Logiker bis heute gefolgt sind (vgl. dazu § 10 über den Möglichkeitsbegriff). b. Die logischen Grundsätze (Axiome). Wie bei den später anzuführenden Wissenschaften i. e. S. hat sich Aristoteles bemüht, auch für die Logik Grundsätze zu entwickeln, die beim Argumentieren zu beachten sind. Er nennt sie Axiome, was man seither mit „Grundsätzen“ übersetzt. Zu seiner Zeit war „Axioma“ 227 (ἀíWertvolles, Wichtiges) aber auch gleichbedeutend mit „Arché“, wonach in aller Forschung als „Grund“, „Ursache“ oder „Prinzip“ gesucht wurde. Solche Gründe oder Bedingungen wurden aber in der Regel nicht als Sätze formuliert, sondern als Begriffe. Und so ist es auch bis heute eine offene Frage, ob seine logischen Grundsätze nur logische Kategorien, also Grundbegriffe der Logik, oder allgemeinste Sätze der Logik sind. Im letzteren Falle ist umstritten, ob es sich um behauptende Grundurteile, um Definitionen oder um nichtbehauptende Sätze, z. B. Imperative, Normen oder Regeln für Handlungsvollzüge handelt. Je nach dem, was man hier annahm, ergaben sich später recht verschiedene Logikkonzepte. Die übliche Darstellung als 1. Satz (oder Prinzip) der Identität, 2. Satz (Prinzip) vom zu vermeidenden Widerspruch, und 3. Satz (Prinzip) vom ausgeschlossenen Dritten läßt nicht erkennen, ob es sich um Urteile über die Begriffe Identität, Widerspruch und Drittes (wobei Identität ein Erstes, Widerspruch ein Zweites wäre) handelt oder um Definitionen derselben. Das „zu vermeiden“ bzw. „ausgeschlossen“ beim Widerspruch und beim Dritten klingt eher nach normativen Festsetzungen. Aristoteles äußert sich an verschiedenen Stellen im Organon und in der Metaphysik über diese Axiome - allerdings ohne sie zu numerieren. Er läßt dabei erkennen, daß er das Axiom über den Widerspruch für das „stärkste“ und wichtigste im argumentativen Gebrauch hielt. Er nennt es geradezu die „Arché auch der anderen Axiome“. Die logischen Axiome haben sämtlich einen Bezug zur Frage der Wahrheit und Falschheit, wie aus dem Kontext der Formulierungen bei Aristoteles hervorgeht. Und daß er mittels der Axiome über Wahrheit und Falschheit redet, läßt wiederum erkennen, daß er die Logik insgesamt für ein Instrument der Prüfung von Wahrheit und Falschheit, ihrer argumentativen Herstellung und zugleich auch ihrer Dissimulierung hielt. Die herrschende Meinung in der Logik geht seither davon aus: Hielte man sich strikt an die Beachtung der Identität, vermeide Widersprüche und lasse ein Drittes (was als etwas, das nicht auf Wahrheit oder Falschheit festzulegen sei, interpretiert wird) nicht zu, so könne man nicht irren noch täuschen und befinde sich auf dem sicheren Weg der Wahrheit. Dissimuliere man aber die Identität, führe Widersprüche offen oder versteckt ein und lasse das Dritte zu, so irre man sich, täusche sich und andere und gehe den Weg der Falschheit oder des „sophistischen“ Betrugs. Kurzum, diese drei Axiome begründen nach allgemeiner Auffassung die sog. zweiwertige Logik von Wahrheit und Falschheit und ihrer genauen Unterscheidung. Und da Aristoteles das Axiom vom (zu vermeidenden) Widerspruch erklärtermaßen für das stärkste Prinzip hielt, geht man sehr allgemein auch davon aus, daß jede Argumentation, in der sich ein Widerspruch aufdecken läßt, allein dadurch insgesamt falsch sein müßte. Aristoteles ging auch davon aus, daß Wahrheit und Falschheit sich ausschließlich in behauptenden Urteilen zur Geltung brächten, weshalb man diese Axiome in der Hauptsache nur auf seine Urteilslehre bezog. 228 Dazu ist nun kritisch einiges zu sagen. Hierbei sei auf das schon vorn im § 9 Ausgeführte hingewiesen. Nimmt man die drei Axiome als oberste Grundsätze im Sinne behauptender Urteile über Wahrheit und Falschheit, so müßten sie formuliert werden: a. Alles Identische ist wahr; b. alles Widersprüchliche ist falsch; c. alles Dritte ist weder wahr noch falsch (und gehört daher nicht zur Logik). 1. Das ist Grundlage für eine herrschende Tendenz der ganzen Logikgeschichte geworden Auf a gründet sich die Meinung, es gäbe überhaupt nur eine Wahrheit (vgl. z. B. bei G. Frege), und alles genuin Logische sei tautologisch (vgl. z. B. L. Wittgensteins „Tractatus logico-philosophicus“). Auf b beruft sich die entsprechende Meinung von der Falschheit. Daß es nämlich nur eine einzige und einheitliche logische Falschheit gebe, die sich ausschließlich im Widerspruch manifestiere. Dies begründet wiederum die Unterscheidung von formaler Logik im Gegensatz zu inhaltlicher Argumentation, da man inhaltliche (und nicht-widersprüchliche) Falschheiten (Lügen, Irrtümer, falsche Sätze) überhaupt nicht logisch kennzeichnen könne. Auf c wird einerseits der Ausschluß der fiktiven Literatur (Dichtung, oft auch der „metaphysischen Erörterungen“) aus der logischen Behandlung begründet. Andererseits aber auch die Erweiterung der klassisch-aristotelischen Logik um eine „dreiwertige“ Logik, in welcher nun das Dritte gerade zugelassen wird. Dreiwertige Logiken sind - wozu freilich Aristoteles schon Ansätze geliefert hat - spezielle Modallogiken, insbesondere die sog. Wahrscheinlichkeitslogik. Nun ist es allerdings die Frage, wie solche Axiome das leisten könnten, was man von ihnen verlangt: Wenn jede Wahrheit mit sich selbst identisch sein soll, (mit Leibniz und Frege wird auch behauptet, alle logischen Wahrheiten seien untereinander identisch), so müßte das auch von der Falschheit gelten. Daß der Widerspruch als solcher falsch wäre, hat nicht einmal Aristoteles behauptet. Er behauptete nur, die in einem widersprüchlichen Satz verknüpften gegenteiligen Behauptungen könnten weder zugleich und in gleicher Hinsicht wahr noch auch zugleich und in gleicher Hinsicht falsch sein! Er sagt an einer Stelle sogar ausdrücklich: „Notwendig muß das eine Glied des Widerspruches wahr sein. Ferner: wenn man notwendig jedes bejahen oder verneinen muß, so kann unmöglich beides falsch sein; denn nur das eine Glied des Widerspruchs ist falsch“.120 Was das sog. Dritte betrifft, so kann man darunter - wie oben erwähnt - dasjenige verstehen, was weder wahr noch falsch ist. Man kann und sollte aber darunter gerade auch dasjenige verstehen, was zugleich wahr und falsch ist. Dann aber ist das Dritte selbst der Widerspruch. So gesehen, ist das Dritte eigentlich das Zweite und es gibt daneben kein besonderes Drittes. Nimmt man das ernst, so müssen sich die sog. dreiwertigen Logiken sämtlich als Logikkonzepte mit Zulassung des Widerspruchs (als vermeintlichem Dritten) erweisen lassen. Und das 120 Aristoteles, Metaphysik IV. Buch 8, 1012b 10-13. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 90. Vgl. dazu auch J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg i. Br.-München 1956, S. 73. 229 bedeutet nichts anderes, als daß solche dreiwertigen Logiken ausgearbeitete Dialektiken sein müssen (vgl. dazu das schon in § 9 Gesagte). 2. Nimmt man die Axiome als Grundbegriffe, so sind sie für die Logik höchste Gattungen (Kategorien). Man versteht dann zwar, daß sie nach Aristoteles‟ eigener Begriffslehre nicht definiert werden können, aber dies haben wir schon als falsch bezeichnet. In der Tat hat er sich auch nicht um solche Definitionen bemüht, und die Logiker sind ihm im allgemeinen darin gefolgt. Was er selber darüber sagt, läßt sich gleichwohl zu klaren Definitionen benutzen, aber man wird dabei über seine Andeutungen konstruktiv hinausgehen müssen. Die Identität (Toiautes ύSelbigkeit) bezog er nur auf die Begriffe: sie sollten in aller Kontextverwendung dieselben bleiben und nicht unter der Hand (etwa als Homonyme) unter demselben Wort oder Zeichen verschiedene Bedeutungen besitzen. Da er aber die Begriffe als Einheiten ansah, bemerkte er nicht, daß sich im Gattungs-Art-Unterart-Gefälle die Merkmale der jeweils oberen Gattungbegriffe in den zugehörigen Arten und Unterarten in der Tat identisch in allen unteren Begriffen gerade unter und hinter den verschiedenen Begriffsbezeichnungen durchhalten. Bemerkt hat er aber, wie sich in seiner Standarddefinition zeigt, daß alle Merkmale einer Gattung als „generische“ Merkmale in den Merkmalsbestand eines definierten Artbegriffs eingehen. Die Identität läßt sich in der Logik also gerade nicht auf ganze Begriffe beziehen, sondern nur auf dieselben Merkmale in verschiedenen Begriffen. Und dies ist eine wesentliche Bedingung dafür, daß das Spiel der Logik funktioniert. Wir können also definieren: logische Identität, d. h. der gemeinsame Merkmalsbestand von Ober- und Unterbegriffen im Allgemeinheitsgefälle der Begriffe. Was den Widerspruch (Antiphasis ἀí) betrifft, so sollte man sich daran erinnern, daß er zunächst einmal eine „Einrede“ oder Bestreitung eines Arguments bedeutet, also dessen Negierung (oder wenn das Argument selbst ein negatives war, so dessen positive Behauptung, wie schon im griechischen und auch noch heutigen Gerichtsgebrauch). Ist das Bestrittene falsch, so kann das nur durch die Wahrheit der Einrede bewiesen werden. Aber es kann auch umgekehrt ausfallen (was das Gericht zu entscheiden hat). Auf keinen Fall wird man davon ausgehen, daß der „Widerspruch“ im Sinne einer „Einrede“ von vornherein falsch ist, wohl aber davon, daß eines von beidem, entweder das Bestrittene oder die Einrede, wahr und dann das andere falsch sein muß. Von dieser Sachlage ist auch Aristoteles ausgegangen, wie seine Beispiele zeigen, die fast wie Mahnungen an die Richter klingen, niemals Anklage und (bestreitende) Verteidigung gleichzeitig für wahr oder gleichzeitig für falsch zu halten. Was diesen - auch heute noch vorhandenen - juristischen Widerspruchsbegriff vom logischen unterscheidet, ist nun dies, daß Aristoteles beide wohlunterscheidbaren und selbständigen Argumente einer Rede und einer Gegenrede in ein einheitliches Satzgebilde zusammenfaßte und dieses als ganzes „Widerspruch“ nannte. Als einheitliches Satzgebilde ordnete er ein solches - komplexes - Urteil aber in die Klasse der „adjunktiven“ (durch „und“ verbundenen) Urteile ein, von 230 denen er annahm (s. u.), daß sie falsch seien, sofern mindestens ein Bestandteil falsch sei. Der Widerspruch im Urteil ist daher im aristotelischen Sinne ein Spezialfall eines falschen konjunktiven Urteils, und so wurde er seither in der Logik auch behandelt und immer als formale Gestalt eines falschen Behauptungssatzes eingeschätzt. Diese Einschätzung ist aber selbst - als eine offensichtliche Petitio principii - die Folge der aristotelischen Voraussetzung, daß Behauptungssätze nur entweder wahr oder falsch sein könnten, und daß ein „Drittes“ in der Logik nicht zugelassen sei. Ohne diese Voraussetzung würde man derartige Behauptungen mit dem Volksmund schlicht „Halbwahrheiten“ oder auch „Halbfalschheiten“ nennen. Man hat sicher auch ein entsprechendes Bewußtsein davon, daß es eine „logische Zumutung“ darstellt, gemäß dieser Zweiwertigkeitsvoraussetzung den offensichtlichen wahren Teilgehalt solcher Und-Sätze und Widersprüche einfach zu unterdrücken, wegzuleugnen und das Ganze für falsch zu erklären. Die Sache wird auch nicht besser durch den Hinweis auf (neuere) Meta-Theorien der Semantik, die zwischen einer „objektiven Bedeutung“ (1. Semantische Stufe) eines Prädikats und einer „Meta-Bedeutung“ (2. semantische Stufe) eines aus zwei „objektiven Bedeutungen“ mittels Junktoren zusammengesetzten Prädikates unterscheiden und den eigentlichen Sinn eines solchen komplexen Urteils dann nur an der Behauptung der Meta-Bedeutung festmacht. Denn offensichtlich ist auch diese Meta-Bedeutung nur zu verstehen und zu denken, wenn die „objektive Bedeutung“ ihrer Bestandteile (der 1. semantischen Stufe) ebenfalls verstanden und gedacht wird. Und das erfüllt genau den Tatbestand, daß man sowohl die Wahrheit wie auch die Falschheit zugleich und in gleicher Hinsicht denken muß, also genau das von Aristoteles ausgeschlossene „Dritte“ vorstellt. Natürlich gilt das alles - spiegelbildlich - auch von einer Oder-Verbindung von Prädikatsbestandteilen mit einem Subjekt, die unter denselben Voraussetzungen immer für wahr gehalten werden, wenn einer der Bestandteile wahr, und der andere falsch ist. Darauf wurde schon in § 9 bei der Urteilslehre kritisch eingegangen. Definieren wir nun den Widerspruch im Sinne des Aristoteles, so müssen wir formulieren: Widerspruch, d. h. ein Urteil mit einem Prädikatsausdruck, der aus einem Prädikatsbegriff und seiner Negation in Und-Verknüpfung besteht, und das zugleich wahr und falsch ist. Da dieser Sachverhalt eindeutig ist, aber selber nur in widersprüchlicher Weise definiert werden kann, versteht man, warum so viele Logiker dem ausweichen möchten und den Widerspruch lieber als konventionelle logische Norm formulieren: Man soll ein (wie beschrieben komponiertes) Urteil, das zugleich wahr und falsch ist, als falsches Urteil behandeln! Wir entgehen allen diesen Schwierigkeiten, wenn wir uns erinnern, daß der Widerspruch keineswegs nur an Urteilen mit Wahrheits- oder Falschheitsanspruch auftritt, sondern auch an Begriffen. Aristoteles selbst hat dies wegen seiner Annahme, Begriffe seien Einheiten, nicht bemerkt, wohl aber widersprüchliche 231 Begriffe verwendet und sogar formuliert. Aber heute gehören die „contradictiones in adiecto bzw. in terminis“ zum festen Bestand logischer Elemente. Niemand wird Begriffe als solche für wahr oder falsch halten, also auch nicht widersprüchliche. Will man aber die Widersprüchlichkeit so allgemein definieren, daß sie auch für Begriffe paßt, so muß man die Wahrheits- bzw. Falschheitsrelevanz dabei ganz aus dem Spiel lassen und zusehen, was sich daraus für die Urteile ergibt. Wir können allgemein definieren: Widerspruch. d. h. logisches Element, in welchem im bestimmten Negationsverhältnis zueinander stehende Begriffsmerkmale zu einem Begriff oder entsprechende Prädikationsbestandteile mit einem Subjektsbegriff zu einem Urteil verknüpft werden. Über das Dritte bräuchte eigentlich nichts mehr gesagt zu werden, wenn es mit dem Widerspruch identifiziert bzw. gleichgesetzt wird. Identität und Widerspruch beschreiben gewissermaßen binnenlogische Verhältnisse. Das Dritte könnte dann allenfalls auf die ausdrückliche Abgrenzung der Logik von allem, was nicht der logischen Betrachtung zugänglich ist, bezogen werden. Der Spielraum dafür ist weiter, als man gewöhnlich denkt. Wenn die Logik sich auf die Analyse von Wahrheit und Falschheit bezieht, so würde ersichtlich das, was immer und nur wahr wäre und niemals falsch sein kann, nicht zur Logik gehören. Und unterdrücken wir nicht die Feststellung, daß die meisten Logiker es so mit den logischen Axiomen selbst gehalten haben, von denen sie seither annehmen, sie seien immer wahr (und nach Kant „apriori“, was dasselbe bedeuten soll), so daß sie weder logisch analysiert noch auch nur logisch diskutiert werden könnten. Ebenso würde das Immer-Falsche aus der Logik auszuscheiden haben. Und das würde erklären, warum man „lauter Lügen“ und einem Lügengeflecht nicht allein auf logische Weise beikommen kann. Auch ein so scharfsinniger Denker wie Descartes hielt den „allmächtigen Lügengeist“ für ein Argument, das logisch nicht zu hinterfragen sei. Im platonischen Sinne würden auch alle Dichtung und fiktive Literatur (als Lügengeflecht) aus der Logik herausfallen, wenn sie nicht - wie Aristoteles gelegentlich von der Dichtung sagte - als „höhere“ (und exemplarische) Wahrheit schon herausgefallen wäre. Aber dies Verdikt träfe die Dichtung natürlich auch, wenn sie weder wahr noch falsch sein wollte oder sollte. Der interessante Fall ist daher nur derjenige, der wiederum „wahr und falsch zugleich“ ist, der ja in widersprüchlichen Urteilen realisiert ist, wie gezeigt wurde. Nun behauptet Aristoteles an einer Stelle in der Hermeneutikschrift (9, 19 a 39 - b 4), es sei klar, „daß es keineswegs notwendig ist, daß von den Gliedern eines Widerspruchs gerade das eine wahr, das andere falsch sein müsse. Denn es verhält sich bei dem, was schon ist, nicht ebenso, wie bei dem, was noch nicht ist“.121 Aristoteles begründet das damit, daß sonst alles „kausal“ determiniert sein müsse. Z. B. müsse jetzt und heute schon feststehen, ob morgen eine Seeschlacht bei Salamis stattfinden werde oder nicht. Diese „prognostische“ Determiniertheit 121 Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 19 b. In: P. Gohlke, Aristoteles, Die Lehrschriften, hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 99. 232 lehnt Aristoteles ab, während die Stoiker im Anschluß an die Logikerschule von Megara und insbesondere Diodoros Kronos - und in gewissen Grenzen auch heutige Wissenschaft - sie behaupten. Es handelt sich in diesen Fällen um „Möglichkeiten“, und insbesondere in der Zukunft liegende (scholastisch „possibilia futura“ benannt). Man hat in dieser Behauptung des Aristoteles eine beschränkte Zulassung des sonst ausgeschlossenen Dritten gesehen und darauf seine Begründung einer über die grundsätzlich von ihm vertretene zweiwertige Logik hinausgehende dreiwertige Logik gestützt. Genau besehen handelt es sich aber um ein weiteres Argument des Aristoteles dafür, alle Aussagen über Möglichkeiten und insbesondere die Prognosen über Zukünftiges aus der logischen Behandlung auszuschließen, da sie nicht auf Wahrheit oder Falschheit hin entschieden werden könnten. Solche Aussagen, das hat er sicher klar gesehen, sind zwar strukturell logische Widersprüche, aber in ihnen, so meinte er gleichwohl, könnten beide Teilaussagen zugleich wahr oder auch zugleich falsch sein (eine These, die Kant für die Behandlung der „Antinomien der reinen Vernunft“ übernommen hat, und die in der modernen „Paralogik“ wieder aufgenommen wurde). Betonen wir, daß Aristoteles offenbar genau gesehen hat, daß dieses „Dritte“ auch die Struktur des Widerspruches hat. Nur meint er, daß es nicht dessen Wahrheits- und Falschheitsbedingungen unterliege. Das ist nachmals nicht festgehalten worden. Vielmehr bildeten sich gegenläufige logische Traditionen des Umgang mit diesem „Dritten“ aus. Die einen hielten sich daran, daß das „Dritte“ immer falsch sei, nannten eine es verwendende Logik „Dialektik“ und verstärkten dadurch auch die Überzeugung derjenigen, die den Widerspruch überhaupt für „immer falsch“ hielten. Sie versuchten seither, die Dialektik aus der Logik als eine „Un-Logik“ auszuscheiden. Andere hielten sich daran, daß das Reden über „Möglichkeiten“ und insbesondere eine Prognose „immer wahr“ sei (falsch nur dann, wenn sie nicht logisch zünftig aus den wahren Prämissen abgeleitet wäre und somit gar keine echte Prognose sei). Noch Kants Konzeption von den „Möglichkeiten a priori“ zeugt von dieser Einstellung, und alle Transzendentalphilosophie setzt seither noch deren „apriorische Wahrheit“ voraus. Daß es sich bei den Möglichkeitsbegriffen und den „modalen“ Möglichkeitsurteilen (Wahrscheinlichkeitsurteilen, statistischen Prognosen) um echte Widersprüche handelt, das wurde im Lauf der Zeit vergessen und verdient es heute umso mehr, wieder in Erinnerung gebracht zu werden, um so manche Ungereimtheit in den logischen Grundlagentheorien, insbesondere den Wahrscheinlichkeitstheorien, aufzudecken (vgl. dazu das in § 10 und § 11 Gesagte). c. Die Urteilslehre. Ein Urteil (behauptender Satz, Aussage, Protasis ó Logos apophantikosóἀó) ist nach Aristoteles die Verbindung von Begriffen mittels bestimmter Verbindungswörter (in der neueren Logik Junktoren bzw. Funktoren genannt). 233 Die Hauptverbindung stellen die Kopula „ist” (oder die Negation „ist nicht” im Verhältnis eines Subjekts- zum Prädikatsbegriff) und das von Aristoteles bevorzugt verwendete „kommt zu“ (tygchanei ά, nämlich ein Prädikatsbegriff kommt einem Subjektsbegriff zu) oder „kommt nicht zu“, her. Diese Art der Begriffsverbindung macht diese im Unterschied und Gegensatz zu den Merkmalsverknüpfungen in Begriffen selber „wahrheits- bzw. falschheitsfähig”. Da alle Wissenschaft darin besteht, wahre Urteile zu fällen und falsche Urteile auszuscheiden, ist die Urteilslehre gleichsam das Zentrum wissenschaftlicher Methodologie. Wahrheit von Urteilen besteht für Aristoteles darin, daß in ihnen bejaht wird, was ist (der Fall ist, Sein hat) oder verneint wird, was nicht ist. Ersichtlich folgt er gerade in der Urteilslehre dem parmenideischen Forschungsprogramm: den Weg der Wahrheit und des Seins zu bahnen, und den Weg der Täuschung und des Nichts kenntlich zu machen und zu vermeiden. Um wahre oder falsche Behauptungen aufstellen zu können, muß man nach Aristoteles wissen, was in der Wirklichkeit der Fall ist. Die Wirklichkeit wird, wie oben schon gesagt, durch wahre Sätze „abgebildet“. Falsche Sätze aber stellen Nichtwirkliches im Bilde des Wirklichen (täuschend, d. h. Abbilder vertauschend) dar. Die Begriffe bilden selbst schon Substanzen und ihre Eigenschaften und Verhältnisse ab, ohne daß damit eine Wahrheits- oder Falschheitsbehauptung verbunden wäre. Diese kommt erst durch die verknüpfenden (satzbildenden) Junktoren zustande. Wie dies geschieht, ist sowohl für Aristoteles wie für die meisten Logiker seither rätselhaft oder gar ein mystisch zu nennendes Geschehen geblieben. Denn die Junktoren sollen, wie Aristoteles ja meint, selber keine eigene Bedeutung haben, vielmehr eine solche erst im Behauptungssatz erhalten. Es dürfte dieses Mysterium der Junktoren gewesen sein, das moderne Logiker wie Frege und Wittgenstein dazu geführt hat, sogar auch den Begriffen selbst jede Bedeutung abzusprechen und zu behaupten, sie erhielten auch ihrerseits erst eine Bedeutung durch den Satz, in dem sie vorkommen. Daß das blanker Unsinn ist und die Logik mit schwersten Irrtumshypotheken belastet hat, dürfte auf der Hand liegen. Wir sagten schon, Sinn und Bedeutung der Junktoren hat Aristoteles aus dem sprachlichen Sinn dieser Sprachpartikel mit in die Logik übernommen. Nur hat er nicht erkannt, worauf sie sich in den logischen Verhältnissen tatsächlich beziehen. Und dies hängt wiederum mit seiner Behandlung der Begriffe als Einheiten und der Verkennung ihres regulären Aufbaus aus Merkmalen und Umfängen zusammen. Die Junktoren bedeuten in der Logik nichts anderes als die Verhältnisse, die zwischen Merkmalen und Umfängen der Begriffe in Behauptungssätzen bestehen, so wie sie mutatis mutandis auch die Verhältnisse zwischen sonstigen sprachlich ausgedrückten Verhältnissen bedeuten. Aber diese Verhältnisse lassen sich in der von Aristoteles erfundenen Formalisierung der logischen Verhältnisse nicht darstellen (wohl aber in der eingangs vorgestellten pyramidalen logischen Notation, in der sich zeigt, daß auch unter den Junktoren einige Synonymien und Homonymien bestehen). 234 Nicht einmal der Hauptunterschied zwischen einfachen wahren und falschen Urteilen läßt sich in der von Aristoteles eingeführten und seither grundsätzlich in Geltung gebliebenen formalen Notation darstellen: „A ist B“ (oder aussagenlogisch: „p“ für ein positives Urteil) stellt nicht dar, ob damit ein wahrer oder falscher Satz gemeint ist, ebenso wenig wie „A ist nicht B“ (oder: „ - p“ für ein negatives Urteil). Gleichwohl ist es das Bemühen und später der Wunschtraum aller Logiker gewesen, durch die formale Notation selber mitauszudrücken, ob damit dargestellte Urteile wahr oder falsch sind (auch dies leistet erst die pyramidale Notation). Man muß es in einfachen bejahenden und verneinenden Urteilen zum Formalismus hinzusagen, ob mit solchen Formeln ein wahrer oder ein falscher Behauptungssatz gemeint sei. Dem Bemühen um die formale Notation wahrer bzw. falscher Sätze verdankt sich aber offenbar der große Aufwand, den Aristoteles darauf verwendet hat, wenigstens einige solcher logischen Figuren zu entdecken, die ohne Hinsicht auf die Wirklichkeit und ein Wissen um diese aus „formalen logischen Gründen“ Wahrheit und Falschheit des notierten Urteils darstellen können. Im Zentrum steht bei ihm und blieb seither die Figur des widersprüchlichen Urteils, das die ganze spätere Logik für die formale Gestalt des falschen Urteils ausgab. Wir haben eingangs schon über die Problematik dieser Festlegung gehandelt. Sie besteht darin, daß der Urteilswiderspruch durch positive und negative Formulierung eines allgemeinen Urteils immer Wahrheit und Falschheit der Teilsätze zugleich notiert. Man kann jedoch dieser Formalisierung nicht entnehmen, welcher Teilsatz der wahre und welcher der falsche ist, es sei denn, man wisse schon vor der Formalisierung eines inhaltlichen Urteils um die wirklichen Verhältnisse, die logisch formal dargestellt werden sollen. Nicht zuletzt ist auch in Betracht zu nehmen, daß Aristoteles für die modalen Möglichkeitsurteile diese Funktion der Wahrheits-Falschheitsdarstellung des Widerspruchs außer Kraft gesetzt hat, da das Zukünftige eben nicht wirklich ist. Daß das widersprüchliche Urteil in der ganzen Logikgeschichte als formale Gestalt eines falschen Urteils behandelt wird, also die These von der „Falschheit des Widerspruchs“, kann man bei dieser Sachlage nur als ein logisches Dogma bezeichnen. Es hat als nächste und verheerende Folge, daß bei logischer Kritik auf Widersprüchlichkeit von Argumentationen in der Regel auch der wahre Teilbestand solcher Argumentationen als „falsch“ angesehen wird. Die eigentliche Bedeutung der aristotelischen Urteilslehre, wie sie vor allem in der Hermeneutikschrift des Organons entwickelt wird, liegt nun keineswegs darin, überhaupt die logischen Urteilsformen formalisierend darzustellen und zu klassifizieren, wie es später zum Hauptgegenstand der Urteilslehre wurde. Vielmehr besteht sie darin, in einer sprachphilosophisch zu nennenden Weise sprachliche Satzformen auf ihren Behauptungscharakter, der sie ja erst wahrheits- und falschheitsfähig machen kann, zu überprüfen und sie von den nichtbehauptenden Satzformen abzugrenzen. 235 Die Methode besteht darin, an inhaltlich-sprachlichen Beispielsätzen, die man leicht als wahr oder als falsch anerkennen konnte, herauszuarbeiten, mit welchen Junktoren sie gebildet wurden. Die interessanten Fälle waren natürlich diejenigen, bei denen sich der „Wahrheitswert“ änderte, d. h. die Wahrheit in Falschheit und umgekehrt vertauschte, wenn man dieselben Subjekt- und Prädikatsbegriffe durch jeweils verschiedene Junktoren verknüpfte. 1. Die erste Einsicht war hier die Herausarbeitung der Rolle der Verneinung bzw. Negation, die jedes allgemeine wahre Urteil in ein falsches verwandelt und umgekehrt. Sie gab später Anlaß, die logischen Urteile unter der „Qualitätskategorie“ in bejahende und verneinende (positive und negative) einzuteilen. 2. Die Entdeckung der Quantifikation der Urteile (alle..., einige..., ein..., kein..., jeweils auf Subjektbegriffe bezogen) war eine zweite folgenreiche Leistung. Sie führte dazu, eine zweite Einteilung der Urteile nach der „Quantitätskategorie“ vorzunehmen, nämlich allgemeine, partikuläre und individuelle Urteile zu unterscheiden. Die Urteilsform: „Kein...“ behandelte Aristoteles als bedeutungsidentisch mit der Negation eines positiven allgemeinen Urteils. Er bemerkte auch, daß sich bei den partikulären (und individuellen) Urteilen der Wahrheitswert durch Negation nicht umkehren ließ. („Einige Lebewesen sind Tiere“ erscheint als wahr, aber ebenso: „Einige Lebewesen sind nicht Tiere“, nämlich auf Pflanzen bezogen, die ebenfalls „einige Lebewesen“ sind). Nach seinen eigenen Voraussetzungen wären die partikulären Urteile wegen ihrer Unentscheidbarkeit eigentlich aus der Logik auszuscheiden gewesen. Das haben erst die Stoiker bemerkt und sie deshalb auch konsequent aus der Logik herausgehalten. Weil Aristoteles sie aber in seinen Syllogismen häufig benutzt, wurden die partikulären und individuellen „Urteile“ überhaupt als Urteile behandelt. Sie trugen wesentlich zur Komplexität seiner Schlußlehre bei. Da Aristoteles die Quantifikation für eine Bedeutungsmodifikation des Subjektsbegriffs hielt, durchschaute er nicht, daß man durch die Partikularierung (und Individualisierung) tatsächlich den Subjektsbegriff durch einen unbestimmt bleibenden Art- oder Unterartbegriff innerhalb seines Umfangs ersetzt und zugleich dessen generische Merkmale angibt. Das Prädikat liefert dann die spezifische Differenz hinzu und definiert so den quantifizierten Begriff. Und dies kann wiederum nur bedeuten, daß die partikulären und individuellen Urteile überhaupt keine behauptenden Urteile, sondern Definitionen sind, die nicht mit der Kopula „ist“, sondern mit einem Äquivalenzjunktor zu formulieren sind: „Einige Lebewesen, d. h. Tiere / Einige Lebewesen, d. h. Nicht-Tiere“. Bei Definitionen aber spielt der Wahrheitswert logisch deshalb keine Rolle, weil man bei ihrer Festsetzung frei ist. Man kann hier schon anmerken, daß die Verwechslung der Kopula „ist“ mit der logischen Äquivalenz (bzw. dem mathematischen Gleichheitszeichen, sprachlich etwa durch „das heißt...“ wiederzugeben) seit Aristoteles in der Logik endemisch geblieben ist und viele unnütze Logomachien nach sich gezogen hat. 236 3. Drei weitere von Aristoteles unterschiedene und erörterte Urteilsformen hat man später unter der „Relationskategorie“ zusammengefaßt. Es sind die sogenannten konjunktiven (mit „und“-Verknüpfung zwischen den Subjekts- oder Prädikatsbegriffen, auch Adjunktion genannt), die distributiven bzw. disjunktiven (mit „oder“-Verknüpfung zwischen denselben) und hypothetischen bzw. implikativen (mit „wenn ... dann …-Verknüpfung zwischen Subjekts- und Prädikatsbegriff) Urteile. α. Die konjunktiven Urteile beziehen mittels der Kopula oder mittels des „Zukommen“ mehrere Prädikatsbegriffe auf einen Subjektbegriff oder umgekehrt. Subjekt oder Prädikat bestehen dann aus einem komplexen Ausdruck. Da Aristoteles komplexe begriffliche Ausdrücke als logische Elemente nicht eigens zum Thema gemacht hat, berücksichtigt er dabei nicht, ob und inwiefern die im Prädikats- oder Subjektausdruck vereinigten Begriffe ihrerseits in einem logischen Gattungs-, Art- oder Nebenart-Verhältnis zueinander stehen. Hätte er neben den eigentlichen Begriffen auch die (komplexen begrifflichen) Ausdrücke berücksichtigt, so hätte dies ihm und der späteren Logik viele Mühen und Aufwand erspart. Wohl aber berücksichtigt er, ob es sich um positive oder negierte Begriffe handelt, die in diese Ausdrücke eingehen. Dabei stellt er fest bzw. er dekretiert, daß ein konjunktives Urteil insgesamt falsch sei, wenn mindestens einer der durch „und“ verknüpften Begriffe in ihnen, würde er alleine stehen, zu einem falschen Urteil führen würde. Wir haben uns hier vorsichtig ausgedrückt. Es sei aber bemerkt, daß man anhand eines inhaltlichen Beispiels wissen muß, daß die Urteilsbehauptung auf eines der Und-Glieder nicht zutrifft. Dann weiß man natürlich auch, daß alle anderen im komplexen Ausdruck stehenden Begriffe „zutreffen“, d. h. zu einem wahren Urteil führen. Man weiß also, daß ein konjunktives Urteil mit (mindestens) einem falschen (unzutreffenden) Gliede bezüglich der anderen Glieder wahr ist. Und weiß man das (bei einem empirischen Beispiel), so weiß man natürlich auch, in welchem Bestandteil solche konjunktiven Urteile wahr und/oder falsch sind. Im üblichen inhaltlichen Sprachgebrauch würde man diese Bestandteile sofort unterscheiden, und eine dieses nicht unterscheidende Rede als Halbwahrheit oder halbe Lüge bezeichnen. Dieses wird aber durch das aristotelische Dekret, daß konjunktive Sätze insgesamt als falsch zu gelten haben, wenn mindestens ein Glied „falsch“ sei, in der Logik verhindert. Offensichtlich war es eine Vorsichtsmaßnahme, die dann auch als Maxime: „Wer einmal lügt, dem glaubt man nicht, und wenn er auch die Wahrheit spricht“ populär wurde. Durch die Formalisierung aber wird gerade unsichtbar gemacht, welches gegebenenfalls das falsche Glied ist. Und so wird auch dadurch vieles Wahre zum Falschen erklärt. Die Logik enthält jedoch keine Regeln, sich auch gegen halbe Lügen und halbe Wahrheiten zu wappnen. An deren Stelle setzte Aristoteles das stärkere Prinzip der Vorsicht, lieber die Wahrheit zu opfern, wenn sie mit noch so wenig Falschheit gleichsam befleckt ist. Der Fall hat, wie man sieht, Ähnlichkeit mit 237 dem Widerspruch. Formal kann man die konjunktiven Urteile auch leicht als Widersprüche konstruieren, wenn man ein Ausdrucksglied mit seiner Negation verbindet. In diesem Falle wird zwar rein formal darstellbar, daß der falsche Bestandteil des Urteils entweder im positiven oder negativen Glied (aber auch hier ist logisch nicht entscheidbar, in welchem) liegt, gleichwohl gilt es insgesamt als falsch. Alles Gesagte aber setzt wiederum voraus, daß ein konjunktives Urteil sicher dann wahr ist, wenn alle Glieder in gleichem Sinne als „wahr gelten“, und das wiederum muß empirisch gewußt werden, so daß auch sein formales Notat als wahres Urteil gilt. Und ebenso wird allgemein vorausgesetzt, daß ein konjunktives Urteil falsch ist, wenn alle seine Glieder in gleichem Sinne als „falsch gelten“. β. Die distributiven bzw. disjunktiven Urteile verbinden zwei oder mehrere Glieder im Subjekt oder Prädikat mittels des „oder“ zu komplexen Ausdrücken. Wie in der üblichen Sprache hat das „oder“ in vielen Fällen dieselbe Bedeutung wie das „und“ und ist insofern mit ihm synonym. Deshalb kann man sehr oft Sätze mit der Verbindungsfloskel „und/oder“ bilden. Die Sinnidentität bezieht sich auf die Fälle, wo alle Glieder gemeinsam zutreffen und dann Wahres ausdrücken, und wo alle Glieder gemeinsam nicht zutreffen und dann Falsches ausdrücken. Spitzt man nun aber das einfache „oder“ (später lateinisch als „vel“ bezeichnet) zum „entweder ... oder“ (lateinisch „aut“) zu, so ergibt sich eine Sinndifferenz zum „und“. Diese Art der Disjunktion nannte man später vollständige Disjunktion oder Alternative. Alternativen sind Ausdrücke, die nur aus zwei gegensätzlichen (in „vollständiger Disjunktion“ bzw. im Negationsverhältnis zu einander stehenden) Gliedern zusammengesetzt sind, die ihrerseits einen Widerspruch bilden. Von dieser Art des „alternativen Widerspruchs“ dekretierte Aristoteles nun gerade das Gegenteil des durch „und“ gebildeten Widerspruchs, und dies möglicherweise der schönen Symmetrie wegen. Ein alternatives Urteil sei demgemäß insgesamt wahr, wenn das eine Glied als wahr und das andere als falsch gelte. Auch dieses aristotelische Dekret von der Wahrheit der Alternative wurde in der Logik zu einem Dogma. Und ersichtlich sind die Folgen ebenso verheerend wie diejenigen der dekretierten Falschheit des Widerspruches. Denn wenn eine Alternative mit einem falschem Glied wahr ist, werden die falschen Satzbestandteile, wenn man nicht weiß, welches Glied der Alternative wahr und welches falsch ist, leicht unbesehen ebenfalls zu Wahrheiten erklärt. Auch die Alternative hat unter den logischen Urteilsformen eine seither bevorzugte Stellung gefunden, weil sie nach aristotelischer Festsetzung eine Notation aus rein logischen Gründen immer wahrer Urteile erlaubt, die man ohne Hinblick auf und ohne Kenntnis der Wirklichkeit behaupten könne, ebenso wie der Widerspruch aus rein logischen Gründen als immer falsch gilt. Dazu muß allerdings bemerkt werden, daß die Stoiker später auch für die Alternativen falsche Wahrheitswerte feststellten: sie seien dann falsche Urteile, wenn 238 beide Glieder zusammen wahr und auch wenn beide zusammen falsch seien (und diese Festlegung ist in der neueren Logik kanonisch geworden). Abgesehen davon, daß man dies wiederum empirisch am Beispiel wissen muß und die Alternative dadurch wieder ihren rein logischen Wahrheitsstatus verliert, wird man sich fragen, ob das, was man hier für eine falsche Alternative hält, nicht vielmehr keine Alternative ist. Aristoteles hätte allenfalls den ersten Fall, daß beide Glieder zugleich wahr sind, als möglichen Grenzfall zugelassen (man kann die oben zitierte Passage aus der Hermeneutikschrift darauf beziehen), z. B. wiederum im Falle einer partikulären Alternative: „Einige Lebewesen sind entweder Tiere oder nicht Tiere“, was offensichtlich beides wahr ist. Aber in diesem Falle würde es sich nach unserem Vorschlag wiederum nicht um ein behauptendes Urteil, sondern um eine Definition handeln: „Einige Lebewesen, d. h. entweder die Tiere oder die Nicht-Tiere (Pflanzen)“. γ. Die sogenannten hypothetischen Urteile verbinden Subjekt und Prädikat durch „wenn ... dann...“. Dies kann auch zusammen mit der Kopula (oder mit „es gibt“, welches Aristoteles als Kopula ohne Prädikat behandelte: „A ist“) oder mit dem „Zukommen“ geschehen und stellt eigentlich dann erst klar heraus, daß es sich um behauptende Urteile handeln soll. Man bemerke aber, daß in diesem Falle nicht ein Urteil gebildet wird, sondern zwei Urteile miteinander verbunden werden, was dann schon zur Schlußlehre überleitet. Aristoteles hat reichlich davon Gebrauch gemacht und wohl am meisten in dieser Urteils- bzw. Schlußform argumentiert. Werden nur Subjekts- und Prädikatsbegriff so verknüpft, so kann man sehr in Zweifel sein, ob es sich um ein gemeintes Urteil oder um einen Ausdruck handelt, der keinen Wahrheitswert hat. Wir sagten schon, daß Aristoteles selber logische Ausdrücke als Begriffsverknüpfungen nicht thematisiert hat, und zwar, weil er das Ineinandergreifen der Intensionen und Extensionen im Gattungs-Art-Unterartgefälle der Begriffe nicht durchschaut hat. In pyramidaler Notation wird dieses sichtbar und erklärt unmittelbar anschaulich die Bedeutung der so gebildeten Ausdrücke: „Wenn Gattung dann Art“ (Subsumption eines Artbegriffs unter seine Gattung, formale Implikation), „Wenn Art, dann Gattung“ (Implikation des generischen Gattungsmerkmals im Artbegriff, materiale Implikation) und „Wenn Art dann Nebenart“ (Korrelation von Artbegriffen unter gemeinsamer Gattung oder auch unter verschiedenen Gattungen). Man sieht hier, daß das „wenn ... dann...“ dreierlei Bedeutung annehmen kann, die jeweils die Verbindung von Gattung zur Art, von der Art zur Gattung und von einer Art zu einer Nebenart, d. h die überhaupt möglichen Verhältnisse zwischen Begriffen, bezeichnen. Da Aristoteles durch seine Formalisierung ganzer Begriffe (Wenn A dann B) diese Strukturen geradezu verdeckt, erkannte er den logischen Grund dieser verschiedenen Bedeutungen des „wenn ... dann“ nicht. Ein weiteres kommt hinzu. Da er das „wenn ... dann“ als Urteilsverknüpfung behandelte, bemerkte er auch nicht den Unterschied zwischen grammatisch behaup- 239 tender Form des „(immer) wenn ... dann“ und grammatisch nichtbehauptender Konjunktivform „falls ... so wäre...“. Diese Nichtunterscheidung hat ihren Grund in seiner Modallehre von den „Möglichkeiten“. Denn hier redete er ja selber ständig in hypothetischen Sätzen des „irrealen“ Typs: „Gesetzt den Fall daß..., so wäre...“. Erinnern wir uns nun daran, daß Aristoteles‟ Urteilslehre darauf abgestellt war, durch wahre behauptende Urteile die Wirklichkeit abzubilden und falsche Urteile als Abbildung von Scheinwirklichkeit (d. h. eigentlichem Nichts) kenntlich zu machen und von den wahren Urteilen zu unterscheiden. Und das hätte dazu führen müssen, die konjunktivischen Sätze, mit denen man Vermutungen formuliert, aus der Logik auszuscheiden. Nur die (echten, behauptenden) Wenn ... dann-Urteile (in Verbindung mit Kopula, Existenzjunktor „es gibt“ und „Zukommen“) kann man auf ihre Wahrheit und Falschheit hin prüfen und unterscheiden. Es ist klar, daß jede der oben unterschiedenen drei Implikationsformen jede für sich in der geschilderten Anwendung wahre Urteile liefert, in jeder anderen aber falsche. Aber diese Unterscheidung konnte Aristoteles nicht machen. Die unechten (eigentlich im grammatischen Konjunktiv zu formulierenden) „hypothetischen Urteile“ (mit: „falls ... so wäre ...“) sind aber in allen Gestalten als falsche Urteile einzuordnen. Denn man weiß ja, wenn man sie als Sätze formuliert und gebraucht, daß die Wirklichkeit sich gerade nicht so verhält, wie sie es darstellen. („Falls Sokrates Flügel hätte, dann würde er fliegen“ lautet ein in der Antike verbreitetes Beispiel). Es wird jedoch in logischen Lehrbücher meist in der Behauptungsform: „Wenn Sokrates Flügel hat, denn fliegt er“ kolportiert. Aristoteles ließ die Vermutungsform auch, ohne diesen grammatischen Unterschied zu beachten, als falsche Urteile zu und übernahm von Philon von Megara (nicht mit dem späteren Neuplatoniker Philon von Alexandria zu verwechseln) die Festlegung, „hypothetische Urteile“ mit zwei falschen Teilsätzen seien wahr. Das kann man einen der erstaunlichsten Vorschläge nennen, die in der Logik je gemacht wurden. Er ist umso erstaunlicher, als er nachmals undiskutiert als Dogma festgehalten wurde. Er erlaubte es seither, in der Logik über alles und jedes als „logische Möglichkeiten“ zu spekulieren und sich zugleich bewußt zu bleiben, daß man sich dabei über alle Wirklichkeit in luftige „mögliche Welten“ begab, die aus lauter „kontrafaktischen“ Falschheiten gesponnen waren. Die Akzeptanz fiel den Logikern offenbar deshalb so leicht, als sie ja mit Aristoteles auch den Widerspruch als falsch, wenn ein Teilsatz wahr, und die Alternative als wahr, wenn ein Teilsatz falsch sei, angenommen haben. Warum also nicht auch die implikative Urteilsform, in der beide Teilsätze falsch sind? Da Aristoteles nun sowohl die aus wahren wie die aus falschen Teilsätzen zusammengesetzten hypothetischen Urteile für wahr hielt, blieb die Suche nach der Form falscher hypothetischer Urteile bei ihm auf die Kombinationsform von wahren und falschen Teilsätzen beschränkt. Man kann nur feststellen: er entschied sich dafür, die Form mit falschem Vordersatz und wahrem Hintersatz ebenfalls für wahr zu halten. Aus Falschem läßt sich in der Logik seither auf beliebige Wahr- 240 heiten schließen! Einzig die Form mit wahrem Vordersatz und falschem Hintersatz erklärte er – wiederum mit den Megarikern - für falsch. Auf Falsches kann man seither aus beliebigen Wahrheiten schließen! Daß es sich auch dabei um Dogmen der Logik handelt, die von Aristoteles und auch von Späteren in keiner Weise begründet wurden, dürfte auf der Hand liegen. Sie erlauben es seither den Logikern, ganze Bücher voller „hypothetischer“ Lügen für pure logische Wahrheiten zu erklären, gleichgültig, ob nun auch der einzige Endsatz (als Resultat bzw. Konklusion) falsch oder zufällig wahr ist (Vgl. dazu die Interpretation des „ex falso sequitur quodlibet“ und „verum sequitur ex quolibet“ in § 9). In den Überlegungen zu den Urteilen finden sich auch die Ausgangspunkte für das, was später als Modallehre ausgestaltet wurde und in der modernen Logik geradezu als selbständige Disziplin auftritt. In der Hermeneutikschrift bemerkt Aristoteles – vorangegangene Überlegungen zusammenfassend – „Bei gegenwärtigen und vergangenen Dingen muß also Bejahung oder Verneinung immer entweder wahr oder falsch sein ... Bei Einzelfällen ist es aber auch dann nicht mehr ebenso, wenn sie in der Zukunft liegen. Denn wenn hier jede Bejahung oder Verneinung entweder wahr oder falsch sein müßte, dann müßte auch alles mit Notwendigkeit entweder eintreten oder nicht eintreten“.122 Man kann daraus entnehmen, daß Aristoteles die prognostischen Aussagen über Zukünftiges (die possibilia futura) hinsichtlich ihrer Wahrheit oder Falschheit für unentscheidbar gehalten hat. Das wäre eigentlich ein Grund gewesen, Prognosen ebenso wie die konjunktivischen Vermutungen (was Prognosen in der Regel sind) nicht für behauptende Aussagen zu halten und sie deswegen aus der Urteilslehre auszuscheiden. Erst die Stoiker haben aber auf Grund ihres Universaldeterminismus auch Prognosen für echte Urteile mit Notwendigkeitscharakter gehalten und in den Chrysippischen „Indemonstrablen“, den Schlußformeln (besonders der ersten als „modus ponens“ und in der zweiten als „modus tollens“) dargestellt. Und so dürften sie es gewesen sein, die die Unterscheidung von Notwendigkeitsund Möglichkeitsurteilen (sowie die Wirklichkeitsurteile als Beispielsfälle) zu einer besonderen Modallogik ausgearbeitet haben. Halten wir noch einmal fest, worauf es Aristoteles in der logischen Urteilslehre ankam und womit er auch einige falsche Weichenstellungen in der Logikgeschichte initiierte. 1. wollte er diejenigen sprachlichen Satzformen feststellen, die durch ihren Behauptungscharakter Wahrheit und Falschheit - und nur diese - darzustellen erlauben. Das ist ihm nur teilweise gelungen. Zum einen blieb der Unterschied zwischen nichtbehauptender Definition (später als Äquivalenz meistens als behauptendes Urteil behandelt, so vor allem in der Mathematik der Gleichungen) und eigentlichem Behauptungsurteil ungeklärt. Zum andern hat er unter der Form der hypothetischen bzw. implikativen Urteile auch nichtbehauptende (im gramma122 Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 18 a. In: P. Gohlke, Aristoteles, Die Lehrschriften, hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 94f. 241 tischen Konjunktiv auszudrückende) Satzformen in die Logik aufgenommen, wie Vermutungen und kontrafaktische Hypothesen. Diese wurden seither auf seine Autorität hin in der Logik als behauptende Urteile mit Wahrheits- bzw. Falschheitscharakter behandelt. 2. wollte er durch seine „Formalisierung“ mittels der Vertretung sprachlicher Begriffe durch Variablen in den Urteilen von der faktischen Wirklichkeit abstrahieren und so die logische Urteilslehre als „allgemeine“ Theorie wahrer und falscher Behauptungen begründen. Diese sollte nicht mehr an inhaltlich-sprachliche Behauptungsbeispiele gebunden bleiben, wenn sie diese auch jederzeit zur Begründung und Erläuterung der formalisierten Urteile und ihres Wahrheitswertes heranziehen konnte und auch tatsächlich so verfuhr. Dabei übernahm er aus der konventionellen Sprachpraxis auch die Voraussetzung, behauptende Urteile zunächst und grundsätzlich als wahr zu behandeln, also ihnen einen Vertrauensvorschuß einzuräumen, es sei denn, daß ihre Falschheit (sprachlich: Lügenhaftigkeit, Irrtum) nachgewiesen oder logisch formal festgesetzt wird. 3. war er bemüht, die rein logischen Funktionen der logischen Junktoren herauszufinden, die es - ohne Rücksicht auf die Wirklichkeit und ihre Beispiele – erlauben, wahre Urteile in andere wahre, wahre in falsche, falsche in andere falsche, und falsche wiederum in wahre umzuwandeln bzw. vom einen zum anderen überzugehen. Dabei erkannte er nicht den Unterschied zwischen den ausdrucksund den satzbildenden Junktoren. 4. Seine Hauptentdeckung bezüglich der Junktoren dürfte die Rolle der satzbildenden Negation gewesen sein, die allgemeine wahre in allgemeine falsche Urteile und umgekehrt umwandelt. 5. Sodann sah er eine wichtige Rolle der Quantifikation (von Subjektbegriffen) darin, von allgemeinen wahren auf partikuläre (und individuelle) wahre Urteile überzugehen (sogenannte Subalternation). Dies war ein verhängnisvoller und in der Logikgeschichte folgenreicher Irrtum. Er bemerkte nicht, daß die Partikularisierung und Individualisierung keine Form behauptender Urteile, sondern eine Definitionsform darstellt (vgl. dazu § 9). 6. Insbesondere wendete er die Implikation („wenn ... dann ...“) neben ihrer Behauptungsfunktion (in Korrelationen und Kausalurteilen) auch auf hypothetische Urteile an. Sein Fehler dabei war es, die sprachlich-grammatische Vermutung in eine Behauptung umzumünzen. Seither gab und gibt es in der Logik keinen „Konjunktiv“. Und das bedeutet, daß in der Logik auch alle Hpothesen als Behauptungen formuliert und mit Wahrheitswerten ausgestattet werden. 7. Um die Logik auch noch von jeder Rücksichtnahme auf empirische Beispiele und deren Wahrheitswertvoraussetzung unabhängig zu machen, suchte Aristoteles nach logischen Urteilsformen, die allein durch ihre Form einen bestimmten Wahrheitswert der Urteile darzustellen erlaubten. Er glaubte sie im Widerspruch als Form reiner logischer Falschheit und in der Alternative als logische Form reiner logischer Wahrheit gefunden zu haben. Manche seiner Ausführungen legen auch die Vermutung nahe, daß er auch die sogenannten Äquivalenzurteile (und damit 242 die Definitionen bzw. die mathematischen Gleichungen) als Gestalten rein logischer Wahrheit angesehen hat, denn sie kommen als Prämissen oder Schlußsätze in seinen Syllogismen vor. Offensichtlich verstand er selbst den Übergang von der Empirie der Beispiele zu den rein logischen Urteilsformen als genügende Begründung dafür, die logische Falschheit des Widerspruchs und die logische Wahrheit der Alternative grundsätzlich von der (durch Negation gebildeten) inhaltlichen Wahr-Falschheit der Teilsätze zu unterscheiden und abzugrenzen. Die Logiker sind ihm mit den Stoikern darin auch durchweg gefolgt, und in der neueren Logik wurde die semantische Meta-Theorie der Sinnebenen geradezu dazu erfunden, diesen Unterschied herauszustellen. Sie erlaubt seither den Logikern zu argumentieren, daß so manches inhaltliche Satzbeispiel sachlich falsch, aber seine formale Gestalt rein logisch wahr und umgekehrt sein könne. Wir haben unsere Bedenken gegen diese Sicht der Dinge (und somit gegen die Homonymität der Wahrheitswertbegriffe) schon in § 9 deutlich gemacht. d. Die Schlußlehre. In der Lehre vom Schluß gipfelt die aristotelische Logik. Sie ist zugleich Beweistheorie für die Wahrheit von Urteilen (oder für ihre Falschheit). So ist sie auch die Hauptmethodologie für die kritische Überprüfung sprachlicher Kontexte und für die Gewinnung neuer Urteile aus dem Kontext schon vorhandener. Ein Schluß (syllogismos ó, lat.: ratiocinatio, ratiocinium, discursus) ist eine Verbindung von Urteilen derart, daß daraus ein neues Urteil gebildet werden kann. Im einfachsten Fall gewinnt man nach Aristoteles aus allgemeinen Urteilen durch Subalternation spezielle „partikuläre“ Urteile. Das hat man bis heutzutage als „logisches Theorem der partikulären Urteile“ festgehalte. Es lautet: „Aus einem allgemeinen Satz läßt sich ein partikulärer Satz ableiten, der dieselbe Qualität sowie dasselbe Subjekt und Prädikat hat.“ 123 Ein Beispiel dafür wäre: “alle Menschen sind sterblich”, daraus folge: “einige Menschen sind sterblich” (und „Sokrates ist sterblich”). Wenn die Partikularisierungen jedoch tatsächlich wahre Urteile wären, müßte man (als Gegenprobe) ebenso „wahr“ schließen können: „einige Menschen sind unsterblich bzw. nicht sterblich“ (und auch: „alle Menschen außer Sokrates sind unsterblich“). Aber abgesehen davon, daß die „Sterblichkeit“ in Logiklehrbüchern noch nie als „dialektisches Prädikat“ erkannt worden ist (die Tote und Lebendige zugleich umfaßt), zeigt sich an der „Gegenprobe“, die bei einer Partikularisierung ebenfalls gefolgert werden kann, daß es sich nicht um Urteile, sondern um Definitionen dessen handelt, was als „einige“ und „ein“ nur unbestimmt ausgedrückt wird und deshalb genauerer Bestimmung bedarf. 123 K. Ajdukiewicz, Abriß der Logik, Berlin 1958,S. 117. – „Qualität des Urteils“ bedeutet bejahend oder verneinend. 243 Eine einfache Schlußform ist auch schon das hypothetische wenn … dann …Urteil. Wie oben dargelegt, erlaubt es einen einfachen Schluß von einem wahren Satz auf einen anderen wahren Satz, und (die kontrafaktischen Vermutungen einschließend) auch von einem falschen Satz auf einen falschen Satz, ja sogar von einem falschen Satz auf einen wahren Satz. Nur der Übergang vom Wahren zum Falschen wird dadurch als „unwahr“ bzw. unzulässig ausgeschieden. Auch dazu ist zu bemerken, daß solche einfachen Schlüsse für praktische Anwendungen gänzlich abwegig sind, wohl aber zu allen Zeiten einer phantastischen Spekulation Tür und Tor geöffnet haben, weil durch Aristoteles dazu eben eine logische Schlußform als „wahrheitsverbürgend“ zur Verfügung stand. Was davon zu halten ist, wurde schon in § 9 bei Gelegenheit der Kritik der „Aussagenlogik“ behandelt. Interessanter und exemplarisch sind die syllogistischen Regelfälle, in denen aus je zwei Urteilen ein neues drittes gebildet wird. Diese hat Aristoteles zum Gegenstand seiner Analysen gemacht und die Regel aufgestellt, nach denen dies zu wahren oder falschen Urteilen führt. Die Hauptbedingung dabei ist, daß die Ursprungsurteile (jeweils zwei Prämissen) einen Begriff gemeinsam haben (sogenannter Mittelbegriff). Und daraus erhellt schon, daß der „Schluß” im engeren Sinne (conclusio), d. h. das daraus zu gewinnende Urteil aus den nicht gemeinsamen Begriffen der Prämissen-Urteile besteht. Charakteristisch für die aristotelische Syllogistik ist jedenfalls, daß in einem regelrechten Syllogismus nur drei Begriffe vorkommen dürfen. Einer von diesen ist der Mittelbegriff, der im eigentlichen Schlußsatz herausfällt, so daß aus den beiden übrigen das Schlußurteil gebildet wird. Für die Übersicht der möglichen Verbindungsweisen zog Aristoteles grundsätzlich die Stellung des Mittelbegriffs heran, nämlich ob dieser als Subjekt in der einen und Prädikat in der anderen oder als Subjekt in beiden oder als Prädikat in beiden Prämissen steht. Die Anordnung der Prämissen selber (die erste Prämisse heißt Maior, weil ihr Prädikatsbegriff den „größeren Umfang“ haben soll, die zweite Minor, weil ihr Prädikatsbegriff den „kleineren Umfang“ haben soll) geschieht so, daß die erste Prämisse immer das Prädikat zum Schlußurteil liefert (falls es nicht als Mittelbegriff wegfällt); die zweite Prämisse das Subjekt (falls es nicht als Mittelbegriff wegfällt). Es ist dabei zu beachten, daß Aristoteles meistens die Formulierung mit „zukommen“ benutzte, z. B. „Sterblichkeit kommt allen Menschen zu”. Die kopulative Formulierung wechselt aber Subjekt- und Prädikatstelle aus: „Alle Menschen sind sterblich”. Daher lassen sich seine sogenannten Schlußfiguren sämtlich in beiden Formulierungen lesen: z. B.: „(alle, einige) M sind P“ = „P kommt (allen, einigen) M zu“, usw. Legt man dies zugrunde, so stehen I und II in spiegelbildlichem Verhältnis zu III und IV im Schema. So ergeben sich die vier bekannten aristotelischen Schlußfiguren in der Anordnung gemäß der Stellung des Mittelbegriffs in den Prämissen: 244 Die vier aristotelischen Schlußfiguren I. M-P S-M S-P II. P-M S-M S-P III. M-P M-S S-P IV. P-M M-S S-P (M= Mittelbegriff, der im Schlußurteil eliminiert wird). In der logischen Literatur wird zwar allgemein angenommen, erst Galen habe die IV. Figur herausgearbeitet. Aber das dürfte ein Irrtum sein, der auf der Nichtbeachtung der doppelten aristotelischen Formulierungsweise (mit Kopula oder „Zukommen“) beruht. Unter Berücksichtigung dessen, daß nach Aristoteles jedes Urteil wiederum bejahend oder verneinend und zugleich allgemein oder partikulär sein kann, ergeben sich in jeder Schlußfigur acht mögliche Verbindungen zu neuen Urteilen, insgesamt also 256. Diese werden „Schlußmodus“ genannt. Von diesen fand Aristoteles 14 als gültige, d. h. aus wahren Prämissen immer zu wahren neuen Urteilen führende heraus (noch heute ist jedoch die Zahl der gültigen Schlußmodi umstritten!). Diese abgeleiteten Schlußmodi, die auch einige Definitionen in der Form partikulärer und individueller Urteile enthalten, durch Rückführung auf ihre jeweilige Stammform, die o. a. Schlußfiguren, bewiesen zu haben, ist in diesem Felde eine äußerst scharfsinnige Leistung des Aristoteles. Die scholastische Logik hat nach dem Vorbild des byzantinischen Logikers Michael Psellos (1018-1078 oder 1096 n. Chr.) für alle für gültig gehaltenen Schlußmodi sehr sinnreiche Namen gebildet, aus denen man Bejahung und Verneinung sowie die Quantifikation der Subjektsbegriffe in den Prämissen direkt entnehmen konnte. Sogar die Reduktionsregeln sind (durch die Konsonanten) in den künstlichen Termini für die gültigen Schlußmodi durch die Scholastiker mitbezeichnet worden. So wurde die logische Prüfung von Argumentationen ein technisches Spiel, den Kontext in Schlüsse aufzugliedern, für diese jeweils den Schlußmodus zu bestimmen, und diesen wiederum durch Rückführung auf die Stammform zu „verifizieren”. Als Hauptstammform gilt dabei der (von den lateinischen Scholastikern sogenannte) Modus Barbara: „Wenn alle A B sind, und wenn alle B C sind, dann sind alle A auch C“. Bei Aristoteles gilt nun für die Schlüsse das nämliche wie für die Urteile: auch sie sind letztlich Begriffsverbindungen. Da Aristoteles noch nicht über den Schematismus der Begriffspyramide bzw. den porphyrianischen Baum verfügte, konnte er nicht sehen, daß alles Schließen auf einen Nachweis der Subsumtionsfähigkeit oder Nicht-Subsumtionsfähigkeit von Begriffen hinausläuft. Durch den Mittelbegriff aber fand er ein ingeniöses Mittel für die Sicherung, daß die in den Syllogismen vorkommenden Begriffe sämtlich im Verhältnis von Gliedern einer überschaubaren Begriffspyramide mit gemeinsamer Gattung und dihäretischen (disjunktiven) Nebenarten sowie einer Unterart stehen. Aristoteles durchschaute nicht, wie wir sagten, daß die Quantifikation der in den Syllogismen stehenden Subjektbegriffe zugleich den Übergang zu speziellen Art- 245 begriffen bedeutet. Z. B. „Einige Lebewesen“ können nur entweder „Tiere“ oder „Pflanzen“ sein, wobei das eine zugleich auch die Negation des anderen darstellt („Tiere“ sind „Nicht-Pflanzen“, und umgekehrt sind „Pflanzen“ „Nicht-Tiere“). Daher ist auch die Negation in den aristotelischen Syllogismen immer eine „bestimmte Negation“, die nur einen bestimmten Nebenartbegriff zu einem positiv benannten Begriff negativ bezeichnet. „Kein Tier ist Pflanze“ bedeutet hier deshalb dasselbe wie: „alle Tiere sind nicht Pflanzen“. Man beachte, daß dies nur für disjunktive bzw. dihäretische Beispiele gilt, was im Syllogismus vorausgesetzt wird. Wird nun ein solcher nur durch die Quantifikation (undeutlich) bezeichneter Artbegriff unter der Gattung in einer der Prämissen auch explizit genannt, so ergibt sich, daß im Schlußurteil (conclusio) nur festgestellt wird, welche von beiden nur quantifizierend (extensional) bezeichneten Arten die zutreffende sein kann. Z. B. wenn von „einigen Lebewesen“ in der einen Prämisse gesagt wird, daß sie „nicht Tiere sind“, so muß das, was in der zweiten Prämisse über die „Pflanzen“ gesagt wird, auch von diesen „einigen Lebewesen“ gelten, nicht aber von den „Tieren“. Trifft das zu, so ist der Schluß wahr, wenn nicht, ist er falsch. Aristoteles hat diese Formen offensichtlich durch langwieriges Erproben anhand von Beispielen herausgebracht und sich dabei nur gelegentlich getäuscht. Und offenbar immer dann, wenn er die Negation versteckterweise als unbestimmte Negation benutzte und dadurch weitere undefinierte Begriffe (über die Zahl drei hinaus) in einigen Syllogismen einführte. Wie wir anderen Ortes herausgearbeitet haben 124 spielen alle syllogistischen Modi in der Begriffspyramide derart, daß zwischen ihren bestimmten Teilen („Begriffspositionen in der Pyramide“) Urteilsverknüpfungen ausgesprochen bzw. abgelesen werden. Hierbei lassen sich grundsätzlich nur drei Figurationen unterscheiden, die wir die „eigentlichen aristotelischen syllogistischen Figuren“ genannt haben. Diese sind 1. Die Figur der „Leiter“, die ein Verhältnis von Unterart oder Individuum-Art-Gattung bezeichnet. 2. Die Figur des „Risses“, die das (negative) Verhältnis zwischen zwei (disjunktiven) Nebenarten und der Unterart einer dieser beiden Nebenarten ausdrückt. 3. die Figur der „Spitze“, die das Verhältnis von zwei Nebenarten zueinander und zur gemeinsamen Gattung thematisiert. Notieren wir diese Verhältnisse als Ausschnitte aus einer dihäretischen Pyramide in pyramidaler Notation, indem wir die Begriffe durch Angabe ihrer generischen und spezifischen Merkmale am jeweiligen pyramidalen Ort eintragen, so ergeben sich folgende Schemata, die wir schon in § 9 im systematischem Zusammenhang vorgestellt haben: 124 L.Geldsetzer, Logik, Aalen 1987, S. 312 - 319. 246 Die drei Schemata der aristotelischen Syllogismen 1. Leiter 2. Riß 3. Spitze A A AB ABD AB AC AB AC ABD Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund Liest man in diesen Schematen die Verbindungsstriche zwischen den Begriffspositionen von unten nach oben als Kopula („ist“, „sind“) und von oben nach unten als „Zukommen“, die nicht bezeichneten Querverhältnisse aber als Negationen („ist nicht“, „sind nicht“), so wird man in allen Figuren alle wahren Syllogismen-Modi ablesen. Bei Vertauschung dieser Lesungen aber jeweils falsche Modi. Beweise erübrigen sich, da dies wegen der Identität der Merkmale und der mit dargestellten Quantifikationen unmittelbar abzulesen ist. Nach unseren Ermittlungen ergeben sich insgesamt sieben Modi in der Lesung mit Kopula und entsprechend auch sieben mit „Zukommen“, was zusammen 14 „gültige“ bzw. wahre Schlußmodi ergibt. Dies ist auch die von Aristoteles festgestellte Zahl. Bei den Syllogismen gilt ebenso wie bei den Urteilen, daß man zu ihrer Formalisierung schon ein inhaltliches Vorwissen über die wirklichen Verhältnisse besitzt, die durch die involvierten Begriffe und Prämissen-Urteilen formalisiert ausgedrückt werden. Ist das der Fall, so wird man die vorkommenden Begriffe in die richtigen Gattungs-Art-Unterartpositionen einsetzen und ihre generischen und spezifischen Merkmale richtig notieren. Dann und nur dann ergeben sich aus wahren Urteilen wahre Schlüsse, und die Modi können als Prüf- und Beweismittel für die Wahrheit dieser Schlüsse benutzt werden. In dieser Hinsicht ist die Syllogistik auch jahrhundertelang als Hauptinstrument der Logifizierung von empirischen Theorien benutzt worden, indem alle in ihnen vorkommenden Begriffe hinsichtlich ihrer Stellung in der pyramidalen Allgemeinheitshierarchie geprüft und die urteilsmäßigen Verknüpfungsmöglichkeiten zwischen ihnen expliziert wurden. In der Praxis geschieht dies auch heute noch beim Ausbau von Theorien. Nur wird nach der neuzeitlichen Verschmähung alles „Scholastischen“ streng vermieden, sich dabei auf die Syllogistik zu berufen. Sie wird also eher untechnisch evoziert und benutzt. Aber schon Aristoteles selbst und erst recht die Scholastiker verwendeten die Syllogistik weit über den Bereich der Prüfung wissenschaftlicher Empirie auch auf kontrafaktische Spekulation und ihre „Möglichkeiten“ an. Diese Verwendung 247 steht, wie wir schon bei den hypothetischen Urteilen zeigten, unter der Bedingung, daß als Prämissen manifest falsche Urteile eingesetzt werden und daraus wiederum nach dem Schlußschema der hypothetischen Urteile auch von Falschem auf Falsches gültig (bzw. „wahr“) geschlossen werden sollte. Diese Spekulationen wurden zusätzlich durch die zwei scholastischen Maximen: „Ex falso sequitur quodlibet“ und „Verum sequitur ex quolibet“ unterstützt. Von diesen wurde aber schon in § 9 klargestellt, daß sie nur unter der Voraussetzung gelten können, daß „Quodlibet“ (Beliebiges, d. h. Wahres oder Falsches) nur bei dialektischen Urteilen (die Wahres und Falsches zugleich enthalten) logischen Sinn macht. Zweifellos war es eben diese spekulative Verwendungsweise der Syllogismen, die sie in der Neuzeit in Verruf gebracht hat und auf Grund derer man ihnen, wie Kant schrieb, eine „falsche Spitzfindigkeit“ unterstellt hat. 3. Die Architektonik der Wissenschaften Nicht der geringste Beitrag des Aristoteles zur Wissenschaftsphilosophie war seine Architektonik der Wissenschaften. Durch sie hat er zuerst auf die Voraussetzungszusammenhänge unter den Einzelwissenschaften und den philosophischen Disziplinen aufmerksam gemacht und damit allen nachfolgenden Wissenschaftsklassifikationen ein Muster aufgestellt. Und ersichtlich liegt es auch der hier vorgeschlagenen Einteilung der Bereichsdisziplinen und Einzelwissenschaften (vgl. vorne § 2) noch zugrunde. Sein Einteilungsprinzip ist die menschliche Erkenntnis- und Handlungsfähigkeit. Nach ihren Gegenständen und Produkten teilt er die ganze Realität auf und die Wissenschaften zu: A. Eigentlich theoretische (“spekulative”) Wissenschaften, in denen es um die „reine Erkenntnis” des Seins und seiner Prinzipien geht. Diese sind: 1. Erste Philosophie bzw. Theologie (später Metaphysik genannt) als Wissenschaft von den ersten (bzw. letzten) Prinzipien (Ursachen) alles Seins, d. h. vom Göttlichen. 2. Mathematik als Wissenschaft von den Zahlen und geometrischen Gebilden, d. h. vom einzelnen “unbewegten” Seienden. 3. Physik als Wissenschaft vom “bewegten” Seienden in der toten, lebendigen und seelischen Natur. „Physik“ als Naturwissenschaft schließt also Physik i. e. S., sowie Biologie und Psychologie ein. B. Praktische Wissenschaften, genauer Wissenschaften vom reinen und produktiven Handeln und seinen Bereichen. Diese sind: 1. Politik als Wissenschaft vom allgemeinen Guten im Staat bzw. in der Gesellschaft. 2. Ökonomik als Wissenschaft vom besonderen Guten der Hausgemeinschaft, insbesondere der Produktion und Verteilung der „Güter“. 248 3. Ethik als Wissenschaft vom „guten“ (glückseligen) Leben durch „tugendhaftes“ Handeln des Einzelnen. C. Schaffenswissenschaften (poietische Wissenschaften), genauer Wissenschaften von den Produkten menschlichen Handelns. Dazu gehört alle Theorie des handwerklichen und künstlerischen Schaffens (heute allgemein „Technologie“ genannt). Aristoteles hat davon nur Umrisse der „Poetik” als Wissenschaft vom dichterischen Schaffen, speziell der Tragödie, geliefert. Aber auch seine Rhetorik als Technik der Herstellung und Manipulation von Meinungen und Überzeugungen kann hier zugeordnet werden. Man kann nach seinen Andeutungen und mannigfaltigen Beispielen sehr wohl die folgenden „poetischen“ (= produktiven) Disziplinen unterscheiden: 1. Lehre vom Handwerk als Disziplin vom Nachahmen und Üben praktischer Herstellungsprozesse von Gütern ohne explizite Einsicht in ihre Prinzipien. 2. Kunstlehre als Disziplin vermischt handwerklicher und technischer Produktion. 3. Techniklehre als Disziplin theoretischen Wissens um die Prinzipien der allgemeinen Produktionsbedingungen von Gütern und Werken. Man muß freilich hinzufügen, daß Aristoteles in seinem Werk nur verstreut Hinweise auf eine solche Architektonik gibt. Diese sind aber von seiner Schule alsbald in Richtung auf das vorliegende Schema ausgestaltet worden. Dabei traten die Schaffenswissenschaften nicht mehr als selbständige Gruppe auf, sondern wurden den Handlungswissenschaften zugeschlagen. So hat die aristotelische Tradition vor allem die Unterscheidung zwischen theoretischen und praktischen Wissenschaften verfestigt und an die Neuzeit überliefert. Vor allem durch Christian Wolff ist sie im 18. Jahrhundert wieder geradezu populär geworden. Die Logik erscheint hier nicht, obwohl doch gerade Aristoteles sie wie eine Wissenschaft betrieben, aber nicht als Wissenschaft bezeichnet hat. Dies hat seine Schule zum Anlaß genommen, sie als „Organon” (Hilfsmittel oder Methodologie) allen Wissenschaften voranzustellen, was ebenfalls weite Nachfolge gefunden hat. Ebensowenig erscheint Geschichte. Dies erklärt sich daraus, daß Aristoteles einerseits das, was wir heute Historiographie nennen, unter die Poetik subsumiert (sie liefert die Einzelheiten, aus denen die eigentliche Dichtung das Allgemeine exemplarisch heraushebt). Andererseits hat er jeder Wissenschaft eine „Geschichte” (historia) als Faktenkunde der Einzelheiten ihres Bereichs zugeordnet, wie vorne schon gezeigt wurde. Auch für die Handlungswissenschaften bewährt sich das Vier-UrsachenErklärungsschema. Denn jede Handlung hat eine (schon durch die Handlungsverben bezeichnete) Form; eine Materie im menschlichen Körper mit der ihm eingeschriebenen Handlungspotenz bzw. Fähigkeit; einen dabei Wirkenden; und ein Handlungsziel. Im Vordergrund stehen dabei jedoch die Ziele und Zwecke des 249 Handelns, die durch vernünftige Überlegung (Phronesis ó, später „praktische Vernunft“ genannt) zu erkunden sind. Im Falle der reinen Handlungen ergibt sich das Ziel der politischen Aktionen als das Gemeinschafts- oder Staatswohl (bonum commune, „common wealth“); das Handeln im familiären Haushalt (oikos ἶ) richtet sich auf die Prosperität der Familiengemeinschaft; das individuelle „ethische“ Handeln auf das „gute Leben“ (Eu zen ὒῆ des Einzelnen. Dieses hängt wesentlich von der Kultur bzw. Erziehung zum „theoretischen Leben“ ab, das erst in die Lage versetzt, die einzelnen Handlungsziele der „Mitte zwischen den Extremen des Zuviel und Zuwenig“ zu erforschen und sich diese als „Tugenden“(Arete ἀή durch Übung und Gewohnheit zu eigen zu machen. Die produktiven („poietischen“) Handlungen haben zum Ziel und Zweck die Herstellung von Produkten und Werken, die den Reichtum und das zivilisatorische und Kulturniveau der politischen Gemeinschaft ausmachen. Im Handwerk werden die darauf gerichteten Handlungen durch Nachahmung (der Natur und des ausbildenden „Handwerksmeisters“) und ständige Übung erworben. In der Technik werden die Produktionsziele und die Mittel ihrer Erreichung theoretisch erforscht und gelehrt. Die sonst schwer in die Handlungswissenschaften einzuordnende Rhetorik (Redekunst, rhetorike techne ῥὴέfindet sachangemessen unter diesen produktiven Disziplinen ihren Platz. Denn sie handelt nach Aristoteles über die Herstellung und Veränderungen von Meinungen durch Reden, indem sie an Vergangenes erinnert, Gegenwärtiges beurteilt, und Künftiges beratschlagt. Die Kunst aber ergibt sich als offenes Feld der Kreation neuer Ziele und Zwecke aus der Verbindung von handwerklichem Können und theoretischen Erwägungen. Zusammenfassend kann man sagen, daß Aristoteles in großartiger Weise die Motive der vorsokratischen und platonischen Philosophie so zusammenfaßt, daß daraus ein für Jahrhunderte und z. T. bis heute tragfähiges Wissenschaftskonzept entsprang. Es betont die Wichtigkeit und Unterscheidung von Empirie und Theorie in jeder Einzelwissenschaft, die Ursachenforschung als zentrales Anliegen theoretischer Forschung, den Voraussetzungszusammenhang der Wissenschaften und philosophischen Grunddisziplinen untereinander und in diesem Zusammenhang die Unabdingbarkeit einer letztbegründenden „ersten Philosophie” oder Metaphysik, die gerade die Voraussetzungen der Einzelwissenschaften, die diese nicht selber reflektieren, zum Thema nimmt. Eine Besinnung auf dieses und die kritische Auseinandersetzung mit diesem Konzept kann auch in der gegenwärtigen Lage der Wissenschaftstheorie mancherlei Klärungen über das erbringen, was als „naturwüchsig” erscheinendes Erbe und Besitz in die heutige Praxis der Wissenschaft eingegangen ist. 250 § 19 Euklid (um 300 v. Chr), seine „Elemente” und das Vorbild der Mathematik Der platonische Charakter der „Elemente“ des Euklid als „dialektische Logik“. Vermeintliche geometrische Anschaulichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variablen). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die „Probleme“ als praktische Konstruktionsaufgaben und als Methodenarsenale. Die „Elemente“ und der philosophische „Mos geometricus“. Die Mathematik war als Rechen- und Meßkunst in der antiken Welt schon zu hoher Blüte gelangt, als die Philosophie noch in den Windeln lag. Doch haben auch ihr die Vorsokratiker, besonders schon Thales und Pythagoras, wesentliche Hilfestellung bei der Theoretisierung ihrer Praxis geleistet und Platon ihr eine wesentliche propädeutische Funktion für die Philosophie und jede Wissenschaft eingeräumt und zumal jede Naturwissenschaft auf sie verpflichtet. Aristoteles hat ihr zwar unter den theoretischen Wissenschaften, die um ihrer selbst willen zu pflegen sind, nach der Metaphysik den zweiten Rang eingeräumt, ihr jedoch keine methodologische Bedeutung für andere Wissenschaften zugemessen. Nach seiner Auffassung gewann sie ihre besonderen Gegenstände durch Abstraktion aus der sinnlichen Erfahrung: Zahlen und ihre Verhältnisse sowie die geometrischen Gebildeverhältnisse sind für ihn Eigenschaften sinnlicher Dinge, und zwar nur, soweit diese als unbewegte betrachtet werden, denn die Bewegung und Veränderung (als Gegenstände der Physik) seien nicht mathematisch zu erfassen. Da sie es mit einfachen und unveränderlichen Gegenständen zu tun habe, könne die Mathematik nicht zur darstellenden Beschreibung und Erklärung der veränderlichen Weltverhältnisse dienen. Und dafür konnte er sich wohl auf Zenon von Eleia berufen, der ja paradigmatisch gezeigt hatte, wie die Anwendung der statischen quantitativen Denkformen auf qualitative Sachverhalte und insbesondere auf Bewegungen zu unauflöslichen Paradoxien führt, die Aristoteles seinerseits zu „lösen“ sucht. Nicht zuletzt dieser Überzeugung verdankt sich wohl auch der Eifer, den Aristoteles auf die Entwicklung der formalen Logik als einer konkurrierenden Theorie qualitativer Denkformen – der Begriffe und ihrer urteilsund schlußmäßigen Verbindung – verwendet hat. Man kann vermuten, daß Euklid nicht nur die aristotelische, sondern auch die stoische Logik kannte, da er den stoischen Grundbegriff der „gemeinsamen angeborenen Ideen“ (koinai ennoiai κοινὶ ἔννοιαι) verwendet. Und daß er die aristotelische Logik gekannt haben wird, kann man schon deswegen vermuten, weil sie zu seiner Zeit das methodologische Werkzeug in allen antiken Wissenschaften geworden ist. Daß die Zahlen und geometrischen Gebilde „Ideen“ seien, das hatte schon Platons Ideenlehre behauptet. Daraus ergab sich das Programm, die Mathematik insgesamt aus der Logik – als der Theorie der Ideenformen – abzuleiten. Dies bleibt ein Bemühen aller platonisch und neuplatonisch inspirierten Philosophie. 251 Zuletzt ist sie im 19. Jahrhundert im Zeichen eines Neo-Neuplatonismus mathematischer Grundlagenforschung wieder verstärkt in Angriff genommen worden. Aber solche Bestrebungen stehen auch jetzt noch weit hinter den umgekehrten zurück, die Logik aus einer autonomen Mathematik zu begründen und herzuleiten, wenn dieses Anliegen auch hinter oftmals gegenteilig lautenden Absichtserklärungen nicht so leicht erkennbar ist. Daß die Mathematik schon so früh in die Lage geraten ist, als Urbild und Vorbild einer abgeschlossenen Wissenschaft von höchster Stringenz, Kohärenz, d. h. eindeutiger Beweisbarkeit aller ihrer Sätze und Inhalte, zu gelten, hat sie Euklid zu verdanken. Von ihm ist bekannt, daß er um 300 v. Chr. unter Ptolemäus Soter in Alexandria ein mathematisches Institut gründete, welches nachmals gute tausend Jahre bestand. Aus ihm sind danach fast alle bedeutenden Mathematiker der antiken Welt hervorgegangen. Sein Hauptwerk, die „Elemente” (griech.: Stoicheiai í) ist das mathematische Lehrbuch des Abendlandes schlechthin gewesen.125 Euklid faßte alle Errungenschaften der vorangegangenen griechischen Mathematik zusammen und verdrängte dadurch auch alle vorher bestehenden Werke, von denen wir fast nur die Verfasser, die Buchtitel und mehr oder weniger ausgedehnte Partien und Referenzen kennen. Sein Werk, die „Elemente“, hat noch im 19. Jahrhundert dem Gymnasialunterricht als Lehr- und Textbuch gedient. Neben den „Elementen“ ist von Euklid noch ein Werkchen erhalten, das den Titel „Data“ trägt Daneben existiert eine in arabischer Bearbeitung überlieferte Schrift über Teilungen.126 Das Werk „Elemente” ist, wie schon gesagt, nicht ohne Kenntnis der aristotelischen und auch der stoischen Logik entstanden. Darauf deuten neben den darin vorkommenden Begriffen insbesondere die Anlage des Werkes, die - wie Aristoteles für alle Wissenschaften fordert - die Prinzipien als Voraussetzungen der Disziplin streng von allem davon Abzuleitenden und von ihnen her zu Begründenden (als Theoreme) unterscheidet. Der Haupthintergrund der „Elemente“ ist jedoch die Platonische Ideenlehre, obwohl dies an keiner Stelle des Werkes explizit gesagt wird. Von ihr her müssen wir voraussetzen, daß die genuin geometrischen und arithmetischen Gegenstände als nur im Denken zu erfassende Gebilde aufgefaßt werden, die zwar durch sinnliche Symbolisierung „veranschaulicht“, aber niemals gänzlich und rein darzustellen sind. Darüber hinaus zeichnet sich das Werk durch einige Züge aus, die den antiken Wissenschaftsbegriff nachhaltig bereicherten. Es ist ein Lehrbuch „praktischer Wissenschaft” (nicht im aristotelischen Sinne Theorie der Praxis!) 125 Euklid, Die Elemente, Buch I-XIII, hgg. und. ins Deutsche übersetzt von Clemens Thaer, Darmstadt 1962, 479 S.; Euclid‟s Elements of Geometry. The Greek text of J. L. Heiberg (1883-1885), edited and provided with a modern English translation by Richard Fitzpatrick (13 Bücher), Internet 2008. Im folgenden wird zitiert nach: Euklid‟s Elemente, 15 Bücher, aus dem Griech. übers. von Joh. Friedrich Lorenz, neu hgg. von Carl Brandan Mollweide, 5. Aufl. Halle 1824. 126 Clemens Thaer, Hg.: Die Data von Euklid. Nach Menges Text aus dem Griechischen übersetzt und herausgegeben, mit 89 Figuren, Berlin/Göttingen/Heidelberg 1962, 73 S. Zu Euklids mathematischen Leistungen und seine weiteren Schriften Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 1. Band, 3. Aufl. Leipzig 1907, S. 258 - 294. 252 und bringt ägyptisch-babylonische Meß- und Rechenkunst als Aufgaben- bzw. Problemsammlung für geometrische Konstruktionen so zur Geltung, daß jedermann den unmittelbaren Nutzen dieser Wissenschaft für das Leben sehen konnte. Wie der Philosoph bei Platon von der sinnlichen Anschauung ausgehend zur „Ideenschau“ aufzusteigen hat, verwendet auch Euklid die sinnliche Anschauung als didaktischen Ausgang für sein Lehrbuch. Von daher versteht sich, daß die Geometrie mit ihren noch am leichtesten zu veranschaulichenden Gegenständen die Propädeutik für alles weiter Behandelte darstellt, insbesondere auch für die Arithmetik. In dieser Hinsicht, die als unanschaulich geltenden arithmetischen Verhältnisse aus anschaulichen geometrischen Verhältnissen zu demonstrieren, ist es für die Lehre der Mathematik im Abendland richtungsweisend geblieben bis zur Renaissance, ja teilweise bis heute. Ein besonderes Raffinement der Darstellungsweise bis in die Formulierungen des Textes besteht jedenfalls darin, dem Leser - und sogar dem unvorgebildeten Schüler - den Eindruck zu erwecken, diese Veranschaulichung genüge zum vollkommenen Verständnis des Gesagten. Eben darum hat es sich vor allem so lange als Schullehrbuch gehalten. Was an stillschweigend vorausgesetzten platonischen Ideen und Lehrmeinungen darüber hinaus enthalten ist, erschließt sich gewöhnlich erst dem zweiten und dritten Blick - und manchem Leser überhaupt nicht, ohne daß dieser den Eindruck gewinnen müßte, er habe die Sachen bei sonst genügender Aufmerksamkeit und gutem Gedächtnis nicht vollständig verstanden. Der umgekehrte Weg, die Geometrie aus der Arithmetik herzuleiten und zu begründen und damit die sinnliche Anschauung zugunsten des „reinen Denkens” in Zahlenverhältnissen gänzlich aus der Mathematik zu eliminieren, war vordem von den Pythagoräern schon versucht worden. Er hatte sich jedoch mit ihren „rationalen” Zahlbegriffen als nicht gangbar erwiesen. Schon die arithmetische Berechnung der Diagonale im Quadrat und des Kreisdurchmessers im Verhältnis zum Kreisumfang hatte die Pythagoräer auf die „Irrationalzahlen” geführt, bei denen die Frage, ob es sich bei ihnen überhaupt um Zahlen handeln konnte, in der Antike immer umstritten blieb. Und die Benennung dieser Zahlen als „alogoi“ (ἄ , eigentlich: „kein Verhältnis aufweisend“ bzw. „nicht mit gemeinsamem Maße berechenbar, „inkommensurabel“) zeigt noch, daß sie dies als vernichtende Niederlage des rationalen arithmetischen Denkens gegenüber den Phänomenen der geometrischen sinnlichen Anschauung empfanden, in der ja auch irrationale Verhältnisse, wie z. B. die Diagonale im Rechteck oder ein Kreis mit seinem Durchmesser, leicht darstellbar sind. Euklid definiert im 10. Buch, was rational (griechisch: rheton ῥή) und irrational (griechisch: alogon ἄ) bedeutet auf der Grundlage von Kommensurabilität und Inkommensurabilität von geometrischen Strecken. Derart entmutigt, wurde der Versuch, Geometrie von der Arithmetik her zu begründen, auch erst durch Descartes im 17. Jahrhundert mit Erfolg im Programm seiner „analy- 253 tischen Geometrie” wieder aufgenommen, nämlich als man sich im Abendland daran gewöhnt hatte, das Irrationale im Rationalen selbst zu verankern. Der Aufbau des Werkes „Elemente” zeigt überall die glückliche Verbindung von Theorie und Praxis. Die dreizehn Bücher (denen zwei weitere aus der Schule beigesellt sind) beginnen fast alle mit einem „faktenkundlichen“ Teil, der in der Gestalt von Definitionen die Grundlagen der ganzen Disziplin liefert. Daran schließt sich jeweils ein Hauptteil mit „Problemen” als Konstruktionsaufgaben an, zu deren Lösung aus den theoretischen Grundlagen zu folgernde „Lehrsätze” (Theoreme) gleichsam als intellektuelles Handwerkszeug mitgegeben werden. In diesen „Problemen“ und „Lehrsätzen“ stellt sich nun der ganze Reichtum mathematischen (geometrischen wie arithmetischen) Wissens dar, den man - nach aristotelischer Wissenschaftslehre - als den eigentlich theoretisch-erklärenden Teil der Mathematik ansehen kann. Die meisten der Bücher (bzw. Kapitel) beginnen mit „Hypothesen” (wörtlich: Unterstellungen, Voraussetzungen, in lateinischen Ausgaben als „Definitionen“ übersetzt). Sie benennen und definieren (im 1. bis 4. und 11. bis 13. Buch) die geometrischen und (im 5. bis 10. Buch) die arithmetischen Gebilde. Darin darf man gewiß den nach Aristoteles zu fordernden faktenkundlichen Teil dieser Wissenschaft sehen. Nur handelt es sich dabei um Fakten, Elemente, Gebilde, die - anders als die aristotelischen sinnlich-empirisch zu beschreibenden Substanzen gerade nicht sinnlich-anschaulich gegeben, sondern im Denken erfaßt werden sollen. Es sei betont, daß dies auch für die so anschaulich erscheinenden geometrischen Gebilde gilt. Auch für diese, erst recht aber für die arithmetischen Gebilde, ist der Ausgang von der Anschauung zwar „didaktisch“ notwendig, aber nicht hinreichend. Man hat ja später oft und in der Moderne ganz besonders die angeblich allzu schlichten, ja ungenügenden und irreführenden „Definitionen“ bespöttelt und sie durch „Beliebiges“ (wie D. Hilbert in seiner Axiomatik) ersetzen wollen. Und dies vor allem in Verkennung eben dieser Voraussetzung, daß sie keineswegs „anschauliche“ Gegebenheiten beschreiben, sondern Hinweise für ihr über die Anschauung hinausgehendes denkerisches Erfassen als „Ideen“ geben sollten. Man hat sich hier wieder an die durch Platon von Demokrit übernommene Lehre vom Denken in Modellen zu erinnern, die dabei zum Tragen kommt: Das Modell gibt den sinnlichen Ausgang, aber das eigentlich zu Denkende ist gerade nicht im Modell darstellbar. Wie dies eigentliche Denken dabei funktioniert, ist freilich immer das große Geheimnis der Platoniker - und auch der „überanschaulich denkenden“ Mathematiker - geblieben. 127 Wir können dazu nur weiter unten einen Erklärungsvorschlag machen. Betrachten wir das an den geometrischen und anschließend an den arithmetischen Beispielen etwas ausführlicher. 127 „Wenn wir heute in unseren besten Theorien die Grenzen unseres anschaulichen Denkens überwinden können, dann nicht zuletzt deswegen, weil der Rückgriff auf die Anschauung so entschieden aus den Beweismethoden der Mathematik verbannt wurde“. N. Froese, Die Entdeckung der axiomatischen Methode durch Euklid, im Internet, Stand 30. 8. 2015, S. 4. 254 Das erste Buch der Elemente beginnt mit seinen „Definitionen“ bzw. „Hypothesen“ folgendermaßen: „1. Ein Punkt ist, was keine Teile hat. 2. Eine Linie aber ist eine Länge ohne Breite. 3. Das Äußerste einer Linie sind Punkte. 4. Eine gerade Linie (Strecke) ist, welche zwischen den in ihr befindlichen Punkten auf einerlei Art liegt. 5. Eine Fläche ist, was nur Länge und Breite hat. 6. Die Enden einer Fläche sind Linien. 7. Eine ebene Fläche ist eine solche, die zu den geraden Linien auf ihr gleichmäßig liegt. 8. Ein ebener Winkel ist die Neigung zweier Linien gegen einander, die in einer Ebene zusammentreffen, ohne in gerader Linie zu liegen“. 9. - 12. definieren verschiedene Winkel. „13. Grenze heißt, was das Äußerste eines Dinges ist. 14. Figur, was von einer oder mehreren Grenzen eingeschlossen wird.” usw. über Kreis, Dreieck, Polygone bis zum berühmten Satz über Parallelen: „35. Parallel sind gerade Linien, die in derselben Ebene liegen, und, soweit sie auch an beiden Seiten verlängert werden, doch an keiner Seite zusammentreffen”. Im 11. Buch definiert Euklid auf die gleiche Weise (und unter anderem) die geometrischen „Körper” als das „was Länge, Breite und Tiefe hat”. Darunter kommt auch die „Kugel” (Sphaera ĩ) vor, von der es heißt (Nr. 14:) „Eine Kugel ist der Körper, welchen ein Halbkreis beschreibt, der sich um seinen unverrückten Durchmesser einmal ganz herumdreht”. Bei diesen Definitionen der geometrischen Gebilde handelt es sich um dialektische Bestimmungen. Unter deren spezifischen Merkmalen wird mindestens eines in positiver und zugleich negierter Weise angegeben. Auf letzteres weist die häufig explizite negative Formulierung hin. Wir sagten von ihnen, daß so definierten Begriffen nichts in der Wirklichkeit entspreche (sie haben keine eigene Extension). Wohl aber entspricht ihren Komponenten, nämlich getrennt den positiven wie auch den negativen, etwas in der Wirklichkeit. Hier kommen sie nun als Gegenstände des platonistischen „dialektischen“ Denkens wieder zur Geltung. Zeigen wir das an den oben zitierten Definitionen. 1. „Punkt ist, von dem kein Teil (existiert)“ (Semeion estin, hou meros ouden ζημεĩον ἐζηὶν οὗ μέρος οσδέν). Das läßt sich recht anschaulich verstehen, wenn man den Punkt wörtlich als ein „Zeichen“ versteht, das dann kein Zeichen mehr ist, wenn man ihm einen Teil wegnimmt. Das heißt, es muß „unteilbar“ sein. Das „ist“ aber muß als Äquivalenzjunktor gelesen werden, also als Definitionszeichen bzw. mathematisches „ist gleich“ („=“). Anders formuliert: „Punkt = nicht teilbares Etwas“. Drückt man mit spitzem Schreibgerät einen Punkt auf eine Unterlage, so wird man in der Tat keine Teile unterscheiden können. Das teillose Etwas hat dann „keine Teile“, wie die sinnliche Beobachtung lehrt. Demokrit hat ein derartiges Gebilde „Atom“ (ἄηομον, Unteilbares, lat. individuum) genannt“, und jeder Grieche mußte das verstehen. Aber derselbe Demokrit nennt seine Atome auch insgesamt „das Volle“ (pléres πλήρες) im Gegensatz zum „Leeren“ (kenón κενóν). Um das Leere zu füllen, müssen die Atome eine gewisse Ausdehnung besitzen. Demokrit spricht deshalb von unterschiedlichen „Größen“ der Atome. Und gerade dies geht aus Euklids Sätzen Nr. 3, 4 und auch 7 hervor. Punkte liegen „in der 255 Linie“, „begrenzen Linien“ und „liegen in Linien in der Fläche“. Liegen Punkte in den Linien, so müssen sie zumindest an deren Ausdehnung in einer Richtung „teilhaben“ (wie Platon dies nannte). Und das wird in der Geometrie als Schnittpunkt von Linien dargestellt. Diese Ausgedehntheit der Punkte wird in der Euklidischen Definition unterschlagen, aber beim geometrischen Umgang mit Punkten vorausgesetzt, wenn die genannten Sätze einen verständlichen Sinn haben sollen. Beide anschaulichen, aber sich ausschließende Sachverhalte sind nun im geometrischen Begriff des Punktes zusammengeführt und machen seinen dialektischwiderspruchsvollen Charakter aus. Was aber die „Idee“ des Punktes ausmacht, so ist sie im platonischen Sinne nur zu denken. Sie drückt sich keineswegs in einem graphischen Bilde aus. Dasselbe Verfahren der kontradiktorischen Begriffsdefinition kommt nun auch, wie gezeigt werden soll, bei den meisten übrigen Definitionen zum Tragen. Konzentrieren wir uns bei den übrigen Gebilden aufs Wesentliche: 2. Die „Linie“ (γραμμή) hat als „breitenlose Länge“ sowohl Breite - um als gezeichneter Strich oder gespannte Schnur gesehen zu werden - als auch NichtBreite - um als Strich zwar veranschaulicht, aber nicht eigentlich dargestellt zu werden. Was Nicht-Breite anschaulich bedeuten kann, sieht man an flachen Dingen wie Blättern und Häuten, wenn man sie von der Seite betrachtet, aber nicht an Linien. 3. „Endpunkte“ von Linien haben als Teile der Linie Längenausdehnung, als Punkte zugleich auch nicht. 4. Die „Geradheit“ einer Linie ist ein „Gleichmaß“ der Längen-Erstreckung zwischen allen Punkten in ihr: Die Linie enthält also interne „Endpunkte“ und zugleich auch nicht. Was „Gleichmaß“ ist, wird gerade nicht definiert. Ersichtlich gilt diese Definition auch für gleichmäßig gekrümmte Linien, etwa einer Kreislinie, die zu allen Punkten auf ihr „gleichmäßig liegt“. Es ist daher ein falsches Argument der sog. nichteuklidischen Geometrien gegen den Euklidismus, dieser habe die „Geradheit“ als „Nichtkrümmung“ vorausgesetzt. Gerade die Dialektik der euklidischen Definition von Geradheit erlaubt es - und hätte es auch den antiken Geometern schon erlaubt - die „Geradheit einer Linie“ als „stetige bzw. gleichmäßige Krümmung“ zu verstehen. Galilei hat die „horizontale Linie“ (die mit der Erdoberfläche gleichmäßig gekrümmt ist) als „gerade Linie“ bezeichnet. Und daß Bolyai, Lobatschewski, Gauß und Riemann gerade dieses Krümmungs-Verständnis der Geraden als Erweiterung und Verallgemeinerung der Geometrie durch die „nichteuklidische Geometrie“ entwickelten, erweist die Fruchtbarkeit des Euklidischen Verfahrens der dialektischen Definitionen und seine in der Mathematik fortwirkende Aktualität. 5. Eine „Fläche“ sieht man an jedem flachen Gegenstand von vorn und hinten. Daß sie „nur“ Breite und Länge, d. h. „keine Tiefe“ hat, sieht man nicht, wenn und solange man die Fläche betrachtet. Wohl aber sieht man, was gemeint sein kann, wenn man den flachen Gegenstand von der Seite betrachtet. Dann aber sieht man eben die Fläche nicht. Zusammen kann es nur „gedacht“ werden. 256 6. Die Begrenzung einer Fläche gehört als Linie sowohl zur Fläche als auch nicht, denn als Flächenbegrenzungslinie hat sie sowohl Breite (als zur Fläche gehörend) als auch nicht (als nicht zur Fläche gehörend). 7. Die ebene Fläche enthält zugleich Linien als auch nicht. „Gleichmäßig liegen“ (der Linien) wird aber wie im Falle der Geraden gar nicht definiert und gilt daher auch für sogenannte nichteuklidische Flächen, die daher ebenfalls auf den euklidischen Begriff der Flächen rückführbar sind. 8. - 12. Für die Winkeldefinition wird nur auf das Verhältnis („Neigung“) sich schneidender Linien abgestellt, nicht aber auf die sich zwischen den Schenkeln erstreckende Fläche, die gar nicht genannt und auch später nicht definiert wird. Man muß sie „hinzudenken“. Bei der Bestimmung der Winkelgröße (rechter Winkel, stumpfer und spitzer Winkel) ist es umgekehrt. Schenkelneigung und die eingeschlossene Fläche – wohlgemerkt, sie wird nicht definiert und muß doch vorausgesetzt werden, denn ohne sie kann nicht von Winkelgrößen die Rede sein können nur getrennt gesehen, müssen aber als Einheit gedacht werden. 13. „Grenze“ - ein schon vorsokratischer Begriff (péras έdas Gegenteil von ápeironἄInfinites, Unendliches)mit weit über die Mathematik hinausreichender Bedeutung - gehört als das, „worin etwas endet“ zugleich der begrenzten Sache an und auch nicht, wie schon bei den Endpunkten der Linie und den Begrenzungslinien der Flächen gesagt wurde. 14. Umgekehrt ist daher auch jede „Figur“ das von ihrer Grenze Umschlossene. Die Grenze gehört jeweils dazu und zugleich auch nicht. Der Leser mag die übrigen geometrischen Figuren auf ihre Dialektik hin selbst überprüfen. Sie spielt vor allem damit, daß die bisher definierten Begriffe wiederum als Merkmalsbestände in diesen verwendet werden. Betrachten wir aber auch noch die berühmte Parallelendefinition (Nr. 35). Abgesehen von der Unklarheit der Merkmale „gerade“ und „in derselben Ebene liegen“, was ja auch für die sogenannten nichteuklidischen Ebenen paßt, wird das „nicht einander Treffen, soweit sie auch an beiden Seiten verlängert werden“ als spezifisches Merkmal der Parallelen ausgewiesen. Was „gleicher Abstand zwischen geraden Linien“ bedeutet, sieht man ohne weiteres in der Nähe (etwa an geraden Eisenbahn-Gleisen). „Verlängern“ lassen sich solche Linien auf dem Papier oder auf einer Landebene, soweit es eben praktisch geht. Aber was man auf einige Entfernung an solchen Verlängerungen sinnlich wahrnimmt, ist, daß sie je weiter desto mehr zusammenlaufen. Das „in der Verlängerung“ gerade nicht Wahrzunehmende (daß die Parallelen gleichen Abstand bewahren) ist also so zu denken, wie es in der Nähe gesehen wird und nicht, wie es in der Ferne gesehen wird. Der dialektische Witz bei der späteren Diskussion des Parallelenbegriffs liegt nun gerade darin, daß die weitere Entwicklung der Parallelentheorie dies „Nichttreffen“ im unendlich Entfernten genau nach der sinnlichen Erfahrung des „Treffens im entfernt Wahrnehmbaren“ behandelt: Die Parallelen, die sich im Endlichen nicht treffen, treffen sich gerade und nur im Unendlichen! 257 Daß hier die geometrischen Grundsachverhalte „dialektisch“ definiert werden, kann nur aus der Voraussetzung der platonistischen These erklärt werden. Nämlich daß durch die Veranschaulichung gerade nicht das ideelle Wesen dieser Gebilde darstellbar sei. Denn es liegt ja auf der Hand, daß etwa die aristotelische oder stoische Sicht dieser Gebilde ausschließlich auf ihre schlichte Anschaulichkeit verweisen würde und sie durchweg „nicht-dialektisch“ definiert hätte. Es wären Definitionen dabei herausgekommen, die George Berkeley später für den „Punkt“ mittels seines „Minimum sensibile“ vorgenommen hat, und die durchaus für die Praxis genügen und dem Verständnis nach herkömmlicher logischer Begriffsbildung entsprechen. Dann ist nämlich der Punkt eben das gerade noch Sichtbare einer minimalen Fläche (was jedermann als den berühmten Fliegendreck kennt), und die Linie der Rand einer Fläche, die von der Seite her gesehen wird; die Fläche selbst aber das, was man von einem bestimmten Standpunkt aus an Körpern sieht, während Körper ihrerseits überhaupt nicht als solche gesehen werden, sondern nur sinnlich ertastete Erfahrungsgebilde sind. Die epochale Erfolgswirkung der euklidisch-platonischen Definitionen besteht aber gerade darin, daß sie diese Merkmale eben mitenthalten und durch sie an die Anschauung (und Betastung) des Praktikers appellieren und sich ihr verständlich machen können, während sie dem eingeweihten „Denker“ noch viel mehr und zum einen oder anderen gerade das Gegenteilige vorzustellen aufgibt. Dies zu bemerken ist schon deshalb wichtig, weil die herrschende Meinung in der Mathematik spätestens seit der Neuzeit mathematische Definitionen grundsätzlich für widerspruchslos hält und deshalb auch im Rückblick bei den euklidischen Definitionen allenfalls Schlichtheit, Fahrlässigkeit, Adaptation an das Verständnis von Anfängern und alles mögliche andere eher annimmt als explizit definierte Widersprüchlichkeit. Und da man nicht damit rechnet, setzt man eben auch die Nichtwidersprüchlichkeit der mathematischen Begriffe in Euklids Elementen voraus und hat sich längst daran gewöhnt, mit ihnen so umzugehen, als ob sie tatsächlich widerspruchslos seien. Tauchen dann bei ihrer Verwendung in Theorien und Theoremen Widersprüche auf - und sie sind in allen Teilen der Mathematik eine immer wieder auftretende Herausforderung - so wird das nicht auf die Dialektik der Begriffe, sondern auf ihre angebliche Unklarheit oder falsche deduktive Satzbildung u. ä. zurückgeführt. Kommen wir nun zu den arithmetischen Gebilden und weisen ihre „Dialektik“ bzw. ihren kontradiktorischen Charakter nach, der sie eben auch von den regulären logischen Begriffen unterscheidet und zu reinen „Denkgebilden“ macht. Und bemerken wir hier, daß das anschauliche Moment an diesen Gebilden durch Euklid grundsätzlich an den eher anschaulichen Sachverhalten der Geometrie verdeutlicht wird: Die Zahlen und Zahlverhältnisse wurden (und werden bis heute) an sichtbaren Gegenständen demonstriert und gelernt. Das zeigen die Psephoi, Rechensteine der Griechen, die Knöpfe auf dem Abacus, die Augen auf einem Würfel, die zehn Finger, die Koordinaten als Zahlenstrahlen im cartesischen Koordinatensystem und manch andere Veranschaulichung. 258 Die Einheit wird als Punkt dargestellt, die Größe einer Zahl durch eine kürzere oder längere Punktreihe, die Anordnung von Punkten auf einer Fläche oder auf den Flächen eines Kubus führt zu bestimmten Zahlarten. Gleichungen und Ungleichungen sowie Proportionsgesetze werden am Modell der Waage mit horizontalen Waagebalken versinnlicht. Aber der platonische Denker weiß, daß dies das ideelle Wesen der Zahlgebilde nicht darstellt, sondern nur zu ihrem Denken hinführt. Dieses aber besteht - nach unserem Interpretationsvorschlag – keineswegs darin, sich etwas mystisch Unbestimmtes zu „denken“ (was kein Denken wäre), sondern solche Anschauung gerade festzuhalten und mit einem Anschauen von etwas dazu Gegenteiligem „dialektisch“ zu verknüpfen. Wenn Euklid von Zahlen spricht, so handelt es sich ausschließlich um das, was in den neueren Zahlentheorien als „natürliche“ (positive ganze Zahlen) bezeichnet wird. Das heißt speziell, daß es hier weder die Null noch negative Zahlen noch echte Brüche gibt. Die Buchstaben des Alphabets in ihrer Anordnung waren für die Griechen zugleich Zahlzeichen. Und wenn sie Gegenstände abzählten, so hatten sie ebenso wie die meisten Sprachgemeinschaften besondere Wörter für kardinale Größen und ordinale Anordnung des Gezählten bzw. des Bemessenen in übersichtlichen Dimensionen der sinnlichen Anschauung. Größen und ihre Unterschiede sind bei Ansammlungen von Dingen für jeden Praktiker sinnlich wahrnehmbare Phänomene. So auch bei den geometrischen Gebilden. Einige Strecken sind länger oder kürzer als andere, einige Flächen und Körper größer oder kleiner als andere. Um diese Größenverhältnisse genauer zu bestimmen, braucht man Maßstäbe. Diese liefert die Arithmetik bzw. die Zahlenlehre. Aber was dazu als Maßeinheit der Maßstäbe gelten konnte, blieb für die Griechen (und bis in die moderne Technik) immer eine Sache der Konvention. Was in der Geometrie „nur mit Zirkel und Lineal“ qualitativ konstruiert wird, das wird mittels der Arithmetik gemäß stipulierten Einheiten quantitativ „bemessen“. Daß nun jedoch die Zahlen selber „Größen“ seien oder „besäßen“, ist eigentlich unvorstellbar. Niemand stellt sich große Zahlen als etwas Großes und kleine Zahlen als etwas Kleines vor. Auch lange Zahlenreihen vor oder hinter einem Komma in der Dezimalnotation veranschaulichen keine großen oder kleinen Zahlen. Und doch ist gerade dies die dialektische Zumutung der platonischen Ideenlehre, die Zahlen als Größen zu „denken“ und die Größenunterschiede in der Sinnenwelt durch die „Teilhabe“ der sinnlichen Phänomene an den Zahl-Ideen zu erklären. Die Zahlideen stehen jedoch in der platonischen Ideenhierarchie unterhalb der logischen Begriffe, und so haben sie teil an diesen. Ihre „Größen“ ergeben sich aus den Voraussetzungen der Logik zur Verknüpfung der logischen Begriffe mittels der Junktoren zu komplexen Ausdrücken. Die zweite dialektische Zumutung als Erbschaft der platonischen Lehre von der „Gemeinschaft der Ideen“ (koinonia ton ideon κοινφνία ηῶν ἰδεῶν) ist die These, daß die Zahlen sich selber durch sich selber nach ihren Größen im Rahmen der logischen Begriffe Einheit und Allheit unterscheiden und bestimmen. 259 Beides zusammen bedeutet, daß die logische Maßeinheit aller Zahlen, die Monas (μόνας), zugleich auch die erste Zahl „eins“ (henas ἕνας) ist. Aber damit beginnen auch schon die Interpretationsprobleme dieser Zahlenlehre. Viele Mathematiker unterscheiden die Monas als Einheit von der Eins und gehen davon aus, daß die Eins gar keine Zahl sei, sondern erst die Zwei die erste Zahl. Die Folgen werden wir sogleich näher betrachten. Die Ausarbeitung der euklidischen Zahlenlehre ist von manchen Interpreten eine „Zahlenlehre ohne Zahlen“ genannt worden. Ersichtlich ist außer von der Monas kaum von bestimmten Zahlen die Rede, also auch nur gelegentlich von der Eins (henas). Diese Behandlungsweise dürfte jedoch von der aristotelischen Kategorienlehre inspiriert sein. Nicht die einzelnen Zahlen, sondern die Qualitäten, Quantitäten und Relationen der Zahlbegriffe (als zweite Substanzen) werden möglichst umfassend beschrieben und die Folgen daraus dargestellt. Die Definitionen der Zahl und der Zahlbestimmungen lauten wie folgt: „1. Die Einheit ist, nach welcher jedes Ding eins heißt. 2. Eine Zahl aber eine aus Einheiten bestehende Menge. 3. Ein Teil ist die kleinere Zahl von der größeren, wenn sie die größere genau mißt. 4. Ein Bruch aber, wenn sie, ohne die größere genau zu messen, Teile der größeren enthält. 5. Ein Vielfaches ist die größere Zahl von der kleineren, wenn sie von der kleineren genau gemessen wird. 6. Eine gerade Zahl ist, welche halbiert werden kann. 7. Eine ungerade Zahl aber, welche nicht halbiert werden kann. 8. Gerademal gerade ist die Zahl, welche von einer geraden Zahl nach einer geraden Zahl gemessen wird. 9. Gerademal ungerade aber, welche von einer geraden Zahl nach einer ungeraden Zahl gemessen wird. 10. Ungerademal ungerade ist die Zahl, welche von einer ungeraden Zahl nach einer ungeraden Zahl gemessen wird. 11. Eine Primzahl ist, welche nur von der Einheit gemessen wird. 12. Primzahlen zueinander sind Zahlen, welche nur die Einheit zum gemeinsamen Maße haben. 13. Eine zusammengesetzte Zahl ist, welche von irgend einer von ihr verschiedenen Zahl gemessen wird. 14. Zusammengesetzte Zahlen zu einander sind, welche irgend eine Zahl zum gemeinsamen Maße haben. 15. Eine Zahl vervielfältigt eine andere, wenn letztere so oft, als erstere Einheiten hat, zusammengenommen, eine Zahl (Produkt) hervorbringt. 16. Wenn zwei Zahlen einander vervielfältigen, so nennt man das Produkt aus denselben eine Flächenzahl, und Seiten (Faktoren) derselben die Zahlen, welche einander vervielfältigen. 17. Wenn drei Zahlen einander vervielfältigen, so nennt man das Produkt aus denselben eine Körperzahl, und Seiten (Faktoren) derselben die Zahlen, welche einander vervielfältigen. 18. Eine Quadratzahl ist das Produkt aus zwei gleichen Zahlen, oder unter zwei gleichen Zahlen enthalten. 19. Eine Kubikzahl aber ist das Produkt aus drei gleichen Zahlen, oder unter drei gleichen Zahlen enthalten. 20. Proportioniert sind Zahlen, wenn die erste von der zweiten und die dritte von der vierten entweder einerlei Vielfaches, oder einerlei Teil, oder einerlei Bruch ist. 21. Ähnlich sind Flächen-, auch Körperzahlen, welche proportionierte Seiten haben. 22. Eine vollständige (vollkommene) Zahl ist, welche allen ihren Teilen zusammen gleich ist.“ 1. „Einheit“ (monas μóνας) ist die logische Bedeutung des „ein“ (hen ἕν). Dieses „Hen“ wird als sprachliches Partikel benutzt und wurde von Aristoteles als Quantifikationsjunktor („Individualisator“) in die Logik übernommen. Man subsumiert damit einen beliebigen „seienden“ Gegenstand (jedes der Seienden 260 ἕκαζηον ηῶν ὄνηφν) als Einzelnes einem allgemeinen Begriff, in dessen Umfang es fällt: „ein Hund“, „ein Tier“, „ein Lebewesen“. Aber auch: „eine Zahl“, „eine Menge“, „eine Idee“, usw. Zugleich ist „Hen“ aber im griechischen Sprachgebrauch auch das erste Zählwort in der Reihe „eins, zwei, drei …“ Hier zeigt sich die erste dialektische Bestimmung dieser platonischen Zahlentheorie. Die logische Einheit (Monas) ist zugleich die Maßeinheit aller Zahlen, die gemäß Satz 2 von der Monas unterschieden werden. Also ist die Monas keine durch Hen („eins“) bezeichnete „Zahl“. Nach einigen Interpreten muß daher die Zahlenreihe mit der Zwei beginnen. Hen („eins“) bestimmt jedoch auch jeden einzelnen Gegenstand, also auch jede Einheit (Monas). Und da im Griechischen Hen durchweg zum Zählen verwendet wird, ist die Monas auch die erste Zahl Eins. Sie wird im Euklidtext auch gelegentlich als solche benutzt. 2. Die Definition der „Zahl“ (arithmos ἀριθμóς) – im Unterschied zur „Einheit“ - benutzt den schon dialektisch definierten Einheitsbegriff und unterscheidet ihn von der „Menge des aus Einheiten Zusammengesetzten“ (ek monadon synkeimenon plethos ἐκ μονάδφν ζσνκείμενον πλῆθοϛ). Die kontradiktorischen Merkmale der „Einheit“ bringen die Dialektik auch in den Zahlbegriff. Denn die „Menge“ ist hier zusammengesetzt aus „Einheiten“. Gemäß Satz 1 ist aber die Menge auch ein durch den logischen Individualisator zu bestimmendes „Eines“, nämlich im Sinnes eines Gesamtes oder einer Ganzheit. Also ist die Menge als Zahl zugleich „Eines“ und auch ein Ganzes von Einheiten. Daß die Anfangszahl nicht die Eins, sondern die Zwei sei, wird daraus geschlossen, daß die Zwei bei Platon und dann im Platonismus als „undefinierte Zweiheit“ (ahoristos dyas ἀοριζηòς δύας) beizeichnet wurde. Es ist lange und ziemlich ergebnislos darüber spekuliert worden, was damit gemeint sein könnte. „Ahoristos“ bedeutet unbegrenzt bzw. undefiniert (horos ὅρος = Grenze, Definition). Mit der undefinierten Zweiheit (als „Einheit“) lassen sich alle geraden Zahlen definieren. Und dies ebenso, wie sich mittels der Einheit (monas μóνας) alle Zahlen insgesamt definieren lassen. Die gerade Zahl heißt bei Euklid „ártios arithmós“ ἄρηιος ἀριθμóς (eng gefügte, passende, auch vollständige Zahl). Die ungerade Zahl, die Euklid als „nicht halbierbar“ = „nicht durch 2 ohne Rest teilbar“ genau von den geraden Zahlen unterscheidet, heißt „perissós arithmós περιζζòς ἀριθμóς“ = über das Maß hinausgehend, etwa „Überschußzahl“. Ungerade Zahlen sind sämtlich nicht halbierbar. Das wird bei der Definition der Primzahlen (s. u.) eine wichtige Rolle spielen. 3. Jede größere Zahl als die Eins hat Teile (méros μέρος), d. h. die Einheit und damit auch die Zahl Eins hat keine Teile. Die Zahlteile sind also keine Brüche der Einheit, sondern nur ganzzahlige Einheiten, durch welche sich die jeweilige Zahl „bemessen läßt“ (z. B. 4 von 8 heißt: 4 Teile der Menge von 8 Einheiten). Euklid hält sich an die „Einheit“ in der Bedeutung von „ein Ganzes“ (eine Allheit). Wenn aber auch die Eins eine Zahl ist, muß sie ebenfalls Teile besitzen. Das zeigt sich bei jeder Teilung einer „Einheit“ in Hälften, Drittel usw. Spätere 261 Interpreten haben diese Teilungen auch auf die Zahl Eins bezogen. Damit läßt sich die Teilung von Zahlen in „sie genau messende“ Komponenten gar nicht von der Teilung der 1- Einheit in „sie genau messende“ Bruchteile (s. Satz 4), d. h. in echte Brüche, unterscheiden. 4. Der Bruch wird als eine Zahl definiert, die aus Teilen einer größeren Zahl gebildet wird, die die größere Zahl „nicht genau mißt“ und stets kleiner bleibt als die größere (z. B. 6 bezüglich 7). Die Definition schließt also das aus, was man heute echte Bruchzahl nennt, nämlich Teile der 1- Einheit. Versteht man aber auch die 1- Einheit als Zahl, so sind zugleich auch alle echten Bruchzahlen eingeschlossen. Euklid vermeidet mit seiner dialektischen Definition, sich auf das pythagoräische Problem der Inkommensurabilität bei den sog. periodischen und unperiodischen „irrationalen“ Brüchen einzulassen. 5. Beim „Vielfachen“ wird der Multiplikator definiert, welcher als Zahl angibt, wie viele Male eine kleinere Zahl in einer größeren enthalten ist, die sie „genau mißt“. Offensichtlich ist jede ganze Zahl ein Vielfaches der sie genau messenden Einheit. Das muß auch für die Eins, wenn sie die erste Zahl ist, gelten. Sie kann als „einmal Eins“ dialektisch nur ein nicht-vervielfachendes Vielfaches ihrer selbst sein. 6. Hier wird die „gerade Zahl“ durch das Merkmal ihrer Halbierbarkeit definiert. Die Zweiteilung zeigt, aus welchen kleineren geraden oder ungeraden Zahlen als ihren Hälften eine größere Zahl zusammengesetzt ist. Die Zwei als kleinste gerade Zahl halbiert sich nur in zwei Einheiten bzw. Einsen, und dies im Unterschied zu allen größeren geraden Zahlen als die Zwei. Diese Besonderheit bzw. Singularität der Zwei bedingt das Problem, ob die Halbierung der Zwei dasselbe bedeutet wie eine „Teilung durch sich selbst“, die wiederum für die Definition der Primzahlen grundlegend ist (vgl. Satz 11). Beide Möglichkeiten werden dialektisch offen gelassen. 7. Daß die „ungeraden Zahlen“ nicht halbierbar sind, wenn es sich dabei um eine Zweiteilung ohne Rest bei natürlichen Zahlen handelt, ist eine ganz undialektische Definition der ungeraden Zahlen. Sie wird erst im Licht der neueren Bruchzahlentheorie dialektisch, da hier auch die Einheit bzw. die Zahl Eins halbiert wird. 8. – 10. definieren die Bildung der Zahlen aus graden und/oder ungeraden Multiplikationsfaktoren. Damit werden gleichsam auf einen Streich auch die Multiplikation, die Division, das Potenzieren und das Wurzelziehen (aus den durch Potenzieren gewonnenen Zahlen) definiert. Sie sind von großer Bedeutung für das Durchschauen der Reihen- bzw. Folgenbildungen nach der Größenordnung der Zahlen. Vermutlich hat Euklid die Kenntnis dieser Aufbaueigenschaften vorausgesetzt, um auch die Reihenbildung der Primzahlen zu erkunden, die ihm nicht gelungen ist. Darauf läßt sich aus der Tatsache schließen, daß die nächste Definition 11 direkt die Primzahlen thematisiert. Die in Satz 10 liegende Dialektik (der gerademal geraden Zahl) besteht darin, daß sie auch für alle vier Rechenarten bezüglich der Einheit bzw. der Eins gilt 262 (1mal 1 = 1; 1 geteilt durch 1 = 1; 1 in 2. Potenz = 1; Wurzel aus 1 = 1), zugleich aber nicht gilt, weil dadurch keine größere Zahl erzeugt wird. 11. definiert die Primzahl (protos arithmos πρῶηος ἀριθμóς) als Zahl, „welche nur von der Einheit gemessen wird“ (protos arithmos estin ho monadi mone metromenos πρῶηος ἀριθμóς ἐζηὶν ὁ μονάδι μόνῃ μεηρούμενος). D. h., daß sie nur als „x ∙ 1“ dargestellt werden kann, wobei x für jede Primzahl steht. Auf welche Zahlen die Definition paßt, läßt sich bekanntlich bisher nur durch eine Prüfung jeder einzelnen Zahl auf ihre Nicht-Teilbarkeit (ohne Rest) in Faktoren größer als 1 feststellen. Die Dialektik in dieser Definition besteht darin, daß sie einerseits auf die Zwei zutrifft, andererseits auch nicht zutrifft. Die Zwei wird – als gerade Zahl - nur in die Einheiten geteilt und gehört dadurch zu den Primzahlen. Aber dies geschieht nur durch eine Halbierung. Alle geraden Zahlen, die größer als zwei sind, werden aber durch eine Halbierung in größere Zahlen als die Einheiten geteilt und sind deshalb keine Primzahlen. Also kann die Halbierbarkeit der geraden Zahlen kein Primzahlkriterium sein, und die 2 gehört deswegen nicht zu den Primzahlen. Nikomachos, ein Neupythagoräer, hat die Zwei schon vor Euklid nicht als Primzahl angesehen.128 Auch der Neuplatoniker Jamblichos tadelt Euklid, weil er sie als Primzahl zugelassen hat, unter Berufung auf Nikomachos.129 Eine weitere Dialektik der Primzahlen liegt in der Zuordnung oder Nicht-Zuordnung der Eins bzw. der Einheit zu den Primzahlen. Sie ergibt sich aus der Dialektik in den Sätzen 1 und 2. Ist die Einheit zugleich die kleinste Zahl 1, dann gehört sie zu den Primzahlen (1 / 1 = 1). Ist die Eins keine Zahl sondern nur ein anderer Name für die Einheit, dann gehört sie nicht zu den Primzahlen. Bekanntlich haben die Mathematiker bisher die Eins aus den Primzahlen ausgeschlossen. Gleichzeitig rechnen sie durchweg mit der 1 als natürlicher Zahl, was offensichtlich ein selber dialektischer Sachverhalt ist. Das Votum der Mathematiker, die 2 als Primzahl anzunehmen und die 1 auszuschließen, dürfte der Grund dafür sein, daß bisher noch keine algorithmische Primzahlformel vorgeschlagen werden konne.130 12. Diese Definition liest sich wie eine Bestätigung bzw. Wiederholung von Satz 11. Wenn nach dem Votum des Euklid die 2 prim ist, so gibt es auch zwischen geraden und ungeraden Zahlen prim-Verhältnisse, deren gemeinsame Einheit die kleinste Primzahl 2 ist. Die Definition suggeriert, daß es auch unter größeren geraden Zahlen als 2 Primzahlen geben könnte. Man hat allerdings noch keine gefunden, sucht aber noch immer danach. Indem die Definition die 2 als kleinste Einheit der Primzahlen zuläßt, widerspricht sie jedoch den Definitionen 1 128 Vgl. Cl. Thaer, Euklid, Anmerkung zu Buch VII, Def. 11, S. 439. Vgl. Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 3. Aufl. Leipzig 1907, S. 461. 130 Über eine Methode, die Primzahlen mit der 1 und unter Ausschluß der 2 zu berechnen vgl. L. Geldsetzer, Logik, Aalen 1987, S. 151 ff. sowie Elementa logico-mathematica, Internet der HHU Duesseldorf 2006; erweiterte engl. Übersetzung mit Anmerkungen und Korollarien: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013, S. 26 – 28 und S. 95f. 129 263 und 2. Ihre Dialektik liegt darin, daß sie nach Satz 2 die 1 als Einheit für alle Zahlen annimmt und sie für die Primzahlen ausschließt. 13. - 19. definieren die Eigenschaften der Nicht-Primzahlen unter den natürlichen (ganzen) Zahlen. Sie zeugen von Euklids Bemühung, dadurch zu erklären, was ihm bezüglich der Primzahlen nicht gelungen ist. Es handelt sich um Präzisierungen der Definitionen der durch Teilungen und Vervielfältigungen gewonnenen Zahlen. Bemerkenswert ist hier, daß er bezüglich der Flächen- und Körperzahlen bzw. der Spezialfälle Quadrat- und Kubikzahlen explizit auf die geometrische Veranschaulichung der arithmetischen Produktbildung zurückgreift. 20. definiert, was „Proportionen“ (Analogien ἀναλογίαι) zwischen den natürlichen Zahlen sind. Sie ergeben sich, wie aus einigen daraus gefolgerten Theoremen hervorgeht, wenn größere (natürliche) Zahlen durch kleinere ohne Rest dividiert werden können. Alle derartigen Divisionsausdrücke, die denselben Quotienten ergeben, lassen sich proportionieren. Deshalb können alle Divisionsausdrücke, die denselben Quotienten ergeben, gleichgesetzt und in Größenordnungsfolgen angeordnet werden. Dahinter verbirgt sich ebenfalls eine Dialektik, die sich aus der Darstellungsweise mittels Division und Gleichheitszeichen ergibt. Bei Divisionen wird stets nur eine der sich bei der Teilung ergebenden Quoten als Ergebnis („Quotient“) beachtet (z. B. 6 : 2 = 3). Jede Anschaung und Erfahrung mit Teilungen lehrt jedoch, daß bei einer Teilung das zu Verteilende in so viele Teile („Quoten“) zerlegt wird, wie es der Verteilungsschlüssel („Divisor“) vorgibt. Euklid macht bei der „Halbierung“ selbst darauf aufmerksam, daß sich dabei zwei Hälften ergeben, also daß sich keineswegs nur eine einzige ergibt. Deshalb müßte die Division eigentlich als 6 : 2 = 2 ∙ 3 notiert werden, um eine Gleichung darzustellen. Die mathematische Division läßt jedoch die restlichen Quoten verschwinden und kann deshalb keine Gleichung sein. Nur mittels dieser dialektischen Verwendung der Gleichung können alle proportionierten Zahlausdrücke durch „Gleichungen“ gleichgesetzt werden. Einerseits bleiben die Größen der proportionierten Zahlen ganz verschieden, so daß die Gleichungen zugleich eine Ungleichheit zum Ausdruck bringen. Das griechische Wort Analogie (Ähnlichkeit), das im Lateinischen als Proportion übersetzt wurde, bringt diese Dialektik jedenfalls treffend zum Ausdruck. Was analog bzw. ähnlich ist, ist stets in einer Hinsicht gleich, in anderer Hinsicht ungleich. 21. definiert die „Ähnlichkeit“ (Analogia ἀναλογíα) zwischen Flächen- und Körperzahlen auf Grund ihrer geometrisch demonstrablen „proportionalen“ Seitenverhältnisse. Auch hier formuliert Eulid dialektisch: „Gleiche Flächen- und Körperzahlen sind diejenigen, die analoge Seiten haben“ (ὅμοιοι ἐπίπεδοι καὶ ζηερεοὶ ἀριθμοὶ εἰζιν οἳ ἀνάλογον ἔτονηας ηὰς πλεσράς). „Analogie“ bedeutet jedoch auch Ungleichheit, wie oben gezeigt wurde. 22. schließlich definiert die „vollständige (auch: vollkommene) Zahl“ (téleios arithmós ηέλειος ἀριθμóς) als eine solche, die der Summe aller ihrer („allen ihren“) Teilen gleich ist (ho tois heautou méresin ísos on ὁ ηοĩς ἑασηοῦ μέρεζιν 264 ἴζος ὄν). Man sieht hier aber nicht, daß außer der Zahl 3 als Summe von 1 + 2 („aller ihrer Teile“) größere Zahlen die Definition erfüllen. Wohl deshalb hat man den griechischen Text „verbessert“ und spricht statt von „Teilen“ von der Summe der „echten Teiler“ (engl.: „factors“) einer Zahl. So hat man die Zahlen 6, 28, 496, 8128 und 33550336 durch Prüfung als solche „vollkommenen Zahlen“ gefunden. Ob sich auch ungerade vollkommene Zahlen überhaupt finden lassen, ist noch ein offenes Problem. An diese Definitionen der arithmetischen Elemente und Verhältnisse, von denen der Zahlbegriff selbst nur der geringste Teil ist, lassen sich einige logische Erwägungen anschließen, die Mathematiker gewöhnlich nicht anstellen. Mathematiker gehen davon aus, wie die Kommentare zu Euklid zeigen, daß eine regelrechte Definition die „Existenz“ der definierten Sache anzuzeigen habe. Sie machen sich in der Regel keine Gedanken darüber, was in diesem Bereich Existenz bedeutet. Dies umso mehr, als sie bei der Geometrie ebenfalls voraussetzen, die Existenz der geometrischen Gebilde ergebe sich aus ihrer Konstruierbarkeit auf dem Papier. Das kann man aber nur eine halbe Wahrheit nennen, wie sich ja aus der platonischen Voraussetzung ergibt, daß die sinnlichen Phänomene die „Idee“ der Zahlen und geometrischen Gebilde selbst nicht adäquat darzustellen vermögen. Wenn es in diesem Bereich um Definitionen geht, so handelt es sich um das Aufzeigen der intensionalen und extensionalen Komponenten eines Begriffs, der nur „zu denken“ ist und allenfalls in diesem Gedachtwerden so etwas wie Existenz besitzt. Man sollte nun davon ausgehen, daß damit auch alle Zahlen, die auf solche Weise definiert worden sind, auch bekannt sind und angegeben werden können. Das ist bekanntlich nicht der Fall, wie man beispielsweise an den Primzahlen und den „vollkommenen“ Zahlen sehen kann. Man kennt einige und hat sie errechnet bzw. „ausprobiert“, aber man kennt auf keinen Fall alle und kann sie nicht als bestimmte einzelne Zahlen benennen, obwohl jeder Grund zur Vermutung besteht, daß es ihrer noch viele bisher unbekannte geben müßte. Euklid behauptet an unerwarteter Stelle im Buch IX, Satz 20: „Die Menge der Primzahlen übersteigt jede gegebene Anzahl derselben“. Die Tatsache, daß man bei vorliegenden Definitionen bestimmter Zahlarten einige davon kennt und einige nicht, hat immer einen Grund dafür abgegeben, daß die Mathematiker dieses Nichtwissen durch mathematische „Forschung“ in bestimmtes Wissen um immer mehr und größere (oder kleinere) Zahlen umzuwandeln suchten. Dann wird natürlich gerechnet und „ausprobiert“, und die Resultate an Wissen über noch mehr einzelne Zahlen, die die Definitionen „erfüllen“, gilt dann als „Entdeckung“ und „Auffindung“. Diese Meinung beruht aber auf der - gewiß nicht von Euklid gemachten - Voraussetzung, daß man die Zahlen schlechthin schon kenne und um sie wisse, wenn man weiß, daß und wie sie durch Summation von Einsen und ihre rekursive An- 265 ordnung im Dezimalsystem gewonnen werden können. Auf diese Weise gewußte und gedachte Zahlen hat man später „natürliche“ genannt. Und nur von ihnen ist bei Euklid die Rede. Weil man nach allgemeiner Erfahrung mit ihnen und im Dezimalsystem am einfachsten gleichsam mechanisch rechnen kann, erst recht aber im computergerechten dualen Zahlsystem, kam die Vorstellung auf, ihre Definition sei zugleich die grundlegende für Zahlen schlechthin. Leopold Kronecker (1823 - 1891) hat bekanntlich gesagt, „Die (positiven) ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk“ - was nur einen starken Glauben an das Dezimalsystem und ein Verkennen der platonischen Methode des mathematischen „Denkens“ verrät. Wären die Zahlen reguläre logische Begriffe, so müßte ihre Definition ihre sämtlichen Merkmale und Intensionen klar und deutlich bestimmen. Eine Zahl wäre demnach nur dann bekannt und denkbar, wenn man alle ihre definierten Eigenschaften bzw. alle ihre Definitionen kennt. Das wird didaktisch insinuiert, wenn man lernt, wie sie überhaupt aus Einheiten (nicht nur Einsen) zusammengesetzt sind. Die Lernart mittels des kleinen und großen Einmaleins verleiht unmittelbar die Kenntnis ihres Zusammengesetztseins aus solchen Einheiten ohne Rekurs auf die Dezimalkomposition. Und kennt man Zahlen auf diese Weise, so weiß man im Bereich ihrer Größen auch durch pure Aufmerksamkeit auf die sich ergebenden Lücken, welches etwa die Primzahlen unter ihnen sein müssen. Was aber die sogenannten großen Zahlen angeht, die man nach Belieben durch Dezimalbenennungen angibt, so täuschen sie nur vor, bekannt zu sein, während sie es in der Tat nicht sind. Und auch dies kann man eine Folge der Dialektik des arithmetischen Denkens nennen. Die logische Form der Definition ist in diesen Verhältnissen überall der Äquivalenzjunktor, den man sprachlich durch „das heißt“ wiedergeben kann, keineswegs aber durch die Kopula „ist“. In neuerer Ausdrucksweise stellt man die Äquivalenz auch als doppelte Implikation „genau dann, wenn ...“ dar. Die Definition erklärt ein Wort oder einen Ausdruck durch einen intensional-extensional strukturierten Begriff oder einen durch nicht-satzbildende Junktoren gebildeten anderen Ausdruck. Und bekanntlich ist man dabei frei, den Wörtern oder Ausdrücken recht beliebige Begriffe definitorisch zuzuordnen bzw. umgekehrt (da es ja um umkehrbare Verhältnisse geht, wie die Gleichung es zeigt), die Begriffe beliebig mit Worten zu benennen bzw. ihnen Termini beizulegen. Die mathematische Gleichung ist ein logischer Äquivalenzjunktor. Das bedeutet, daß alle echten Gleichungen nur logische Definitionen sein können. Die Frage ist nun, ob diese logische Bestimmung der Definition auch für die mathematische Definition bzw. die Gleichung gilt. Dies möchen wir nun gerade behaupten und damit auch zugleich behaupten, daß alles, was in mathematischen Gleichungen ausgedrückt werden kann, keinen behauptenden Charakter haben und damit auch nicht wahrheits/falschheitsfähig sein kann. Was auch immer links oder 266 rechts in einer Gleichung steht, definiert sich gegenseitig und liefert so nur Ausdrücke, keineswegs Urteile bzw. Sätze. Insofern wird man auch davon ausgehen müssen, daß die euklidischen Definitionen nur das Begriffs- und Ausdrucksmaterial liefern, das für die Geometrie und Arithmetik gebraucht wird. Und dies gilt nun auch für das Verhältnis von dezimalsystematisch oder dualsystematisch bekannten und benannten Zahlen, die eine Definition der natürlichen Zahlen nur vortäuschen, in Wirklichkeit aber reine Benennungen sind. Und es gilt auch von denjenigen Zahldefinitionen, die auf andere Weise bestimmte Zahlarten definieren. Bemerken wir zusätzlich, daß die von Euklid benutzte Notation für Zahlengrößen, in der sie - wohl nach dem Vorbild der aristotelischen Notation der Begriffe durch Buchstaben - durch Buchstaben „allgemein“ dargestellt werden (die man in der Neuzeit Franciscus Viëta als neue Erfindung zuschreibt), sehr dazu angetan war, diesen Unterschied von Wissen und Nichtwissen um die einzelnen Zahlen und ihre Definitionen unsichtbar zu machen. Die Ausdrücke „die Zahl A“ oder „die Zahl B“ suggerieren als „formale“ Notation, daß die dadurch vertretenen Zahlen insgesamt bekannt seien oder bekannt sein könnten. Und die Verwendung dieser Ausdrucksnotation in Gleichungen verstärkt noch diese Suggestion, da man dann voraussetzt, sie definierten sich gegenseitig. Erst recht gelten dann die auflösbaren Gleichungen, in denen einem solchen formalen Zahlausdruck ein oder einige bestimmte Zahlenwerte zugeordnet werden, als Bestätigung dieser Voraussetzung. Aber die unauflöslichen Gleichungen, wie etwa „A = Wurzel aus 2“, definieren „Zahlen“, die gänzlich unbekannt sind (sofern man die sog. Irrationalzahlen überhaupt für Zahlen hält) oder die eben überhaupt keine Zahlen sind. Die mathematische Rechenpraxis ersetzt solche Gebilde durch Näherungswerte, d. h. durch bekannte Zahlen, während die mathematische Theorie ihre definierten „Zahlbegriffe“ um immer neue „Zahlarten“ erweitert. Von diesen kann man logisch nur feststellen, daß sie sowohl Zahlen als auch Nicht-Zahlen sind. Und auch dies zeigt von dieser Seite her die Dialektik des mathematischen Denkstils. Die nächste Gruppe von Voraussetzungen für die Mathematik bilden die sogenannten „Postulate” (Forderungen, Aitémata ἰέ), die sich im ersten Buch an die geometrischen Hypothesen anschließen. Es sind nur drei Forderungen für die Ausführung von geometrischen Konstruktionshandlungen. Läßt man sich durch die Terminologie nicht irreführen, so handelt es sich freilich um die eigentlichen geometrischen Axiome, durch welche der Geometrie ihr anschaulicher Konstruktionsbereich im Endlichen (Finiten) und zugleich ihr unanschaulicher Denkraum im Transfiniten (oder Infiniten) eröffnet wird. „Es sei ein für allemal gefordert, von jedem Punkt nach jedem anderen eine gerade Linie zu ziehen; 2. desgleichen eine begrenzte gerade Linie stetig geradefort zu verlängern; 3. desgleichen, aus jedem Mittelpunkt und in jedem Abstand einen Kreis zu beschreiben”. 267 Hält man sich an die Anschaulichkeit des Geforderten, so handelt es sich um dasjenige, was der Handwerker und Baumeister und auch der Landvermesser ausführen können muß, erst recht natürlich der Mathematiker auf seinem Zettel oder, wie bei den Griechen üblich, durch Striche auf dem Sandboden. Dies zu betonen ist deshalb wichtig, weil es auf diesem sinnlichen Boden ganz unmöglich gewesen wäre, solche Handlungen ins Unendliche zu erweitern und sich Gedanken zu machen, ob oder ob nicht parallele Linien sich in unendlicher Ferne treffen oder der Umfang eines unendlich großen Kreises eine gerade Linie wird. Im sinnlichen Anschauungsbereich und damit im Endlichen ist dergleichen ohne wieteres zu „sehen” (die parallelen Eisenbahnschienen laufen in der Ferne geradewegs aufeinander zu; der Meereshorizont, der doch ein endlicher Ausschnitt eines Kreisumfangs ist, erscheint gerade), aber es ist nicht in Handlungen „auszuführen”. Diese Kontrolle des Auges durch die Hand verhindert in der Praxis das Auftreten zenonischer Paradoxien, nach denen das Unterschiedene auch als dasselbe (der Kreis ist Gerade, die Parallelen sind nicht parallel) und umgekehrt hätte „gedacht” werden müssen. Aber gerade dies wird wiederum im platonischen Verständnis dieser Postulate gefordert und macht darum die „ins Unendliche erweiterte“ Anwendung dieser Postulate dialektisch. Logisch gesehen haben diese sogenannten Postulate denselben dialektisch-kontradiktorischen Charakter wie die übrigen Definitionen, der freilich dem auf Machbares beschränkten Praktiker verborgen bleibt. Der platonische Mathematiker aber weiß, daß es sich um zugleich ausführbare und auch nicht ausführbare Handlungen handelt, wobei die ersichtlich nichtausführbaren eben so zu denken sind, wie die ausführbaren. Aristoteles hat dergleich mit ebenso dialektischer Bestimmung als „potentielle“ Handlung definiert. An die Definitionen und Postulate schließen sich im ersten Buch noch die „Axiome” an. Im überlieferten Text des Euklid steht dafür der stoische Begriff Koine ennoia (ὴἔlateinisch: notio communis,„gemeinsame Vernunfteinsicht“) was üblicherweise als „evidenter Begriff“ verstanden wird. Man deutet die Axiome als Beweisgrundsätze und letzte Voraussetzungen für mathematisches Tun. Auch hier wird man logisch erkennen, daß es sich keineswegs um das handelt, was man jetzt Axiome nennt, sondern um Definitionen der arithmetischen Rechenarten und der Merkmale einiger geometrischen Gebilde. Es sind 12 Axiome, welche lauten: „1. Was einem und demselben gleich ist, ist einander gleich. 2. Gleiches Gleichem zugesetzt, bringt Gleiches. 3. Von Gleichem Gleiches weggenommen, läßt Gleiches. 4. Ungleichem Gleiches zugesetzt, bringt Ungleiches. 5. Von Ungleichem Gleiches weggenommen, läßt Ungleiches. 6. Gleiches verdoppelt, gibt Gleiches. 7. Gleiches halbiert, gibt Gleiches. 8. Was einander deckt, ist einander gleich. 9. Das Ganze ist größer als sein Teil. 10. Alle rechten Winkel sind einander gleich. 11. Zwei gerade Linien, die von einer dritten so geschnitten werden, daß die beiden innern an einerlei Seite liegenden Winkel zusammen 268 kleiner als zwei rechte sind, treffen genugsam verlängert an eben der Seite zusammen. 12. Zwei gerade Linien schließen keinen Raum ein” (Euklid, Elemente, Buch I). Bemerken wir zuerst, daß sie im 1. Buch gleich nach den geometrischen Definitionen und Postulaten stehen und deswegen gewöhnlich als geometrische Axiome aufgefaßt werden. Das trifft aber nur auf einen Teil von ihnen zu. Der andere Teil ist so formuliert, daß man ihn sowohl auf geometrische wie auf arithmetische Gebilde beziehen kann. Und da sie offensichtlich auch für die Zahlverhältnisse gelten sollen, scheinen sie überhaupt von den Definitionen und Postulaten abgetrennt worden zu sein. Bemerken wir sodann, daß in Nr. 1 - 8 und in Nr. 10 immer von „Gleichheit“ die Rede ist, in Nr. 4, 5, 9 und 11 aber (auch) von Ungleichheit. Nur die Nr. 12 fällt aus dem Rahmen. Daraus können wir entnehmen, daß es sich hier überhaupt um die Definition der mathematischen Hauptjunktoren handelt, nämlich der Gleichung als Äquivalenz und der Ungleichung (die logisch nur eine negierte Äquivalenz sein kann). Die nächste Frage muß dann sein, ob auch an diesen „axiomatischen“ Definitionen eine Dialektik bzw. Kontradiktorik auszuweisen ist. Und das ist offenbar der Fall und kann in einer platonistischen Mathematik auch nicht anders sein. Zeigen wir dies an den einzelnen Definitionen (vgl. dazu auch das schon im Paragraphen 9 Gesagte). Nr. 1 definiert die Gleichung selbst. Klarer formuliert könnte diese Definition lauten: Eine Gleichung besteht zwischen zwei Gegebenheiten, die beide einer dritten Gegebenheit gleich sind. Die Dialektik liegt dabei im hier benutzten und vorausgesetzten Begriff der Gleichheit. Diese ist hier logisch gesehen eine Ähnlichkeit bzw. Analogie. Sie gibt etwas Identisches und zugleich Verschiedenes zu denken. Was das jeweils bei geometrischen und arithmetischen Verhältnissen ist, bleibt in der Definition unerwähnt (wohl deshalb, damit der dialektische bzw. kontradiktorische Charakter der Definition verschleiert wird). Aber es läßt sich genau angeben. Bei der arithmetischen Gleichung besteht die Identität im Zahlenwert der Ausdrücke links und rechts in der Gleichung, der Unterschied aber in der Ausdrucksgestalt dieses Wertes (G. Frege hat eben diesen Unterschied als identische „Bedeutung“ und verschiedenen „Sinn“ bei der Gleichungsdarstellung bezeichnet). Bei geometrischen Beispielen besteht die Identität in der Form und gegebenenfalles in der Größe der verglichenen Gebilde, der Unterschied aber in der örtlichen Festlegung bzw. in der numerischen Unterscheidung oder unterschiedlichen Größe der Gebilde. Identität und Unterschied werden aber beide zusammen „Gleichheit“ genannt. Nur deshalb können zwei verschiedene Gebilde überhaupt verglichen werden, eben weil sie eine - als Drittes ausweisbare - identische Eigenschaft aufweisen. Nr. 2 definiert mit Hilfe der Gleichung das Vergrößern von geometrischen Gebilden bzw. die Addition (Summenbildung) bei Zahlen. Nimmt man die Definition wörtlich, so gilt sie anschaulich - z. B. für den kaufmännischen Praktiker für die Verhältnisse an einer Balkenwaage. Nur hier kann man an beiden Enden 269 der Balken (im gleichen Abstand von der Mitte) Gleiches zusetzen, so daß sich Gleiches (wie der Ausgangszustand eines Gleichgewichts) ergibt. Der platonische Mathematiker aber denkt und weiß natürlich, daß das „bringt Gleiches“ gerade ein anderes Gleiches als die Gleichheit der Ausgangsverhältnisse meint - und damit eben ein „ungleiches Gleiches“. Die Dialektik der Addition in der Gleichung liegt also darin, daß dadurch die Gleichung als identische erhalten bleibt, aber die Glieder der Gleichung sich „gleichmäßig“ verändern. Nr. 3 definiert entsprechend das Vermindern oder Verkleinern geometrischer Gebilde bzw. die numerische Subtraktion in der Gleichung. Bemerken wir hierzu, daß Euklid noch nicht von „negativen Zahlen“ spricht und deshalb auch nicht von einer Subtraktion einer größeren von einer kleineren Zahl. Dann gilt das oben Gesagte wiederum von der Identität der Gleichung selbst und der Verschiedenheit der sich ergebenden Zahlenwerte. Nr. 4 und 5 definiert die Ungleichung so, daß sie durch die in 2 und 3 definierten mathematischen Operationen nicht verändert, sondern erhalten bleiben. Und auch dies sieht man beim Umgang mit einer Balkenwaage. Nr. 6 und 7 definieren am Beispiel der Verdopplung und Halbierung, die ja gerade in der Geometrie besonders wichtige Operationen sind, auch die numerische Multiplikation und Division in der Gleichung. Auch davon gilt der dialektische Vorbehalt, das das Resultat der Operationen ein „anderes Gleiches“ als das Ausgangsgleiche ist. Nr. 8 ist eine speziell geometrische Definition der Deckungsgleichheit. Was hierbei „decken“ bzw. „zur Deckung bringen“ heißt, ist praktische Routine beim Darüberschieben gleicher Figuren in der Ebene, aber auch beim Überklappen von spiegelbildlichen Figuren im Raume (z. B. beim Händeklatschen oder wie es zusammengeklappte Schmetterlingsflügel zeigen). Nun mag man logisch entweder die dazu geeigneten übereinandergeschobenen Figuren gleich nennen, oder aber die spiegelbildlichen. Es geht jedenfalls ohne Widerspruch nicht an, sie beide zugleich „gleich“ zu nennen, denn sie sind - die einen am anderen gemessen - gerade ungleich. Und gerade darin liegt nun die Widersprüchlichkeit dieser Definition, daß sie die Deckungsgleichheit sowohl auf gleiche wie ungleiche Figuren bezieht. Der platonische Denker erhebt sich über die sinnliche Anschauung des einen oder des anderen, indem er das sich deckende Gleiche sowohl von der einen wie von der anderen Seite zugleich denkt, gleichsam von außen (wie auf dem Blatt vor ihm) und von innen (zwischen den Blättern). Dies betrifft aber nur die Spezialdialektik der Deckungsgleichheit. Die tieferliegende besteht in der Verschmelzung von Identität und Unterschied in diesem Begriff von „Deckung“. Denn was sich wirklich deckt, wird in aller sinnlichen Anschauung eines und identisch dasselbe und ist nicht mehr unterscheidbar. Da es aber nur „gleich“ sein soll, so wird es gerade unterscheidbar und unterschieden sein. 270 Nr. 9 macht von der Definition der Ungleichheit Gebrauch und spezifiziert sie als das Verhältnis von „größer ... kleiner“. Dieses hat in der Arithmetik als eigener Junktor „ > “ („größer als...“, und spiegelbildlich dazu „ < “ „kleiner als...“) eine bedeutende Anwendung, ebenso aber auch in der Geometrie im Verhältnis von Figuren und Teilfiguren (z. B. Kreis - Halbkreis). Die Verwendung der Wörter „Ganzes“ und „Teil“ wendet sich zweifellos wieder an den Praktiker, der nicht im Zweifel sein kann, was dies anschaulich bedeutet. Der Arithmetiker wird sich das Verhältnis von Ganzem zu seinen Teilen zunächst etwa an den Summen im Verhältnis zu ihren Summanden verständlich machen, die immer größer sind als diese. Bei den Definitionen der arithmetischen Verhältnisse im 5. Buch (Def. 1 und 2) und im 7. Buch (Def. 3) ist auch explizit von größeren Zahlen und kleineren als deren Teile die Rede, nicht aber vom Ganzen. Der platonische Mathematiker muß hier aber das Ganze wiederum als ein dialektisches Gebilde denken. Es enthält einerseits kleinere Teile, andererseits enthält es sich selbst als seinen Teil und ist damit zugleich auch größer als es selbst. Diese Denkform ist später in dem merkwürdigen Satz „das Ganze ist größer als die Summe seiner Teile“ festgehalten worden. In der mengentheoretischen Mathematikbegründung wurde er weidlich ausgebeutet. Denn darin wurde als selbstverständlich vorausgesetzt, daß Mengen sich selbst enthalten können. Der kontradiktorische Charakter dieser Annahme hat sich in den mengentheoretischen Paradoxien gezeigt. Nr. 10 klingt wie eine Tautologie und ist deshalb in manchen Euklidausgaben an dieser Stelle weggelassen worden. Man unterstellt dann, daß der Begriff „rechter Winkel“ schon selbst die Bedeutung hat, daß „alle gleich“ seien. Und das wäre ganz richtig, wenn es in dieser Definition nur auf den Begriff vom rechten Winkel ankäme, deren einzelne wohlunterschieden und somit „gleich“ sein können. Erinnern wir uns aber, daß die mathematische Gleichheit eine Äquivalenz bedeutet, in der ein Identisches und ein Unterschiedliches zugleich ausgedrückt wird, nicht aber nur eine intensionale Identität des generischen Merkmals in allen unter das Genus fallenden Instanzen. Die Gleichheit unter den rechten Winkeln meint also zugleich die Identität hinsichtlich der gemeinsamen Eigenschaft „rechte“ zu sein als auch die Unterschiedlichkeit ihrer Lage und Stellung in den geometrischen Gebilden. Und dies läßt sich nur in Gleichungen bzw. Äquivalenzen darstellen. Nr. 11 wird gewöhnlich als „negative“ Präzisierung der Parallelendefinition verstanden und deswegen in neueren Euklidausgaben an dieser Stelle weggelassen. Gleichwohl scheint die Definition der Nicht-Parallelen an dieser Stelle nicht überflüssig zu sein, da sie ja ein häufig auftretendes praktisches Problem betrifft, nämlich Parallelen von Nichtparallelen und die entsprechenden Winkelverhältnisse bei den Schnitten zu unterscheiden. Die Dialektik der Nicht-Parallelendefinition liegt in der Bedeutung des Ausdrucks „genugsam verlängern“. In der Praxis wird sich immer ein Schnittpunkt 271 der Nicht-Parallelen in endlichem Abstand ergeben. Aber es wird durch die Formulierung (und das sog. Postulat Nr. 2) nicht ausgeschlossen, daß er im Unendlichen liegen könnte. Dann sind die Nicht-Parallelen zugleich auch Parallelen und die nicht-rechten Winkel sind zugleich rechte. Nr. 12 besagt wörtlich, daß „zwei gerade Linien keinen Raum einschließen“. Neuere Übersetzungen geben hier statt „Raum“ „Flächenraum“. Angesichts der Tatsache, daß zwei winkelbildende Geraden auch bei Euklid eine Fläche einschließen (was, wie oben gesagt, vorausgesetzt werden muß, aber nicht definiert wird), müßte man die Definition geradezu für „falsch“ (d. h. für eine „NichtDefinition“) halten. Dies ist aber bei Definitionen (als Äquivalenzen) auszuschließen und auch dem Euklid nicht zu unterstellen. Also wird doch wohl gemeint sein, daß sich durch zwei gerade Linien kein Raumgebilde einschließen läßt. Man braucht - entsprechend den Winkelschenkeln des Dreiecks in der Fläche - mindestens drei gerade Linien dazu. Euklid behandelt jedenfalls im 11. Buch der Elemente unter der 11. Definition „körperliche Winkel“ bzw. Ecken. Es heißt da: „Ein körperlicher Winkel (eine Ecke) ist die Neigung wenigstens dreier geraden Linien gegen einander, welche, ohne in einerlei Ebene zu liegen, in einem Punkte zusammentreffen. Oder: ein körperlicher Winkel wird von wenigstens drei ebenen Winkeln eingeschlossen, welche, ohne in einerlei Ebene zu liegen, an einem Punkte zusammengestellt sind“. Wenn es hierbei eine Dialektik gibt, so liegt sie, wie auch schon bei den Winkelflächen, darin, daß diese Flächen bzw. Räume sowohl durch die Schenkellinien „eingeschlossen“ als auch (auf ihrer offenen Seite) nicht eingeschlossen“ sind. Wie man gesehen hat, gehen die „Elemente“ des Euklid in diesen „wissenschaftlichen” Teilen nicht über das hinaus, was auch schon Aristoteles für jede Wissenschaft gefordert hatte, was aber bei ihm nicht für den Bereich der Mathematik geleistet war. (Genauer gesagt, man weiß es nicht, da evtl. einschlägige Schriften von ihm verschollen sein können). Vermuten kann man, daß Aristoteles in mathematischen Abhandlungen die beschreibende Definition der „zweiten Substanzen“ bzw. der mathematischen Ideen gegeben haben könnte, die in einer „Faktenkunde“ gewußt und beherrscht werden mußten, um mit und zwischen ihnen „theoretische“ Verknüpfungen vornehmen zu können. Mathematische Theorie mußte dann in einer „erklärenden“ Urteilsbildung bestehen, in der die so definierten Elemente als „Begriffe“ eingesetzt und in behauptenden Aussagen verbunden wurden. Solche Erklärungen und Theorien liest man in den „Theoremen“ und überhaupt in den Texten der mathematischen Abhandlungen und Lehrbücher, wenn man die geometrischen Konstruktionen und die Gleichungen beiseite läßt. Wer diese Textpartien aufmerksam und unter Ansetzung der logischen Sonde liest, wird bemerken, daß in ihren Urteilen sehr bald alle diejenigen logischen Widersprüche, Antinomien, Paradoxien auftauchen, die sich aus der Verwendung der definierten kontradiktorischen Begriffe zwangsläufig ergeben müssen. 272 Sie wurden und werden in der Regel dadurch konterkariert, daß man je nach Bedarf nur die eine der in den kontradiktorischen Bestimmungen gelegenen Behauptungsmöglichkeiten exhauriert und die gegenteilige unbeachtet läßt. Aber es dürfte geradezu das Gesetz des Fortschrittes in der mathematischen Theoriebildung darstellen, daß die andere Seite schließlich doch aufgegriffen und in Konkurrenz zur vorher angenommen Interpretation als deren Alternative entwickelt wird. In dieser Phase werden die definitorischen Kontradiktionen also zum Ausgang alternativer Theoriekonzeptionen, die die früheren Theorien verdrängen oder diese als „klassische“ Vorstufen dem historischen Gedächtnis einverleiben. Als Beispiel sei auf die Definition der geraden Linie und der ebenen Fläche verwiesen, in denen die Punkte bzw. Linien „auf einerlei Art“ liegen (Elemente, Buch I, Def. 4 und 7). Ersichtlich gilt das auch für die als gänzlich modern und als nicht-euklidisch angesehene sphärische Geometrie, die als Alternative zur euklidischen Geometrie entwickelt wurde. Aber neben den sprachlichen mathematischen Artikulationen gibt es die sogenannten formalen Artikulationen der arithmetischen Formeln und Gleichungen in den Beweisen und in den geometrischen Konstruktionen. Zünftige Mathematiker wahrscheinlich aber nicht Euklid selber - haben sich angewöhnt, in ihnen eine eigene besondere, ja „ideale“ Sprache für die Behauptung mathematischer Wahrheiten von unübertrefflicher Präzision zu sehen. Und im selben Maße, wie sie dies taten, sahen sie in den tatsächlichen sprachlichen Texten nur unpräzise, didaktisch-hinführende und allenfalls erläuternde Paraphrasen zum exakten Formelsinn, von dem sie - immer noch mit Platon - meinten, er ließe sich in gewöhnlicher Sprache prinzipiell nicht ausdrücken. Entsprechend nahmen sie ihre Fachsprache auch nicht mehr ernst und arbeiteten nicht mehr daran, sie als Teil einer gelehrten Bildungssprache, die auch Außenstehenden zugänglich sein konnte, zu kultivieren. Und so schwand auch allmählich das Bewußtsein davon, daß es gerade umgekehrt war und auch von Euklid so gemeint war: Die Formeln sind - gleichsam als nur eine Seite des in Gleichungen Definierbaren - entweder nur einfache mathematische Begriffe oder komplexe aus einfachen Begriffen mit mathematischen Junktoren gebildete mathematische Ausdrücke. Und die Gleichungen definieren ihrerseits, welche von ihnen denselben Sinn und dieselbe Bedeutung wie andere haben sollen, die Ungleichungen aber definieren, welche Begriffe oder Ausdrücke nicht denselben Sinn bzw. dieselbe Bedeutung haben sollen. Was es dabei mit den speziell arithmetischen Junktoren (den Operationsanweisungen für die Rechenarten) auf sich hat, und daß sie sich prinzipiell von den logischen - nicht urteilsbildenden, sondern nur ausdrucksbildenden - Junktoren ableiten lassen, das haben wir an anderer Stelle (vgl. Logik, 1987, S. 156 – 161 sowie in den einleitenden Paragraphen, bes. § 9) gezeigt. Was bisher dargestellt wurde ist in den „Elementen“ des Euklid thematischer Gegenstand weniger Seiten am Anfang einiger Bücher (bzw. Kapitel). Der Hauptteil 273 des Werkes von guten 400 Seiten aber besteht in praktischen Konstruktionsaufgaben der Geometrie, deren Lösung mit Hinweis auf die dazu nötigen Begriffe und Ausdrücke und die anzuwendenden praktischen Operationen angegeben wird. Hinzu treten „Beweise“, daß die erzielten Ergebnisse „richtig“ sind. Dieser Teil bzw. diese Teile der „Elemente“ stellen den praktischen Teil des Werkes dar, und was dabei dargestellt wird, nennt man gewöhnlich die Probleme. Es hat unter den Auslegern des Euklid langwierige Auseinandersetzungen darüber gegeben, was hier eigentlich Problem genannt werde, und ob und wie es von den „theoretischen“ Partien zu unterscheiden sei: Proklos (410 – 485 n.Chr.), einer der prominentesten Kommentatoren der „Elemente“, sagt darüber, „bald gelte es, etwas Gesuchtes ausfindig zu machen, bald, ein bestimmtes Objekt herzunehmen und zu untersuchen, was es ist, oder von welcher Beschaffenheit, oder was mit ihm vorging, oder in welchem Verhältnis es steht zu einem anderen”.131 Die Frage ist noch heute umstritten und bildet selber ein Problem. Und man wird auch sagen können, daß es - angesichts einer recht dürftigen wissenschaftstheoretischen Literatur zum Thema „Problem“ - eines der bis in die moderne Wissenschaftstheorie am meisten vernachlässigten und aufklärungsbedürftigen Probleme darstellt. Während die einen alles problematisierten, schränkten die anderen ein: Problem ist nur die Suche nach einem bestimmten von mehreren möglichen Wegen zu einem bestimmten Ziel. Proklos drückt das so aus: „Wenn jemand in der Formulierung, als handle es sich um ein Problem, sagen wollte, es sei in einen Halbkreis ein rechter Winkel einzuzeichnen, so wird er sich den Ruf eines Laien in der Geometrie zuziehen; denn jeder Winkel im Halbkreis ist ein rechter” (vgl. O. Becker, a.a. O. S. 102). Was also gar nicht anders zu machen ist als auf eine bestimmte Weise, kann nicht Problem sein. So wird man in Proklos„ Sinne auch sagen dürfen, daß nicht das Nichtwissen und auch nicht das Wissen die Probleme macht, sondern das je bestimmte Wissen um das Nichtwissen. M. a. W.: Man muß schon wissen, was man sucht, und muß den Umkreis kennen, wo es zu finden ist, so daß man bei genügendem Umherschweifen darauf stößt, daß es einem „einfällt”. Und so wird an dieser Wissenschaft mit ihren so sparsamen und übersichtlichen Voraussetzungen, Regeln, und Handgriffen klar, daß es auch in ihr nicht ohne Einfälle, Phantasie, ja den „Zufall” geht, der einem nun diesen oder jenen Weg zur Lösung „eingibt”, diese oder jene Hilfskonstruktion zu wählen half. Geben wir als Beispiel eine solche geometrische „Aufgabe“. Sie lautet: (Elemente, 1. Buch, Satz 1): „Aufgabe: Auf einer gegebenen begrenzten geraden Linie AB ein gleichseitiges Dreieck zu errichten.“ - Eine beigegebene Figur zeigt die Strecke AB, um deren Endpunkte zwei sich schneidende Kreise mit dem Radius AB geschlagen sind. Ein mit C bezeichneter Schnittpunkt dieser Kreise, mit den Punkten A und B verbunden, liefert das gleichseitige Dreieck. D und E (in der beigegebenen Zeichnung) bezeichnen Schnittpunkte der verlängerten Strecke AB mit den Kreisen. - Die Problemlösung lautet: „Aus dem 131 Proklos, Kommentar zu Euklids Elementen, zit. nach O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, Freiburg-München 1964, S. 101. 274 Punkte A beschreibe mit AB den Kreis BCD, und aus dem Punkte B mit BA den Kreis ACE. Vom Punkte C, in welchem die Kreise einander schneiden, ziehe nach A und B die Geraden CA und CB: So ist ACB das verlangte Dreieck“. - Es folgt der Beweis: „Denn da AC = AB und BC = BA: so ist AC = BC. Demnach ist AC = AB = BC, folglich das auf AB errichtete Dreieck gleichseitig.“ - Man beachte, daß die Gleichungen im Beweis die definierte „Deckungsgleichheit“ der Strecken zum Ausdruck bringen. In der Tat sind die in diesem praktischen Teil der „Elemente“ aufgelisteten geometrischen Konstruktionsprobleme und gelegentlichen arithmetischen Probleme sämtlich schon gelöste Probleme und insofern eben keine Probleme mehr. Sie sind die von Euklid mit enormem Fleiß und gelehrtester Übersicht gesammelten Problemlösungen aller seiner Vorgänger in der Geometrie, zu denen er nur recht wenige eigene hinzugefunden hat. Und diese Lösungen sind wiederum das gesammelte Erbe einer ausgebreiteten und emsigen empirischen Such- und Probiertätigkeit nach Lösungen von praktischen Problemen der Architektur und der Mechanik. Gelöste Probleme aber werden von selbst zu Methoden und Techniken zur Bewältigung von Aufgabenstellungen. Insofern waren und blieben die „Elemente“ zu allen Zeiten das autoritative Handbuch der Aufgabenbewältigung für die entsprechenden praktischen Herausforderungen. Und das auch noch in Zeiten, wo sich im Verlauf des Kulturverfalls solche Aufgaben nicht einmal mehr stellten und die „Probleme“ als rein theoretische Angelegenheiten behandelt wurden. Gerade dadurch aber wurden die „Elemente“ auch zum abendländischen Lehrbuch der Geometrie und späterhin zum Vorbild aller mathematischen Lehrbücher. Diese enthalten noch immer Aufgabensammlungen, die dem Lernenden als Probleme aufgegeben werden, deren Lösungen ihm aber vorenthalten werden, so daß er sich zunächst - und manchmal auch mit Erfolg - an einer selbstgefundenen Lösung erfreuen und damit als neuer Thales oder Pythagoras fühlen kann. Der Lehrer aber, der sich früher selbst vielleicht in dieser Weise an „Problemen“ abgearbeitet hat, kennt die Lösungen (oder sollte sie kennen) und weiß daher, daß auf diesem Gebiete schwerlich neue Lösungen gefunden werden können. Je weiter darin fortgeschritten wird, desto mehr konzentriert sich das Lernen und Lehren auf die Beweise der Richtigkeit der Lösungen bis es - in der akademischen Lehre fast nur noch in der Herleitung von Beweisen für Lösungsvorschläge besteht. Man verkenne nicht, in welchem Maße diese akademische Lehrart der Mathematik dann dazu beigetragen hat, der Mathematik den Nimbus zu verschaffen, in ihr werde geradezu alles in beweisender Deduktion von evidenten Axiomen her vermittelt. Kein Wunder, daß die Platoniker, zu denen ja auch gerade Proklos gehörte, darin eine Bestätigung der Anamnesislehre sehen konnten, die dem Mathematiker ein „unbewußtes Wissen” vindizierte. Sie ist bis heute der Grund für die verbreitete Überzeugung geblieben, daß die echten erstmaligen Problemlösungen der Begnadung und der unvorgreiflichen Genialität verdankt werden und daher mit Ehrenpreisen und unsterblichem Ruhm zu honorieren seien. Und so ehren die Mathematiker (und Naturwissenschaftler) bis zum heutigen Tag die ingeniösen 275 Erfinder solcher Problemlösungen, indem sie diese mit deren Eigennamen benennen. An der Stelle, wo in den geometrischen Büchern der „Elemente“ Probleme als Konstruktionsaufgaben aufgelistet sind, stehen in den arithmetischen Büchern die „Lehrsätze“ bzw. Theoreme, und nur gelegentlich sind auch „Probleme“ als Aufgaben eingestreut. Diese Theoreme sind nun die eigentlich behauptenden Urteile und Schlüsse in den „Elementen“ und damit auch der wahrheits- bzw. falschheitsfähige Teil dieser Wissenschaft. In ihnen ist das „theoretische Wissen“ der ganzen antiken Arithmetik gesammelt. Bemerken wir zuerst und vorzüglich für Philosophen: Man findet hier keine der vermeintlich banalen „mathematischen Wahrheiten“ wie etwa „2 mal 2 = 4“ oder gar das kantische Beispiel für ein angeblich apriorisch-synthetisches Urteil, daß „5 + 7 = 12“ sei, das naturgemäß und nach allem bisher Gesagten nur eine Äquivalenz bzw. eine Definition eines bestimmten Summenausdrucks durch einen bestimmten Zahlenwert darstellt. Die „theoretischen Wahrheiten“ in diesem Bereich lauten vielmehr etwa so (Elemente, Buch 10, Satz 1): „Nimmt man bei zwei gegebenen ungleichen Größen AB und C von der größeren AB mehr als die Hälfte weg, von dem Reste wieder mehr als die Hälfte, und so immer fort, so kommt man irgend einmal auf einen Rest, welcher kleiner ist, als die gegebene kleinere Größe C.“ Hier ist zunächst wichtig, daß von „Größen“ die Rede ist. Dies können Zahlen sein und der Lehrsatz muß dann von ihnen gelten. Es können aber auch geometrische Größen wie etwa Strecken von bestimmter Länge sein. Und genau solche werden nun im „Beweis“ des Lehrsatzes und in einer beigefügten Abbildung solcher Strecken verwendet. Er lautet (und sei als Beispiel für solche Beweise hier angegeben): „Mache, was immer angeht, von C (der kleineren Größe) ein Vielfaches DE, welches zunächst größer als AB (die Ausgangsgröße) ist und teile solches in seine der C gleiche Teile DF, FG, GE. Von AB nimm mehr als die Hälfte BH, von dem Reste AH mehr als die Hälfte HI, und dies so fort, bis in AB so viele Abschnitte AI, IH, HB (sind) als Teile in DE sind. Da also DE größer als AB ist, und von DE weniger als die Hälfte EG, von AB aber mehr als die Hälfte BH weggenommen wird, so ist der Rest GD größer als AH. Nun wird von GD die Hälfte GF, von AH aber mehr als die Hälfte HI weggenommen. Folglich ist der Rest DF größer als AI, oder, weil DF = C ist, C größer als AI, folglich der Rest AI kleiner als C. - Auf ähnliche Art wird der Satz bewiesen, wenn in AB immer nur die Hälfte weggenommen wird.“ Der Beweis demonstriert die Größenverhältnisse „ad oculos“ für den geometrischen Praktiker, aber nicht für den arithmetischen Denker. Ihm ist es sicher plausibel, daß man jede Zahl durch fortgesetzte Subtraktion von Einheiten kleiner machen kann als eine beliebige Zahl, die kleiner ist als die Ausgangszahl. Das Problem dabei ist, ob der Rest bei solchen Subtraktionen immer überhaupt eine Zahl ist. Offensichtlich ist das nicht immer der Fall, denn es können auch „irrationale“ Restgrößen übrigbleiben, von denen es (wenigstens bei Euklid) offen bleibt, ob sie Zahlen sind. Aber auch die irrationalen „Größen“ sind jedenfalls 276 Größen - und das 10. Buch der „Elemente“ handelt genau von diesen und definiert sie. Deshalb impliziert der geometrische Beweis hinsichtlich der „Größen“ für die Zahlenlehre, daß man die irrationalen Größen als Zahlen behandeln muß, wenn das Theorem für die Arithmetik gelten soll. Und daß dies gemeint ist, geht wohl schon aus dem nächsten Lehrsatz 2 hervor, welcher lautet: „Zwei ungleiche Größen AB, CD sind, wenn bei wiederholter Wegnahme des Kleinern vom Größern kein Rest das ihm nächst Vorhergehende genau mißt, inkommensurabel“. Der 5. Satz aber lehrt unter deutlichem Hinweis auf die Verschiedenheit von Zahlen und inkommensurablen Größen: „Kommensurable Größen A, B verhalten sich wie Zahlen zu einander“. Wir haben die „Elemente“ des Euklid als abendländisches Lehrbuch der Mathematik so ausführlich im vorliegenden Kontext dargestellt und logisch betrachtet, weil es stilbildend für eine bestimmte Methode des wissenschaftlichen Denkens geworden ist. Und dies in offenbarer Alternative zur Logik des Aristoteles und der Stoiker. Von den Philosophen ist es immer stiefmütterlich behandelt worden, und zwar ersichtlich aus einem gewissen Horror vor dem „Unlogischen“ oder jedenfalls der Esoterik des mathematischen Denkens. Als in der Spätantike und Scholastik die aristotelische Logik genauer studiert und auch in der Theologie verwendet wurde, konnte man nicht umhin, auch die Widersprüche in der heiligen Schrift und bei ihren patristischen Auslegern zu bemerken. Wir werden später zeigen, daß einige Philosophen und Theologien die Widersprüchlichkeit bzw. Dialektik der Glaubenswahrheiten (Credibilia) geradezu als Ausweis ihrer „höheren Wahrheit“ ausgegeben haben. Nicht jedem Philosophen blieb aber auch die Dialektik der Mathematik verborgen. Und so wurde auch die Mathematik seit dem 13. Jahrhundert ein methodisches Instrument, diese höhere Glaubenswahrheit zu artikulieren und zu beweisen, wie man in den Schriften von Roger Bacon und von Nikolaus von Kues sehen kann. Im 17. Jahrhundert erfreuten sich die „Elemente“ als Nachhall der (vermeintlichen) „Wiederentdeckung“ des Euklid durch die Mathematiker der Renaissance großer Bewunderung und vieler Versuche von Anwendungen. Sie sind unter der Bezeichnung „Mos geometricus“ bekannt geworden. Aber dieser an die dominierende Darstellung der Geometrie in den „Elementen“ erinnernde Titel wurde allzu schnell als Methodentitel eines vermeintlich neuen „logischen“ Denkens aufgefaßt. Dieses bestand aber nur in der Übernahme der äußerlichen Gliederung der „Elemente“ in Lehrbüchern der Disziplinen bzw. ihrer Theorien, d. h. im Ausgang von Definitionen und Axiomen und der Deduktion von Theoremen aus ihnen. In der Zeit der großen philosophischen Systembildungen des 17. Jahrhunderts gab der Mos geometricus das maßgebliche Vorbild ab, die „Philosophien“ selbst in dieser Gestalt aufzubauen. So hat etwa Descartes seine eigene Philosophie und dann Spinoza das philosophische System des Descartes und auch seine eigene „Ethik“ „more geometrico“ dargestellt. Kant brachte diese philosophische Haltung 277 auf die Formel, es gelte in den Systemen jeweils „ein nach Prinzipien geordnetes Ganzes der Erkenntnis“ vorzustellen. Wie dergleichen aussehen sollte, dafür blieben die Elemente des Euklid ein ständiges Vorbild. § 20 Der Epikureismus Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit als Grundlage des guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der Freundschaften. Epikureismus als Hausphilosophie der empirischen Ärzte. Begründet von dem Demokriteer Epikur (341 – 270 v. Chr.),132 knüpft der Epikureismus an die Atomlehre des Demokrit an und entwickelt sie zu einer materialistischen, indeterministischen und sensualistischen Welterklärungsdogmatik. Alle Erkenntnis ist hier auf sinnlich ausgewiesene Begriffe (Prolepsis ῆ) beschränkt und begründet, die nach logischen Regeln („Kanonik“) zu ordnen sind und einer dem vernünftigen Lustgewinn gewidmeten Lebensführung dienen. Dazu gehört vor allem die Abweisung alles Übersinnlichen, der Götter und der Todesfurcht, die auf einem falschen Götter- und Jenseitsglauben beruhe. Von den Göttern sagen die Epikureer, falls es sie gäbe, hielten sie sich weit enfernt von unserer Welt in den „Zwischenwelten“ (Intermundien) auf und genössen dort einer dauernden Glückseligkeit. Daher würden sie sich nicht um die hiesige Menschheit kümmern. Sie greifen nirgends ein, und daher ist es zwecklos, etwas von ihnen zu erbitten oder zu erhoffen, oder sie gar durch einen Kult geneigt zu machen. Die Welt ist bloß Natur. Sie besteht ewig. Alle ihre Bildungen sind zufällige Zusammenballungen der Atome, so auch die menschlichen Körper und Seelen. In ihr herrscht durchweg Zufall und somit das, was man für den Naturbereich Indeterminismus, für den menschlichen aber Freiheit nennt. Durch des Lukrez (ca. 96 – 55 v. Chr.) Lehrgedicht „De rerum natura” (Von der Natur der Dinge)133 hat dieses Weltbild eine großartige dichterische Ausgestaltung erfahren und weite Bildungskreise erreicht. Durch den Arzt Asklepiades von Pru- 132 Epikurs Lehren sind in der Form eines kurzen ethischen Lehrbuchs (Kyriai Doxai), einer Schrift „Über die Natur“ (Peri Physeos), in Briefen an seine Freunde sowie vor allem durch die „Fragmente“ im letzten Teil der Philosophiegeschichte des Diogenes Laertios überliefert. Vgl. O. Gigon (Hg. und Übers.), Epikur. Von der Überwindung der Furcht. Katechismus Lehrbriefe, Spruchsammlung Fragmente, Zürich 1949, auch München 1991. - R. D. Hicks (Hg.) Diogenes Lartius, Lives of Eminent Philosophers, griech.-engl, 2 Bände, London-Cambridge, Mass. 1959- 1965, Bd. 2, S. 528 - 677. 133 M. F. Smith (Hg.), Lucretius, De rerum natura, lat.-engl., Cambridge, Mass.-London 1975. 278 sa (1. Jh. v. Chr.) ist es auch zu einem Grundbestand ärztlicher Überzeugungen geworden. Für die Wissenschaftstheorie sind der atomistische Materialismus, die sensualistische Erkenntnistheorie, die Verankerung der Freiheit in der Natur selber sowie die Indienstnahme der Wissenschaft für das praktische Leben die wirksamsten Beiträge des Epikureismus gewesen. Er ist in der Neuzeit gleichsam wiederentdeckt worden und bildet seitdem einen festen Bestand forschungsleitender Hintergrundsideen. Auch Epikur bemühte sich, eine Architektonik der Wissenschaften aufzustellen. Sie ist, wie die stoische, dreiteilig und weist den einzelnen Teilen verschiedenen Rang zu. Voran steht 1. die Logik. Sie wird von Epikur als Lehre von den Regeln der Begriffsbildung behandelt und „Kanonik“ genannt. Eine besondere Urteils- und Schlußlehre hielt er für entbehrlich, da sich das Urteilen und Schließen nur auf zuverlässige Begriffe stütze und immer wieder auf sie zurückführe. Begriffe sind dabei nichts anderes als die in der Seele - durch die Sinnesorgane aufgefangenen Bilder (eidola ἴ) der Wahrnehmungsinhalte, die sich durch Wiederholung verfestigen und dann sprachlich benannt und erinnernd evoziert werden können. Sie sind vor allem von den „Phantasmen“ (θά) zu unterscheiden, die - als Abflüsse der körperlichen Dinge - durch die Poren in die menschlichen Körper einfließen und im Bewußtsein als defekte und verunstaltete Bilder dieser Dinge auftauchen. Der Mathematik sprach Epikur jeden methodischen und Erkenntniswert ab und befaßte sich daher auch nicht damit. Den 2. Rang nimmt die Naturlehre ein. Sie beruht auf der demokritischen Voraussetzung, daß die Natur aus ewig bestehenden materiellen Atomen bestünden, die im Leeren (dem Raum) chaotisch herumschwirren und sich gelegentlich durch Zufälle zu komplexeren Gebilden zusammenfügen. Diese bilden ihrerseits die toten und lebendigen Elemente und somit auch die tierischen und menschlichen Körper. Auch die menschlichen Seelen sind nichts anderes als luft- und feuerartige Atomkomplexe, von denen sich ein Teil als „vernünftiger Seelenteil“ in der Brust festsetzt, ein anderer „unvernünftiger Teil“ im ganzen Körper ausbreitet. Der Tod wird als „Ausfall der Wahrnehmung“ (steresis aistheseos έ ἰή) bezeichnet. Er kann deshalb auch nicht vom einzelnen Menschen selbst erfahren werden. Im Verfall des die Seele umgreifenden Körpers vermischen sich auch die Seelenteile wieder mit den Atomen der Natur. Die Natur selbst umfaßt unzählige sich immer wieder neu bildende und vergehende Welten (kosmoi ó), von denen nur der uns umgebende Teil bis zum Sternhimmel sichtbar ist. 279 Den 3. und Hauptrang nimmt sodann die Ethik ein. Die Logik der sinnlich ausweisbaren Begriffe und die beschränkten Einsichten der Naturlehre nutzend, stellt sie eine Lehre darüber dar, wie der Mensch als prekäres, aber freies (durch keine Kausalität determiniertes) Körperwesen in einer grundsätzlich chaotischen und letztlich undurchschaubaren Welt ein möglichst lustvolles, glückliches Leben führen kann. Der einzelne Mensch wird in seiner jeweiligen zufälligen Konglomeration von Körper- und Seelenatomen solange er lebt als einmaliges und unverwechselbares „Individuum“ angesehen. Er ist in diesem Komplexionsbereich der Atome selbst ein Analogon des natürlichen „Atoms“ (wie der lateinische Ausdruck „individuum“ besagt). Um ein glückliches Leben zu führen, muß das Individuum eine vernünftige Balance zwischen Genuß und Hinnahme unvermeidlicher Übel wie Krankheiten und widrigen äußeren Lebensumständen zustande bringen. Jedes Übermaß an Lust straft sich selbst durch nachfolgende Beschwerden, und einem unerträglichen Übermaß an Übeln kann durch Selbstmord entgangen werden. Diese Balance aber wird durch Vernunftgebrauch und Ausbildung vernünftiger Tugenden wie Mäßigung und Unerschütterlichkeit (Ataraxie ἀí) aufrecht erhalten. Wie die natürlichen Atome sich zu dem verbinden, was man heute Moleküle nennt, so gehört es auch zum Wesen der menschlichen Individuen, sich zu „Freundschaften“ zu verbinden. Sie sind gleicherweise eine ständige Lust- und Genußquelle wie auch eine Bedingung des Schutzes und der Hilfe in der sonst unbeständigen Welt und werden von den Epikureern in den höchsten Tönen gepriesen. Im „Garten“ des Epikur, der der Schule als Lehr- und Treffpunkt zur Verfügung stand, wurde die Freundschaft praktisch gepflegt. Im Unterschied zu den anderen philosophischen Schulen nahmen an den philosophischen Diskussionen der „Gartenphilosophen“ auch die Frauen und Sklaven teil. Von einer darüber hinausgehenden Einmischung in das öffentliche und staatliche Leben wird im allgemeinen abgeraten - es sei denn, aus der politischen Betätigung könne im Einzelfall besonderer Lustgewinn gezogen werden. Maxime der glücklichen Lebensführung bleibt in jedem Falle das „Lathe biosas“ (ῶ), das Leben in der „Eingezogenheit“, was man später mit dem der stoischen Kritik entlehnten Wort „Privatleben“ (d. h. der öffentlichen Wirksamkeit „beraubtes“ Leben) bezeichnete. Die epikureische Lehre war wegen ihres vorgeblichen „Hedonismus“ und ihrer „Gottlosigkeit“ fast zu allen Zeiten Gegenstand heftigster Kritik aller anderen Schulen. Allerdings sprach Epikur sehr wohl von den Göttern, aber als von immer glücklichen Wesen in den „Zwischenwelten“, die sich um die Menschen in dieser Welt nicht kümmern. Deswegen sei es nutzlos, sich an sie zu wenden. Gleichwohl ist seine Lehre im Abendland immer, wenn auch gleichsam untergründig, wirksam gewesen. In der Renaissance erhielt sie mit dem Interesse an allen Erbschaften der Antike erneuten Auftrieb. In den Naturwissenschaften des 17. und 18. Jahrhunderts war sie als indeterministische Körperlehre geradezu ein 280 Leitmodell der Naturerklärung, das auch in unserem Jahrhundert in der indeterministischen Mikrophysik nochmals aufgegriffen wurde. In den Geisteswissenschaften und in der praktischen Philosophie wurde der Epikureismus seit der Aufklärung Grundlage des individualistischen (egoistischen) Lebensstils, des modernen „persuit of happiness“ der freien Persönlichkeit und der antiinstitutionellen „anarchistischen“ Bewegungen. Ihre Naturphilosophie erfreute sich zu allen Zeiten der besonderen Sympathie der Ärzte, und unter diesen besonders der „Empiriker“. Über die Ärzteschaft ist sie auch in den Zeiten tradiert worden, wo sie wegen der Kritik der herrschenden anderen Schulen in der Philosophie als untergegangen galt. Die Virulenz des epikureischen Denkens in der (empirischen) Ärzteschaft zeigt sich überall da, wo man den menschlichen Organismus insgesamt als atomare Konglomeration ohne alle weitere psychische oder gar geistige Ingredienzien betrachtete. Noch der berühmte Chirurg R. Virchow stellte im 19. Jahrhundert in diesem Sinne fest, daß ihm bei all seinen medizinischen Operationen „nie eine Seele unters Messer gekommen sei“. Ärztliche Erfahrung beschränkt sich dabei auf „zufällige“ - und daher niemals notwendige - Regularitäten der gesunden und kranken Prozesse, die zwar mehr oder weniger genaue Diagnosen des aktuellen Zustandes, doch niemals genaue Prognosen künftiger Verläufe erlaubt. Daher rechnet der empirische Arzt, der sich heute in der Gestalt des Naturheilkundigen präsentiert, immer auch mit unvoraussehbaren „wunderbaren“ Heilerfolgen, die er weder voraussehen kann noch erklären will. § 21 Die Stoa Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philosophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das Wissenschaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwendung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier Kardinaltugenden des Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen Philosophie als Hausphilosophie der Juristen. Benannt nach ihrem Lehrinstitut, der Stoa Poikile in Athen, ist diese Lehre von Zenon aus Kition auf Zypern (ca. 336 – 264 oder 262 v. Chr.) begründet worden und hat ihre umfassende Ausbildung durch Zenons Enkelschüler Chrysipp (ca. 281 – 208 v. Chr.) erfahren. Durch Panaitios von Rhodos (ca. 185 – 110 v. Chr.) 281 und Poseidonios von Apameia (ca. 135 – 51 v. Chr.) ist sie eine Art Staatsideologie des römischen Reiches geworden, zu der sich als bedeutendste Anhänger der Kaiser Mark Aurel (Marcus Aurelius, Regierung 161 – 180 n. Chr.), der Staatsmann Lucius Annaeus Seneca (gest. 65 n. Chr.) wie auch der (freigelassene) Sklave Epiktet (ca. 50 – 138 n. Chr.) bekannten.134 Durch ihre Gründer hat sie vor allem an die heraklitische Logoslehre, die Logik der Megarer, die kynische Ethik und die aristotelische Wissenschaftslehre und Logik angeknüpft und diese Motive zu einem in manchen Zügen dem epikureischen ähnlichen Weltbild vereinigt. Ähnlich wie bei den Epikureern ist ihre sensualistische Grundlegung der Erkenntnislehre ausgestaltet. Alle Erkenntnis beginnt in dem sonst leeren Bewußtsein („tabula rasa”) mit der Ansammlung sinnlicher Eindrücke: den Sinnesbildern und Erinnerungsbildern. Diese werden durch die „zupackende Phantasie” (phantasia kataleptiké íή, nach einer anderen Auslegung ist es die „gepackte”, durch die Lebhaftigkeit der Sinneseindrücke überwältigte Phantasie) so geordnet, daß die am häufigsten vorkommenden Sinneseindrücke, sich in der Erinnerung ständig überlagernd, zu festen Begriffen (Prolepsis ῆ) werden. Diese sind zugleich Kriterien der Wahrheit gegenüber den flüchtigeren und besonders den sinnestäuschenden Eindrücken. Die spätere Stoa hat großen Wert darauf gelegt, diese an sich sensualistische Erkenntnistheorie auch ontologisch zu untermauern, indem sie die Allgemeinbegriffe als eingewurzelte Vernunftbegriffe (Emphytoi logoi ἔó, logoi spermatikoi óí) der menschlichen Seele erklärte und damit die (aristotelische) Tabula-rasa-Theorie des Bewußtseins zugunsten einer (platonisch inspirierten) Lehre von „eingeborenen (besser aber als „angeboren“ zu bezeichnenenden) Ideen” aufgab. Als Lehre von den allen Menschen „gemeinsamen Grundbegriffen” (koinai ennoiai ὶἔ), Vor-Urteilen und Grundüberzeugungen wurde sie zum festen Bestandteil aller späteren rationalistischen Erkenntnistheorien und der Lehren vom „Apriori“. Insbesondere aber hat sie später oftmals sowohl Juristen wie Theologen und Ärzten dazu gedient, den Verbrecher, Häretiker oder Verrückten als dieser gemeinsamen Menschenvernunft nicht Teilhaftigen aus der menschlichen Gemeinschaft auszuschließen. In ihrer Naturauffassung gehen die Stoiker wie die Epikureer von einem atomistischen Materialismus aus. Auch die Seelen erklären sie aus feinster und feurigster „luftartiger“ Materie (Pneuma ῦ). Götter und eine oberste Gottheit nehmen sie an und erklären sie als Weltseele und Urfeuer, das in unendlichen Kreisläufen (Aion ἰῶ) alle Wirklichkeit aus sich entläßt und wieder verbrennt. 134 Zur Stoa vgl. M. Polenz, Die Stoa. Geschichte einer geistigen Bewegung, 2 Bände, Göttingen 1949 - 1959, neue Aufl. 1972 – 1978. – Immer noch lesenswert F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 1: Die Philosophie des Altertums, hgg. von K. Praechter, 12. erw. Aufl. Nachdr. Darmstadt 1957, S. 410 – 43; S. 475 – 483; S. 486 – 503. 282 Im Unterschied zu den Epikureern untersteht bei ihnen jedoch alles Geschehen strengster Gesetzlichkeit oder Notwendigkeit (Anánke ἀά Die göttliche Weltvernunft, oft als Heimarmene (ἱέ) bezeichnet, hat alles vorausbestimmt (Pronoia ó) und zum besten gerichtet (Teleologia í), vor allem zum besten des Menschen, der die Mitte des Naturreiches darstellt. So ist auch Zufall und Freiheit, wie sie die Epikureer vertraten, nur Schein. Der universale Determinismus (Anánke ἀά, lat.: fatum, daher Fatalismus) zwingt den Widerstrebenden und leitet den Willigen (Seneca: nolentem fata trahunt, volentem ducunt) unter das Naturgesetz (Lex naturalis). So wird alle Wissenschaft Forschung nach den Naturgesetzen, alle Lebensführung „naturgemäßes Leben” (physikôs zên ῶῆ gemäß der Einsicht in diese Naturgesetze. Der „kleine Kosmos” Mensch wird nach der von ihnen propagierten Mikro-Makrokosmos-Entsprechung ein Abbild des großen Kosmos. Demgemäß teilen die Stoiker auch die praktische ethische Indienstnahme der Wissenschaft mit den Epikureern: Sie pflegen und erweitern die Logik vor allem durch Hinzunahme der Rhetorik und Sprachwissenschaft, deren bis heute verwendete grammatische Kategorien von ihnen stammen, als den „Zaun”, der den „Garten” der Naturwissenschaft umgibt, in welchem die „Früchte” der Ethik und praktischen Philosophie reifen. Letztere ist ihnen eine Ethik des öffentlichen, solidarischen Lebens der menschlichen Gemeinschaft, in welcher sie die Pflichten und Verpflichtungen des Einzelnen für das Ganze und Allgemeine besonders betonen. Sie richten sich damit besonders gegen die Epikureer und ihre individualistische Ethik des Privatlebens und der intimen Freundschaftsverhältnisse. Es liegt auf der Hand, daß eine solche Philosophie eine besondere Relevanz für Juristen, Staatsmänner und Institutionenvertreter besitzt, die sie seither als ihre Hausphilosophie kultivieren. Die stoische Erkenntnistheorie von den gemeinmenschlichen Grundüberzeugungen hat die römische Rechtsdogmatik begründet und ihren Anspruch auf Anerkennung bei allen Völkern und zu allen Zeiten zu einer abendländischen Selbstverständlichkeit gemacht. Die inhaltliche Ausgestaltung des Rechts ist nichts weniger als willkürlich. Sie folgt selber der Einsicht in die Notwendigkeiten der Natur, deren Gesetze sie im „Naturrecht” nur aufzeichnet, keineswegs aber erfindet oder erzeugt. Naturgesetz und Naturrecht ist für die Stoa eines und dasselbe: „Das Naturrecht ist das, was die Natur alle Lebewesen gelehrt hat; denn dieses Recht ist nicht nur der menschlichen Gattung eigen, sondern allen Lebewesen, die im Himmel, auf der Erde und im Meer geboren werden“.135 So gibt sie auch der Weiterentwicklung der juristischen Dogmatik und der Gesetzgebung wie der Rechtsauslegung die wissenschaftliche Einsicht in die Gesetze der Realität als Richtlinie vor. Das Naturrecht, wie mangelhaft es auch immer als Naturgesetz erkannt und ausge135 Ius naturale est, quod natura omnia animalia docuit, nam ius istud non humani generis proprium est, sed omnium animalium, quae in coelo, quae in terra, quae in mari nascuntur. In: Institutionen des Justinian, Buch I, Titel 2. 283 sprochen werden kann, bleibt hier Maßstab aller Gerechtigkeit und Vor-Urteil des richtigen und wahren Rechts. Es sei aber hier schon bemerkt, daß die Stoiker weit davon entfernt waren, alles menschliche Handeln unter ethische oder gar juristische Normen zu stellen, wie das besonders in der Moderne unter der Maxime der „Verrechtlichung aller Lebensverhältnisse“ immer mehr der Fall ist. Sie betonen vielmehr mit Nachdruck, daß es in allem Handeln und gegenüber allen Normierungen stets den Bereich des „Gleichgültigen“ (adiaphoron ἀδιάθορον) gibt, der solcher Normierung nicht bedarf. Die gleichen Momente sind auch für die Wissenschaftstheorie von erheblicher Bedeutung geworden. Der Gedanke des Universaldeterminismus in der Natur, auf dessen Folie Freiheit nur ein objektiver Schein und allenfalls Anzeichen unserer Unwissenheit über die zugrundeliegenden kausalen Zusammenhänge der Dinge ist, hat die kausale Naturforschung selbst in ausweglos erscheinenden Lagen immer wieder beflügelt und zu oftmals überraschenden Kausalerklärungen geführt. Erst zu Beginn des 20. Jahrhunderts sind ihr in der indeterministischen Quanteninterpretation „epikureische“ Gegner entstanden. Das anfängliche Schwanken zwischen Sensualismus und apriorischem Rationalismus hat sich bis heute in den wissenschaftstheoretischen Grundlagentheorien repristiniert, wo Empiristen und Rationalisten sich noch mit gleichem Recht auf die Stoa berufen können. Nicht zuletzt knüpft die neuere Logik und Argumentationstheorie, insbesondere in ihren Gestalten als Metatheorie der idealen und natürlichen Sprachen, wieder an die stoische Dialektik und Grammatik an, deren Schätze sie wohl kaum schon ausgeschöpft hat. Ihre Auffassungen von einer Architektonik der Wissenschaften teilen die Stoiker mit den Epikureern. Sie umfaßt 1. die Logik bzw. Dialektik, die sie - im Gegensatz zu Aristoteles - nicht als Organon für die Wissenschaften, sondern als selbständige Wissenschaft ansahen und in Verschmelzung mit den Sprachwissenschaften ausbauten. 2. die Naturwissenschaft, die sie - wiederum im Gegensatz zu Platon und Aristoteles gleichermaßen - als prognostische und „mantische“ Wissenschaft auffaßten, welche auf Grund der vorausgesetzten Naturkausalität und Teleologie das den Sinnen Verborgene aus dem Sichtbaren und künftige Naturereignisse aus dem Gegenwärtigen vorauszusehen und technisch („mantisch“) zu manipulieren erlauben sollte. 3. die praktische Philosophie mit dem Schwerpunkt in der Ethik, die - ähnlich wie bei den Epikureern - ein glückliches sowohl individuelles wie aber auch soziales und staatliches Zusammenleben garantieren sollte. Wie im Bild vom Zaun, den Bäumen und ihren Früchten im Garten verglichen sie diese Wissenschaften auch gerne mit der Schale, dem Eiweiß und dem Dotter eines Eies. Und vielleicht war es dieses Bild, das noch heute in der Floskel vom „Gelben im Ei“ als Bezeichnung des Wichtigsten an einer Sache fortlebt. 284 1. Die Logik bzw. Dialektik136 umfaßt, wie auch die aristotelische, besondere Lehren von den Begriffen, von den Urteilen und von den Schlüssen und hat diese Einteilung nachhaltig stabilisiert. Auch in ihr geht es wesentlich um die Feststellung und Unterscheidung von Wahrheit und Falschheit in Urteilen und Schlüssen. Diogenes Laertios (1. Hälfte des 3. Jahrh. n. Chr.) überliefert in seiner Philosophiegeschichte als stoische Definition der Logik, sie sei die „Wissenschaft von der wahren und falschen Rede, aber auch von der, die keines von beiden ist“. Ersteres betont, daß es hier um eine zweiwertige Logik geht; letzteres, daß auch alle sprachlichen Ausdrucksformen, die keinen Wahrheitswert besitzen, in den Bereich der Betrachtung fallen. Die Wahrheit beruht dabei zunächst einmal auf der Klarheit und Deutlichkeit der Begriffe (Enargeia ἐά die später Descartes wieder besonders betonen wird), die ihrerseits das Ergebnis des „Zuflusses“ materieller Abbilder durch die Sinneskanäle und z. T. auch Ergebnis der „Einwurzelung“ der allgemeinen Begriffe (der Logoi spermatikoi), die durch die Poren und die Sinnesorgane in den eigenen Körper eingedrungen sind, darstellen. Daß und wie die Wahrheit auch von der Verknüpfung in Urteilen mittels einzelner Junktoren abhängt, das haben sie gerade durch Untersuchungen an Beispielen wahrer „Reden“ herauszufinden gesucht. Diese Aufgabe der Logik, überhaupt an Beispielen von sprachlichen Gebilden herauszufinden und diese Gebilde danach zu klassifizieren, ob und unter welchen Umständen sie für wahr oder falsch gehalten werden, macht sie gerade zur forschenden Wissenschaft. Dabei wird im wesentlichen anhand von Standardbeispielen inhaltlicher Art argumentiert, und nur gelegentlich treten - in der Schlußlehre - Formalisierungen durch Großbuchstaben auf, die hier als Ordnungszahlen (ein Erstes ... ein Zweites ...) für die Anordnung von Ursache und Wirkung dienen. A. Die Begriffslehre stellt fest, welche sprachlichen Elemente logisch relevant sind. Es sind die Eigennamen (Onoma ὄ) und Substantive (Proshegoria í) bzw. die sie vertretenden Pronomina und die Verben (Rhema ) in flektierten Formen als handlungsbeschreibende Behauptungselemente. Die Verbindungspartikel (Syndesmos óbzw. Synkategoremata ή bzw. die Junktoren werden wie bei Aristoteles nicht als Begriffe behandelt. An der Standardsatzform „Sokrates geht“ (oder ähnlich) erkennt man, daß auch das „ist“ (bzw. „sind“ an der Stelle eines Verbs) grundsätzlich als behauptendes Verb verstanden wird, weshalb es nicht als „Kopula“ bei den stoischen Synkategoremata vorkommt. Die Begriffe sind bildhafte „Sinneseindrücke“ (Typosis ύ) und deren Erinnerungsbilder (Phantasma ά) von wahrgenommenen Dingen und 136 Vgl. dazu K. H. Hülser, Art. Logik, stoische. In: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 1, Mannheim-Wien-Zürich 1984, S. 687 – 689 (mit Bibliographie); J. M. Bochenski, Formale Logik, 3 Aufl. Freiburg-München 1970, S. 121 – 153; B. Mates, Stoic Logic, 2. Aufl. Berkeley-Los Angeles 1961, Nachdr. 1973. 285 Sachverhalten in der materiell verstandenen Seele. Als in der Erfahrung immer wiederholte „Abdrücke“ solcher „Eindrücke“ verfestigen sie sich zum „Denkbild“ (Lekton ó). Bei allen Menschen können diese Denkbilder durch Laut- und Schriftzeichen (Semeion ĩ) zuverlässig in der Vorstellung bzw. Erinnerung evoziert werden und dadurch die Aufmerksamkeit auf die „äußeren“ Dinge und Sachverhalte, die sie abbilden bzw. auf die die „zutreffen“ (Tygchanon ύ ), gerichtet werden. Diese Lehre von der Dreiheit von (sprachlichem) Zeichen, der „Vorstellung“ und dem äußeren Gegenstand bei den Begriffen entspricht sehr genau der von Aristoteles in der Hermeneutikschrift entwickelten Lehre und ist vermutlich daher entnommen. Sie wurde zur Grundlage aller später entwickelten (realistischen) Semantiktheorien, in denen sprachliche oder logische Zeichen eine Vermittlungsfunktion zwischen innerem Denkakt und äußerem Sachverhalt übernehmen. Die Zeichenlehre ist in der Stoa zugleich die Grundlage ihrer Auffassungen über die Möglichkeit der Erkenntnis verborgener gegenwärtiger und der Prognose künftiger Sachverhalte und Ereignisse. Indem die Stoiker davon ausgehen, daß die Zeichen (Symbole) als sinnlich wahrnehmbare Dinge von sich aus und natürlicher Weise (daher „natürliche Zeichen“ wie beispielsweise der Rauch bezüglich des Feuers) auf andere Dinge verweisen, wird ihnen die Verweisungsgesamtheit der Zeichendinge zugleich ein heuristischer Leitfaden für die Forschung als Aufdeckung verborgener Kausalitäten und Teleologien. So erklären sie aus den natürlichen Krankheitszeichen („Signaturen“) verborgene Mechanismen der Krankheitsprozesse - aber auch aus den Sternkonstellationen menschliche Dispositionen der einzelnen Organe für solche Krankheiten. Die sogenannte Astrologie und die politische Prognostik der römischen Haruspices aus Vogelflug, Eingeweidebeschau von Opfertieren u. ä. erklären sich aus der Verallgemeinerung dieses „semantisch-heuristischen“ Forschungsverfahrens. Bei den Begriffen selbst haben die Stoiker hauptsächlich deren Intensionen bzw. Merkmale beachtet. Einfache Namen und Substantiva standen ihnen für einfache, durch Adjektive und Adverbien determinierte Ausdrücke für komplexe Begriffe. Wobei die Denkbilder einfacher Begriffe ihrerseits wieder Bestandteile von komplexen Begriffen sein konnten. Dies läßt sich freilich nur am Beispiel ihrer Kategorienlehre ersehen, die sie wohl kritisch gegen die aristotelische Kategorienlehre wandten. Von Gattungen, Arten und Unterarten und erst recht von der Einteilung von Arten unter einer Gattung - was eine extensionale Betrachtung impliziert - ist bei ihnen nirgends die Rede. Wenn es bei ihnen so etwas wie ein Allgemeinheitsgefälle der Begriffe gibt, so besteht es nur in der zunehmenden intensionalen Komplexheit derselben, nicht in den extensionalen Umfängen, die Aristoteles dafür mit in Betracht gezogen hatte. Ihr Kategorienbeispiel weist daher nicht die Struktur einer Pyramide, sondern eher die eines astlosen Baumes mit dickem Stamm und dünner Spitze auf. Die Kategorien als „allgemeinste“ Begriffe werden folgendermaßen angeordnet: 286 Formalisierung von Begriffen anhand des stoischen Beispiels der Kategorien A I BA I CBA I DCBA Substanz („Zugrundeliegendes“, Hypokeimenon ὑĩ) Qualität („Wie beschaffen Zugrundeliegendes“, Poion hypokeimenon ὸὑĩ) Verhalten („Wie sich verhaltendes wie beschaffenes Zugrundeliegendes“ ῶἔὸὑĩ Relation („In Bezug worauf wie sich verhaltendes wie beschaffenes zugrunde Liegendes“ óῶἔὸὑĩ) Da nun die Stoiker sehr wohl das Einzelne (durch Eigennamen Bezeichnetes) und das Allgemeine (durch allgemeine Substantive der Pluralformen Bezeichnetes) unterschieden, wie ihre Beispiele zeigen, so hat man in dieser Unterscheidung die Grundlage für ihre implizite, aber nicht ausgearbeitete extensionale Begriffsbehandlung zu sehen. Ihre Begriffsquantifikation besteht demnach ausschließlich in der Beachtung von „alle“ (Allgemeines) und „ein“ (Einzelnes). Dies stellt gegenüber der aristotelischen Quantifikation der Begriffe (die ja noch das „Einige“ dazwischen anordnet) eine bemerkenswerte Vereinfachung dar, die auch für die meisten logischen Zwecke genügt. Insbesondere aber vermieden die Stoiker damit das früher aufgezeigte Problem, ob die „partikulären Urteile“ überhaupt als Urteile und nicht vielmehr als Definitionen zu behandeln seien. Die moderne Logik hat in Verfolg dieser Betrachtungsweise die Quantifikationen „ein“ und „einige“ zur Spezialquantifikation „mindestens ein...“ zusammengezogen. Darüber hinaus gibt es gute Gründe zu vermuten, daß diese Art der stoischen Quantifikation späterhin dazu führte, ihre Begriffsquantifikation direkt durch genaue Zahlenwerte gleichsam aufzufüllen und dadurch die „Einzelheiten“ durch zahlenmäßige Meßbestimmungen zu quantifizieren. Die in der modernen mathematischen Logik verwendeten „metrischen Begriffe“ (W. Stegmüller), die vor allem in der Physik Anwendung gefunden haben, können nur auf diese stoische Begriffslehre zurückgeführt werden, da die aristotelische Quantifikation jede zahlenmäßige Bestimmung ausschließt. Dieser reduzierten Quantifikation entsprechend, haben die Stoiker auch die Negation in ihrer Bedeutung für die Bildung negativer Begriffe und damit die logische Bedeutung negativer Begriffe selbst herausgearbeitet, was man bei Aristoteles gänzlich vermißt. Aus ihrem Beispielssatz „Niemand geht umher“ kann man entnehmen, daß sie eine „absprechende“ (apophatikon ἀó) Negation zur Bildung eines regulären (positiven) Subjektbegriffes benutzten. Ebenso eine „beraubende“ (arnetikon ἀóNegation für die Bildung negativer Adjektive zur Subjektsdetermination (z. B. „menschenunfreundliches Verhalten“). 287 Schließlich kannten sie eine mangelanzeigende (steretikon ó) Negation für Ausdrücke vom Typ „ohne ...“. B. Die stoische Urteilslehre unterscheidet sich deswegen wesentlich von der aristotelischen. Rein äußerlich zeigt sich dies schon daran, daß sie die Urteile in der Regel nicht formalisiert, sondern sie als inhaltliche konkrete Sachverhaltsbeschreibungen behandelt, deren Wahrheit oder Falschheit man entweder unmittelbar kennt oder voraussetzen kann. Die Art von „Rede“, die als Urteil von ihnen in Betracht genommen wird, hat daher den Charakter eines Zitates, über dessen Wahrheit oder Falschheit im logischen Kontext geurteilt wird. Alles, was im Zitat gesagt wird, bildet daher eine Einheit einer Sachverhaltsbeschreibung, die nur insgesamt wahr oder falsch sein kann. Das erklärt zunächst die Tatsache, daß sie solche zu beurteilenden Sätze nicht in wahre und falsche Teilsätze zerlegten und diese einzeln auf Wahrheit und/oder Falschheit hin prüften. Dabei waren sie offensichtlich vor allem daran interessiert, die Aussageformen und die darin vorkommenden Junktoren darauf hin zu untersuchen, wie man durch sie Wahrheiten ausdrückt, nicht aber daran, wie man durch falsche Sätze etwa lügen und betrügen kann. Und das wiederum erklärt, warum bei ihnen die falschen Urteile als Fehlformen wahrer, nicht aber als selbständige logische Elemente behandelt wurden. Ein weiterer Unterschied zur aristotelischen Urteilslehre liegt darin, daß die stoischen Elementarsätze in der Regel mit flektierten Verben gebildete Handlungsund Sachverhaltsbeschreibungen darstellen („Sokrates sitzt“), wobei das gelegentlich vorkommende „ist“ im verbalen Sinne auch als Existenzjunktor („Es ist hell“ = „es gibt Licht“) fungiert. Die echte Kopula im aristotelischen Sinne einer Subjekt-Prädikatverknüpfung kommt nicht vor, ebenso wenig wie die partikularisierende Quantifikation. Dies sind Anzeichen dafür, daß es in der stoischen Logik nicht um die Darstellung von Allgemeinheits- und Besonderheitsverhältnissen innerhalb von Begriffsstrukturen ging, wie in der aristotelischen Logik. Im übrigen haben die Stoiker die Funktion der dann übrigbleibenden Junktoren bei der Urteilsbildung, und dies vor allem anhand zusammengesetzter Sätze, viel genauer betrachtet als Aristoteles. Dieses - von ihnen aber keineswegs deutlich gemacht - vorausgesetzt, haben sie folgende Urteilsformen für wahre Ausdrucksformen gehalten und erst an ihnen die Fehlformen falscher Sätze gemessen: 1. Ein Satz mit doppelter Negation (hyperapophatikon ὑó) drückt dieselbe Wahrheit aus wie der Satz ohne jede Negation: „Nicht: es ist nicht Tag“ = „Es ist Tag“. Daß die doppelte Negation auf die nichtnegierte (positive) Behauptung eines Satzes zurückführe, ist seither ein logisches Dogma geworden. Es gilt allerdings nur bei bestimmter Negation in streng dihäretischen Begriffslagen. 2. Einen durch ein oder mehrere „und“ (sympeplegmenon έ Adjunktion bzw. Konjunktion) aus Teilsätzen zusammengefügten Gesamtsatz 288 hielten sie für wahr, wenn jede durch die Teilsätze beschriebene Situation zusammen mit den übrigen erfahrbar war: z. B. „Sokrates sitzt und (Sokrates) liest und (Sokrates) denkt“. Paßt nur ein Teilsatz nicht in den Erfahrungskontext der Aussage, so macht dies den ganzen Satz falsch: z. B. „Sokrates sitzt und liest und schläft“. Von dem nicht in den Erfahrungskontext passenden Glied sagten sie, daß es mit den übrigen „unverträglich“ sei. Es wird nicht, wie beim aristotelischen Widerspruch, durch Negation eines verträglichen Gliedes konstruiert. Zur Begründung findet man das Beispiel, man nenne auch ein Kleid, das nur einen einzigen Riß aufweise, ein „zerrissenes Kleid“, selbst wenn es im übrigen ganz unversehrt sei. 3. Der letztere Beispielssatz bleibt wahr, wenn in ihm das nicht zum Kontext passende Glied durch ein ausschließendes „oder“ (diezeugmenon έ) angehängt wird: z. B. „Sokrates liest oder schläft“ (Sokrates kann erfahrungsgemäß nicht zugleich lesen und schlafen!). Er bleibt ebenfalls wahr, wenn in diesem Falle alle Teilsätze durch ein nicht ausschließendes „oder“ (paradiezeugmenon έ) verknüpft werden, z. B. „Sokrates sitzt oder liest oder schläft“. Die Wahrheitsbedingung ist in beiden Fällen, daß wenigstens ein Teilsatz einen erfahrbaren und im Behauptungssinn gemeinten Sachverhalt ausdrückt. Wenn das nicht der Fall ist, ist der ganze Satz falsch. 4. Die Implikation eines Nachfolgesatzes in einem vorhergehenden, der mittels „wenn ... dann ...“ (zeugmenon έ) mit ihm verknüpft ist, hielten die Stoiker für einen wahren Gesamtsatz außer in dem Falle, daß der erste Satz wahr und der zweite falsch ist. Diese merkwürdige, auf den Megariker Philon zurückgeführte und bisher niemals plausibel gemachte, vielmehr als logisches Dogma überlieferte Festlegung der Implikation brachte Chrysipp auf die Formel: „Ein implikativer Satz ist wahr, in welchem der Gegensatz des Nachsatzes mit dem Vordersatz unverträglich ist“. Ein Standardbeispiel dafür ist: „Wenn es Tag ist, ist es hell“ - denn Dunkelheit ist mit Tagsein nicht verträglich. Als eine weitere falsche Implikation sahen sie die Selbstimplikation an, in der die Aussage des ersten Teilsatzes im zweiten nur wiederholt wird, z. B. „Wenn es Tag ist, ist es Tag“. Offensichtlich gab es darüber Meinungsverschiedenheiten unter den Stoikern. Da die Selbstimplikation aber unter den „falschen“ Formen nicht weiter erwähnt wird, kann man davon ausgehen, daß sie diese überhaupt nicht für einen sinnvollen Satz hielten mit dem Argument, „daß nichts in sich selbst enthalten sein könne“. Als Vorschlag für eine Erklärung für diese Implikationslehre möchten wir zunächst auf den bei den Stoikern zugrunde liegenden Universaldeterminismus hinweisen, wonach alle implikativen Sätze eine Beschreibung von Kausalzusammenhängen sein müssen. Dies setzt - analog zu den aristotelischen Mittelbegriffen in den Syllogismen - auch für diese implikativen Aussagen einen „Situationszusammenhang“ voraus, wie auch aus den Beispielen ersichtlich wird. Die Implikation drückt also ein Ursache-Wirkungsverhältnis („kausal“ im seither üblichen Sinne) oder auch ein Wirkungs-Ursacheverhältnis (in der „teleologischen“ Sicht dieses 289 Verhältnisses) aus, in welchem von einer Kausalursache auf eine Wirkung oder von einer Wirkung (teleologisch) auf ihre Ursache geschlossen werden kann. Sie drückt auf keinen Fall wie die aristotelische Implikation ein Verhältnis von Allgemeinem zum Besonderen (also die sogenannte materiale und formale Implikation) aus, da ersichtlich das Allgemeine nicht Ursache oder Wirkung von Besonderem sein kann. Ebenso wenig kann dann eine Ursache Ursache von sich selbst sein. Das schließt die Selbstimplikation aus. Weiß man nun, daß ein Teilsatz oder auch beide Teilsätze falsch sind - welches Wissen die Stoiker mit Philon und Diodor von Megara ausdrücklich voraussetzen - so weiß man, daß entweder die in dem Teilsatz gemeinte Ursache oder Wirkung oder auch beides nicht existiert. Daraus ergeben sich die seither kanonisierten drei wahren und die eine falsche Implikation. Es gilt als 1. wahre Implikation, wenn von einer gegebenen Ursache auf eine gegebene Wirkung oder (teleologisch) umgekehrt von einer gegebenen Wirkung auf eine gegebene Ursache geschlossen wird. Es gilt 2. als wahre Implikation, wenn von einer nicht gegebenen („falschen“) Ursache auf eine gegebene Wirkung oder von einer nicht gegebenen Wirkung auf eine gegebene Ursache geschlossen wird. Und 3. gilt es als wahre Implikation, wenn aus nicht gegebener Ursache auf eine nicht gegebene Wirkung oder aus nicht gegebener Wirkung auf eine nicht gegebene Ursache geschlossen wird (nach der Maxime: Aus Nichts wird nichts, und Nichts entsteht aus Nichts!). In letzterem Sinne ist offenbar das Beispiel zu deuten: „Wenn die Erde fliegt, dann hat die Erde Flügel (was beides nach Voraussetzung falsch, d. h. nicht gegeben ist und somit zu einem wahren Implikationssatz berechtigt). Die Implikation gilt demnach 4. nur dann als falsch, wenn aus einer gegebenen Ursache auf eine nichtgegebene Wirkung oder aus einer gegebenen Wirkung auf eine nicht gegebene Ursache geschlossen wird. Unter Voraussetzung des gegenläufig kausal-teleologischen Determinismus der Stoiker und der Tatsache, daß ein Wissen um die Falschheit von Sätzen zugleich ein selber wahres Wissen ist, wird man diese Festlegungen gerade noch plausibel finden. Die moderne aussagenlogische Formalisierung dieser Implikationsformen, die sich offensichtlich stark an dieser stoischen Implikationslehre orientiert hat, macht den ontologisch-deterministischen Hintergrund irrelevant und läßt damit die (Wittgensteinsche) tabellarische Wahrheitswertdefinition als bloße Willkür erscheinen, die nur als Dogma fortgeschrieben wurde. Es fällt auf, daß in der stoischen Urteilslehre nicht vom Widerspruch die Rede ist, auch nicht bei Gelegenheit der „falschen“ Adjunktion. Dies läßt vermuten, daß die Stoiker von der aristotelischen Widerspruchslehre nichts hielten, und daß sie schon gar nicht die Meinung teilten, der Urteilswiderspruch könne ein (analytisches) Kriterium für Falschheit eines Urteils sein. Da sie sich allerdings intensiv - und aus megarischer Tradition - mit der Antinomie bzw. dem Paradox des „Lügners“ (der von sich selbst sagt, daß er lügt, wenn er etwas sagt) befaßt haben, mußten sie auch dazu einen Lösungsvorschlag vorlegen. 290 Daß es sich bei einer Paradoxie um einen wahren Satz handeln könnte, schlossen sie von vornherein aus. Ebenso, daß eine Paradoxie in der Form einer Antinomie einfach falsch sei (was man heute noch meistens glaubt). Daß sie zugleich wahr und falsch sei (was Aristoteles wenigstens diskutiert hatte), konnten sie nach ihren Voraussetzungen nicht zugestehen. Also blieb nur übrig, die Antinomie für weder wahr noch für falsch zu halten. Und das scheint aus einem Papyrusfragment Chrysipps auch hervorzugehen. C. Die stoische Schlußlehre unterscheidet sich ebenfalls in bemerkenswerter Weise von der aristotelischen Syllogistik. Äußere Kennzeichen dafür sind, daß sie die oben genannten Urteilsformen in ihren „wahren Formen“ als Prämissen zuläßt, daß darüber hinaus jedoch in ihren Teilsätzen insgesamt nur zwei Begriffe zugelassen werden. Mit der aristotelischen Schlußlehre hat sie die Gemeinsamkeit, daß sie eine formale Schlußlehre ist, in deren Schlußfiguren wahre inhaltliche Urteile derart eingesetzt werden können, daß auf Grund des Schematismus wiederum ein wahres Urteil „erschlossen“ werden kann. Erschließen bedeutet dabei zweierlei. Nämlich einerseits eine kausale Erklärung offensichtlicher und bekannter Tatsachen, andererseits eine prognostische bzw. heuristische Beweisführung für die Existenz verborgener (nicht sinnlich wahrnehmbarer) Ursachen oder Wirkungen. Ein stoisches Beispiel für ersteres ist der Satz: „Wenn es Tag ist, ist es hell (wörtlich: gibt es Licht). Nun ist es aber Tag, deswegen ist es hell“. Ein Beispiel für letzteres ist der „Beweis“ für die Existenz von Poren in der Haut, die man wegen ihrer Kleinheit nicht wahrnimmt: „Wenn Schweiß auf der Haut ausbricht, so gibt es Poren. Nun bricht aber Schweiß aus der Haut aus. Also gibt es Poren“. Die üblich gewordene Übersetzung formuliert die Prämisse als behauptende Implikation. Wäre das so, dann wäre der Folgesatz jedoch eine Wiederholung dieser Implikation, was zumindest seltsam klingt und auch als logische Form nicht zugelassen wurde. Deshalb sollte die Prämisse in den stoischen Schlüssen als konjunktivischer Vermutungssatz, d. h. als Hypothese, übersetzt und gelesen werden. Umschreibend könnte man die Prämisse (Lemma) dann auch formulieren mit „Gesetzt den Fall... (mit anschließender konjunktivischer Vermutung)“ oder „Falls … wäre, so wäre …“. In den sogenannten „Fünf Unbeweisbaren“ (nämlich Schlußfiguren) des Chrysipp hat die stoische Schlußlehre ihre klassische Gestalt gefunden. Die Bezeichnung „Unbeweisbare“ mag von den Stoikern in Analogie zur aristotelischen „Axiomatik“ der unbeweisbaren logischen Grundsätze gewählt worden sein. In der Tat kann sie sich nur auf die Nichtbegründbarkeit (also den hypothetischen Charakter) ihrer Voraussetzung des kausal-teleologischen Determinismus beziehen, der seinerseits ihre Schlußlehre begründet. Die stoischen Schlußformen haben folgende Gestalt: 291 Schema der stoischen Schlußformen a. Lemma (ῆ) =hypothetische Urteilsform eines zusammengesetzten Satzes, wörtl. „Ertrag“ der Urteilslehre als 1. Prämisse im Schlußschema b. Proslepsis (óηAnnahme) = empirische Konstatierung eines Sachverhalts als Ursache oder Wirkung einer empirisch gegebenen oder gesuchten zugehörigen Wirkung, oder Ursache als 2. Prämisse im Schlußschema c. Epiphora (ἐάErgebnis) = Schlußsatz i. e. S. über eine empirisch gegebene oder gesuchte Ursache oder Wirkung Wir vermuten, wie gesagt, daß die formale Bezeichnung „Erstes“ bzw. „Zweites“ für den ersten und zweiten Teilsatz des Lemmas in den implikativen Figuren (1 und 2) auf den kausalen Zusammenhang von Ursache und Wirkung oder auf den teleologischen Zusammenhang von Wirkung und Ursache zu beziehen ist. In den übrigen (verneint adjunktiv 3, und alternativen 4 und 5) Figuren aber beziehen sich „Erstes“ und „Zweites“ auf die zeitliche Abfolge derselben, so daß hier das „Erste“ die Existenz oder Nichtexistenz einer Ursache oder einer Wirkung zu einem gegebenen „Jetzt“-Zeitpunkt, das „Zweite“ die Existenz oder Nichtexistenz einer Wirkung oder einer Ursache zu eben demselben Zeitpunkt bezeichnet bzw. anzeigt. Bei den hier gegebenen Beispielen und in der Erklärung ist nur die „kausale“ Perspektive beachtet Der Leser kann sich leicht überzeugen, daß auch „teleologische“ Beispiele und Erklärungen einsetzbar sind. Die 5 „Unbeweisbaren“ Schlußfiguren nach Chrysipp lauten: Formale Schlußfiguren Beispiele Erklärung 1. Falls das Erste, dann das Zweite (Lemma: Implikation) Nun das Erste (Proslepsis) Also das Zweite (Epiphora) Falls es Tag wäre, gäbe es Licht Falls Ursache, dann gäbe es eine Wirkung Nun gibt es die Ursache Also gibt es die Wirkung 2. Falls das Erste, dann das Zweite (Lemma: Implikation) Nun nicht das Zweite Also nicht das Erste Falls es Tag wäre, gäbe es Licht Nicht: das Erste und das Zweite (Lemma: negierte Adjunktion) Nun das Erste Also nicht das Zweite Nicht: Tag und Nacht zugleich Nun ist es Tag Also nicht Nacht Nicht: Ursache und Wirkung zugleich Nun existiert Ursache Also (noch) nicht Wirkung Entweder das Erste oder das Zweite (Lemma: vollständige Disjunktion) Nun das Erste Also nicht das Zweite Entweder wäre es Tag oder es wäre Nacht Nun ist es Tag Also nicht Nacht Entweder die Ursache oder die Wirkung wäre präsent Nun (jetzt) Ursache Also (noch) nicht Wirkung 5. Entweder das Erste oder das Zweite (Lemma: vollständige Disjunktion) Nun nicht das Zweite Also das Erste Entweder wäre es Tag oder es wäre Nacht Nun ist es nicht Nacht Also ist es Tag Entweder die Ursache oder die Wirkung wäre präsent Nun nicht Wirkung Also (jetzt) Ursache 3. 4. Nun ist es Tag Also gibt es Licht Nun gibt es kein Licht Also ist es nicht Tag Falls Ursache, dann gäbe es eine Wirkung Nun gibt es keine Wirkung Also keine Ursache Man kann davon ausgehen, daß diese stoischen Schlußfiguren auch die Hauptschemata der empirischen Forschung der Stoiker in allen Wissenschaften ge- 292 worden sind. Und dies in solchem Maße, daß die moderne Logik und Wissenschaftstheorie unmittelbar daran anknüpfen konnte, nachdem sie sie (durch Lukasiewicz in den dreißiger Jahren des 20. Jahrhunderts) geradezu wieder entdeckt hatte. Es ist dabei nur zu beachten, daß die neuzeitliche Wissenschaftstheorie es für den entscheidenden Fortschritt gehalten hatte, die teleologische Erklärungsweise (von der Wirkung auf Ursachen zu schließen) ein für allemal aus der seriösen Wissenschaft ausgeschieden zu haben. In der Scholastik waren beide Erklärungsweisen noch allgemein verbreitet. Den Kausalschluß von der Ursache auf die Wirkung nannte man damals „a priori ad posteriorem“ (vom Vorausgehenden zum Folgenden), den umgekehrten von der Wirkung auf die Ursache „a posteriori ad priorem“ (von der Folge auf das Vorausgehende). Daß freilich die Ausscheidung des teleologischen Schließens aus den Wissenschaften konsequent durchgeführt und jemals gelungen sei, dürfte zu den Mythen neuzeitlichen Wissenschaftsselbstverständnisses gehören. Die selbstverständliche Voraussetzung eines eindimensionalen Zeitpfeiles (von der Vergangenheit in die Zukunft), der zweite Hauptsatz der Thermodynamik (Machsches Gesetz der Entropiezunahme in abgeschlossenen Systemen), die kosmologische Spekulation über den Anfangszustand des Weltalls, schließlich das Evolutionsdenken in allen möglichen Wissenschaftsbereichen und erst recht das „wirkungsgeschichtliche“ Rückschließen von späteren Wirkungen auf vorausliegende Ursachen in allen historischen Geisteswissenschaften bezeugen allzu deutlich die faktische Anwendung teleologischer Denk- und Schlußweisen auch in der modernen Wissenschaft. Nehmen wir die moderne Einschränkung der stoischen Erklärungsschemata auf die kausale Perspektive als gegeben hin, so erkennen wir in der 1. Unbeweisbaren (in der o. a. Darstellung) den klassischen Modus ponens und zugleich das von Hempel und Oppenheim aufgestellte „hypothetisch-deduktive“ Erklärungsschema der empirischen Forschung (daher „HO-Schema“ bzw. „HD-Schema“ genannt) wieder. In die Stelle des Lemmas wird ein gesetzlicher Ursache-Wirkungszusammenhang eingesetzt, der allgemein von sogenannte „Antezedenzbedingungen“ (Ursachenkomplexe) auf „Konsequenzen“ (Wirkungen) zu schließen erlaubt. „Hypothetisch“ wird dieser Gesetzeszusammenhang aus purer Vorsicht und mit Rücksicht auf die angeblich „unvollständige Induktion“ des hier zum Gesetz erhobenen Allgemeinen genannt. Eigentlich wäre er nach dem hier vorgeschlagenen stoischen Verständnis (als vermuteter Kausalzusammenhang) im Konjunktiv zu formulieren: „Falls die Antezedensbedingungen vorlägen, so würde sich die Konsequenz ergeben, daß ...“. „Deduktiv“ versteht sich gemäß noch immer kantischem Hintergrunddenken so, daß der Schluß von „apriorischen Bedingungen der Möglichkeit“ auf die faktische aposteriorische Wirklichkeit deduktiv sei. Logisch gesehen handelt es sich allerdings nicht um eine Deduktion vom Allgemeinen aufs Besondere, sondern vom Besonderen auf anderes Besonderes (wie im stoischen Beispiel von Tag und Nacht). Als Proslepsis wird im HD-Schema die empirische Konstatierung des 293 Vorliegens der Antezendensbedingungen eingesetzt, als Epiphora folgt die Prognose des erwarteten und insofern abzuwartenden Eintretens der Konsequenz. Tritt diese prognostizierte Konsequenz ein, so hat sich die HD-Prognose und das sie tragende Gesetz bestätigt. Die eingetretene Konsequenz gilt als „Verifikation“ des allgemeinen Gesetzes. Tritt die prognostizierte Konsequenz nicht ein, so handelt es sich um den Fall der 2. Unbeweisbaren. Sie stellt den logischen „Modus tollens“ dar und zugleich das von R. Popper formulierte Falsifikationsschema der empirischen Forschung. Als Lemma wird wiederum eine mittels einer „kühnen Idee“ vermutete Gesetzlichkeit mit prognostischer Relevanz eingesetzt. Die Proslepsis gibt auch hier empirische „Anfangsbedingungen“ vor, und die Epiphora prognostiziert wiederum eine gesetzliche Wirkung. Tritt diese nicht ein, wie die 2. Unbeweisbare es ausdrückt, so hebt dies auch die Antezedenzbedingungen auf. Bei Popper gilt allerdings das Nichteintreten einer prognostizierten Wirkung als „Falsifikation“ des allgemeinen (hypothetischen) Gesetzes. Daß Poppers Falsifikationstheorie nicht damit rechnet, daß es trotz Gültigkeit des Kausalgesetzes am Nichtvorliegen bestimmter Antezedenzbedingungen (Kausalgründe) liegen könnte, wenn die Prognose falsifiziert wird, macht ersichtlich eine Schwäche der popperschen Theorie aus. Die übrigen Unbeweisbaren 3 - 5 haben in der späteren Wissenschaftpraxis jedenfalls für das Kausaldenken keine Rolle mehr gespielt. Wir vermuten allerdings, daß sie in der sogenannten scholastischen Methode bzw. der „Sic-et-nonMethode“ (auch Quaestionenmethode genannt) zum Tragen gekommen sind. Hierbei geht es um die Argumente zur Lösung vorgegebener Probleme bzw. um die Gewinnung von Antworten auf Fragen (Quaestionen). Nennt man hierbei die Argumente „Pro...“ (positive Lösungsargumente im Sinne der Fragestellung) „das Erste“ und die Contra-Argumente „das Zweite“, so stellen sie die Schemata für die Bewertung der Argumente dar und schließen es jedenfalls aus, daß sowohl die Pro- wie auch die Contra-Argumente zugleich zur Problemlösung ins Spiel gebracht werden. Insgesamt wird man also die logische Arbeit der Stoiker sehr hoch veranschlagen müssen, jedenfalls scheint sie erheblich mehr bewirkt zu haben als nur die Begründung einer rudimentären Aussagenlogik, für die man die Stoiker auch in der neueren Logik noch schätzt. 2. Das Wissenschaftskonzept der Stoa. Ist von stoischer Wissenschaft die Rede, so denkt man meist an die „Naturwissenschaft“, da die ältere Stoa sich dieser neben der Logik fast ausschließlich widmete. Diese reicht in der Tat vom ewigen Kreislauf der Gestirne (Astronomie) bis herab zu den im leeren Raum sich bewegenden Atomen, die sich zu sichtbaren Körpern (und chemischen Stoffen) sowie zu Lebewesen zusammenfügen. Aber der stoische Naturbegriff ist dabei derjenige, der auch heute noch in zahlreichen Wendungen über die „Natur der Sache“ als dem Wesen der Dinge vorkommt. Und er schließt deshalb neben der Natur (im 294 heutigen Verständnis) auch den Kulturbereich ein, soweit dessen Thematik nicht zum Gegenstand der Praktischen Philosophie gehört. Diese Kulturwissenschaft wurde vor allem in der mittleren Stoa durch Panaitios von Rhodos und Poseidonios bearbeitet. Natur und Kultur zusammen bilden den Kosmos, das „geschmückte“ und unter ewigen Gesetzen stehende Weltganze. Das stoische Wissenschaftskonzept enthält drei metaphysisch zu nennende Voraussetzungen. 1. die demokriteische Voraussetzung, daß der gesamte Kosmos aus leerem Raum und darin bewegten materiellen Atomen bestehe. Selbst das, was bei Ihnen als „Götter“ bezeichnet wird, gehört zu diesem Kosmos und besteht nur aus der feinsten luftartigen - pneumatischen - Atomart. 2. die universaldeterministische Voraussetzung, daß alle Bewegungen und Veränderungen im Kosmos strengen und ausnahmslosen Gesetzen unterliege. Diese Gesetze nannten sie für die Natur im engeren Sinne „Naturgesetz“ (Lex naturalis), im weiteren - die Kultur und den Menschen einschließenden - Sinne aber „Naturrecht“ (Ius naturae). 3. die „phänomenologische“ Voraussetzung, daß die sinnliche Erkenntnis sich auf Makroerscheinungen der kosmischen Gegebenheiten beschränke, da deren atomare Mikrobedingungen nicht wahrgenommen werden könnten. Daraus ergeben sich ihre Forschungsansätze. Aus 1 folgt, daß alle Erklärungen mit äußerster Sparsamkeit der Prinzipien letztlich nur auf bewegte Atome im leeren Raume zurückgreifen dürfen. Aus 2 folgt, daß jede Erklärung eine Kausalerklärung sein muß, und zwar entweder in der Form der Angabe von erschlossenenen Ursachen für manifeste Wirkungen (Kausalerklärung im engeren Sinne) oder der Angabe von erschlossenen Wirkungen zu manifesten Ursachen (teleologische Erklärung, insbesondere Prognosen), wozu die ersten zwei „Unbeweisbaren“ als methodische Schlußformen dienen. Aus 3 folgt, daß die Erklärungen, soweit sie die Bewegung von Atomen im leeren Raum implizieren, nach demokritischem Vorbild mit anschaulichen Modellen bzw. mit Metaphern aus dem sinnlichen Anschauungsbereich arbeiten müssen, da ja die Atome selbst und das Leere als nicht sinnlich beobachtbar gelten. Der dominierende Ausdruck dieser Modellerklärungen ist der bekannte stoische Rückgriff auf das Mikro-Makrokosmos-Verhältnis. Es liegt auf der Hand, daß die Himmelsphänomene unter solchen Voraussetzungen die Ausgangsbasis aller deterministisch-gesetzlichen Einsichten und Erkenntnisse abgeben mußten. In der Astronomie konnten schon damals mit großer Sicherheit der jeweils aktuelle Stand der Himmelskörper beobachtet und von ihm aus künftige Konstellationen prognostiziert und zurückliegende Konstellationen „retrodiziert“ werden. Aus den beschränkten Zyklen der Konstellationen von Sonne, Mond, Planeten und der Fixsterne in den Rhythmen des Tages, der Monate und Jahre schlossen die Stoiker alsbald auf den Zyklus einer kosmischen Gesamtkonstellation, der berühmten „Apokatastasis panton“ (ἈάάWiederherstellung 295 aller Dinge), den sie den Aion (ἰῶWeltenjahr) nannten und auf ca. 20 000 Sonnenjahre berechneten. Er sollte in einer vollkommenen Verbrennung aller anderen Atome durch das Pneuma, den „Weltenbrand“ Ekpyrosisἐύ daher später auch „Holokaust“) beginnen und enden. Zwischen diesen Punkten sollte sich dann immer erneut eine Neubildung und Differenzierung der gröberen Atome zu den Elementen der Luft, des Wassers und der Erde und dieser wiederum zu Atomgruppierungen aller Gestalten der toten und lebendigen Natur und der menschlichen Kultur nach ebenso ehernen Gesetzen wie sie die Himmelsphänomene zeigten, abspielen. Die dominierende Rolle des Feuers als Urelement und zugleich als pneumatisch-geistiger Urstoff im Kosmos (als „logoi spermatikoi“ óí) verrät ihre Anknüpfung an die Lehre des Heraklit. Die phänomenologische Erfahrung der Himmelsmechanik wurde in der mittleren Stoa zum makroskopischen Modell der Erklärung der Kulturzyklen der Menschheit. Auch in diesem Bereich setzten die Stoiker eine gesetzlich-zyklische Entwicklung von den primitiven Anfängen nomadischer, ackerbauender, dann städtischer Zivilisation und ihres Niederganges voraus und suchten diagnostisch den aktuellen Stand ihrer eigenen Gegenwart in diesem Zyklus zu bestimmen. Da sie die Kulturzyklen als Unterzyklen der astronomischen Zyklen und als von diesen kausal bestimmt ansahen, ergab sich ihnen ein weiter Bereich für die Verwendung der Himmelszeichen zur Deutung und Prognose irdischer Vorgänge. Es ist das, was man seither als „Astrologie“ und „Horoskopie“ kennt. Damit lieferten sie die (pseudo-) „wissenschaftliche“ Grundlage für das Auguren- und Divinationswesen, das im römischen Reich institutionalisiert war. Nicht zuletzt war es dann eine Anwendung dieses Erklärungsmusters, wenn die Himmelszeichen auch auf die Zyklen des einzelnen Menschenlebens von der Zeugung und Geburt bis zum Tode bezogen wurden. Auch im einzelnen Menschenleben sollte alles streng determiniert und durch das Schicksal - Ananke bzw. Fatum - festgelegt und vorausbestimmt sein. Darauf gründete sich der seither nicht nur im Abendland nicht mehr abgerissene Brauch der Horoskope und Nativitäten, in denen dem Einzelnen sein persönliches Schicksal gedeutet, seine Vergangenheit erklärt und seine Zukunft prognostiziert wird. Von alledem gilt der bekannte Spruch Senecas: Volentem fata ducunt, nolentem trahunt (Den Willigen geleitet das Schicksal, den Widerspenstigen zwingt es). Gewiß wird man diese auch heute noch populäre Schicksalsberechnung in den Bereich von Pseudowissenschaft verweisen. Nicht zu verkennen ist aber, daß sie die Grundlage für die noch fortbestehende Überzeugung und Erwartung geblieben ist, es gäbe so etwas wie die „Natur“ des einzelnen Menschen, aus deren Diagnose man sein biographisches Schicksal prognostizieren könne. Die frühkindliche Begabungsdiagnostik, vielerlei psychologische Testverfahren und die kriminalistische Veranlagungsdiagnostik, neuerdings die mechanistisch-physiologische Hirnforschung, setzen nicht nur diese unveränderliche Natur des Menschen voraus, sondern stellen durch sanktionierende Maßnahmen meist auch die notwendigen Folgen im Lebensgang der entsprechenden Personen selbst her. 296 Damit gipfelt die stoische „Naturphilosophie“ in einem eigentümlichen Menschenbild. Der Mensch steht hier „in der Mitte der ganzen Natur“, weil er von allen körperlichen Gebilden das am meisten durch Vernunft bzw. Geistespneuma durchweste Gebilde ist. Alles andere ist vom Schicksal teleologisch auf ihn und die Dienlichkeit für sein Dasein ausgerichtet. Wie auch schon bei Platon und Aristoteles enthält er „mikrokosmisch“ anteilige Bestandsstücke des Makrokosmos. Die gröberen Atome der sogenannten toten Natur, die feineren der Pflanzenausstattung mit ihren teologischen Trieben und Leidenschaften, die noch feineren der animalischen Instinkt- und Sinnesanlagen, und - wie gesagt am meisten die pneumatisch-geistige Vernunftausstattung. Auf letztere kommt bei den Stoikern alles an. Sie macht den Menschen wesentlich zu einem vernünftigen Gattungswesen, obwohl jeder einzelne Mensch durch das Mischungsverhältnis seiner Atombestandteile unverwechselbar einzig und von jedem anderen unterscheidbar ist. Der normale und gesunde Mensch ist dementsprechend der Vernunftmensch, der seine vegetativen und animalischen Wesensbestandteile - seine Triebe und Leidenschaften - unter vernünftiger Kontrolle hält und ihr Wirken in vernünftige Bahnen lenkt. Krankheiten und Anormalitäten erklären sich daher aus dem Verlust der Vernunftkontrolle (gewissermaßen aus dem Mangel an genügend Vernunftatomen in der Zusammensetzung des Einzelnen). Die Folgen und Heilmittel dieser Störungen und Anomalien stellen das Problemfeld für die stoische praktische Philosophie dar, die daher wesentlich therapeutische Züge aufweist. 3. Die praktische Philosophie der Stoa. Sie beruht auf den Grundlagen der logisch-methodisch erreichten Naturerkenntnis. Wäre diese vollendet, so ließe sich darauf auch eine abschließende Naturgesetzgebung für alles Handeln gründen. Da das Wissen aber - wie sie im Gefolge Demokrits in Rechnung stellten nicht abgeschlossen noch abschließbar ist, muß auch das Nichtwissen auf diesem Gebiete besonderer Beachtung wert erscheinen. Dies zeigt sich in der stoischen Behandlung des Themas „Freiheit“ - des provozierenden Hauptthemas der Epikureer. Indeterminierte Naturphänomene können den Stoikern nur als Scheinphänomene undurchschauter Determinismen gelten. Und entsprechend muß sich menschliche Freiheit des Willens und der Wahlmöglichkeiten als Komplement der Unwissenheit erweisen. Wenn einige Stoiker und ihre neueren Gefolgsleute die Freiheit als „Einsicht in die Notwendigkeit“ definieren, so kommt dies logisch der These gleich, daß es eigentliche Freiheit nicht gibt. Es läßt Spielraum für eine Redeweise, die die „Nichteinsicht in die Notwendigkeit“ als determinierenden Grund für so etwas wie Freiheitsgefühl oder für die Selbsttäuschung über die Abhängigkeit des Handelnden von den natürlichen Determinismen in Anspruch nimmt. Da nun die Natur und die Welt ingesamt von der Vernunft gestaltet und beherrscht wird, so ist es für die Stoiker ein reiner Pleonasmus festzustellen, daß auch der Sinn aller menschlichen Lebensgestaltung und Lebensführung darauf 297 hinausläuft, „in Angleichung an die Natur zu leben“ (homologoumenos te physei zen ὁῦὴύῆnach Zenon, und das heißt: ein „logisches Leben“ (íó, nach Chrysipp) zu führen. Und nur dies ist wiederum ein solches, das ein „gutes Leben“ genannt werden kann. Gelingt dies, so führt es als Mitgift (Epigenema ἐέ) Lust und Zufriedenheit mit sich, und man wird es mit einem etwas altmodischen Ausdruck auch ein „lustiges Leben“ nennen können. Im Einklang mit der Natur zu leben, heißt dann zunächst einmal, in ihr „seinen Platz“ bzw. seine „Heimat“ zu finden (Oikeiosis ἰí, offensichtlich eine Verallgemeinerung des aristotelischen Begriffs oikeios topos ἰĩó, des „Heimplatzes“, zu dem jedes Element seiner Natur nach strebt). Oikeiosis ist es also, wenn einer sich in seiner eigenen Haut wohlfühlt und darüber hinaus seiner Stellung in der Welt, nämlich in seiner Familie, in seinen Freundschaften, in der Gesellschaft und insgesamt in der Menschheit, voll bewußt und damit in Einstimmung ist. Wer so seinen Platz in der Welt gefunden hat, bei dem stellt sich dann auch eine vernünftige Bereitschaft oder Disposition (diathesis ά) zu einem vernünftigen Verhältnis zu allem, was einem in der Welt begegnen oder passieren kann, ein. Und das ist es, was die Stoiker Tugend (arete ἀή, lateinisch: recta ratio, nach Cicero) nennen. Da es sich bei der Tugend um die habituelle vernünftige Einstellung handelt, so kann es auch nur eine Tugend geben, die sich allenfalls nach vier Richtungen äußert. Hierin schließen sich die Stoiker an Platons vier Kardinaltugenden an. Die erste Ausrichtung der Tugend ist die Phronesis (óvernünftige Überlegung oder Kants „praktische Vernunft“). Was sie leistet, das erklären die Stoiker zu einer eigenen Disziplin der praktischen Philosophie, nämlich zur „Wissenschaft von den Gütern, den Übeln und von dem, was keines von beiden ist“ (Episteme agathon kai kakon kai oudeteron ἐήἀῶì ῶì ὐέ). Die zweite Ausrichtung ist die Tapferkeit bzw. der Mut (Andreia ἀĩ), die sich zur „Wissenschaft vom Schrecklichen und dem Nichtschrecklichen und von dem, was keines von beiden ist“ (Episteme deinon kai ou deinon kai oudeteron ἐήῶìὖῶìὐέ) entfalten läßt. Die dritte Ausrichtung der Tugend ist die Besonnenheit bzw. die Selbstbeherrschung (Autokratie ὐí). Was zu ihr gehört wird in einer „Wissenschaft vom Annehmlichen, dem zu Vermeidenden und dem, was keines von beiden ist“ (Episteme haireton kai pheukton kai oudeteron ἐήἱῶ ῶìὐέ) ausgeführt. Die vierte Ausprägung ist schließlich die Gerechtigkeit (Diakaiosyne ύ die die Grundlage für die ganze Rechtswissenschaft abgibt als eine „Wissenschaft von dem, was einem jeden (an Bewertung) zukommt“ (Episteme aponemetike tes axias hekasto ἐήἀὴῆἀíἕlateinisch: scientia suum cuique tribuens). 298 Es war nicht zu erwarten, daß diese Disziplinen von den Stoikern selbst zu systematischen praktischen Wissenschaften ausgebaut werden konnten. Gleichwohl schufen sie durch ihre kasuistischen Überlegungen in jedem der Gebiete die Grundlagen für alle späteren Wert- und Güterlehren. Indem sie auf allen Gebieten zwischen positiven und negativen Werten und Gütern unterschieden und diese ihrerseits vom „Gleichgültigen“ (Adiaphoron ἀά) abgrenzten, haben sie Maßstäbe für Handlungsziele formuliert, die dem Abendland nie wieder verloren gingen. Man hat sich nur davor zu hüten, diese stoischen Handlungsziele als Normen einzuschätzen, die ihrerseits einer höheren Begründung bedürften. Sie sind durchweg auf Grund praktischen Forschens und Wissens gewonnene standardisierte Handlungsmöglichkeiten. Was sie als Pflichten, „officia“ (Katorthoma ó) und als „Geziemendes“ (Kathekon ή) gegen sich selbst, gegenüber den Mitmenschen und gegenüber den Göttern (damit sind vor allem die „Deina“, was wir oben mit dem „Schrecklichen“ übersetzt haben, gemeint, dem man „Ehrfurcht“ entgegenzubringen hat) beschreiben, das sind keine „moralischen“ Anforderungen, und ihr Gegenteil ist nicht „Sünde“, sondern sie sind die der je eigenen Natur und dem erlangten Stand in der Welt entsprechenden vernünftigen Verhaltensweisen, die nach allen Erfahrungen ein gutes einzelnes und gemeinschaftliches Leben als Wirkungen erzielen. Was sie dagegen als „Laster“ beschreiben, sind Leiden(schaften) (Pathe ά) bzw. „Krankheiten der Seele“, nach Chrysipp sogar Fehlurteile bzw. Irrtümer, denen man therapeutisch begegnen muß. Wenn heute noch einige derselben als Straftaten aufgezählt und definiert werden, wenn vom Straftäter „Geständnis“ und „Einsicht“ in seine Verfehlung gefordert wird, und erst recht wenn ihre Sanktion in „Rehabilitierungs-“ und Therapiemaßnahmen bestehen soll, so ist das noch immer eine Erbschaft der stoischen Lehre. Wie man weiß, hat die praktische Philosophie der Stoiker über das römische Recht den nachhaltigsten Einfluß auf die Ausgestaltung der abendländischen und westlichen Rechtssysteme ausgeübt. Die verbreitete Überzeugung, daß jedes positive Rechtssystem und jede Gesetzgebung an einem „überpositiven“ Recht auszurichten habe, das aus der „Natur der Sachen“ zu erkennen und als „Naturrecht“ nur ein Teil der übergreifenden Naturgesetzlichkeit schlechthin sei, hat sich in vielfältigen Krisen positiver Rechtsordnungen, in denen das „Summum Ius Summa Iniuria“ (höchstes Recht höchstes Unrecht!) geworden ist, immer wieder als Rettungsanker und Korrekturmaßstab zur Rückkehr zu humanen Rechtsregeln bewährt. Das stoische „Suum ius cuiuque tribuere“ – „Jedem das Seine!“ - ist zu einem Gemeinspruch aller Gerechtigkeitserwägungen geworden, trotz oder gerade wegen der Schwierigkeiten der Feststellung, was im Einzelfall „das Seinige“ sein könnte. Es ist mit den aristotelischen Gerechtigkeitsbegriffen der „ausgleichenden“ (kommutativen) und der „zuteilenden“ (distributiven) Gerechtigkeit zur einheitlichen Formel zusammengewachsen, im Recht „das Gleiche gleich und das 299 Ungleiche ungleich“ zu behandeln. Sie hat sich in der juristischen Konstitution ganzer Rechtsgebiete bewährt. Strafrecht, Handels- und Vertragsrecht, Steuerrecht und nicht zuletzt demokratisches Wahlrecht wurden auch noch in den neueren Gesetzgebungen auf „kommutative“ Gerechtigkeit begründet, belastende Steuerund austeilende Wohlfahrts- und Sozialgesetzgebungen auf die „distributive“ Gerechtigkeit. Auch aktuelle Gerechtigkeitsdebatten im politischen Raum „de lege ferenda“ sind noch von dieser stoischen Formel getragen und erweisen damit ihre Lebenskraft. Was sich hier als „linke“ Gerechtigkeitidee zeigt, ist noch immer nichts anderes als das Bestreben, alle Lebensverhältnisse durch „distributive“ - ungleiche - Belastungen und „Umverteilungen“ gleichzumachen. Und umgekehrt ist die „rechte“ Gerechtigkeit nichts anderes, als bestehende Ungleichheiten durch „kommutative“ Gleichbehandlung ungleich zu lassen. So kann es auch nicht verwundern, daß im Kompromiß dieser Gerechtigkeitsaspirationen beides zugleich in Gesetze gegossen wird. Das Strafrecht wird durch (bei verschiedener Einkommenshöhe ungleiche) Tagessätze bei Geldstrafen, das Handels und Vertragsrecht durch gesetzliche Rahmenverträge, das Wahlrecht durch Quotenregelungen distributiv ausgestaltet. Andererseits wird das Steuerrecht durch Kopf- und Mehrwertsteuer, die Sozialgesetzgebung durch „Selbstbeteiligung“ und „Selbstbedienung“ kommutativ gemacht. Die sich in parlamentarischen Gesetzgebungen überall einstellende Überregulierung aller Lebensverhältnisse ist ihrerseits ein bedauerliches Symptom dafür, in welchem Maße die Kenntnis dieser stoischen Prinzipien zunehmend in Verfall geraten ist. Allein schon die Erinnerung daran, daß die Stoiker zwischen dem rechtlich zu Regelnden überall auch das „Gleichgültige“ (Adiaphoron) und damit den rechtsfreien Raum anerkannt hatten, wäre auch für moderne Rechtsgestaltungen de lege ferenda schon hilfreich zur Eindämmung einer uferlosen Gesetzgebung und der zunehmenden Verrechtlichung aller Lebensverhältnisse. Abgesehen vom stoischen Gerechtigkeitsprinzip gehen zahlreiche andere juristische Denkformen und Institutionen auf die stoische Lehre zurück. Dazu gehört etwa die Symmetrie von Anspruchsrechten und Pflichten und der „Naturschutz“ bzw. die „Naturerhaltung“ und die entsprechende strafrechtliche Sanktionierung der Naturbeschädigung und alles sogenannten „Widernatürlichen“. Wenn auch die Begriffe von „Pflichten“ und vom „Widernatürlichen“ heute in voller Auflösung begriffen sind, so zeigt doch die Aszendenz ihrer Komplementbegriffe die fortdauernde Virulenz dieser stoischen Lehren. Das gilt nicht minder vom stoischen Begriff der „Persönlichkeit“. Ihr Begriff der „natürlichen Person“, der ja nur die stoische Gattungsdefinition vom Menschen als „vernünftigem Lebewesen“ ins Recht übernommen hat, ist mit Verfassungsrang als „Würde der Person“ in fast alle modernen Rechtssysteme der Welt eingegangen. Er ist darüber hinaus zum Verankerungsgrund aller sogenannten Menschenrechte geworden. 300 Erstaunlicherweise - so muß man wohl sagen - hat ihr Personbegriff auch dahin gewirkt, daß der Begriff der „juristischen Person“ bzw. der „Rechtspersönlichkeit“ von Institutionen und überindividuellen Verbänden alle aufklärerische Kritik an Geistern und Gespenstern in den Rechtssystemen schadlos überstanden hat. Diese nichtpersönlichen „Persönlichkeiten“ konkretisieren sich dann auch in den „Körperschaften“, die alles andere als Körper sind. Vom Staat bis herunter zur Firma begeisten sie vielgestaltige institutionelle Körper, die mächtig wirken. Gleichwohl sind es lebendige Menschen, die in ihnen und durch sie handeln und wirken und ihre „Funktionen“ ausüben - oft auch hinter ihnen verstecken und sich dadurch ihren persönlichen Pflichten und Verantwortlichkeiten entziehen können. Vergessen wir auch nicht, in welch ungebrochener Tradition der stoische Universaldeterminismus heute noch im Rechtsdenken nachwirkt. Indeterminierte Sachverhalte gibt es hier prinzipiell nicht. Jede gerichtliche Tatsachenfeststellung und Beweiserhebung setzt die kausale Determiniertheit aller relevanten Fakten unbefragt voraus, fingiert im Zweifel irgend einen „Verursacher“ und sanktioniert dies als „richterliches Erkenntnis“. Nur in Extremfällen - die man dann eher noch fachlicher Inkompetenz zuschreibt - enden die Kausalketten im „nicht mehr Feststellbaren“. Und da ja definitionsgemäß nur menschliches Handeln rechtsrelevant sein kann, müssen alle festgestellten Kausalketten zunächst bei einer natürlichen Person enden. „Schuld“ - ein Begriff, der ja auch aus ganz anderen, vor allem theologisch inspirierten Ethiken, Sinnbefrachtung erhält und dann gewöhnlich mit „Freiheit“ und Verantwortlichkeit in Verknüpfung gebracht wird - ist hier auf „Verursachung“ reduziert. Freilich zollt auch der moderne Jurist, wie der alte stoische, der Freiheit gerne Lippenbekenntnisse, aber mit einem gewissen Bauchgrimmen. Denn er wird es immer vorziehen, die Kausalitäten gleichsam durch den Täter hindurch auf einzelne innere („Traumatisierung“, Krankheit, Veranlagung) oder äußere Faktoren (Elternhaus, Umgang, Umwelt, „die gesellschaftlichen Verhältnisse“) weiterzuverfolgen und somit den Täter selbst nur als Glied in einer über ihn hinausreichenden Kausalkette einzuordnen, worin ihn ein überbordendes „wissenschaftliches“ Gutachterwesen nur bestärken kann. Und so läßt sich der Kreis zum „therapeutischen“ Behandlungs- und Maßnahmenwesen, von dem schon die Rede war, wieder schließen. Die Beispiele mögen genügen, die Virulenz der stoischen praktischen Philosophie, wie sie in Logik und Naturwissenschaft begründet ist, auch in modernen Zeiten darzutun. Wir haben diese Rechtslehre besonders hervorgehoben, weil sie gewissermaßen der Kanal war, durch den das stoische Denken insgesamt in der abendländischen Geschichte bis in unsere Tage transportiert worden ist. 301 § 22 Die Skepsis Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische Urteilsenthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“. Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit. Kritik der induktiven Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“ der Begründung. Kritik der Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen Kausaltheorien und die platonisch-idealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und als Glaube. Die Skepsis wurde nach ihrem Schulgründer Pyrr(h)on von Elis (ca. 360 – 270 v. Chr.) auch Pyrrhonismus genannt. Gegenüber den Verfestigungen antiken Wissens zu dogmatischen Weltbildern hat sie die Tugend des sokratischen Nichtwissens aufrechterhalten und durch ihre scharfe Kritik an den Dogmatiken diese zu ständiger Überarbeitung und Weiterentwicklung gezwungen. Als „Zetetiker” (Forscher), wie sie sich auch nannten, gaben die Skeptiker sich mit keiner angeblichen Einsicht und „Wahrheit“ der anderen Schulen zufrieden, sondern hielten sich offen für weitere Hinterfragungen aller Sicherheiten. Sie haben abendländischer Wissenschaft das Bewußtsein von der prinzipiellen Unabgeschlossenheit des Wissens, wie sie gerade in dem Begriff und der Rolle der Forschung zum Ausdruck kommt, gleichsam wie einen bohrenden Stachel ins Fleisch gesetzt. Ihre eigene Argumentation knüpft an Heraklits und der Sophisten These vom Zusammenfall der Gegensätze (also auch von Wahrheit und Falschheit) und damit der Behauptbarkeit beliebiger Thesen und Antithesen an. Über die sokratische Aporetik, also die Lehrmethode, den Schüler erst einmal in die „Ausweglosigkeit” bzw. zur Verzweiflung zu bringen, ehe man ihm mäeutisch, d. h. geburtsbehilflich zur Anamnesis hinführt, war der skeptische Geist auch in die platonische Akademie, besonders die sogenannte mittlere und neuere Akademie unter Arkesilaos (ca. 315 – 241) und Karneades (ca. 214 – 129) eingeflossen. Die Skeptiker der mittleren Akadmie trieben aber solche sokratische Aporetik auf die Spitze. Daß sie dabei an Platon anknüpften, erkennt man an ihrer Neubewertung seiner Lehre von den Phänomenen und der Sinnesanschauung. Ersichtlich richteten sich ihre Argumente dabei auch gegen den später sogenannten „Homo-mensura-Satz“ des Sophisten Protagoras (ca. 481 – 411 v. Chr.), mit dem sich auch Platon in seinem ihm gewidmeten Dialog auseinandergesetzt hatte. In Platons Worten lautet der Satz des Protagoras bekanntlich: „Der Mensch sei der Maßstab aller Dinge, der Seienden, daß sie sind, der Nichtseienden, daß sie nicht sind. ... Denn so wie ein jeder ein Ding wahrnimmt, gerade so scheint es auch für jeden zu sein“. Dazu sei eine Stelle aus den „Pyrrhonischen Grundzügen“ des Sextus Empiricus angeführt, die offenbar von allen, die die Skeptiker zu Skeptizisten machen wollten, übersehen worden ist. Dort heißt es nämlich: 302 „Wer aber sagt, daß die Skeptiker das Erscheinende aufheben, scheint mir unachtsam auf das zu sein, was bei uns gesagt wird. Denn das in Folge eines Erscheinungsbildes Erleidbare, was uns willenlos zur Beistimmung führt, leugnen wir nicht ..., dies aber ist das Erscheinende. Wenn wir aber bezweifeln, ob das Unterliegende so ist, wie es uns erscheint, so geben wir einerseits zu, daß es erscheint, bezweifeln aber nicht das Erscheinende, vielmehr das, was über das Erscheinende ausgesagt wird; dies ist aber etwas anderes als das Erscheinende selbst bezweifeln.“ 137 Platons „Phänomene“ bzw. das Erscheinende erkannten die Skeptiker also unumwunden als gegeben an, und sie waren das einzige, was sie überhaupt anerkannten. Wohl aber bestritten sie, daß die Phänomene je nach dem Standpunkt und der Einschätzung einzelner Individuen als „Sein“ oder als „Nichtsein“ beurteilt und von einem „Unterliegenden“ (einer Ursache) her erklärt werden könnten. Was die Skeptiker dabei entschieden bestreiten, sind alle Schulmeinungen über die Gründe und Hintergründe der Erscheinungen, also auch die ganze platonische Ideenlehre. Ihr Argument dafür lautet, daß sich für jede „dogmatische“ Schulthese eine diese negierende andere dogmatische Schulthese finden lasse, die im Widerspruch zur Gegenthese stünde. Ob sie deswegen alle dogmatischen Thesen für grundsätzlich falsch hielten, dürfte eine offene Frage sein. Es wird nach dem in der Logik herrschenden Verständnis vom Satzwiderspruch gerne so ausgelegt. Arkesilaos hat die „Urteilsenthaltung“ (Epoché ἐή) und die Beschränkung auf die Kritik anderer Meinungen zur Methode entwickelt. Cicero drückt es so aus: „Er habe als erster eingeführt, nicht darzulegen, was er selber meinte, sondern gegen das zu disputieren, was ein anderer als seine Meinung äußerte.“ 138 Karneades hat, darin wohl auch dem Beispiel des Protagoras folgend, die skeptische Methode mit großem Scharfsinn und allen rhetorischen Mitteln zum „pro et contra dicere” ausgestaltet - was nachmals in der sogenannten „scholastischen Methode” („Sic-et-Non“-Methode, auch Quaestionenmethode genannt) Nachfolge erhielt. Daß Karneades überdies eine besondere Wahrscheinlichkeitstheorie (Theorie der émphasis ἔ oder pithanótes ó) entwickelte, spricht vielleicht dafür, daß er die dogmatischen Widersprüche der Schulen nicht für gänzlich falsch, sondern eben für „wahrscheinlich“ hielt. Dies in Übereinstimmung mit Platons These, daß alle Phänomenerkenntnis nur Glaube und Meinung (pistis und doxa) seien, in der Wahres und Falsches vermischt sei, so daß die Wahrscheinlichkeit für das Handeln und Leben genüge Zu den weiteren Skeptikern gehört Ainesidemos aus Knossos (Änesidem, 1. Jh. v. Chr.), der in Alexandria wirkte, sowie der schon genannte Arzt Sextos Empirikos (Sextus Empiricus. 1. u. 2. Jh. n. Chr.), der in seinen Schriften „Pyrrhonische Hypotyposen (bzw. Grundzüge)”, „Gegen die Dogmatiker” sowie „Gegen die Mathematiker” (d. h. gegen die Vertreter mathematischer Wissenschaften, wie 137 Sextus Empiricus, Die pyrrhonischen Grundzüge, dt. Ausgabe von Eugen Pappenheim, Leipzig 1871, 1. Kap. 10, S. 28. Cicero, De oratore 3,18, 67: „Primum instituisse non quid ipse sentiret ostendere, sed contra id quod quisque se sentire dixisset, disputare”. 138 303 sie später im Quadrivium organisiert wurden, aber auch gegen andere „Lerngegenstände” wie Grammatik und Rhetorik) – die beiden letzteren werden gewöhnlich zu einem Werk „Adversus mathematicos” zusammengefaßt – die Argumente der Skepsis abschließend darstellt. Die Pyrrhonischen Hypotyposen des Sextus Empiricus beginnen mit den „Tropen” (tropoi ó, auch logoi ó oder topoi ó „Örter“). Die Tropen laufen auf das Argument der Relativität sinnlicher Erkenntnis gemäß subjektiven Bedingungen, etwa der Unterschiedlichkeit der Lebewesen, der unterschiedlichen Organleistungen, Gemütslagen, Lebensverhältnissen, Nähe und Entfernung von einem Gegenstand etc. hinaus. Das wurde und wird gewöhnlich so verstanden, als ob damit die Zuverlässigkeit von sinnlichen Daten und Fakten in Frage gestellt würde. Das ist jedoch nicht der Fall. Vielmehr sind die Tropen selbst eine Sammlung von Argumenten des mittleren Platonismus, die „Phänomene - in der gesamten Bandbreite ihres Sichzeigens - zu retten“. Was einmal in dieser Farbe, ein andermal in anderer Farbe, einmal klein, ein andermal groß „erscheint“, das ist keine Erscheinung von etwas „Unterliegendem“ hinter vermeintlichen Erscheinungsformen, sondern es handelt sich bei alledem um jeweils andere Erscheinungen, hinter die nicht zurückgegangen werden kann. Kurzum, es geht dabei um die Grundlegung eines wohlverstandenen Phänomenalismus, der – anders als alle reduktionistischen Dogmatiken - den ganzen Reichtum der sinnlichen Phänomene ernst nimmt. Man muß bis ins 18. Jahrhundert und auf George Berkeley warten, bis daraus die angemessenen philosophischen Folgerungen für einen modernen idealistischen Phänomenalismus gezogen wurden. Dies vorausgesetzt, bezweifeln die Skeptiker dann auch alle Sicherheiten der Bedeutungsfixierung von Zeichen und und erst recht die darauf beruhende Begriffsbildung. Von Sextus Empiricus stammt das seither in der klassischen und modernen Logik so weithin als stichhaltig angenommene Argument gegen die Sicherheit der Induktion, auf das schon vorne in der Einleitung Bezug genommen wurde. Es lautet wie folgt: „Sehr abzulehnen aber, meine ich, ist auch die Weise in Betreff der Induktion. Da sie (scl. die Aristoteliker) nämlich durch sie von den Einzeldingen aus das Allgemeine beglaubigen wollen, so werden sie dies tun, indem sie entweder doch an die Einzeldinge herangehen, oder an einige. Aber wenn an einige, so wird die Induktion unsicher sein, da möglich ist, daß dem Allgemeinen einige von den in der Induktion ausgelassenen Einzeldinge entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen, da die Einzeldinge unbegrenzt sind und unumschließbar. So daß auf diese Weise von beiden Seiten, meine ich, sich ergibt, daß die Induktion schwankend wird.“ 139 Das Argument richtet sich gegen die platonischen Ideen und aristotelischen zweiten Substanzen, die für etwas anderes als die hier „Einzeldinge“ genannten Phäno139 Sextus Empiricus, Pyrrhonische Grundzüge, 2. Buch, Kap. 15, S. 142. 304 mene gehalten werden. Daß sich in „einigen“ Einzeldingen bzw. Phänomenen gemeinsame Züge (nämlich Merkmale) zeigen, wird keineswegs bestritten. Und daß man nicht „alle“ Einzeldinge wahrnehmen kann, dürfte unbestreitbar sein. Speziell richtet sich das Argument aber gegen die aristotelische Weise der Induktion (eisagogé ἰή) der Art- und Gattungsbegriffe. Wir haben dies skeptische Argument gegen die Induktion als Begriffsbildungsmethode schon vorn in der Einleitung als nicht tragfähig kritisiert. Denn Sextus Empiricus durchschaute nicht, daß ein Artbegriff (eidos ἶ, lat.: species), der gemeinsame Züge bzw. Merkmale von Einzelnem zusammenfaßt, damit zugleich auch seine Gegenart durch Negation mitdefiniert. Und das bedeutet, daß damit auch für alle noch unbekannten Instanzen festgelegt wird, ob sie zur positiven oder negativen Art gehören. Was die Induktion der Gattung betrifft, so faßt sie in gleicher „abstrahierender“ Weise die gemeinsamen Züge bzw. Merkmale der positiven und negativen Arten zusammen. Auf jeder Induktionsstufe – vom Individuum über die Art bis zur Gattung - bestimmt die jeweils festgelegte spezifische Differenz, ob ein weiteres noch unbekanntes oder schon bekanntes Phänomen unter den induzierten Begriff fällt oder nicht. Kurzum, Sextus durchschaute nicht den Unterschied zwischen dem, was Aristoteles selbst schon als spezifische Differenzen der Arten und generische Merkmale der Gattung unterschieden hatte. Und das ist leider auch bei allen späteren Logikern so geblieben, die seither die induktive Begriffsbildung für unsicher hielten. Darüber hinaus formulierten die Skeptiker unter anderem auch schon das „Friessche Trilemma”, das neuerdings viel verhandelt wird und der Popper-Albertschen Wissenschaftsprogrammatik der „kritischen Prüfung” (einem direkten Nachfahren der zetetischen Skepsis) zur Grundlage dient. Sie bemerkten, daß die wissenschaftlichen Beweis- und Begründungsmethoden entweder zum unendlichen Regreß führen, oder zirkulär sind, oder an beliebigen Stellen durch Dogmen als unbezweifelbaren Letztbegründungen abbrechen. Daß ihr skeptisches Prüfen allerdings auch nur eine besondere Art des unendlichen Regresses darstellt, der die Lösung der Probleme auf eine fernere Zukunft vertagt, haben sie ebensowenig wie die kritischen Rationalisten bemerkt. Als zirkulär kritisieren sie insbesondere die aristotelische und stoische Schlußlehre: Da allgemeine Begriffe nur das den Einzelheiten Gemeinsame enthalten, Urteile aus solchen Begriffen mithin immer schon induktiv gewonnen sind, kann auch im Schluß aus solchen Urteilen nur das wieder herausgeholt werden, was vorher in sie eingegangen ist. Der Schluß setzt somit das voraus, was er erst beweisen soll. Ihren Hauptangriff richten sie jedoch gegen die aristotelische Ursachenlehre und den stoischen Kausaldeterminismus. Unter den zahlreichen Argumenten, die dabei vorgetragen werden, ist wohl das folgende von Sextus Empiricus am interessantesten: Wenn Kausalität eine Verknüpfung (pros ti ó, relatio) von zwei wohlunterschiedenen verschiedenen Dingen (genauer: Erscheinungen) als Ursa- 305 che und Wirkung ist, so geht entweder das eine dem anderen zeitlich voraus, ist gleichzeitig oder folgt ihm nach. Nun ist auszuschließen, daß Ursache und Wirkung gleichzeitig sind, sonst wären sie nicht als solche unterscheidbar. Auch soll die Ursache nicht der Wirkung zeitlich nachfolgen können. Wenn Ursache der Wirkung also vorausgeht, so ist ihr Unterschied gerade zeitlich bedingt: Ursache gibt es nur dann, wenn es noch keine Wirkung gibt; Wirkung gibt es erst dann, wenn es keine Ursache mehr gibt, denn sonst wären sie gleichzeitig. (Man beachte, daß auch die stoischen 4. und 5. Unbeweisbaren dieses Argument berücksichtigen). Also bewirkt Ursache (was immer so genannt wird) – Nichts; und Wirkung ist verursacht durch – Nichts. Das aber verhält sich nur dann so, wenn man den Kausalzusammenhang wie Aristoteles und die Stoiker als Beschreibung einer Beziehung zwischen den den Erscheinungen zugrunde liegenden Substanzen versteht. Diese erkennen die Skeptiker aber nicht an. Ursache oder Wirkung bezüglich eines Dinges bzw. einer Erscheinung oder Zustandes sind für die Skeptiker ein „Hinzugedachtes“ (epinoeitai monon ἐῖó), das nur gleichzeitig mit der jeweiligen Sache sein kann. Zu einer gegenwärtigen Erscheinung, die als Wirkung gedacht wird, wird als „Ursache“ eine erinnerte Erscheinung hinzugedacht. Und einer als gegenwärtige Ursache angesehenen Erscheinung wird als deren Wirkung eine in der Phantasie antizipierte (aber ebenfalls schon früher wahrgenommene) Erscheinung hinzugedacht. Man beachte, daß das genau der platonischen Erklärung der sinnlichen Dinge aus „gedachten“ Ideen-Ursachen (die ja wesentlich Gedächtnisinhalte der Anamnesis sind) entspricht. Und es dürfte von daher auch eine „idealistische“ Interpretation der „realistischen“ aristotelischen Erklärung aus den vier Ursachen sein, die insgesamt jeweils aus Erinnerung und Prohairesis zum einzelnen Erscheinenden hinzugedacht werden. Man wird hier anerkennen, daß die Skepsis klarsichtig auf etwas aufmerksam gemacht hat, was kausale Forschung aristotelischer und stoischer Manier übersehen hat: daß nämlich bei Kausalerklärungen und Prognosen Vergangenes wie auch Zukünftiges als „erinnerte Phänomene“ und damit als ideelle Gegenwart behandelt und auf Einzelnes Gegenwärtiges bezogen werden. Daß Skeptizismus als Metaphysik und dogmatische Position, im Unterschied zur skeptischen Methode, widerspruchsvoll und damit unhaltbar ist, gehört heute zu den ausgemachten Wahrheiten. Allerdings würde man den antiken Skeptikern Unrecht tun, wenn man sie für Skeptizisten hielte. Ebenso wie einem modernen Forscher, wenn er wirklich bereit ist, seine Voraussetzungen und Überzeugungen in Frage zu stellen und zu überprüfen. Die Skeptiker waren zweifellos dazu bereit. Sie haben diese Offenheit für neue und andere Problemlösungen und damit den Perfektibilitäts- und Fortschrittsgedanken des Erkennens und Wissens im abendländischen wissenschaftlichen Ethos verankert. Es wird offensichtlich in der Geschichte der Philosophie und Wissenschaftstheorie zu wenig beachtet, daß die Skeptiker eine Filialschule der platonischen 306 Akademie bildeten - man rechnet sie zur „mittleren Akademie“ - und deswegen kaum gegen alle platonischen Grundeinsichten skeptisch gewesen sein können. Daß sie über diese Schuldogmatik der Platoniker nicht sprachen, nimmt ihrer kritischen Schärfe gegenüber den nichtplatonischen Schulen nichts an Gewicht. Ihre Kritik richtet sich gegen alle Versuche, die Phänomene der sinnlichen Erfahrung und die rationale Verarbeitung derselben in Theorien und formallogischen Methoden zum Wesen der Philosophie und gesunder Wissenschaft zu machen. Und das hinderte sie nicht, die platonische Lehre von den Ideen für etwas „Überwissenschaftliches“ zu halten, an das man - in dem Sinne, wie es von den Neuplatonikern überhaupt in Anspruch genommen wurde - glauben müsse. Und auch das hat sich bei späteren Adepten der Skepsis gehalten. Die Kosten dieser Haltung waren freilich hoch: wenn die „wissenschaftliche“ Wahrheit nicht zu fassen ist oder noch aussteht, so muß man auch mit der Falschheit, dem Irrtum und dem Schein nicht nur in der Wissenschaft, sondern auch im Leben ganz gut zurechtkommen. Sie haben den „zweiten Weg der Forschung” des Parmenides recht eigentlich gangbar gemacht und denen, die ihn beschreiten, das gute Gewissen zurückgegeben. Dies zeigt sich seit der Neuzeit in der noch immer zunehmenden Aszendenz der Wahrscheinlichkeitslogik. Daß ein „subjektiv“ wahrscheinliches Wissen oder ein Wissen um „objektive Wahrscheinlichkeiten“ näher bei der Wahrheit als bei der Falschheit sei, ist eine in gutgläubiger Absicht vorgenommene Mystifikation, die sich schon in der Wortwahl zeigt. Sie macht sich die traditionelle Tatsache zunutze, daß man Wissen schlechthin gewöhnlich mit wahrem Wissen identifiziert. Daß man auch falsches Wissen haben kann, zeigt sich spätestens, wenn es als falsches widerlegt und durch wahres ersetzt worden ist. In der Tat ist aber sogenanntes Wahrscheinlichkeitswissen ein (in der Mathematik sogar in exakten mathematischen Proportionen dargestelltes) Verhältnis von wahrem und falschem Wissen über einen und denselben Sachverhalt, das man füglich, wie im § 11 begründet, „Wahr-Falschheitswissen“ nennen sollte. Indem es in logischen Alternativen oder gar Widersprüchen, in welchen immer der eine Teilsatz wahr und der andere falsch ist, ausgesagt wird, drückt sich Wahrheit und Falschheit also zugleich satzmäßig aus. Was man hierbei sicher und wahr und genau weiß ist, daß die Wahrheit in der wahrscheinlichen Aussage mitenthalten ist. Aber man weiß ganz und gar nicht, welcher Teilsatz dabei der wahre ist, und entsprechend auch nicht, welcher der falsche ist (sonst würde man diese logische Ausdrucksform nicht benutzen). Und so verbindet sich im Wahrscheinlichkeitswissen nicht nur Wahrheit und Falschheit, sondern zugleich wahres Wissen über (unentschiedenes) Nichtwissen. Es ist das, was Nikolaus von Kues später „docta ignorantia“ - „gelehrte Unwissenheit“ genannt hat. 307 § 23 Der Neuplatonismus. Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des hierarchischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische Kausaltheorie. Die Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte bei Philon von Alexandrien: Buchstabensinn und philosophischer Hintersinn. Der Neuplatonismus ist in der ausgehenden Antike die dominierende Philosophie. Nicht nur gehören ihm Denker aus allen Bevölkerungsschichten an, sondern in ihm artikulieren sich erstmalig in großem Stil auch die Philosophen der orientalischen Mittelmeerländer. Die große Sinnoffenheit des Werkes Platons erlaubt die Inanspruchnahme für die verschiedensten, oftmals divergentesten Interpretationen. So ist der Neuplatonismus ein synkretistisches Gebilde, das zu allen anderen Denkströmungen Verbindungen schlägt. Er ist die „katholische” Philosophie der antiken Welt, gewissermaßen die philosophische Ökumene, in der die Nationen und Gebildeten aller Völker kommunizierten. In seinem Zentrum bleiben jedoch die Motive wirksam, die der späte Platon selber, sodann die platonische Akademie und ihr aristotelischer Ableger, der Peripatos, besonders betont hatten: Pythagoräische Zahlenspekulation, aristotelische Logik, die Abwendung von der sinnlichen Wirklichkeit und Zuwendung zum Geisterreich, welches in einer umfassenden Ontologie des Sinnes und des Geistigen erschlossen und abgemessen wird, kulminieren bei allen Vertretern in einer philosophischen Gotteslehre. Damit verbunden ist eine „Lebensphilosophie” und Ethik, die alle Lebensverhältnisse und Handlungsziele gemäß einem platonischen Wort (Theaitetos 176 b) auf die „möglichste Angleichung an das Göttliche” (homoiosis theô katà dynatón ὁμοίφζις θεῷ καηὰό) ausrichtet. In Alexandria wirkte, intensive philologische Studien an den heiligen Texten bestreibend und anregend, der Jude Philon (Philo Judaius, ca. 15 v. Chr. - ca. 50 n. Chr.), der seither noch immer als „Philon von Alexandrien“ bekannt geblieben ist. Plutarch von Chaironeia (45 - ca. 125 n. Chr.), der an der Akademie in Athen studiert hatte, Priester in Delphi und Statthalter Roms in der griechischen Provinz war, wohl der charmanteste Schriftsteller der antiken Welt, brachte die Kenntnisse über die neuplatonische Philosophie zu den gebildeten Freunden nach Rom und führte gleichsam im Plauderton den Neuplatonismus in die Weltliteratur ein. Er ist freilich eher durch seine Parallelbiographien bedeutender Griechen und Römer im abendländischen Denken verankert geblieben. Auch Ammonios Sakkas (ca. 175 - 242 n. Chr.) wirkte in diesem propagandistischen Sinne in Alexandria, von wo sein Schüler Plotin (203 – 269 n. Chr.), der „zweite Platon“, den Neuplatonismus in Rom popularisierte und sogar zur Hofphilosophie des Kaiserhauses des Galienus machte. Plotins Schüler war Porphyrios aus Tyros (geb. ca. 232 – 304 n. Chr.). Dessen Schüler 308 Jamblichos (gest. ca. 330 n. Chr.) bildete dann in Syrien eine Reihe tüchtiger Schüler heran, die am Studienzentrum von Pergamon, nicht zuletzt aber auch am byzantinischen Kaiserhof für die Verwurzelung des Neuplatonismus sorgten. Hier hat er in Kaiser Julianus (wegen seines Abfalls vom christlichen Glauben „Apostata“ genannt, 332 – 363 n. Chr.), dem Neffen Konstantins des Großen, einen kaiserlichen Vertreter gehabt. In Athen aber gehörten Proklos (412 - 485 n. Chr.), in Konstantinopel geboren und mit Recht „der große Scholastiker des Altertums“ (F. Ueberweg) genannt, übrigens in Alexandria ausgebildet, und sein Schüler Simplikios aus Kilikien (5. / 6. Jhdt. n. Chr.) zu den letzten Schulhäuptern und Vorstehern der Platonischen Akademie in Athen. In ihren Werken kommt eine Synthese des platonischen und aristotelischen Philosophierens zum Ausdruck. Ihre Kommentare zu beiden Klassikern bilden gewissermaßen das Vermächtnis der Antike an die mittelalterliche und moderne Welt. Ein Schlüsseldokument neuplatonischer Wissenschaftslehre ist die Einleitung zum aristotelischen Organon des Porphyrios, der wie gesagt Schüler des Plotin war. Er hat nicht nur Plotins Schriften geordnet und herausgegeben, sondern sich auch um eine harmonisierende Interpretation des platonischen und aristotelischen Werkes bemühte. Hier wird die aristotelische Begriffslehre in der nachmals so berühmten Gestalt des „porphyrianischen Baums“ – umgedreht ergibt sich die „Begriffspyramide” – vorgeführt und ontologisch hypostasiert. Die wesentliche „pyramidale“ Formulierung der „Einleitung“ (Isagogé lautet: „Substanz ist auch selbst Gattung; unter sie fällt aber Körper, unter Körper beseelter Körper, worunter Sinneswesen fällt; unter Sinneswesen aber vernünftiges Sinnenwesen, worunter Mensch fällt; unter Mensch aber fällt Sokrates, Plato und die einzelnen Menschen.” 140 Nach Porphyrios ergeben sich entsprechende Stammbäume bzw. Pyramiden der Begriffe für alle zehn Kategorien der aristotelischen Kategorienlehre. Wobei die Kategorien selbst – er hat das Beispiel nur für die Substanzkategorie ausgearbeitet – die obersten Spitzenbegriffe darstellen. Diese Stammbäume stehen unverbunden nebeneinander: „Bei den Genealogien führt man den Ursprung in der Regel auf einen, sagen wir, den Zeus zurück. Bei den Genera und Species ist das anders“ (Porphyrios, Einleitung, Kap. 2, 2 b; a.a. O S. 16) Damit wird jedoch eher ein Problem signalisiert, das den Neuplatonismus und nachmals die scholastische mittelalterliche Philosophie zentral beschäftigte: die Frage nach der verbindenden Spitze der Kategorien selber: die Frage nach dem höchsten Sein, dem Einen, dem Unsagbaren – Unaussprechlichen, dem Göttlichen. Dies wurde zum Problem der „Transzendentalienlehre“. Porphyrios entlastet sich von der Behandlung mit der Formulierung: 140 Porphyrios, Einleitung in die Kategorien, Kap. 2, 2 a. In: Aristoteles, Kategorien u. Porphyrius, Einleitung in die Kategorien, hgg. u. übers. von Eug. Rolfes (Phil. Bibliothek Meiner Band 8/9), 2. Aufl. Hamburg 1958 Nachdr. 1968, S. 15. 309 „Was bei den Gattungen und Arten die Frage angeht, ob sie etwas Wirkliches sind oder nur auf unseren Vorstellungen beruhen, und ob sie, wenn Wirkliches, körperlich oder unkörperlich sind, endlich ob sie getrennt für sich oder in und an dem Sinnlichen auftreten, so lehne ich es ab, hiervon zu reden, da eine solche Untersuchung sehr tief geht und eine umfangreichere Erörterung fordert als die hier angestellt werden kann” (Porphyrios, Einleitung Kap. 1, 1 a; a. a. O. S. 11). In der Tat beschreibt er hiermit zutreffend die verschiedenen Positionen, die man diesem Problem gegenüber einnehmen konnte, und die auch später im scholastischen Universalienstreit weiter und genauer ausformuliert worden sind. Sie sind auch in der modernen Ontologie die grundlegenden Deutungsmuster der Realität geblieben. Daß er in der Sache selber keineswegs neutral blieb, sondern eben den neuplatonischen „Ideenrealismus” vertrat, zeigt sich an späteren Ausführungen der Isagoge: „Die Akzidentien (d. h. die nicht substanziellen Kategorien und alle aus ihnen abgeleiteten Begriffe) subsistieren ursprünglich in den Individuen; die Gattungen und Arten sind aber von Natur früher als die individuellen Substanzen” (Porphysios, Einleitung Kap.10, 5 a; a. a. O. S. 28). Dies „von Natur früher“ (ein aristotelischer Ausdruck) aber verweist auf die „ontologisch-archelogische” Vorrangstellung der allgemeinen Begriffe und Sinngebilde bzw. der platonischen Ideen gegenüber den sinnlich erfahrenen Individuen und Einzelheiten. Diese allgemeinen Begriffe hatte Platon als die Urbilder der geschaffenen Welt erklärt, auf die hinblickend der Demiurg den Kosmos gestaltet. Solchen platonischen Mythos in wissenschaftlicher und logischer Sprache zu rekonstruieren, bildete die Aufgabe der neuplatonischen Geister- und Geistesontologie. Und wie die Neuplatoniker die „Mythen” Platons selber als Herausforderung zu einer rationalen Interpretation nehmen, so auch die mannigfaltigen mythologischen Schöpfungsberichte der positiven Religionen des Mittelmeerraumes. Religion wurde bei ihnen durch eine wissenschaftliche „Theologie“ unterbaut. In ihr wurden die vorsokratischen Archai: der herakliteische Logos, der anaxagorische Nous, die pythagoräischen Zahlen, das parmenideische Sein und Eine, das gorgianische Nichts, erst recht der aristotelische erste Beweger und das letzte Ziel oder die stoische Ananke an die Stelle gesetzt, die Platon seinerseits durch die Idee des Guten bezeichnet hatte. Es war der Lehrer des Porphyrios, nämlich Plotin, der alle diese Ideen und Mythen in einer hierarchischen Ontologie vereinigte. Auf sie hinblickend, wie Platon selbst vom weltenbauenden Demurgen sagte, hat Porphyrios ihre logische Struktur herausgearbeitet und danach auch Plotins Schriften als „Enneaden“ geordnet und ediert.141 141 Plotin, Enneaden, 5 Bände, hgg. u. übers. von R. Harder, ( Phil. Bibl. Meiner), Hamburg 1956 u. ö. 310 In Plotins ontologischer Pyramide steht an der „archelogischen“ Spitze das schlechthin Eine, welches zugleich auch das Gute und Göttliche genannt wird. Aus ihm „strahlt“ wie von der Sonne herab der Nous, die Vernunft, die sich als Objekt zugleich alles Gedachte (Noumenon) gegenüber stellt und so das reine Sein (Ousia) bildet. Und aus beidem strahlt wiederum ab die Weltseele (Psyché). Nous und Psyché sind die beiden von Späteren als „Emanationen“ (Ausflüsse) bezeichneten geistigen Instanzen. Zusammen mit ihrem Ursprung im Einen und Guten bilden sie die „geistige Welt“ (kosmos noetos óó, mundus intelligibilis). Die Weltseele aber teilt sich dann in die einzelnen Seelen der Lebewesen und vor allem der Menschen, die sich in den sinnlich wahrnehmbaren Gestalten „verkörpern“. Verkörperung aber beruht, wie in aristotelischer Terminologie gesagt wird, auf der Verbindung mit der Materie. Und diese verdünnt sich gleichsam immer weiter ins nicht mehr sinnlich Wahrnehmbare, was dann auch hier Nichts (Me on μὴ ὄν) genannt wird. Dieser beseelte Teil bildet die „sinnliche Welt“ (kosmos aisthetos, óἰó mundus sensibilis), wie sie im platonischen Timaios und in den Naturlehren des Aristoteles und der Stoiker geschildert worden war. Die Bedeutung dieser plotinischen hierarchischen Ontologie kann kaum hoch genug veranschlagt werden. Sie hat die Unterscheidung von Geistes- bzw. Sinnwelt und materieller Natur gleichsam für alle späteren Zeiten zementiert. Für alle Theologien des vorderen Orients und des Abendlandes bildete sie den Hintergrund, auf welchem sich weitere Ausgestaltungen der hierarchischen Stufen im Bereich des Kosmos noetos diskutieren ließen. Wesentliche Formulierungen Plotins gingen in den Text des „Pseudo-Dionysios Areopagita“ ein, den die christliche Kirche als Vermächtnis des Athener Freundes des Apostel Paulus ausgab, und der noch heute dogmatisch ihrer Lehre zugunde legt. Proklos, der als Rektor der Platonischen Akademie auch den Beinamen „Diadochos“ führte, hat die plotinische ontologische Pyramide durch viele Zwischenstufen erweitert und den platonischen Teilnahme-Zusammenhang (Methexis έ, participatio) der einzelnen Stufen „dynamisiert“. Sie ist uns in seinem Buch „Stoicheiosis theologiké“ (ῖή Institutio Theologica) erhalten geblieben.142 Es war nicht nur im Abendland, sondern auch bei den Arabern verbreitet. Die Arché ist hier das Eine-selbst (autohen ὐέ), das höchste Gute als der höchste und unaussprechliche Gott. Aus ihm gehen in die nächste Stufe Vielheiten von Einheiten (Henaden) ein, mit denen Proklos die Götter der verschiedenen Religionen und der griechischen Mythologie erfaßt. Erst die dritte Stufe ist der Bereich der Vernunft und des Seins (Nous und Ousia), der sich „triadisch“ in denkende (noeroi, intellektuelle) und gedachte (noetoi, intelligible) Geister und 142 Proklos, The Elements of Theology, griech.-engl. hgg. von E. R. Dodds, 2. Aufl. Oxford 1963. Sein Werk „In Platonis Theologiam libri VI“ ist ebenfalls erhalten geblieben und zusammen mit der Institutio Theologica griech-lat. von A. Portus in Hamburg 1618 herausgegeben worden, Nachdr. Frankfurt a. M. 1960. 311 Sinngestalten und ihre Verschmelzung zum zugleich denkend-Gedachten (noetos kai noeros) gliedert. Erst daran schließt sich die Stufe des Seelischen (Psyché) und Beseelten der Lebewesen und der materiellen Natur (Physis) an, für deren Einteilung Proklos neben der Triade auch die Hebdomade (= Siebener-Einheit) benutzt. Jede obere Stufe bleibt, was sie ist (Moné ή, Verbleiben), geht aber auch aus sich heraus und in die nächst untere, diese erzeugend, über (prodromos ó), wo sie dann zur oberen zurückgewendet (epistrophé ἐή) verbleibt. Dies ist die neuplatonisch-kausale Interpretation der Schöpfung als Emanation (Herausfließen, „beeinflussen“) aller Dinge aus der Arché. Das Obere ist jeweils Ursache des Niederen und bleibt als Wesen in der Wirkung enthalten. Alles Bewirkte aber kann nur durch Rückbeziehung auf die „höhere“ Ursache Bestand haben. Das ist die Grundlage für die „creatio continua“, die fortwährende Schöpfung und Erhaltung der Welt. Aber zugleich wird die Epistrophe, die „Umwendung“ auch von höchster ethischer Relevanz. Denn so wie der Prodromos eine Abwendung vom Göttlichen und Hinwendung zum Profanen anzeigt - in christlicher Theologie bedeutet das Sündhaftigkeit – so die Epistrophé das Streben und die Hinwendung zum Ursprung, zum Göttlichen selbst, die platonische Theiosis. Und dies wird nicht nur im Christentum, sondern in allen Theologien als der Weg des Heils und der Erlösung von der Einbindung in die materielle Welt gedeutet. Der ontologische Zusammenhang entspricht dem pyramidal-logischen des Porphyrios. Das Obere ist das jeweils Allgemeinere. Es enthält schon alle Wesensmerkmale aller unter seinen Begriff fallenden Arten und Einzelwesen, in denen sie als „generische“ Merkmale bleiben. Die Emanation wird logisch als Deduktion („Herabführen“, prodromos) des Unteren gedacht. Die in den jeweils unteren Stufen und Rängen hinzukommenden spezifischen Merkmale bezeichnen den Abstand (aristotelische Steresis) vom nächst höheren Allgemeinbegriff. Daß Proklos das aristotelische Organon und die Einleitung des Porphyrios ebenso gut kannte, wie er überhaupt in allen Lehren der vorangegangenen griechischen Wissenschaften und besonders der Mathematik versiert war, das zeigt sich in seinem Kommentar (nur zum ersten Buch) der „Elemente“ des Euklid, wo er vielfach auf ihn verweist.143 Die Unterscheidung des Euklid von geometrischen Axiomen, Postulaten und Definitionen führt Proklos auf Aristoteles zurück. Ersichtlich sind sie als „Prinzipien“ ebenso unableitbar hinzunehmen wie in der Theologie die Arché des Auto-Hen und die vielfältigen Henaden. Für diee Mathematik aber sind sie die Prinzipien für die Ableitung der weiteren Theoreme und Probleme, die das Gesamt des geometrischen Wissens und Konstruierens ausmachen. 143 L. Schoenberger und M. Steck, Proklos, Kommentar zum ersten Buch von Euklids „Elementen“, Halle 1945; engl. Ausgabe hgg. von G. R. Morrow, Princeton, N. J. 1970. 312 Es ist kein Rückfall in homerische und hesiodische Mythologie, sondern gerade der Durchgang durch die ganze zur Verfügung stehende gelehrte und aufgeklärte Bildung der antiken Welt, wenn die Neuplatoniker dem Gotte nun in erster Linie diejenigen Züge liehen, die sie an sich selber und in ihrer Seele zu finden glaubten. So wie die sinnlichen Dinge endliche Symbole für die ewigen und unveränderlichen Ideen waren, so waren ihnen ihre seelischen Kräfte und Vermögen Symbole für den ewigen und alles erschaffenden Gott. So wie der Mensch in der Anamnesis, der Wiedererinnerung, sich seiner Teilhabe an den Ideen versichert, so erscheint nunmehr der göttliche Geist als der Ort, an dem sich die Ideen vor aller Schöpfung befinden. Erkenntnis wird selber Teilhabe an diesem göttlichen Geist, und Wissenschaft insgesamt wird zu einem wahren „Gottesdienst“ der Homoiosis theô. Die christliche Kirche hat diese neuplatonische Lehre in ihre „Theologie“ übernommen, sie aber auch als „Gnosis“ als „häretisch“ denunziert. In der Tat ist sie aber nur die rationale Konsequenz der ganzen griechischen Entwicklung, den ersten und letzten Grund des Seins begrifflich und wissenschaftlich zu erfassen. Und dies konnte, wie schon Aristoteles in seiner ersten Philosophie sagte, nur in „Theologie“ enden. Die Neuplatoniker haben dadurch dem Abendland die philosophische Theologie erschaffen, in welcher religiöse Überlieferung und Volksglauben mit den höchsten wissenschaftlichen Fragestellungen der Philosophie verschmolzen sind. Daß sie sich als eigene Wissenschaft neben der stoischen Naturrechts-Jurisprudenz im mittelalterlichen und neuzeitlichen Universitätssystem etablieren konnte, hat diese Theologie nicht zuletzt ihrer griechisch philosophischen Grundlage zu verdanken, die auch die Gebildeten unter ihren Verächtern auf allen Wegen weltlicher Bildung immer wieder zu ihr zurückführte. Abgesehen davon, daß durch das Wirken der Neuplatoniker Theologie als philosophische Erst-Prinzipien-Ontologie bzw. Metaphysik selber ein Wissenschaftsparadigma ersten Ranges in der abendländischen Wissenschaft wurde, hatte die damit verbundene Sinn-Hypostasierung auch unmittelbare Folgen für den Ausbau des Wissenschaftssystems. Selber eine Geister- und Geisteswissenschaft, wurde die neuplatonische Philosophie auch die geeignete Grundlagentheorie des sich in den alten Kulturen ausbreitenden gelehrten Umgangs mit Literaturen und besonders mythologischen und religiösen Textdokumenten. Die Neuplatoniker entwickelten zuerst in großem Stil eine Hermeneutik, durch welche auch noch den abstrusesten Texten und Überlieferungen derjenige Sinn abzugewinnen war, den sie als platonisches Ideenreich oder als Inhalt des göttlichen Geistes voraussetzten. So trat ihnen neben die Natur als ein zweiter Bereich sinnlich wahrnehmbarer Geistesoffenbarung die Kultur und die Geschichte, die sie nunmehr nach den Signaturen des göttlichen Schöpfungsplanes befragten. Exemplarisch für diese Vereinnahmung religiöser Textdokumente als Zeugnisse für die Wahrheit der platonisch-neuplatonischen Geistlehre wurde das Werk des 313 Philon von Alexandrien (ca. 15 v. Chr. - ca. 50 n. Chr.). Er hat sie in seinen Interpretationen zum Pentateuch (5 Bücher Moses, die Thorah bzw. das „Gesetzbuch“ der Juden) vorgelegt. Ausgehend von der Voraussetzung, daß die griechische Philosophie sich insgesamt von der jüdischen Religion herleite, sah er in der platonischen Lehre, aber auch in der stoischen Pneumalehre den eigentlichen spirituellen Gehalt der göttlichen Offenbarung in theologisch-wissenschaftlicher Gestalt entwickelt. Seine Abhandlungen „Über die Unzerstörbarkeit des Weltalls“, „Über die Vorsehung“, „Daß jeder Gerechte auch frei sei“ und „Alexander oder darüber, daß auch die Tiere Vernunft besitzen“ zeugen zunächst für seine intensive Aneignung des griechischen Denkens in damals verbreiteter synkretistischer Manier. Wichtiger und bahnbrechend auch für die spätere christliche Theologie wurde seine Hermeneutik, die er seinen Pentateuchinterpretationen zugrunde legte.144 Ausgehend vom „Buchstaben des Textes“ (dem sogenannten Literalsinn), der ja als wörtlich inspirierte göttliche Offenbarung gilt, geht es ihm in erster Linie um das Verstehen des „mystischen“ bzw. eigentlich philosophischen Sinnes, den nur der platonisch Gebildete zu erfassen imstande sein soll. Er ist mit der platonischen Lehre (bzw. dem, was Philon darunter versteht) identisch. Um ihn zu erfassen, muß man freilich über den Literalsinn hinausgehen und die in ihm liegenden Hinweise auf den mystischen Hintersinn der einzelnen Schriften als „Anspielungen“ bzw. als „Allegorien“ verstehen, wie das ja auch Platon selbst in seinen Gleichnissen und Bildern (vgl. dessen Höhlengleichnis, Sonnengleichnis, Liniengleichnis aus dem „Staat“ und das „Wagenlenkergleichnis“ aus dem „Phaidon“) vorgeführt hatte. Philon hat damit die Grundlagen für die später in allen Theologien - aber auch in der Jurisprudenz - immer weiter ausgebaute Lehre vom mehrfachen Schriftsinn heiliger (aber darüber hinaus aller sogenannten dogmatischen) Schriften geliefert. In die christliche Theologie ist sie als Lehre vom vierfachen Schriftsinn durch Johannes Cassianus (360 – ca. 430 n. Chr.) eingegangen und später in einem schönen Merkvers zusammengefaßt worden: Litera gesta docet, quid credas allegoria, moralis quid agas, quo tendas anagogia. Die reinen Fakten aufzuzeigen, das ist dem Literalsinn eigen, was dir zu glauben aufgetragen, läßt sich nur allegorisch sagen. Zum Handeln dir die Ziele steckt moral„scher Sinn, darin versteckt, Fürs letzte Ziel von allem Streben ist anagog„scher Sinn gegeben. Ersichtlich zehren alle Geisteswissenschaften bis zum heutigen Tag von dieser neuplatonischen Sinnvermutung, die hinter jedem planen und buchstäblichen Vordergrundsinn unendliche Dimensionen geheimen, metaphorischen Sinnes erschließen will und immer noch neu erschließt. Mag man sich in modernen auf144 Philon, Die Werke in deutscher Übersetzung, 6 Bände, hgg. von L. Cohn u. a., Breslau 1909 - 1938, ND Berlin 1962. .- Vgl. K. Otto, Das Sprachverständnis bei Philo v. Alexandrien. Sprache als Mittel der Hermeneutik, Tübingen 1968. 314 geklärten Zeiten scheuen, diese Sinndimensionen als das Göttliche zu bezeichnen, mag man lieber von Kultur, Geschichte, Tradition, objektivem oder objektiviertem Geist oder gar vom Unbewußten reden, aus dem die modernen Geisteswissenschaften so tiefen Sinn schöpfen, so sind sie doch nichts anderes als eine große institutionalisierte Anamnesis geworden, durch die immer neue Generationen sich eines übergreifenden Hintersinnes der Welt und der Wirklichkeit zu versichern suchen. § 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der Metaphysiken. Das Gesetz der Evidenzialisierung der Archai. Daß die Griechen die Grundlagen der abendländischen Wissenschaft geschaffen haben, ist ein abendländischer oder gar weltweiter Gemeinplatz. Eher ist umstritten, was diese Grundlagen ausmache und was demnach abendländische Wissenschaft sei. Wir möchten in wissenschaftstheoretischer Perspektive die folgenden Momente nennen: 1. Der Arché-Gedanke. Mit ihm stilisieren die Vorsokratiker das Grundmuster abendländischer Wissenschaft. Er wird gleichsam zur Matrix aller wissenschaftlichen Erklärungen. Die Verknüpfung eines Vorgegebenen, Phänomenalen, mit anderem Phänomenalem oder einem „dahinter“ zu vermutendem und zu erschließendem Nicht-Phänomenalem wird zum Archetypos aller Kausalerklärung, in der Einzelnes mit Einzelnem in notwendige Verbindung gebracht und die Suche bzw. Auffindung des „passenden” Erklärungsmotivs zum Ziele aller Forschung werden kann. Ersichtlich ist der Archégedanke selber die „wissenschaftliche” Formierung uralt-menschlicher Erfahrung des Bewirkens und Erzeugens in Befehls- oder Schaffensprozessen, die den Griechen in ihren anthropomorphen Götterbildern mit eindeutiger Zurechenbarkeit und Ressortverantwortlichkeit zur mythologischen Denkform geworden war. Es macht ihnen Ehre, daß sie – in der Stoa – den Arché-Gedanken schon so früh zum Universaldeterminismus verallgemeinerten und zugleich – im Epikureismus und in der Skepsis – seine totale Kritik leisteten. Zwischen beiden Extremen bewegt sich auch heute noch abendländische Erklärungsmethodologie der Wissenschaften. 2. Objekt und Transzendenz. Der Arché-Gedanke beinhaltet und setzt voraus eine Bestimmung des Vorgegebenen, welches Ausgangspunkt für die Forschung 315 nach seinem Grunde, der Ursache sein kann. Die Griechen nannten es „Phänomen”. Im Phänomenbegriff haben wir das Grundmuster wissenschaftlicher Objektkonstitution. Die Sicherung bzw. „Rettung der Phänomene“ (sózein tà phainómena ῷàó) bleibt seitdem erstes Anliegen jeder Objektwissenschaft. Bemühten sich die frühesten Vorsokratiker (Thales, Anaximenes), dann aber auch Aristoteles, die Phänomene gemäß dem Arché-Gedanken untereinander in eine notwendige Ordnung zu bringen – welcher Gedanke erst in der Neuzeit im Sensualismus George Berkeleys und im Phänomenalismus eines Ernst Mach und Richard Avenarius wieder aufgegriffen wird – so bezieht die vorherrschende Meinung seit Anaximander den Arché-Gedanken auf etwas „hinter den Erscheinungen” Stehendes, was selbst nicht erscheint. Der Phänomenbegriff selbst bezeichnet eine „Doppelbödigkeit des Objekts”, nämlich von Erscheinung und Wesen, Schein und (eigentlichem) Sein. Und dies Verhältnis von Vordergründigkeit und Hintergrund wird selbst als Verhältnis von Wirkung und Ursache aufgefaßt. In dieser Anwendung des Arché-Gedankens liegt die Erfindung der Transzendenz, des „Meta-“, wass seitdem für abendländische Wissenschaft in allen „hinterfragenden“ Forschungsstrategien maßgeblich geblieben ist. Für alle archélogische „transzendentale”- das Vordergründige zum Hintergrund „überschreitende“ Forschung bleibt die platonische Ideenlehre und die aristotelische Meta-Physik paradigmatisch. Der Transzendenz-Gedanke ist seither im Abendland selbst von den kühnsten „Diesseitsforschern” nicht ernsthaft in Frage gestellt worden. 3. Die Subjekt-Objekt-Spaltung. Sie wird von den Vorsokratikern schon vor der sokratischen „Wende zum Subjekt” auf Grund ihrer erkenntnistheoretischen Überlegungen aufgerissen. Im Verfolg ihrer Arché-Forschungen stoßen sie auch auf die Erkenntnisleistungen als Ursache für die bestimmte Objektivationsweise der Erkenntnisgegenstände: einerseits der Sinneswahrnehmung als Ursache der Phänomene, andererseits der „Denkkraft“ bzw. der Vernunft als Ursache des Hinter-Grundes. Das zeigt sich schon in der parmenideischen Zuordnung von Denken und Sein (noeîn te kai eînai ῖìἶ), deren Verhältnis auf dem „Weg der Wahrheit” ermittelt und als „Identität“ (to auto òὐó) herausgestellt wird. Andererseits in der entsprechenden Zuordnung von Sinnlichkeit und Phänomen, die auf dem „Weg des Irrtums und der Meinung” artikuliert wird. Allerdings haben die Griechen in einer ersten Wende zum Subjekt das Subjekt als Objekt behandelt. Dies war die große Leistung der Sophisten und insbesondere des Protagoras, als sie den Menschen als „Arché“ entdeckten. Das führte schon bei Platon zu einer Zwei-Welten-Lehre, nämlich der nachmals die abendländische Ontologie bestimmenden Unterscheidung des mundus sensibilis (kosmos aisthetos óἰó) und des mundus intelligibilis (kosmos noetos óó) oder der materiell-phänomenalen und der ideell-geistigen Welt. Und diese Unter- 316 scheidung wird zur Grundlage der späteren Unterscheidung der Objekte von Natur- und Geisteswissenschaften. Erst die augustinische „zweite Wende zum Subjekt” bringt einen gereinigteren Begriff vom Subjekt zustande und arbeitet die Arché-Implikationen der Subjektivität für die Konstitution der weltlichen Objekte heraus. Hier bereitet sich die Transformation der Subjekt-Objekt-Spaltung in ein Verhältnis von „Innenwelt“ und „Außenwelt“ vor. 4. Wissenschaftliche Methodologie. Seit Parmenides„ zwei „Wegen der Forschung” – den Wegen der Wahrheit und des Irrtums – bleibt die Wegmetapher (hodos ὁó Weg) ein Leitbild abendländischer Reflexion über die Mittel, Instrumente und Ziele der Wissenschaft. Die prinzipielle Trennung von Weg und Ziel – Methode und Gegenstand der Wissenschaft – wird schon in der aristotelischen Logik erreicht, die in der aristotelischen Schule als „Organon” (methodische Hilfsmittel) der Wissenschaft verselbständigt und somit von den eigentlichen Wissenschaften und ihren Objekten abgegrenzt wird. Aber wie beim Subjekt verwandeln die Griechen auch die Methode in ein Objekt. Die Stoa rechnet die Logik als Grundmethodologie zu den Wissenschaften selber. Der Neuplatonismus hypostasiert die Begriffsverhältnisse zum objektiven Ideen- und Geisterreich. Wie beim Subjekt belasten sie dadurch die weitere Entwicklung mit einer folgenschweren Hypothek: dem Zirkel (oder Widerspruch) der Reflexion. Methode und Subjekt sollen sich selbst „methodisch“ erklären: sie unterscheiden sich von sich selbst und werden doch zugleich identifiziert. Dieser Widerspruch wird in der abendländischen Reflexionsphilosophie zum Quellpunkt endloser Logomachien. Neben der Logik nimmt die Mathematik an diesem Schicksal teil. Die pythagoreisch-platonische Philosophie spricht ihr den Charakter einer Einzelwissenschaft von ontologisch vorgegebenen geometrischen Formen und Zahlen, Zahlenverhältnissen, Relationen, Harmonien und Seinsstrukturen zu. Aristoteles bestärkt in seiner Wissenschaftsklassifikation diese Einschätzung, indem er die Mathematik als zweite „theoretische Wissenschaft“ gleich nach der Metaphysik einordnet. Euklid scheint den grundsätzlich methodologischen Charakter der Mathematik durchschaut zu haben. Jedenfalls stellt er die Geometrie als eine Konstruktionsmethode von sinnlichen Bildern, Körpern und Zahlenverhältnissen dar, die Arithmetik aber als den mathematischen Ideenbereich hinter den geometrischen Erscheinungen. Unsere Analysen der „Logik der euklidischen Mathematik“ – die bei zunehmender Trennung von Logik und Mathematik und insbesondere durch die Abtrennung der trivialen (logischen) und quadrivialien (mathematischen) Wissenschaften im Kurrikulum der Freien Künste niemals ernsthaft von den Philosophen geleistet wurde - legen nahe, daß es sich bei der euklidischen Mathematikkonzeption um eine ausgearbeitete „dialektische Logik“ des Denkens in Widersprüchen handelt. 317 Trotzdem bleibt die Stellung der Mathematik zwischen Methodologie und objektbezogener Einzelwissenschaft schwankend und ist es noch jetzt. Am weitesten sind die Stoiker darin gegangen, die Wissenschaften insgesamt als „Methodiken” (via ac ratio) zur Erreichung nützlicher Lebensziele zu definieren. Somit auch die Logik selber, die sie ja auch ins Wissenschaftssystem integrierten. Wissenschaftstheoretisch knüpften sie dabei an den aristotelischen Techne-Begriff (lat.: ars = Handwerk, Kunst und Wissenschaft) an. Darin folgten ihnen die „praktisch” gesinnten Römer weitgehend nach. Ihr Erbe wurde die scholastische „Artistenfakultät“, die die methodologischen Propädeutika für die „höheren” Fakultätswissenschaften bereitstellen sollte. Und sie hat auch als „philosophische Fakultät“ unter den anderen Fakultäten ersichtlich seither noch eine gewisse Attraktivität als hohe Schule für „Lebenskünstler“ bewahrt. Zwischen den Extremen entfalten sich schon in der griechischen Antike einzelne Methoden, oft nach ihren Erfindern oder bedeutendsten Benutzern genannt, die bis heute in Gebrauch sind: Die herakliteische (und gorgianische) Dialektik, die die Einheit der Gegensätze zu denken lehrt (oder es doch versucht), und die durch Euklid in die Grundlagen der Mathematik gleichsam eingebaut wurde. Die zenonische Apagogik, die die Widerlegung von Theorien durch Aufweis ihrer paradoxalen Konsequenzen betreibt. Ihr verwandt die sokratische Aporetik, die den Dogmatiker „elenktisch“ in die „Ausweglosigkeit” bzw. zur Verzweiflung bringt. Sie will ihn „protreptisch“ für die Anwendung der sokratischen Maieutik (Geburtshelfermethode) vorbereiten, die (indem sie vorgeblich sein unbewußtes Wissen zum Vorschein bringt, in der Tat aber nur) logische Folgerungen aus zugestandenen Prämissen entwickelt. Die platonische „intellektuelle Anschauung” (Ideenschau), die dem Philosophen das Kunststück zumutet und abfordert, mit einem „geistigen Auge” übersinnliche Strukturen „wahrzunehmen”. Sie hat mit dieser paradoxalen Forderung einer Anschauung des Unanschaulichen selbst eine Grundlage für die „dialektische Logik“ geliefert. Die demokriteische Modellmethode der Erklärung des Unsichtbaren durch das Sichtbare und das platonische Mythenerzählen kann man als Vorläufer der paradigmatischen oder ModellMethode anführen. Dann die aristotelische Empirik bzw. Historik, die später zur historisch-empirisch-deskriptiven Methode stilisiert wurde, in der Gegenwart als „phänomenologische” Methode der Deskription wieder aufgenommen wurde. Neben ihr die aristotelische „epistemische” bzw. „scientifische” Methode, eigentliche Theorie, die in Epagogé (Induktion) und Dihärese (Deduktion) Begriffsbildung durch Synthese und Analyse anderer Begriffe bzw. ihrer Merkmale lehrt. Nicht zuletzt bei Aristoteles auch die rhetorisch-topische Methode der Argumentationsführung durch „schlagende” Argumente, die ad hoc plausibel erscheinen. Die dogmatische Methode der „schulmäßigen” Gesamtdarstellung ganzer Wissenssysteme im Ausgang von als „evident” oder glaubensmäßig gesichert geltenden Letztbegründungen, die vor allem die Neuplatoniker, Stoiker, aber auch Euklid praktizierten. Und zuletzt auch die skeptische Methode der Skeptiker, die 318 als „zetetische” (forschende) alle Dogmatik auflöst und sich für ständige Offenheit und Überprüfung aller Voraussetzungen und Gewißheiten bereithält. Man ahnt hier schon den Schematismus, der die Bildung und Entstehung von „methodischen“ Wissenschaften beherrscht: Vom „Trick” oder Kunstgriff, den ein Philosoph oder eine Schule erfindet und vorzüglich verwendet, geht die Entwicklung zur allseitig verwendbaren Methode. Manche von ihnen erreichen in weiteren Stilisierung den unanfechtbaren Status von Einzelwissenschaften, die dann ihrerseits ubiquitär in anderen Einzelwissenschaften einsetzbare Methodiken bilden. So bildet sich das heraus, was man den Gegensatz von „X-ologien” (objektzugeordneten Einzelwissenschaften) und „Y-iken” (objektfreien Methodenwissenschaften) nennen könnte. 5. Die Schulbildung und die Organisation der Metaphysiken. Es ist erstaunlich, daß die Philosophie mit den Vorsokratikern beim Schwersten angefangen hat, was in der Philosophie zu leisten ist: der Gewinnung und Sicherung von Letzt- oder Erstprinzipien, den Archai. An die Gründer schließen sich sogleich Schulen an, die die Arché „exhaurieren”, indem sie alles, worauf der forschende Blick der Griechen fiel, im Lichte ihres Schul-Prinzips erklärten. So entwickeln sie schulmäßig Begründungsmetaphysiken, lange ehe der Name dafür erfunden war. Zwar gab es Tendenzen zur priesterlichen Esoterik, zur Geheimlehre, zur Abkapselung – wie bei den Orphikern, bei den Pythagoräern, den Gymnosophisten aus Indien, auch bei den Ärzten, die im hippokratischen Eid zur Geheimhaltung ihrer Kenntnisse verpflichtet wurden. Aber der agonal-öffentliche Geist der Griechen zerrte alles ans Licht der Kritik und öffentlichen Diskussion. Die Konfrontation der Grundstandpunkte und der aus ihnen entfalteten Schullehren erwies sich als der Motor der Bewegung: Kritik und Apologetik reinigten die diffusen Weltanschauungen schon früh zu wissenschaftlich-logischen Systemen. Parmenideisches Einheitsdenken und demokriteischer Elementarismus, platonischer Idealismus und aristotelischer Realismus bilden das Fadenkreuz der Extreme, zwischen denen auch heute noch die metaphysischen Standpunkte oszillieren. Nicht minder sind epikureisches Freiheitsdenken und stoischer Universaldeterminismus Wegmarken für Grundentscheidungen geworden, zwischen denen skeptisch-zetetisches Denken einen mittleren Kurs der Wahrscheinlichkeit zu steuern versucht. Hier läßt sich nun ebenfalls ein Gesetz andeuten, das den Evidenzcharakter der Archai im Rahmen des griechischen Denkens – und später des abendländischen Denkens – regiert. Wir möchten es das Gesetz der wechselseitigen Plausibilisierung der metaphysischen Axiome im Kontext der Schulbildungen nennen. Ersichtlich bildet das, was die eine Schule als nicht hinterfragbare Arché an den Anfang ihrer Welterklärung stellt, für andere Schulen gerade das Problem, das sie durch Ableitung und Erklärung von ihrem eigenen jeweiligen Standpunkt, ihrer Arché her zu lösen versuchen. Was sich den einen als das Evidente schlechthin darstellt, ist es und kann es nur sein, weil es durch die Erklärungsarbeit der Kritiker so evident geworden ist. Mit anderen Worten und in logischer Sprache: Was 319 bei den einen die Spitze ihrer metaphysischen Begriffspyramide bildet, ist den anderen ein abgeleiteter Begriff oder gar ein bloßes Faktum an der Basis ihrer Gedanken- Pyramide. Das setzt die Einheit des Diskursuniversums voraus, in dem die Griechen und seither die abendländische Philosophie sich bewegten. Der Streit und die gegenseitige Kritik der Schulen hat dieses Universum nach allen Richtungen hin durchmessen, hat die Begriffe und Prinzipien isoliert und wieder in mannigfache neue Verknüpfungen eingestellt, deren philosophiegeschichtliche Tradition sie der heutigen Begründungsdiskussion in Einzelwissenschaften wie in der Metaphysik selber noch immer als plausible Argumente, als metaphysische Topoi zur Verfügung stellt. Gewiß ist manches davon in der Patristik und Scholastik unter der Schulherrschaft des Neuplatonismus und des Aristotelismus in den Hintergrund getreten und vergessen worden. Aber es war die große Leistung der Renaissance, sie „ad fontes“ wieder aufzusuchen und für einen neuen Diskurs aller antiken Schulgesichtspunkte bereitzustellen. 320 B. Das Mittelalter: Patristische und scholastische Wissenschaftslehre § 25 Der ideengeschichtliche Kontext. Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken Erbes im Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“ Theologie, Jurisprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die „Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die „2. Wende zum Subjekt“ bei Augustinus. Das von dem Hallenser Historiker Christoph Cellarius (Keller) im Jahre 1688 zwischen Antike und Moderne eingeschobene „mittlere Alter” hat in historischer Hinsicht nichts von einem Lückenbüßer an sich. Denn die Zeit zwischen Völkerwanderung und „Wiedergeburt der Wissenschaften“ war schon längst als besondere Epoche dargestellt worden. Als „Kurz und bündig vorgestellte Universalgeschichte, eingeteilt in antikes, mittleres und neues Zeitalter, mit fortlaufenden Anmerkungen“ (Jena 1692) hat das „Mittelalter“ gemäß dem Vorschlag des seinerzeit sehr bekannten Lehrbuchverfassers Cellarius am meisten Anklang gefunden.145 Die Bezeichnung war für die Historiographie eine bald überall nachgeahmte Neuerung. Es ist das Zeitalter der Ausbreitung einer christlichen Kultur und Zivilisation in den nördlichen Gefilden des römischen Weltreiches, dessen ideologische Unterlage der Neuplatonismus geblieben ist. Neue Völker eigneten sich die Inhalte der antiken Kultur und Zivilisation an und richteten sich in ihren noch bestehenden Institutionen ein. Die üblich gewordene Einschätzung der Verhältnisse, die bis heute gepflegt wird, lautet: Die Philosophien der antiken Bildung rüsteten sich mit staatlicher Macht und Waffen und traten zu Kreuzzügen gegeneinander an: Islamischer Aristotelismus gegen neuplatonisches Christentum und umgekehrt bis zum Patt waffenstarrender Weltmächte. Aber diese Einschätzung gehört zu den historischen Mythen. Was den sogenannten (lateinischen) Westen betrifft, ging es in internen Auseinandersetzungen von Gelehrten und Klerikern um die „reine Lehre” in mannigfaltigen Schismen, die die antike Ideenkonkurrenz im Abendland perpetuierten. In der Perspektive der „abendländischen Philosophie“ und meist nur der römisch-lateinischen befangen, sind wir auf Grund jahrhundertelanger Vernachlässigung der historisch-philologischen Aufarbeitung der alternativen Denkschulen des vorderen Orients, der auch zum römischen Weltreich gehörte, auch heute noch nicht in der Lage, die wirklichen Traditionen, die zur neuzeitlichen wissenschaftlich-techni145 Chr. Cellarius, Historia Antiqua, Zeitz 1685; Historia Medii Aevi, Zeitz 1688; beide zusammengefaßt und fortgeführt als Historia universalis breviter ac perspicue exposita, in antiquam, et medii aevi, ac novam divisa cum notis perpetuis“, Jena 1692. Die Fortführung erschien auch gesondert als Historia Nova, Halle 1696. 321 schen Zivilisation des Westens und der Kultur des nahen Ostens im „Hinterland“ von Byzanz führen, angemessen zu würdigen und ihre sämtlichen Früchte zu genießen. Hier kann uns die hochscholastische Rezeption des durch den Islam in eigentümlicher Ausprägung übernommenen Neuplatonismus durch viele islamische „Mystiker“ wie al-Ghazali und die Verschmelzung des Neuplatonismus mit aristotelischen und stoischen Elementen bei den zu einseitig „Aristoteliker“ genannten Philosophen von al-Kindi bis al-Farabi und ibn-Rushd (Averroes) mitsamt ihrer ausgebreiteten positiven Wissenschaftlichkeit noch immer eine Lehre sein. Daß Aristoteles bei islamischen Theologen so großes Interesse gewann, dürfte u. a. auch darauf beruhen, daß einige unter seinem Namen im arabischen Sprachraum verbreitete Texte von den Neuplatonikern stammen. Das lenkte die Aufmerksamkeit auch auf die übrigen Schriften des Aristoteles. Das Hauptdokument war die „Theologie des Aristoteles“, welches ein Auszug aus den Büchern IV – VI der „Enneaden“ Plotins ist. Es wurde um 840 aus dem Griechischen ins Arabische übersetzt, später auch vom Arabischen ins Lateinische. Es gelangte so in die frühesten gedruckten Aristotelesausgaben.146 Ebenso gelangte unter dem Namen des Aristoteles ein ins Arabische übersetzter Auszug aus Proklos‟ „Institutio theologica“ in die lateinischen Aristotelesausgaben. Es ist der „Liber de causis“.147 Jedenfalls dürfte der Missionserfolg des Islam unter der Flagge des „Aristotelismus“ sehr dazu beigetragen haben, daß auch die abendländischen Theologen sich einem vertieften Aristotelesstudium nachhaltig zuwendeten. In der Spätantike hatte der Neuplatonismus die Zwei-Welten-Lehre von der diesseitigen sinnlich-phänomenalen und der jenseitigen übersinnlich-geistigen Welt zu einer selbstverständlichen Denkform gemacht. Der stoische Mikro-Makrokosmos-Gedanke ließ den Menschen als Spiegelbild der ganzen Welt erscheinen. Mit seiner Leiblichkeit in die sinnliche Welt verflochten, sollte er in seinem seelisch-geistigen Wesen am Übersinnlichen partizipieren. Auf dieser Grundlage wird in einer „zweiten Wende zum Subjekt” nach innen gewandte Seelenforschung zugleich Erforschung der Struktur der geistigen transzendenten Welt. Psychologie und Bewußtseinsanalyse wird zugleich Erforschung der transzendenten göttlichen Dimension. Alexandrinische Metaphern-Hermeneutik lehrt, ihre Resultate als Chiffren und Sinnbilder des Göttlichen zu deuten. Zugleich harmonisiert sie wissenschaftliche Einsicht mit den positiven Sagen religiöser heiliger Schriften. Arché-Forschung als Grundlagen- und Begründungsforschung nimmt die Gestalt von Theologie, von „Gotteswissenschaft“ an. Die katholische Kirche und daneben die byzantinisch-orthodoxe Kirche etablieren sich als wirkungsmächtige philosophische Institutionen zur Organisation metaphysi146 Carpentarius, Sapientissimi philosophi Aristotelis Stagiritae theologia sive mystica philosophia secundum Aegyptos, Paris 1572, neu hgg. v. Fr. Dieterici, Die sogenannte Theologie des Aristoteles aus dem Arabischen übers. und mit Anmerkungen versehen, 1883. 147 O. Bardenhewer, Die pseudoaristotelische Schrift über das reine Gute, bekannt unter dem Namen liber de causis, arab./dt. 1882. 322 scher und positiv-einzelwissenschaftlicher Studien und zur praktischen Anwendung ihrer Resultate in der Seelenleitung und Menschenbildung. Zu diesem Zweck organisieren die Kirchen im Abendland, aber auch die islamischen Herrscher in ihren „Medresen“ („Schulen“), nach den antiken Hochschul-Vorbildern auch die Ressourcen und die Methoden der Forschung und Lehre. Zugleich mit dem Kanon der religiösen Quellen wird der Kanon der Klassiker und Autoritäten festgestellt und interpretierend adaptiert und gepflegt. Dieser Vorgang hat in der staatlichen Feststellung und interpretatorischen Pflege und Anwendung der antiken Rechtsquellen – kulminierend in der Promulgation des Corpus Juris Justiniani im 6. Jahrhundert – ein öffentliches Vorbild. Die Methode verpflichtet zur Auswertung und Benutzung der in den Quellen liegenden Kenntnisse zur Gewinnung von Problemlösungen und Entscheidungen anstehender Fragen. Harmonisierung von Widersprüchen in den Quellen, Widerlegung und Abweisung unpassender Meinungen, kühne Überschreitung der Dogmatik in inno