Wissenschaftsphilosophie - Philosophische Fakultät

Werbung
WISSENSCHAFTSPHILOSOPHIE
In systematischer und historischer
Perspektive
Lutz Geldsetzer
Institut für Philosophie der HHU
Düsseldorf
2015
WISSENSCHAFTSPHILOSOPHIE
in systematischer und historischer Perspektive
von
Lutz Geldsetzer
Lehrmaterialien aus dem
Institut für Philosophie
(vormals Philosophisches Institut)
der HHU Düsseldorf
Copyright 2015 vorbehalten
Kopie für persönlichen Gebrauch und für Zitierzwecke
sowie einzelner Paragraphen für Lehrzwecke erlaubt
L. G.
Zeichnung: Florian Wies
Vorwort
Die vorliegende Schrift enthält die Erträgnisse der Studien des Verfassers über die Wissenschaften von etwa drei Jahrzehnten. Gelegenheiten zu Erfahrungen im Wissenschaftsbetrieb ergaben sich schon früher
während seiner nun mehr als fünfzigjährigen Lehr- und Forschungstätigkeit an der Düsseldorfer Universität und bei Gastprofessuren an
Universitäten in Frankreich, Italien, in den USA und in der VR.
China.
Das Material hat sich in wiederholten Vorlesungen zum Thema
„Wissenschaftstheorie“ so angereichert, daß es einigermaßen umfangreich geworden ist und den Charakter eines Lehrbuches der Disziplin
angenommen hat. Es ist in vier Teile gegliedert:
Der erste Teil hat vorwiegend systematischen Charakter. Die Disziplin „Wissenschaftsphilosophie“ wird in einer hier vorgeschlagenen
Architektonik des Wissenschaftssystems verortet. Dadurch werden
ihre Voraussetzungen, die sie von philosophischen Grunddisziplinen
übernimmt, und ihre Bezüge zu Bereichsdisziplinen bis hin zu den
Einzelwissenschaften sichtbar gemacht.
Anhand dieses Leitfadens wird als Zweck und Ziel aller Wissenschaften die Gewinnung, Bewahrung und Begründung von Wahrheit
herausgearbeitet. Die Definition der Wahrheit als kohärentes und
komprehensives Wissen erlaubt es, ein genuin wissenschaftliches
Wahrheits-Ideal von anderen kulturellen Idealen zu unterscheiden, die
sich immer wieder und heute verstärkt an seine Stelle drängen oder
damit verwechselt werden. Diese Vermischungen führen zu verschiedenen Formen und Gestalten von falschem Wissen und zu dem, was
hier „wahr-falsches Wissen“ genannt wird.
Die Erarbeitung wahren Wissens in den Wissenschaften hängt in
erster Linie von den dazu eingesetzten Methoden ab. Es geht dabei um
die Definition der wissenschaftlichen Begriffe, deren Verknüpfung zu
wahren Urteilen und der Urteile zu schlüssigen Argumenten, die in
der Gestalt von Theorien eine Gesamtdarstellung der einzelnen Wissensressourcen über die jeweiligen Forschungsgebiete erlauben.
In allen diesen methodischen Verfahren muß es, wie man sagt, logisch zugehen. Logik ist seit alters die dafür relevante philosophische
Methodendisziplin.
Von I. Kant stammt die These, die Logik habe „seit dem Aristoteles
keinen Schritt rückwärts“ getan, und „daß sie auch bis jetzt keinen
Schritt vorwärts hat tun können“. Das wird bis heute gerne wiederholt.
Geisteswissenschaftler haben die These meist so verstanden, daß die
II
Logik Zeit genug gehabt habe, sich so allgemein in allem wissenschaftlichen Tun zu bewähren, daß sie gewissermaßen den „gesunden
Menschenverstand“ ausmache, so daß man sie nicht eigens studieren
müsse. Naturwissenschaftler verstehen Kants These ganz im Gegenteil
dazu so, daß die Logik deshalb überholt sei und durch eine neue
„mathematische Logik“ ersetzt werden müsse. Daher sprechen sie von
der traditionellen Logik als „klassisch-aristotelischer Logik“, die zu
kennen überflüssig geworden sei.
In der Tat ist nichts falscher als diese kantische These. Denn die
Logik hat wie alle Disziplinen im Laufe der Geschichte sowohl Fortschritte gemacht als auch Fehler und Irrtümer in ihre Lehrgehalte aufgenommen. Deshalb ist es eine wichtige Frage, ob und wie das, was
man jetzt mathematische Logik nennt, überhaupt Logik ist, und ob sie
die traditionelle Logik wirklich ersetzten kann.
Die hier vertretene These ist, daß die „quadriviale“ Mathematik seit
der Antike die spezielle Logik der Physik gewesen ist und sich als
solche naturgemäß mit dieser zusammen entwickelt hat. Sie ist aus der
aristotelischen Logik als ein dialektischer Seitenzweig erwachsen und
kultiviert das Denken in Widersprüchen.
Daß die Mathematik in den beiden Zweigen der Geometrie und der
Arithmetik entwickelt worden ist, deutet selbst schon auf eine Zweiteilung alles Mathematischen hin. Denn die Geometrie ordnet und
klärt alle Verhältnisse, die sich zwischen sinnlich wahrnehmbaren Figuren und Gestalten in beliebiger Größe ergeben können. Diese Verhältnisse werden als besonderer „semantischer“ Gegenstandsbereich
durchaus logisch und widerspruchslos behandelt. Und das hat die
Geometrie in allen handwerklichen, technischen und ökonomischen
Angelegenheiten zu einer widerspruchslosen Methodik gemacht. Wo
allerdings die Geometrie ohne Bezugnahme auf Anwendungen rein als
Teil der Mathematik behandelt wird, besitzt sie ebenso wie die Arithmetik ihre für sie eigentümliche Dialektik.
Die Arithmetik erforscht und konstruiert gänzlich unanschauliche
Zahlgebilde und ihre Verhältnisse. Alles, was hier gesagt werden
konnte, wurde zwar, um überhaupt verständlich zu sein, anhand geometrischer Modelle veranschaulicht, wie man bei Platon und Euklid
sieht. Aber zu einer durchgehenden Veranschaulichung reichte die
Geometrie schon in der Antike nicht mehr aus. Vor allem in den Bereichen, wo arithmetische Verhältnisse ins Infinite und Infinitesimale
ausgeweitet wurden. Das bedeutete, daß die arithmetischen Theorien
ihre geometrischen semantischen Beziehungen zum Teil verloren.
Zahlen und Zahlverhältnisse wurden und werden seither als arithmetische Konstrukte behandelt, die nur noch teilweise geometrisch veranschaulicht werden können.
III
Zahlen treten durch die Operatoren ihrer Rechenarten zueinander in
Relationen, die eine spezielle Semantik unanschaulicher Objekte erzeugen. Sie bilden Mengen und Größen, die zugleich weder Mengen
noch „groß“ oder „klein“ sein können, weil es derartiges nur in der
sinnlichen Anschauung gibt. Sie erzeugen auch Relationen zwischen
„bekannten Unbekannten“ (Variablen). Sie definieren durch Gleichungen Begriffe von arithmetischen Sinngebilden, die zugleich Behauptungen wahrer Einsichten sein sollen. Und alles dies wird reflexiv
bzw. ipsoflexiv auf einander angewendet.
Dies ließ und läßt sich mit den Mitteln einer trivialen Logik, die auf
Widerspruchslosigkeit angelegt ist, nicht bewältigen. Die Logik mußte
erweitert werden. Und sie wurde dadurch erweitert, daß das in der
trivialen Logik ausgeschlossene Dritte als widersprüchliche Denkfigur
positiv aufgenommen und zu einer eigenen Technik des Umgangs mit
unanschaulichen Sinngebilden verwendet wurde.
„Quadriviale“ Mathematik als dialektische Speziallogik trat dadurch
in Konkurrenz zur „trivialen“ Logik und verdrängte diese gänzlich aus
der naturwissenschaftlichen Methodologie.
Als sich im Laufe des 19. Jahrhunderts der quadriviale Teil der Wissenschaften aus den Philosophischen Fakultätsstudien abspaltete und
zu eigenen Mathematisch-Naturwissenschaftlichen Fakultäten verselbständigte, kam auch in diesen neuen Fakultäten das Bedürfnis auf, sich
der logischen Grundlagen ihrer Fächer erneut zu vergewissern.
Die Mathematik, die als Einzelwissenschaft bis dahin unbestritten
die Methodologie der Naturwissenschaften darstellte und ohne logische Methodologie auskam, entwickelte für sich die fachspezifische
Logik, die seither die logischen Grundlagen der Mathematik selber zu
klären begann. Das Resultat dieser Bestrebungen war in erster Linie
die Entdeckung zahlreicher logischer Widersprüche und Paradoxien in
den mathematischen Theorien.
Das führte jedoch nicht dazu, die traditionelle „triviale“ Logik selber
weiter zu entwickeln, sie eventuell von Fehlern zu reinigen und ihre
Besonderheiten bei der Anwendung auf die Mathematik und die Naturwissenschaften herauszustellen. Vielmehr weitete man den Anspruch der mathematischen Logik dahingehend aus, daß sie überhaupt
die einzige Methodologie aller avancierten Wissenschaften sei.
Dieser Anspruch schien durch die gewaltigen Erfolge der mathematischen Naturwissenschaften in allen technischen Anwendungen gerechtfertigt zu sein, die man durchweg auf die forcierte Mathematisierung der Naturwissenschaften zurückführte.
Der Anspruch ist, wenn nicht falsch, so doch weit übertrieben. Denn
technische Anwendungen der Naturwissenschaften verdanken sich in
erheblichem Ausmaß dem praktischen Know How von Handwerkern
IV
sowie von Geräte- und Maschinenbauern. Doch angesichts der Tendenz zur Mathematisierung möglichst aller Wissenschaften, bemühen
sich auch die wenigen übrig gebliebenen „trivialen“ Logiker der Philosophischen Fakultäten inzwischen, die „klassische“ Logik in die
Formalismen der mathematischen Logik einzukleiden.
Die Kluft zwischen den traditionellen logischen Denkweisen von
Laien und Geisteswissenschaftlern und mathematisch ausgebildeten
Naturwissenschaftlern erweiterte sich beständig bis zu den heute vielbeklagten „zwei Kulturen“, in denen sich nun beide Lager in gegenseitiger Verständnislosigkeit gegenüber stehen. Daß dieser Methodenantagonismus auf die Lage und die Probleme der Wissenschaftstheorien zurückwirkt und dringend der Klärungen bedarf, dürfte auf der
Hand liegen.
Deshalb wurde in diesem systematischen Teil große Aufmerksamkeit
auf die so entstandenen Unterschiede zwischen den entsprechenden
Denkweisen und ihre Verteilungen auf gewisse wissenschaftliche und
populäre Einstellungen im Lehr- und Forschungsbetrieb gelegt. Vor
allem aber wurde ein Beitrag zur Wiederbelebung und Verbesserung
der „trivialen“ Logik in Gestalt eines kleinen Lehrbuches der „pyramidalen Logik“ mit einem besonderen Formalismus und den sich
daraus ergebenden Folgerungen für die Unterscheidung der traditionellen und der mathematischen Logik und ihrer Besonderheiten vorgestellt.
Um dem Leser einen Vorgeschmack auf das zu geben, was er hier
erwarten kann, seien die wesentlichen Thesen der mathematischen Logiker, auch diejenigen, die aus der klassischen Logik übernommen
worden sind, und eine Beurteilung derselben vom Standpunkt der
pyramidalen Logik einander konfrontiert.
Mathematische Logiker, manchmal auch in Übereinstimmung mit
der klassischen Logik, behaupten:
1. Daß Logik und Mathematik zwei rein „formale“ Denkmethodiken
seien, welche Wahrheit und Falschheit - und darüber hinaus Wahrscheinlichkeit(en) jeweils auf spezifische Weise und für ihre besonderen Bereiche ohne Bezug auf inhaltliche Gegenstände darstellen, unterscheiden und beweisen könnten.
Es wird gezeigt, daß es nur eine einzige Logik geben kann, die für
alle Wissenschaften, also auch für die Mathematik, gilt. Sie kann
niemals inhaltlos praktiziert werden. Ihre Formalismen sind selbst ihr
inhaltlicher bzw. semantischer Gegenstand.
2. Der Unterschied zwischen traditioneller und mathematischer Logik wird darin gesehen, daß es so etwas wie rein intensionale und rein
extensionale Logiken gäbe. Wobei die „klassische“ bzw. die aus den
V
„trivialen“ Disziplinen der Philosophischen Fakultät herstammende
Logik mehr intensional, die aus den „quadrivialen“ Disziplinen herstammende Mathematik und ihre Logik mehr extensional ausgerichtet
seien.
Rein intensionale und rein extensionale Logiken kann es jedoch
nicht geben. Und zwar, weil ihre Grundelemente, nämlich die Begriffe, ohne deutliche Definition ihrer Intensionen (Merkmale) und klare
Bestimmung ihrer Extensionen (Umfänge) keine Begriffe wären.
Ohne klare und deutliche Begriffe aber können auch die Urteile und
Schlüsse, in denen sie vorkommen, keine eindeutigen Wahrheitswerte
erhalten.
3. Große Übereinstimmung herrscht unter Mathematikern darüber,
daß die klassische Logik mittlerweile durch die mathematische Logik
überholt und überflüssig gemacht worden sei, da in letzterer alle
positiven Einsichten der ersteren erhalten und in klareren Formalismen dargestellt werden könnten.
Dieser Anspruch besitzt keine Grundlage. Vielmehr ist die mathematische Logik selbst eine auf ihre mathematischen Objekte eingeschränkte triviale Logik, die das sogenannte Dritte als Widerspruch
zuläßt. Das Dritte besitzt hier eine dominierende „dialektische“ Funktion. D. h. die Zulassung des Dritten ist die Grundlage für die Erzeugung vieler widerspruchsvoller mathematischer Sinngebilde.
4. Sowohl von klassischen wie mathematischen Logikern wird angenommen, daß sich die allgemeinsten „Begriffe“ (Kategorien und axiomatische Begriffe) sowie die individuellen Kennzeichnungen (Eigennamen) nicht definieren ließen.
Es wird gezeigt, daß sowohl axiomatische Grundbegriffe als auch
individuelle Eigennamen definiert werden können. Allerdings nicht
mit der aristotelischen Standarddefinition mittels Genus proximum
und spezifischer Differenz bezüglich des Allgemeinsten, und auch
nicht durch Aufzählung aller Spezifika oder durch die Annahme eines
sogenannten Taufereignisses (S. Kripke) beim Individuellen. Erst die
Definitionsmöglichkeit der allgemeinsten (axiomatischen oder kategorialen) wie der speziellsten Begriffe (die gelegentlich durch Eigennamen gekennzeichnet werden) kann überhaupt die Logik zu einer
Methodik der Wahrheitsauszeichnung machen.
5. Mathematische Logiker nehmen für die Mathematik in Anspruch,
daß mathematische Begriffe durch „vollständige“ Induktion gewonnen
und definiert werden. Dagegen sei die Induktion in der klassischen
Logik stets „unvollständig“. Man unterstellt ihr, es handele sich dabei
um einen unbefugten Schluß „von einigen auf alle Instanzen“ (Beispielsmerkmale) des induzierten Begriffs.
VI
Die pyramidale Erklärung der Induktion zeigt dagegen, daß die Begriffsbildung durch logische Induktion immer vollständig und sicher
ist. Sie ist kein Schluß von einem Artbegriff auf die zugehörige Gattung, sondern sie expliziert nur, daß die Merkmale (Intensionen) eines
induzierten Artbegriffs allen seinen Instanzen in seiner Extension zukommen. Das haben schon Wilhelm von Ockham und Francis Bacon
bewiesen. Und sie zeigt überdies, daß gerade die Mathematik die unvollständige Induktion als Schluß „von einigen auf alle Fälle“ verwendet, ohne jemals „alle“ Fälle zu kennen oder jemals prüfen zu können.
6. Mathematische Logiker haben aus der klassischen Logik die Meinung übernommen, daß die logischen Junktoren und mathematischen
Operatoren sinnfreie Elemente und jedenfalls keine Begriffe seien. Sie
dienten nur dazu, nicht-wahrheitswertfähige Begriffe zu wahrheitswertfähigen Urteilen und diese zu Schlüssen zu verknüpfen, deren
Sinn gerade in Wahrheiten, Falschheiten und Wahrscheinlichkeiten
bestünden.
Es ist jedoch die gemeinsprachliche Bedeutung der logischen Junktoren wie der mathematischen Operatoren für die Grundrechenarten,
deren Verständnis erst die Definition von nicht wahrheitswertfähigen
Begriffen und Ausdrücken sowie die Komposition von wahrheitswertfähigen Urteilen und Schlüssen erlaubt. Die gemeinsprachliche
Bedeutung der jeweiligen ausdrucks- und satzbildenden Junktoren ist
aber selbst „auf Begriffe zu bringen“. Dann zeigt sich, daß zwischen
den satzbildenden Junktoren (die den Wahrheitswert von Behauptungen bestimmen) und den begriffs- und ausdrucksbildenden Junktoren (ohne Wahrheitswerte) strikt unterschieden werden muß. Die gemeinsprachliche Bedeutung der Junktoren und Operatoren vermittelt
auch den Bezug der logischen Formalismen auf sprachliche Inhalte.
7. Mathematiker sind seit Euklids Zeiten davon überzeugt, daß Gleichungen eine genuin mathematische Form behauptender Urteile mit
Wahrheitswerten sei. I. Kant hat diese Meinung auch in der Logik und
bei Philosophen verbreitet, indem er eine mathematische Gleichung
als Beispiel eines „synthetischen Urteils a priori“ ausgab.
Die Gleichung stellt jedoch eine logische Äquivalenz dar. Deren
Hauptfunktion ist die Definition von Begriffen und Ausdrücken. Sie
gehört zu den ausdrucksbildenden Junktoren und kann daher keineswegs wahrheitswertfähige Behauptungen bzw. Urteile ausdrücken.
Die Gleichungsäquivalenz definiert identischen Sinn mittels verschiedener Zeichenausdrücke. Dies entspricht der gemeinsprachlichen
Funktion der Synonyme. Die Gleichung ist weder voll- noch teilidentisch mit der logischen Kopula oder mit einer Implikation, die logische Behauptungen auszeichnen.
VII
8. Von der klassischen Logik haben mathematische Logiker übernommen, daß die logischen ebenso wie die mathematischen Wahrheitswertnachweise und Beweise auf den drei angeblich unbegründbaren Axiomen der Identität, des Widerspruchs und eines Dritten beruhen. Von diesen „Prinzipien“ soll die Identität – als Tautologie und
reine Wahrheitform – angestrebt, satzmäßiger Widerspruch und Drittes als falschheitsträchtig – vermieden oder gar ausgeschlossen sein.
Es wird gezeigt, daß Identität, Widerspruch und Drittes nicht die
tatsächlichen Axiome bzw. Prinzipien von klassischer und mathematischer Logik sind. Sie ergeben sich erst als Deduktionen aus den
eigentlichen Axiomen Wahrheit und Falschheit und der aus beidem
komponierten Wahr-Falschheit.
9. Nicht nur die mathematische, sondern auch die klassische Logik
geht davon aus, daß der Satzwiderspruch ein formales Kennzeichen
der Falschheit sei. Deswegen mache ein Widerspruch auch jede inhaltliche Theorie falsch, in der er vorkommt. Diese traditionelle Meinung
setzt voraus, daß eine widerspruchsvolle Behauptung keinen semantischen Bezug zur Wirklichkeit habe und deshalb nichts behaupte bzw.
„sinnlos“ sei. Dabei leugnet niemand, daß ein Satzwiderspruch aus
einer wahren und einer falschen Behauptung über einen und denselben
Sachverhalt zusammengesetzt ist. Mathematische Logiker meinen
unter Berufung auf A. Tarskis Metatheorie der Sprachstufen, die Verknüpfung des wahren und des falschen Satzteiles verleihe dem Gesamtsatz den neuen „Meta-Sinn“ der „Falschheit“, der die Wahrheitswerte der Basissätze neutralisiere bzw. ersetze. Ein „wahrer“ MetaWahrheitswert wird dagegen dogmatisch beim alternativen Urteil
angenommen. Die Urteilsalternative gilt als wahr, wenn eine ihrer
Komponenten wahr, die andere falsch ist.
Dagegen wird anhand zahlreicher Beispiele nachgewiesen, daß
durch die Verknüpfung des wahren und des falschen Satzteils im
widersprüchlichen Urteil kein Metasinn entstehen kann. Dies ebenso
wenig wie bei nichtwidersprüchlicher Verknüpfung eines wahren und
eines falschen Satzes. Deshalb muß der Satzwiderspruch seinen Sinn
als „wahr und falsch zugleich“ sowohl formal wie auch in seinen inhaltlichen Anwendungen behalten. Die These von der „Falschheit des
Satzwiderspruchs“ erweist sich damit als unbegründetes Dogma bzw.
als reine Konvention mit sehr schädlichen Folgen. Denn wenn der
Satzwiderspruch als falsch gilt, wird auch seine wahre Komponente
für falsch erklärt. Umgekehrt verhält es sich bei der Urteilsalternative,
der dogmatisch der Metasinn „wahr“ zugesprochen wird, obwohl sie
ersichtlich ebenfalls wahr und falsch zugleich ist. Paradoxien und
viele traditionell für widerspruchslos gehaltene widersprüchliche Begriffe und Ausdrücke, die in Satzwidersprüchen in Subjekts- und/oder
VIII
Prädikatsstellung verwendet werden, sind nicht nur alltagssprachliche
rhetorische, sondern auch logische Mittel, durch Lügen die Wahrheit
zu sagen, und mittels der Wahrheit zu lügen. Mit „wahren“ alternativen Urteilen behält man deswegen stets Recht, weil sie nicht ausdrücken, welche ihrer Komponenten die wahre und welche die falsche
ist.
10. Aus dem Dogma von der Falschheit des Widerspruchs ergibt sich
die in der mathematischen Logik verbreitete Meinung, daß logische
und mathematische Wahrheit auf der Widerspruchslosigkeit beruhe.
Wahrheit ist jedoch nicht aus der Widerspruchslosigkeit deduzierbar, sondern umgekehrt Widerspruchslosigkeit aus der Wahrheit.
Ebenso wenig ist Falschheit aus dem Widerspruch deduzierbar, sondern umgekehrt der Widerspruch aus der Verknüpfung von Wahrheit
und Falschheit. Wahrheit und Falschheit sind daher die tatsächlichen
logischen Prinzipien. Sie definieren sich gegenseitig durch Negation
(Wahrheit = Nicht-Falschheit; Falschheit = Nicht-Wahrheit). Beide
zusammen definieren die Wahrscheinlichkeit als Wahr-Falschheit.
Nur aus dem dialektischen Prinzip der Wahr-Falschheit läßt sich sowohl Wahres wie auch Falsches ableiten.
11. Mathematische Logiker glauben auch, daß Wahrscheinlichkeit
als ein in mehrwertigen Logiken „zugelassenes Drittes“ neben der
Wahrheit und der Falschheit näher bei der Wahrheit als bei der
Falschheit stehe.
Die Wahrscheinlichkeit ist jedoch aus der (dialektischen) Synthese
von Wahrheit und Falschheit als Wahr-Falschheit deduzierbar. Somit
ist auch Wahrscheinlichkeit stets wahr und falsch zugleich. Das sogenannte Dritte ist daher selbst eine Form des Widerspruchs und somit
als besonderes logisches Prinzip überflüssig.
Allerdings ist zwischen logischer und mathematischer Wahrscheinlichkeit strikt zu unterscheiden. Das logisch Wahrscheinliche ist zu
gleichen Teilen wahr und falsch. Deshalb wird es (mathematisch)
auch als „50%-Wahrscheinlichkeit“ formulierbar und beim Münzwurf
anschaulich. Mathematische Wahrscheinlichkeit versucht, die wahren
und die falschen Anteile des Wahr-Falschen detailliert zu quantifizieren. Das resultiert zwar in statistischen (auf Datenmengen bezogene)
Wahrscheinlichkeitsquotienten, besagt jedoch nichts für den Einzelfall. Das wird beim Würfeln anschaulich gemacht. Auch auf die
mathematischen Wahrscheinlichkeiten ist vorrangig die logische
Wahrscheinlichkeit anzuwenden. Denn jeder „einzelne Fall“ von mehreren „möglichen Fällen“ tritt ein oder nicht. Logische und mathematische Wahrscheinlichkeitsurteile sind daher die Hauptformen unentscheidbarer Urteile.
IX
12. Logiker allgemein, daher auch die mathematischen Logiker,
gehen davon aus, daß die Dialektik – abgesehen von Platonischer
Kunst der Gesprächsführung – eine logische Methode des falschen
Denkens in Widersprüchen sei, die jede Urteils- und Theoriebildung
verfälsche.
Jedoch gerade in der Mathematik und in der mathematischen Logik
wird die Dialektik als Grundmethode des unanschaulichen bzw. überanschaulichen Denkens kultiviert. Paradoxien und Widersprüche als
Ergebnisse der Dialektik sind daher - als zugleich wahr und falsch –
keine Fehlanzeigen, sondern sie sind konstitutiv für die Mathematik.
Da die Dialektik jedoch auch eine logische Methode des kreativphantastischen Denkens und somit eine logische Methode der Erfindung und der Kreationen (Heuristik) ist, bereicherte sie seit jeher die
Mathematik mit neuen mathematischen Elementen.
13. Das zeigt wohl am besten die sogenannte Modallogik, die in der
mathematischen Logik eine besondere Konjunktur hat. Sie ist von
Aristoteles als „Logik des Zukünftigen“ konzipiert worden, wird jedoch mittlerweile ubiquitär eingesetzt.
Modallogik ist jedoch ein dialektischer Fremdkörper in der trivialen
Logik geblieben. Das „Mögliche“ ist die ontologische Domäne widersprüchlicher Begriffe. Es ist als „seiendes Nichts“ bzw. als „nichtseiendes Sein“ zu definieren. In der Begründung der mathematischen
Logik und in der Mathematik selber hat die Modallogik daher eine
bisher undurchschaute dialektische und kreative Funktion.
Die Relevanz der kritischen Bemerkungen zur klassischen und
mathematischen Logik und zur Mathematik selbst kann sich nur in
den sie anwendenden Wissenschaften erweisen, d. h. im Kontext der
gegenwärtigen und vergangenen Lage von Forschung und Lehre.
Deswegen wurde insbesondere auf die in der Wissenschaftstheorie seit
jeher vernachlässigten Zustände in der Lehre geachtet.
Diese haben einen weit unterschätzten Einfluß auf die Forschung
und ihre Erkenntniskapazität. Denn die Befassung allein mit der logischen und mathematischen Methodologie genügt nicht den Wissensanforderungen, die an den Wissenschaftstheoretiker zu stellen sind.
Hinzukommen muß eine solide Kenntnis des geschichtlichen Stoffes,
der das inhaltliche Wissen von und über die Wissenschaften ausmacht.
Diesem Thema wird daher in den folgenden historischen Teilen der
vorliegenden Schrift besondere Aufmerksamkeit gewidmet.
Der geschichtliche Stoff wird hier im Sinne einer Dogmengeschichte abgehandelt, wie das ansonsten noch in der Jurisprudenz und in den
Theologien üblich ist. D. h. aus den Ergebnissen der philosophie- und
wissenschaftsgeschichtlichen Forschung wird vor allem dasjenige aus-
X
gewählt und interpretiert, was auf die heutige Fachlage Bezug hat und
dazu geeignet ist, diese selber durchsichtiger zu machen.
Die entsprechende Interpretationsmethodologie wird im letzten Paragraphen über die Hermeneutik in den Geisteswissenschaften besonders herausgestellt. Die „dogmatische Hermeneutik“ erklärt, wie institutionell gestützte Sinngehalte durch regelgeleitete Interpretationen für
ihre Anwendung auf Glaubens-, Entscheidungs- und Lehrprobleme
aufbereitet werden. Die „zetetische Hermeneutik“ erklärt dagegen,
welche Wissensressourcen für wahre Interpretationen von Artefakten
in der geisteswissenschaftlichen Forschung aufgeboten werden müssen.
Der zweite Teil der vorliegenden Schrift behandelt zunächst die neuzeitlichen Motive zur Ausbildung einer besonderen philosophischen
Disziplin von den Wissenschaften unter dem gräzisierenden Titel
„Technologia“, die sich bei dem Schulphilosophen Clemens Timpler
1604 ankündigt. Zu seiner Zeit fließen eine Reihe von Interessenahmen und Beschäftigungsweisen mit Wissenschaften zusammen, nämlich bibliographische Bestandsaufnahmen, lexikalische Erörterungen,
politische Nutzenkalküle. Hinsichtlich der Wissenschaften ergibt sich
daraus eine Neuorientierung der Philosophie, die auf diesen Grundlagen Fundierungsversuche für die Einzelwissenschaften entwickelt.
Darin kündigt sich an, was erst im 20. Jahrhundert in der besonderen
Disziplin Wissenschaftsphilosophie zusammenläuft.
Der dritte Teil enthält in vier Abschnitten die für den Gegenstand
wichtigen Ideen und Beiträge der Antike, des Mittelalters, der Neuzeit
und der heute florierenden Schulen und Richtungen der Wissenschaftsphilosophie.
Vorweg sollte darauf hingewiesen werden, daß hier die Langzeitwirkung historischer Ideen in allen späteren wissenschaftlichen Verlautbarungen von Autoren vermutet und gegebenenfalls zum Verständnis herangezogen wird. Das unterscheidet die hier herausgestellten historischen Zusammenhänge von der sonst fachüblichen Methode, Einflüsse und Übernahmen nur in den Fällen anzunehmen, wo
Autoren selbst durch Zitat und andere Hinweise auf solche Inspirationen hingewiesen haben. Man unterschätzt jedoch dabei gewöhnlich den Anteil von Wissenstraditionen, die nicht in dokumentierter
Weise ihren Niederschlag gefunden haben, sondern als “tacid knowledge“ (M. Polanyi) im Lehrbetrieb und den dazu verwendeten Quellen lebendig waren, so daß sie selten überhaupt erwähnt werden
Der leitende Gedanke ist im übrigen, daß es für die abendländische
Wissenschaft von ihren Anfängen an auch in aller von den Philosophen angestrebten „Weisheit“ stets um wissenschaftliches Wissen ge-
XI
gangen ist. Dies könnte allerdings nur auf dem hier ausgesparten
Hintergrund des Vergleichs mit anderen Kulturen deutlicher sichtbar
werden, wo das wissenschaftliche Wissen allenfalls eines neben anderen, besonders soteriologischen Weisheitsformen war und teils noch
ist. Und selbst da, wo religiöse und zu Theologien ausgebaute Wissenskomplexe in den Vordergrund traten, sind diese stets wissenschaftlich unterfüttert und durch wissenschaftliche Kritik gezwungen
worden, sich in den Formen der Wissenschaften zu artikulieren.
Wo es viel Wissen gibt, das Anspruch auf Wahrheit macht, gibt es
auch viel falsches Wissen. Die übliche Einschätzung und die Erwartungen gegenüber den Wissenschaften laufen jedoch darauf hinaus,
daß der Anteil des wahren Wissens in allen Wissenschaften letztlich
nur zunimmt und der falsche Anteil eliminiert oder im Problematischen gehalten wird. Das ist, wie im ersten Teil deutlich gemacht
wird, selber falsch. Und wenn das so ist, ergibt sich die Aufgabe, auch
im gegenwärtigen Wissen die falschen Anteile kenntlich zu machen.
Damit halten wir für die Durchdringung des historischen Materials
einen der ältesten Gedanken der abendländischen Philosophie fest,
den Parmenides in seinem Lehrgedicht klar formuliert hat: Es gibt
„zwei Wege der Forschung“, nämlich den „Weg der Wahrheit“ und
den „Weg der Falschheit“.
Parmenides hielt das auf Einheit abzielende Seins-Denken für den
Weg der Wahrheit und die sinnliche Wahrnehmung des Vielfältigen
und Bewegten für den Weg der Falschheit. Er hat damit den Rationalismus in den Wissenschaften befördert und den Empirismus nachhaltig beeinträchtigt. Jedoch hat er damit Recht behalten, daß es diese
beiden Wege der Forschung gibt.
Unter modernen Bedingungen sind die Ausgangspunkte für die
Wege, die zur Wahrheit und zur Falschheit führen, in den metaphysischen Begründungen der wissenschaftlichen Theorien zu suchen. Sie
gehen letztlich von den zwei antagonistischen metaphysischen Grundeinstellungen, nämlich vom Realismus und vom Idealismus aus.
Ihr Gegensatz in der abendländischen Philosophie und Wissenschaft
ging stets um den Wahrheitsanspruch, den jede von ihnen für sich
behauptete, und den er seiner Alternative absprach. Beide begründeten
ihre Falschheitskritiken an der Gegenposition mit den bei den Gegnern ausgespähten Widersprüchen. Die Widersprüche in ihren eigenen
Grundeinstellung übersahen sie entweder geflissentlich, oder sie stellten sie als noch künftig „zu lösende“ Probleme dar.
Die Grundwidersprüche der realistischen und idealistischen Metaphysiken, von denen jeweils weitere abhängen, werden im § 40
herausgestellt. Wenn jedoch Widersprüche keineswegs nur falsch
sind, sondern auch einen Anteil von Wahrheit enthalten, so stellt sich
XII
das gegenseitige Verhältnis von Realismus und Idealismus anders dar,
als es bisher eingeschätzt wurde. Es kommt darauf an, ihre wahren
und ihre falschen Komponenten zu unterscheiden sowie die gemeinsamen wahren Komponenten festzuhalten und die falschen zu eliminieren.
Die falsche Komponente des Realismus ist schon genügend von der
idealistischen Kritik herausgestellt worden und deswegen wohlbekannt. Es ist die Behauptung, daß es hinter oder neben den Bewußtseinserscheinungen noch unerkennbare „Dinge an sich“ als eigentliche
Realität bzw. Wirklichkeit gäbe, die gänzlich unabhängig vom Bewußtsein seien.
Eliminiert man diese These, so bleibt die wahre Komponente des
Realismus übrig, die völlig mit der idealistischen Grundbehauptung
übereinstimmt. Es ist die These, daß Wissen nur durch ein wahrnehmendes und denkendes, sich erinnerndes und manchmal auch phantasierendes Bewußtsein zustande kommt, und daß es daher kein Wissen
von der Existenz und den Eigenschaften bewußteinsunabhängiger
„Dinge an sich“ geben kann. Auch I. Kant hat dies in der ersten
Auflage der „Kritik der reinen Vernunft“ betont, indem er die „Dinge
an sich“ als „Noumena“ (Denkgebilde) im Bewußtsein bezeichnete.
Die falsche These des Idealismus ist noch nicht herausgestellt und
geklärt worden. Sie besagt, daß auch das Bewußtsein ein Ding an sich
sei. Das ding-an-sichhafte Bewußtsein wird seit der Antike nach dem
Muster physikalischer Kräfte als Vermögen bezeichnet und seither in
den meisten psychologischen Theorien als selbstverständlich vorausgesetzt. Gleichwohl haben Naturkräfte und Bewußtseinsvermögen
stets etwas Gespenstiges an sich. Wenn sie wirken bzw. tätig sind,
wird ihre Existenz als Ursache für Effekte behandelt. Wenn sie nicht
wirken, sollen sie doch („virtuell“ oder „potentiell“) existent sein.
Gerade diese potentielle Existenz, die sich in keiner Weise manifestiert, macht dann ihren Ding-an-sich-Charakter aus.
Viele Idealisten postulieren für die Erforschung des Bewußtseins
eine besondere Aktart der „Reflexion“, durch die das Bewußtsein sich
selbst zum Gegenstand und damit als Ding an sich erkennbar mache.
Damit nicht zufrieden, postulieren einige sogar ein „präreflexives Bewußtsein“, das auch das Reflektieren erst ermögliche. Aber damit
steht es nicht besser als mit dem schon von Platon erfundenen „unbewußten Grund im Bewußtein“, aus dem mittels der Anamnesis, d. h.
der bewußten Wiedererinnerung, alle Ideen ins Bewußtsein überführt
werden könnten.
Es handelt sich hier um eine ebenso falsche optische Metapher wie
in der realistischen Widerspiegelungstheorie der ding-an-sichhaften
Außen- in der bewußten Innenwelt. Nämlich so, als ob das Bewußt-
XIII
sein sich selber bespiegeln könne und obendrein auch noch die Beleuchtung dazu liefere.
Eliminiert man die These über das ansichhafte Bewußtsein, so bleibt
die wahre Komponente der realistische These übrig, daß es Bewußtseins-Erscheinungen gibt. Es entfallen alle Thesen über die solche Bewußtseins-Erscheinungen angeblich bewirkenden sogenannten Seelenvermögen.
Das Resultat der sich dadurch ergebenden Überlappung von realistischer und idealistischer Erkenntnistheorie ist eine phänomenalistische
Erkenntnistheorie, wie sie erst in neuerer Zeit skizziert worden ist. Sie
enthält die gemeinsame Wahrheit des Realismus und des Idealismus
und schließt deren falsche Sätze aus.
Phänomenalismus ist jedoch nur eine Erkenntnistheorie. Damit ist
die Frage nach einer wahren metaphysischen Theorie, die neben der
Erkenntnistheorie auch die übrigen Grunddisziplinen begründet, noch
nicht beantwortet.
Hierzu ist induktiv von den Merkmalen der Axiome der Grunddisziplinen auszugehen. Es wird danach gesucht, was in deren axiomatischen Grundbegriffen als Gemeinsames und Identisches, mithin
als „generisches Merkmal“ neben ihren spezifischen Differenzen ausweisbar ist. Mit G. Berkeley definieren wir das (ontologische) Sein als
erkanntes Sein, d. h. als Idee. Und mit Fichte definieren wir Erkenntnis als Handlung, und umgekehrt. Darüber hinaus gilt es jedoch,
auch das Gemeinsame bzw. Identische von erkanntem Sein und getätigter Erkenntnis auf den Begriff zu bringen. Der Begriff ergibt sich
aus der Einsicht, daß getätigte Erkenntnis gar nichts anderes ist als
Seinserkenntnis; und umgekehrt, daß Seinserkenntnis nichts anderes
als Bewußtseinserscheinung ist.
Um dies Gemeinsame zu bezeichnen, haben wir die traditionelle
Bezeichnung „Idee“ oder „das Ideelle“ für das idealistische Prinzip
übernommen. Es bestimmt den Idealismus als wahre Metaphysik.
Um deutlich zu machen, um was es sich dabei handelt, wurde die
Entstehung und Entwicklung des abendländischen Idealismus in den
drei philosophiegeschichtlichen „Wendungen zum Subjekt“ herausgestellt. „Wendungen“ deshalb, weil der Idealismus sich gegen den Realismus durchzusetzen hatte, und weil sich in der Kritik am Realismus
erst allmählich zeigte, was Idealismus überhaupt ist.
Die erste Wendung war die sophistische und sokratische Wende
zum Subjekt, die Protagoras der klassischen griechischen Philosophie
vorgab („Der Mensch ist das Maß aller Dinge: der Seienden, daß sie
sind, und der Nichtseienden, daß sie nicht sind.“). Die zweite war die
Augustinische Wende („noli foras ire, in interiori homine habitat
veritas“ / „Gehe nicht nach außen, im inneren Menschen wohnt die
XIV
Wahrheit“). Die dritte war die neuzeitliche Wende zum Subjekt des
Nikolaus von Kues („Der Mensch als kleiner, schaffender Gott“). Sie
blieben die Grundlage der Cartesischen Cogito-Philosopie, der Leibnizschen Monadenlehre, des Kantischen transzendentalen Idealismus,
der Systeme des deutschen und europäischen Idealismus bis hin zu
einer wohlverstandenen Phänomenologie. Deren Spuren sind bis in
die verfremdenden Gestalten des Existentialismus, Konstruktivismus
und Dekonstruktivismus sowie zahlreicher Neo-Klassiker-Ismen in
den Geisteswissenschaften bemerkbar.
Die exponentiale Zunahme des wissenschaftlichen Personals in aller
Welt, die forcierte Spezialisierung aller Ausbildungszweige und die
damit verbundene Absenkung der wissenschaftlichen Standards läßt
das Phänomen Wissenschaft heute in etwas fahlem Licht erscheinen.
Insbesondere sind Probleme der Abgrenzung von Wissenschaft gegenüber allen anderen zivilisatorischen und kulturellen Institutionen angesichts der Verwissenschaftlichung aller Lebensverhältnisse immer
schwieriger und auch dringlicher geworden.
Die Übersicht über die gegenwärtig prominenten wissenschaftstheoretischen Richtungen bzw. Schulen, mit der die vorliegende
Schrift beschlossen wird, setzt bei deren Begründern und Meisterdenkern an und läßt allenfalls einige Perspektiven auf die gegenwärtige
Lage zu. Die meisten Schulen gehen dabei von den Naturwissenschaften aus und konzentrieren sich auf diese. Die Lage der Geisteswissenschaften ist dem gegenüber geradezu chaotisch. Deshalb ist die
Darstellung ihrer Probleme und Methodenansätze ausführlicher geraten. Hier galt es gewissermaßen noch Schneisen in unübersichtliches
Gelände zu schlagen.
Die metaphysische Grundlage der herrschenden Theorien der Geisteswissenschaften ist die Lebensphilosophie. Sie verdankt ihren Aufstieg im 19. Jahrhundert den großen Erfolgen der entwickelnden Biologie, aber zum Teil auch den weiterwirkenden Anstößen der romantischen Naturphilosophie, besonders der Philosophie Schellings.
Wilhelm Dilthey hat auf dieser lebensphilosophischen Grundlage
die Geisteswissenschaften auf den hermeneutischen Weg gewiesen.
Seine Maxime „die Natur erklären wir, das Seelenleben verstehen
wir“ hat hier überall gewirkt. Sein Verstehensbegriff als „Nacherleben
fremden Lebens“ steht überall noch in voller Geltung. Und doch
wurde dadurch ein Irrweg, ein zweiter Weg der Forschung im Sinne
des Parmenides, eingeschlagen.
Um diesen Irrweg zu markieren, wurden anhand der geisteswissenschaftlichen Leitwissenschaften, nämlich der Geschichtswissenschaft
und der Sprachwissenschaft, die lebensphilosophisch-metaphysischen
und die ontologischen und erkenntnistheoretischen Voraussetzungen
XV
der auch in den Geisteswissenschaften verbreiteten realistischen Auffassungen kritisch beleuchtet und mit der idealistischen Begründung
konfrontiert. Als Ergebnis zeigt sich, daß weder die Geschichtsschreibung noch die Sprachwissenschaft auf ein realistisches Wirklichkeitsfundament bauen können, obwohl sie in immer neuen Variationen die
„Verseinung“ der historischen Objekte der Vergangenheit und des
Sinngehalts der Laut- und Schriftsprachen betreiben. An deren Stelle
tritt der Nachweis des ideellen Gegenwartscharakters der sogenannten
res gestae und der sprachlichen Sinngebilde und Bedeutungen im
aktuellen kollektiven Bewußtsein.
Wie mit Sinngebilden und Bedeutungen methodisch umzugehen ist,
sollen die dann folgenden Überlegungen zur Hermeneutik zeigen.
Angesichts der ausufernden Hermeneutikdiskussion in der Wissenschaftstheorie der Geisteswissenschaften wurde zunächst an gemeinsame methodische Voraussetzungen, die die Geisteswissenschaften
mit allen anderen Wissenschaften teilen, erinnert.
Diese bestehen im Beschreiben und Erklären. Ihre Permanenz seit
ihrer Begründung durch Aristoteles auch in den heutigen Faktenfixierungen bzw. Datensammlungen und in den Erklärungsmethoden wird
aufgezeigt. Besonders dürfte die Permanenz des aristotelischen VierUrsachen-Erklärungsschemas und seine Ausgestaltung auch in den
modernsten Theorien auffallen.
Dabei erweist sich die naturwissenschaftliche Behauptung, daß nur
die Wirkursachen Erklärungswert besäßen, als irreführend. Ganz zu
Unrecht werden von dieser Seite nur die Wirkursachen im Verhältnis
zu Wirkungen als genuine „Ursachen“ anerkannt, während die teleologischen, die formalen und die materialen Ursachen in verfremdender
Terminologie immer noch in Anspruch genommen, jedoch in ihrer
Erklärungsfunktion verkannt werden. Zugleich aber wird auch der
Vorrang der teleologischen Erklärungen unter dem Titel des hermeneutischen Verstehens in den Geisteswissenschaften nachvollziehbar.
Aber auch diese geisteswissenschaftliche Erklärungsweise funktioniert nur im Zusammenhang mit den übrigen drei Ursachen, wie gezeigt wird.
Auch auf die Ausgestaltungen der Hermeneutiktheorien schlagen
metaphysische Begründungen durch. Idealistische Metaphysik hat
sich seit der Antike in der Voraussetzung niedergeschlagen, daß die
platonischen Ideen den unerschöpflichen Sinngehalt aller wahrnehmbaren Dinge, erst recht auch aller Artefakte menschlicher Produktionen ausmachen. Auf dieser Grundlage haben die Theologen und
Juristen ihre vorn erwähnten „dogmatischen Hermeneutiken“ entwickelt und ausgebaut. Bei ihnen kommt alles auf die zuverlässige
Gewinnung von Antworten auf Glaubens- und Rechtsfragen aus der
XVI
Hl. Schrift und den überkommenen Gesetzen als Sinnrepositorien an.
Die überschießende platonische Sinnfülle der dogmatischen Texte
wurde auf konkurrierende Sinnalternativen eingeschränkt, auf die die
dogmatischen Interpretationen verpflichtet wurden.
Diese eher eine Technik zu nennende Verwendung institutionengeschützter Texte wurde seit der Renaissance von den Philologen
auch auf die antike wissenschaftliche und philosophische Literatur
ausgeweitet. Auch hier wurden die autoritativen Übersetzungen,
Wörter- und Lehrbücher zu Dogmatiken, die für alle philologischen
Probleme konkurrierende Antworten und Lösungen bereitstellen.
Die Dominanz der philologischen und historischen Fächer in der
neuen von den mathematischen Naturwissenschaften getrennten Philosophischen Fakultät hat im 19. Jahrhundert auch die Philosophie in
solchem Ausmaß geprägt, daß sie fast gänzlich in Philosophiegeschichtsschreibung und Klassiker-Philologie aufging. Die philologisch-historische Orientierung wurde bis heute so selbstverständlich,
daß man ihre dogmatische hermeneutische Technik kaum noch wahrnimmt. Zumal ja im modernen Wissenschaftsverständnis alles „Dogmatische“ gegenüber dem Anspruch vorurteilsfreier Forschung und
Lehre als verdächtig und überwunden gilt.
Erst auf dem Hintergrund dieser idealistischen dogmatischen Hermeneutik entwickelt sich in der nachidealistischen Wende der Wissenschaften zum Realismus eine Forschunghermeneutik, die wir „zetetisch“ genannt haben. Dem Ideal der Gewinnung wahren Wissens
verpflichtet, versteht diese zetetische Hermeneutik das Verstehen
historisch-literarischer Dokumente als „Wahrheitsgeschehen“, in welchem sich dem Interpreten eindeutiger Sinn offenbaren soll.
Unsere Kritik an diesem Prozedere, das die realistische Unterscheidung von ding-an-sichhaftem Sinn des Interpretandums und seiner
nacherlebenden Beschreibung in der Interpretation voraussetzt, wird
in einer ausführlichen Analyse des Verstehensbegriffs ausgeführt. Wir
gehen davon aus, daß für das zetetische Interpretieren nur das idealistische Wahrheitskriterium der logisch-kohärenten komprehensiven
Konstruktion von Interpretationen anwendbar ist.
Gegen die „dialogische“ Erklärung des Verstehens, gemäß dem die
Texte „sprechen“, wird auf eine Eigenschaft von Texten und Artefakten hingewiesen, die sie mit optischen Spiegeln gemeinsam haben.
So wie nur das vor den Spiegel Hingestellte im Spiegel erscheint,
erscheint auch nur das in die Interpretation eingebrachte Wissen des
Interpreten vor dem Text als einheitlicher und kohärenter Sinn im
Text.
Im Schlußabschnitt wird auf eine Tendenz der neueren Geisteswissenschaften aufmerksam gemacht und unter den Titel der „Verkun-
XVII
stung der Geisteswissenschaften“ und zugleich der „Verwahrheitung
der Künste“ gestellt.
Diese Entwicklung dürfte die Konsequenz der Schellingschen Lebensphilosophie sein, wonach die Wissenschaften insgesamt erst dahin kommen müßten, wo die Kunst immer schon sei, und daß nur
durch Kunst die Wahrheit zu gewinnen sei. Damit wuchs ein Geniekult heran, der in den Künsten zum Virtuosentum und in den Geisteswissenschaften zur Figur des dichtenden Denkers bzw. des denkenden
Dichters führte. Die Spuren lassen sich von Kierkegaard über Nietzsche bis Heidegger und Gadamer aufzeigen.
Die Auszeichnung zahlreicher Geisteswissenschaftler und besonders
von Philosophen mit Nobelpreisen für Literatur und mit anderen
nationalen Literaturpreisen zeigt die Übereinstimmung dieser Tendenz
mit dem breiten internationalen Publikumsgeschmack. Sie hat mit der
68er Revolution des Hochschulwesens unter der Feyerabend-Maxime
des „Anything goes“ nochmals Verstärkung bekommen. Ihr vorläufiges Resultat zeigt sich u. a. auch im Bologna-Prozeß, der nach dem
Vorbild US-amerikanischer Liberal Arts-Fakultäten auf die Verschmelzung von Geisteswissenschaft und Kunst an den Universitäten
und an den Kunsthochschulen zur Eingliederung aller Kunstausbildung in neue „Universitäten der Künste“ führte. Hier gibt es seither
„creative art research“ als letzte Blüte des geisteswissenschaftlichen
Bildungssystems.
Auch die Philosophen haben sich dieser Tendenz angepaßt, wie an
einigen ihrer gerade deshalb als bedeutend angesehenen Repräsentanten gezeigt wird. Ihre Themen sind jetzt die Mythen der Vorzeit
und die „Geschichten“, die vormals in der Literatur publikumsnah
ausgebreitet wurden und den Verständnishorizont der sogenannten
Eliten für das abstecken, was die Geisteswissenschaften ihnen zu
bieten haben.
Düsseldorf, im Dezember 2015
XVIII
INHALTSVERZEICHNIS
Vorwort S. I - XVII
Inhaltsverzeichnis S. XVIII - XXV
1.
Einleitung: Die Grundideen S. 1- 183
§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und Wissenschaft S. 1
Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des „trivialen“ vom
„quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue „geisteswissenschaftliche“
Philosophische Fakultät. Philosophie als Fach im Verband mit den historischen und philologischen Studien
der neuen Philosophischen Fakultät. Historisierung und Philologisierung der geisteswissenschaftlichen
Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung
der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die
Notwendigkeit der Konsolidierung des Ideenpotientials der Philosophie für Serviceleistungen und
Interdisziplinarität in den Wissenschaften.
§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie S. 4
Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer
Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind. Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag
einer Architektonik der Wissenschaften.
§ 3 Wahrheit als Ideal der Wissenschaft S.7
Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen
Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die Vermischung der KulturbereichsIdeale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der
philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als
Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als
Nützlichkeit; erkenntnistheoretische Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Der realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile und Stärken und ihre Problematik.
§ 4 Wissen, Glauben und Intuition in den Wissenschaften S. 17
Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen Formen:
knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen
Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verkleidungen.
XIX
§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken S. 28
Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne Bildung
der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik. Ursprüngliche
Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken
und wissenschaftlichem Denken bezüglich der Begriffe von Wissen, Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame eine Lebenswelt der Laien und die vielen „möglichen
Welten“ der Wissenschaftler. Geschichte und Zukunft als mögliche Welten. Die vordergründige Welt der
Erscheinungen und die „Hinterwelten“ der Wissenschaft.
§ 6 Die alte und die reformierte Hochschulforschung und -Lehre S. 30
Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der
Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer
Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium im Baccalaureus-MagisterDoctorsystem und seine Modernisierung. Alte und neue Verständnisse der „Einheit von Forschung und
Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs.
Die Bildung und die Elite einst und jetzt.
§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik S. 43
Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik. Moderne
Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik, auch im Hinblick
auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer erneuerten klassischen Logik
und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler
Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung als definitorischer Ausdruck und als methodische Artikulationsform der
Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen.
Über Sprache und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen
guten Formalismus
§ 8 Über den Unterschied logischer und mathematischer Denkmethoden S. 67
Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von
Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und des extensionalen
Aspektes und die Verselbständigung von intensionaler und extensionaler Logik. Die Funktion der Dialektik
als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des
Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische
Verschmelzung der logischen Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion
der dreiwertigen Logiken.
§ 9 Die logischen und mathematischen Elemente S. 93
Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige
Induktion. Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion:
Kontrolle der korrekten Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der
logischen Deduktion des Zahlbegriffs und der hauptsächlichen Zahlarten. Die Primzahlberechnung. Die
Funktion der Buchstabenzahlen (Variablen) in der Mathematik. Unterscheidung der begriffs- und
ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre pyramidale
Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“
zwischen Urteils- und Schlußlehre. Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale
Formalisierung der Hegelschen „Phänomenologie des Geistes“ und einer logischen Zahlentheorie. Die
Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des Widerspruchs und des „Dritten“ und
die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit.
XX
§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften S. 137
Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter von
Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als widersprüchlicher
Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung des Nichts gewordenen
Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des noch nicht seienden Zukünftigen
im gegenwärtigen Sein. Die geschichtliche „Realität“ und das Zukünftige als ontologische Bereiche von
Möglichkeiten. Die Konstruktion der Notwendigkeit als unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs als Fusion von Wirklichkeit und Möglichkeit.
.
§ 11 Die Paradoxien der Wahrscheinlichkeit S. 148
Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit und die
mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen
Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle
der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit.
§ 12 Die Rolle der Modelle und der Simulationen in den Wissenschaften S. 152
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem
Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der
Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle.
Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der
geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle
bei der Entwicklung der physikalischen Disziplinen. Die Mathematisierung von Chemie, Biologie und
einiger Kulturwissenschaften. Die Parallele der Entwicklung von formalisierter Mathematik und formaler
Logik und die Frage von Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer
Axiomatik und Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen. Die KI-Forschung
(„Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer und Intelligenz. Weitere
Anwendungsbereiche der Computersimulation. Das Beispiel der Klima-Simulation.
§ 13 Die Bestimmung des wissenschaftlichen Wissens S. 176
Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches und wahrfalsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und Erkenntnisse. Die
Verkennung von Dokumentationen als Wissensbasen.
§ 14 Die Bestimmung von Wissenschaft S. 179
Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung. Wissensbasen
und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und Zusammenhang von
Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die Aufgaben der Forschung.
II. Zur Geschichte der Disziplin „Wissenschaftsphilosophie“ S. 184 - 192
§ 15 Das Aufkommen der Bezeichnung „Wissenschaftsphilosophie“ und die Tendenzen zur
Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie S. 184
Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien, der
Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und
Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der Wissenschaften. Die
Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften. Die Philosophie als Vernunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die Vorbilder der klassischen Methodologien
XXI
III. Zur Geschichte der Wissenschaftsphilosophie S. 193 - 319
A . Die Antike
§ 16 Die Vorsokratiker S. 193
Die Erfindung der Arché als Ursprung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und Subjekt
und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen zum Subjekt. Die
Entdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des dialektischen (widersprüchlichen) Begriffs. Der pythagoräische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt.
Das Sein der Atome und das Nichts des leeren Raumes bei Demokrit und seine Erfindung der Denkmodelle.
Das Nichts des Gorgias.
§ 17 Platon (437-347) S. 200
Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die Begriffe,
Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken als Noesis und
Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw. Modellen. Die Entdeckung
des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammenhang und als Institution der freien Künste. Der Zeitbegriff als „stehende Zahl“ und die Konstitution des
Vergangenen in der Wiedererinnerung.
§ 18 Aristoteles (384-322) S. 208
1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien als Fragen
nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft:
Das Vier-Ursache-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des
Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der Wissenschaften, a. die Begriffslehre, b. die
logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke.
§ 19 Euklid (um 300 v. Chr.), seine „Elemente“ und das Vorbild der Mathematik S. 250
Der platonische Charakter der Elemente als „dialektische Logik“. Vermeintliche geometrische Anschaulichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der arithmetischen Gebilde. Die
geometrischen und arithmetischen „Definitionen“. Die Gleichung als Ausdrucksmittel der mathematischen
Argumentation. Bekanntheit und Unbekanntheit der Zahlen und die Rolle der Buchstabenzahlen (Variablen). Die „Axiome“ als Definitionen. Die Theoreme als Behauptungssätze. Die Probleme als praktische
Konstruktionsaufgaben und als Methodenarsenale. Die Elemente und der philosophische „Mos geometricus“.
§ 20 Der Epikureismus S. 277
Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und
indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit als Grundlage des
guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der Freundschaften. Epikureismus
als Hausphilosophie der empirischen Ärzte.
§ 21 Die Stoa S. 280
Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philosophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das Wissenschaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwendung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier Kardinaltugenden des
Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes
Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen Philosophie als Hausphilosophie der
Juristen.
XXII
§ 22 Die Skepsis S. 301
Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische Urteilsenthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“.
Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit. Kritik der induktiven
Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“ der Begründung. Kritik der
Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen Kausaltheorien und die platonischidealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und
als Glaube.
§ 23 Der Neuplatonismus S. 307
Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische
Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des hierarchischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als
Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische Kausaltheorie. Die
Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte bei Philon von Alexandrien:
Buchstabensinn und philosophischer Hintersinn.
§ 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie S. 314
Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die
Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der
Metaphysiken. Das Gesetz der Evidenzialisierung der Archai.
B Das Mittelalter: Patristische und scholastische Wissenschaftslehre S. 320 - 386
§ 25 Der ideengeschichtliche Kontext S. 320
Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken Erbes im
Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“
der Theologie, Jursprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die
„Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die „2. Wende zum Subjekt“ bei
Augustinus.
§ 26 Aurelius Augustinus (354 - 430) S. 323
1. Die Begründung der christlichen Theologie als Wissenchaft vom Göttlichen. 2. Dialektische Dogmendefinition. 3. Die Seelenvermögen und die modellhafte Gotteserkenntnis im Spiegel der Seele. 4. Die
heilige Schrift und die wissenschaftliche Interpretation. 5. Das „Buch der Natur“ und die Erkenntnis der
sinnlich-phänomenalen Welt mittels der Zeit.
§ 27 Die Enzyklopädisten und die Tradition des antiken Wissens S. 332
Philosophiegeschichte bei Diogenes Laertios. Stobaios. Hesychios. Suidas. Athenaios. Eunapios. Die
Enzyklopädien der sieben freien Künste: Martianus Capella, Cassiodorus Senator, Isidor von Sevilla, Beda
Venerabilis, Vincenz von Beauvais und Gregor Reisch. Die Bedeutung des Boethius für die KlassikerTradition.
§ 28 Die scholastische Methode S. 337
Die Lectio oder Vorlesung als Hauptmittel der Lehre und Textvermehrung. Ihr Fortleben bis heute. Die
Disputatio oder Diskussion und der Seminarbetrieb. Ihr Fortleben in einigen akademischen Prüfungsverfahren. Die „Sic-et-Non-Methode“ oder „Quaestionenmethode“ als Forschungsmethode der Alternativen
von Wahrheit und Falschheit. Ihr Schema in den Dispositionen des Stoffes der großen „Summen“. Ihr
Fortleben im Gerichtsprozeß.
XXIII
§ 29 Der Universalienstreit und die Konstitution der wissenschaftlichen Objekte S. 341
Die neuplatonische bzw. platonistische Konstitution der Universalien als eigentliches Sein: „Universalia
ante rem“. Der logische Aristotelismus bzw. Nominalismus spricht nur den Dingen (res) und den Zeichen
eigentliches Sein zu und leitet die Universalien von diesen ab: „Universalia post res“. Die Perfidie der
Bezeichnng „Ideenrealismus“ für den platonischen Standpunkt bei den Aristotelikern. Die Konkordienformel des Albertus Magnus: „Universalia ante rem, in re et post rem“. Folgen für die Konstitution
von Geistes- und Naturwissenschaften.
§ 30 Glauben und Wissen. Die Begründung des Glaubens durch Wissen und des Wissens
durch Glauben S. 344
Glaubenswahrheit und wissenschaftliche Wahrheit: Die Philosophie als Dienstmagd der Theologie vs. die
Autorität der Vernunft. Die Begründung des Glaubens durch logisches Wissen. Die Definition des metaphysischen Prinzips bei Anselm und die Dialektik der Dogmen bei Abälard. Wissen und Glauben bei Thomas
von Aquin und Wilhelm von Ockham. Der Auftrieb des quadrivial-mathematischen Studiums des „Buches
der Natur“ als Glaubens- und Wissensquelle. Die Rationalisierung der Dogmen durch die Mathematik bei
Roger Bacon und Nikolaus von Kues. Die Synthese des Nikolaus von Kues: die Docta ignorantia als
höchste mathematische „Vernunfteinsicht“. Die Lösung des Begründungsproblems: Jede Wissenschaft hat
Glaubensvoraussetzungen. Die skeptische und stoische Begründungen des wissenschaftlichen Wissens
durch (wahrscheinliche) Meinung. Dogmatisierung der Wissenschaft und Verwissenschaftlichung der
Theologie. Logik und Mathematik als Reservate der Wissens-Gewißheit.
§ 31 Der Ausbau der formalen Methoden der Wissenschaft: die „Triviallogik“ und die neue
„Quadriviallogik“ der Mathematik S. 368
Die Präsenz der aristotelisch-stoischen Logik und der euklidischen Mathematik im scholastischen Lehrprogramm der Philosophischen Fakultät. Univozität bei Johannes Duns Scotus und Analogie bei Thomas
von Aquin als Paradigmen regulärer und widersprüchlicher Begriffsbildung. Die euklidisch-mathematische
Logik bei Raimundus Lullus. Veranschaulichung der arithmetischen Begriffe durch geometrische Darstellungen und ihre Formalisierungen. Die Null und das Infinitesimal-Infinite als „Zahl und zugleich NichtZahl“. Euklidisch-mathematische Logik als „höchste dialektische Vernunfteinsicht“ bei Nikolaus von Kues
und Kant. Das Auseinandertreten der trivialen Logik und der euklidisch-quadrivialen Logik.
C. Die Wissenschaftsphilosophie der Neuzeit S. 387 - 452
§ 32 Allgemeine Charakteristik der Tendenzen S. 387
Antike Wissenschaften als Vorbilder der neuzeitlichen Wissenschaften. Die Osmose der Paradigmen. Die
Spezialisierung der Wissenschaftler und das Aufkommen des Genie-Kultes der „göttlichen“ Schöpferpersönlichkeit. Die humanistische Wende zum Subjekt. Antischolastizismus und neue Scholastik in den
neuen Universitäten und außeruniversitären Institutionen.
§ 33 Die „humanistische“ Wende zum Subjekt S. 389
Der Renaissance-Humanismus als dritte Wende zum Subjekt. Die „klassische Philologie“ als Vermittlungsinstitution des antiken Wissens. Die Präponderanz des geistigen Wesens des Menschen. Der neue
(platonische) Idealismus bei Descartes, im englischen Idealismus, bei Malebranche, Spinoza und Leibniz.
Vom geistigen Wesen des Menschen zum „transzendentalen Subjekt“ und zum „Weltgeist“. Von der
Geisteswissenschaft zu den modernen Geisterlehren.
§ 34 Der Antischolastizismus der Renaissance S. 391
„Ad fontes!“ oder die Jagd nach den Dokumenten der Antike. Die philologische Textforschung und die
Reformation. Antischolastizismus als protestantische Kritik an der katholischen Theologie und ihrer
Indienstnahme der Wissenschaften. Die Wiederbelebung der antiken quadrivialen Wissenschaften und ihre
Stilisierung als Überwindung scholastischer Irrtümer. Zeugnisse aus J. F. Fries „Geschichte der
Philosophie“ von 1848. Neuere Korrekturen und das Fortwirken des Antischolastizismus im Antihistorismus der modernen Mathematik und Naturwissenschaften.
XXIV
§ 35 Die Methodenentwicklung der Natur- und Geisteswissenschaften: Empirische Datensicherung und theoretische Erklärung der Phänomene S. 396
Die Ausgestaltung der platonischen „freien Künste“ zu den neuzeitlichen Geistes- und Naturwissenschaften. Ihre aristotelische Stufung in beschreibende „Graphien“ als Basis und erklärende Zusammenhangsstiftung als theoretischer Überbau. Die vermeintliche Überwindung der aristotelischen Vier-Ursachenerklärung. Deren Fortwirkung und Ausgestaltung in platonisch-dialektischer (mathematischer) Begriffsbildung in der klassischen Mechanik und Dynamik von Cusanus über Kopernikus, Kepler, Galilei,
Descartes, Leibniz bis Newton und d‟Alembert. Die hermeneutische Vier-Ursachenerklärung in den
Geisteswissenschaften. Der Entwicklungsgedanke als neuzeitlicher Ersatz der Vier-Ursachenkonzeption.
§36 Die Vereinseitigung der deskriptiv-empirischen und der theoretischen Forschungsmethodologien, ihre philosophischen Begründungen und ihre Folgen für die Lage der
Natur- und der Geisteswissenschaften S. 414
Die historische Kategorisierung eines kontinentaleuropäischen Rationalismus und angelsächsischen
Empirismus steht im Widerspruch zur handwerklich-experimentellen und theoretischen Grundlage der
Naturwissenschaften und zur historischen und systematischen Ausrichtung der Geisteswissenschaften.
Methodische Vereinseitigungen von Empirie und Theorie in der Wissenschaftstheorie und ihre Fortwirkung bis zum Positivismusstreit. Die vorbereitende Rolle der ontologischen Zwei-Weltenlehre seit
Descartes für das Gegenstandsverständnis der Geistes- und Naturwissenschaften. Die Folgen der Spaltung
der Philosophischen Fakultät im 19. Jahrhundert an der Nahtstelle von Trivium und Quadrivium für die
Ausdifferenzierung von Einzelwissenschaften in der Philosophischen und in der Mathematisch-Naturwissenschaftlichen Fakultät sowie in den Technischen Hochschulen. Ihre Mehrfach-Studiengänge und die
Ein-Fachstudien in den ehemals „Höheren Fakultäten“ und ihren Ausgründunge
§ 37 Die Ausbildung der „-Ismen“ als Charakterisierungsmittel wissenschaftlicher Globalsysteme S. 423
Die antiken und mittelalterlichen Kennzeichnungen von Denkweisen und Weltanschauungen nach
Schulen, ihren Vordenkern und nach Schulorten. Die neuzeitliche Philosophiegeschichtsschreibung (J. J.
Brucker) und ihre Systembezeichnungen auf der Grundlage des mos geometricus. Die „evolutionären
Systeme“ seit Schelling und Hegel. Übersicht der geläufigen Ismen.
§ 38 Die Verselbständigung der Einzelwissenschaften und ihre Folgen für die Ausbildung
der modernen Metaphysiken S. 427
Prekäre Verdeutlichung der Systemprinzipien durch Kritik und Polemik der Systeme untereinander.
Plausibilität der Axiombedeutung durch Deduktion in jeweils anderen Systemen. Das Friessche („Münchhausen-“) Trilemma. Woher die „Dogmen“ für dogmatische Begründungen herstammen. Die moderne
Verabsolutierung der einzelwissenschaftlichen Potentiale. Moderne realistische Metaphysiken als
Physikalismus, Biologismus und Psychologismus. Moderne idealistische Metaphysiken als Pragmatismus, Empirismus-Historismus und Rationalismus.
§ 39 Realismus und Idealismus in der Wissenschaftsphilosophie S. 434
Die Widersprüchlichkeit des klassischen realistischen Prinzips: Dinge an sich als unerkennbar-erkannte
Wirklichkeit. Die Widersprüchlichkeit des klassischen idealistischen Prinzips: Pychische Vermögen als
tätig-untätige Subjektbestimmungen. Die Tilgung der Negationen in den widersprüchlichen Prinzipien
und die Induktion des idealistischen Prinzips: Die Identität der positiven Merkmale des realistischen
und idealistischen Prinzips. Der gereinigte Idealismus als wahre phänomenalistische Metaphysik.
XXV
D. Die gegenwärtigen wissenschaftstheoretischen Schulen bzw. Strömungen S. 453 612
§ 40 Der logische Empirismus bzw. die Analytische Philosophie S. 453
Zur Geschichte. Metaphysische Grundlagen. Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Die Einheit der Wissenschaft. Das Sinnkriterium wissenschaftlicher Sätze. Die wissenschaftliche Erklärung. Wahrscheinlichkeit. Theoriendynamik. Das Bedeutungsproblem. Kritik der
Theorien von Frege, Carnap, Tarski, Quine, Goodman, Putnam, Dummet und Davidson
§ 41 Der kritische Rationalismus S. 475
Kritischer Rationalismus als Filiation der Analytischen Philosophie. Zur Geschichte. Metaphysische
Grundlagen. Der Wissenschaftsbegriff K. R. Poppers. Zur Methode der Falsifikation. Zentrale Probleme: Das Demarkationsproblem. Die Bewährung von Theorien. Das Begründungsproblem. Wahrheit
und Wahrscheinlichkeit. Die evolutionäre Wissenschaftsentwicklung nach Th. S. Kuhn. Das LeibSeeleproblem bei Popper und Eccles.
§ 42 Der Konstruktivismus S. 483
Der Ausgang von Konstruktionshandlungen im Handwerk und in der Experimentalphysik. Zur Geschichte: J. G. Fichtes Pragmatismus. Hugo Dingler, Paul Lorenzen, die intuitionistische Mathematik
und der französische Konventionalismus Pierre Duhems, Jules Henri Poincarés und LeRoys. Die konstruktivistische Enzyklopädie: Jürgen Mittelstraß und seine Mitarbeiter. Metaphysische Grundlagen.
Der Wissenschaftsbegriff. Zur Methode. Zentrale Probleme: Das Begründungsproblem. Das Problem
der Protophysik. Das Problem der Wissenschafts- und Philosophiegeschichte.
§ 43 Die „kritische Theorie“ der Frankfurter Schule und der dialektische Materialismus
S. 493
Zur Geschichte: das Frankfurter Institut für Sozialforschung unter Horkheimer und Adorno und seine
Entwicklung. Staats- und Parteimarxismus in der ehemaligen DDR und der Marxismus in der BRD.
Politische Maximen. Metaphysische Grundlagen: der dialektische Materialismus von Marx und Engels
und der naturwissenschaftliche Materialismus und Monismus. Die Ausgestaltung der Hegelschen Dialektik. Der Wissenschaftsbegriff. Zur Methode: der Universalzusammenhang des Wissens. Die kritische Hinterfragung. Die Vermittlung der Gegensätze. Zentrale Probleme. Die Einheit und Klassifikation der Wissenschaften. Die Gesetzlichkeit der Wissenschaftsentwicklung und ihre Planung. Das
Wahrheitsproblem. Die Parteilichkeit und der Wahrheitsdiskurs.
§ 44 Die Wissenschaftstheorie der Geisteswissenschaften in der Lebensphilosophie,
Phänomenologie und in der Existenzphilosophie: Die Hermeneutik des Strukturalismus und die postmoderne Dekonstruktion S. 509 - 612
Zur Geschichte: Schellings Lebensphilosophie und ihre Entfaltung im 19. Und 20 Jahrhundert. Nietzsche, Dilthey, Spencer, Bergson. Metaphysische Grundlagen 514. Der Wissenschaftsbegriff 519. Die
Sprachwissenschaft von de Saussure bis Derrida 530. Die Geschichtswissenschaft 531. Methodenlehre
535. Zentrale Probleme und Themen: Einheit und Klassifikation der Wissenschaften 546. Die Entwicklung der Wissenschaften 547. Erkenntnistheoretische und ontologische Grundlagen 550. Hermeneutik als allgemeine Methodenlehre des Verstehens 555. Dogmatische Hermeneutik und ihre Kanons
in den Geisteswissenschaften, insbesondere in der Theologie 561, Jurisprudenz 562, Ökonomik 564,
hinsichtlich der klassischen Literatur 565 und in der Mathematik 565. Zetetische Hermeneutik und ihre
Kanons vor allem in den geschichtlichen Geisteswissenschaften 575. Das Verstehen 579. Wahrheit in
der Sprache 583. Die Verkunstung der Geisteswissenschaften und die Verwahrheitung der Kunst 588.
Heidegger u. a. als denkende Dichter 597. Die Kunst als wissenschaftliche Forschung 607 - 612.
I. Einleitung: Die Grundideen
§ 1 Die Stellung der Wissenschaftsphilosophie im Studium der Philosophie und
Wissenschaften
Die traditionelle Stellung der Philosophie als Propädeutik der Studien in den sogenannten höheren
Fakultäten Theologie, Jurisprudenz und Medizin. Philosophie als Inbegriff der Studien der alten
Philosophischen Fakultät. Die Veränderungen im Laufe des 19. Jahrhunderts: die Trennung des
„trivialen“ vom „quadrivialen“ Teil der Philosophischen Fakultät. Trivialphilosophie als neue
„geisteswissenschaftliche“ Philosophische Fakultät. Philosophie als Fach im Verband mit den
historischen und philologischen Studien der neuen Philosophischen Fakultät. Historisierung und
Philologisierung der geisteswissenschaftlichen Philosophie. Die neue Mathematisch-Naturwissenschaftliche Fakultät ohne Philosophie. Die Entwicklung der Wissenschaftsphilosophie als Propädeutik der mathematischen Naturwissenschaften. Über die Notwendigkeit der Konsolidierung des
Ideenpotientials der Philosophie für Serviceleistungen und Interdisziplinarität in den Wissenschaften.
Zu den Gestalten, in denen heute die Philosophie auftritt, gehört als bekannteste
das Fach Philosophie im Rahmen der anderen Fachwissenschaften, vor allem der
manchmal noch so genannten Philosophischen Fakultät. Ihre einstmals propädeutische Funktion für das Studium anderer Fachwissenschaften ist seit etwa zweihundert Jahren institutionell der Oberstufe der Gymnasien anvertraut worden, wo
sie sich noch als didaktische Befassung mit den philosophischen Klassikern und
gelegentlich auch mit modernen philosophischen Strömungen nützlich macht.
Gleichwohl ist Philosophie in ihrer propädeutischen Funktion nicht gänzlich
aus den Kurrikula der Fachwissenschaften verschwunden. Deren Lehrbücher und
einführende Lehre können auch heute nicht auf Hinweise auf philosophische
Klassiker und auf deren grundlegende Ideen und maßgebliche Methoden verzichten. Zumal der Appell, daß es in jedem Fach „logisch“ zugehen müsse - neben den
Bereichen, wo es „mathematisch“ zugeht - ruft Erinnerungen an die Philosophie
hervor, zu deren Bereichsdisziplinen die Logik noch immer als Methodenlehre
gehört.
Im allgemeinen aber haben sich alle Fachwissenschaften ihre eigenen Propädeutika geschaffen, in denen das philosophische Element kaum noch erkennbar
ist. Und ebenso unerkennbar wird es gewöhnlich auch bei manchen Forschungserträgen der Einzelwissenschaften, wo es gewöhnlich in spezifische Fachterminologien eingekleidet ist.
Philosophie ist also auch in den Fachwissenschaften schon immer präsent, ob
erkannt oder unerkannt. Es bedeutet daher keine Einmischung der Philosophie in
die Bereiche und Belange der Einzelwissenschaften, wenn sie daran anknüpft und
das Ihre dazu beiträgt, diese Bestände bewußt zu machen und auf ihre Weise zu
deren Klärung und Konsolidierung beizutragen.
Doch ist Philosophie bekanntlich ein weites Feld, das selber im Zuge der „Verwissenschaftlichung“ in vielerlei Bereiche ausgeweitet und in Spezialdisziplinen
2
gegliedert worden ist. Einer dieser Bereiche betrifft das Verhältnis der Philosophie
zu den Einzelwissenschaften, von denen sich die meisten erst seit dem 19.
Jahrhundert von der Philosophie getrennt haben. Am weitesten haben sich die
ehemals „quadrivialen“ Anteile der Philosophie, also dasjenige, was sich seit Beginn des 19. Jahrhunderts als „Mathematisch-Naturwissenschaftliche Fakultät“
verselbständigte, von der Philosophie getrennt. Und so ist es auch kein Wunder,
daß die Mathematiker und die Naturwissenschaftler, die in der Regel keine Philosophen unter sich duldeten und ihnen keine propädeutische Stellung in den neuen
Mathematisch-Naturwissenschaftlichen Fakultäten einräumten, am meisten das
Bedürfnis spürten, sich ihre eigene fachnahe Philosophie zu entwickeln. Diese
Philosophie bildete sich seit Beginn des 20. Jahrhunderts als „Wissenschaftsphilosophie“ der mathematischen Naturwissenschaften aus und ist seither ein Schwerpunkt der Bemühungen der neuen philosophischen Disziplin „Wissenschaftstheorie“ bzw. „Wissenschaftsphilosophie“ geblieben.
Das Verhältnis der Philosophie zum ehemals „trivialen“ Teil ihrer Disziplinen,
die sich seit Beginn des 19. Jahrhundert in den neuen „Philosophischen Fakultäten“ (einschließlich des Faches „Philosophie“) und darüber hinaus in den alten
„höheren Fakultäten“ Theologie und Jurisprudenz als „Geisteswissenschaften“
etablierten, ist demgegenüber immer vergleichweise eng geblieben. Zeitweise war
es so intim, daß die Philosophie des 19. Jahrhunderts geradezu nur noch als Philologie und Geschichte der philosophischen Klassiker, also gleichsam als Teilbereich der Philologien und Historiographien Bestand hatte. Und diese Tendenz
ist auch heute noch stark genug, um der Gestalt der Philosophie an so manchen
philosophischen Fakultäten und Fachbereichen den Anschein zu verleihen, sie sei
gerade nichts anderes mehr als Philosophiegeschichte und Klassiker-Philologie.
Gerade diese Nähe zu den Geisteswissenschaften oder vielmehr die Integration
der Philosophie in die Geisteswissenschaften hat lange verhindert, daß die
Philosophie ein entsprechend distanziertes Verhältnis zu den Philologien und
Historiographien entwickelte und eine „Wissenschaftsphilosophie der Geisteswissenschaften“ als Bereichsdisziplin entwickelte. Erst seit einigen Jahrzehnten
wird dies unter dem Titel der „Hermeneutikdebatte“ nachgeholt.
Es liegt aber auf der Hand, daß eine „Philosophie der Wissenschaften“ zugleich
und gleichmäßig sowohl eine „Wissenschaftstheorie“ der mathematischen und
nicht-mathematischen Naturwissenschaften wie auch der logischen (und manchmal unlogischen) Geisteswissenschaften sein muß. „Wissenschaftstheorie“ wird
diese Disziplin in Analogie zur älteren „Erkenntnistheorie“ genannt, obwohl es
sich in beiden Fällen keineswegs um eine Theorie, sondern um viele Theorien
handelt, die in der Disziplin der „Wissenschaftsphilosophie“ (engl.: Philosophy of
Science) verwaltet, diskutiert und auch neu entwickelt werden.
Eine solche Spezialphilosophie mit Blick auf die Wissenschaften ist also noch
relativ neu und weit davon entfernt, in wünschenswerter Weise konsolidiert zu
sein. Man kann heute allenfalls davon sprechen, daß gewisse Theorienbestände
über die exakten Naturwissenschaften weiter entwickelt sind und daher eher als
3
konsolidiert gelten als derjenige Teil, der auf die Reflexion der Geisteswissenschaften ausgerichtet ist.
Die Wissenschaftsphilosophie arbeitet mit dem Ideenpotential, das das Fach
Philosophie insgesamt in seinen geschichtlichen und systematischen Dimensionen
bereitstellt, und bündelt es gleichsam in Hinsicht auf die Einzelwissenschaften mit
ihren je eigenen Problem- und Erkenntnisbeständen.
Auf diese Weise wächst der Wissenschaftsphilosophie bei der üblichen Studienorganisation im Hochschulbetrieb eine hervorgehobene interdisziplinäre Stellung zu. Man studiert - als Erbschaft des alten Studienstils in den Fakultäten, in
denen man wie jetzt noch in der Jurisprudenz, Medizin und Theologie alle
beteiligten Fakultätsdisziplinen zu studieren hatte -, mindestens eine, gewöhnlich
zwei, oftmals (und besonders im Ausland) auch mehrere Fakultätswissenschaften
neben dem Fach Philosophie und bringt somit immer schon eine gewisse Vertrautheit mit dem Wissensstand wenigstens der einen oder anderen Fachwissenschaft mit. Die Wissenschaftsphilosophie ist dann die sich anbietende Schwerpunktdisziplin, die anstehenden methodischen und enzyklopädischen Voraussetzungen dieser Fachwissenschaften im Lichte allgemeiner philosophischer Gesichtspunkte zu erörtern und zu vertiefen. Aus der Architektonik der philosophischen Disziplinen läßt sich auch vorgängig schon erkennen, auf welche Gesichtspunkte es dabei wesentlich ankommt.
Jede Einzelwissenschaft macht grundsätzlich metaphysische Voraussetzungen,
die als „Letztbegründungen“ gewöhnlich im Fach selbst kaum mehr erkannt und
demnach auch nicht diskutiert werden. Weiterhin setzt sie sich ontologische
Rahmungen für die Abgrenzung ihres Gegenstandsgebietes von den Gegenständen der übrigen Einzelwissenschaften. Nicht minder gehen erkenntnistheoretische, praxeologische und anthropologische Vorgaben in die Konstitution jeder
Einzelwissenschaft ein, die gewöhnlich als so selbstverständlich und natürlich gelten, daß man höchstens in Krisenlagen eines Faches auf sie aufmerksam wird.
In der Tat jedoch schreiben die verschiedenen Einzelwissenschaften in der Regel
ziemlich altüberkommene philosophische Grundlagentheorien aus der Geschichte
der Metaphysik, Ontologie, Erkenntnistheorie, praktischen Philosophie und
philosophischen Anthropologie fort. Und um darauf aufmerksam zu werden und
dementsprechend auch Neuerungen in diesen Feldern benutzen und anwenden zu
können, muß und kann man bei diesen Erwägungen immer wieder die ganze
Philosophiegeschichte zurate ziehen.
So können wir zusammenfassend feststellen: Als Bereichsphilosophie gehört
die Wissenschaftsphilosophie zu denjenigen Disziplinen der Philosophie, die das
Studium der philosophischen Grunddisziplinen Ontologie, Erkenntnistheorie einschließlich der Logik, philosophische Anthropologie und Praxeologie sowie der
Metaphysik voraussetzen und deren Ideenpotentiale für die Reflexion auf die
Einzelwissenschaften bündeln. Sie faßt affine Probleme, Thematiken und Voraussetzungen dieser Grunddisziplinen für die philosophische Grundlegung der
Einzelwissenschaften und die spekulative Durchdringung der ihnen zugeordneten
4
Wirklichkeitsbereiche zusammen. Sie ist darum auch für die Selbstreflexion der
Einzelwissenschaften und die philosophische Vertiefung ihres Studiums eine wesentliche Voraussetzung.
§ 2 Die Stellung der Wissenschaftsphilosophie in der Architektonik der Philosophie
Die Wissenschaftsphilosophie als Bereichsdisziplin der Philosophie. Die Bündelung grunddisziplinärer Voraussetzungen der Metaphysik, Ontologie, Erkenntnistheorie, philosophischen Anthropologie und praktischen Philosophie und die Organisation des Ideenpotentials für die Anwendung
in den Einzelwissenschaften. Anknüpfung an diejenigen Grundbegriffe und Ideen der Wissenschaften, die schon in die geschichtlichen Begründungen der Wissenschaften eingegangen sind.
Die Klärung der philosophischen Voraussetzungen der Einzelwissenschaften als Aufgabe der allgemeinen Wissenschaftsphilosophie. Vorschlag einer Architektonik der Wissenschaften
Eine Architektonik der Philosophie macht den Voraussetzungszusammenhang der
Disziplinen und Einzelwissenschaften und ihr Verhältnis zu ihren Gegenstandsbereichen deutlich. Ihre Struktur spiegelt sowohl historische wie systematische
Zusammenhänge in der Philosophie wider.
Philosophie beginnt bei den Vorsokratikern mit metaphysischen Problemstellungen, und sie entwickelt sich im Laufe ihrer Geschichte zu immer differenzierterer Problembetrachtung in Grund- und Bereichsdisziplinen, aus denen sich
ihrerseits die meisten Einzelwissenschaften ablösen und verselbständigen.
Der systematische Zusammenhang ist u. a. auch ein logischer: Die Benennungen
der Disziplinen und Wissenschaften gliedern sich in ein Gattungs-, Art- und
Unterartgefälle und stellen eine Klassifikation der Wissenschaften dar. Das allgemeinste „metaphysische“ Ideenpotential erhält sich im jeweils untergeordneten
Besonderen als „generischer“ Ideenbestand und wird hier spezifiziert.
Ontologie setzt Metaphysisches voraus als Vorbegriff von Wirklichkeit, die nun
näher nach Wirklichkeitsbereichen oder Wirklichkeitsschichten spezifiziert wird.
Philosophische Anthropologie setzt ein metaphysisches „Wesen des Menschen“
voraus und spezifiziert es nach seinen Anteilen an ontologischer Wirklichkeit
bzw. nach Vermögen, Kräften und Anlagen. Erkenntnistheorie (Gnoseologie)
setzt die beiden metaphysischen Pole eines (ontologischen) Erkenntnisgegenstandes und eines (anthropologischen) Erkenntnissubjektes voraus und spezifiziert
deren Verhältnisse zueinander. Praktische Philosophie (Praxeologie) ergänzt die
„theoretischen“ Aspekte des Verhältnisses von menschlicher zur übrigen Wirklichkeit um die Aspekte des Handelns und Schaffens, der Eingriffe und Verflochtenheit des menschlichen Subjektes in die objektive Wirklichkeit.
5
Was in diesen Grunddisziplinen als Erkenntnis- und Ideenvorrat erworben wurde,
wird seinerseits Voraussetzungspotential für die Bereichsdisziplinen. Natur,
Kultur und Sinngebilde sind spezifizierte ontologische Bereiche, die in jeweils
speziellen Formen, Mustern, Schematen von Menschen erkannt und handelnd
durchdrungen werden. In diesem Bemühen hängen die Bereichsdisziplinen der
Philosophie und die Einzelwissenschaften aufs engste zusammen und sind auf
vielen Forschungsgebieten kaum von einander zu trennen.
Dieser Zusammenhang der philosophischen Disziplinen und der Wissenschaften ist in der Wirklichkeit selber begründet, die grundsätzlich eine einzige ist. Die
Wissenschaften betrachten und erforschen einzelne Teile dieser Einheit.
Aber aus ihrer traditionellen Arbeitsteilung heraus neigt jede Einzelwissenschaft dazu, ihren Wirklichkeitszuschnitt als einen selbständigen und von den
Gegenständen der anderen Wissenschaften unabhängigen Gegenstand anzugehen.
Eine solche Unabhängigkeit kann es aber nicht geben. Die Verbindungen jedoch,
durch die sie zusammenhängen, bleiben gewöhnlich im blinden Fleck ihrer
Sichten. Es sind gerade die philosophischen Disziplinen und letzten Ende die
Metaphysik, deren Blick einzig und allein auf das Ganze der Wirklichkeit gerichtet ist und diese Einheit zum Thema macht.
Machen wir einen Vorschlag zu einer solchen Architektonik. Ihre philosophische Ausgangsdisziplin ist also die Metaphysik als Kerndisziplin der allgemeinsten Prinzipien der Philosophie bzw. der Gesichtspunkte aller Weltanschauungen. Sie liefert die speziellen Ausgangsgesichtspunkte für die vier Grunddisziplinen Ontologie (Wirklichkeitslehre), philosophische Anthropologie (philosophische Lehre vom Menschen, nicht mit der biologischen und medizinischen
Anthropologie zu verwechseln), Erkenntnistheorie (Erkenntnislehre) und praktische Philosophie (Lehre vom Handeln und Schaffen, nicht mit praktischem Philosophieren zu verwechseln).
Aus ihnen stammen die Leitgesichtspunkte für die sogenannten Bereichsdisziplinen. Diese stehen in engstem Kontakt mit den Einzelwissenschaften und
können daher nicht ohne deren einschlägiges Fachwissen entwickelt, studiert und
gelehrt werden. Zur Klassifizierung der Bereichsdisziplinen und der ihnen zugeordneten Einzelwissenschaften dienen in der Regel ontologische Abgrenzungen
von Wirklichkeitsbereichen als deren Forschungsobjekten.
Die in Europa älteste und bis heute geläufig gebliebene ontologische Unterscheidung ist diejenige in Natur- und Geisteswissenschaften. Davon wird in den
folgenden Paragraphen noch vielfach die Rede sein. Diese Unterscheidung knüpft
an die traditionelle Vorstellung der Trennbarkeit von materieller Natur und immateriellen psychischen bzw. geistigen Gegebenheiten an. Darunter stellte man sich
früher Seelen und Geister, Engel und Götter oder den Gott, später auch Bewußtsein und Bewußtseinsinhalte als rein geistige Gebilde vor. So wurde „Geisteswissenschaften“ gemeinsame Bezeichnung für die wissenschaftliche Befassung
mit solchen Gebilden.
6
An diese traditionelle Grundunterscheidung anknüpfend, sei hier eine weitere
Unterscheidung innerhalb der Geisteswissenschaften vorgeschlagen, die den modernen Entwicklungen Rechnung trägt. Es ist die Unterscheidung zwischen reinen
Sinngebilden (Ideen, Formen, Normen) die von einer materiellen Naturunterlage
als deren „Träger“ genau unterscheidbar sind, und demjenigen, was man Kultur
(das Gesamt der Artefakte) nennt. Kultur als ontologischer Wirklichkeitsbereich
ist dadurch gekennzeichnet, daß sich Geistiges als Sinn und Bedeutung“ mit
natürlichen Trägern dieses Sinnes verbindet und gleichsam amalgamiert. Mit
dieser Unterscheidung haben wir es folglich mit drei philosophischen Bereichsdisziplinen und entsprechend mit drei Gruppen von Wissenschaften zu tun: Naturwissenschaften, Kulturwissenschaften und Sinngebildewissenschaften.
Naturphilosophie umfaßt weiter spezialisiertes Forschungsbemühen um die sogenannte tote Natur, die lebendige (organische) und die menschliche Natur.
Kulturphilosophie läßt sich nach den einzelnen Kulturbereichen wie Sprache,
Recht, Religion, Kunst, Technik, auch Wissenschaft selbst, usw., weiter einteilen.
Und das gilt dann auch für entsprechende Kulturwissenschaften. Deshalb bilden
sich auch heute spezielle „Wissenschaftswissenschaften“ heraus wie etwa Wissenschaftssoziologie, Wissenschaftsgeschichte, Wissenschaftspsychologie, Wissenschaftsökonomie usw.
Als Sinngebildephilosophien bezeichnen wir diejenigen Bereichsphilosophien,
in denen Normen, Werte, Regeln und reine Ideen als Sinngebilde speziell betrachtet und erforscht werden. Sie sind als Regelanweisung und deren Systematisierung
für das Handeln entwickelt worden und behielten von daher stets einen methodischen oder technischen Charakter. Man kann sie daher überhaupt als Methodiken für die Anwendung von Ideen auf einzelne Gebiete bezeichnen. Darauf verweisen auch ihre Bezeichnungen, die gewöhnlich auf „-ik“ enden (von griech.: iké
téchne).
Am beständigsten hat sich seit der Antike die Logik (in der Antike und im
Mittelalter auch „Dialektik“ genannt) als Methode und Regelkanon für das
richtige Denken gehalten. Sie ist daher auch stets eine der wichtigsten philosophischen Bereichsdisziplinen geblieben. Neben ihr stehen aber auch Ethik,
Ökonomik und Politik (aus den aristotelischen „praktischen Disziplinen“) mit den
in ihnen entwickelten Normen, Maximen, Regeln und „Gesetzen“. Auch aus den
ehemaligen Trivialdisziplinen Grammatik und Rhetorik des platonischen Kanons
haben sich eine Reihe jetzt selbständiger Geisteswissenschaften entwickelt.
Mathematik mit den Schwerpunkten Arithmetik und Geometrie aus dem platonischen Quadrivium gehört jetzt als exemplarische Einzelwissenschaft zu diesen
Sinngebildewissenschaften. Sie bleibt auch im Rahmen der Disziplinen der
mathematisch-naturwissenschaftlichen Fakultät eine reine Geisteswissenschaft
bzw. Sinngebildewissenschaft und wird deshalb im Titel der „MathematischNaturwissenschaftlichen“ Fakultät stets besonders genannt.
Der Vorschlag zu einer Architektonik der philosophischen Disziplinen und der
zugeordneten Wirklichkeitsbereiche sieht demnach folgendermaßen aus:
7
Architektonik der Wissenschaften
Kerndisziplin:
Grunddisziplinen:
Bereichsdisziplinen:
METAPHYSIK
Ontologie Anthropologie Erkenntnistheorie Praxeologie
Naturphilosophie Kulturphilosophie
Sinngebildephilosophie
Wissenschaftsphilosophie
Einzelwissenschaften: Naturwissenschaften Kulturwissenschaften
Wissenschaftswissenschaften
Sinngebildewissenschaften
Wirklichkeitsbereiche:
SINNGEBILDE
NATUR
KULTUR (Artefakte)
Wissenschaft
§ 3 Wahrheit als Ideal der Wissenschaft
Wissenschaft als Kulturinstitution der Wissensvermittlung. Ihr Zweck ist im Ideal der wissenschaftlichen Wahrheit vorgegeben. Die Realisierung des Wahrheitsideals in der „Verwissenschaftlichung“ aller Verhältnisse. Die Zwecksetzungen und Ideale anderer Kulturbereiche. Die
Vermischung der Kulturbereichs-Ideale untereinander und mit dem Wahrheitsideal der Wissenschaften. Die Wahrheitskonzeptionen der philosophischen Grunddisziplinen und ihre metaphysische Grundlegung. Ontologische Wahrheit als Echtheit; anthropologische Wahrheit als Wahrhaftigkeit; praxeologische bzw. pragmatistische Wahrheit als Nützlichkeit; erkenntnistheoretische
Wahrheit als Korrespondenz- oder Kohärenzbestimmungen des Wissens. Die realistische Korrespondenzbegriff der Wahrheit und der idealistische Kohärenzbegriff der Wahrheit. Ihre Vorteile
und Stärken und ihre Problematik
Die Wissenschaft als Kulturinstitution ist auf die Akkumulation, Sicherung,
Verwaltung, Tradierung und Erweiterung von Wissen abgestellt. Diese Aufgabenstellung spricht sich schon in ihrer über zwei Jahrtausende konstant gebliebenen Bezeichnung aus. Die über alle Jahrhunderte unangefochtene Kontinuität
der Institution Wissenschaft im Abendland spricht dafür, daß sie diese Aufgabe
im allgemeinen zum Nutzen der Staaten, Gesellschaften und der einzelnen Menschen gemeistert hat.
Davon zehrt natürlich auch die heute noch bemerkbare Hochschätzung der
Wissenschaft. Sie zeigt sich vor allem in der oft beschriebenen „Verwissenschaftlichung“ aller Lebensbereiche, einer Durchdringung der Menschenbildung –
gleichsam von der Wiege bis zur Bahre – mit wissenschaftlichen Inhalten, und
jeder Art von Praxis mit wissenschaftlichen Methoden und Techniken.
Erst recht zeigt sie sich in den Erwartungen, die man gegenüber der Wissenschaft für die Lösung von Gegenwarts- und Zukunftsproblemen hegt. Die
8
„Ressource“ Wissenschaft gilt, wenigstens den politischen Verlautbarungen nach,
in allen Staaten, denen es an Bodenschätzen, klimatisch günstigen Bedingungen
und anderen natürlichen Ressourcen fehlt, als das wichtigste Gut, mit dem sich
individuelles Wohlbefinden (Gesundheit, langes Leben, „Glück“), allgemeiner
Wohlstand und Weltfrieden herbeiführen und sichern lasse. Unerwünschte Nebenfolgen der verwissenschaftlichten Zivilisation gelten als „Kollateralschäden“, die
sich durch noch mehr Wissenschaft in Gestalt wissenschaftlicher „Techniknebenfolgenabschätzung“ und ethischer Kontrolle beseitigen, vermeiden oder
konterkarieren ließen. Auch wer dies anders sieht und sich etwa als moderne
Kassandra betätigen möchte, tut gut daran, sich auf Wissenschaft zu berufen,
wenn er überhaupt gehört und ernst genommen werden möchte.
Was die Wissenschaft immer im Innersten zusammengehalten hat ist ihr Ideal
der Wahrheit, das sie als einen der höchsten Kulturwerte etabliert hat. Von daher
scheint es ganz natürlich, daß man wissenschaftliches Wissen immer auch als
wahres Wissen verstanden hat, und wissenschaftliches Wissen einen Vertrauensvorsprung vor allem anderen Wissen genießt.
Auch andere Kultur- und Zivilisationsbereiche außerhalb und neben der
Wissenschaft haben ihre traditionellen Wertideale, die für deren Institutionen und
Praktiken Ziel und Gehalt bestimmen und gleichsam ihre Permanenz gewährleistet haben. Der Religion und dem Kultus geht es um das Heil, dem Rechtswesen um die Gerechtigkeit, der Politik um das Bonum Commune des jeweiligen
Staates, der Wirtschaft um die optimale Daseinsvorsorge, dem Medizinalwesen
um die Gesundheit, der Technik um das Machbare, dem Sport geht es (leider fast
nur noch) um die Ausweitung der körperlichen Leistungsfähigkeiten des Menschen. Worum es heute der Kunst geht, ist sehr umstritten; ehemals ging es ihr um
das Schöne.
Alle diese Zwecksetzungen haben in der Geschichte mit der Wissenschaft darin
konkurriert, ihre Ideale zu verallgemeinern und auf die übrigen Bereiche und
besonders auf die Wissenschaft auszudehnen. Und diese Tendenzen sind immer
noch aktuell und tragen heute mehr denn je zur Unklarheit über das Wesen der
Wissenschaft und die Ideale der übrigen Kulturbereiche bei.
Wenn man nur noch wissenschaftlich, d. h. „theologisch“ fromm und gläubig
ist, die Gerechtigkeit nicht mehr von jedem Rechtsgenossen erspürt und gelebt,
sondern von rechtswissenschaftlicher Forschung und Auslegung erwartet wird,
wenn das Bonum Commune von wissenschaftlicher Politikberatung abhängig
gemacht wird, die Wirtschaft nach Nobelpreistheorien gesteuert, Gesundheitsvorsorge nach dem letzten Stand der Schulmedizin bemessen wird, die Technik
nur noch als „Forschung und Entwicklung“ begriffen, der Sport von der Dopingmedizin getragen, das, was Kunst sein soll, vom Urteil der Kunstwissenschaft
bestimmt wird, so braucht man sich nicht zu wundern, wenn die Laien in allen
diesen Bereichen irritiert oder frustriert sind. Es wird ihnen zugemutet, ihre
traditionellen Einstellungen in diesen Bereichen für wissenschaftlich überholt und
als falsch geworden anzusehen.
9
Die traditionellen Ideale der Kulturbereiche treten jetzt als religiöser Fundamentalismus, quärulatorische Übersensiblität in den Rechtsverhältnissen, politischer
Dezisionismus aus partikulären Machtinteressen, als primitive Sammler-, Jägerund Tauschmentalitäten sowie als vorindustrielle Produktion und Landwirtschaft,
alternative Gesundheitsmagie, sportliches „body-building“ und als „Jedermann ist
Künstler“-Einstellungen auf und erleben eine gewisse Konjunktur als Gegenwehr
und Alternativen zu den wissenschaftlich vorgegebenen Zielen.
Aber auch für die Wissenschaft ist das folgenreich. An die Stelle ihres epochalen Ideals, der Wahrheit zu dienen, treten diese traditionellen Ideale der einzelnen
Kulturbereiche, oder diese Kulturideale gehen mannigfaltige Verschmelzungen
mit dem Wahrheitsideal ein.
Von der Wissenschaft erwartet man dann gläubig das Heil der Welt. Man
unterstellt ihre Organisation dem Gerechtigkeitsideal und verlangt von ihr die
politische Förderung des Bonum Commune. Man bewertet sie ökonomisch als
Dienstleistungs- und Produktionsstätte von Wissen und ausgebildetem Humankapital. Man empfielt sie als Diagnostik, Anamnese und Therapeutik für alle Gebrechen der modernen Welt. Man hält sie weitgehend nur noch nach dem Maßstab
des Einsatzes avanciertester Technik für seriös. Und man feiert nicht zuletzt (wie
früher in der Kunst) die Auffälligkeit, den Glanz, die Schönheit und Eleganz
sowie die Genialität ihrer Spitzenleistungen.
Die hybriden Ideale dienen jetzt überall als Kriterien für die Beurteilung
wissenschaftlicher Leistungen. Von Wahrheit ist dabei am wenigsten oder überhaupt nicht mehr die Rede, wie jeder Gutachter in wissenschaftlichen Angelegenheiten weiß. Wissenschaftliche Leistungen werden kaum noch danach beurteilt,
inwieweit sie wahres Wissen fördern, sondern wie weit und kräftig sie einem der
genannten Hybridideale entsprechen.
Jedoch hat die Amalgamierung des Wahrheitsideals der Wissenschaft mit
Idealen anderer Kulturbereiche eine lange Geschichte. Nennen wir nur einige
jedem Wissenschaftler bekannte Beispiele.
In der mittelalterlichen Scholastik sollte nach einigen (aber keineswegs allen)
Theologen „die Philosophie die Dienerin der Theologie sein“ (philosophia ancilla
theologiae), wobei Philosophie für alle Wissenschaften des Triviums und Quadriviums stand. Das wurde meist so verstanden und auch praktiziert, daß Wissenschaft von der Kirche, und mittels ihres Einflusses auch durch weltliche Machthaber, überhaupt nur soweit zugelassen und gefördert wurde, als sie theologischen
Interessen, d. h. dem Heile der christlichen Gesellschaft diente. Diese Einstellung
setzte sich von Seiten der katholischen Kirche über den „Modernistenstreit“ des
19. bis zum berühmten Werturteilsstreit zu Beginn des 20. Jahrhunderts fort.
Seither haben sich jedoch im christlichen Abendland alle Kirchen und die meisten
ihrer Theologen dem Kantischen Votum angeschlossen, daß dieser Dienst der
Philosophie nicht darin bestehe, hinter der Theologie – „ihr die Schleppe tragend“
- herzulaufen, sondern – „ihr das Licht der Vernunft vorantragend“ (I. Kant) –
10
voranzugehen. Aber das gilt ersichtlich nicht von allen Religionen, die heute in
der Welt ihre „Wahrheiten“ verkünden.
Im 20. Jahrhundert wurden große Teile der Wissenschaft in den ideologischen
Dienst des Faschismus und Kommunismus genommen. Statt der Wahrheit hatte
Wissenschaft politischen Idealen der „Parteilichkeit“ und der nationalen Gewinnung des „Weltmachtstatus“ zu dienen. Was in den beteiligten Staaten und für die
Welt dabei herauskam, ist bekannt, ebenso das, was an Nachwehen bis heute
wirksam blieb.
Mit der 68er-Revolution trat das Ideal der Emanzipation in den Mittelpunkt der
politischen Diskussion. Den Juristen erinnerte „Emanzipation“ noch an die römischrechtliche Entlassung von Kindern aus der Obhut und Gewalt des „pater
familias“. Für linke Ideologen war Emanzipation das Ziel aller historischen
Klassenkämpfe zur Befreiung des Individuums aus gesellschaftlichen Zwängen.
Für Pädagogen war es das Erziehungsziel der „Mündigmachung“ junger Menschen, wie es in der „mittleren Reife“ und im „Reifezeugnis des Abiturs“ verbrieft
wurde. In den neueren Studienreformen aber wurde die Emanzipation zum Recht
auf Teilhabe am zwanglosen permanenten Diskurs, und die wissenschaftliche
Wahrheit dadurch zum Ergebnis solcher „emanzipatorischen“ Diskurse.
Wie man weiß, war die Umsetzung des Emanzipations-Ideals in den modernen
westlichen Gesellschaften überall im Sinne der Propagandisten erfolgreich. Die
Väter und Mütter büßten die rechtliche Verantwortung für ihre Kinder ein oder
gaben sie auf. Die Erreichung des „Reifezeugnisses“ und die Zulassung zum
wissenschaftlichen Hochschulstudium wurde fast zum Menschenrecht, und die
Standards aller Ausbildungsgänge wurden entsprechend angepaßt.
Während die emanzipatorische Revolution noch weiterläuft, scheint inzwischen
das Ideal der ökonomischen Daseinsvorsorge das gesamte westliche Wissenschaftssystem zu steuern. Wissenschaft wird gemäß herrschender „Shareholdervalue-Mentalität“ ständig nach ökonomischem Nutzen evaluiert, industriell organisiert und nach maximalem Output an wirtschaftlich und technisch umsetzbaren
Ideen und beruflich verwendbaren Absolventen finanziert. Die Organisation der
Hochschulen wurde im „Bolognaprozeß“ durch neue Hochschulgesetze gänzlich
nach BWL-Gesichtspunkten, d. h. als wirtschaftliche Unternehmung gestaltet. Der
Staat schließt „Zielvereinbarungen“ und „Pakte“ mit seinen Hochschulen ab, die
auf Lieferung des gewünschten Outputs an Forschungs- und Ausbildungsresultaten abgestellt sind.
So wurde die einstige Gelehrtenrepublik in viele Präsidialdiktaturen umgewandelt. Die Universitäten und Hochschulen haben statt Rektoren nun allmächtige Vorstandsvorsitzende, die von niemandem verantwortlichen Hochschulräten
(deren Mehrheit aus Vorstands- und Aufsichtsräten von Großbetrieben und von
gesellschaftlichen Gruppen stammt) gewählt und beraten werden. Die ehemaligen
akademischen Selbstverwaltungsgremien führen hinsichtlich ihrer übriggelassenen Kompetenzen ein Schattendasein, wenn auch voller Betriebsamkeit. Sie
dürfen ständig neue Richtlinien umsetzen und Vollzugsmeldungen abgeben und
11
sich im übrigen um „Exzellenz“ bemühen. Diese besteht bisher weitgehend darin,
werbewirksame Großprojekte, d. h Absichtserklärungen, „Alleinstellungsmerkmale“ und „Profile“ für künftige Forschungsvorhaben auszuarbeiten. Die Lehrinhalte bzw. Kurrikula werden durch private Akkreditierungs- und Evaluationsagenturen lizensiert, d. h. genehmigt oder abgeschafft. Die Ausstattungen der
Fakultäten und Institute sind seit langem auf niedrigem Niveau und weit hinter
den Bedürfnissen erheblich zunehmender Studierendenzahlen eingefroren. Die
Lehrenden und Forscher werden hauptsächlich danach beurteilt, ob und wieviel
„Drittmittel“ sie von Stiftungen und Sponsoren für ihre Forschungsvorhaben und
die Anstellung von Mitarbeitern einwerben können. Daß die Wirtschaft mit ihren
speziellen Idealen nicht als Vorbild für die Wissenschaft taugt, liegt zwar offen
zutage, hat aber noch nicht zu einer höchst nötigen Tendenzwende geführt.
Bleiben wir diesen modernen Tendenzen gegenüber dabei, daß es in der
Wissenschaft wesentlich um die Wahrheit geht. Das heißt zugleich, daß es in ihr
auch um die Falschheit und um das, was zwischen beidem liegt, gehen muß. Das
zu betonen ist schon deshalb wichtig, weil das Falschheitsproblem und das
Problem des Mittleren zwischen Wahrheit und Falschheit, nämlich das, was man
üblicherweise Wahrscheinlichkeit nennt, und das im folgenden als „Wahr-Falschheit“ definiert wird, gegenüber dem Wahrheitsproblem stark unterbelichtet geblieben sind.
Die Frage nach der Wahrheit begleitet die Philosophie und die Wissenschaften
seit ihren Anfängen. Daher kann es nicht verwundern, daß die Entfaltung der
Philosophie in Grunddisziplinen, wie wir sie im vorigen Paragraphen dargestellt
haben, entsprechende Fassungen des Wahrheitsproblems und spezifische Wahrheitsbegriffe hervorgebracht haben, die auch im heutigen Verständnis noch eine
Rolle spielen. Man spricht hier von ontologischen, anthropologischen, praktischen
bzw. pragmatischen oder gar pragmatistischen und erkenntnistheoretischen Wahrheitsbegriffen, die sich dann auch in den Einzelwissenschaften zur Geltung
bringen.
Der zentrale und für die Wissenschaftsphilosophie ausschlaggebende Wahrheitsbegriff gehört indessen zu den metaphysischen Vorgaben aller Wissenschaften. Von ihm müssen sich auch die grunddisziplinären Wahrheitskonzeptionen ableiten lassen. Der metaphysische Wahrheitsbegriff geht als sogenanntes
generisches Merkmal in alle Arten und Unterarten von Wahrheitsbegriffen ein, die
ihn nach ihren disziplinären Bedürfnissen spezifizieren. Betrachten wir die grunddisziplinären Wahrheitsbegriffe.
Der sogenannte ontologische Wahrheitsbegriff läßt sich am besten durch den
Begriff der Echtheit näher bestimmen. Man sagt bekanntlich, das Echte sei das
Wahre, weil es „wirklich so ist, wie es sich zeigt“. Ontologisch Wahres ist daher
„reines bzw. objektives Sein“. Jeder kennt auch die „echte Geldnote“ und unterscheidet sie von der „falschen bzw. gefälschten“. Das verweist auf das ontologische Gegenteil des Echten, nämlich den „Schein“ oder die „Erscheinung“, hinter
12
denen sich entweder etwas anderes als das Echte verbirgt oder überhaupt „Nichts“
steht.
Der ontologische Wahrheitsbegriff hat in den Geistes- und Literaturwissenschaften immer schon eine bedeutende Rolle gespielt. Die in den Philologien und
in den historischen Disziplinen gepflegte „Quellenkritik“ richtete sich stets auf die
Unterscheidung des Echten vom Falschen bzw. Gefälschten. Und zur sogenannten
Kunstkritik gehörte immer die Bemühung um Unterscheidung der „echten“
Kunstwerke von den gefälschten. Dies blieb eine ständige Aufgabe. Auch in den
Naturwissenschaften hat diese Unterscheidung von Echtheit und Fälschung oder
Verfälschung eine oft unterschätzte, aber neuerdings in der Gestalt fraudulösen
Schwindels wieder viel beachtete Bedeutung. Hierzu gehört der Unterschied
zwischen den tatsächlichen Naturphänomenen, die man gerne wahre oder echte
nennt, von den künstlich in die Faktenfixierung (etwa durch Beobachtung) hineingetragene Verfälschungen. Diese „künstlichen Effekte“ nennt man „Artefakte“.
Dieser naturwissenschaftliche Artefaktbegriff ist von dem kultur- und geisteswissenschaftlichen Artefaktbegriff zu unterscheiden. Von manchen naturwissenschaftlichen Artefakten ist bis heute umstritten, ob es um echte Phänomene
oder Artefakte (oft auch „Dreckphänomene“ genannt) handelt.
Der anthropologische Wahrheitsbegriff ist eine Ausweitung des ontologischen
Echtheitsbegriffs auf den Menschen bzw. auf ein Subjekt, das einem ontologischen Objekt gegenübergestellt wird. Hier spricht man von Wahrhaftigkeit bzw.
Ehrlichkeit eines Menschen oder Charakters und stellt sie wiederum der Falschheit, evtl. der Verlogenheit, Verschlagenheit oder Verstellungskunst eines Charakters gegenüber. Diese menschliche Wahrhaftigkeit und Ehrlichkeit ist naturgemäß
integrativer Bestandteil des wissenschaftlichen Wahrheitsideals. Ohne sie hätte
der wissenschaftliche Forscher und Lehrer im Abendland nicht das Ansehen gewinnen können, von dem seine gesellschaftliche Stellung noch immer zehrt.
Der praxeologische bzw. pragmatistische Wahrheitsbegriff, der heute eine
besondere Konjunktur hat, verknüpft Wahrheit mit dem Nutzen bzw. dem Erfolg
von Handlungen. Das klingt schon deshalb recht plausibel, weil man seit jeher
Mißerfolg und Schaden gerne auf „falsche“ Handlungen oder Handlungsstrategien
zurückführt. Beim Wahrheitsideal der Nützlichkeit handelt es sich ersichtlich um
die Umschreibung von Zweckmäßigkeit und um Richtigkeit (die sachangemessene und zweckmäßige Ausrichtung) von einfachen oder produktiven Handlungen
auf einen definierten Nutzen hin.
Der wichtigste und am meisten verwendete ist jedoch der erkenntnistheoretische Wahrheitsbegriff. Er wurde schon von Aristoteles definiert. Ausgehend von
der Unterscheidung zwischen objektiver Realität (res) und subjektivem Erkenntnisvermögen der Vernunft (intellectus) wird Wahrheit aristotelisch als ein
Ähnlichkeitsverhältnis zwischen beiden definiert. Die scholastische Definitionsformel dafür lautet nach Thomas von Aquin: Adaequatio rei et intellectus. Die
neuere Erkenntnistheorie nennt das den Korrespondenzbegriff der Wahrheit. Hier
wird das Ähnlichkeitsverhältnis zwischen den Polen des Objektiven und Subjek-
13
tiven bzw. zwischen Erkenntnisobjekt und erkennendem Subjekt als „Entsprechung“ (correspondentia) gefaßt.
Als Modell für diese Entsprechung gilt allgemein das Abbildverhältnis zwischen einem Gegenstand und seinem Bild. So wird dieser Korrespondenzbegriff
der Wahrheit auch gewöhnlich in ausgefeilten „Abbild(ungs)theorien“ der Wahrheit expliziert. Man stellt sich vor, daß – über die Sinne vermittelt – im Bewußtsein ein Bild von einem Gegenstand in der Außenwelt bestehen könne.
Gemäß dem mathematischen Bildbegriff wird das Abbildungsverhältnis als „eineindeutige Zuordnung“ von Bewußtseinsgegebenheiten zu objektiven Sachverhalten näher bestimmt.
Man kann den Korrespondenzbegriff der Wahrheit ohne weiteres als den derzeit in den Wissenschaften allgemein und in der Wissenschaftsphilosophie speziell herrschenden Wahrheitsbegriff bezeichnen. Dies umso mehr, als er Ausdruck
und Folge des in den modernen Wissenschaften vorherrschenden Realismus ist,
demgemäß ja die Voraussetzung der Unterscheidung von Außen- und Innenwelt
bzw. objektiver Realität und Bewußtsein als sakrosankte Selbstverständlichkeit
gilt. Er krankt freilich an Mängeln, die seinen Vertretern wohlbekannt sind, die
aber als ein durch weitere erkenntnistheoretische Forschung zu lösendes Problem
aufgefaßt werden. Und so ist auch ein beachtlicher Teil der erkenntnistheoretischen und wissenschaftstheoretischen Literatur dem Bemühen um dieses Problem gewidmet.
Das Problem ergibt sich allerdings nur unter der realistischen Voraussetzung
der Unterscheidung und Unterscheidbarkeit von Bewußtsein und sogenannter
objektiver Realität und dementsprechend von Erkenntnis und Erkenntnisgegenstand. Es verschwindet aber unter der idealistischen Voraussetzung, daß diese
Unterscheidung nicht gemacht werden kann. Dies ist ein deutlicher Hinweis
darauf, daß der erkenntnistheoretische Wahrheitsbegriff seinerseits in metaphysischen Theorievoraussetzungen begründet wird.
Zwar ist das Abbildungsmodell (insbesondere als Photographie-Modell), gemäß
dem man ja einen Sachverhalt und sein Bild sehr gut mit einander vergleichen und
die entsprechenden ein-eindeutigen Punktzuordnungen effektiv vornehmen kann,
sehr suggestiv. Aber man unterschlägt dabei, daß der Sachverhalt und das Abbild
mit demselben Auge eines Betrachters von Sachverhalt und Abbild gesehen und
verglichen wird. Und das würde bei der Übertragung auf das Erkennen erfordern,
daß der Erkennende über ein „Organ“ verfügte, mit dem er sowohl die „äußeren“
Dinge wie auch die „inneren“ Abbilder der Dinge im Bewußtsein unterscheiden,
nebeneinander betrachten und mit einander vergleichen könnte.
Derartiges gibt es aber nicht. Zwar ist das hier oft als Argument angeführte Bild
auf der Netzhaut des betrachtenden Auges ein dem Photo vergleichbares Abbild
der Dinge vor dem Auge. Aber das Bild auf der Netzhaut gehört selbst zu den
„äußeren“ Dingen, zu denen es in einem gesetzmäßigen optischen Korrespondenz-Verhältnis steht. Es ist aber nicht mit dem zu verwechseln, was mit bewußter
Wahrnehmung gemeint ist.
14
Wenn jemand Dinge oder Sachverhalte sieht, so sieht er sie als solche, keineswegs
aber Abbilder von ihnen. Sieht er sie aber nicht mehr, sondern erinnert sich nur,
daß er sie gesehen hat, so sieht er sie gerade nicht. Und erst dann nennt er das, an
was er sich erinnert oder was er sich phantasierend vorstellt, mit einem gewissen
Recht „Abbilder“ der Wirklichkeit. Was also als „korrepondierend“ verglichen
werden kann, ist allenfalls das unmittelbar Gesehene und das mittelbar Erinnerte
oder Phantasierte. Die Unterscheidung von unmittelbarer sinnlicher Wahrnehmung und Erinnerung an Wahrgenommenes ist die eigentliche Grundlage für die
Unterscheidung von Ding und „korrespondierender“ Abbildung und damit der
Korrespondenzdefinition der Wahrheit. Das verweist auf den Vorrang der idealistischen Erklärung auch für die realistische Wahrheitstheorie.
Das Ausweichen auf andere Sinnesleistungen wie das Betasten, Beriechen,
Schmecken oder Hören von Sachverhalten, die zugleich gesehen werden, führt
nicht zu einer solideren Begründung des realistischen Korrespondenzbegriffs der
Wahrheit. Denn das durch verschiedene Sinne erfahrene Ding oder der Sachverhalt ist dann immer noch unmittelbar und keinesfalls als Abbild gegeben. In
diesem Falle „korrespondieren“ nur die verschiedenen sinnlichen Erfahrungsinhalte untereinander in gesetzmäßiger Weise, jedoch ersichtlich nicht als bildhafte Entsprechungen.
Hält man schließlich ein Ding für die Ursache eines sogenannten Sinneseindrucks, und letzteren also für dessen Wirkung, so hat man – wie Kant (in der 1.
Auflage seiner „Kritik der reinen Vernunft“) sehr richtig feststellte – nur das
Erinnerte als Ursache und das aktuell Wahrgenommene als Wirkung, beides
zusammen als „korrespondierende“ kausale Verbindung gedeutet, aber keineswegs ein bewußtseinsunabhängiges Wirkliches (Kants „Ding an sich“) mit einer
Bewußtseinsgegebenheit kausal verknüpft.
Daß man von einem in der realistischen Wahrheitskonzeption vorausgesetzten
bewußtseinstranszendenten „Ding an sich“ in keiner Weise etwas wissen kann,
das wissen auch die Realisten. Kant nennt es in der 2. Auflage seiner „Kritik der
reinen Vernunft“, in der er sich zum metaphysischen Realismus bekennt, ganz
richtig ein „unbekanntes Ding“. Von dem Unbekannten jedoch zu behaupten, daß
es existiere (oder nicht existiere) belastet die realistische Erkenntnistheorie mit
einer contradictio in principiis.
Anstatt das Ding an sich schlicht zu streichen, wie vor Kant schon George
Berkeley und nach ihm alle deutschen Idealisten von Fichte bis Schopenhauer
vorgeschlagen haben, macht man es in der neueren realistischen Erkenntnis- und
Wissenschaftstheorie zum Gegenstand eines unendlichen Arbeits- und Forschungsprogramms. Gegen den Idealismus aber argumentiert man mit der Unfaßbarkeit und Subjektivität des Bewußtseins, das noch schwerer zu erfassen sei als
das nur einfach schwierige „Ding an sich“.
Nun ist es selber schon falsch zu meinen, wenn es kein Ding an sich bzw. keine
„Außenwelt“ gäbe, bliebe eben das Bewußtsein alleine übrig. Und dies sei über-
15
haupt die Grundthese des Idealismus. Das mag zwar für einige ältere Versionen
des Idealismus gelten, aber es ist nicht das letzte Wort in der Sache.
Schon George Berkeley, dem wir hier folgen können, betonte im 18. Jahrhundert, daß es in einem wohlverstandenen Idealismus nicht darum gehen könne,
„die Dinge zu Ideen (im Bewußtsein) zu machen, sondern umgekehrt die Ideen zu
Dingen“1. Das heißt, daß von Bewußtsein überhaupt nur die Rede sein kann, wenn
es sachhaltig ist. Das heißt aber zugleich, daß von Bewußtsein nicht die Rede sein
kann, wenn es nicht sachhaltig ist. Aber gerade über solches nicht-sachhaltige
Bewußtsein wird ständig geredet. Sei es, daß man es als „Vermögen“ auffaßt, das
auch dann existiert, wenn es gerade nicht wahrnimmt, empfindet, denkt oder
sonstwie tätig ist; sei es, daß man eine gespensterhafte Fiktion von einem „leeren
Bewußtein“ aufstellt oder vom „Unbewußten im Bewußtsein“ redet.
Hinter das Bewußte kann in der Tat nicht zurückgegangen werden. Das ist die
metaphysische Grundthese des Idealismus. Sie schlägt auf die erkenntnistheoretische Problematik in der Weise durch, daß sich ausnahmslos alles, was man
Wirklichkeit, Realität, Sein – aber auch Nichts – nennt, als bewußtes Phänomen
(wir vermeiden das Wort „Inhalt eines Bewußtseins“) erweisen muß. Und das
heißt umgekehrt, daß alles dies – auch das Nichts – nur als „Bewußtes“ sinnvoller
Gegenstand der Wissenschaft sein kann.
George Berkeleys nicht hoch genug zu veranschlagende metaphysische Einsicht war es zu zeigen, daß die Wirklichkeit, das Sein, nur und ausschließlich als
sinnliche Erfahrung gegeben sein kann. Das ist der Sinn seines Prinzips „Esse =
Percipi“ (Sein bedeutet dasselbe wie Wahrgenommenwerden).
Was Berkeley freilich dabei nicht bemerkte, war, daß ebenso auch das Nichts
ein ganz normaler Gegenstand der sinnlichen Erfahrung ist. Man sieht, fühlt, hört,
riecht, schmeckt eben „Nichts“ – wie die Sprache ganz richtig ausdrückt – wenn
man bei aufmerksamem Schauen, Tasten, Lauschen, Schnüffeln oder Erschmecken eben „nicht Etwas“ wahrnimmt, das sich in der Sprache der positiven
Erfahrungen als „Etwas“ und „Seiendes“ benennen ließe. Und das erlebt jedermann gewöhnlich in vollkommener Dunkelheit und Stille, die darum immer
wieder als „Metaphern“ des Nichts dienen müssen, während sie in der Tat doch
empirische Beispiele, nämlich Arten des Nichts sind. Man sollte sich diesbezüglich dem Sprachgebrauch anvertrauen (der zuweilen, wie L. Wittgenstein
richtig bemerkte, „ganz in Ordnung ist“), und dabei ontologisch und logisch vom
Nichts nicht mehr fordern als von jedem Etwas, nämlich daß es sich in der
Sinneserfahrung ausweise.
Die ontologische Grenze, die die Realisten (und Materialisten) zwischen den
„Dingen an sich“ und dem Bewußtsein zu ziehen pflegen, erweist sich so als eine
1
“I am not for changing things into ideas, but rather ideas into things; since those immediate objects of perception, which,
according to you, are only appearences of things, I take to be the real things themselves”. George Berkeley, Three
Dialogues between Hylas and Philonous, in opposition to sceptics and atheists, in: G. Berkeley, A new theory of vision and
other select philosophical writings (Everyman‟s Library ed. by E. Rhys), London-New York o. J., S. 282.
16
bewußtseinsmäßige Grenze zwischen dem unmittelbar sinnlich Wahrgenommenen und der Erinnerung an Wahrgenommenes, das nicht bzw. nicht mehr wahrgenommen wird. Dies ist die Grundlage dafür, überhaupt theoretisch „am
Schreibtisch“ über Dinge in der Welt reden zu können, die man nicht „vor Augen“
oder im „unmittelbaren Zugriff“ hat. Es ist aber zugleich auch die Grundlage für
den idealistischen Wahrheitsbegriff.
Dieser idealistische Wahrheitsbegriff wird gewöhnlich als Kohärenzbegriff der
Wahrheit bezeichnet. Er spielt auf den „logischen Zusammenhang“ zwischen den
bewußten Gegebenheiten an, vor allem zwischen dem unmittelbar sinnlich Gegebenen und dem Erinnerten, d. h. mit dem Bereich des historischen Wissens.
Darüber hinaus aber auch mit dem aus Erinnerungsbeständen kombinierten „spekulativen“ Material unserer kreativen Phantasie.
Diese Gegebenheitsweisen des Bewußten genau zu unterscheiden, ist zwar
prinzipiell möglich, tatsächlich aber ein höchst schwieriges Geschäft. Und dies
angesichts der Tatsache, daß die sinnliche Wahrnehmung offenbar ständig von
Erinnerungen begleitet wird. Denn erst dies ermöglicht jede Wiedererinnerung an
schon Erfahrenes und jede Unterscheidung des Neuen und Unbekannten vom
schon Erfahrenen. Ebenso aber sind auch die unmittelbaren sinnlichen Erfahrungen und die Erinnerungen gewöhnlich mit phantastischen „Antizipationen“
bzw. Erwartungen und spekulativen Elementen durchschossen, die die bewußte
Aufmerksamkeit bei den Wahrnehmungen steuern.
Was hierbei kohärent genannt werden kann, hängt in erster Linie von den
logischen Methoden der Verknüpfung aller dieser Komponenten und in zweiter
Linie von den für die einzelnen Erfahrungsbereiche bzw. Forschungsfelder vorliegenden Theorien ab.
Logische Kohärenz können wir ohne weiteres mit dem in der Logik selbst
verbreiteten Konzept der Widerspruchslosigkeit einer Theorie gleichsetzen. Das
heißt zugleich, daß Widersprüche in einer Theorie Ausdruck von Inkohärenzen –
gleichsam Risse im logischen Netz der Gedanken - sind. Das deutet grundsätzlich
auf Einschüsse von Falschheit in einer Theorie hin. Gewöhnlich hält man aber
inkohärente bzw. widersprüchliche Theorien für in toto falsch. Wir werden aber
Argumente vorbringen, die zeigen, daß diese Meinung viel zu weit geht und daher
selber falsch ist.
Was die Theorien über bestimmte Wirklichkeitsbereiche in den Einzelwissenschaften und einzelnen philosophischen Disziplinen betrifft, so hält man sie unter
dem Einfluß der Kohärenztheorie der Wahrheit gewöhnlich schon dann für wahr,
wenn sie überhaupt nur widerspruchslos sind.
Widerspruchslose Theorien über engste Wirklichkeitsbereiche oder Sachverhalte aufzustellen, dürfte jedoch einem Logiker immer möglich sein, und daher
gibt es reichlich Angebote von solchen. Das hat in allen Bereichen zur Konkurrenz kohärent-wahrer Theorien geführt, die sich gleichwohl gegenseitig ihren
Wahrheitsanspruch bestreiten und insofern selber untereinander widersprechen.
Daraus resultiert der sogenannte Theorienpluralismus. Er hat seinerseits dahin ge-
17
wirkt, den Kohärenzbegriff der Wahrheit selbst in Verruf zu bringen und einen
Wahrheitsskeptizismus in der Wissenschaft zu befördern.
Dem läßt sich aber dadurch entgehen, daß man den Kohärenzbegriff der
Wahrheit – wie es ja selbstverständlich sein sollte – nicht auf einzelne Detail- und
Ressorttheorien bezieht, sondern innerhalb der Grenzen einer Einzelwissenschaft
auf das „Ganze“ des hier etablierten Wissens, und über diese Grenzen hinaus auf
das „Ganze“ des interdisziplinären Begründungszusammenhanges der Einzelwissenschaften und der philosophischen Disziplinen bis hin zur metaphysischen
Letztbegründung. Kohärenzwahrheit kann sich so überhaupt nur in einem kohärenten Gesamtwissen zeigen, das seinerseits einzelwissenschaftliches Wissen in
einem „systematischen Ganzen der Erkenntnis“ (Kant) integriert. Das Kohärenzkriterium der Wahrheit muß, um dem Wahrheitsproblem gerecht zu werden, durch
das „Komprehensibilitätskriterium“ (bzw. Umfassendheitskriterium) ergänzt werden.
Dies hat Hegel mit seinem Dictum vorgeschlagen: „Das Wahre ist das Ganze“ 2.
Und wenn auch sein philosophisches System heute nur als Vorschlag und Muster
gelten kann, wie ein solches Ganzes des Wissen zu gewinnen sei, so war es doch
zugleich eine gültige Formulierung des „Ideals der Wahrheit“, dem alle Wissenschaften sich anzunähern bestrebt sein sollten.
§ 4 Wissen, Glauben und Intuition in den Wissenschaften
Wissen, Glaube und Ahndung als apriorisch wahre Einstellungen bei J. F. Fries. Ihre neuen
Formen: knowledge, belief und intuition. Variationen des Verhältnisses von Wahrheit und Falschheit im Wissensbegriff. Beispiele für falsches Wissen. Was sich hinter Intuitionen verbirgt. Probleme des überanschaulichen Wissens und der Veranschaulichung durch Modelle. Wissensprätensionen und ihre floskelhaften Verkleidungen
Jakob Friedrich Fries (1773 – 1843), der „Forscherphilosoph“ (wie ihn Alexander
von Humboldt genannt hat), einer der frühesten expliziten Wissenschaftsphilosophen und dabei entschieden realistischer Kantianer, hat mit seinem Frühwerk
„Wissen, Glaube und Ahndung“ von 1805 3 drei Stichwörter geliefert, denen man
auch jetzt noch einen guten Sinn beilegen kann.
2
3
G. W. F. Hegel, Phänomenologie des Geistes, hgg. von J. Hoffmeister, Hamburg 1952, S. 21.
Jetzt in: J. F. Fries, Sämtliche Schriften, hgg. von G. König und L. Geldsetzer, Band 3, Aalen 1968.
18
Fries meinte, daß es „Wissen“ nur über das psychische Innenleben bzw. die Bewußtseinsgehalte des Subjekts geben könne. Dagegen könne ein subjektunabhängiges Objekt als natürliche „Außenwelt“ (Kants „Ding an sich“) nur Gegenstand des „Glaubens“ (nicht des Wissens!) sein. Dies hatte in England auch
Thomas Reid (1710 – 1796) behauptet. Weiter zeigte Fries, daß sich aus den Forschungsergebnissen des Wissens und Glaubens eine „Ahndung“ davon ergebe,
was das metaphysische Prinzip sei, das er das Göttliche nannte, und das alles
Psychische und Physische hervorbringe und trage. Für alle drei Einstellungen
bzw. Haltungen des Wissenschaftlers postulierte er im Sinne Kants „apriorische
Voraussetzungen“, die die grundsätzliche Wahrheit des Wissens, des Glaubens
und der Ahndung verbürgen sollten.
Man wird leicht bemerken, daß Fries hierbei das Wissen und seine Wahrheit
ganz idealistisch bzw. kohärentistisch interpretierte, den Glauben und seinen
„außenweltlichen“ Gegenstand realistisch, d. h. daß er die Glaubenswahrheit entsprechend korrespondenzmäßig auffaßte, und daß er unter Ahndung eine metaphysische Letztbegründung eines wahren metaphysischen Systems verstand.
Daran ist auch heute noch richtig, daß die Wissenschaft wesentlich auf Wissen,
Glauben und Ahndungen beruht. Man nennt es jetzt nur meist auf Englisch knowledge, belief und intuition. Geändert hat sich freilich die Einstellung gegenüber
einer kantisch-apriorischen Wahrheitsgarantie dieser Einstellungen.
Zwar gibt es noch immer Kantianer und Transzendentalphilosophen, die dem
Apriori eine wahrheitsverbürgende Funktion zuweisen. Und auch der logische
Positivismus bzw. die sogenannte Analytische Philosophie beruft sich gelegentlich auf die apriorische Begründetheit der logischen und mathematischen Methodologie, um damit immer noch im Sinne Kants der Wissenschaft ein Fundament
„allgemeiner Gültigkeit“ und „unbezweifelbarer Notwendigkeit“ zu vindizieren.
Aber die meisten Wissenschaftler dürften jeden Apriorismus längst verabschiedet
haben. Sie begnügen sich mit K. R. Poppers „vorläufiger Bewährung“, “ständiger
Verbesserungsfähigkeit“, stets zu gewärtigender „Fallibilität“ und daher mit
bloßer „Wahrscheinlichkeit“ ihrer wissenschaftlichen Einsichten und Erkenntnisse.4
Das hat Folgen für das Verhältnis dieser Einstellungen zueinander und zur
Wahrheit. Insbesondere wird dadurch die Rolle der Falschheit und der WahrFalschheit in der Wissenschaft mehr in den Mittelpunkt des Interesses gerückt.
Daß es wahres Wissen gibt, beweist jede „ent-täuschte“ Sinnestäuschung und
jeder aufgedeckte Irrtum und Betrug. Daß es auch falsches Wissen gibt, das
zeigen die Sinnestäuschungen, Täuschungen, Selbsttäuschungen, die Irrtümer und
der Betrug. Man kann sie freilich erst nach der Aufdeckung als falsches Wissen
durchschauen und hält sie bis dahin gewöhnlich für wahres Wissen. Und selbstredend kommt es vor, daß die Wahrheit, die als Korrektur einer Falschheit
4
Vgl. Gr. Schiemann,Wahrheitsgewißheitsverlust.. Hermann von Helmholtz‟ Mechanismus im Anbruch der Moderne.
Eine Studie zum Übergang von klassischer zu moderner Naturphilosophie, Darmstadt 1997, S. 3: „Modern heißt eine
Erkenntnis nur dann, wenn sie durch die Relativität ihres Geltungsanspruchs ausgezeichnet ist“.
19
gewonnen wurde, ihrerseits wiederum als Irrtum entlarvt wird. Das zeigt aber nur,
daß die Wahrheitsfindung in der und durch die Wissenschaft ein schwieriges und
dauerndes Geschäft ist. Wahres und falsches Wissen unterscheiden sich durchund gegeneinander, was auch immer für das eine oder andere gehalten wird.
Wahrheit und Falschheit werden aber nicht nur bezüglich einzelner Wissensgegenstände einander gegenübergestellt, sondern auch auf umfassende Wissenskomplexe bezogen. Die einfachste Konfrontation ist diejenige, die jeden historischen Stand der Wissenschaften für überholt und damit für falsch, und somit den
letzten aktuellen Stand der Wissenschaften für wahr hält.
Man wird dies in der Literatur kaum so schlicht ausgedrückt finden. Jedoch hat
man mit solcher Einstellung bei den sogenannten aktualistischen Wissenschaften
zu rechnen, die ihre historischen Entwicklungsstufen des Wissens strickt vom
aktuellen Stand des Wissens unterscheiden. In solchen aktualistischen Wissenschaften gilt die historische Reflexion als eine luxurierende Spezialdisziplin, mit
der sich der Wissenschaftler an der Front der Forschung nicht zu befassen braucht.
Verbreitet ist jetzt auch die Einschätzung, alles vorhandene Wissen sei falsch,
und wahres Wissen sei nur von der zukünftigen Wissenschaft zu erwarten. Man
kann das (von F. Nietzsche bis K. R. Popper) für eine kokette Einstellung halten,
aber sie eignet sich gut für den Ruf nach immer mehr Wissenschaftsförderung.
Nur noch apart dagegen erscheint die Sicht, daß wahres Wissen nur in den
mythischen Ursprüngen der Wissenschaft oder allenfalls bei den Klassikern zu
finden sei, so daß, was nachher kam und daraus entstand, nur „seins- und wahrheitsvergessene Verdeckung“ (frei nach M. Heidegger) und also falsches Wissen
sei.
Angesichts der Schwierigkeiten, Wahrheit und Falschheit im wissenschaftlichen Wissen zu unterscheiden und als solche zu kennzeichnen, verlagert sich die
wissenschaftliche Gewißheitserwartung auf den wissenschaftlichen Glauben.
Viele Wissenschaftler und Wissenschaftstheoretiker nennen das, was sie für
wahres, weil (korrespondenzmäßig oder kohärent) begründetes Wissen halten,
jetzt Glauben („belief“). Dazu hat der Mathematiker und Logiker Charles Sanders
Peirce (1839 – 1914) wesentlich beigetragen, der mit seiner Version des Pragmatismus die Hauptaufgabe der Wissenschaft in der „Festlegung des Glaubens“
sah (in seinem Aufsatz „The Fixation of Belief“ von 1877). Das wird so erläutert:
„Das Wesen des Glaubens besteht in der Ausbildung einer Gewohnheit, und
verschiedene Glauben unterscheiden sich durch die verschiedenen Handlungsweisen, die sie hervorrufen“.5
Mit dem „theologischen“ Glauben der Scholastiker hat der wissenschaftliche
Glaube von heute gemeinsam, daß er keine Falschheit zuläßt. Die verbreitetste
Gestalt dürfte jetzt der von Thomas S. Kuhn beschriebene Glaube an eine paradigmatische Theorie sein, zu der man sich schulmäßig bekennt.
5
Ch. S . Peirce: „The whole essence of belief is the establishment of habit, and different beliefs are distinguished by the
different modes of action to which they give rise“. Zit. nach: Pragmatic Philosophy, hgg. v. Amely Rorty, New York 1966,
S. 30.
20
Weniger verbreitet als früher ist der Glaube als metaphysische Überzeugung. Dies
aber nur, weil metaphysische Bildung unter Wissenschaftlern selten geworden ist.
Anstelle eines metaphysisch versierten Glaubens (wie noch bei Fries) machen sich
solche Überzeugungen eher als „blinder Glauben“ geltend.
Von unserem idealistischen Standpunkt aus handelt es sich dabei z. B. um den
realistischen Glauben an die „Realität der Außenwelt“ bzw. an ein „Ding an sich
hinter den Erscheinungen“, der bisher durch keinen Grund zu begründen und
durch kein Argument zu erschüttern ist. Gelegentlich zeigt sich freilich der wissenschaftliche Glaube auch in purer Gesinnung. Diese Gestalt des Glaubens verträgt sich mit jeder Ideologie und meist auch mit jedem Dilettantismus in der Wissenschaft.
Was Fries (mit einem schon seinerzeit altbackenen Wort) als „Ahndung“ bezeichnete, dürfte gut abdecken, was man heute Intuition nennt. Intuition (lateinisch: „direkte Anschauung“) wurde in der Tradition platonischen Denkens als
eine „Schau mit dem geistigen Auge“ verstanden und auf den Umgang mit
axiomatischen Grundbegriffen bzw. axiomatischen Grundsätzen und mit ihren
Bedeutungen bezogen. Von diesen nimmt man gewöhnlich an, daß sie keinen
anschaulichen Bedeutungsgehalt hätten, daß sie also „unanschaulich“ und undefinierbar seien. Man braucht daher, um sich überhaupt etwas bei ihnen zu denken,
„überanschauliche Vorstellungen“, die ihnen einen Inhalt verschaffen.
Da es aber weder „geistige Augen“ noch „überanschauliche Vorstellungen“ gibt
(beide Ausdrücke sind der Verlegenheit verdankte dialektische Metaphern), so
treten an deren Stelle zwangsläufig konkrete sinnliche Anschauungen (oder Erinnerungen an solche), die sich der Wissenschaftler ad hoc zurechtlegt. Man nennt
sie auch „Modelle“, die als anschauliches Quid-pro-quo des vorgeblich Unanschaulichen dienen sollen (vgl. dazu § 12).
Das Denken in solchen Modellen geht schon auf den Vorsokratiker Demokrit
zurück, der sich bekanntlich die von ihm postulierten „unanschaulichen“ Atome,
die wegen ihrer Winzigkeit der sinnlichen Anschaung nicht zugänglich sein
sollten, wie Buchstaben vorstellte. Was als Modellvorstellung dienen kann, muß
natürlich bestens bekannt sein. Aber wer ein solches Modell benutzt, weiß
zugleich, daß das, was es anschaulich vor Augen stellt, gerade nicht das ist, was
gemeint ist. Es kann nur irgendwie „ähnlich“ sein, und man hat gemäß dem
modellhaften Beispiel allenfalls eine „Ahn(d)ung“, wie sich die gemeinte Sache
vielleicht verhalten könnte.
In der Tat spielen die Intuitionen und somit das Modelldenken in allen Wissenschaften „an der Front der Forschung“ eine eminent wichtige Rolle. Die in den
Naturwissenschaften und mittels ihrer mathematischen Methodologie standardisierten Modelle für die kleinsten Wirklichkeitselemente (Teilchen, Welle, string
o. ä.) und die in den Geisteswissenschaften verbreiteten „Metaphern“ sind die
heuristischen Werkzeuge schlechthin, Erkenntnisschneisen ins Unbekannte zu
schlagen.
21
Eine verbreitete Gestalt findet sich etwa in wissenschaftstheoretischen Lehrbüchern, wenn logisch-mathematischen Formalisierungen bzw. „logischen Rekonstruktionen“ komplizierter Sachverhalte eine „intuitive Sizze“ vorausgeschickt
wird. Es wird dabei in der Regel eine mehr oder weniger schlichte „Geschichte“
erzählt, die den unanschaulichen Formalismus, mit dem die Problematik vorgeblich auf exakteste Weise gefaßt würde, erläutern soll. In den Anfangszeiten der
Telegraphie hat man so die „Geschichte vom Dackel“ als Modell für die Kabelkommunikation erzählt: Tritt man dem Dackel hinten auf den Schwanz, so bellt er
vorne. „Dasselbe ohne Dackel“ erklärt dann modellhaft die drahtlose Telegraphie.
Nur wenig komplexer ist das Modell der mehrdimensionalen Räume in der
Geometrie und Physik. Kennt man den dreidimensionalen (euklidischen) Raum,
so braucht man nur zählen zu können, um wenigstens eine Ahnung von vier- und
höherdimensionalen Räumen zu entwickeln, in denen jede einzelne Dimension
genau so ist wie eine der drei euklidischen, allerdings ohne daß man sie als
rechtwinklig zueinander stehend vorstellen kann. Und kann man zudem ordentlich
subtrahieren, so machen auch zwei- und eindimensionale „Räume“ keine Schwierigkeit, die man sich zwar wie Flächen oder Linien vorstellen muß, die aber, da sie
ja „Räume“ sein sollen, keine Flächen und Linien sein sollen.
Raffinierter sind die Intuitionen, die an den großen Vorrat historisch überlieferter „Denkansätze“ von Philosophen (z. B. „apriori“ im Sinne Kants, „cogito“
im Sinne Descartes‟) oder Klassikern der Einzelwissenschaften (z. B. Korpuskularvorstellung der Materie, Vis formativa-Vorstellung oder Evolutionsmodell
des Lebendigen) angeschlossen werden.
Man setzt dann voraus, daß eine „Intuition“ des jeweiligen Klassikers durch
den Ablauf der Zeiten und die Nachwirkungsgeschichte des Gedankens so klar
und anschaulich geworden sei, daß sie Gemeingut der jeweiligen Forschergemeinschaft wurde. Das kommt zwar auch vor und wird in der neueren
Wissenschaftsphilosophie (seit Th. S. Kuhn) „Paradigma“ (Beispielsfall) genannt.
Man hat jedoch immer Grund zu dem Verdacht, daß es sich dabei um eine
rhetorische Floskel handelt, die Abgründe von Meinungsverschiedenheiten über
die Interpretation solcher Intuitionen zudeckt.
Geradezu modisch geworden sind Intuitionen, die an die Alltagserfahrung und
den alltäglichen Sprachgebrauch anknüpfen, um daran vorgeblich verallgemeinerte unanschauliche Prinzipien und Strukturen zu exemplifizieren. An diese muß
man schon glauben, um dem vermeintlichen Zauber der „einfachen Sprache“ und
der „lebensweltlichen Anschaulichkeit“ der Modelle zu erliegen. Genau genommen widerlegt sich dadurch jedoch der Anspruch theoretischer und „abstrakter“
Wissenschaft, irgend etwas besser zu erklären, als es das anschauungsgesättigte
Alltagsdenken selbst schon vermag.
Besonders reizvoll sind schließlich die didaktischen Modelle, mit denen
„geniale“ Forscherpersönlichkeiten ihre „überanschaulichen“ Intuitionen der Öffentlichkeit oder auch der Fachwelt darzulegen pflegen. Insbesondere mathematische und physikalische Formeln und Gleichungen stehen in dem Rufe, das
22
überanschauliche Denken direkt auszudrücken. Und so gilt die Aufstellung einer
solchen Formel oder Gleichung oft schon selbst als geniale Leistung. Es kann
dann Jahrzehnte dauern, bis man ein Modell bzw. eine „Interpretation“ für das
findet (oder auch nicht findet), was sie bedeuten könnte. Nicht alle Genies sind
dabei so bescheiden und zugleich so frivol wie Ludwig Wittgenstein aufgetreten,
der in seinem eigenen formelgespickten „Tractatus logico-philosophicus“ am
Ende bekannte: „Meine Sätze erläutern dadurch, daß sie der, welcher mich versteht, am Ende als unsinnig erkennt, wenn er durch sie – auf ihnen – über sie
hinausgestiegen ist. (Er muß sozusagen die Leiter wegwerfen, nachdem er auf ihr
hinaufgestiegen ist)“.6
Häufig artikulieren sich solche Intuitionen aber auch durch neu vorgeschlagene
Termini, deren Bildung aus bekannten Wörtern oder Wortbestandteilen genügend
Vorstellungsgehalte assoziieren lassen, um unmittelbar als sinnvoll zu gelten, die
aber vor allem auch genügend Dunkelstellen für die interpretierende Ergänzung
durch Ahnungen bieten.
In dieser Weise hat bekanntlich Martin Heidegger mit seinem Seinsbegriff
bisher drei Generationen von Philosophen Anlaß gegeben, über seine Intuition
vom „Seyn“ oder gar vom kreuzweise durchgestrichenen „Sein“ nachzudenken.
Vergleichbares gelang Jacques Derrida mit seinem Terminus „différance“. Allzu
benevolente Hermeneutiker unterstellen in solchen Fällen, die Autoren solcher
„neuen Begriffe“ hätten ihrerseits eine präzise Vorstellung von dem gehabt, was
dadurch gemeint sein sollte. In der Tat sind aber die meisten Neologismen
heuristische Ahnungen, die ihre Lebensfähigkeit gerade erst in mehr oder weniger
langen Interpretationsdiskussionen erweisen müssen. Sehr oft ist dann das Ergebnis solcher Diskussionen, daß sie als „alte – umgekrempelte – Hüte“ erkannt
werden.
Zwischen Wissen, Glauben und Ahnungen bzw. Intuitionen gibt es freilich
noch das weite Feld wissenschaftlicher Prätentionen, die in mancherlei rhetorischen Floskeln in wissenschaftlichen Vorträgen und Anträgen bei den Förderorganisationen wissenschaftlicher Projekte (die man heutzutage auch in Deutschland vorwiegend in englischer Sprache verfaßt) ihren Niederschlag finden.
Das Hausblatt der deutschen Hochschullehrer (Forschung und Lehre, 7/2006, S.
424) hat eine beliebig zu verlängernde Reihe davon zum besten gegeben und
darauf hingewiesen, „wie reich das Vokabular sein kann, um Unwissenheit, Unwillen oder – Unvermögen zu umschreiben“. Wir möchten es dem aufmerksamen
Leser nicht vorenthalten und warnen die deutschsprachigen Wissenschaftler ausdrücklich davor, die überaus klare deutsche Übersetzung bei Vor- und Anträgen
zu verwenden. Die Liste lautet folgendermaßen:
„It is believed ... Ich glaube ... / It has long been known ... Ich habe mir das
Originalzitat nicht herausgesucht ... / In my experience ... Einmal ... / In case after
case ... Zweimal ... / In a series of cases ... Dreimal / Preliminary experiments
6
L. Wittgenstein, Tractatus logico-philosophicus, 6.54, Ausgabe Frankfurt a. M. 1963, S. 115.
23
showed that ... Wir hoffen, daß ... / Several lines of evidence demonstrate that ... Es
würde uns sehr gut in in den Kram passen / A definite trend is evident ... Diese Daten
sind praktisch bedeutungslos / While it has not been possible to provide definite
answers to the questions … Ein nicht erfolgreiches Experiment, aber ich hoffe immer
noch, daß es veröffentlicht wird / Three of the samples were chosen for detailed
study ... Die anderen Ergebnisse machten überhaupt keinen Sinn / Typical results are
shown in Fig. 1 ... Das ist die schönste Grafik, die ich habe / Correct within an order
of magnitude ... Falsch / A statistically-oriented projection of the significance of
these findings … Eine wilde Spekulation / A careful analysis of obtainable data …
Drei Seiten voller Notizen wurden vernichtet, als ich versehentlich ein Glas Bier
darüber kippte / It is clear that much additional work will be required before a
complete understanding of this phenomenon occurs … Ich verstehe es nicht / After
additional study by my colleagues … Sie verstehen es auch nicht / Thanks are due to
Joe Blotz for assistance with the experiment and to Cindy Adams for valuable
discussions … Herr Blotz hat die Arbeit gemacht, und Frau Adams erklärte mir, was
das alles bedeutet / The pupose of this study was ... Es hat sich hinterher herausgestellt, daß ... / Our results conform and extend previous conclusions that ... Wir
fanden nichts Neues / It is hoped that this study will stimulate further investigation in
this field … Ich geb‟s auf!“
§ 5 Der Unterschied zwischen Alltagsdenken und wissenschaftlichem Denken
Die Bereicherung der Bildungssprachen durch die wissenschaftlichen Termini. Alte und moderne
Bildung der wissenschaftlichen Termini. Übernahme sprachlicher Voraussetzungen in die Logik.
Ursprüngliche Ausschließung grammatischer Formen und neuere Logifizierung derselben. Unterschiede im Alltagsdenken und wissenschaftlichem Denken bezüglich der Begriffe von Wissen,
Glauben und Vermuten. Die alltagssprachliche Unterscheidung des Vermutens und Behauptens
und die wissenschaftlich-logische Gleichsetzung von Hypothese und Theorie. Die gemeinsame
eine Lebenswelt der Laien und die vielen „möglichen Welten“ der Wissenschaftler. Geschichte
und Zukunft als mögliche Welten. Die vordergründige Welt der Erscheinungen und die „Hinterwelten“ der Wissenschaft.
Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Früher wurden sie aus griechischen und lateinischen Wörtern zusammengesetzt, aus deren Kenntnis man meist schon ihre Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter importiert. Daneben gibt es freilich einen neueren Brauch,
künstliche „Termini“ (Acronyme) aus Anfangsbuchstaben von Wörtern zu bilden,
aus denen man die Bedeutung nicht mehr erraten kann. Z. B. DNS = „Desoxy-
24
ribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC =
massive open online courses, HD-Schema = hypothetisch-deduktives Schema der
Kausalerklärung, es wird auch HO-Schema = Hempel-Oppenheim-Schema nach
seinen Erfindern genannt. Geradezu uferlos ist die Erfindung von kommerziellen
Bezeichnungen für Heilmittel durch die Pharmaindustrie. Witzig gemeint sind
Alltagswörter als Abkürzungen wie z. B. „Juice“ = Jupiter Icymoon Explorer, d.
h. ein Weltraumprojekt zur Erkundung, ob sich unter dem Eis von Jupitertrabanten Wasser befindet. Das alles führt in der Wissenschaft zu einer Esoterisierung
des Wissens, das den Zugang nicht in diesen Jargon eingeweihter Laien fast unmöglich macht.
Bei weitem die meisten Theorien werden aber noch immer in der gewöhnlichen
Bildungssprache formuliert. Und so läßt sich auch an sprachlichen Beispielen
demonstrieren, was auch in der Wissenschaft Begriffe, wahre und falsche Sätze,
Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist die Grundlage für die Formalisierung in der Logik und dann auch für die Ausbildung der
formalen als einer zweiwertigen Logik geworden, und dies in „trivialer“ Abgrenzung von Grammatik und Rhetorik.
Die Abgrenzung von Logik und Grammatik im klassischen Trivium (dem
„geisteswissenschaftlichen“ Teil der „sieben freien Künste“ Platons) ging jedoch
nicht so weit, daß man nicht grammatische Elemente für die Zwecke der Logik
herangezogen und beachtet hätte. Bestimmte grammatisch ausgezeichnete Wörter
(Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen
(Buchstaben bzw. Zahlen) ersetzt. Grammatische Behauptungssätze erhielten die
Form des Urteils als Verknüpfung von Subjekts- und Prädikatsbegriffen.
Dabei behielten die sprachlichen Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn, den man ohne
weiteres sprachlich versteht. Diese, wie Bejahung, Verneinung, und, oder, wenn ...
dann, alle, einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen notiert. Dies zu bemerken ist deshalb wichtig, weil eine alte
logische Tradition und die gegenwärtig herrschende Meinung davon ausgeht,
diese Verknüpfungswörter hätten überhaupt keine eigene Bedeutung, sondern sie
erhielten sie allenfalls durch die Verknüpfung mit den bedeutungshaltigen Begriffen (deswegen nannte sie Aristoteles „Synkategoremata“ = „Mitbedeuter“). Das
ist jedoch falsch. Dafür spricht schon, daß diese Junktoren auch in jedem
Sprachwörterbuch als sinnvolle Wörter angeführt und erläutert werden.
Gewisse grammatische Satzformen wie Wunsch-, Befehls- und Fragesätze
wurden in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht
gelassen. Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade
dadurch, daß in ihnen auch derartige Satzformen formalisiert worden sind, um sie
25
als wahrheitswertfähig zuzulassen. Einen besonders florierenden Bereich bilden
die Modallogiken und die hier entwickelten Modalkalküle.
In der sogenannten deontischen Logik („Sollens-Logik“) werden die drei
„Werte“ Geboten, Verboten und Erlaubt, und in der sogenannten temporalen
Logik („tense-logic“) die Zeitdimensionen Vergangen, Zukünftig und Gegenwärtig durch besondere Junktoren formalisiert und dem logischen Schematismus
der Aussagen- und Schlußbildung unterworfen. Das hat wesentlich zur Komplizierung der Wahrheits- und Falschheitsfragen beigetragen. Dies vor allem deshalb, weil man sich dadurch erhoffte, rechtliche und ethische Normierungen sowie
Probleme der Zeitontologie (der Physik und Historiographie) mit logischen
Wahrheitswert-Formalismen „rational“ (d. h. hier eben: logisch) diskutierbar zu
machen und evtl. zu „begründen“. U. E. hat dies aber nur dazu geführt, daß das
neuerdings inflationär gebrauchte Schlagwort „rational“ die Wahrheitsfrage aus
den entsprechenden disziplinären Diskursen verdrängt hat. Denn es geht dann nur
noch um Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit,
Normgemäßheit usw.
Man kann angesichts dieser Veränderungen davon ausgehen, daß die Vorstellungen von Wissen, Glauben und Intuitionen bzw. Ahnungen in der Wissenschaft
sich ziemlich weit von den Vorstellungen der Laien darüber entfernt haben.
Der Laie oder der sogenannte normale Mensch „mit seinem gesunden Menschenverstand“ und damit oft auch der Anfänger in der Wissenschaft hält noch an
den überkommenen Bedeutungen fest. Wissen versteht er als wahres Wissen. Und
was er als wahres Wissen vertritt, das sagt er in behauptenden Urteilen und
Sätzen. Er kann dies gelegentlich auch „im Brustton der Überzeugung“ tun. Was
er nur glaubt, das wird er ehrlicherweise nicht behaupten, sondern allenfalls für
wahrscheinlich halten. Er äußert sich dann im sprachlichen Konjunktiv, mit dem
er Vermutungen ausdrückt: Es könnte so oder so sein, vielleicht aber auch nicht.
Nennt er das, was er glaubt oder vermutet, „wahrscheinlich“, so verbürgt er sich
keineswegs für die Wahrheit, sondern er läßt es offen, ob und daß es auch falsch
sein könnte. Ahnungen hat er meist nur bei drohendem Unheil oder vor strengen
Prüfern. Soll er sie in Rede fassen, so fehlen ihm die klaren und deutlichen Begriffe dafür.
Wer etwas behauptet, ohne zu wissen oder Gründe dafür zu haben, daß es wahr
ist, den hält man gewöhnlich für naiv oder für dumm. Die Wahrheit zu wissen,
aber an ihrer Stelle das Falsche zu behaupten, gilt noch immer als Lüge und
Betrug. Wer etwas offensichtlich Wahres für wahrscheinlich ausgibt, den hält man
bestenfalls für einen Schelm, schlimmstenfalls aber für schwachsinnig. Ansonsten
mag man alles glauben, was andere wissen, sei es nun wahr oder falsch. Wer sich
zu sehr in Ahnungen ergeht, den hält man meist für unwissend, und das nennt man
oft auch „ahnungslos“.
In Bezug auf die Wirklichkeit vertraut der Laie durchaus darauf, daß er nur in
einer Welt lebt, die ihm als seine Lebens- oder Umwelt bekannt wird. Und diese
ist ihm durch die geometrischen und chronographischen Koordinaten des Hier und
26
Jetzt und des Dort und Damals seiner sinnlichen Erfahrung und seiner Erinnerungen bestimmt. Die „Welten“ seiner Erinnerungen und seiner Träume, seiner
Wünsche und Hoffnungen unterscheidet er sehr genau von seiner im wachen
Zustand erlebten Welt. Und dies erst recht dann, wenn er bemerkt, daß seine Erinnerungen immer wieder mit dem übereinstimmen, was er jeweils auch gegenwärtig noch wahrnimmt. Damit bestätigen sie eine gewisse Konstanz seiner
Lebenswelt. Er bemerkt auch, daß seine Träume aus Erinnerungsbeständen verflochten sind, über die er daher auch nur in der grammatischen Vergangenheitsform berichten kann. Auch seine Wünsche, Hoffnungen und Phantasien
bedienen sich dieser Erinnerungsmaterie, so daß er sie nicht für eigene „reale
Welten“ hält. Tut er es doch, so hält man dies für einen bedenklichen Krankheitszustand.
In der Wissenschaft verhält sich alles dies ganz anders. Hier kann man Behauptungen über Sachverhalte aufstellen, die grundsätzlich niemand kennt oder wissen
kann, geschweige denn, ob sie wahr oder falsch sind. Vermutungen bzw. Hypothesen muß man logisch oder mathematisch in Behauptungsformen ausdrücken,
denn es gibt keinen logischen oder mathematischen Konjunktiv. Besonders K. R.
Popper scheint nachhaltig bewirkt zu haben, daß man im wissenschaftlichen
Sprachgebrauch Vermutungen (Hypothesen), die nicht wahrheitswertfähig sind,
und Theorien, die wahrheitswertfähig sein müssen, gleichsetzt. Und das zieht die
Gewohnheiten nach sich, Vermutungen auch in wissenschaftlichen Prosatexten als
Behauptungen vorzutragen.
Weil dieser Unterschied zwischen wahrheits- bzw. falschheitsfähigen Behauptungen und nicht-wahrheits- bzw. falschheitsfähigen Vermutungen in der Wissenschaft kaum noch gemacht wird, werden auch die allerbewährtesten Naturgesetze,
die früher als exemplarische Wahrheiten galten, häufig nur noch als statistische
Wahrscheinlichkeiten, d. h. als Vermutungen und Hypothesen dargestellt. Nichtwissen einzugestehen, etwa ein hermeneutisches „non liquet“ (es geht nicht, d. h.
ein Verständnis ist unmöglich!) bei Interpretationen zuzugeben, ist bei gestandenen Wissenschaftlern geradezu verpönt.
Der Wissenschaftler lebt nicht, wie der Laie, in einer Welt, sondern in vielen
möglichen Welten, von denen diejenige, die er mit dem Laien gemeinsam bewohnt, nur eine ist. Logiker und Mathematiker nennen diese gemeinsame Welt die
„notwendige Welt“, von der sie alle „möglichen“ und sogar „unmögliche“ Welten
unterscheiden. I. C. Lewis und C. H. Langford haben diese möglichen Welten in
mathematischer Logik formalisiert und sie als Systeme S 1 bis S 5 (und weitere
dürften noch zu erwarten sein) differenziert.7 S. A. Kripke hat dann große Aufmerksamkeit und Anerkennung dafür gefunden, daß er umgekehrt mit seinen
„starren Deskriptoren“ ein logisches Mittel gefunden haben wollte, gewisse Bestandteile der „notwendigen Welt“ auch in den möglichen Welten aufzuweisen.
7
I. C. Lewis und C. H. Langford, Symbolic Logic, New York-London 1932, 2. Aufl. New York 1959.
27
Wie sollte man sich auch in den möglichen Welten zurechtfinden wenn nicht
durch das, was in allen Welten identisch ist? 8
Diese „notwendige Welt“ ist jedoch auch nur ein Teil der wirklichen Welt. Und
zwar derjenige Teil, der durch Kausalgesetze bestimmt sein soll. Der Laie nennt
sie gerne den wissenschaftlichen Elfenbeinturm, also ein Gefängnis, von dem aus
die Sicht auf die eine ganze Welt sehr beschränkt erscheint. Dafür erstrecken sich
die möglichen Welten der Wissenschaft ins Unabsehbare.
Zu den möglichen Welten gehört auch die sogenannte „geschichtliche Welt“.
Merkwürdigerweise galt sie in der Scholastik und z. T. auch jetzt noch als
paradigmatisch „notwendige“ Welt, da alles Geschichtliche vorgeblich nicht mehr
verändert werden könne. Zumindest jedoch hält man sie für einen integralen Teil
der wirklichen Welt.
Sammelt und ordnet der Historiker seine und anderer Gewährsleute Erinnerungen und bringt sie in einen theoretischen Zusammenhang, so bewegt er sich
nach herrschendem Selbstverständnis der Historiker in der „geschichtlichen
Welt“, die er emphatisch als „historische Realität“ beschreibt. Archäologen, Evolutionsbiologen, Geologen und physikalische Kosmologen bauen diese Welt weit
über alle Erinnerungen hinaus zu einem Kosmos aus, in welchem sie gar den
Ursprung aller Dinge (etwa als kosmischen Big Bang) so schildern, als seien sie
gerade dabei anwesend und könnten ihn direkt beobachten. Und doch wissen sie
genau, daß diese „historische Realität“ vergangen und vorbei ist und somit nicht
mehr, d. h. überhaupt nicht, existiert.
Was dabei für den jeweiligen Historiker und den Kosmologen wirklich existiert
und zur Gegenwartswelt gehört, sind die materiellen Relikte alter Kulturen und
Texte, Schriftgut und Zeugnisse neuerer Epochen, Fossile und geologische Proben, die gegenwärtig ans Licht gebracht werden, kosmische Strahlungen, die jetzt
auf der Erde ankommen. Wirklich ist nur das, was gerade jetzt auf der Erde ausgegraben, vielleicht entdeckt, mit empfindlichsten Geräten empfangen und gemessen wird. Alles dies dient aber dem Historiker und Kosmologen nur als Dokument
und gleichsam als Sprungbrett zum Sprung in die mögliche Welt „historischer
Realitäten“.
Je dichter und umfassender die geschichtliche Welt ausgebaut ist, um so
geeigneter wird sie zu einem weiteren Sprung in die mögliche Welt der Zukunft.
Da werden geordnete Erinnerungen an das Vergangene als Konstanten in die
Zukunft „extrapoliert“, zwischen denen die kreative Phantasie neue Verknüpfungen herstellt und variable Versatzstücke ansiedelt. Früher war dies ein Betätigungsgebiet der Dichter von Zukunftsromanen. Heute wird es als „Science
fiction“ gepflegt. Von da ist es nur ein kleiner Übergang zur „Zukunftsforschung“,
deren phantastische Prognosen schon längst in die Politikberatung einfließen.
8
S. A. Kripke, Identity and Necessity, in: Identity and Individuation, hgg. v. M. K. Munitz, New York 1971, dt. Übers.
„Identität und Notwendigkeit“, in: Moderne Sprachphilosophie, hgg. von M. Sukale, Hamburg 1976, S. 190 – 215; erw.
Aufl. u. d . T. Name und Notwendigkeit, Frankfurt a. M. 1981.
28
Medienexperten nennen mittlerweile sogar alles „Mediatisierte“ „organisierte
Phantasie“ 9
Das dafür immer noch gültige Beispiel haben die Astronomen der Wissenschaft
gegeben, indem sie die künftigen Sternkonstellationen aus der Extrapolation
vergangener Konstellationen prognostizierten. Der alten Himmelsmechanik ist die
physikalische Mechanik der irdischen Vorgänge gefolgt. Schließlich haben fast
alle Wissenschaften das Comtesche „Savoir pour prévoir“ (Wissen um Vorauszuwissen) mehr oder weniger übernommen und sich in Prognostik und Prophetie
geübt.
Das alles ist nur so lange plausibel, als das Prognostizierte in seinen wesentlichen Bestandteilen genau so ist wie das Erinnerte. Denn von diesem kann man
immer sagen, daß es die Grundbeständigkeit unserer einen Welt ist, in der wir
leben. Aristoteles hat es „Substanz“ genannt und als „To ti en einai“ („das was
war und ist“, bzw. das Ge-Wesen) definiert. Das Neue und Andere, das evtl. in
unserer Gegenwart auftaucht und entdeckt oder als Zukünftiges prognostiziert
wird, existiert aber gerade nicht, solange es nicht entdeckt worden ist, oder ehe es
Gegenwart geworden ist. Deshalb bleibt der Glaube daran, daß sich irgend etwas
Zukünftiges „verwirklichen“ ließe, ein riskantes Spiel.
Zwischen geschichtlichen Vergangenheitswelten der Erinnerung und zukünftigen Welten der Hoffnungen, Wünsche, Planung und der prognostischen Phantasie
haben wir es noch mit vielerlei wissenschaftlichen Hinterwelten hinter der erscheinenden Gegenwartswelt zu tun.
Kants „Ding an sich hinter den Erscheinungen“ gilt für die meisten Wissenschaftler als Modell solcher Hinterwelten. Es sind die Sinn- und Bedeutungswelten hinter den Texten und Dokumenten aller Philologien, die Welt der Zahlen
und Strukturen hinter den Zeichen, die Welt des Unbewußten hinter den psychischen Erscheinungen, die Welten der Dämonen, Geister, Engel und des Absoluten
hinter den Manifestationen der sinnlichen Wirklichkeit, die nicht nur in den
Theologien diskutiert werden.
Erst diese Phänomene machen es verständlich, warum auch die Wissenschaftsphilosophie und die Logik sich so intensiv mit dem Thema der möglichen Welten
befassen. Es handelt sich um den prekären Versuch, gleichsam intellektuelle
Raumschiffe zu konstruieren, mit denen man zwischen all diesen möglichen
Welten hin und herfahren kann. Für solche Raumschiffe benötigt man einen Startund Landeplatz, um den sich dann auch die logischen Weltenbauer emsig bemühen. Das ist die vorn genannte Vorstellung von einer „notwendigen Welt“, die
gleichsam das Gemeinsame in den möglichen Welten ins Auge faßt und von der
man glaubt, daß sie alle möglichen Welten zusammenhält. (Vgl. dazu auch § 10).
Nun hat der Laie irgendwo durch seinen Lebenszusammenhang und durch seine
Lebenserfahrung Kompetenzen. Lebens- und Berufserfahrung geben sie ebenso
wie Hobbys und Liebhabereien oder jugendliche Übungen. Man kann sich z. B.
9
J. Hörisch und U. Kammann (Hg.), Organisierte Phantasie. Medienwelten im 21. Jahrhundert, - 30 Positionen. Paderborn
2014.
29
nur wundern, welches Maß von historischen Kenntnissen so mancher Fußballfan
über die Geschichte und aktuelle Lage dieses Gebietes hat, oder mancher
Jugendliche über die „Szene“, in der er sich bewegt. Von daher sollte jedermann
auch ein gewisses Urteil darüber haben, was man von Fachleuten auf ihren wissenschaftlichen Gebieten erwarten kann. Aber das ist gewöhnlich nicht der Fall,
und wenn, so traut man sich kaum, es gegenüber wissenschaftlicher Kompetenz
oder was man dafür hält, in Anschlag zu bringen. Erst ganz neuerdings erhebt sich
eine Potestbewegung, die diese Erfahrungen der Laien und Dilettanten ernst
genommen haben will. Sie nennt sich „Citizen Science“.
In den Hochschulen selber ist eine der Schnittstellen zwischen sogenanntem
Alltagswissen und wissenschaftlichem Wissen das Studium junger Leute. Im
allgemeinen hat sich bei diesen und in der Öffentlichkeit das Vertrauen darauf
erhalten, sie seien durch die gymnasiale oder andere schulische Ausbildung schon
einigermaßen „wissenschaftlich vorgebildet“. Davon kann aber heute kaum noch
die Rede sein, wie die immer zunehmenden Brücken- und Nachholkurse beweisen, mit denen heute versucht wird, die Studierenden erst einmal studierfähig zu
machen. Das frühere Propädeutikum ist inzwischen weithin zu einem Postpädeutikum geworden. Es ist keineswegs so, daß die Studienanfänger kein Wissen
oder keine Kompetenzen für ihr Studium mitbringen. Was sie aber mitbringen,
haben wir vorn schon als Alltagswissen skizziert.
Eine andere Schnittstelle ist durch den neuerlich vermehrten Einzug von
Senioren in die Studiengänge gegeben. Man muß freilich daran erinnern, daß die
Zugänglichkeit der universitären Lehre für Senioren und ein weiteres Publikum
ein alter Brauch und eigentlich selbstverständlich war. So war es auch nichts
besonderes, daß etwa in den Vorlesungen von Fichte, Hegel, Schleiermacher,
Boeckh, Ranke und vielen anderen berühmten Professoren oftmals die höhere
Ministerialität und die Bildungselite Berlins teilnahm. In entsprechender Weise
trifft sich die pariser „haute vollée“ auch jetzt noch in den Vorlesungen prominenter Professoren des Collège de France.
Manche Hochschulen haben dem neuerlichen Ansturm der „älteren Semester“
durch die Einrichtung eines abgesonderten Seniorenstudiums Rechnung getragen.
Im Ausland, wo man das Institut der in Deutschland verbreiteten Volkshochschulen nicht kannte, sind (wie etwa in Straßburg durch Lucien Braun) eigene
„Universitäten des dritten Alters“ (Université du Troisième Age) gegründet
worden. Aber die meisten Hochschulen haben ihre Studiengänge einfach auch für
die Senioren und Gasthörer wieder geöffnet. Ersichtlich sind hier diejenigen
Fächer am meisten nachgefragt, wo die Laien sich am meisten Kompetenzen und
eigene Erfahrungen und Motivationen für die Teilnahme zutrauen. Zeitzeugen,
Kunstkenner, Roman- und Gedichtleser und Selbstdenker sind die neue Klientel
der neueren und der Zeit-Geschichte, der Kunstgeschichte und der Literaturwissenschaften sowie der Philosophie.
Die Reaktion der heutigen Hochschullehrer zeugt meistenteils von Aufgeschlossenheit. Nur hier und da ergibt sich Widerstand gegen „Überfüllung der
30
Seminare“, „Besserwissen der selbsternannten Zeitzeugen“, der „Kunstliebhaber“,
„Literaturkenner“ und „Selbstdenker“. Das wird dann oft zur Begründung der
Ausgliederung und Organisation von eigenen Seniorenstudiengängen genommen.
In diesen abgesonderten ebenso wie in den integrierten Studiengängen aber findet
die heute charakteristische Begegnung zwischen den Laien und den Wissenschaftlern statt.
§ 6 Die alte und die reformierte Hochschulforschung und -Lehre
Die Schnittstelle alltäglicher und wissenschaftlicher Kompetenzen in der neuen Studienorganisation. Der Unterschied zwischen Fakultätsstudien und Fachstudien einer Fakultät und die Signifikanz akademischer Titel. Die Gliederung der Studien in Grund-, Haupt-, und Graduiertenstudium
im Baccalaureus-Magister-Doctorsystem und seine Modernisierung. Alte und neue Verständnisse
der „Einheit von Forschung und Lehre“ und des „forschenden Lernens“. Der Verfall der Vorlesung und der Aufstieg des Seminarbetriebs. Die Bildung und die Elite einst und jetzt
Wer heute im Hochschulbereich – der durch Fachhochschulen und private Hochschulen und Akademien weit über die alten Universitäten ausgeweitet wurde, –
seine Studien beginnt, sei es als Abiturient oder auf einem der zahlreichen neuen
Zugangswege – dürfte es schwer haben, sich in dieser „akademischen Welt“
zurechtzufinden. Darum seien hier einige Bemerkungen über die alten und die
neuen Prinzipien des Hochschul- und Studienwesens angefügt.10
Was das Lehrpersonal betrifft, so ist jeder Wissenschaftler auf seinem Gebiet
Fachmann und muß über dieses Gebiet bescheidwissen. Dafür sorgen schon die
Auswahl- und Qualifikationsverfahren. Aber es dürfte auch den Laien nicht
entgangen sein, daß die Fachgebiete, auf denen Wissenschaftler wirklich qualifiziert sind, immer enger gezogen werden. Und dies im Rahmen der ganzen Wissenschaften und ihrer Disziplinen, für die die Fachleute Diplome und Titel erwerben und auch vergeben.
Man erwartet dann mit einem gewissen Recht, daß die Fachleute nicht nur ihr
engeres Fachgebiet, sondern das ganze Gebiet beherrschen, für das sie ihre Titel
erworben haben. Das gilt vor allem von den einstigen höheren Fakultäten
Medizin, Jurisprudenz und Theologie, in denen man auch heute noch sämtliche
Spezialdisziplinen studieren muß, und deren Diplome und Doktortitel noch immer
10
L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen,
Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München (Alber) 1971; ders., Traditionelle Institutionen philosophischer Lehre und Forschung, in: Philosophie, Gesellschaft, Planung. Kolloquium H. Krings
zum 60. Geburtstag, hgg. v. H. M. Baumgartner u. a. (Bayerische Hochschulforschung I), München 1974, S. 28 – 48).
31
eine umfassende Kompetenz des Arztes, Juristen und Geistlichen verpricht. Seit
Beginn des 19. Jahrhunderts ist den Absolventen der einstigen höheren Fakultäten
noch der Nationalökonom beigetreten. Vordem studierten die Ökonomen in der
juristischen Fakultät die Staatswissenschaften und „Kameralistik“, was an manchen Standorten auch „Politische Ökonomie“ genannt wurde.
Aber auch diese alten Titel „Dr. med.“ „Dr. theol.“ (früher auch „D.“), „Dr.
juris“ (ggf. „Dr. juris utriusque“, d. h. des staatlichen und des Kirchenrechts) und
des „Dr. rer. pol.“ (Doktor der politischen Angelegenheiten) garantieren längst
nicht mehr, was sie einst bedeuteten. Auch in diesen Fakultäten, soweit es sie
noch gibt (es gibt sie meist nur noch in Gestalt der sogenanten „Fakultätentage“,
zu denen sich die früher zugehörigen Disziplinen regional zusammenschließen)
und soweit sie nicht in mehr oder weniger zufällige Fachbereichskombinationen
verteilt worden sind, ist die Spezialisierung weit fortgeschritten.
Auch in der „Philosophischen Fakultät“ studierte man bis ins 19. Jahrhundert
hinein alle Fächer des „geisteswissenschaftlichen“ Triviums und des „mathematisch-naturwissenschaftlichen“ Quadriviums, die dazu gehörten. Bis dahin behielt
sie auch ihren Status als „propädeutische“ (vorbereitende) Fakultät, die man vor
der Zulassung zum Berufsstudium der vorgenannten „höheren Fakultäten“ durchlaufen mußte. Aber nach der humboldtschen Reform zu Beginn des 19. Jahrhunderts erhielt diese Fakultät neben ihrer weiterbestehenden propädeutischen Aufgabe für alle höheren Studien zusätzlich die Aufgabe der regulären Berufsausbildung der Gymnasiallehrer.
Diese praktische Zielvorgabe der Philosophischen Fakultät ist jetzt etwa zweihundert Jahre alt. Wer sich aber als Studierender an dieser Fakultät immatrikuliert
hat, mußte meist feststellen, daß der Lehrbetrieb auf die Lehrerausbildung wenig
und gelegentlich gar keine Rücksicht nahm. Das dürfte auch ein wesentlicher
Grund dafür geworden sein, daß die Lehrerausbildung in einigen Bundesländern
den meisten ihrer Universitäten wieder weggenommen und an wenigen Hochschulen konzentriert worden ist. Die in der Philosophischen Fakultät Lehrenden
haben aber das traditionelle Bewußtsein beibehalten, die Propädeutik für alle
Universitätsstudien zu betreiben, und sie stellen es in mancherlei Arten von
„Studium generale“, jetzt vermehrt auch als „Seniorenstudium“ in den Vordergund. Dies umso mehr, als ja neben der Ausbildung der Gymnasiallehrer und
seit einiger Zeit auch der Lehrer anderer Schultypen die sogenannten akademischen Studiengänge für eine Reihe anderer Berufe in allen Kultur- und Medienbereichen qualifizieren sollen.
Wilhelm von Humboldt hat bei seiner Gymnasialreform (neben der Universitätsreform) das Kurrikulum der Oberstufe des Gymnasiums mit denselben
Fächern ausgestattet, die auch an der damaligen Philosophischen Fakultät, die
noch die quadrivialen Studien der Mathematik und Naturwissenschaften einschloß, gelehrt wurden. Und so blieben die Lehrpläne für das Gymnasium in der
Regel ein Fächerspiegel der einstigen Philosophischen Fakultät. Die einstigen
höheren Fakultäten aber hatten und haben daher kein gymnasiales Propädeutikum.
32
Sie entwickelten an seiner Stelle ihre jeweils eigenen fakultätsbezogenen
Propädeutika. In der Medizin entstand im 19. Jahrhundert das sogenannte Physikum, in welchem die naturwissenschaftlichen und mathematischen Grundkenntnisse und die Medizingeschichte für die weiteren Studien vermittelt wurden. Bei
den Juristen entwickelte sich ein rechtsphilosophisches und rechtsgeschichtliches,
oft auch rechtssoziologisches Vorstudium. Und es blieb typisch, daß diese Gebiete
keineswegs als „Service-Leistungen“ von den Fachleuten der Philosophischen
Fakultät gelehrt wurden. Vielmehr wachten die Juristischen Fakultäten geradezu
eifersüchtig darüber, ihre Rechtsphilosophen, Rechtshistoriker und evtl. Rechtssoziologen aus der eigenen Fakultät zu rekrutieren. Bei den Theologen aber waren
immer die Sprachstudien, insbesondere Hebräisch bzw. Aramäisch, die klassischen Sprachen und die Anfänge einer biblischen Archäologie Schwerpunkte des
Propädeutikums. Und auch diese wurden üblicherweise keineswegs als Service-Leistungen von den Gräzisten und Latinisten sowie den Altertumskundlern der
Philosophischen Fakultät gelehrt. Das macht jedenfalls verständlich, daß alle diese
relevanten Propädeutika in der Philosophischen Fakultät gleichsam ausgespart
wurden. Ebenso auch, daß die Rechtsphilosophen, Rechtshistoriker und ggf.
Rechtssoziologen der Fakultät wenig oder gar keinen Kontakt mit den Philosophen, Historikern und Soziologen der Philosophischen Fakultät haben.
Nach Absolvierung dieser Fakultäts-Propädeutika erhielt und erhält der Arzt,
Jurist, Theologe und Ökonom noch immer eine Ausbildung in allen „dogmatischen“ Fächern seiner Fakultät. Diese birgt sehr viel Handwerkliches und gewissermaßen Arkanes in sich, das man nur im langjährigen Umgang mit den Lehrern
im Fach erlernen bzw. sich vielmehr aneignen muß. Erst diese Schulung verleiht
dem Absolventen dieser Fakultäten das Flair und den Habitus, an dem der Laie
den typischen Arzt, Juristen und Theologen, manchmal auch den Volkswirtschaftler (neuerdings meist BWLer) erkennt. Man kann sie immer noch leicht von
den Studierenden der Philosophischen und Mathematisch-Naturwissenschaftlichen Fakuläten unterscheiden.
Gewiß haben auch die aus der (alten) Philosophischen Fakultät hervorgehenden
Gymnasiallehrer einen besonderen Habitus und gleichsam eine eigene Physionomie angenommen. Wer sich darüber wundert, wie geschwind das Lehrpersonal der Philosophischen und der Mathematisch-Naturwissenschaftlichen Fakultät mit den Kravatten ihre einstigen akademischen Gepflogenheiten im Umgang
unter einander und mit den Studierenden abgelegt haben, der unterschätzt den
sozialen Druck, den das pädagogische Ideal, sich den Auszubildenden anzugleichen, hier ausübt. An den Turnschuhen, Jeans, offenen Hemdkragen und
Pullovern, langen Haaren und Baseballkappen wird man hier schwerlich noch den
smarten Studierenden vom Assistenten oder auch vom Professor unterscheiden
können.
Die Absolventen der Philosophischen Fakultät, soweit sie Gymnasiallehrer
wurden, werden noch Philologen genannt. Dieser Gymnasiallehrertyp war anfangs
in allen Gymnasialfächern einsetzbar, d. h. in den historischen und philologischen
33
Nachfolgefächern des Triviums und in den mathematischen und naturwissenschaftlichen Nachfolgefächern des Quadriviums. Und daher versteht es sich, daß
nicht nur Sprach- und Geschichtslehrer, sondern auch Mathematiker, Physiker,
Chemiker und Biologen im gymnasialen Schuldienst auch jetzt noch gleichermaßen Philologen genannt werden, und daß ihre Standesvertretungen „Philologenverbände“ geblieben sind.
Veränderungen im Lauf des 19. Jahrhunderts betrafen einerseits die Abtrennung
der Mathematisch-Naturwissenschaftlichen Fakultät (also des einstigen quadrivialen Teils) von der übrigbleibenden Philosophischen Fakultät, andererseits eine
in beiden neuen Fakultäten einsetzende Spezialisierung sowohl der Studiengänge
wie der Lehrerqualifikation.
So entstand das sehr eingeschränkte Haupt- und Nebenfachstudium (oder auch
Zwei-Hauptfächerstudium) der Gymnasiallehrer. Der ehemalige Allroundphilologe, der alle „trivialen“ und „quadrivialen“ Fächer studiert haben mußte, war
deshalb auch in allen Fächern des gymnasialen Lehrplans einsatzfähig. Der neuere
Philologe ist jetzt nur für zwei Hauptfächer ausgebildet und kann sich weitere
Lehrbefähigungen allenfalls durch Zusatzstudien und entsprechende Ergänzungsprüfungen erwerben.
Der Absolvent der neuen Philosophischen Fakultät ist keineswegs „Philosoph“.
Er kann es allenfalls ausnahmsweise sein, wenn er die Philosophie als Spezialgebiet studiert hat. Er ist jetzt vielmehr im speziellen Sinne Philologe einer bestimmten Sprache und Literatur, oder er ist Historiker (neuerdings speziell für
alte, mittelalterliche, neuere oder Gegenwarts- bzw. Landesgeschichte), oder Sozialwissenschaftler (evtl. speziell Soziologe, Politologe, Medienwissenschaftler)
oder Erziehungswissenschaftler. Gelegentlich ist er auch Psychologe, falls er diese
Qualifikation nicht in der naturwissenschaftlich-mathematischen oder auch in der
medizinischen Fakultät erwirbt.
Der Naturwissenschaftler ist Mikro- oder Makrophysiker, Chemiker, Biologe
(aber statt Zoologen und Botanikern gibt es jetzt nur noch „Molekularbiologen“).
Oder er ist Mathematiker, und auch dies mit einer Reihe von Spezialisierungen,
darunter mindestens theoretische und angewandte Mathematik sowie mehr und
mehr „Informatik“. Den alten Nationalökonomen bzw. Volkswirt gibt es kaum
noch. An seine Stelle sind die Betriebswirtschaftler („BWLer“) getreten.
Gewiß erinnern hier die in Prüfungsordnungen geforderten Studien in einem
oder zwei Nebenfächern gleichsam als Schwundstufe noch an die einstige Forderung nach einem Studium aller zur Fakultät gehörigen Disziplinen. Vor allem
hatte sich das bis vor einigen Jahren noch im „Philosophicum“ als Zwischenprüfung für Lehramtskandidaten gehalten, bei welchem man über seine Hauptfächer hinaus auch philosophische und pädagogische Studien nachzuweisen hatte.
Aber solche breiten Fakultätsstudien sind heute ein Erinnerungsposten, der in
der Praxis bekanntlich kaum ernst genommen wird. Die Nebenfachstudien gehen
in der Regel kaum über die Einführungskurse der jeweiligen Grundstudien hinaus.
Überdies sind die Nebenfächer an vielen Fakultäten noch durch die Aufteilung
34
traditioneller Hauptfächer vermehrt worden, so daß ein früheres Fachstudium sich
jetzt aus zwei oder mehreren Nebenfächern zusammensetzt. Studierte man z. B.
früher Germanistik, so kann man jetzt die beiden Spezialitäten Germanistische
Linguistik als Sprachwissenschaft und Germanistische Literaturwissenschaft studieren. Hinzu treten neuerdings Spezialstudiengänge wie „Deutsch als Fremdsprache“, „Übersetzungswissenschaft“ oder „literarisches (kreatives) Schreiben“,
von denen man meinen sollte, die dazu nötigen Kompetenzen würden im
normalen Germanistik-Studium erworben. Daß davon keine Rede mehr sein kann,
wirft ein bezeichnendes Licht auf das, was im Normalstudium als zu erwerbende
Kompetenz gilt.
Diese Entwicklungen der letzten Jahrzehnte sind von allen Seiten begrüßt und
ständig weitergetrieben worden. Insbesondere die Bologna-Vereinbarungen der
europäischen Wissenschaftsminister zur Nachahmung angelsächsischer Bachelorund Masterstudiengänge haben auf diese Spezialisierungen bezug genommen.
Die Gliederung der Studien in Bachelor- und Masterstudien ist eine Erbschaft
der mittelalterlichen Studienorganisation. Diese gliederte sich in ein propädeutisches Grundstudium von zwei bis drei Jahren, das mit dem Grad des Baccalaureus („Junggeselle“) abgeschlossen wurde und erst den Eintritt in das Hauptstudium mit nochmals zwei bis drei Jahren Studiendauer erlaubte. Dieses wurde
mit dem Magistergrad („Meister“) abgeschlossen. Der Magistergrad war wiederum die Voraussetzung zur Zulassung zum Doktorstudium in den höheren
Fakultäten Jurisprudenz, Theologie und Medizin, das mit dem Doktorgrad
(„Gelehrter“) abgeschlossen wurde und im allgemeinen Vorbedingung für die Berufsausübung oder den Zugang zum Professorenamt war.
Diese Studienorganisation war auf die Auswahl der Besten und Geeignetsten
für die Wissenschaften in Forschung und Lehre abgestellt. Sie hat das abendländische Universitätssystem überhaupt zu dem gemacht, was es bis heute noch
teilweise ist. Und das heißt zugleich, daß es auch dort, wo die alten Bezeichnungen verschwanden, durchaus aufrecht erhalten wurde. Daher kann es nicht
verwundern, daß es besonders den deutschen Universitäten keine allzu großen
Schwierigkeiten gemacht hat, ihre immer noch bestehende Studienstruktur wieder
in die alten bzw. jetzt neuen englischen Bezeichnungen einzukleiden.
Aber Bachelor-Studien sind und bleiben Grundstudien. Daß sie von der Bildungsbürokratie gesetzlich als Berufsstudien mit Berufsfähigkeitskompetenz und
eigenen Diplomen ausgewiesen worden sind, zeigt nur an, welch überspannte
Vorstellungen heutige Bildungspolitiker von der Leistungsfähigkeit dieser Grundstudien haben. Teils aus Einsicht, teils resignierend nehmen sie es daher hin, daß
die einstigen höheren Fakultäten sowie die Ingenieur-Hochschulen sich diesem
Trend verweigern und keinen ihrer Absolventen als Bachelor in ihre (freien)
Berufe entlassen wollen. Und diese Fakultäten tun das aus dem Bewußtsein ihrer
Verantwortung gegenüber der Öffentlichkeit, nur ausstudierte und kompetente
Fachleute in die Berufspraxis zu entlassen. Daß auch die meisten Bachelors das
längst eingesehen haben, sieht man schon daran, daß sie weiterstudieren und
35
mindestens den Master-Grad erwerben wollen. Und um dies weitestgehend zu
ermöglich, geben sich die meisten Lehrenden auch alle Mühe, die Prüfungsanforderungen für den Erwerb des „Bachelors“ so weit abzusenken, daß jeder
Studierende die „Befriedigend-Hürde“ zum Weiterstudium überwinden kann.
Das Hauptstudium in allen Studiengängen heißt jetzt Master-Studium. Die daneben noch teilweise bestehenden Staatsexamens- und Diplom-Ingenieur-Studiengänge werden allerdings von den Medizinischen, Juristischen und Ingenieurwissenschaftlichen Fakultäten mit Zähnen und Klauen verteidigt. Zum Teil sind
sie in einigen deutschen Bundesländern, wo sie schon abgeschafft worden waren,
wieder eingeführt oder zugelassen worden. Dies nicht zuletzt deshalb, weil ihre
Absolventen weltweites Ansehen genießen und ihre Diplome eine vielfach weit
über dem Mastergrad liegende Berufskompetenz garantieren.
An das Hauptstudium kann sich noch das „Graduierten-Studium“ des potentiellen Hochschullehrernachwuchses anschließen. Auch das Graduierten-Studium
mit dem Abschluß des Doktorgrades ist gegenwärtig im Begriff, sich zu verändern. Die individuelle Betreuung der Doktoranden durch einen verantwortlichen
„Doktorvater“ oder eine „Doktormutter“ wird mehr und mehr abgelöst durch das
kollektive Betreuungssystem der „Graduierten-Studiengänge“, die dann meist
„Colleges“ genannt werden. Sie werden durch finanzielle Sonderzuweisungen an
die Hochschulen gefördert und tragen dadurch wesentlich zum Ausweis von
„Exzellenz“ der sie einrichtenden Hochschulen bei.
Diese Veränderungen sind ein Beispiel dafür, daß moderne Reformen teilweise
auf die Wiederherstellung alter Formen und Muster hinauslaufen. Zum überwiegenden Teil handelt es sich aber um politische Experimente mit dem Bildungswesen, von denen noch niemand absehen kann, ob sie zum Vorteil oder zum
Schaden künftiger Generationen ausschlagen werden.
Bei alledem sollte man nicht vergessen, daß auf allen Stufen der HochschulAusbildung herausragende Studierende auch zur Lehre herangezogen wurden, was
ja gerade für den Nachwuchs die beste Lehre für die Lehrbefähigung darstellt. Das
gehörte und gehört zum System.
Wilhelm von Ockham (um 1290 – um 1348), einer der bedeutendsten scholastischen Philosophen, erwarb nur den Grad eines Baccalaureus, während die
meisten mittelalterlichen Philosophen darüber hinaus den Magistergrad der Philosophischen Fakultät und dann den Doktorgrad der Theologischen Fakultät
erwarben. Ockham wurde daher „venerabilis inceptor“ (verehrungswürdiger Lehrer, zugleich aber auch „Anfänger“) genannt. Unter heutigen Verhältnissen würde
man ihn Assistenz- oder Juniorprofessor genannt haben und hätte ihn bei seiner
offensichtlichen Bewährung in der Lehre alsbald mit dem Titel „apl. Professor“
(außerplanmäßiger, d. h. nicht im Stellenplan des Universitätshaushaltes besoldeter Hochschullehrer) oder „Honorarprofessor“ (d. h. „ehrenhalber mit dem Professorentitel versehen, ebenfalls nicht im Stellenplan) versehen.
Man kann erwarten, daß dieses System in allen Wissenschaften noch immer
hervorragende Wissenschaftler hervorbringt. Es sind vor allem auch nicht weniger
36
als vor einem halben Jahrhundert, als der gesamte Wissenschaftssektor und die
Zahl der Hochschulen viel kleiner war als heute.
Aber vermutlich liefert es auch heutzutage nicht mehr hervorragende Wissenschaftler als damals, da das alte System – entgegen einer modischen Kritik an den
sozialen Bildungsschranken - längst darauf abgestellt war, mit Hilfe von Stipendien alle Begabungsressourcen auszuschöpfen. Sie bilden das heran, was man
heute allenthalben als Elite beschwört, so als hätte man keine mehr. Aber das Bild
dieser wissenschaftlichen Elite in der Öffentlichkeit ist weder klar noch adäquat,
sonst hätten der Exzellenzdiskurs und ministerielle Bemühungen, Exzellenz überhaupt erst hervorzubringen, nicht aufkommen können. Offensichtlich fehlt es
dieser Elite an Zeit und Willen, ihre Leistungen in der Medienöffentlichkeit angemessen zu vermitteln. Und diejenigen, die das für sie besorgen, sind nicht immer
ihre überzeugendsten Repräsentanten.
Wie aber schon gesagt, sind moderne Wissenschaftler meist Fachleute in den
immer enger gezogenen Grenzen ihrer Fachgebiete, in denen sie sich in der Regel
nur durch ihre veröffentlichten Forschungsleistungen bekannt machen. Damit
kommen wir aber zu einem Punkte, an dem das gegenwärtige Wissenschaftssystem besonders in Deutschland am meisten im argen liegt. Und es ist gerade
dieser Punkt, wo der Laie und der Studierende dem Wissenschaftssystem zuerst
und mit nachhaltigsten Auswirkungen begegnet.
Noch immer beruht das neuere deutsche Wissenschaftssystem, besonders der
Universitäten, auf den Ideen und Plänen Wilhelm von Humboldts.11 Ihre Realisierung führte die deutsche Wissenschaft im 19. Jahrhundert an die Weltspitze und
wurde in den USA, Japan und einigen anderen Ländern übernommen. W. v.
Humboldt stellte in seinen einschlägigen Schriften die zwei wesentlichen Grundsätze der „Einheit von Forschung und Lehre“ und des „forschenden Lernens in
Einsamkeit und Freiheit“ heraus und schrieb sie gewissermaßen fest.
Die Einheit von Forschung und Lehre entsprach einer auch vordem an vielen
Universitäten herrschenden Tradition, nach der nur ausgewiesene Forscher dort
lehren sollten. Damit war ein grundsätzlicher Unterschied zwischen Schulen (auch
dem Gymnasium) mit streng geregeltem „Unterricht“ und Universitäten mit
„freier Lehre“ begründet. Dieses Organisationsprinzip der Universitäten wird
neuerdings durch die sogenannte Verschulung der Hochschulen und durch die
(noch weitgehend nur geplante bzw. diskutierte) Einführung reiner „Lehrprofessuren“ konterkariert. Deren Lehrdeputat soll zwischen 12 und 20 Veranstaltungsstunden pro Woche betragen, was dem üblichen Lehrpensum der Gymnasiallehrer entspricht. „Studienräte im Hochschuldienst“ gab es aber auch bisher
schon vereinzelt. So soll durch die Lehrprofessuren dies Institut nur ausgeweitet
werden.
11
W. von Humboldt, Über die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin (ca.
1810), in: W. v. Humboldt, Studienausgabe in 3 Bänden, hgg. von K. Müller-Vollmer, Frankfurt a. M. 1972, Band 2, S.
133 – 141.
37
Das humboldtsche forschende Lernen in Einsamkeit und Freiheit entsprach
ebenfalls einem verbreiteten Brauch, die Studierenden als erwachsene Menschen
ernst zu nehmen, die in der Lage sein sollten, nach eigenen Begabungen, Neigungen und Interessen aus dem vielfältigen Lehrangebot dasjenige auszuwählen,
was sie selber zur Bildung ihrer Persönlichkeit und zur Qualifikation für künftige
Berufsaufgaben für richtig und wichtig hielten. Daß dies in engster Zusammenarbeit mit ihren Lehrern, nämlich „in Teilnahme an ihren Forschungen“, geschehen
konnte, ergab sich bei der meist geringen Zahl der Studierenden von selbst.
Humboldts Ideen werden bis heute immer wieder beschworen, und sie gehören
zweifellos noch immer zum Selbstverständnis der meisten Wissenschaftler, und
dies nicht nur in Deutschland. Ihre Anwendung in der Praxis des modernen
Hochschulbetriebes ist freilich weithin zu einem Zerrbild geraten.
Die Einheit von Forschung und Lehre wird vom durchschnittlichen Hochschullehrer so verstanden, daß er nur das lehrt, was er selbst erforscht hat. Da dies
naturgemäß nur einige Schwerpunkte seines Faches betreffen kann, das er vertreten soll, findet man kaum noch Lehrer, die den Überblick über ihr Fach behalten
haben und es in den sogenannten „großen Vorlesungen“ oder in umfassenden
„Lehrbüchern“ vorführen können. So kann es auch nicht wundern, daß nunmehr
der Doktorand als studentischer Tutor oder der Doktor in der Rolle des Assistenzoder Juniorprofessors zur maßgeblichen Hochschullehrerfigur wird, da er in
seinem Seminar unmittelbar aus seinen Forschungen schöpft und schöpfen muß.
Die „Einsamkeit und Freiheit“ der Studierenden macht zweifellos noch immer
die große Attraktivität des selbstbestimmten Studentenlebens im „Freiraum Hochschule“ aus. Dies im Unterschied zu den Schulen (und auch Fachhochschulen),
wo der (einstmalige) Schülerstatus merkliche Zwänge der Präsenz und Assiduität
mit sich brachte und z. T. noch mit sich bringt.
Es ist gewiß in erster Linie dem Ernstnehmen dieser Freiheit der Studierenden
durch die Universitätslehrer geschuldet, daß sie eher darauf warten, ob und daß
Studierende in ihre Lehrveranstaltungen und zur Beratung und Betreuung zu
ihnen kommen, als daß sie ihnen nachlaufen und irgend welchen Druck auf sie
ausüben. Das Problem besteht eben darin, in welchem Maße die vielfach „nicht
erwachsen werden wollenden“ jungen Leute dieser Freiheit gewachsen sind.
Jedenfalls sind es nicht die Professoren, die es ihnen verdenken oder sie gar daran
hindern, ihre Freiheit dazu zu benutzen, im gesellschaftlich einigermaßen angesehenen Status der „Studierenden“ alles andere zu betreiben als zu studieren. Und
wäre das nicht so, so wäre ein einigermaßen geregelter Lehrbetrieb und die Betreuung in den meisten Fächern wegen Überfüllung schon längst nicht mehr
möglich. Andererseits wird man sich nicht verhehlen, daß immatrikulierte Studenten, auch wenn sie nicht studieren, den regulären Arbeitsmarkt merklich entlasten.
Am meisten dürfte aber das „forschende Lernen“ unter gegenwärtigen Bedingungen mißverstanden werden. Die „Teilnahme an der Forschung“ kann ersichtlich nur im engeren Kreis der Fortgeschrittenen, etwa bei der Anfertigung von
Examensarbeiten unter Anleitung und Betreuung der Hochschullehrer, stattfinden.
38
Dafür gibt es in den meisten Disziplinen jetzt besondere Forschungskolloquien.
Der durchschnittliche Student und besonders der Anfänger geht aber davon aus,
daß die Forschung schon im Proseminar oder einer „Übung“ beginne. Somit gilt
jetzt gewöhnlich schon das Lesen eines Aufsatzes oder gar eines ganzen Buches
oder das Herunterladen eines Textstückes aus dem Internet als echte Forschungsleistung. Dies umso mehr, als heute das Lesen wissenschaftlicher Texte selbst
schon als kaum zumutbare Arbeit gilt. Darum erwarten viele Studenten von ihren
Lehrern, daß sie ihnen „vortragen, was in den Büchern steht“ (wie es auch von
studentischen Fakultätsvertretern gelegentlich gefordert wird). Und das muß der
Hochschullehrer dann auch in gehörigem Maße tun. Vorauszusetzen, daß alle oder
auch nur die Mehrzahl von Seminarteilnehmern einen thematischen Text vor der
Seminar-Diskussion gelesen hätten, hieße, über die Köpfe der meisten hinwegzureden und sich von vornherein um den Lehrerfolg oder um eine positive Bewertung in den neuerdings eingeführten Lehrevaluationen durch die Studierenden
zu bringen.
Ein verhängnisvoller Mißstand der Studienorganisation besteht heute darin, daß
sich die Professoren auch wegen solcher Erfahrungen im Grundstudium weitgehend aus den Lehrveranstaltungen des Grundstudiums, also der Anfänger, zurückgezogen haben und die ganze Propädeutik der Fächer Aufgabe der wissenschaftlichen Mitarbeiter oder auch der studentischen Hilfskräfte geworden ist.
Bis in die frühen sechziger Jahre war das geradezu umgekehrt. Es war fast
Ehrensache und daneben auch von pekuniärem Reiz wegen der „erlesenen Hörgelder“ (nämlich 2,50 DM pro Hörer und Vorlesungsstunde), daß die Professoren
möglichst große Übersichts-Vorlesungen für Anfänger und „Hörer aller Fakultäten“ hielten. Die Assistenten, die bis dahin durchweg mindestens schon den Doktorgrad erworben haben mußten, durften, wenn sie überhaupt zur Lehre herangezogen wurden, Spezialseminare über ihre eigenen Forschungsgegenstände abhalten. Heute ist es dagegen fast allgemein üblich geworden, daß die sogenannten
Mitarbeiter meistens Doktoranden (gelegentlich auch „Magistranden“) sind, die
sich erst noch in ihren Forschungsgegenstand einarbeiten müssen. Nur die
wenigsten dieser wissenschaftlichen Mitarbeiter haben längerfristige Stellen (die
früheren Assistentenstellen bei einem Professor) inne. Die meisten werden jetzt
aus Drittmitteln eines Forschungsprojektes dotiert. Und das hat überall zu dem
geführt, was man das Prekariat nennt: junge und oft schon voll ausgebildete
Leute, die ihre besten Jahre in oft nur auf einige Monate befristeten Projektstellen
verbringen, bei denen kaum absehbar ist, ob sie verlängert werden, entfallen oder
durch ein anderes Projekt ersetzt werden können. Diese Mitarbeiter werden aber
in den meisten Fällen auch zur Lehre herangezogen.
Bis dahin und weithin noch jetzt war und ist das Vorlesunghalten überhaupt ein
striktes Privileg der Professoren und der mit der „Venia legendi“ (Verleihung des
Rechts, Vorlesungen zu halten) versehenen Privatdozenten. Eine eigentliche Ausbildung für das Vorlesungshalten gab es nie. Allenfalls ergaben sich Gelegen-
39
heiten zur Vertretung der Professoren bei deren Abwesenheit durch ihre Assistenten in einzelnen Lehrveranstaltungen.
Aber das Abhalten von Vorlesungen überhaupt und das der „magistralen
Vorlesungen“ über das ganze Fach insbesondere hatte für die Professoren den sehr
großen Vorteil, daß sie dadurch jederzeit den Überblick über ihr ganzes Fach zu
erarbeiten, zu behalten und zu pflegen hatten. Es war gleichsam eine ständige
Turnübung für Geistesgegenwart. Und darüber hinaus war die Übung auch heuristisch fruchtbar. Wer sich ständig um diese Geistesgegenwart bemühte, setzte
sich auch in die Lage, immer wieder neue Verknüpfungen zwischen den Inhalten
herzustellen, sie zu überprüfen und daraus Gesichtspunkte für neue Forschungsfragen zu entwickeln.
Als 1964 die genannten „erlesenen“ Hörgelder in der Bundesrepublik pauschaliert wurden, um den krassen Unterschied der Erzielung von Hörgeldern in
den großen Massenfächern und den kleinen sogenannten Orchideenfächern aus
Gründen der Gerechtigkeit einzuebnen, entdeckten die Didaktiker, daß sogenannter Frontalunterricht, unter den man auch die akademischen Vorlesungen
subsumierte, autoritär und indoktrinierend sei. Sofort sank das Interesse an den
Vorlesungen zugunsten des freien Dialogs im Seminarbetrieb, bei dem fortan der
nummerus clausus der Kleingruppen regierte.
Das kam vielen Privatdozenten und neu berufenen Professoren sehr zupaß,
denn sie hatten oft vor ihrem Amtsantritt noch nie eine Vorlesung gehalten,
wußten andererseits aber genau, wieviel Arbeit und Mühe dazu hätte investiert
werden müssen. Hinzu kam durch dieselbe Besoldungsreform der Oktroi einer
Lehrverpflichtung für die Professoren von acht (jetzt mancherorts neun), für
Assistenten bzw. wissenschaftliche Mitarbeiter von mindestens zwei Stunden.
Vordem waren die Professoren nur dazu verpflichtet, „nach Bedarf im Fache“
Lehrveranstaltungen abzuhalten. Das konnten zuweilen 15 Stunden sein, aber
auch „mindestens eine Lehreinheit“ (d. h. eine Vorlesung und ein zugeordnetes
Seminar), wie man sie im allgemeinen von den Privatdozenten forderte und auch
jetzt noch fordert. Manche berühmten Professoren, an deren Forschungen die
Universität und das zuständige Ministerium besonders interessiert waren, hatten
sich in ihren Berufungsverhandlungen sogar ausbedingen können, überhaupt keine
Lehrveranstaltungen abzuhalten, um sich gänzlich der Forschung zu widmen.
Begleitend zur Einrichtung reiner Lehrprofessuren sollen übrigens nach neuesten
Plänen auch wieder vermehrt solche reine Forschungsprofesssuren (ohne Lehrverpflichtung) eingeführt werden.
Der Lehrverpflichtung seit 1964 ließ sich am bequemsten durch Seminare und
Kolloquien nachkommen, da die Zeit für die Ausarbeitung von Vorlesungen
immer knapper wurde. Wer heute in das Vorlesungsverzeichnis einer Universität
schaut, wird leicht bemerken, daß nur noch die Historiker – ans Geschichtenerzählen gewöhnt – in nennenswertem Umfang Vorlesungen halten, die übrigen
Professoren allenfalls eine einzige pro Semester, und die Assistenten dürfen und
mögen es immer noch nicht. Die neuen Junior-Professoren haben inzwischen
40
dieselben Lehrverpflichtungen wie ihre älteren Professorenkollegen. In manchen
Fächern, die sich besonders forschungsintensiv geben, verzichtet man zugunsten
der Forschungsseminare von vornherein auf Vorlesungen.
Die fatalen Folgen dieser Studienorganisation liegen eigentlich auf der Hand.
Aber man spricht kaum darüber, es sei denn, daß sie als Fortschritt gepriesen
werden.
Die ehemaligen „großen Fächer“ (Einzelwissenschaften) leben praktisch nur
noch in Instituts- und Seminarbezeichnungen fort. Die einstigen „Lehrstühle“ für
das ganze Fach, die man durchweg als Parallelprofessuren eingerichtet hatte,
werden jetzt für vielerlei Unterdisziplinen ausgelegt und ausgeschrieben, und das
setzt sich bei den ehemaligen „Extraordinariaten“, den vorigen C-3 und jetzigen
W-2 Professuren weiter fort.
Die Zerstückelung der Fächer in Spezialdomänen der bestallten Hochschullehrer schon bei den Stellenausschreibungen wird zwar überall mit der notwendigen und sachangemessenen Spezialisierung der Forschung begründet. Aber
solche Spezialisierungen ergaben sich als „Schwerpunkte“ innerhalb des zu vertretenden Lehrfaches schon immer von selbst. Die jetzt praktizierten SpezialistenAusschreibungen dienen aber vor allem dem Zweck, überhaupt neue Professorenund Mitarbeiterstellen zu erhalten und jede Konkurrenz zwischen den Fachvertretern, wie sie nur durch die früher üblichen Parallelprofessuren in den Fächern
gewährleistet war, zu verhindern.
Das überall geforderte „Profil“ der Fächer besteht dann vor allem in der Vielzahl und Buntheit der Spezialitäten an den einzelnen Fakultäten und Universitäten. Es kann nicht verwundern, daß viele Professoren diese Gelegenheit nutzen,
ihr persönliches Lehrangebot und ihre speziellen Forschungsinteressen in einem
neuen Studiengang zu etablieren. An attraktiven und vielversprechenden Bezeichnungen dafür fehlt es nirgends. Dadurch sind aber die tatsächlich angebotenen
Studieninhalte kaum noch erkenbar oder vergleichbar geworden. Und um hier
dem Wildwuchs neuer Studiengänge zu steuern, haben die dadurch überforderten
Kultus- bzw. Wissenschaftsministerien deren Überprüfung, Vergleichung und
Vereinheitlichung privaten Akkreditierungsgesellschaften übertragen, vor denen
die Fakultäten und Fachbereiche ihre Studiengänge in regelmäßigen Abständen
offenzulegen und zu rechtfertigen haben. Diese Akkreditierungsgesellschaften
rekrutieren ihr Personal zum größten Teil aus selbsternannten „Hochschuldidaktikern“ und zum geringeren Teil aus Fachkollegen, die dadurch reichlich Gelegenheit und Mittel finden, ihre Vorstellungen von den richtigen und zukunftweisenden Inhalten der kurrikularen Lehrangeboten den jeweiligen Fächern aufzuoktroieren.
Die auf diese Weise verursachte Zersplitterung des Lehrangebots hat kompensatorisch zur Einrichtung von „interdisziplinären“ Kooperationen und Koalitionen
(Clustern) mit einem Superprofil geführt. Was man dabei als „interdisziplinäre
Forschung und Lehre“ bezeichnet, ist zwar manchmal eine echte Kooperation der
Fachleute, die das Spezialwissen ihrer Fächer einbringen, sehr oft aber ein dilet-
41
tantisches Herumwildern in allen Disziplinen, die die Lehrenden vorher nicht
studiert haben.
Nichts erscheint jetzt einfacher, als für beliebige Probleme neue Professuren
oder gar Institute „In“ und „An“ den Hochschulen einzurichten, die das Problem
interdisziplinär „beforschen“ und in der Lehre plausibel darstellen sollen. Die
Lehr-Kurricula dieser „innovativen Fächer“ bestehen dann in der Regel aus den
Service-Leistungen älterer bodenständiger Fächer. Die Forschungsmethodologie
ergibt sich meist aus dem „Praxisbezug“ und allenfalls aus demjenigen, was die
dazu eingesetzten Lehrpersonen früher selbst studiert haben. Und hinter allen aus
dem Fächerfundus der traditionellen Universitäten gespeisten neuen Disziplinen
und Wissenschaften dehnt sich dann noch das weite Reich ehemaliger Fachschulund Handwerkslehren aus, die überall auf die „Akademisierung“ ihrer Kurrikula
an Universitäten drängen. Die Blüten solcher Entwicklungen kann man jede
Woche in den zahlreichen Annoncen neuer Studiengänge und Fortbildungsangeboten von Hochschulen in der Tagespresse zur Kenntnis nehmen. Die Anzahl der
in Deutschland studierbaren Fächer und Fächerkombinationen beträgt aktuell etwa
eintausendachthundert.
Für die Studienanfänger und für die Öffentlichkeit ist diese Organisation der
Lehre naturgemäß bunt, verwirrend und interessant. Sie kommt den Erwartungen
an Vielfalt, Schwierigkeit und Tiefe der Fächer entgegen. Nur einen ungefähren
Überblick über das zu gewinnen, was zunächst oder überhaupt zu studieren wichtig ist, ist selbst zu einem Teil des Studiums geworden und trägt damit schon von
selbst seinen Teil zur Verlängerung der Studienzeiten bei.
Studierte man in früheren Zeiten das oder die Fächer, für die man in der gymnasialen Oberstufe am meisten Interesse entwickelt und die besten Schulnoten
bekommen hatte, so kommt es jetzt häufig oder gar überwiegend vor, daß man
gerade das interessant und studierenswert findet, wovon man auf der Schule nichts
oder wenig erfahren hatte. Naturgemäß erfreut sich gerade die Philosophie dieser
Attraktivität in besonderem Maße, was überall zu hoher Studiennachfrage und
vergleichsweise vielen Mißerfolgen im Studium führt.
Dabei verstärkt sich eine Anforderung an die Studierenden beträchtlich, die
auch Wilhelm von Humboldt schon im Auge gehabt hatte. Humboldt hatte gefordert, daß die Studierenden die „Universalität“ des Lehrangebotes in ihrer persönlichen „Individualität“ zu einem Ganzen, einer „Totalität“ der erworbenen Bildung verknüpfen sollten. Er ging dabei davon aus, daß diese Totalität gerade nicht
von den Lehrenden vorgegeben werden konnte noch sollte, da sie ja jeweils nur
ihre Fächer bzw. ihre Wissenschaft zu vertreten hatten. Die Umsetzung lieferte
daher Absolventen, in deren Köpfen sich nicht nur die studierte Einzelwissenschaft, sondern überhaupt wissenschaftliche Bildung zu einem Ganzen fügte.
Unter heutigen Verhältnissen kann dies kaum noch auf das Gesamt einer
einzigen, geschweige denn mehrerer oder gar aller Wissenschaften bezogen werden. Im gleichen Maße wie die allgemeine Bildung verschwindet, nimmt das
öffentliche Reden über und Fordern von „Bildung“ zu. Auch die spezialisierten
42
Lehrer und Forscher haben, wie wir schon sagten, gewöhnlich nicht mehr den
Überblick über das Ganze ihres Faches. Und auch deswegen schotten sich die
einzelnen Fakultäten bzw. Fachbereiche mehr und mehr gegeneinander ab. Für
„interfakultative“ Gespräche und Treffen der Fachvertreter fehlt es bei der zunehmenden Spezialisierung und dem zeitlichen Druck der Geschäfte sowohl an Zeit
wie an Interesse.
Wohl aber hat der bei so vielen Spezialisten studierende junge Kopf noch
immer alle Chancen, sich Überblicke über den „Tellerrand“ seines engeren Studienfaches hinaus zu erarbeiten. Doch den meisten sind bei der jetzt üblichen
Kapazitätsplanung des Stundenbudgets für Besuch sowie Vor- und Nachbereitung
der Lehrveranstaltungen (die sich am Arbeitsvolumen von ca. 40 Wochenstunden
der lohnabhängig Beschäftigten orientiert) engste Grenzen gesetzt.
Erwähnen wir aber auch die neueste Initiative des Landes Nordrhein-Westfalen
im letzten Hochschulgesetzt von 2014 zur Aufhebung der persönlichen Anwesenheitspflichten der Studierenden in den Lehrveranstaltungen. Sie wird damit begründet, daß so viele Studierende aus unterprivilegierten Bevölkerungsschichten
tagsüber ihren Lebensunterhalt durch eine berufliche Tätigkeit finanzieren müßten. Da sie auf diese Weise tagsüber nicht mehr an Lehrveranstaltungen teilnehmen können, kann die Präsenz bei Lehrveranstaltung nur noch in besonders zu
begründenden Fällen verbindlich gefordert werden. Die einstige akademische
Freiheit zum Besuch oder Nichtbesuch von Vorlesungen (und nur von diesen) an
den Universitäten, wodurch die Studierenden gegebenenfalls auch ihren Beifall
oder ihre Mißbilligung bezüglich des jeweiligen Dozenten zum Ausdruck brachten, wird durch das neue Hochschulgesetz auf alle Übungen und Seminare an
allen Hochschulen ausgedehnt.
Gewitzte Geister vermuten, daß im nächsten Hochschulgesetz alle Hochschulen
des Landes der Fern-Universität Hagen, die mit ca. 80 000 Studierenden ohnehin
die größte Hochschule Deutschlands ist, eingegliedert werden. Für das danach
folgende Hochschulgesetz wäre in Konsequenz zu erwarten, daß auch der gesamte
Lehrbetrieb eingespart und durch ein zentrales Videoprogramm exzellenter Lehre
im MOOC-Verfahren ersetzt wird. Deren Inhalte lassen sich preisgünstig als
Video-Mitschnitte von Lehrveranstaltungen der prominentesten Professoren USamerikanischer Ivy-League-Universitäten und auch schon einiger deutscher Exzellenz-Universitäten kaufen.12
12
Eine vorsichtige Empfehlung des MOOC-Verfahrens (Massive Open Online Courses) liegt
schon seit einiger Zeit vor. Der geschäftsführende Direktor der German-American Fulbright Commission Rolf Hoffmann verspricht sich davon: „Neue didaktische Modelle im online-learning
erhöhen die Qualität der Lehre, vermitteln komplexe Inhalte verständlicher, öffnen auch kleinen
Hochschulen neue Nischen bei der Rekrutierung und Einbindung Studierender (gerade im dualen
Bereich) und erreichen potenziell Studierwillige, die sonst nicht den Weg zur Hochschule finden“.
In: Forschung und Lehre 8/13, S. 606.
43
§ 7 Das Verhältnis der „klassischen“ Logik zur modernen „mathematischen“ Logik
Die Reste der klassischen Logik im Alltagsverständnis und das Aufkommen der modernen Logik.
Moderne Logik als „mathematische Logik“. Bedarf einer Modernisierung der klassischen Logik,
auch im Hinblick auf die „Logik der Mathematik“. Deren Aufgaben und Fragen. Prospekt einer
erneuerten klassischen Logik und Kritik der Fehlentwicklungen der mathematischen Logik. Reintegration intensionaler und extensionaler Logik. Das Verhältnis von Formalismus und inhaltlichem Wissen. Der Formalismus als Notation der Sprache. Kritik der üblichen logischen Zeichenformeln. Über den Unterschied ausdrucksbildender und urteilsbildender Junktoren. Die Gleichung
als definitorischer Ausdruck und als methodische Artikulationsform der Mathematik und mathematischen Logik. Die Waage und ihr Gleichgewicht als Modell der Gleichungen. Über Sprache
und Metasprache. Die formale Logik als Teil der Bildungssprache. Anforderungen an einen guten
Formalismus
Um in die Wissenschaft überhaupt und in die Philosophie insbesondere einzudringen, tut man gut daran, sich mit der Logik zu befassen. Diese versteht sich
wesentlich als Lehre von der wissenschaftlichen Wahrheit, Falschheit und
Wahrscheinlichkeit. Sie ist die methodische Hauptdisziplin für alle Wissenschaften. Seit jeher wird sie als Teildisziplin der Philosophie gelehrt und erfüllt
damit einen letzten Rest ihrer früheren propädeutischen Aufgabe für alle Wissenschaften.
Da die Logik als Disziplin schon fast in den Anfängen der Philosophie von den
Megarern begründet, von den Sophisten geübt, von Aristoteles auch z. T. formalisiert und jedenfalls in ihrer klassischen Gestalt schon ausgearbeitet worden ist,
von da an auch ständig ein beachtliches Hilfsmittel für die inhaltlichen Wissenschaften war, ist ihr Gebrauch selbstverständlich geworden, auch im alltäglichen
Denken. Auch der wissenschaftliche Laie ruft gelegentlich einen Gesprächspartner dazu auf, irgend eine Angelegenheit „logisch zu beurteilen“, sich überhaupt „einen Begriff von einer Sache“ zu machen und aus bestimmten Sachverhalten „Schlüsse zu ziehen“. Auch das geflügelte Wort vom „gesunden Menschenverstand“ dürfte sich der Tatsache verdanken, daß man wenigstens die Rudimente logischer Kultur in den weitesten Kreisen voraussetzt.
Das hat dazu geführt, daß viele Wissenschaftler glauben, ihre gleichsam mit der
Muttermilch aufgesogene logische Kompetenz genüge auch in ihrem Fache, und
eine besondere Befassung mit der disziplinären Logik erübrige sich.
Wenn argumentiert wird, versucht man seine Thesen zu begründen und beruft
sich eventuell auf das Leibnizsche Prinzip vom Grunde. Hält man etwas für
falsch, so versucht man einen Widerspruch aufzudecken und beruft sich auf das
Prinzip vom zu vermeidenden Widerspruch. Auch das Prinzip der Identität wird
noch gerne beschworen, falls jemand im Gespräch von einer zu einer anderen
Bedeutung eines ins Feld gestellten Terminus übergeht. Und will man ein Diskussionsende erzwingen, so stellt man den Gesprächspartner gerne vor die Alternative, sich entweder für oder gegen eine entscheidende These auszusprechen.
44
Denn: „tertium non datur“, wie bekanntlich das Prinzip vom ausgeschlossenen
Dritten besagt.
Damit kommt man in den meisten Fällen ganz gut durch. Doch der wissenschaftstheoretisch etwas gewitztere Kollege kontert mit Autoritäten und neueren
Forschungsergebnissen. Er weiß von Karl Albert, daß man in der Wissenschaft
überhaupt nichts begründen kann. Denn jede Begründung ist entweder „dogmatisch“ (und schon deswegen theologischer Voreingenommenheit verdächtig), oder
sie beruht auf einer Petitio principii, (sie beweist, was sie vorausgesetzt hat, und
sie setzt voraus, was sie beweisen will), oder sie führt zu einem unendlichen
Regreß immer weiter zurückreichender Begründungen, und etwas Viertes gibt es
nicht. Das Argument geht auf Jakob Friedrich Fries zurück und ist mittlerweile
auch als Friessches Trilemma bekannt.13 Auch beim Widerspruch behauptet etwa
die neuere Paralogik (wie schon I. Kant bezüglich der „dynamischen Antinomien
der reinen Vernunft“), daß Widersprüchliches gelegentlich wahr sein könne. 14
Bezüglich der Identität der Begriffe hat L. Wittgenstein behauptet, daß sich
unter Begriffen nur „Familienähnlichkeiten“ und gegebenfalls gar keine Identitäten der Bedeutungen erfassen ließen.15 Wem dies schon zu lange her ist, der beruft
sich auf die neueste daraus entstandene „Fuzzi-Logik“, die „unscharfe Begriffe“
(hinsichtlich ihrer Intensionen und/oder Extensionen) zuläßt.16
Das Tertium non datur gilt vielen schließlich durch die avanciertesten Theorien
der Mathematik und Mikrophysik als längst überholt und als eingeschränkter
Spezialfall für klassische Problembewältigung. 17
Werden solche Argumente noch durch einige logische bzw. mathematischlogische Formeln unterstützt, so wird der Muttermilch-Logiker sicher sogleich die
Waffen strecken und das Gespräch verständnislos beenden. Was ihn aber nicht
hindert, auf seiner Meinung zu bestehen und die moderne Logik und Wissenschaftstheorie insgesamt für sophistisches Gerede zu halten. Auch darin zeigt
sich die zunehmend sich weitende Kluft zwischen den wissenschaftlichen Kulturen und den sogenannten Laien.
Die Mathematik hat für die sogenannten exakten Naturwissenschaften, aber immer mehr auch darüber hinaus in Wissenschaften, die sich mit dem Prestige der
„Exaktheit“ der Naturwissenschaften, insbesondere der Physik, schmücken wollen, ebenfalls methodische Funktionen. Hervorgetreten sind hier vor allem die
Ökonomie, die Soziologie und Teile der Sprachwissenschaften. Auch die Mathematik stellt eigene Theorien über Wahrheit, Falschheit und Wahrscheinlichkeit
13
K. Albert, Traktat über kritische Vernunft, Tübingen 1968, S. 13.
Manuel Bremer, Wahre Widersprüche. Einführung in die parakonsistente Logik, Sankt Augustin 1998.
15
L. Wittgenstein, Philosophische Untersuchungen (1953), Frankfurt a. M. 1971, Nr. 67, S. 57 f.
16
L. A. Zadeh, Fuzzy Logic and Approximate Reasoning, in: Synthese 30, 1975, p. 407 – 428.
17
K. Gödel, On Formally Undecidable Propositions of Principia Mathematica and Related Systems, hgg. von R. B.
Braithwaite, New York 1962; dt. Original: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme I. In: Monatshefte für Mathematische Physik 38, 1931, p. 173-198; N. Vasallo, Sulla problematicità del principio
del terzo escluso. Linguisticità e senso concreto del principio nella lettura intuizionista di L. E. J. Brouwer. In: Epistemologia 23, 2000, p. 99-118; F. von Kutschera, Der Satz vom ausgeschlossenen Dritten. Untersuchungen über die Grundlagen
der Logik, Berlin-New York 1985.
14
45
zur Verfügung. Nicht von ungefähr gilt ja eine richtige Gleichung wie etwa „2
mal 2 = 4“ als exemplarische Wahrheit, und die „Scheingleichung“ „2 mal 2 = 5“
als falsch. Wahrscheinlichkeiten gelten als die eigentliche Domäne der mathematischen Statistik.
Die Mathematik hat sich, anders als die Logik, zu einer höchst umfangreichen
Einzelwissenschaft mit großen Instituten (an manchen Universitäten sogar zu
„Mathematischen Fakultäten“), einem eigenen Studiengang und einem Berufsprofil der Mathematiker ausgeweitet. Die Schwierigkeit und damit der Aufwand
zu ihrem Studium ist beträchtlich und schreckt die meisten Wissenschaftler und
immer mehr auch die jungen Leute davon ab, sich näher damit zu befassen.
Gleichwohl empfiehlt es sich, und besonders für den Wissenschaftstheoretiker,
sich mathematische Grundkenntnisse anzueignen.
Auch die Mathematiker diskutieren ihre Grundlagenprobleme „logisch“. Und
viele betonen, daß die von ihnen gepflegte „mathematische Logik“ nur ein
Anwendungsgebiet der allgemeinen Logik für die Zwecke der Mathematik sei.
Die meisten mathematischen Logiker dürften jedoch der Meinung sein, daß die
sogenannte mathematische Logik bzw. „Logistik“ die von ihnen nun „klassisch“
genannte traditionelle Logik abgelöst und fast gänzlich ersetzt habe. W. Stegmüller schreibt etwa: „Mit Recht wird heute zwar darauf hingewiesen, daß die
aristotelische Syllogistik nur einen infinitesimalen Teil dessen ausmacht, was man
gegenwärtig als Logik bezeichnet. Mit fast derselben Sicherheit kann man aber
behaupten, daß bereits in wenigen Jahrzehnten dasjenige, was heute Logik
genannt wird, nur mehr als Bruchteil der Logik betrachtet werden wird“ (wobei
mit „die Logik“ im wesentlichen die moderne mathematische Logik gemeint ist.18
Der Mathematiker Gottlob Frege, der diese Wendung am Ende des 19. Jahrhunderts mit eingeleitet hat, betont ausdrücklich, „daß die Arithmetik weiter
entwickelte Logik ist, daß eine strenge Begründung der arithmetischen Gesetze
auf rein logische und nur auf solche zurückführt“. 19 Der Mathematiker Hans
Hermes bekräftigte dies mit dem Hinweis: „Die Besinnung auf die Grundlagen
der Mathematik hat zu dem Versuch geführt, die Logik auf der Basis formaler
Sprachen von Grund auf neu zu begreifen und ihr Verhältnis zur Mathematik zu
untersuchen“. 20 Wobei vorausgesetzt wird, daß „formale Sprachen“ selbst schon
mathematische Zeichenkomplexe sind, die Wittgenstein in seinem „Tractatus
logico-philosophicus“ von 1921 als „Idealsprachen“ von den Gemeinsprachen
strikt unterschieden hatte. Zugleich bemerkt Hermes aber auch:
„Zu einer genauen Beschreibung des mathematischen modus procedendi gehört also
die Diskussion der logischen Schlußregeln. Welche Regeln werden angewandt?
18
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band 1: Wissenschaftliche Erklärung und Begründung, Berlin-Heidelberg-New York 1969, S. XVI.
19
G. Frege, Funktion und Begriff, in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien, hgg. von G. Patzig,
Göttingen 1962, S. 25.
20
H. Hermes, Methodik der Mathematik und Logik, in: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, hgg.
v. M. Thiel, 3. Lieferung, München-Wien 1968, S. 4.
46
Merkwürdigerweise haben sich die Mathematiker mit dieser Frage fast zweitausend
Jahre lang kaum befaßt. Noch heute wird z. B. von einem an einer deutschen
Universität studierenden Mathematiker nicht verlangt, daß er sich mit diesem Problem beschäftigt. ... Obwohl der Mathematiker offenbar auch ohne Kenntnis der
logischen Regeln seine Wissenschaft betreiben kann, so sollte er doch beachten, daß
die Strenge der Mathematik mit den logischen Regeln zusammenhängt, und daß es
doch sehr erstaunlich ist, daß man in einer so intensiv betriebenen Wissenschaft, wie
es die Geometrie ist, mehr als zweitausend Jahre benötigte, um eine wesentliche
Lücke in der Beweisführung zu entdecken. Eine solche Panne wäre vermutlich nicht
eingetreten, wenn man die Regeln der Logik gekannt hätte“. 21
Dem kann man nur zustimmen. Tatsächlich wird jedoch von Seiten der meisten
Mathematiker der Anspruch erhoben, eine zeitgemäße moderne Logik könne nur
eine Teildisziplin der Mathematik sein.
Diese Meinung ist zuerst von dem Mathematiker George Boole (1815 - 1864)
in seiner „Untersuchung über die Denkgesetze, auf welche die mathematischen
Theorien der Logik und der Wahrscheinlichkeiten gegründet sind“ 22 vertreten
worden. Aber in diesem Werk zeichnen sich auch schon gravierende Unterschiede
zwischen der alten „klassischen“ und der neuen „mathematischen Logik“ ab. Man
findet zum ersten Mal die Ersetzung der logischen Kopula als Hauptjunktor des
Urteils durch die mathematische Gleichung (die eine logische Äquivalenz ist und
keineswegs mit der Kopula „ist“ in behauptenden Urteilen verwechselt werden
darf!). Daraus ergibt sich die seither in der mathematischen Logik herrschende
Auffassung, das Verhältnis von Subjekt und Prädikat im Urteil sei, wie in mathematischen Gleichungen, ein solches der Bedeutungsidentität, das durch die verschiedenen terminologischen und ausdrucksmäßigen Formulierungen, etwa durch
die Quantifikation des Subjekts und/oder eine Quantifikation des Prädikats dissimuliert werde. Wahre Urteile müßten daher als „Tautologien“ (wie Wittgenstein
im „Tractatus logico-philosophicus“ behauptete) verstanden werden.
An Boole schließt sich der Ausbau einer „Boolschen Algebra der Logik“ durch
W. S. Jevons und Ch. S. Peirce an, in der die Logik als „mathematischer Kalkül“
verstanden wird. H. Hermes definierte: „Jeder Kalkül besteht aus einem System
von Regeln, die es erlauben, Figuren herzustellen, die aus den Buchstaben eines
Alphabets gebildet sind, welche zu K (d. h. zum Kalkül) gehören“.23
Man wird also bei der „mathematischen Logik“ grundsätzlich davon ausgehen
müssen, daß es sich dabei um Anwendung der Mathematik auf einige traditionelle
logische Sachverhalte handelt. Was sich aus dem Bestand der klassischen Logik
für diese Anwendungen nicht eignet, wird dabei außer Betracht gelassen.
Unseren Bedenken gegen diese Auffassung von Logik haben wir in der „Logik“
(Aalen 1987), im „Grundriß der pyramidalen Logik mit einer logischen Kritik der
mathematischen Logik und Bibliographie der Logik“ (Internet der Phil.-Fak. der
21
H. Hermes, Methodik der Mathematik und Logik, S. 16.
G. Boole, Investigation of the Laws of Thought on which are Founded the Mathematical Theories of Logic and Probabilities, London 1854, ND New York 1958.
23
H. Hermes, Methodik der Mathematik und Logik S. 34.
22
47
Universität Düsseldorf 2000) sowie in den „Elementa logico-mathematica“
(Internet der Phil. Fak. der HHU-Universität Düsseldorf 2006) sowie in einer
englischsprachigen Veröffentlichung 2013 24 Ausdruck gegeben. Wir schließen
damit an einen Grundlagenstreit an, den Günther Jakobi mit seinem Buch „Die
Ansprüche der Logistiker auf die Logik und ihre Geschichte“ 25 und Bruno v.
Freytag-Löringhoff mit seiner „Logik, ihr System und ihr Verhältnis zur Logistik“ 26 eröffnet hatten, ohne daß von den „Logistikern“ bzw. den „mathematischen Logikern“ jemals darauf reagiert wurde.
Im Sinne von G. Jakobi und B. von Freytag-Löringhoff, wenn auch nicht auf
ihren Grundlagen, haben wir uns daher bemüht, eine klassisch-logische Kritik der
mathematischen Logik und ihrer Denkweisen zu entwickeln. Das veranlaßt uns
auch hier, dem Leser einige Winke zu geben, auf die er achten sollte, und zwar
besonders in Hinsicht auf das, was wir oben über die Erwartungen des Laien
gegenüber der Wissenschaft gesagt haben. Vor allem sollen dazu gewisse Unterschiede in der klassisch-logischen und mathematisch-logischen Denkweise hervorgehoben werden.
Dazu sei an einige traditionelle Forderungen erinnert, die an die Logik als
allgemeine wissenschaftliche Methodologie gestellt werden.
Die Logik sollte zunächst Kriterien dafür bereithalten, was in der Wissenschaft
als „Begriff“ gelten kann. Denn die Begriffe sind überall der Grundstoff, aus dem
das wissenschaftliche Wissen besteht. Darüber hinaus sollte man von ihr erwarten,
daß sie zeigt und Kriterien dafür hat, wie aus Begriffen und begrifflichen
Ausdrücken Urteile, Schlüsse und Argumente entstehen, mit denen man Wahres
und Falsches ausdrücken und ggf. nachweisen kann. Vor allem sollte man aber
auch Aufschluß darüber erwarten, wie man Wahres und Falsches von einander
unterscheiden kann, und wie die Frage dieser Unterscheidung oder ggf. ihrer
Nichtunterscheidbarkeit mit der Wahrscheinlichkeit zusammenhängt. Insbesondere sollte die Logik auch deutlich machen können, wie sich aus alledem „Theorien“
zusammensetzen lassen, die nur das Wahre festhalten, es begründen und evtl.
beweisen und das Falsche ausscheiden. Schließlich muß gezeigt werden, was
Wahrscheinlichkeit ist und was sie mit den „Hypothesen“, in denen wissenschaftliche Vermutungen ausgedrückt werden, zu tun hat.
Über alle diese Gegenstände haben sich in der klassischen Logik und in der
mathematischen Logik verschiedene und oft entgegengesetzte Meinungen herausgebildet. Und da die vorherrschende Meinung in der wissenschaftlichen Methodologie darauf hinausläuft, daß die moderne und auf der Höhe der Wissenschaft
stehende Logik nur die mathematische Logik sein könne, die klassische Logik
aber durch sie überholt sei, so herrscht allgemein auch die Meinung, die ge24
Erweiterte und durch Anmerkungen und Korollarien ergänzte englische Übersetzung: L. Geldsetzer, Logical Thinking
in the Pyramidal Schema of Concepts: The Logical and Mathematical Elements. Introduced and Translated from German
by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013
25
Stuttgart 1962.
26
Stuttgart 1955, 3. Aufl. 1961.
48
nannten Gegenstände seien in der klassischen Logik gleichsam nur angedacht und
in gänzlich unklaren Gestalten überliefert worden. In der mathematischen Logik
aber seien sie erst in angemessener formaler Fassung diskutierbar und mehr oder
weniger schon ein „fundamentum inconcussum“ jeder brauchbaren wissenschaftlichen Methodologie geworden.
Bei dieser Lage kann es nicht verwundern, daß auch gutwillige Liebhaber der
klassischen Logik kaum noch Anlaß gesehen haben, deren Potentiale weiterzuentwickeln und überhaupt die klassische Logik in eine moderne Form zu bringen.
Geschweige denn, daß sie diese Potentiale dazu benutzt hätten, daraus kritische
Gesichtspunkte zu entnehmen, um die mathematische Logik selber von ihrem
Standpunkt aus zu prüfen.
Genau dies haben wir in den oben genannten Veröffentlichungen versucht. Als
Ertrag dieser Studien und Ausarbeitungen der klassischen Logik seien folgende
hier relevante Punkte angeführt, zu denen auch einige Fehler in den Grundlagen
der klassischen Logik gehören, die z. T. auch in die mathematische Logik übernommen worden sind.
1. Es war und ist bisher ein erstrangiges Ideal sowohl der klassischen wie der
mathematischen Logik, den logischen Formalismus so auszubauen, daß sich in der
„logischen Formalisierung“ wissenschaftlicher Erkenntnisse deren Wahrheit unmittelbar „ablesen“ lassen könne. Natürlich sollte das auch dafür genügen, die
Falschheit formal kennzeichnen zu können, und über Wahrheit und Falschheit
hinaus auch die Wahrscheinlichkeit.
Dies ist weder in der klassischen noch in der mathematischen Logik gelungen.
In beiden Konzeptionen hat man sich damit begnügt, den Widerspruch als
formales Kennzeichen der Falschheit auszuweisen. Genauer gesagt: dies zu
behaupten. Somit auch die Aufdeckung von Widersprüchen in formalisierten
Theorien als Hauptmittel der Widerlegung von Irrtümern in der Wissenschaft zu
benutzen.
Daß dies falsch ist, weil der Satzwiderspruch aus einem wahren und einem
falschen allgemeinen Satz, die im Negationsverhältnis zueinander stehen, zusammengesetzt ist und also nicht ausschließlich falsch sein kann, ist wohl auch
Aristoteles nicht entgangen. Nur hat er sich dazu nicht genau genug geäußert, als
er nur auf das Falsche beim Widerspruch hinwies. Zu dem Begründungsargument
für die übliche Auffassung, es handele sich bei der dann sogenannten Widerspruchsfalschheit um ein metasprachliches Phänomen, werden wir weiter unten
Stellung nehmen.
Unter dieser also selbst falschen Voraussetzung geht man davon aus, daß alles
„Logische“, in dem kein Widerspruch nachzuweisen ist, als „wahr“ (oder „gültig“) zu behandeln sei. Das hat zur Folge, daß man einerseits jede noch so phantastische Spekulation, wenn sie nur widerspruchslos ist, als wahr hinnehmen solle.
Es hat auch zur Folge, daß die Wahrscheinlichkeit immer nur hinsichtlich ihrer
49
„Wahrheitsnähe“ thematisiert wurde, nicht aber, wie es richtig wäre, ebenso hinsichtlich ihrer Falschheitsnähe.
Wir haben uns demgegenüber bemüht, auf der Grundlage der in der Logik altbekannten „porphyrianischen Bäume“ bzw. der „Begriffspyramiden“ (das sind
„auf den Kopf gestellte“ Begriffsbäume) einen neuen logischen Formalismus zu
entwickeln, der dem alten logischen Ideal der Wahrheits- und Falschheitsdarstellung – und darüber hinaus der Wahrscheinlichkeitsdarstellung – direkt zu
genügen vermag.
Der „pyramidale Formalismus“ beruht auf der prinzipiellen Voraussetzung, daß
die Logik allgemein und ein logischer Formalismus speziell, die intensionalen und
extensionalen Begriffseigenschaften in allen logischen Verhältnissen gemeinsam
beachten und zum Ausdruck bringen muß. Das heißt, daß eine sogenannte rein
intensionale Logik (wie man sie gewöhnlich den Geisteswissenschaften unterstellt) ebenso wie eine rein extensionale Logik (auf die sich Mathematiker zu
berufen pflegen) schon deswegen keine Logik sein kann, weil sie nur eine Seite
des logisch Relevanten berücksichtigen.
Diese Verkennung der intensional-extensionalen Verknüpftheit in allen logischen Elementen hat den ungeheuren Aufwand zur Folge, den man bei der
Entwicklung und Ausgestaltung dieser Einseitigkeiten der vermeintlich nur
intensionalen und der nur extensionalen Logik betreibt. Und auch von diesem
Aufwand kann man bei genauem Hinsehen feststellen, daß er immer wieder davon
zehrt, daß auf versteckte oder unbemerkte Weise intensionale Voraussetzungen in
die extensionale, und umgekehrt extensionale Voraussetzungen mehr oder
weniger unbemerkt oder gar dissimuliert in die intensionale Logik eingehen, ohne
welche ja Logik niemals funktionieren kann.
Der in unserer Logik vorgestellte pyramidale Formalismus integriert also beides,
nämlich intensionale und extensionale Logik, wieder zu einem Ganzen. In ihm
werden die gewohnten alphabetischen Notationszeichen (allerdings in Anwendung auf Intensionen von Begriffen, nicht auf „ganze“ Begriffe) mit graphischen
Strukturen für die Anwendung auf Extensionen und auf die Verknüpfungsfunktion der Junktoren verbunden. Der hier vorgeschlagene pyramidale Graph
formalisiert die logischen Verhältnisse so, daß an ihnen unmittelbar die intensional-extensionale Struktur von Begriffen, ihrer Verknüpfungen mittels der Junktoren zu Ausdrücken und Urteilen, und schließlich auch deren Verknüpfung zu
Schlüssen und ganzen Theorien sichtbar und kontrollierbar wird.
In diesem Formalismus wird nicht nur die intensional-extensionale Definition
der im Formalismus vorkommenden Begriffe, sondern auch die „logische
Wahrheit“ der mit ihnen gebildeten Urteile unmittelbar an den regulären Relationen, die zwischen ihnen in der Pyramidenstruktur bestehen, sicht- und ablesbar.
Erweiterungen zu irregulären Strukturen machen entsprechend sicht- und
ablesbar, was als logisch formalisierte Falschheit und Wahrscheinlichkeit gelten
kann. Damit wird das eingangs genannte Ideal der Logik, Wahrheit, Falschheit
und Wahrscheinlichkeit direkt im Formalismus sichtbar zu machen, verwirklicht.
50
2. Das Verhältnis von logischem und mathematischem Formalismus zu inhaltlichen Erkenntnissen bzw. Theorien ist bisher höchst problematisch geblieben.
Man spricht üblicherweise von der Anwendung des Formalismus auf inhaltliches
Erkenntnismaterial und entsprechend von der „Erfüllung“, „Interpretation“,
„Deutung“ und „Modellierung“ des Formalismus durch dieses Erkenntnismaterial.
Aber oft spricht man auch umgekehrt von der „Interpretation“ inhaltlicher Sätze
durch den Formalismus.
Dabei wird gewöhnlich vorausgesetzt, daß der Formalismus als solcher „sinnund bedeutungslos“ bzw. „sinnleer“ sei, das materielle Wissen dagegen sinn- und
bedeutungshaltig, jedoch unstrukturiert und vage, so daß es (ohne Formalisierung)
nur in „Intuitionen“ und vagen Vorstellungen gehandhabt werden könne. Man
spricht bei diesem Prozedere der Anwendung des Formalismus auf inhaltliches
Wissen gerne von „logischer Rekonstruktion bzw. Formalisierung einer Intuition“.
Die Unterscheidung von Formalismus und sachlichem Inhalt – die noch immer
von der aristotelischen Unterscheidung von Form und Materie zehrt – führt dann
allgemein zu der Unterscheidung von zwei Sphären mit jeweils eigenen Wahrheiten, Falschheiten und Wahrscheinlichkeiten. Es ist dann die Rede von „logischformaler Wahrheit, Falschheit und Wahrscheinlichkeit“ und von „empirischer
Wahrheit, Falschheit und Wahrscheinlichkeit“, die im besten Falle zur Deckung
gebracht werden können, in vielen Fällen aber auseinanderklaffen. Im Extremfall
kommt es dann zu Thesen wie etwa der, daß etwas „logisch wahr“ aber „inhaltlich
falsch“ sein könne oder umgekehrt.
Nun zeigt aber schon eine kleine Überlegung, daß ein Formalismus, der ja aus
logischen bzw. mathematischen Zeichen besteht, niemals sinnleer bzw. inhaltlos
sein kann. Dies ebenso wenig wie ein Zeichen überhaupt ein Zeichen sein kann,
wenn es keine verweisende bzw. semantische Bedeutung hat. Die Frage kann also
nur sein, was die tatsächliche Bedeutung formaler Zeichen und damit des
Formalismus selber ist.
Daß die logisch relevante Bedeutung der in der Logik und Mathematik verwendeten großen und kleinen griechischen und lateinischen Buchstaben zunächst
einmal in ihrem Lautwert liegt, den man stets mitverstehen muß, um die
Buchstaben als Zeichen zu lesen, zu erkennen und zu unterscheiden, dürfte auf der
Hand liegen. Ihre genuin logischen Bedeutungen, die zu den sprachlich-lautlichen
Bedeutungen hinzutreten, sind aber selbst auf Begriffe zu bringen. Deren
Intensionen und Extensionen bilden auch in Urteilen, Schlüssen und Argumenten
deren eigenen formalen Sinngehalt. Dieser wird also nicht erst durch einzelne
inhaltliche Beispiele für Begriffe, Urteile, Schlüsse usw. geliefert. In der
Mathematik sind die mathematischen Gebilde wie geometrische Figuren, Zahlen,
Mengen, Strukturen, usw. selbst Sinngebilde. Und das steht zunächst einmal in
auffälligem Widerspruch zu der o. a. Meinung, der Formalismus als solcher sei
sinnleer und bedeutungslos.
51
Neben den Buchstaben benutzt man im logischen und mathematischen Formalismus Verknüpfungszeichen, die sogenannten Junktoren (in der Mathematik
meist Funktoren bzw. Operatoren genannt). Diese hält man schon seit Aristoteles
für sinnleer oder bedeutungslos und geht davon aus, daß sie erst in Verbindung
mit (inhaltlichen) Begriffen (oder ganzen Sätzen) Bedeutung und Sinn erhielten.
Sie wurden daher von Aristoteles „Mit-Bedeutende“ („Synkategoremata“) genannt.
Gottlob Frege hat die These dahingehend erweitert, daß die Junktoren auch in
Verbindung mit Begriffen keine Bedeutung hätten (er nennt sie „ungesättigte
Funktionen“). Sie erhielten Bedeutung erst in behauptenden Sätzen bzw. Aussagen, und zwar auch in reinen Formalismen. Diese These ist zweifellos inzwischen zu einem Dogma der mathematischen Logik geworden.
Frege hat bei seiner Voraussetzung die Bedeutung der logischen Sätze bzw.
Aussagen grundsätzlich auf nur zwei Gegenstände beschränkt, die er „Wahrheitswerte“ nannte, nämlich Wahrheit und Falschheit. Man beachte dabei, daß die
Falschheit hier unter den allgemeineren Begriff „Wahrheitswert“ subsumiert
wurde. Das muß man zumindest als terminologische Fahrlässigkeit bewerten. Er
hätte ihn besser nur „Behauptungswert“ nennen sollen. Damit führte er zwar die
alte Tradition der zweiwertigen klassischen Logik fort, aber er gab ihr auch die als
modern und umstürzend eingeschätzte Wendung, die sogenannten zwei „Wahrheitswerte“ Wahrheit und Falschheit direkt zur „Bedeutung“ des Formalismus der
„Aussagenlogik“ zu machen.
Indem Frege für seine mathematische Logik nur die zwei „Wahrheitswerte“ in
Betracht nahm, wirkte seine ihm nachmals zugewachsene Autorität dahin, daß die
Frage nach einem dritten Wahrheitswert, wie ihn das sonst ausgeschlossene Dritte
und der Satzwiderspruch bzw. die sogenannte Wahrscheinlichkeit zweifellos
repräsentieren, auf lange Zeit aus logischen Analysen ausgeschlossen blieb. Wenn
ein dritter und evtl. weitere Wahrheitswerte in den letzten Dezennien diskutiert
werden, so in den speziell entwickelten „drei- und mehrwertigen Logiken“, deren
Zusammenhang mit der traditionellen zweiwertigen Logik und mit der
aristotelischen Modallogik ziemlich unterbelichtet blieb.
Von den von ihm allein festgehaltenen zwei Wahrheitswerten („wahr“ und
„falsch“) als „Bedeutungen“ logischer Aussagen unterschied Frege den „Sinn“
von Aussagen. Der Sinn sollte sich nach Frege unmittelbar an der Verknüpfungsweise von Begriffs- und Junktorzeichen ablesen und verstehen lassen. Der
Sinn von formalisierten Aussagen sollte also darin liegen, daß sie etwa positive,
negative, konjunktive bzw. adjunktive, disjunktive, implikative oder (wie in
mathematischen Gleichungen und den darin vorkommenden Rechenausdrücken)
äquivalente Ausdrücke darstellen. Auch diese „Sinngebung“ des Formalismus
kann inzwischen als kanonisch in der mathematischen Logik gelten. Sie widerspricht jedoch dem, was Frege selber „Ungesättigtheit“ solcher Zeichenverbindungen genannt hat.
52
Frege übernahm seine Unterscheidung von Sinn und Bedeutung des logischen
bzw. mathematischen Formalismus aus der Hermeneutik.27 Das hat den mathematischen Gleichungs-Formalismus grundsätzlich „mehrdeutig“ gemacht. Die
Fregesche Unterscheidung von Sinn und Bedeutung reproduziert ersichtlich die
alte hermeneutische Unterscheidung von vordergründigem Literalsinn eines
Textes (bei Frege der „Sinn“ der Formeln der Aussagenlogik bzw. mathematischer Formeln) und „geistigem“ oder „mystischem“ Hintersinn (bei Frege die
beiden Wahrheitswerte „Wahrheit“ und „Falschheit“ als „Bedeutungen“ des
Formalismus). Diese Unterscheidung von Literalsinn und „Hintersinn“ (= Bedeutung) wurde schon seit Philon von Alexandrien (ca. 25 v. Chr. – ca. 50 n. Chr.)
und Augustinus (354 – 430 n. Chr.) für die Interpretation der heiligen Schriften,
dann auch in der juristischen Gesetzesinterpretation entwickelt. Sie ist seither in
der Hermeneutik aller Textwissenschaften verbreitet worden. In der mittelalterlichen Logik aber war die Lehre von den „Suppositionen“ (d. h. das als gemeint
„Unterstellte“) der Zeichen ein bedeutendes Lehrstück über die mehrfache Bedeutung bzw. des Sinnes von Wörtern, wobei zwischen Bedeutung und Sinn nicht
unterschieden wurde.
Durch Freges (implizite) „logische Hermeneutik“ des Doppelsinnes wurde der
logische Formalismus grundsätzlich zu einer eigenen „formalen Sprache“ gemacht. Frege selbst bemühte sich in einem seiner Hauptwerke, für diese formale
oder „ideale“ Sprache eine neue „Begriffsschrift“ zu entwickeln. 28
Daran war soviel richtig, daß es bei den üblichen logischen Formalismen tatsächlich um eine Notationsweise von ausgewählten sprachlichen Elementen geht.
Das zeigt sich in der Verwendung von Buchstaben und im gemeinsprachlichen
Sinn der meisten Junktoren. Falsch jedoch war es, den Formalismus als solchen
für eine selbständige Sprache zu halten. Keiner spricht „Mathematik“, und die
Formalismen werden auch nicht übersetzt, sondern in allen Sprachen in derselben
Gestalt notiert. Gleichwohl hat sich seither die Auffassung, die Logik und insbesondere die mathematische Logik seien insgesamt „formale Sprachen“ (oder
„Idealsprachen“) ziemlich allgemein durchgesetzt. Und auch das widerspricht
ersichtlich der sonst herrschenden Meinung, der Formalismus sei als solcher
sinnleer. Entsprechend dieser Sprachauffassung vom Formalismus wurden auch
immer mehr grammatische Kategorien in die mathematische Logik übernommen.
Man spricht seither von „logischer Semantik“, womit man die „Bedeutungslehre“
als Lehre von den Wahrheitswerten meint, von „logischer Syntax“, was die
Verknüpfungsweisen mit ihrer „Sinn“-Befrachtung meint, und von „logischer
Pragmatik“, den methodischen Benutzungsweisen der vorgeblichen Idealsprache.
27
W. Hogrebe, Frege als Hermeneut (Bonner Philosophische Vorträge und Studien 16), Bonn 2001, S. 19 sieht Freges
hermeneutische Erkenntnis wesentlich darin, daß er von „nichtpropositionalen Ahnungen“ des Gemeinten speziell bei
undefinierbaren axiomatischen Begriffen spricht, zu denen auch „Sinn“ und „Bedeutung“ gehören sollen. – Zur „dogmatischen Hermeneutik der Mathematik“ vgl. den entsprechenden Abschnitt in § 44.
28
G. Frege, Begriffschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879; jetzt in:
G. Frege, Begriffsschrift und andere Aufsätze, hgg. von I. Angelelli, Darmstadt 1964.
53
Nun ist es schon an sich bedenklich, bezüglich des logischen bzw. mathematischen Formalismus von einer besonderen Sprache zu reden. Wie schon gesagt, keiner spricht oder schreibt „Logik“ oder „Mathematik“. Wären Logik und
Mathematik Sprachen, so müßten sie sich in andere Sprachen übersetzen lassen.
Es wäre ausgeschlossen, logische oder mathematische Formalismen in allen Kultursprachen als Notationssystem gleicherweise zu verwenden und in diesen Gemeinsprachen zu interpretieren. Man kann allenfalls „logisch“ reden oder „mathematisch“ argumentieren. Aber dabei werden nur logische oder mathematische
Denkstrukturen in einer inhaltlichen Bildungssprache verwendet.
Es scheint den Logikern und auch den Mathematikern gänzlich entgangen zu
sein, daß die logischen Junktoren durchweg aus der Gemeinsprache übernommene
und somit selbst eine sprachliche Bedeutung mit sich führende logische Elemente
sind. Ihre logische Bezeichnung geschieht deshalb auch durch logisch-formale
Zeichen, die nur stenographische Kürzel für bestimmte Verbindungswörter der
Gemeinsprache sind, die man in der Regel auch sprachlich sogleich versteht. Was
„und“ („“), „oder“ („“), „wenn... dann“ („“) „ist“ („“), „ist gleich“ („“)
und „nicht“ („“ bzw. „ “) bedeuten, steht in jedem guten Wörterbuch jeder
Einzelsprache. Dasselbe gilt aber auch von den meisten mathematischen Junktoren, die man als Rechenzeichen kennt. Einige von ihnen haben dieselbe Bedeutung wie bestimmte logische Junktoren. Insbesondere muß auch hier betont
werden, daß das mathematische Gleichheitszeichen mit der logischen Äquivalenz
identisch ist, keineswegs aber mit der Kopula (dem „ist“). Einige mathematische
Junktoren aber bilden spezifisch mathematische Begriffe und Ausdrücke, die kein
logisches oder sprachliches Pendant haben.
Es gehört also schon ein besonderer Sinn für Mystisches dazu, sich beim
formalen Gebrauch dieser Zeichen nicht an ihre gemeinsprachliche Bedeutung zu
erinnern oder sich gar eine andere als die gemeinsprachliche Bedeutung vorzustellen. Der Umgang mit diesen Junktoren in der Logik und Mathematik besteht
gerade darin, ihre gemeinsprachliche Bedeutung in den Formalismus zu übertragen.
Irreführend ist daher die häufig anzutreffende Darstellung, die Bedeutung der
Junktoren nähere sich nur gelegentlich und gar zufällig der gemeinsprachlichen
Bedeutung mehr oder weniger an und sei dann geradezu deren logisch und mathematisch exaktere Fassung. Sind aber diese für die Logik tragenden Elemente der
Junktoren schon selber Bestandteile der Gemeinsprache, so kann das Verhältnis
von Formalismus und Sprache keineswegs als dasjenige von zwei verschiedenen
Sprachen - einer formalen und einer inhaltlichen - angesehen werden.
Der Abendländer ist gewohnt, seine Sprache wesentlich als geregelte Lautartikulation aufzufassen, wobei die Schrift als Wiedergabe der Lautungen dient, die
Bedeutungen aber unabhängig von der Lautung hinzugedacht werden müssen. Im
allgemeinen hat er keine Übung im Umgang mit ikonischen Schriften, die nicht
die Lautung, sondern unmittelbar die Bedeutungen von Wörtern in anschaulichen
Bildern oder Symbolen notiert, wie es etwa im Rebus oder auch im Chinesischen
54
der Fall ist (wobei freilich manche chinesischen Schriftzeichen zugleich auch
einen Aussprachelaut mitrepräsentieren, wie das ja auch bei den alphabetischen
logischen Zeichen der Fall ist).
Die üblichen logischen und mathematischen Formalismen sind nach dem
Vorbild abendländischer Lautschriften entwickelt worden. Das sieht man schon
äußerlich daran, daß sie wie Texte in Zeilen von links nach rechts, und die Zeilen
untereinander geschrieben werden. Daher gleichen formalisierte Argumentationen
noch immer sprachlichen Texten, gelegentlich auch Versen.
Der Vorteil dieser „Schrift“ liegt darin, daß sie in allen Sprachen und Lautungen
gelesen und verstanden werden kann. Und nur deshalb gibt es bei dieser formalen
Notation kein Übersetzungsproblem in andere Sprachen. Sicherlich ist sie deswegen von Leibniz als „characteristica universalis“ (universelles Zeichenreservoir) bezeichnet worden.
In der Mathematik haben seit der Antike geometrische Sachverhalte als Veranschaulichungsmittel arithmetischer Verhältnisse gedient, und sie dienen auch bis
heute nicht nur in der Didaktik diesem Zweck. In der Logik sind seit der Spätantike auch Strukturbilder (sog. Graphen oder Diagramme), vor allem Baumschemata (und diese umgedreht in der Neuzeit als Pyramidenschemata) für die
Darstellung von Begriffsverhältnissen, vor allem der Hierarchie von Gattung,
Arten und Unterarten verwendet worden. Durch Raimundus Lullus in der Scholastik, G. W. Leibniz, J. C. Lange (1712), Leonard Euler (1768) im 18. Jahrhundert und vor allem durch John Venn im 19. Jahrhundert sind dann Kreise als
Bilder von Begriffsumfängen eingeführt worden. 29 Dadurch ließen sich auch
Implikations- und Inklusionsverhältnisse sowie Teilidentitäten von Begriffen
durch Einschreiben von kleineren in größere Kreise oder durch Überschneidungen
von Kreisen bildlich darstellen. Und da diese Verhältnisse auch als Urteile und
Schlüsse gelesen werden können, wurden dadurch auch diese z. T. bildlich
repräsentiert.
Man hält solche graphischen Darstellungen gewöhnlich nur für Hilfsmittel,
unterschätzt sie damit aber sehr. Denn in der Tat handelt es sich dabei um ikonische Notationen, die wenigstens einige logische Sachverhalte unmittelbar sinnlich-anschaulich darstellen und andere sonst nötige Notationen entbehrlich
machen. Unser Vorschlag einer neuen „pyramidalen“ Notation für den logischen
Formalismus knüpft an diese Tradition an, indem er bisherige lautschriftliche und
ikonische Repräsentationen der logischen Verhältnisse vereinigt.
3. Die logischen und mathematischen Anteile der Bildungssprache sind naturgemäß nur demjenigen zugänglich und verfügbar, der die hier vorkommenden
logischen und mathematischen Begriffe kennt. Das gilt aber allgemein von allen
29
John Venn, On the Diagrammatic and Mechanical Representations of Propositions and Reasoning, in: The London,
Edinburgh and Dublin Philosophical Magazine 10, S. 1-18, London 1880. Vgl. dazu G. Wolters, Art. „Venn-Diagramme“
in: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 4, Stuttgart-Weimar 1996, S. 496 – 498;
ders., Art. “Diagramme, logische“, ibid. Band 1, Mannheim-Wien-Zürich 1980, S. 462 – 463.
55
wissenschaftlichen Teilen der Bildungssprache. Ein guter Mathematiker hat ersichtlich dieselben Schwierigkeiten mit den Begriffen etwa der Literaturwissenschaftler wie umgekehrt der Literaturwissenschaftler mit den Begriffen der
Mathematiker.
Die Fachbegriffe der Logik, die im Formalismus dargestellt werden, sind selbst
Begriff (dazu Intension und Extension bzw. Merkmal und Umfang), Subjektsbegriff, Prädikatsbegriff, Gattung, Art, Individuum, Junktor, Urteil bzw. Aussage,
Schluß, Prinzip, Axiom, Argument, Identität, Widerspruch, Drittes u. s. w. Die der
Mathematik, soweit sie in der mathematischen Logik gebraucht werden, sind etwa
Einheit, Allheit, Zahl, Größe, Menge, Element, Unendliches (Infinites, Infinitesimales), Gleichung, Ungleichung, Abbildung, Summe, Differenz, Produkt, Quotient, Differentialquotient, Integral, Struktur, Axiom, Theorem, Beweis usw. Und
nicht zuletzt sind, wie vordem schon gesagt, auch Wahrheit, Falschheit und Wahrscheinlichkeit sowohl in der Logik wie in der Mathematik einschlägige Begriffe.
Diese Grundbegriffe werden im Formalismus durch jeweils spezifische Zeichen
notiert. Hinzu kommen dann die „stenographischen“ Kürzel für die Junktoren.
Schließlich spielen auch die Zitatzeichen eine bedeutende und in der neueren
Logik geradezu ausschlaggebende Rolle. Oft werden sie nach mathematischem
Brauch als einfache oder mehrfache Klammern notiert.
Man sollte sich allerdings von dem Vorurteil freimachen, die logischen und
mathematischen Begriffe seien schon als solche klar und deutlich und hätten in
allen Verwendungen eine unumstrittene einzige Bedeutung. Mehr oder weniger
sind sie genau so umstritten und werden ebenso problematisiert, wie das in der
Regel für jeden Begriff anderer Disziplinen und Wissenschaften gilt. Vor allem
hat man damit zu rechnen, daß sich hinter einem als eindeutig eingeschätzten und
verwendeten logischen oder mathematischen Begriff Mehrdeutigkeiten verbergen,
die oft nicht erkannt werden und dann in der Verwendung zu widersprüchlichen
Folgerungen führen. Nicht zuletzt steht fast hinter jedem wissenschaftlichen
Begriff eine „etymologische“ Geschichte seines Bedeutungswandels, die zum
Verständnis seiner jeweils aktuellen Bedeutung oftmals in Betracht zu nehmen ist.
Die Ausbildung des logischen Formalismus geht auf Aristoteles zurück, der
logische Begriffe (Subjekt- und Prädikatsbegriffe) durch griechische Buchstaben
(die aber auch als Zahlen gelesen werden können) bezeichnete, die Junktoren
dabei aber in der Gemeinsprache ausdrückte. Für den mathematischen Formalismus hat man seit ältesten Zeiten geometrische Gebilde wie Punkte, Strecken,
Flächen und Körper als Zeichen für Zahlen und Zahlverhältnisse benutzt. Auch
die speziellen Ziffern als Zahlzeichen verdanken sich wohl diesem Verfahren,
anschauliche Gruppierungen von Gegenständen durch ihr stilisiertes Bild darzustellen. Erst seit der Renaissance wurden für gewisse Zahlen bzw. Begriffe von
Zahlen auch die in der Logik schon lange üblichen Buchstaben verwendet, was
dann zu einer schnellen Blüte der sogenannten Buchstabenrechnung und der
sogenananten analytischen Geometrie führte.
56
Betrachten wir einige grundlegende Züge des traditionellen logischen Formalismus und knüpfen zugleich einige kritische Bemerkungen daran, die uns
veranlaßt haben, selber den neuen „Pyramiden“-Formalismus für die Logik
vorzuschlagen.
Wir haben an den traditionellen logischen Zeichen des Formalismus in erster
Linie zu beanstanden, daß ihre Grundzeichen für Begriffe – etwa „A“ und „B“ keine echten Radikalzeichen sind, sondern ihrerseits schon für recht komplexe
logische Sachverhalte stehen. Diese Buchstaben verdecken nämlich den Aufbau
dieser komplexen Gebilde aus elementaren Bestandteilen. Bei den Begriffen ist es
der Aufbau aus den Intensionen und Extensionen (Merkmale und Umfänge), aus
denen sich jeder Begriff zusammensetzt. Diese Dissimulationswirkung des logischen Formalismus hat zur Folge, daß vieles, was im logischen Prozedere
betrieben wird, nur auf eine Kompensation von Unklarheiten hinausläuft, die die
damit operierenden Formalismen selbst erzeugen.
Was wir damit meinen läßt sich an den chinesischen Schriftzeichen für die
Begriffe zeigen, die aus Radikalen und Kombinationen aus Radikalen, und zwar
bis zu sechs Radikalen in einem einzelnen Schriftzeichen, bestehen. So gibt es im
Chinesischen z. B. ein Radikalzeichen für „Frau“ (nü) und für „Kind“ (zi), die
auch als stilisierte Bilder einer Frau und eines Säuglings entstanden sind. Jeder
chinesische Schüler lernt in der Grundschule, daß diese Zeichen stilisierte Bilder
sind. Werden diese zu einem einzigen (komplexen) Zeichen nebeneinander
gestellt, so erhält man das Schriftzeichen für „gut“ (hao), und jeder gebildete
Chinese versteht dadurch ganz anschaulich, was nach altchinesischer Tradition
überhaupt „gut“ sein kann.
Diese Bildungsweise der chinesischen Schriftzeichen für Wörter und Begriffe
entspricht aber genau dem, was wir in unserem „pyramidalen“ Formalismus für
die Notation der Intensionen bzw. Merkmale als der eigentlichen logischen Radikale, aus denen Begriffe zusammengesetzt sind, vorgeschlagen haben. Werden
sie sichtbar gemacht, so erübrigt sich jede „Definition“ der Begriffe. Man sieht an
den Buchstabenkombinationen in einem Begriff auf einen Blick, was an ihm
„generische Merkmale“ allgemeinerer Begriffe sind, unter die er fällt, und was
seine spezifische Differenz gegenüber gleichrangigen Nebenbegriffen (bzw. seinen Negationen) und zugleich zu seinen Oberbegriffen ist. Vor allem aber sieht
man auch, welches (oder welche) Merkmale die axiomatischen Spitzenbegriffe
enthalten, durch die sie definierbar sind. Und das zeigt, daß die traditionelle These
von der Undefinierbarkeit der Axiome falsch ist.
Durch die Intensionen ist zugleich auch die Einordnung jedes Begriffs in eine
klassifikatorische „Begriffspyramide“ festgelegt, die die zugehörigen Quantifikationen, insbesondere diejenigen der in seinem jeweiligen Umfang liegenden
Unterbegriffe, graphisch zum Ausdruck bringt. (Vgl. dazu § 9).
Entsprechendes ist kritisch zur „aussagenlogischen“ Notation von Urteilen bzw.
Sätzen (auch nach englischem Vorbild „Propositionen“ genannt) zu sagen. An den
hier verwendeten Zeichen für ganze Sätze „p“ und „q“ läßt sich nicht erkennen,
57
wie die Sätze aus Subjekts- und Prädikatsbegriffen zusammengesetzt sind (was in
der klassisch-logischen Notation etwa als „S ist P“ wenigstens noch zum Teil
gewährleistet war). Schon gar nicht wird dadurch die Verknüpfungsweise durch
spezielle Junktoren, einschließlich auch der Quantoren, sichtbar gemacht. Wird
das Satzsymbol („p“) durch ein vorgesetztes Negationszeichen spezifiziert („-p“,
d. h. „nicht p“), so wird dies gewöhnlich als Notation eines falschen Satzes
erklärt. Tatsächlich können negierte Sätze aber auch wahr sein, ebenso wie umgekehrt positive Sätze falsch sein können.
Vor allem läßt sich zeigen, daß im Urteil keineswegs immer „ganze“ Begriffe
als Prädikate mit dem Subjektsbegriff verbunden werden, sondern oft auch nur
reine Intensionen. Damit erübrigen sich auch viele Fragen nach der vermeintlichen begrifflichen und insbesondere ontologischen Natur der Prädikate, um die
sich seit dem Mittelalter der Universalienstreit vergeblich bemüht. Man sucht
seither nach dem ontologischen Ort z. B. des Begriffes „Röte“, während man bei
seiner prädikativen Verwendung im Urteil doch nur dem Begriff von Fläche oder
Ausdehnung eine pure Intension als Merkmal „rot“ zuspricht.
Ebenso wird im Formalismus der Schlüsse ohne weiteres sichtbar, warum sie
„gelten“ - und auch, daß einige klassische Syllogismen des Aristoteles keineswegs
„gültig“ sein können. Insbesondere kann gezeigt werden, daß die bei den aristotelischen Syllogismen vorkommenden partikulär und individuell quantifizierten
Sätze keineswegs Urteile mit einem für Urteile erforderlichen Behauptungssinn
sein können. Sie sind vielmehr Definitionen und müßten als Gleichungen bzw.
Äquivalenzen notiert werden.
4. Ist der Formalismus eine Spezialschrift eines Teils der spezialisierten Bildungssprache, so ergibt sich von selbst, daß man mittels des Formalismus über den
Formalismus selbst reden und verhandeln kann, ebenso wie man in der Sprache
auch über die Sprache selbst reden und verhandeln kann. Und nicht weniger muß
dann gelten, daß man in der Bildungssprache über den Formalismus und mittels
des Formalismus über die Bildungssprache reden kann.
Dieses „Reden über ...“ wird in der Logik und Mathematik unter dem Titel
„Meta-Verhältnis“ thematisiert. Dabei wird vorausgesetzt, daß dasjenige, was im
Meta-Verhältnis zueinander stehen soll, gänzlich verschiedene Sprachen, nicht
aber Teile einer und derselben Bildungssprache seien.
Die kanonische Meinung ist die, mit der formalen (logischen oder mathematischen) Metasprache ließe sich über die (inhaltliche) Gemeinsprache („Objektsprache“) reden, über die formale Metasprache ihrerseits in einer dann „Metameta-Sprache“ genannten weiteren formalen Sprache, usw. Als bislang ungelöstes
Problem gilt es dann, daß eine letzte Meta-meta...-Sprache wiederum die Gemein-
58
sprache sein müßte, so daß die Meta-Verhältnisse schließlich in einem Begründungszirkel enden.30
Diese Auffassung von den Meta-Stufungen selbständiger Sprachen ist ersichtlich von dem Verfahren der Mathematik inspiriert, gewisse Zeichen oder Ausdrücke in Klammern zu setzten, den Klammerausdruck ggf. wiederum mit
anderen Klammerausdrücken in doppelte Klammern einzuschließen, usw. Beim
Umgang mit diesen „Klammerausdrücken“ gilt dann die Regel, daß man vom
Sinn der eingeklammerten Ausdrücke gänzlich absehen könne, wenn man sich mit
den „höheren“ (Meta-) Sinn- und Bedeutungsstufen befaßt. Das hat eine gewisse
Ähnlichkeit mit dem Zitatwesen. Vom Zitieren und den dabei verwendeten Anführungszeichen stammt auch die übliche logisch-formale Notation.
Das logische Zitieren und das mathematische Einklammern ist das Hauptmittel
dafür geworden, von inhaltlichen Sprachelementen oder Beispielen zum Formalismus überzugehen. Das geschieht aber im allgemeinen unter der o. a. Voraussetzung der zwei gänzlich unterschiedenen Sprachen: der inhaltlichen Gemeinoder Wissenschaftssprache und der rein formalen Ideal- oder Metasprache, die
dann noch mehrere Meta-Sprachstufen enthalten können soll.
Wer also den gemeinsprachlichen Satz: Der Schnee ist weiß, dessen Sinn in
einer Behauptung über die Farbe des Schnees besteht (und der überdies als
„analytisch wahr“ verstanden wird, weil es eben ein Merkmal des Schnees ist,
weiß zu sein), logisch als Zitat „Der Schnee ist weiß“ notiert, der sollte nach
dieser Sprachstufenunterscheidung in der logischen Metasprache damit nur
meinen, daß das Zitat ein logischer (im Beispiel überdies ein analytisch wahrer)
Behauptungssatz sei, und er sollte dabei gänzlich vom Sinn des Ausgangssatzes
absehen können.
Nach demselben Schema geht man vom Zitat zum Zitat des Zitats und damit
von der Meta- zur Meta-metasprache über. Die gemeinsprachliche Behauptung
Der Schnee ist weiß wird zum metasprachlichen (wahren) Satz „Der Schnee ist
weiß“, und dieser wird (nach Alfred Tarski) als ‚ „Der Schnee ist weiß“ ‟ zu
einem Begriff (bzw. zum Namen) eines wahren Satzes in der Meta-metasprache.31
Der logische und mathematische Anfänger hat bekanntlich die größten Schwierigkeiten, diesen Vorgang des „Abstrahierens“ (Wegsehens) vom Zitat- oder
Klammersinn einzusehen und zu lernen. Meistens bemißt man logische und
mathematische Begabung gerade an dieser zu erwerbenden Fähigkeit des vorgeblich abstrakten Denkens. Aber wie uns scheint, ganz zu Unrecht. Denn der sich
dabei sträubende gemeine Verstand des Lernenden hat die Erfahrung auf seiner
Seite, daß er ohne Verstehen und Festhalten des Behauptungssinnes des Aus30
Vgl. S. C. Kleene, Introduction to Metamathematics, Amsterdam-Groningen 1952; L. Borkowski, Formale Logik.
Logische Systeme – Einführung in die Metalogik (aus dem Polnischen 1968), Berlin 1976, 2. Aufl. München 1977; H.
Rasiowa and R. Sikorski: The Mathematics of Metamathematics, 3. Aufl. Warschau 1970.
31
Vgl. A. Tarski, Der Wahrheitsbegriff in den formalisierten Sprachen, in: Studia Philosophica 1, 1935, S. 261 - 405. ND
in: Logik-Texte, hgg. v. K. Berka und L. Kreiser, Berlin 1971, S. 445 - 559, 4. Aufl.. 1986, S. 443 - 546; A. Tarski, Die
semantische Konzeption der Wahrheit und die Grundlagen der Semantik, 1944, in: Wahrheitstheorien, hgg. von G.
Skirbekk, Frankfurt a. M. 1977, S. 140 – 188.
59
gangssatzes keineswegs nachvollziehen kann, daß und warum das Zitat überhaupt
ein Satz sein soll. Und noch weniger kann er nachvollziehen, daß und warum das
Zitat des Zitats einen logischen Begriff bzw. den „logischen Namen“ eines
wahren Satzes (wie Tarski behauptet) darstellen soll. Er muß dies als pure „aussagenlogische“ Konvention zur Kenntnis nehmen.
Wir halten diese logische und mathematische Konvention einer vorgeblichen
Sinn-Eliminierung durch Zitatzeichen und Klammern (neuerdings spricht man
hier von „Deflation“) für irreführend und überflüssig. Mit dem hermeneutischen
Commonsense sind wir der Meinung, daß Zitatzeichen und Klammern keineswegs
die Sinnhaltigkeit logischer Zeichen eliminieren oder neutralisieren, sondern ihren
eigenen Zeichensinn zum Sinn des Zitierten hinzufügen. Und genau dies macht
erst ihren Gebrauch in der Logik verständlich und gemäß vollziehbaren Regeln
beherrschbar. Eine kleine Überlegung zum Zitieren in der hermeneutischen Praxis
der Geisteswissenschaften kann dies zeigen.
Der eigene Sinn der Zitatzeichen in der Schriftsprache ist grundsätzlich der, das
Zitierte hervorzuheben und die Aufmerksamkeit darauf zu lenken (wir machen
davon im vorliegenden Text reichlich Gebrauch!). Das Zitierte erhält dadurch den
Doppelsinn einer inhaltlichen (semantischen) Bedeutung und einer formalen
(syntaktischen) Bedeutung. Es war ersichtlich diese Doppeldeutigkeit, die G.
Frege zu seiner Unterscheidung von Sinn und Bedeutung veranlaßte. Ein drittes
und weitere Zitatzeichen werden zwar beim mathematischen Einklammern verwendet, das kommt aber in der sprachlichen Verwendung nur in Ausnahmefällen
vor. Man kann damit allenfalls signalisieren, daß etwa ein Autor ein Wort, einen
Ausdruck oder einen Satz verwendet hat, den dann ein anderer zitierter Autor von
dem ersten Autor übernahm. Konsequenterweise muß aber auch das zweite Zitatzeichen dem Doppelsinn noch einen weiteren Sinn hinzufügen. Und dies führt zu
einer Sinnverdoppelung im Formalismus selber, die nur entweder tautologisch
(„der Satz des Satzes“) oder widersprüchlich („der Satz ist zugleich kein Satz“)
werden kann. Diese Meta-Weiterungen der Logik sind ein Beispiel dafür, wie die
Logik sich auch durch die Metastufentheorie der Sprachen Probleme selber
schafft, die sie dann nicht lösen kann.
5. Um hier weiter zu kommen, ist zu zeigen, daß und wie der logische Formalismus als Spezialschrift für einen Teil der Bildungssprache selber eine Semantik,
d. h. eine inhaltliche genuin logische Bedeutungssphäre besitzt. Wir sagten schon,
daß die Junktoren selbst gemeinsprachliche Bedeutungen festhalten. Ein „und“
oder „oder“ verknüpft – wie in jeder Gemeinsprache – zwei Gegebenheiten. Das
können Intensionen, Extensionen, Begriffe oder Urteile bzw. Aussagen sein.
So bei allen Junktoren mit Ausnahme der in der modernen Logik erfundenen
„Selbstimplikation“. Sie soll etwas Gegebenes mit sich selbst verknüpfen. Aber
derartiges kann in der Tat gar keine Verknüpfung sein. Denn ersichtlich wird
dadurch in widersprüchlicher Weise aus einer Einheit eine Zweiheit gemacht, die
gleichwohl eine Einheit bleiben soll. Vielleicht war Kant für diese Auffassung
60
mitverantwortlich dadurch, daß er in seiner Kategorienlehre die Substanz als
Unterkategorie unter die Relationskategorie stellte. 32 Er definierte dadurch jede
„Substanz“ als eine „selbstbezügliche Relation“. Und das widersprach jedem bis
dahin überkommenenen Substanzverständnis als „selbständige ontologische Einheit“.
Mit der „Selbstimplikation“ werden durchweg logische Widersprüche produziert, insofern das mit sich selbst Verknüpfte zugleich dasselbe und zweierlei
Unterschiedenes sein soll. Das hat sich in Bertrand Russells paradigmatischem
„Mengenparadoxon“ deutlich erwiesen. Denn die dazu erfundene mathematische
„Menge, die sich selbst enthält“, ist gewiß eine und zugleich zwei Mengen.
Das gilt auch für die Art und Weise, wie man in der Logik die sogenannte
Tautologie notiert, nämlich wie sie J. G. Fichte in seiner „Wissenschaftslehre“ als
„X = X“ (bzw. als Beispiel: „Ich bin Ich“) als ersten logischen Grundsatz der
Position bzw. Einführung eines Begriffs benutzte. 33
Die logische Tautologie gilt zwar (besonders seit L. Wittgensteins „Tractatus
logico-philosophicus“) als exemplarische analytische Wahrheit, insofern sie das
Identitätsprinzip formal darstelle. Aber das ist in zweierlei Hinsicht falsch. Denn
einerseits werden Tautologien nicht als behauptende Urteile mit Wahrheitswerten
formalisiert, sondern als Äquivalenzen bzw. Gleichungen, die eine Identität definieren sollen. Andererseits stellt eine Tautologie das Identische in der Gleichung
„x = x“ durch gleiche Zeichen dar. Und das widerspricht dem formalen Sinn der
Gleichung bzw. der logischen Äquivalenz, die eine identische Bedeutung durch
verschiedene Zeichen darstellen muß. Schon die stoischen Logiker haben derartige „selbstbezüglichen“ Ausdrücke als „Wiederholungen“ eines und desselben
Elementes aus der Logik ausgeschlossen. Sie haben richtig erkannt, daß durch
solche tautologischen Wiederholungen weder etwas definiert noch behauptet
werden kann. Daß jedoch die logische Tautologie inzwischen als populäre Floskel
in Verkehr geraten ist, sieht man an dem dümmlichen Spruch „eine Rose ist eine
Rose ist eine Rose…“, in welchem auch die (mathematische) Gleichheit mit der
logischen Kopula verwechselt wird.
Bei den dann übrigbleibenden Junktoren ist es außerordentlich wichtig, zwischen zwei gänzlich verschiedenen Arten von Junktoren zu unterscheiden, nämlich den ausdrucksbildenden und den urteilsbildenden Junktoren.
Die ausdrucksbildenden Junktoren verbinden nur Begriffe untereinander zu begrifflichen (komplexen) Ausdrücken. Ausdrucksbildend sind „und“, “oder“, die
negative Bezeichnung eines Begriffs (z. B. „Nicht-Raucher“) sowie die Quantifikatoren „alle“, „einige“, „ein“ und „kein“. Mit ihnen allein läßt sich kein Behauptungssinn ausdrücken. Das zeigen Ausdrücke wie „Max und Moritz“, „Sein oder
Nichtsein“, „Nicht-Raucher“, „ein Ding“, „einige Tiere“, „alle Vögel“, „kein
Mensch“. Derartige Ausdrücke besitzen keinen Wahrheitswert. Setzt man solche
32
I. Kant, Kritik der reinen Vernunft, A 80/B 106, in: I. Kant, Werke, hgg.von W. Weischedel, Band 2, Darrmstadt 1956,
S. 118.
33
J. G. Fichte, Grundlage der gesamten Wissenschaftslehre, 1794, hgg. von W. G. Jacobs, Hamburg 1970, S. 12 – 15.
61
Ausdrücke z. B. als Subjekte oder Prädikate in behauptende Urteile ein, kompliziert dies die Urteilsformen beträchtlich. Und das hat in neueren Zeiten zur Entwicklung von Prädikatenlogiken höherer Stufen geführt.
Besonders sei hier betont, daß auch der mathematische Äquivalenzjunktor „ist
gleich“ (bzw. „=“) zu den ausdrucksbildenden Junktoren gehört. Er dient zur
Definition von Begriffen und begrifflichen Ausdrücken durch jeweils andere
Begriffe. Dies ist jedermann (in sprachlichen Beispielen) bei Synonymen in einer
Sprache oder im Verhältnis verschiedener Sprachen geläufig, wo zwei verschiedene Wörter eine und dieselbe Bedeutung besitzen. Bei Definitionen erläutert man
– wie in Sprachwörterbüchern üblich - eine und dieselbe Bedeutung eines Begriffs
(oder Wortes) oder Ausdrucks durch einen anderen, wie z. B. „Armut = Pauvreté“
oder „Wasser = H2O“.
In der modernen Logik wird diese Äquivalenz auch als „gegenseitige Implikation“ bezeichnet und mit „Wenn A dann B, und wenn B dann A“ oder kürzer
mit „A dann und nur dann wenn B“ formalisiert. Dies ist jedoch eine irreführende
Notationsweise, da die Implikationen Wahrheitswerte besitzen und die „doppelte
bzw. gegenseitige Implikationen“ suggeriert, dies sei auch bei Äquivalenzen der
Fall.
In der Mathematik spielen die Gleichungen eine erheblich größere Rolle als in
der Logik. Fast alles, was in der Mathematik artikuliert wird, bedient sich dazu
der Gleichungen.
Daß die Gleichung in der Mathematik diese Bedeutung erlangt hat, dürfte auf
Euklids Behandlung des Themas „Gleichheit“ in seinem Lehrbuch „Elemente“ zurückzuführen sein. Dieses Werk ist bekanntlich bis ins 19. Jahrhundert das paradigmatische Lehrbuch der Mathematik im Abendland gewesen. Mathematiker
haben es stets als Muster für den Aufbau einer wissenschaftlichen Disziplin geschätzt. Auch von den „trivialen“ Logikern ist seine Methodik der Voranstellung
von begründenden Axiomen und Ableitung von Folgesätzen aus diesen als „Mos
geometricus“ geschätzt worden. Manche Lehrbücher einzelner Disziplinen im 17.
und 18. Jahrhundert betonen im Untertitel, daß sie „more geometrico demonstrata“ (nach geometrischer Weise des Euklid) aufgebaut und in allen Teilen bewiesen
seien.34
In § 19 wird über Euklid ausführlicher berichtet, so daß hier nur auf dasjenige
hingewiesen zu werden braucht, was aus seinem Werk bei den Gleichungen relevant geworden ist.
34
Prototypisch dafür war die Darstellung seiner eigenen Philosophie durch Descartes unter dem Titel „Renati Des Cartes
Principiorum philosophiae pars I et II, more geometrico demonstratae, Amsterdam 1644 u. ö. B. Spinoza hat die Philosophie des Descartes unter demselben Titel bearbeitet und in Amsterdam 1663 veröffentlicht. Auch sein postum veröffentlichtes Hauptwerk „Ethica, ordine geometrico demonstrata“ (in seinen Opera posthuma), Amsterdam 1677 trug wesentlich zur Verbreitung bei. In Deutschland hat sich vor allem Chr. Wolff für den mos geometricus stark gemacht und ihn
als „methodus scientifica“ in seinen zahlreichen lateinischen Disziplinendarstellungen verbreitet. Vgl. dazu besonders
seinen „Discursus praeliminaris de Philosophia in genere / Einleitende Abhandlungen über Philosophie im Allgemeinen,
(1728), historisch-kritische Ausgabe, übers., eingel. und hgg. von G. Gawlik und L. Kreimendahl, Stuttgart-Bad Cannstatt
1996. Im Gegensatz zum modernen Axiomenverständnis legte Wolff größten Wert darauf, daß die axiomatischen Begriffe
klar und deutlich definiert sein müssen, um aus ihnen Folgesätze ableiten zu können.
62
Euklid thematisiert die Gleichheit nach der Behandlung der Definitionen und
Postulate.35 Es handelt sich bei seinen Ausführungen darüber offensichtlich um
Einsichten, die an den Eigenschaften der Waage gewonnen wurden, die hier als
Modell für den Umgang mit Gleichem und Ungleichem dient. Andernfalls wären
diese angeblichen „Axiome“ unverständlich. Hauptsache dabei ist die Vorstellung
vom Gleichgewicht, die man an jeder Waage mit zwei gleichen Hebelarmen (in
gerader Linie und parallel zum Horizont, bei Euklid „Ebene“ genannt) beobachten
kann.
Machen wir aber auch auf die Dialektik aufmerksam, die in die platonischeuklidische Mathematikbegründung eingebaut ist, und die sich auch am Waagemodell erweist. Die hier herausgestellte Gleichheit der beiden Seiten beruht ersichtlich zugleich auf der Ungleichheit ihrer Ausrichtung, also auf ihrem Gegensatz, d. h. auf der Ungleichheit ihrer (vektoriellen) Ausrichtung. Diese Dialektik
macht sich später noch in Newtons Definition der Kräfte bemerkbar, wonach bekanntlich jede Kraft einer entgegengesetzten Kraft „gleich“ sein soll, obwohl sie
ihr in dieser Entgegensetzung gerade „ungleich“ ist.
Die Erfahrung lehrt, daß der Gleichgewichtszustand einer Waage sich auch
dadurch aufrecht erhalten läßt, daß man verschiedene Gewichte in jeweils verschiedenen Abständen vom Aufhängepunkt der Waage anbringt. Jedes Wiegen
und Wägen besteht ja darin, daß man ausprobiert, welche Gewichte in welchen
Abständen vom Aufhängepunkt die Waage im Gleichgewicht halten. Dies geschieht in kontinuierlichen Veränderungen der jeweiligen Gewichte und der Abstände vom Aufhängepunkt der Waagebalken. Damit aber ergibt sich auch die
Modellvorstellung für das jenige, was man seither bei den Umwandlungen von
Gleichungen in einfachere oder komplexere Gestalten (sog. Kürzen oder Herübernehmen von Ausdrücken der einen auf die andere Seite unter Auswechseln der
Rechenjunktoren) praktiziert.
Ein entscheidender Schritt in der Entwicklung der Mathematik war dann die
Ablösung der Arithmetik von jeder geometrischen Veranschaulichung in der sogenannten Algebra, und zwar unter Beibehaltung der Gleichung als Hauptmittel der
methodischen Artikulation. Was man als geometrische Gleichung jederzeit mit
Pythagoras demonstrieren kann, nämlich die Gleichung a² + b² = c² (FlächenSumme der Kathedenquadrate = Flächen-Summe des Hypothenusenquadrats am
rechtwinklichen Dreieck) läßt sich rein arithmetisch keineswegs für beliebige
Zahlen beweisen. Für a = 3, b = 4, c = 5 ist es auch eine arithmetische Gleichung.
Für a = 2, b = 3, c = 4 ist es keine Gleichung, obwohl es so erscheint. Damit eröffnet sich ein ungeheures Problemfeld für diese neue Disziplin, nämlich der
Nachweis, ob solche Formeln überhaupt Gleichungen sind oder nicht, und welche
Zahlenwerte sie „erfüllen“, damit sie Gleichungen bleiben. Irgendwelche Formeln
als Gleichungen zu notieren, ohne zu wissen, ob es tatsächlich Gleichungen sind,
erfüllt auch in der Mathematik den Tatbestand der Irreführung und Täuschung.
35
Euklid‟s Elemente. Fünfzehn Bücher aus dem Griechischen übersetzt von J. F. Lorenz, neu hgg. von C. Brandan Mollweide, 5. verb. Ausgabe Halle 1824, S. 4.
63
Die von den ausdrucksbildenden Junktoren strikt zu unterscheidenden Verbindungspartikel sind die urteilsbildenden Junktoren, die stets einen Behauptungssinn des Urteils produzieren. Urteile besitzen im Unterschied zu Ausdrücken
einen Wahrheitswert, d. h. sie können wahr, falsch oder beides zugleich sein.
Behauptende Urteile werden also nur mittels der urteilsbildenden Junktoren formuliert. Die meist gebrauchten sind die Kopula „ist“ und ihre Negation „ist
nicht“, der Existenzjunktor „es gibt“ sowie vier genau unterscheidbare Implikationsjunktoren „wenn ... dann“. Dies sind die allgemeine, materiale, formale
und korrelative Implikation. Sie sind in den üblichen Formalismen bezüglich ihrer
Verküpfungsweise kaum unterscheidbar und werden daher oft miteinander verwechselt. In der pyramidalen Darstellung zeigen sich jedoch ihre Unterschiede
sehr deutlich
Die klassische und die mathematische Logik unterscheiden sich erheblich in
ihrem Verständnis der Bedeutung und Funktion der Junktoren. Viele „klassische“
Logiker halten die Definitionen (als Äquivalenzen) für behauptende Urteile (mit
Wahrheitsanspruch) und sprechen deswegen gerne von „wahren Begriffen“. Wenn
Begriffe als solche jedoch wahr sein könnten, müßte jedes Sprachwörterbuch mit
seinen fremdsprachlichen Äquivalenzen der Lemmata als Wahrheitstresor gelten.
Was wohl niemand behaupten wird.
Auch in der mathematischen Logik und speziell in der Arithmetik gilt die logische Äquivalenz (die mathematische Gleichung) allgemein als Standardjunktor
für mathematische Behauptungen mit Wahrheitsanspruch. Dabei identifiziert man
oft die Kopula „ist“ mit dem Äquivalenzjunktor „ist gleich“. Wir haben schon
vorn Beispiele für diese „mathematischen Wahrheiten“ und dann sprichwörtlich
gewordenen Alltagswahrheiten genannt wie „2 ∙ 2 = 4“ oder Kants Paradeexempel
für ein „wahres synthetisches Urteil apriori“: „5 + 7 = 12“.
Charles Sanders Peirce hat das mit der Einführung eines besonderen Zeichens
„€ ” sanktioniert, das er aus „C“ (= Kopula für logische „Unterordnung“) und
Äquivalenzjunktor „ = “ (für Gleichungszeichen) kombiniert hat. Er sagt darüber:
“Die Kopula ‚ist‟ wird bald die eine, bald die andere der beiden Beziehungen ausdrücken, die wir mittels der Zeichen C und = dargestellt haben. ... Ausführlichst
wird dieses Zeichen als ‚untergeordnet oder gleich‟ zu lesen sein“.36
Peirce hat zwar richtig gesehen, daß die logische Kopula eine Unterordnung eines
Subjektbegriffs unter seine Gattung anzeigt, und daß das Gleichheitszeichen die
Bedeutungsidentität zweier Ausdrücke besagt. Aber diesen wesentlichen Unterschied in einem neuen Junktor unsichtbar werden zu lassen, hat in der mathematischen Logik große Folgeschäden gehabt.
Der Mathematiker Hermann Weyl dokumentiert, daß die Kantische Auffassung
von der mathematischen Gleichung als behauptendes Urteil sakrosankt war – und
läßt dabei seine Fehleinschätzung der Logik erkennen:
36
Ch. S. Peirce, Vorlesungen I, zitiert nach J. M. Bochenski, Formale Logik , 3. Aufl. Freiburg i. Br. S. 357.
64
„(Beispiel für) ein wirkliches Urteil (ist) 17 + 1 = 1 + 17“.... „Ein Existentialsatz – etwa
‟es gibt eine gerade Zahl‟ - ist überhaupt kein Urteil im eigentlichen Sinne, das einen
Sachverhalt behauptet. Existential-Sachverhalte sind eine leere Erfindung der Logiker“.37
Daß die mathematischen Gleichungsformeln Definitionen ohne Wahrheitswert
sind, bemerkt man schon daran, daß die Zahlbegriffe (d. h. ihre Bedeutungen als
„Größen“) stets durch viele Ausdrücke darstellbar sind und sich somit untereinander ersetzen bzw. „substituieren“ lassen. Man lernt und memoriert diese Definitionen als „kleines und ggf. großes Einmaleins“. Man weiß dann, daß etwa die
Bedeutung der Zahl 4 dieselbe (identisch) ist mit den Summen 1 + 3, 2 + 2, oder
mit den Differenzen 5 – 1, 7 – 3, oder mit dem Produkt 2 ∙ 2 (und zugleich auch
-2 ∙ -2) , oder mit dem Quotient 8 : 2, oder mit der 2. Potenz von 2, oder mit der
Wurzel aus 16.
Die erstmalige Definition (man spricht jetzt nach S. Kripke vom „Taufereignis“)
neuer Zahlbegriffe (über die in den Beispielen angebenen Ausdrücke für „natürliche positive sowie negative Zahlen“ hinaus) ergab sich historisch aus dem
Problem, die Rechenarten über den anschaulichen Bereich abzählbarer Gegenstände hinaus auszuweiten.
Subtrahiert man 4 von der 4, so bleibt Nichts übrig. So wurde die Null (lat.:
nullus = keiner) definiert als „4 – 4 = 0“. Subtrahiert man 5 von der 4, so definiert
man eine negative Zahl: „4 – 5 = – 1“. Multipliziert man eine Zahl mit sich
selbst, so definiert man eine Potenzzahl: 4 ∙ 4 = 16“. Teilt man 1 durch 3, so definiert man eine Irrationalzahl: „1 : 3 = 0,333...“ Zieht man die 2. Wurzel aus einer
negativen Zahl, so definiert man eine imaginäre Zahl: „√-4 = 2i“, usw.
Das Definieren neuer Zahlarten und Unterarten von Zahlen läßt sich beliebig
ausweiten und ist längst über jeden Verständnishorizont von Nicht-Mathematikern
ausgeweitet worden. Die Definition einer neuen Zahlart gilt jedoch in der Mathematik und mathematischen Logik als Entdeckungsleistung und Einsicht in neue
Wahrheiten. Aus der Sicht der klassischen Logik aber handelt es sich dabei um
die Ausweitung eines fachspezifischen arithmetischen Synonymenlexikons.
Algebraische Funktionsgleichungen (mit „Unbekannten“, z. B. x, y), die sich
einer geometrischen Veranschaulichung gänzlich entziehen, werden zwar wie die
analytischen (auf die Geometrie bezogenen) als Gleichungen notiert, eben weil
man die Gleichungen für Behauptungssätze hält. Sie sind aber korrelative Implikationsurteile, die in der Form: „wenn es ein so beschaffenes y gibt, dann gibt es
(auch) ein so oder anders beschaffenes x“ (oder: „y → (f)x“) zu formalisieren
wären. Sie können deswegen im Gegensatz zu normalen bzw. echten ÄquivalenzGleichungen des Typs „y = (f)x“ wahr oder falsch sein. In ihnen werden rein
37
H. Weyl, Über die neue Grundlagenkrise der Mathematik (1921), in: O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl. Freiburg-München 1964, S. 350.
65
arithmetische Größenwerte (ohne Bezug auf geometrische Sachverhalte) einander
zugeordnet. Diese Größenwerte sind in der Regel verschieden und als solche
erkennbar. Es können jedoch auch gleiche Zahlenwerte einander zugeordnet
werden. Das dürfte ein Grund dafür sein, daß solche Korrelationen als Äquivalenzen erscheinen und immer noch in Gleichungsform notiert werden.
6. Am meisten macht sich der Unterschied zwischen logischem und mathematisch-logischem Denkstil in der modernen Aussagenlogik bemerkbar. Die Bezeichnung „Aussagenlogik“ suggeriert von vornherein, es handele sich dabei um
einen modernen Kalkül wahrer und falscher Behauptungen.
Dieser Kalkül beruht aber grundsätzlich auf der Nichtunterscheidung von ausdrucksbildenden und urteilsbildenden Junktoren. In den Wittgensteinschen (und
Postschen) Wahrheitswerttabellen werden allen dort aufgeführten Junktoren
Wahrheitswerte zugesprochen. Die klassische Kopula und die Quantifikatoren
werden allerdings nicht aufgeführt und somit nicht definiert. Dies signalisiert von
vornherein einen gravierenden Mangel der sogenannten Wahrheitswerttabellen für
die Junktordefinitionen und damit auch des Gesamtkonzepts der „Aussagenlogik“.
Darüber hinaus aber beruht die Aussagenlogik auf der irreführenden Benutzung
der Metastufentheorie, von der vorn schon die Rede war. Sinn bzw. Bedeutung
der Junktoren wird in der Aussagenlogik als Meta-Sinn bzw. Meta-Bedeutung der
durch sie verknüpften wahren und/oder falschen sog. Elementarsätze definiert.
Dabei wird jedoch grundsätzlich verkannt, daß die objektsprachlichen wahren
und/oder falschen Sätze auf der Metastufe nur noch als begriffliche Ausdrücke
(eben: „wahrer Satz“ / „falscher Satz“) aufgefaßt werden, die keinen Behauptungssinn und damit auch keinen Wahrheitswert besitzen können. Überhaupt
defininiert die Aussagenlogik für alle ausdrucksbildenden Junktoren einen
Wahrheitswert. Es wurde aber schon gezeigt, daß ein Ausdruck wie „wahrer und
falscher Satz“ (der in der Aussagenlogik als „falsche“ Behauptung definiert wird,
überhaupt kein wahrheitswertfähiger Behauptungssatz sein kann. (Mehr darüber
in § 9).
7. Ist der Formalismus entsprechend gebaut, so wirkt er gleichsam wie ein strukturierter Filter. Er läßt nur Begriffe und begriffliche Ausdrücke, behauptende
Sätze und Satzketten als Schlüsse durch und zwingt ihnen seine Form auf. Alles
andere Sprach- und Vorstellungsmaterial aber läßt er nicht passieren. Das heißt
zugleich auch, daß nicht alles, was man sich vorstellen und selbst in grammatisch
korrekter Weise besprechen kann, logisch formalisiert werden kann.
Ein falsch verstandenes Logikkonzept verunklart den formalen Logikfilter dadurch, daß er ihn der Grammatik einer Sprache annähert oder gar mit Teilen einer
Sprachgrammatik gleichsetzt. Die sprachliche Grammatik ist aber selbst ein Filter
der Sinnhaftigkeit von Laut- und Schriftgebilden. Werden in dieser Weise grammatische Elemente zu logischen Formen gemacht, so kommt es zu den diversen
Logiktypen etwa einer speziell temporalen, deontischen, Normen-, Wunsch- oder
66
Quaestionenlogik und der Wahrscheinlichkeitslogik. Die neuerdings erfundene
„Fuzzy-Logik“ ist ein Versuch, die letzten Reste des in der Gemeinsprache vorkommenden logisch Nicht-Formalisierbaren auch noch zu formalisieren.
8. In den üblichen Formalismen sind die bisherigen formalen Elemente wie Buchstaben, Junktorenzeichen, Klammern und Zitatzeichen, auch mathematische Rechenzeichen, weit davon entfernt, das einzulösen, was man sich seit Leibniz unter
einer Kalkülisierung des logischen Prozedere verspricht. Die in der mathematischen Logik vertretene Kalkülisierung bzw. Algebraisierung des Denkens insinuiert zwar, man habe nach dem Vorbild des mechanischen Rechnens längst
einige zuverlässige „intellektuelle“ Denkmaschinen (sog. Turing-Maschinen) erfunden. Aber es handelt sich trotz allem, was man darüber sagt, um pure
mathematische Metaphern, die dem logischen Denken nur sehr vage und allenfalls
so weit entsprechen, als auch in der Mathematik Logik enthalten ist. Ganz außer
acht bleibt dabei, daß die Mathematik selbst auf weite Strecken dialektisch ist.
Das wird über die quasi-mathematischen Formalismen der mathematischen Logik
naturgemäß in die klassische Logik zurückübertragen.
Der ursprüngliche römische Calculus war ein Kalksteinchen, bei den Griechen
Psephos genannt. Er diente zur sinnlichen Repräsentanz einer Recheneinheit. Man
konnte mehrere von ihnen gruppieren, einteilen und trennen und so die Grundrechenarten mechanisch praktizieren. Reste von diesen Verfahren finden sich
noch im Abacus und im japanischen Soroban.
Die Hauptsache bei einem solchen Rechenkalkül war und ist es, den Zahlen
oder Anzahlen von Gegenständen Rechensteine zuzuordnen, um dann unter ihnen
Gruppierungen gemäß den Rechenarten vorzunehmen. Von einem „logischen“
Kalkül sollte man erwarten, daß er den aus Reden oder Schriften entnommenen
Begriffen in gleicher Weise manipulierbare Dinge zuordnet.
Genau dies haben wir bei der Entwicklung der „Begriffspyramide“ im Auge
gehabt. Sie ordnet den Begriffen Positionen in einer Begriffspyramide zu. Die in
den Reden und Schriften verwendeten Junktoren, soweit sie Ausdrücke und
Urteile bestimmen, zeigen die sich ergebenden Relationen zwischen den Begriffspositionen an. Dadurch wird das hierarische Allgemeinheitsgefälle und die
Nebeneinanderstellung der vorkommenden Begriffe abgebildet.
Trägt man die so verstandenen Begriffe in die Pyramidenpositionen ein (oder
stellt sie sich in dieser pyramidalen Ordnung vor), so wird man leicht erkennen,
welche Begriffe dabei regulär sind, und welche – wenn sie nicht in die reguläre
Pyramidenstruktur passen – irregulär, also z. B. kontradiktorisch sind. Und vor
allem wird man dann bei einiger Übung und Routine sogleich noch weitere
junktorielle Verknüpfungen zwischen ihnen herstellen (oder sich vorstellen)
können, als in der Rede oder Schrift artikuliert werden.
Für das eigene logische Argumentieren wird man demnach seine eigenen
Gedanken schon von vornherein als pyramidal geordnete Begriffe explizieren.
Gelingt dies nicht in erhoffter Weise, so kann dies nur ein Anzeichen für unklares
67
Denken oder eine im begrifflichen Material liegende Problematik sein. Gelingt es
aber, so wird man mit Leichtigkeit von einem Begriff zum nächsten – sei es ein
allgemeinerer oder speziellerer oder durch Negationen abgetrennter – übergehen
und darin zugleich einen „rhetorischen Leitfaden“ für die theoretische Ordnung
einer mehr oder weniger umfassenden Argumentation zur Verfügung haben.
§ 8 Über den Unterschied logischer und mathematischer Denkmethoden
Die Bildung wissenschaftlicher Begriffe. Die Logifizierung der Alltagssprache durch Verbegrifflichung von Wörtern. Der aristotelische Definitionsstandard. Die Trennung des intensionalen und
des extensionalen Aspektes und die Verselbständigung von intensionaler und extensionaler Logik.
Die Funktion der Dialektik als Denken begrifflicher Widersprüche in beiden Logiken. Die Dialektik des Zahlbegriffs. Die Dialektik des Mengenbegriffs. Der Import der dialektischen Begriffsbildung von der Mathematik in die Physik. Die Dialektik physikalischer Begriffsbildung. Beispiele: Geschwindigkeit, Kraft, Raum und Zeit. Die dialektische Verschmelzung der logischen
Kopula und der Äquivalenz in der mathematischen Gleichung. Die Funktion der dreiwertigen
Logiken
Die Alltagssprache und ihr Gebrauch halten auf Grund der langen Logifizierung
der Sprache immer schon Beispiele bereit, an denen man ablesen kann, was
Begriffe sind. Neu gebildete wissenschaftliche Begriffe bereichern ständig den
Wortschatz der Bildungssprachen. Aber sprachliche Wörter bezeichnen regelmäßig nur die Intension(en) eines Begriffs, nicht aber die zugehörigen Extensionen. Deswegen sind sprachliche Wörter nicht mit wissenschaftlichen Begriffen
zu verwechseln.
Traditionellerweise wurden die wissenschaftlichen Begriffe aus griechischen
und lateinischen Wörtern gebildet, aus deren Kenntnis man meist schon ihre
Bedeutung entnehmen konnte. Heute werden neue Begriffe im Deutschen oft als
englische Lehnwörter (oder was man dafür hält) importiert. Daneben gibt es
freilich einen neueren Brauch, künstliche „Termini“ aus Anfangsbuchstaben von
Wörtern zu bilden (Akronyme), aus denen man die Bedeutung nicht mehr erraten
kann (z. B. DNS = „Desoxyribonukleinsäure“, KI-Forschung = „künstliche Intelligenz“-Forschung, MOOC = massive open online course). Das ist man zwar aus
Firmenbezeichnungen gewöhnt, in der Wissenschaft aber führt es zu einer
Esoterisierung der Terminologie, die ein Verständnis „nichteingeweihter“ Laien
und nicht weniger auch von Wissenschaftlern anderer Disziplinen fast unmöglich
macht.
68
Vielfach ist es auch üblich, wissenschaftliche Gegenstände, Begriffe, Probleme,
Hypothesen mit dem Namen ihrer Entdecker oder Erfinder zu bezeichnen (z. B.
„Friessches Trilemma“, „Kant-Laplacesche Hypothese“, „Einsteinsche Relativitätstheorie“, „Heisenbergsche Unbestimmtheitsrelation“). Auch deren Verständnis
setzt schon Insiderwissen voraus, das dem Laien meist unzugänglich ist. Man
möchte jedoch dem Laien empfehlen, von denen, die solche Bezeichnungen ge
brauchen, eine Erläuterung zu erbitten. Sehr oft stellt sich dann nämlich heraus,
daß auch Experten keine klare oder übereinstimmende Vorstellung vom Gemeinten besitzen.
Bei weitem die meisten wissenschaftlichen Theorien werden aber noch immer in
der gewöhnlichen Bildungssprache formuliert, besonders wenn sie wissenschaftliche Begriffe in den Bildungswortschatz aufgenommen hat. Und so läßt sich auch
an sprachlichen Beispielen demonstrieren, was auch in der Wissenschaft Begriffe,
wahre und falsche Sätze, Schlüsse und begründende Argumente sind.
Die Logik hat seit ihrer Entstehung daran gearbeitet, diejenigen Eigenschaften
an den sprachlichen Beispielen herauszuheben und zu systematisieren, die sie als
Ausdruck von wahrem und/oder falschem Wissen ausweisen. Das ist überhaupt
die Grundlage für die Formalisierung in der Logik und dann auch der Ausbildung
der formalen als einer zweiwertigen Logik geworden.
Bestimmte grammatisch ausgezeichnete Wörter (Substantive und Eigenschaftswörter) wurden durch stellvertretende Zeichen (Buchstaben bzw. Zahlen) ersetzt.
Grammatische Behauptungssätze erhielten die Form des Urteils als Verknüpfung
von Subjekts- und Prädikatsbegriffen. Komplexe Wortverknüpfungen wurden
durch ausdrucksbildende Junktoren dargestellt. Dabei behielten die sprachlichen
Verbindungspartikel (Junktoren bzw. Funktoren) ihren sprachlichen Verknüpfungs- oder Bestimmungssinn bei, den man ohne weiteres sprachlich versteht. Die
satzbildenden Junktoren wie Bejahung, Existenzbehauptung („es gibt“), Verneinung, Folgerungen, und die ausdrucksbildenden Junktoren wie und, oder, alle,
einige, ein, kein, wurden nicht formal vertreten, sondern durch Kurzschriftzeichen
notiert.
Weitere grammatische Satzformen wie Wunsch-, Befehls-, Fragesätze wurden
in der klassischen Logik als nicht-wahrheitswertfähig außer Betracht gelassen.
Doch erklärt sich das Aufkommen vieler neuerer Speziallogiken gerade dadurch,
daß sie auch derartige Satzformen formalisiert haben und sie damit als wahrheitswertfähig zulassen. Das hat wesentlich zur Komplizierung der Wahrheits- und
Falschheitsfragen beigetragen, die seither mit Fragen der (methodischen) Gültigkeit und Ungültigkeit, Regelhaftigkeit, Normgerechtheit u. ä. vermischt, gelegentlich auch dadurch abgelöst werden.
Die wichtigste Einsicht in die logische Natur der Begriffe seit Platon und
Aristoteles ist wohl die, daß sie aus Intensionen („Begriffsmerkmale“, die ihre Bedeutung ausdrücken) und Extensionen („Umfänge“, die ihren Anwendungsbereich
markieren) zusammengesetzt sind.
69
Seit Aristoteles weiß man auch, daß die Intensionen allgemeiner Begriffe vollständig als sogenannte generische Merkmale in den Merkmalsbestand aller in
ihrem Umfang liegenden spezielleren Begriffe eingehen und bei deren Bedeutungsverstehen mitgedacht werden müssen. Die niederen bzw „konkreteren“ Begriffe enthalten zusätzliche Merkmale („spezifische Differenzen“), die in ihnen
mit den generischen Merkmalen vereinigt werden (concresci = lat.: zusammenwachsen). Unterste Begriffe nennt man daher im Unterschied zu den abstrakten
oberen auch konkrete Begriffe. Meist sind sie Eigennamen oder quantifizierte
allgemeinere Begriffe. Letztere nennt man seit Bertrand Russell Kennzeichnungen.
Aus diesem Zusammenspiel der Intensionen und Extensionen der Begriffe
ergibt sich unter ihnen das, was man ihre Hierarchie oder das Allgemeinheitsgefälle nennen kann. Dieses ist schon durch den einführenden Kommentar (Isagoge) des Porphyrios (um 232 – um 304 n. Chr.) zum aristotelischen Organon als
„porphyrianischer Baum“ beschrieben worden und hat in der scholastischen Logik
immer wieder auch zu graphischen Baumdarstellungen von Begriffshierarchien
geführt. Bei Porphyrios bilden die allgemeinsten Begriffe (Gattungen) den Stamm
und die Arten (Eidos) und Unterarten bis zu den Individuen die Äste und Blätter.
Moderne Fassungen solcher Begriffshierarchien stellen das Allgemeinheitsgefälle
in der Gestalt der Begriffspyramide dar, also gegenüber dem Baumschema gleichsam auf den Kopf gestellt, wovon auch in der hier vorgeschlagenen „pyramidalen
Logik“ ausgegangen wird.
Nun sollte man meinen, von einem Begriff könne in der Logik und mittels der
Logik in den Wissenschaften überhaupt nur die Rede sein, wenn seine intensionalen und extensionalen Bestimmungen genau bekannt sind und offengelegt
werden. Ebenso sollte man meinen, daß Intensionen (Merkmale) und Extensionen
(Umfänge) für sich genommen nicht selber Begriffe sein können, da sie ja erst in
ihrer Vereinigung einen Begriff ausmachen. Um dies aber in der logischen Begriffslehre klar und deutlich festzuhalten, war die von Aristoteles eingeführte und
seither beibehaltene Formalisierung der Begriffe durch einfache Großbuchstaben
(die im Griechischen zugleich Zahlzeichen sind) nur unzulänglich geeignet. Sie
konnte die Intensionen und Extensionen der Begriffe nicht selbst formal darstellen
und verdeckte dadurch den internen Aufbau des Begriffs aus Intensionen und
Extensionen.
Als Kompensation dieses Nachteils der formalen Notation der Begriffe erfand
Aristoteles die nach ihm benannte Definitionsweise. Sie besteht darin, für einen
Begriff seine generischen Merkmale und die spezifische Differenz (zusätzliches
Merkmal) gesondert anzugeben.
Dies geschieht für einen beliebigen Begriff durch Angabe des nächsthöheren
Allgemeinbegriffs (genus proximum), dessen sämtliche Merkmale er (als „generische Merkmale“) aufnimmt und in dessen Umfang der zu definierende Begriff
liegt. Hinzu tritt das sogenannte spezifische Merkmal, das ihn einerseits von der
Gattung, andererseits auch von anderen unter dieselbe Gattung fallenden Art-
70
begriffen unterscheidet. Auf diese Weise wurde etwa das gemeinsprachliche Wort
„Tier“ als wissenschaftlicher Begriff definiert, indem man als nächsthöhere Gattung „Lebewesen“ angab (das „Lebendigsein“ ist generisches Merkmal von
„Tier“), als spezifische Differenz seine es von den Pflanzen unterscheidende
Eigenschaften der Beweglichkeit und Sinnesausstattung.
Mit dieser aristotelischen und auch jetzt noch als logischer Standard geltenden
Definitionsweise können keineswegs alle Intensionen und Extensionen eines
Begriffs offengelegt werden. Um die Definition genau und vollständig zu machen,
müßten alle generischen Merkmale aller allgemeineren Begriffe, in deren Umfang
der zu definierende Begriff liegt, offenliegen (d. h. die ganze Hierarchie der
allgemeineren Begriffe, nicht nur das genus proximum, müßte bekannt sein).
Platon hat das schon in seiner „Definition“ des „Angelfischers“ (im Dialog Sophistes) sehr klar vorgeführt. 38 Ebenso müßte aber auch die Extension des Begriffs durch Angabe aller untergeordneten Begriffe, die in seinen eigenen Umfang
fallen, deutlich werden. Das wiederum kann man im „Angelfischer“-Beispiel in
Platons Dialog Sophistes an den verschiedenen „Handwerkern“ (einschließlich
des Angelfischers) sehen, die unter den Begriff „Handwerker“ fallen und dort eine
ganze Hierarchie ausmachen.
Die Grenzen des aristotelischen Definitionsverfahrens wurden freilich schon in
der Antike entdeckt und diskutiert. Sie liegen in Richtung des Allgemeineren darin, daß man beim Versuch, Begriffshierarchien aufzustellen, zu „obersten Gattungen“ (Aristoteles‟ Kategorien, Euklids „axiomatische“ Grundbegriffe) gelangt,
die dann kein genus proximum mehr über sich haben. Nach unten aber gelangt
man so zu konkreten Ding- und Lagebezeichnungen („Eigennamen“) mit so
vielen Eigenschaften, daß man von ihnen dann unübersehbar viele Merkmale
nebst einer spezifischen Differenz angeben müßte. Dies hielt man gemäß dem
scholastischen Diktum: „individuum est ineffabile“ (das Individuelle läßt sich
nicht erschöpfend aussagen) für unmöglich.
Diese Begrenzungen – die in der Tat aber nur Schwächen der aristotelischen
Definitionsweise sind – haben dazu geführt, daß man „nach oben“ die Kategorien
und axiomatischen Grundbegriffe und „nach unten“ die Individuen weitgehend
aus der logischen Betrachtung ausnahm bzw. ihnen eine restringierte logische
Stellung einräumte.
Diese Beschränkungen der aristotelischen Standarddefinitionsweise sind bis
heute dogmatisch als allgemeine Grenze der Definierbarkeit von Begriffen festgehalten worden. Seither sind die Logiker und Mathematiker gleicherweise der
Meinung, Grundbegriffe als höchste Gattungen (Kategorien, „Axiome“) könnten
überhaupt nicht definiert werden, und ebensowenig unterste konkrete Begriffe, die
allenfalls durch Eigennamen oder Russellsche Kennzeichnungen angedeutet
werden könnten.
38
Platon, Sophistes 219 a – 221 a, in: Platon, Sämtliche Werke nach der Übersetzung von F. Schleiermacher hgg. von W.
F. Otto u. a. (Rowohlts Klassiker der Literatur und der Wissenschaft, Griechische Philosophie Band 5) Hamburg 1958, S.
188 – 192.
71
Dies ist höchst erstaunlich angesichts der Tatsache, daß es neben der aristotelischen eine Menge anderer Definitionsweisen gibt, die geeignet sind, das hier
Vermißte zu leisten.
Bei höchsten Begriffen kann es nur darauf ankommen, von den spezifischen
Differenzen der nächst niederen Arten abzusehen und das ihnen gemeinsame
Merkmal festzuhalten und zu benennen, wofür freilich nicht immer ein geeignetes
„Wort“ zur Verfügung steht. Bei den sogenannten Individuen lassen sich die
generischen Merkmale, die es ja mit anderen Arten und Gattungen gemeinsam
hat, durch diese oberen Begriffe angeben, und die Spezifität als spezifische
Differenz immer auf ein einziges Merkmal reduzieren (und sei es die nur einmal
vergebene Buchstaben-Nummernkombination eines individuellen Automobils
oder eines Personalausweises). Deshalb kann und muß eine effektive Begriffslogik auch die höchsten und untersten begrifflichen Positionen in Begriffshierarchien hinsichtlich ihrer intensionalen und extensionalen Komponenten genau konstruieren und definieren. Dadurch wird eine empfindliche Lücke in der
Begriffslogik und in der Theorie der Axiome geschlossen.
Die aristotelische Standarddefinition geht von den Intensionen (Merkmalen)
eines Begriffs aus, die dann als generische Leitfäden zugleich auch die Begriffsumfänge festlegen. Daran anschließend hat man später gemeint, es ließe sich auch
eine rein „intensionale Logik“ unter Absehung von den Begriffsextensionen entwickeln. Da aber „Begriffe ohne Umfang“ grundsätzlich keine Begriffe sein können, laufen diese Versuche auf reine „Bedeutungslehren“ (Semantiken) von Wörtern hinaus, wie sie in der philologischen Lexikographie zum Thema werden.
Von daher lag es aber nahe, als Gegenstück auch so etwas wie eine rein „extensionale Logik“ zu entwickeln. Es waren die Mathematiker, die sie als „Klassenlogik“ und mathematische Mengenlehre entwickelten. Sie wurde zum Kern der
modernen mathematischen Begriffslehre.
Auch dazu ist kritisch anzumerken, daß „Begriffe ohne Intensionen“ grundsätzlich keine Begriffe sein können, so daß eine strikt durchgehaltene extensionale
Logik keine Logik sein kann, sondern allenfalls zu Klassifikationen dienen kann.
Dies hat sich spätestens auch in der Logik von William Van Orman Quine,
einem der renommiertesten mathematischen Logiker in den USA, gezeigt. In
seiner Logikkonzeption des von ihm sogenannten Extensionalismus haben die
(rein extensional definierten) „Begriffe“ keinen bestimmbaren Inhalt, sie „referieren nicht“ auf Bedeutungen. Daher können sie auch nicht in andere „Sprachen“ (d.
h. hier andere logisch konstruierte Theorien) „übersetzt“ werden. Die mit ihnen
gebildeten Sätze (propositions) konstruieren und gliedern immer nur einen ganzen
„holistischen“ Theorieraum, der ausschließlich durch den Anwendungsbereich
(Umfang) eines solchen „Begriffes“ bestimmt sein soll.
In der Tat werden jedoch in der mathematischen Klassen- und Mengenlogik die
Extensionen zugleich (aber meist nicht explizit) auch als Intensionen der Klassenund Mengenbegriffe behandelt. Das macht sie manchmal doppeldeutig und zu
dem, was wir als contradictiones in adiecto vorgeführt haben. Sie sind dann ganz
72
wesentlich für die sich hier ergebenden Widersprüche und Paradoxien verantwortlich. Dies zeigt sich aber erst, wenn man die klassische Begriffslogik und
unsere Analyse des Aufbaus der nichtregulären (dialektischen) Begriffe als Maßstab anlegt. Dann zeigt sich auch genauer der Unterschied, der zwischen klassisch-logischer und mathematisch-logischer Begriffslehre besteht und damit auch
die logische von der mathematischen Denkweise trennt.
Dieser Unterschied besteht unserer Einschätzung nach wesentlich in der Stellung, die die Dialektik in den Begriffslehren der klassischen und der mathematischen Logik einnimmt. Und dies hat wieder beträchtliche Unterschiede
zwischen der logischen und mathematischen Auffassung von der Definition und
ihrer Formalisierung zur Folge.
In der klassischen Logik galt und gilt die Dialektik als eine „Logik des Widerspruchs“, die man traditionellerweise zu vermeiden und zu bekämpfen suchte, die
aber auch immer ihre Anhänger und Vertreter hatte. In der mathematischen Logik
aber gilt das Denken in Widersprüchen und mit Hilfe widersprüchlicher Begriffe
geradezu als unmöglich. Schon die Bezeichnung „Dialektik“ ist hier verpönt.
Wenn Widersprüche auftauchen und in der Forschung herausgearbeitet werden –
wie die zahlreichen mathematischen Paradoxien es zeigen – gelten sie als Grundlagenprobleme der Disziplin. Und von daher hält sich unbeirrt die Meinung der
Mathematiker und mathematischen Logiker, die reine Mathematik und mathematische Logik könne und müsse widerspruchslos auf- und ausgebaut werden. So
definiert ein älteres Lexikon die „Mathematik“ folgendermaßen:
„Die reine Mathematik hat das Eigentümliche, daß sie aus gewissen einfachen Begriffen und
Voraussetzuungen ihre Ergebnisse durch rein logische Schlüsse ableitet, deren Richtigkeit jedes Wesen, das mit menschlicher Vernunft begabt ist, zugeben muß. Erforderlich ist dabei nur, daß jene Begriffe und Voraussetzungen so gewählt sind, daß
man niemals auf einen Widerspruch stößt, denn ein solcher würde sofort das ganze
Gebäude umstoßen. Deshalb entnimmt die Mathematik ihre ersten Begriffe und
Voraussetzungen der Anschauung. So entnimmt die Analysis den Begriff der ganzen
Zahl und die Erzeugung der ganzen Zahlen aus der Einheit der inneren Anschauung
und entwickelt daraus alles Weitere; die Geometrie entnimmt die Begriffe der geraden Linie etc. der äußeren Anschauung. In beiden Fällen aber werden von den
Merkmalen der Begriffe, die man in der Anschauung vorfindet, nur gerade so viele
beibehalten, als erforderlich sind, um daraus Schlüsse ziehen zu können. Wenn nun
jemand jene ersten Begriffe und Voraussetzungen zugibt, was bei zweckmäßiger
Auswahl jeder wird tun müssen, so kann er nicht umhin, auch alles, was daraus
gefolgert wird, als richtig anzuerkennen. In diesem Sinne haben die mathematischen
Sätze eine solche Sicherheit, daß man sprichwörtlich von mathematischer Gewißheit,
Strenge und Wahrheit spricht, und eine Beweisführung mathematisch nennt, um sie
als völlig einwandfrei zu bezeichnen. In diesem Sinne nennt man auch die Mathematik vorzugsweise eine exakte Wissenschaft“.39
Dieser „hohe Ton“ ist zwar heute aus den Lexika verschwunden. Sicher aber nicht
die darin zum Ausdruck kommende Überzeugung von „Gewißheit, Strenge,
39
Art. „Mathematik“ in: Meyers Großes Konversationslexikon, Band 13, 6. Aufl. Leipzig-Wien 1908, S. 432.
73
Exaktheit und Wahrheit“ aus den Köpfen der Laien und der meisten Mathematiker.
Der zitierte Artikel ist, wie man leicht erkennt, im Kantischen Sinne formuliert,
wo bekanntlich Geometrie und Arithmetik auf die „Anschauungsformen“ (Raum
und Zeit) begründet werden. Jetzt ist man mehrheitlich wieder auf die platonische
„Anschauung mit einem geistigen Auge“ zurückgekehrt (was ersichtlich ein
dialektisches Oxymoron ist). Und dies nicht zuletzt, um den zahlreichen Perplexitäten der sinnlichen Anschauung zu entgehen, an denen schon die antike Mathematik sich abgearbeitet hatte. Aber auch von der sinnlichen Anschauung gilt die
Kant-Horazische Maxime: Naturam expellas furca, tamen usque recurret. Soll
heißen, auch die moderne Mathematik kommt nicht ohne Anschaung aus.
Was man jetzt „reines Denken“ oder „unanschauliche Vorstellung“ nennt, bedarf, um überhaupt einen Gehalt zu haben, anschaulicher Elemente. Soll das
„reine Denken“ einen Gehalt besitzen, so kann er nur in dem bestehen, was die
Sinne dem Gedächtnis und der Phantasie übermittelt haben. Ohne solchen Gehalt
bleibt keineswegs reines Denken übrig, sondern pures Nicht-Denken. Daher sind
Gedächtnis und Phantasie auch diejenigen sogenannten Vermögen, die in der
Mathematik am meisten benötigt und kultiviert werden.
Phantasie unterscheidet sich von der direkten „Anschaung“ (und zwar aller
einzelnen Sinne) dadurch, daß sie auch dasjenige noch zu irgend einer einheitlichen Vorstellung bringt, was nicht zugleich und im gleichen Erfahrungskontext
anschaulich gemacht werden kann. Gerade diese kreative Vorstellungsbildung ist
aber das Wesen aller sogenannten Dialektik geworden. Davon haben die Künste
gezehrt, die den „Pegasus“ (der nur als Pferd oder Vogel anschaubar ist) als
„geflügeltes Pferd“ kreierten. Ebenso aber auch die griechischen Mathematiker,
als sie „Punkt und Linie“ sowie „Eines und Vieles“ in Begriffe faßten.
Das Verfahren dieses kreativen dialektischen Denkens war den antiken Philosophen geläufig. Das zeigen die Formulierungen des Parmenidesschülers Zenon
vom „fliegenden Pfeil, der ruht“, und des Heraklit vom „Logos“, der das „Widersprechende vereinigt“. Derartige Denkbemühungen wurden bei den Logikern im
alten Megara und bei den Sophisten zu einem Denksport geselliger Unterhaltung.
Platon hat in seiner Ideenlehre vielfach davon Gebrauch gemacht und die
Dialektik jedenfalls nicht verachtet. Aristoteles aber wollte sie aus seiner Logik,
die wesentlich auf der sinnlichen Anschauung beruht, ausscheiden oder vermeiden. Aber auch ihm gelang es nur teilweise, denn er hat sie in seine sogenannte
Modallogik integriert und dadurch an die Nachwelt weitergegeben.
Es dürfte nun gerade die im obigen Zitat beschriebene Einstellung und Grundhaltung gewesen sein, die sowohl die Laienwelt als auch die Mathematiker selbst
blind gemacht hat für die offensichtliche Tatsache, daß Mathematik und die an sie
anknüpfende mathematische Logik in weiten Teilen eine ausgebaute Dialektik
widersprüchlicher Grundprinzipien und Grundbegriffe ist. Zeigen wir es an einigen Beispielen.
74
Das mathematische Hauptbeispiel für inhaltliche Begriffe waren und sind die
Zahlen. In den Zahlen sah und sieht man in der neuzeitlichen Mathematik autonome ontologische Gebilde, die entdeckt, erforscht, erkannt und auf Begriffe
gebracht werden müssen. Den Zahlen als mathematischen Begriffen mußten demnach autonome mathematische Bedeutungen bzw. Intensionen zukommen, ebenso
Extensionen, die sich wiederum auf (andere) Zahlen erstrecken mußten. Deren
dialektische Definitionen haben wir an anderer Stelle (vgl. Elementa logicomathematica, Internet der Phil. Fak. der HHU Düsseldorf, 2006)40 dargestellt.
Danach ist der allgemeine Zahlbegriff eine widersprüchliche Verschmelzung der
logischen Quantoren „ein“ und „alle“ D. h. er ist zugleich elementare Einheit bzw.
genauer: Einzelheit, wie auch Gesamtheit bzw. Totalität. Logisch ist er als „AllEinheit“ oder „Ein-Allheit“ zu definieren. Und demgemäß ist auch jede weiter zu
definierende Zahlart im Umfang des allgemeinen Zahlbegriffs ein Gebilde, das
mittels des generischen Merkmals des allgemeinen Zahlbegriffs zugleich eine
Zahleinheit und ein Gesamt von (anderen) Zahlen darstellt. So ist die Eins („ 1 “)
eine „elementare“ Einheit der natürlichen Zahlen, zugleich aber auch das Gesamt
aller ihrer echten Bruchzahlen geworden. Und jede andere natürliche Zahl ist
zugleich eine „Zahleinheit“ als Gesamt (z. B. Summe, Produkt usw.) von Einheiten der natürlichen Zahlen.
Aber daß die Zahlen als solche in dieser Weise dialektisch zu definieren wären,
hat man stets „vermieden“, und wo es nicht vermieden werden konnte, durch
Dissimulationen unsichtbar gemacht. Das gelang in der Neuzeit durch die systematische Trennung von Geometrie und Arithmetik.
Die alte Auffassung bis auf die Zeit von Descartes bezog die Zahlen als bloße
Quantifikationen auf geometrische Gegenstände. Diese galten als vorgegebene
„Bedeutungen“ (Intensionen), denen durch die zahlenmäßigen Quantifikationen
„Umfänge“ (extensionen) zugesprochen wurden. In dem quantifizierten Ausdruck
„3 Meter“ steht „Meter“ für die Intension der (konventionellen) Maßeinheit einer
geraden Linie; „3“ ordnet der Intension als Umfang „drei hinter einander gelegte
Einheitslängen“ zu. Das „in einer geraden Linie Hintereinanderlegen“ wird freilich nicht ausgedrückt. Es muß mitverstanden werden.
Bei Euklid wurden z. B. die später sogenannten natürlichen Zahlen als Punkte
oder auch als Erstreckungseinheiten von geometrischen Linien dargestellt. Darüber hinaus sprach Euklid von Flächenzahlen (zweite Potenzen) und Körperzahlen
(dritte Potenzen). Von daher stammt die Meinung, es ließe sich überhaupt eine
rein „extensionale Logik“ der Quantifikationen aufbauen. Das hieß jedenfalls, daß
die geometrischen Gebilde neben anderen Gebilden, etwa Viehherden, wirtschaftlichen Gütern, Münzbeständen usw. ein Anwendungsbereich arithmetischer Quantifikationen war.
40
Zuletzt in: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concept: The Logical and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New York-London 2013,
S. 20 – 26 und S. 94f. – Vgl. dazu auch § 9 der vorliegenden Schrift.
75
Auf dieser Nutzbarkeit der arithmetischen Quantifikation in Bezug auf zählbare
Gegenstände der Wirklichkeit beruht ersichtlich bis heute die überaus große Bedeutung der Mathematik für die Berechenbarmachung der Welt, insbesondere in
der Physik. Soweit die Arithmetik solche inhaltliche Anwendung auf zähl- und
meßbare Gegenstände erfuhr (und noch erfährt), blieb und bleibt sie frei von jeder
Dialektik.
So lernt man denn auch den Umgang mit den Zahlen durch Abzählen (Quantifizieren) von Dingen oft schon früher als den Umgang mit Begriffen. Nichts
erscheint daher selbstverständlicher und widerspruchsloser als ein primitives
Zahlverständnis, das an den vorgewiesenen Fingern von Eins bis Zehn zählt und
die Null durch die in der Faust verborgenen Finger demonstriert. Genau so
widerspruchslos kann man Kindern am selben Gegenstand „Faust“ auch logische
Qualifikationen und Quantifikationen beibringen. Dann würde man am vorgehaltenen Finger die „Bedeutung“ (die Merkmale des Begriffs „Finger“, etwa daß
ein Finger aus „artikulierten“ Knochen, Muskeln und Sehnen, Haut und einem
Fingernagel besteht) klarlegen. Anschließend würde man erklären, was „ein
Finger“, „einige (oder manche) Finger“, „alle Finger“ und „kein Finger“, also die
logischen „Extensionen“ (Quantifikationen) besagen. Und schließlich könnte man
durch die Eigennamen der Finger (wie im Kinderlied: „das ist der Daumen ...“)
die individuellen Finger benennen bzw. kennzeichnen.
Bei solchen Übungen würde man leicht bemerken, daß die mathematische
Quantifikation durch Zahlen und die Null mit dem logischen Prozedere des
Quantifizierens identisch ist. Der Unterschied liegt nur darin, daß das logische
„einige“ durch jede beliebige Zahl oberhalb der Eins innerhalb einer Gesamtheit
ersetzt werden kann (das logische „einige“ oder neuerdings sogenannte „manch“
wird zahlenmäßig gespreizt). Das logische „alle“ wird immer durch die letztgezählte Zahl eines Gesamts ausgedrückt.
Nur das, was man „einige“ und „alle“ nennt, wird man dem Kind dann auch als
„Menge von Fingern“ erklären. Keineswegs aber wird man es dadurch verwirren,
daß man auch „einen“ oder gar „keinen Finger“ eine „Menge von Fingern“ nennt.
Das aber tut die mathematische Mengenlehre, und es ist noch vor einiger Zeit
einigen Generationen deutscher Schüler mit der „Mengenlehre“ eingebleut worden. Schon gar nicht wird man die in der Faust verborgenen fünf Finger als „fünf
negative Finger“ bezeichnen.
Die widerspruchslose Logizität des mathematischen Quantifizierens von gegebenen Dingen ist die Grundlage für alle Anwendungen der Mathematik in dazu
geeigneten Einzelwissenschaften und in der Alltagspraxis geblieben. Bei solchen
Anwendungen werden inhaltliche Begriffe der Wissenschaften und des Alltags (z.
B. physikalische Örter, Zeitpunkte, Massen, Kräfte etc.), deren Intensionen durch
die jeweilige Wissenschaft oder den Sprachgebrauch vorgegeben werden, mit
zahlenmäßig quantifizierten Extensionen versehen. So spricht man etwa von
„einem Ort“, „zwei Uhr“ (gemeint sind zwei Stunden seit Mittag), „drei Pfund
Butter“, „vier Pferdestärken“ („PS“) usw. Und auf dieser Gegenstands-Quanti-
76
fizierung beruht letztlich die allgemeine Anwendung, Fruchtbarkeit und Überzeugungskraft der Mathematik.
Die Übereinstimmung mit der Logik und ihrer Anwendbarkeit auf Gegenstände
hört aber auf, sobald die Arithmetik nicht mehr nicht-mathematische Begriffe bloß
quantifiziert, sondern von mathematischen „Begriffen“ (z. B. den Zahlen als solchen) die Rede ist. Was dann an die Stelle der Logik tritt, ist eine autonom gewordene Arithmetik und Algebra.
Nach Platon, Euklid und Proklos meint der mathematische Platonismus, diese
genuin mathematischen Begriffe ließen sich als vorgegebene „Ideen“, d. h. als
genuine Begriffe, durch ein „geistiges Auge“ (wie Platon sagte) erschauen, und
sie ließen sich dann auch noch zusätzlich dem gemeinsamen logisch-arithmetischen Quantifikationsverfahren unterwerfen. Das platoni(sti)sche Programm fordert dann, das zählende Quantifizieren auf den Begriff der Zahl zu bringen und
den Zahlbegriff selbst zu quantifizieren. Ein wichtiges Resultat dieser Bestrebung
zeigte sich in der von Franciscus Viëta (François Viète, 1540 - 1603) eingeführten
sogenannten Buchstabenrechnung. In ihr stehen aristotelische Begriffszeichen
(große Buchstaben) für Zahlen, die ihrerseits durch Zahlen quantifiziert werden
(z. B. „5 X“ oder „2 Y“).
Nun hat gewiß noch kein Mensch mit seinem sinnlichen Auge, und das sind die
einzigen Augen, die der Mensch besitzt, das gesehen, was man eine Zahl oder
Menge an sich bzw. als solche nennt. Man benutzt die Wörter „Zahl“ und „Menge“ normalsprachlich daher in der vorn geschilderten anwendenden bzw. extensionalen Weise so, daß man von „Mengen von etwas“ oder auch „einer Anzahl
von etwas“ spricht, was man in der Regel sinnlich wahrnimmt. Man verharrt auch
dabei, Ausdrücke wie „Menge von einer Sache“ (Einer-Menge) und „Menge von
keinen Sachen“ (Null-Menge) für grammatischen Unsinn zu halten.
Von der Mathematik muß man sich jedoch belehren lassen, daß es eine „überanschauliche Anschauung“ gäbe, die es im Studium auszubilden und zu üben
gelte. Wenn das gelinge, könne man sich sehr wohl Zahlen und Mengen „an sich“
vorstellen, daher auch „Einer-Mengen“ und „Nullmengen“ („leere Mengen“),
schließlich sogar „Mengen von Zahlen“ und „Zahlen von Mengen“ sowie „abzählbare Mengen“, bei denen sich jedem sogenannten Element der Menge eine
natürliche Zahl zuordnen läßt. Dazu auch „überabzählbare Mengen“, bei denen
eine solche Zuordnung nicht möglich ist. Hilfsweise dürfe man sich der unzulänglichen „Modelle“ der anschaulichen logischen Mengenvorstellungen bedienen, die freilich bei weitem nicht alles mathematisch Denkbare abdecken.
Daß die „mathematischen“, genauer gesagt, die mathematisierten Begriffe anders gebildet werden als die logischen, dürfte daraus schon hervorgehen. Man
unterscheidet sie als „metrische“ oder „quantitative“, nach E. Cassirer auch als
„Funktionsbegriffe“, von den logischen Begriffen, die dann „qualitative“ genannt
werden. Daß das Quantitative bzw. Metrische sich auf die zahlenmäßige
Quantifizierung solcher Begriffe bezieht, liegt auf der Hand. Aber diese Charak-
77
teristik genügt bei weitem nicht, sich einen (logischen) Begriff von diesen mathematischen Begriffen zu machen.
Sollen sie überhaupt Begriffe sein, so muß das Metrisch-Quantitative auch auf
Intensionen bezogen werden. Das geschieht allerdings durch die stillschweigende
Voraussetzung bzw. die Gewohnheit, daß die Intensionen mathematischer Begriffe immer noch wie bei Euklid geometrische Sachverhalte bedeuten, nämlich
(unausgedehnte) Punkte, Ausdehnungen, Strecken, Abstände. Ohne diese traditionellen Veranschaulichungen, die heute „Modelle“ oder „Graphen“ genannt werden, lassen sich die mathematischen Begriffe gar nicht denken. Das aber hat zur
Folge, daß die Anwendung der mathematischen Begriffe auf Wirklichkeitsbereiche zunächst eine Geometrisierung der Objekte verlangt. Zeigen wir auch dies an
einigen Beipielen.
Der „quadriviale“ Hauptanwendungsbereich der Mathematik war und ist die
Physik geblieben. Alles, was in der Physik mit mathematischen Begriffen erfaßt
wird, enthält daher das geometrische Ausdehnungsmoment (Strecke) als generisches Merkmal. Und mit ihm zugleich auch die Voraussetzung, daß diese Ausdehnung aus (geometrischen) Punktreihen bestünden. Wie man weiß, ist aber das
Verhältnis der vorausgesetzten Diskontinuität von Punkten und des Linienkontinuums bis heute ein vieldiskutiertes geometrisches Problem, dem selber eine
Dialektik zugrunde liegt.
Diese Dialektik von Punkt und Linie bzw. Unausgedehntheit und Ausdehnung
überträgt sich also von vornherein in die physikalischen Grundbegriffe. Redet
man vom physikalischen Zeitbegriff, so muß er zunächst als Ausgedehntes, nämlich als Zeitstrecke, aber zugleich auch als Punktreihe von „Zeitpunkten“ verstanden werden. Ebenso beim physikalischen Raumbegriff, der ein Komplex
seiner Erstreckungsdimensionen in Punktreihen ist (gemäß der cartesianischen
analytischen Geometrie). Die physikalische Masse wird ebenso als „Punktmasse“
(man spricht dann von „Idealisierung“) verstanden, die sich immer schon an bestimmten Raum- und Zeitpunkten befinden soll, während sie tatsächlich doch
immer räumlich ausgedehnt ist. Das ist von Descartes geradezu zum Wesensmerkmal („extensio“) der physikalischen „Substanzen“ erklärt worden.
Entsprechend der logischen Bildung abgeleiteter (deduzierter) Begriffe verstehen sich dann alle weiteren physikalischen Begriffe als aus diesen Grundbegriffen
zusammengesetzt. Aber ihre Zusammensetzung ist nicht eine von generischen und
spezifischen Merkmalen. Vielmehr werden diese Komplexierungen der abgeleiteten physikalischen Begriffe gemäß den Rechenarten gebildet.
Es sind vor allem die Rechenarten der Summierung, der Subtraktion (zur Definition negativer Begriffe), der Multiplikation, der Potenzbildung und der Division,
in der Neuzeit dann die Differential- und Integralbildung, später noch die Logarithmenbildung, die die mathematischen Hauptmittel als mathematische Junktoren
bzw. Operatoren dazu hergeben. Und je nach ihrer Anwendung zur Bildung der
entsprechenden Begriffe könnte man sie Tupel-Begriffe (Paare, Drillinge usw.),
negative Begriffe, Produktbegriffe, Potenzbegriffe, Quotientenbegriffe, Differen-
78
tialbegriffe und Integralbegriffe bzw. entsprechende komplexe Ausdrücke nennen.
Solcherart gebildete Begriffe und Ausdrücke können dann ihrerseits wiederum
nach denselben Rechenarten miteinander zu noch komplexeren Begriffen und
Ausdrücken zusammengesetzt werden. Eine Grenze für die Erzeugung derartiger
Komplexionen kann es offenbar nicht geben, wohl aber Grenzen der Darstellbarkeit durch Zeichen und ihrer rechnerischen Handhabbarkeit.
Nehmen wir als Beispiel den physikalischen Geschwindigkeitsbegriff. Er ist gewiß einer der einfachsten physikalischen Begriffe und geht in viele andere physikalische Begriffe und Ausdrücke ein. Und doch weist er alle Charakteristika auf,
die ihn von logischen Begriffen unterscheiden.
Logisch sollte man denken, daß Geschwindigkeit eine Eigenschaft von Bewegung, und diese wiederum eine Eigenschaft eines bewegten Körpers sei. Und das
wird natürlich auch in der physikalischen Mechanik stillschweigend vorausgesetzt. Der physikalische Begriff der Geschwindigkeit aber enthält keinen Hinweis darauf, daß die Geschwindigkeit einer Bewegung an einen bewegten Körper
gebunden ist. Er wird als Quotient aus räumlicher und zeitlicher Erstreckung
dargestellt. Logisch ist er jedoch als Verhältnis bzw. Proportion einer räumlichen
zu einer zeitlichen Strecke definiert („s : t“). Und das ist keineswegs dasselbe wie
ein Quotient als Resultat einer Division. In der Mathematik werden aber sowohl
die Proportionen wie auch die Quotienten mit demselben Ausdruck bezeichnet
(„s / t“) bezeichnet. Als Terminus für die Geschwindigkeit steht dafür „v“ (velocitas), der durch die Gleichung „v = s / t“ definiert wird.
Die physikalische Begriffsbildung suggeriert die Unanschaulichkeit des damit
Gemeinten. Man kann keine für sich bestehende Geschwindigkeit (ohne etwas
Bewegtes) als solche beobachten. Was damit gemeint ist, ist daher logisch nicht
nachvollziehbar. Es sei denn, man ließe sich darauf ein, über „körperlose“ Bewegungen von Geistern zu spekulieren. In der Physik aber gehört die körperlose
Geschwindigkeit zum Standard-Begriffsarsenal.
Da die räumliche und zeitliche Erstreckung einer Bewegung auch für jeden
Punkt der jeweiligen (cartesianischen) Dimensionen gelten muß (da ja die
geometrischen Strecken als Punktreihen vorgestellt werden), fällt es dem Physiker
auch nicht schwer, von „Punktgeschwindigkeit“ eines bewegten Körpers zu reden.
Der physikalische Laie wie auch der Logiker (und auch schon der Parmenideer
Zenon), der (mit Euklid) davon ausgeht, daß ein Punkt keinerlei Ausdehnung
besitzt, muß es jedoch für unlogisch halten, einem bewegten Gegenstand überhaupt eine Punktgeschwindigkeit zuzusprechen. Und zwar deshalb, weil ja die
physikalische Geschwindigkeit ausdrücklich als Quotient (genauer: als Proportion) von Strecken (also nicht von Punkten) definiert ist. Wäre s = 0 („keine
Strecke“) und ebenso t = 0 („keine Dauer“), so wäre die Punktgeschwindigkeit als
v = 0 / 0 zu definieren. Der Logiker würde dann sagen, die Geschwindigkeit
verwandelt sich in Nichtgeschwindigkeit, und das könnte logisch nur das Gegenteil von Bewegung, also „Stillstand“ (physikalisch „Ruhe“) bedeuten.
79
Nun geht der Physiker davon aus, daß ein auf einer Strecke in bestimmter Zeit
bewegter Körper auch auf jedem Punkt der Strecke und zu jedem Zeitpunkt diese
Geschwindigkeit besitzen muß. Um gerade dies auch zu beweisen, haben Leibniz
und Newton mit ihrer Erfindung der Fluxions- und Differentialbegriffe in dialektischer Weise den Punkt zur Strecke gemacht. Sie definierten den euklidischen
„ausdehnungslosen Punkt“ zu einem „unter jede zahlenmäßige Bestimmbarkeit
hinabreichende („infinitesimale“ = „gegen Null verschwindende“) Erstreckung“
um. Und dies zweifellos nicht ohne den verschwiegenen Einfluß von Berkeleys
sensualistischer Geometrie, in welcher der geometrische Punkt als ein „minimum
sensible“, also als etwas minimal Ausgedehntes definiert war.
Diese dialektische Definition verbirgt sich noch bis heute hinter manchen
Mystifizierungen in der Lehre von den Differentialen. Denn wohl kein Mathematiker wäre geneigt zuzugeben, daß der Widerspruch in die Erfindung und Definition dieser neuen arithmetischen „Größen“ („unterhalb jeder zahlenmäßigen Bestimmbarkeit“) gleichsam eingebaut ist.
Der Leibnizsche Differentialquotient „d s / d t“ hält ersichtlich die Geschwindigkeitsdefinition als Proportion einer räumlichen und einer zeitlichen Erstreckung bei. Aber die durch das Zeichen „d“ („differential“) quantifizierten
Strecken sollen gemäß Definition als „infinitesimale“ (gegen Null verschwindende) Größenbezeichnung zugleich auch keine quantifizierbaren Strecken
(„Größen“) sein. Was nur heißen kann, daß die als Differentialgeschwindigkeit
definierte Punktgeschwindigkeit sowohl eine meßbare Größe als auch keine
(quantifizierbare) meßbare Größe ist. Und so ist das Differential von Leibniz als
neuer widersprüchlicher Zahlbegriff in die Arithmetik eingeführt worden. Logisch
läßt er sich nur als widersprüchlicher Begriff definieren, nämlich als „bestimmtunbestimmte Zahlengröße“. Was hier von Leibnizens Begriff des Differentials
gesagt wurde, gilt mutatis mutandis auch vom Fluenten-Begriff Isaak Newtons.
Die Definition der Punktgeschwindigkeit durch den Differentialquotienten beherrschte die klassische Mechanik. Als man jedoch um die Wende zum 20. Jahrhundert mit verfeinerten Beobachtungs- und Meßinstrumenten in die Ausdehnungsbereiche der (damaligen) Elementarteilchen vordrang, glaubte man, die (infinitesimalen) Punktgeschwindigkeiten von Elementarteilchen ließen sich mit den
neuen Meßmethoden direkt und exakt bestimmen.
Wäre es dabei logisch zugegangen, so hätte sich das von vornherein als
vergebliche Mühe einschätzen lassen. Die Punktgeschwindigkeiten der Elementarteilchen konnten auch in den Bereichen der Mikrophysik nichts anderes sein als
Proportionen von Raum- und Zeitstrecken.41
Aber die mathematische Denkart verlangte in diesen Mikrodimensionen nach
der messenden Feststellung einer „idealen“ Punktgeschwindigkeit. Bei dieser
mußte, wie man voraussetzte, der „genaue Ort und der genaue Zeitpunkt eines
41
Vgl. dazu L. Geldetzer, Über den Begriff des Zeitpunktes bei Meßbestimmungen kanonisch-konjugierter Größen in der
Physik und über das Problem der Prognostik in der Mikrophysik. In: Geschichte und Zukunft, Festschrift für Anton Hain,
hgg. v. Alwin Diemer, Meisenheim (Hain) 1967, S. 142 - 149.
80
Teilchens auf seiner Bahn“ ermittelt werden. So sehr man aber in den darauf
gerichteten Experimenten die Meßskalen verfeinerte, stellte sich durchweg eine
Grenze der Geschwindigkeitsmessungen „auf dem Punkte“ heraus.
Anstatt diese Grenze auf den als Streckenproportion bzw. als Quotienten definierten Geschwindigkeitsbegriff selber zurückzuführen, brachte Werner Heisenberg sie in seiner Formel von der grundsätzlichen „Unbestimmtheit“ der „gleichzeitigen“ Erfassung von Raumstelle und Zeitpunkt der Elementarteilchen mit dem
Planckschen Wirkungsquantum h in Verbindung. Was bedeuten sollte, daß es
zwar Punktgeschwindigkeiten der Elementarteilchen geben müsse, daß aber der
messende (und somit wirkungsübertragende) Eingriff in die Bewegung der Teilchen deren genaue Bestimmung in der Größenordnung des Wirkungsquantums
verhindere.
Heisenberg erhielt dafür bekanntlich den Nobelpreis. Und das konnte nur bedeuten, daß alle Mikrophysiker diese Theorie als wahr und grundlegend anerkannten. Heisenbergs Theorie von der prinzipiellen „gleichzeitigen“ Unbestimmtheit von Ort und Zeitpunkt (und anderer in Proportionen bzw. Quotientenbegriffen
„konjugierten Größen“) der Mikrophysik begründet seither das moderne physikalische Weltbild mit seiner Unterscheidung von Makro- und Mikrophysik und den
diesen Bereichen jeweils zugeschriebenen kausalen und indeterministischen
(akausalen) Strukturen. Auch die Bezeichnung „Quantenphysik“ verdankt sich der
Theorie von der punktuellen Unbestimmtheit in der Größenordnung des Planckschen Wirkungsquantums. Die Natur offenbart sich, so meint man seither, in ihren
Mikrophänomenen nur „gequantelt“. Unsere Überlegungen dürften aber schon
gezeigt haben, daß sich auch die Makrophänomene nur in „gequantelten“ Geschwindigkeits-Proportionen bzw. Quotienten definieren und messen lassen.
Betrachten wir aber noch weitere dialektische Einschüsse in der physikalischen
Behandlung der Geschwindigkeit.
Ändert sich die Geschwindigkeit eines bewegten Körpers, so versteht man logisch ganz richtig, daß sie zu- oder abnimmt, und man nennt es gemeinsprachlich
Beschleunigung oder Verlangsamung. Kommt eine Bewegung eines Gegenstandes aber zum Stillstand, so wird man logisch überhaupt nicht mehr von Bewegung
und Geschwindigkeit reden.
In der Physik ist das anders. Hier wird jede Veränderung einer Geschwindigkeit
(also auch eine Verlangsamung), ja sogar die Richtungsänderung einer Bewegung,
als „Beschleunigung“ definiert. Da wundert sich der laienhafte Autofahrer, der
mit einer Geschwindigkeit von 80 Kilometer pro Stunde in der Kurve fährt, daß er
dabei seine (logische) Geschwindigkeit beibehält und zugleich (physikalisch) beschleunigt.
Logisch sollte man vermuten, daß eine Geschwindigkeit v, die als beschleunigte
gleichmäßig zunimmt, allenfalls als Summe der Ausgangsgeschwindigkeiten und
der hinzugekommenen (erhöhten) Geschwindigkeiten bezüglich der zurückgelegten Strecken definiert werden müßte. Und das wird in der Praxis durch Integralbildung über die differentiellen Geschwindigkeiten der zurückgelegten
81
Strecke so berechnet. Definiert aber wird die Beschleunigung als eine weitere
Proportion der Geschwindigkeit im Verhältnis zur Zeit, also v / t = (s / t) / t.
Logisch sollte man wiederum meinen, daß eine Geschwindigkeit, die selber nur
das Verhältnis einer zurückgelegten Raumstrecke zu einer Zeitstrecke sein kann,
nicht nochmals in ein Verhältnis zu derselben Zeitstrecke gestellt werden könnte.
Der mathematisch denkende Physiker aber produziert aus den beiden Zeitstrecken
(die eine und dieselbe, aber zugleich auch zwei verschiedene sein müssen) ein
Zeitquadrat „ t² “ und definiert die Beschleunigung als „s / t² “.
Da nun aber die einfache gleichmäßige Geschwindigkeit als Proportion s / t
definiert ist, muß sich der mathematische Physiker die Beschleunigung nunmehr
als eine Proportion einer räumlichen Strecke und einer zeitlichen Fläche vorstellen. Was aber eine zeitliche Fläche oder auch ein mit sich selbst multiplizierter
Zeitbegriff „ t² “ bedeuten könnte, das wird er sich kaum vorstellen können (es sei
denn, er nehme seine Zuflucht zu M. Heideggers Spekulationen über die „Zeitlichkeit der Zeit“). Er beachtet nur die extensionalen Quantifikationen seines Begriffs. Mit anderen Worten: Er hält sich daran, daß jede Einsetzung von Zahlen an
die Stellen seiner Strecken- und Zeitparameter eine durch Division errechenbare
Zahl (den Quotienten) ergibt, die ihm die Größe der jeweiligen Beschleunigung
anzeigt. Und er beschwichtigt sein unzulängliches Vorstellungsvermögen mit der
Meinung, es handele sich ja bei den Begriffszeichen um bloße Meßanweisungen
(„Dimensionen“) der jeweiligen Begriffskomponenten.
Doch auch damit sind die dialektischen Einschüsse bei den physikalischen Geschwindigkeitsvorstellungen nicht erschöpft. Sie setzen sich in den Grundlagen
der sogenannten Relativitätstheorie kosmischer Geschwindigkeiten fort.
A. Einsteins „revolutionärer Sturz der klassischen Newtonschen Mechanik“
durch seine Relativitätstheorie beruhte grundsätzlich darauf, daß er die Lichtgeschwindkeit c als Naturkonstante postulierte. 42 Einstein trug damit den negativen Resultaten der Michelson-Morley-Experimente Rechnung, die darauf ausgerichtet waren, den Einfluß der Eigengeschwindigkeit von Lichtquellen auf die
Geschwindigkeit der ausgestrahlen Licht-Quanten (oder Lichtwellen) festzustellen.
Logischerweise hätte man erwarten können, daß sich die Geschwindigkeiten der
jeweiligen Lichtquelle und des ausgestrahlten Lichtes addieren oder subtrahieren
ließen, wenn sie sich auf einer und derselben Strecke bewegen. So, wie bekanntlich eine aus einem fliegenden Jet in Flugrichtung abgeschossene Rakete um den
Betrag der Jet-Geschwindigkeit schneller fliegt, als sie es von einem stehenden
Abschußgerät aus tun würde. Aber dies freilich unter der Voraussetzung, daß sich
die sogenannten Lichtquanten wie nacheinander abgeschossene Raketen von der
Lichtquelle entfernen. Paradigmatische Phänomene hatten sich vorher schon beim
akustischen „Doppler-Effekt“ gezeigt: Das Motorengeräusch eines sich entfernenden Fahrzeugs klingt dumpfer oder tiefer, eines sich nähernden „höher“ als zum
42
Vgl. dazu H. A. Lorentz, A. Einstein, H. Minkowski, Das Relativitätsprinzip. Eine Sammlung von Abhandlungen mit
einem Beitrag von H. Weyl und Anmerkungen von O. Sommerfeld. Vorwort von A. Blumenthal, 6. Aufl. Darmstadt 1958.
82
Zeitpunkt des Passierens. Und das wird erklärt als Verlängerung bzw. Verkürzung
der Schallwellen, die beim Hörer eintreffen.
Einstein postulierte nun zur Erklärung der negativen Befunde Michelsons und
Morleys, daß sich das Licht ganz unabhängig von der Eigengeschwindigkeit der
Lichtquelle immer mit gleicher Geschwindigkeit nach allen Richtungen hin
ausbreite. Die Lichtausbreitung zeige also, anders als die Schallausbreitung, keinen Doppler-Effekt. Das war die Einsteinsche Idee von der absoluten „Konstanz
der Lichtgeschwindigkeit nach allen Richtungen und unabhängig von der Eigenbewegung der Lichtquelle“. Ersichtlich war dies eine „paradoxe“ und mithin als
Widerspruch in sich hinzunehmende Idee. Sie wurde von den meisten Physikern
auch so verstanden. Was allerdings zeigt, daß sich in der Physik das dialektische
Denken wenigstens in dieser Frage durchzusetzen begann.
Es wurden seither zahlreiche weitere Dialektiken bzw. Widersprüche in der
Relativitätstheorie entdeckt. Sie machen sich etwa als „Uhrenparadox“ bei der
Abstimmung gegeneinander mit annähernder Lichtgeschwindigkeit bewegter
Uhren bemerkbar (was freilich nur im Gedankenexperiment demonstriert wird).
Die Relativitätstheorie verbietet auch, die Ablenkung von Lichtstrahlen („Perihelverschiebung“) im Gravitationsfeld kosmischer Massen als „Beschleunigung der
Lichtgeschwindigkeit“ zu deuten. Einstein begründete das damit, daß der kosmische Raum insgesamt in Abhängigkeit von der Verteilung der Sternmassen in ihm
„gekrümmt“ sei, so daß die krummen Linien dieser sogenannten (nicht-euklidischen) Minkowski-Räume eben als „gerade Linien“ des relativistischen kosmischen Raumes anzusehen seien.
Nun haben die bekannten Rotverschiebungen im Spektrum des Lichtes weit
entfernter Sterne, die man weiterhin analog zum akustischen Doppler-Effekt als
Maß für die sich vergrößernde Entfernung solcher Sterne (und als Argument für
eine fortschreitende Ausdehnung des Universums) benutzt, nicht dazu geführt, das
Einsteinsche Postulat der Konstanz der Lichtgeschwindigkeit, das ersichtlich den
Rotverschiebungen widerspricht, aufzugeben. Einstein selbst schlug vielmehr die
„Relativierung“ der kosmischen Maßeinheiten vor. Alle Maßeinheiten für Entfernungsmessungen (auch der Lichtquellen!) sollen in Proportion zur Geschwindigkeit der Bewegung der Meßgeräte „kontrahieren“, d. h. kürzer werden, und
dementsprechend sollen auch die Zeitperioden der Zeitmeßinstrumente „dilattieren“, also länger werden.
Auch das ist für den Logiker nicht nachvollziehbar. Denn es wird ihm zugemutet sich vorzustellen, daß ein Metermaß, das er evtl. bei einem Raumflug (mit
angenäherter Lichtgeschwindigkeit) mit sich führt, zugleich dasselbe bleibt und
auch kürzer wird. Und daß die mitgeführte Uhr in gleichem Rhythmus weitertickt
und zugleich langsamer geht.
Physiker „erklären“ dies dem Laien so, daß der Raumfahrer bei der langsamer
verstreichenden Zeit der Reise jünger bleibt als die zurückgebliebenen Erdbewohner (was ersichtlich die Raumfahrt attraktiv macht). Der Logiker aber wird
dagegenhalten, daß die widersprüchliche Relativitätstheorie auch den gegentei-
83
ligen Schluß zuläßt. Der zurückbleibende Erdbewohner entfernt sich mit derselben Geschwindigkeit vom Raumschiff wie dieses von der Erde. Und so müssen
auch die irdischen Uhren im Verhältnis zu den Uhren im Raumschiff langsamer
ticken. Dialektisches Denken erlaubt es, beides zu beweisen.
1983 hat die (internationale) 17. Allgemeine Konferenz für Maße und Gewichte
eine neue Längeneinheit (anstatt des Pariser „Urmeters“) als diejenige Strecke
definiert, die das Licht im Vakuum in 1/299792458 Sekunden zurücklegt. „Damit
wurde die Lichtgeschwindigkeit c als Naturkonstante endgültig festgelegt und die
Längendefinition von der Zeitdefinition abhängig gemacht“.43 Man kann das eine
Art apostolischer Definition nennen. Denn wenn die physikalischen Grundbegriffe
Raum und Zeit durch die Lichtgeschwindigkeit definiert werden, kann man sie
nicht mehr Grundbegriffe nennen und die Geschwindigkeit durch sie definieren.
Ein anderer wichtiger physikalischer Begriff ist der Kraftbegriff. Er ist schon von
Aristoteles in die Naturphilosophie eingeführt worden, und zwar im Zusammenhang seines Vier-Ursachenschemas der Erklärung von Veränderungen und Bewegungen der natürlichen Dinge (vgl. dazu § 18).
Bei Aristoteles ist Kraft eine Disposition bzw. Anlage der toten und lebendigen
Wesen, auf Grund ihrer „materialen Ursache“ (hýle, ὕλη, lat. materia) „Formen“
(morphé, μορθή, lat. forma) anzunehmen, die ihre dann veränderten Bewegungszustände bzw. ihre veränderten Gestalten als „aktuellen Zustand“ (energeia ἐνέργεια, lat. actus, dt. wörtlich “Beim-Werke-sein“ oder „Wirklichkeit“) anzeigen.
Aristoteles nannte diese Eignung zur Aufnahme von Formen „Dynamis“ (δύναμις,
lateinisch potentia, Kraft). Das blieb im späteren abendländischen Wortschatz als
„Potenz“ und somit auch in der Bezeichnung von Kräften erhalten. Die Bezeichnung des jeweils „aktuellen“ Zustandes aber blieb im modernen Energiebegriff
erhalten.
Das Vier-Ursachenschema diente vor allem der Erklärung von natürlichen und
(durch andere Körper) erzwungenen Bewegungen (ί, lat. motus) der irdischen und kosmischen Körper und legte insofern den Grund für eine „dynamische“ Physik bzw. physikalische Kinetik.
Als „natürliche Bewegungen“ beschrieb Aristoteles die sinnlich beobachtbaren
geradlinigen Bewegungen von erdhaften und flüssigen Substanzen zum Erdmittelpunkt, die geradlinigen Bewegungen von lufthaften und feurigen Substanzen in
entgegengesetzter Richtung nach oben, schließlich die Bewegungen der Gestirne
auf „vollkommenen“ Kreisbahnen. Diese natürlichen Bewegungen erklärte
Aristoteles durch teleologische Ursachen (ηέ, causa finalis), die das „Ziel“
dieser natürlichen Bewegungen als ihren „heimatlichen Ort“ (ἰκῖ ηóπος oikeios topos) bestimmten. Als „Entelechie“ (ἐνηελέτεια, lat. impetus, tendentia, „inneres Streben“) bezeichnete er die ständige Ausrichtung des bewegten Körpers bzw.
des sich verändernden Lebewesens auf dieses Ziel hin. Vermutlich hat ihm dafür
43
R. Knerr, Goldmann Lexikon Mathematik, Gütersloh und München 1999, S. 247.
84
die beständige Ausrichtung einer Magnetnadel auf einen Magneten bei allen
Lageveränderungen als Modell für das Entelechiekonzept gedient.
„Erzwungene Bewegungen“ ergaben sich bei Aristoteles durch die Berührungen und Kreuzungen der natürlichen Bewegungen der Körper. Wobei der Eingriff
des Menschen in diese natürlichen Bewegungen selbst das deutlichste anschauliche Beispiel für das Bewirken von Veränderungen wurden. Die erzwungenen
Bewegungen werden durch eine Wirkursache (ὅ ἡ ἀὴ ηῆ ή,
„woher der Ursprung der Bewegung“, causa efficiens) hervorgebracht. Ein Stoß
oder Druck (πή, lat impulsus, „Einschlag“) verleiht einem Körper eine Bewegung in eine Richtung, die von der natürlichen ungezwungenen Tendenz zu
seinem „heimatlichen“ Ziel abweicht. Die durch Wirkursachen hervorgerufenen
Bewegungen stören also die natürlichen Bewegungen. Dies aber nach Aristoteles
nur solange, bis die natürlichen Bewegungen der Substanzen wieder bestimmend
werden und diese ihre natürlichen Ziele „anstreben“. Das ist von der neuzeitlichen
Newtonschen Physik im Begriff der Trägheitskraft als Beharren in einer ungestörten geradlinigen Bewegung sowie als Beharren in „Ruhe“ beibehalten worden.
Bis in die Spätscholastik wurde das aristotelische Vier-Ursachenschema soweit
ausgebaut, daß die vier Ursachen die Interventionen der Körper untereinander auf
folgende Weise erklärten: die materielle Ursache erklärte überhaupt die Existenz
eines oder mehrerer Körper. Die formale Ursache erklärte ihre Gestalt. Die kausale Ursache wirkte als „Einschlag“ (impulsus) eines Körpers auf einen anderen in
direkter Berührung, wodurch eine Kraft (potentia) übertragen wurde. Und die
Finalursache bewirkte als sogenannter Impetus (lat. intus petere, wörtlich: inneres
Streben oder Tendenz) die Einhaltung der natürlichen Bewegung, die ggf. durch
einen Impuls gestört wurde.
Die neuzeitliche Physik entwickelte sich aus dem Zusammentreffen dieser
aristotelischen (nicht-mathematischen und sozusagen phänomenologischen) Physik mit der neuplatonischen Phänomen- und Geisterlehre und ihrer teilweisen
Durchdringung. Der Platonismus aber brachte auch die Mathematisierung in die
neuzeitliche Physik.
Die neuplatonischen Geister (Engel) galten als die „Ausflüsse“ (Emanationen)
aus dem göttlichen Schöpfergott. Wie Gott die Welt geschaffen hat, so wirken
auch diese Geister unsichtbar auf die sinnlichen Erscheinungen ein. Die Veränderungen in der körperlichen Naturwelt wurden alsbald neuplatonisch in der
aristotelischen Terminologie von Kräften (Potenzen, Energien und Entelechien)
erklärt. Neuplatonischen Physikern war es daher selbstverständlich, daß man diese
Kräfte nicht sinnlich beobachten und wahrnehmen, sondern nur auf Grund ihrer
Wirkungen erschließen konnte. Und die Ausbreitung des neuplatonischen Denkens in weiteren Kreisen führte gleichzeitig mit der Entwicklung der modernen
Physik zu einem wuchernden Gespenster- und Hexenglauben in der Bevölkerung.
Die Unbeobachtbarkeit der Kräfte und Energien blieb seither ein neuplatonisches Erbstück der neuzeitlichen Physik. Man nennt derartiges heute „unbeobachtbare Parameter“. Da man sie nur aus ihren Wirkungen erschließen können
85
sollte, wies man den beobachteten natürlichen und erzwungenen Bewegungsformen des Aristoteles jeweils diese Kräfte als Wirkursachen zu. Und das veränderte die aristotelische Erklärungsweise mittels des Vier-Ursachenschemas.
Das neuzeitliche Methodenbewußtsein der Physiker stellt als wesentliche Veränderung und als wissenschaftlichen Fortschritt die Eliminierung der (aristotelischen) teleologischen Ursachen zugunsten reiner „Kausalerklärungen“ (allein
mittels der causa efficiens) heraus. Das ist jedoch eine falsche Ansicht späterer
Naturwissenschaftler, die das aristotelische Vier-Ursachenschema als überholt
ansahen und dabei die tatsächliche Rolle des aristotelischen Entelechie- und
Impetusbegriffs mißverstanden. Zwar verschmähte man den Terminus „Entelechie“ zusammen mit der „causa finalis“ und schnitt diese Terminologie gleichsam mit dem Ockhamschen Rasiermesser aus dem physikalischen Sprachgebrauch heraus, weil man sie für „überflüssige“ Reminiszenzen an Spuk- und
Geistereinflüsse in die Naturwelt hielt. Tatsächlich aber wurden sie unter anderen
Bezeichungen in die Grundlagen der modernen Physik übernommen.
In neuer Terminologie sprach man nun von der „Kraft der Beharrung im
Zustand entweder der Ruhe (Trägheits- bzw „Faulheits“-Kraft) oder der ungestörten gleichformigen und geradlinigen Bewegung“ (I. Newton).
Sowohl die „Ruhe“ als auch die „geradlinige Bewegung“ wurden so als die
einzig übrigbleibenden „natürlichen Bewegungen“ des Aristoteles beibehalten und
durch die „Trägheitskraft“ (als Nachfolger der „Entelechie“) erklärt. Die Kreisbewegungen (zugleich mit allen Bewegungsformen gemäß den geometrischen
Kegelschnitten) aber wurden nunmehr als erzwungene Bewegungen angesehen
und mußten „kausal“ (ausschließlich durch Wirkursachen) erklärt werden.
Als materielle Ursache galt weiterhin die Materie. Von Demokrit und Epikur
übernahm man die Bezeichnung „Atom“. Die Atome aber wurden dann zu „Korpuskeln“ und schließlich zur physikalischen „Masse“ („m“).
Definiert wurde die Masse zuerst mittels ihrer (natürlichen teleologischen) Entelechie, sich auf den Erdmittelpunkt hin zu bewegen, was man dann ihre
„Schwere“ oder „Gewicht“ nannte. Nachdem die sogenannte kopernikanische
Revolution aber die Erde zu einem „Himmelskörper“ neben den anderen (Planeten, Sonne und alle Sterne) erklärt hatte, wurde die „Erdenschwere“ zu einer
allgemeinen Bestimmung aller Himmelskörper im gegenseitigen Verhältnis zueinander. Die „Schwere“ wurde zu einer Entelechie aller Himmelskörper. Die
berühmte „Gravitationskraft“ (Schwerkraft oder Anziehungskraft) der Massen
Newtons, die dieser bekanntlich weder erklären wollte noch konnte, resultierte aus
der Verallgemeinerung der alten aristotelischen „natürlichen“ Bewegungsrichtung
der „schweren“ Massen untereinander.
Die Interventionen der kosmischen und sublunarischen Körper wurden dadurch
zu einem Kräftespiel der Beharrungs- und Veränderungskräfte, das man nur an
ihren Bewegungen ablesen konnte. Es kam alles darauf an, eine Darstellungsweise
einzuführen, die die Identität der beobachtbaren Körper, ihrer Bewegungen,
Geschwindigkeiten, Beschleunigungen mit ihren Potenzen zu formulieren ge-
86
stattete. Das war die mathematische Gleichungsform und ihre Eignung zur Definition quantifizierter Größen.
Was man dabei als Kraft definieren sollte, darüber bestand lange keine Übereinstimmung unter den Physikern.
Descartes und seine Schule schlugen vor, die physikalische Kraft als m × s / t.
(d. h. „Massen-Geschwindigkeit“) zu definieren: also K = m × v. Das ist auch so
beibehalten worden. Aber die Kraft des bewegten Körpers ließ sich so nur für
geradlinige und gleichförmig bewegte Körper bestimmen. Man hatte es aber in
vielen und interessanten Fällen mit beschleunigten und nicht auf geraden Linien
bewegten Körpern zu tun.
Hierzu machte man Gebrauch von den Definitionsgleichungen der Beschleunigungen, die wir vorn schon behandelt haben. Es war Leibniz, der dafür den Begriff der „lebendigen Kraft“ (vis viva“ vorschlug, weil sich solche unregelmäßigen Bewegungen augenfällig bei Lebewesen beobachten ließen. Das wurde
zunächst angenommen und mit dem gleichsam brachliegenden aristotelischen
Begriff der Energie („E“) benannt. Die Definition der Energie bei Leibniz und
seinen Zeitgenossen lautete E = m × v². Auch dies wurde festgehalten, wie man
noch bei Einstein sieht, der die (gesamte kosmische) Energie als „E = m × c² “
(Masse multipliziert mit dem Quadrat der Lichtgeschwindigkeit c) definierte.
Daß es den Physikern aber auf die rein quantitativen Bestimmungen dabei nicht
allzu sehr ankam, sieht man daran, daß Jean LeRond d‟Alembert schon im 18.
Jahrhundert und G. C. Coriolis 1829 die Leibnizsche Definition durch den Faktor
½ korrigieren wollten und die Energie somit als „ ´ m × v² “ definierten. Diese
Korrektur berücksichtigt die Entdeckung der „Calculatores“ (Rechenkünstler) des
Oxforder Merton-Colleges in der Scholastik, wonach die Endgeschwindigkeit
einer gleichmäßig beschleunigten Bewegung der „mittleren“ Durchschnittsgeschwindigkeit entspricht.44
Diese Definitionen typischer physikalischer Begriffe zeigen, daß in der Physik
die Berechnungsweisen von Meßdaten der Grundgrößen von Zeit- und Raumstrecken in die intensionalen Definitionen der jeweiligen komplexeren Begriffe
übernommen werden. Logisch aber besteht doch Bedarf, über die Tragweite und
Sinnhaftigkeit dieses Verfahrens genauere Klärungen herbeizuführen.
So ist es schon logisch fragwürdig, Proportionen zwischen irgendwelchen
Größen, die als Quotientenbegriffe dargestellt werden, grundsätzlich auszurechnen. Bei den Geschwindigkeiten hat man sich daran gewöhnt. Aber wer würde
etwa das Ergebnis eines Fußballspiels von 6 : 2 Toren als 3 Tore angeben? Ganz
abgesehen davon, daß dasselbe Torverhältnis auch als 2 / 6 = 0, 333... „ oder „1/3“
angegeben werden könnte.
Noch fragwürdiger erscheinen die mathematischen Potenzierungen von Begriffen, in denen logisch ja ohne Zweifel Begriffe mit sich selbst zu neuen Begriffen
vereinigt werden. Auch an dieses Verfahren hat man sich seit Euklids Zeiten
44
Vgl. dazu M. Jammer, Art. „Energie“, in: J. Ritter (Hg.), Historisches Wörterbuch der Philosophie, Band 2, BaselStuttgart 1972, Sp. 494 - 499.
87
durch die Definitionen von Flächen (a²) und Körpern (a³) durch Potenzierung ihrer
Seitenlängen gewöhnt. Aber man hat nicht darauf geachtet, daß das Meßverfahren, einen Maßstab a an zwei bzw. drei ganz verschieden ausgerichtete (im
rechten Winkel zueinanderstehende, d. h. vektoriell verschiedene) Seiten eines
Quadrats oder eines Kubus anzulegen, keineswegs darauf schließen läßt, daß eine
Quadratfläche aus der 2. Potenz des Begriffs Strecke bzw. ein Kubus aus der 3.
Potenz einer Strecke hervorgehen könnte. Und somit erst recht nicht bei nichteuklidischen Flächen und Körpern. Es kann nur diese Denkgewohnheit sein, die
dem Physiker auch Begriffe wie Zeitquadrat oder Geschwindigkeitsquadrat in
irgend einer Weise als „rationale“ Denkhilfe bei seinen Begriffen erscheinen
lassen.
Geht man der historischen Entwicklung dieser Denkgewohnheit in Potenzen
nach, so stößt man auf „logische“ Begriffsbildungen, die als „Reflexionsbegriffe“
bekannt geworden sind und seit jeher als rätselhaft gelten. Der Prototyp scheint
des Aristoteles „noesis noeseos“, d. h. „Denken des Denkens“ gewesen zu sein.
Aristoteles hielt das „Denken des Denkens“ für eine nur einem Gotte zukommende Fähigkeit. Aber später machte dieser Reflexionsbegriff als „Selbst-Bewußtsein“ auch bei minderen Geistern bedeutend Fortüne.
Raimundus Lullus (um 1235 – 1315) hat in seiner Ars Magna schon jede
Menge anderer Begriffe in dieser Weise mit sich selbst potenziert. Auch Charles
Bouillé (Carolus Bovillus, 1470 - ca. 1553, ein seinerzeit berühmter Logiker aus
der Schule des Petrus Ramus (Pierre de la Ramée) hat - freilich recht beiläufig vorgeschlagen, eine produktive Verschmelzung eines Begriffs mit sich selbst in
die Logik einzuführen. Er schlug vor, den ersten Menschen Adam als „homo“,
Eva als aus dem ersten Menschen gemacht als „homo-homo“ und Abel als dritten
Menschen und gemeinsames Produkt der Eltern als „homo-homo-homo“ zu bezeichnen.45 Aber bekanntlich wurden solche Vorschläge von den Logikern niemals ernst genommen, wohl aber von Leibniz. Und Leibniz hat maßgeblich daran
mitgewirkt, diese „mathematische Begriffsbildung“ für „logisch“ und selbstverständlich zu halten.
Die Dialektik in der mathematischen und physikalischen Begriffsbildung ist
gewiß nicht allen Mathematikern und Physikern entgangen. 46 Aber die meisten
halten die entdeckten Widersprüche und Paradoxien für Probleme, die auf dem
Wege künftiger Forschung durch widerspruchslose Lösungen zu überwinden
seien. Manche jedoch, wie etwa der Nobelpreisträger Richard P. Feynman, behaupten, daß z. B. die Quantenphysik – im Unterschied zum logischen Commonsense – der „Absurdität“ (d. h. Widersprüchlichkeit) der Natur Rechnung tragen
müsse:
45
Carolus Bovillus, Liber de Sapiente, im Nachdruck der Ausgabe seiner Schriften Paris 1510, Stuttgart-Bad Cannstatt
1970 (erst 1973 erschienen) S. 132.
46
Zum Widerstand einiger Philosophen und Logiker gegen Riemanns mehrdimensionale Raumtheorie vgl. R. Torretti,
Philosophy of Geometry From Riemann to Poincaré, Dordrecht-Boston-London 1978, Chap. 4, 1: „Empiricism in Geometry“ und 4,2: „The Uproar of Boeotians“, S. 255 – 301.
88
„Die Theorie der Quanten-Elektrodynamik beschreibt die Natur vom Standpunkt des
Commonsense als absurd. Und sie stimmt gänzlich mit den Experimenten überein.
So hoffe ich, daß Sie die Natur als das akzeptieren können, was sie ist, - absurd“.47
Und offensichtlich in der Meinung, solche Widersprüchlichkeiten ließen sich
weder denken noch verstehen, sagt er an anderer Stelle:
„Ich denke man kann mit Sicherheit sagen, daß niemand die Quantenmechanik
versteht“.48
Andere wie N. D. Mermin umschreiben den Sachverhalt als „magisch“: „Das
Einstein-Podolski-Rosen-Experiment kommt der Magie so nahe wie jedes physikalische Phänomen, das ich kenne, und an Magie sollte man sich erfreuen“.49
Paul Marmet, dem diese Äußerungen (in meiner Übersetzung) entnommen
sind50, bucht solche Widersprüche gänzlich auf das Konto der sogenannten Kopenhagener Schule Niels Bohrs und ihre (angeblich auf George Berkeley gründende) idealistische Erkenntnistheorie. Er glaubt, sie alle durch einen entschiedenen Realismus und Rationalismus „lösen“ zu können. Die Mathematik aber
nimmt er gänzlich von dem Vorwurf aus, sie könne für diese Widersprüche verantwortlich sein. Für ihn „bildet der mathematische Formalismus, der in der
Physik gebraucht wird, wahrscheinlich dasjenige, was das kohärenteste und logische interne System ist, welches es in der Wissenschaft gibt“ (ibid. S. 20). Da
irritiert ihn nicht einmal Werner Heisenbergs Eingeständnis, daß die „Paradoxien
der dualistischen Wellen- und Teilchenvorstellungen“ in der Mikrophysik „irgendwie im mathematischen (Denk-)Schema verborgen liegen“.51
Kommen wir nach den Beispielen der physikalischen Begriffsbildung zu den
Gemeinsamkeiten und Unterschieden, die zwischen Logik und mathematischer
Logik bzw. Mathematik hinsichtlich ihrer Urteilsbildung oder Aussageformen
bestehen. Auch sie sind beträchtlich.
Gemeinsam ist der logischen wie der mathematischen Methodologie, daß sie die
Urteils- bzw. Aussageformen (Propositionen, engl.: propositions) als Mittel der
Formalisierung von wahren und falschen Behauptungen, darüber hinaus auch von
Wahrscheinlichkeiten behandeln. Für diese Formalisierungen werden bestimmte
Junktoren benutzt, durch welche die jeweiligen Begriffe verknüpft werden. Die
gemeinsame Vorlage, gleichsam das Muster dafür, ist der reguläre grammatisch
wohlgebildete sprachliche Behauptungssatz: „Irgend etwas ist (oder verhält sich)
so“.
47
R. P. Feynman, The Strange Theory of Light and Matter, Princeton University Press , N. J., 1988, S. 10.
R. P. Feynman, The Character of Physical Law, 1967, S. 129.
49
N. David Mermin, „Is the Moon There when Nobody Looks? Reality and Quantum Theory“, in: Physics Today, April
1985, S. 47.
50
P. Marmet, Absurdities in Modern Physics: A Solution, or: A Rational Interpretation of Modern Physics, Ottawa 1993.
51
W. Heisenberg, Physics and Philosophy, the Revolution in Modern Science, New York 1966, S. 40, zit. bei Marmet S.
24.
48
89
In der Logik ist der Hauptjunktor für behauptende Urteile bzw. Sätze die sprachliche Partikel „ist“, die sogenannte Kopula geblieben. Sie wird daher auch seit
jeher schlechthin „Verknüpfungsjunktor“ (lat.: copula) genannt. Und in Anknüpfung an die logische und sprachliche Verwendung der Kopula wurde auch in der
Mathematik das „ist“ beibehalten. Allerdings mit einer entscheidenden Einschränkung, die mit der Behauptung der „Gleichheit“ ausgedrückt wird.
Die Behauptungsformel in der Mathematik lautet also „irgend etwas ist gleich
einem anderen etwas“. Der Verfasser gesteht bei dieser Gelegenheit gerne, daß er
sich im mathematischen Grundschulunterricht – weil im Deutschen „gleich“ auch
„sofort“ bedeutet - eine zeitlang zu der Meinung verführen ließ, die Mathematiker
hätten es mit ihren Gleichungen nur auf Schnelligkeit des Denkens, d. h. „sofortige“ Ausrechnungen der Gleichungen angelegt.
Nun wird diese mathematische Gleichheitsaussage seit jeher für eine exaktere
Form der logischen kopulativen Sätze gehalten. Wie das von Ch. S. Peirce und H.
Weyl begründet wurde, ist schon im vorigen Paragraphen gezeigt worden. Man
sieht das auch an dem laxen Sprachgebrauch vieler Mathematiker, die ihre Gleichungen auch in der Form „a ist b“ oder ähnlich lesen. Und so findet man zwischen Descartes und Kant immer wieder mathematische Gleichungen als Beispiele für besonders klare und exakte Urteile angeführt. Berühmt ist das schon
erwähnte Beispiel Kants für das, was er für ein „synthetisches Urteil a priori“
hielt, nämlich die Gleichung „7 + 5 = 12“.52
Der logische kopulative Behauptungssatz drückt jedoch in keiner Weise irgend
eine Gleichheit zwischen einem Subjekt und einem Prädikat aus. Handele es sich,
um mit Kant zu reden, um analytische oder synthetische Urteile, so wird in ihnen
durchweg gerade eine Ungleichheit zwischen Subjektsbegriff und Prädikatsbegriff
vorausgesetzt. Nämlich dadurch, daß („analytisch“) eine Eigenschaft (ein Merkmal), das sich neben anderen Merkmalen im Subjektbegriff findet, eigens herausgestellt und betont wird, oder daß es („synthetisch“) zu den Merkmalen des Subjektsbegriffs hinzugefügt wird. In mathematischen Gleichungen stehen jedoch die
Ausdrücke links und rechts vom Gleichheitszeichen in keinerlei logischem Subjekt-Prädikatverhältnis. Durch die Gleichung wird vielmehr die vollkommene
logische Identität der Bedeutungen der Ausdrücke links und rechts vom Gleichheitszeichen zum Ausdruck gebracht. Und deswegen kann eine mathematische
Gleichung keineswegs eine exaktere Form eines logischen kopulativen Urteils
sein.
Die Gleichung ist in der Tat eine „Aussageform“, die in der klassischen Logik
ebenfalls immer benutzt worden ist, nämlich eine sogenannte Äquivalenz. Die
Gleichung bzw. Äquivalenz geht vermutlich auf den philologischen Brauch zurück, in den Wortlisten und späteren Sprachlexika Wörter verschiedener Sprachen
mit identischer Bedeutung nebeneinander anzuordnen, wobei das Gleichheitszei52
I. Kant, Kritik der reinen Vernunft, A 164, sowie Einleitung B 16 und B 205; auch in den Prolegomena, Vorerinnerungen § 2, c.
90
chen eingespart wird (z. B. Armut = Pauvreté). Dasselbe Verfahren der Nebeneinanderstellung wurde und wird aber auch innerhalb einer und derselben Sprache
bei den sogenannten Synonymen verwendet, also bei verschiedenen Wörtern oder
Ausdrücken, die dasselbe bedeuten.
Die logische Form dieser Äquivalenzen ist dann zur Standardform der logischen
Begriffsdefinition geworden. Es kommt hierbei ausschließlich darauf an, einen
(durch ein Wort bzw. Term bezeichneten) Begriff dadurch zu erläutern, daß seine
Merkmale (Intensionen) und sein Anwendungsbereich (die Extension) deutlich
werden. Auch die aristotelische Standarddefinition durch Angabe der generischen
und spezifischen Merkmale bezweckt nichts anderes.
Nun kann man freilich auch den Logikern den Vorwurf nicht ersparen, daß sie
den Unterschied zwischen kopulativen Behauptungen und definitorischen Erläuterungen (Äquivalenzen) nicht immer bemerkt und beachtet haben. Kennzeichnend dafür ist, daß man etwa die sogenannten Subalternationen, bei denen „einige“ und „ein“ Exemplar einer Gattung (also eine von mehreren Arten und ein
bestimmtes Individuum einer Gattung) definiert werden, für partikuläre und individualisierende „Urteile“ mit einem bestimmten Wahrheitswert hält.
Hält man den Unterschied zwischen kopulativen behauptenden Urteilen der
Logik und gleichungsmäßigen Definitionen der Mathematik fest, so muß man
auch einsehen, daß die mathematischen Gleichungen in ihrer regulären Verwendung nur Definitionen mathematischer Begriffe und Ausdrücke sein können. Und
das muß dann auch für die Anwendungen mathematischer „metrischer Begriffe“
in den mathematisierten Wissenschaften, insbesondere in der Physik gelten.
Es gilt also mit dem epochalen Mißverständnis Schluß zu machen, mathematische Gleichungen wie „3 ∙ 3 = 9“ oder physikalische wie „s / t = v“ seien
überhaupt Urteile bzw. Behauptungen, die mit Wahrheit oder Falschheit in Verbindung zu bringen seien. Es sind vielmehr Definitionen von Begriffen und evtl.
Ausdrücken, denen ein Terminus zugeordnet wird. Und die dadurch eingeführten
Begriffe sind teils durch ihr Alter, teils durch Auswendiglernen in der Alltagssprache sanktioniert worden. Da es sich dabei um Ausdrücke und Begriffe handelt, haben sie logisch also keinen sogenannten Wahrheitswert.
Das kann allerdings nicht heißen, daß der Umgang und die Beherrschung
solcher Ausdrücke und Begriffe immer so leicht wie beim Auswendiglernen eines
Vokabulars oder des kleinen Einmaleins wären. Jede Rechenaufgabe in der Form
einer Gleichung mit größeren Zahlen und/oder komplexeren Rechenanweisungen
stellt gegebenenfalles eine große Herausforderung dar. Aber ein nach allen Regeln
der praktischen Rechenkunst erzieltes Rechenergebnis als wahre Erkenntnis oder
neues Wissen zu deuten, geht an den logischen Tatsachen vorbei. Und das gilt
auch in den Fällen, wo die praktische Rechenkunst bei Nicht-Aufgehen von Rechnungen dazu geführt hat, immer neue Zahlarten (wie die negativen Zahlen beim
Subtrahieren über die Null hinaus, oder die imaginären Zahlen beim Wurzelziehen
aus negativen Zahlen) zu definieren.
91
Der Übergang zu etwas anderem als Begriffsdefinitionen liegt allerdings dort vor,
wo Mathematiker und Physiker sich in Prosatexten ohne Gleichungsformeln
äußern oder zu solchen Äußerungen veranlaßt werden. Hier müssen sie mittels
Behauptungen gleichsam Farbe bekennen, nämlich über das, was sie für wahr
und/oder falsch halten. Dabei unterliegt aber die Prüfung von Wahrheit und
Falschheit ausschließlich logischen Kriterien. Und das zeigt, daß letzten Endes
auch Mathematik und Physik in ihren Einsichten, Erkenntnissen und Theorien auf
die klassische Logik verpflichtet werden können und müssen.
Der Unterschied zwischen der logischen und mathematischen Denkweise reduziert sich dadurch auf professionelle Voreingenommenheiten bezüglich ihrer
Textsorten. Denn der Logiker achtet auf die grammatische und logische Korrektheit der mathematischen und ggf. physikalischen Behauptungen und sucht in
den mathematischen Formeln allenfalls Erläuterungen dazu, falls er sie nicht
gänzlich überschlägt. Der Mathematiker und Physiker aber geht davon aus, daß
sich der Behauptungsgehalt am deutlichsten und exaktesten in den angeführten
Gleichungen darstelle, und daß alles Reden darüber nur eine mehr oder weniger
einleuchtende Interpretation sei. Und dies kann nach allem, was über Gleichungen
zu sagen war, nur als Selbsttäuschung bezeichnet werden.
Die Lage kompliziert sich dadurch, daß es bei logischen Urteilen mit der zweiwertigen Logik von „wahr“ und „falsch“ nicht getan ist. Hinter dem Thema dreiund/oder mehrwertiger Logiken verbergen sich mehrere Problematiken, von denen man kaum wird sagen können, daß sie bis jetzt angemessen geklärt geschweige denn gelöst sind.
Zunächst hat man damit zu rechnen, daß in der Wissenschaft neben manifest
wahrem und methodisch falsifiziertem falschem Wissen, das in klaren Behauptungen formuliert wird, vielerlei in Vermutungen, Hypothesen, Konjekturen und –
wie eingangs schon behandelt – in der Gestalt von Glauben und Intuitionen artikuliert wird. Das mag noch mancher vorsichtige Forscher in seinen Reden und
Texten im sprachlichen Konjunktiv oder mittels verbaler Relativierungen des
Behauptungscharakters wie „könnte“, „dürfte“, „sollte“, „möglicherweise“ u. ä.
formulieren. Hat er aber logische oder mathematische Ambitionen, so kann er
nicht auf die nichtbehauptende Satzform der Vermutung zurückgreifen, denn
weder in der Logik noch in der Mathematik gibt es einen Konjunktiv. Also bleibt
ihm gar nichts anderes übrig, als seine Vermutungen in der behauptenden Urteilsform oder mathematisch in der vermeintlich behauptenden Gleichungsform auszudrücken.
Auf diese Weise formulierte Vermutungen zielen naturgemäß auf die Wahrheit.
Und deshalb zeigen sie vor allem, was der Autor für wahr hält, viel weniger aber,
was er eventuell für falsch halten könnte. Und deswegen wiederum spricht man
angesichts solcher Vermutungen von „Wahrscheinlichkeit“. In welchem Begriff ja
der Wahrheitsanspruch und zumindest eine gewisse Wahrheitsnähe prätendiert
wird. Es „scheint so“, als sei die Wahrheit in der Vermutung schon enthalten. Man
weiß natürlich, daß eine Vermutung gelegentlich auch bestätigt wird, und das gilt
92
als „Verifikation“ bzw. Wahrheitsbeweis. Aber ebenso weiß man auch, daß eine
Vermutung gänzlich „daneben liegen“ kann. Aber dafür gibt es bisher leider
keinen gleichwertigen Begriff der „Falschscheinlichkeit“ von Vermutungen.
Dies waren und sind sicher genügend ernsthafte Gründe, die Wahrscheinlichkeit
in der Logik als einen dritten „Wahrheitswert“ auszuzeichnen und ihn in der
mathematischen Wahrscheinlichkeitslehre noch numerisch zu einem Kontinuum
von „Wahrscheinlichkeiten“ zu spreizen.
Wir gehen nun davon aus und haben schon früher gezeigt (vgl. Logik, Aalen
1987), daß die „Wahrscheinlichkeit“ von Vermutungen, aber dann auch in der
logischen Form der Behauptung, nichts anderes ist als ein „zugelassenes Drittes“
zwischen und neben den wahren und falschen Behauptungen. Ebenso wurde
schon gezeigt, daß dieses „Dritte“ mit dem „Widerspruch“ identisch ist und also
„Wahr-Falschheit“ genannt werden sollte. Die Widersprüche im Wahrscheinlichkeitsbegriff erweisen sich anhand von mehren Charakteristika, die man leicht auch
als Paradoxien formulieren kann.
Auch bezüglich der Wahrscheinlichkeitskonzepte halten sich die Unterschiede
zwischen logischem und mathematischem Denken durch. Logische Wahrscheinlichkeit ist stets symmetrisch wahr und falsch zugleich; mathematisch-numerische
Wahrscheinlichkeit spreizt die Wahrheit und Falschheit zu unterschiedlich quantifizierten Anteilen auf, bzw. sie geht davon aus, daß dies so wäre. Gleichwohl liegt
die logische nicht-quantifizierbare Wahrscheinlichkeit auch jeder mathematischen
Wahrscheinlichkeit zugrunde.
Wegen der großen Wichtigkeit der Wahrscheinlichkeit und ihrer immer noch
recht undurchsichtigen Natur, soll ihr ein eigener § 11 gewidmet werden.
93
§ 9 Die logischen und mathematischen Elemente
Kleiner Leitfaden zur „pyramidalen Logik“. Die logische Konstruktion regulärer Begriff durch vollständige Induktion.
Intensionen und Extensionen als Komponenten der Begriffe. Die Funktionen der Deduktion: Kontrolle der korrekten
Induktion und Fusion („Synthesis“) dialektischer Begriffe. Das Beispiel der logischen Deduktion des Zahlbegriffs und der
hauptsächlichen Zahlarten. Die Primzahlberechnung. Die Funktion der Buchstabenzahlen (Variablen) in der Mathematik.
Unterscheidung der begriffs- und ausdrucksbildenden von den urteilsbildenden Junktoren. Die logischen Junktoren und ihre
pyramidale Formalisierung. Die mathematischen Junktoren und ihre Funktion als Rechenarten. Die Definition als
Äquivalenz und als mathematische Gleichung. Die Urteile als wahre, falsche und wahr-falsche (dialektische) Behauptungen. Die Schlußformen des Aristoteles und der Stoa. Die moderne „Aussagenlogik“ zwischen Urteils- und Schlußlehre.
Kritik ihrer Fehler. Die Argumente und die Theorien. Pyramidale Formalisierung der Hegelschen „Phänomenologie des
Geistes“ und einer logischen Zahlentheorie. Die Axiomatik. Die vermeintlichen logischen Prinzipien der Identität, des
Widerspruchs und des „Dritten“ und die eigentlichen Prinzipien Wahrheit, Falschheit und Wahr-Falschheit
Ausgehend vom Primat der Logik auch für das Verständnis der elementaren
mathematischen Begriffe, seien im Folgenden die logischen Elemente vorgestellt
und erläutert. Soweit möglich, seien dann auch die elementaren mathematischen
Elemente im Vergleich mit den logischen vorgestellt und ggf. auf diese zurückgeführt.
1. Begriffe und ihre logische Konstruktion
Begriffe und ihre Bildung und Handhabung sind grundlegend für alle Wissenschaften. Jede Wissenschaft ist durch die Anzahl und logische Qualität an Klarheit
und Deutlichkeit ihres Begriffsbestandes grundsätzlich bestimmt und begrenzt.
Über ihren eigentlichen Begriffsbestand hinaus verfügt jedoch jede Wissenschaft über einen mehr oder minder umfangreichen Vorrat an bildungssprachlichen Wörtern. Diese tragen zu einem mehr oder weniger klaren Vorwissen über
den thematischen Bereich bei, auf den sich die jeweilige Wissenschaft bezieht.
Die Bildungssprache liefert allerdings in der Regel nur „Bedeutungen“ der jeweiligen thematischen Wörter, die gewöhnlich in den allgemeinen sprachlichen Lexika verzeichnet sind. Selten oder gar nicht liefert sie zugleich auch Vorwissen über
die Extensionen bzw. Umfänge, die in den eigentlichen wissenschaftlichen Begriffen unabdingbar damit verbunden sind, und durch die alle relevanten Begriffe
in einer „theoretischen“ bzw. wissenschaftlichen Allgemeinheitshierarchie untereinander verknüpft werden.
Begriffe sind keine „Einheiten“, wie es die alphabetischen Fachlexika und die
üblichen Formalismen insinuieren. Vielmehr sind sie mittels ihrer Bedeutungen
(Intensionen) und Umfänge (Extensionen) untereinander verknüpfte Hierarchien
von Themen- und Verweisungskomplexen des wissenschaftlichen Wissens. Die
hierarchische Ordnung eines wissenschaftlichen Begriffsbestandes drückt sich im
Allgemeinheitsgefälle von Gattung, Art, Unterart, Unter-Unterart usw. bis zu untersten Begriffen als „Kennzeichnungen“ individueller Fakten und Daten aus.
Ihre hierarchische Struktur wird in Begriffspyramiden (den umgekehrten „porphyrianischen“ Begriffsbäumen) sichtbar. Obere (allgemeinere) Begriffe teilen
ihre Bedeutungen – hier durch Buchstaben bezeichnet - allen in ihrer Extension
liegenden unteren Begriffen als „generische Merkmale“ in identischer Weise zu.
94
Untere Begriffe aller Stufen enthalten zusätzlich als „spezifische Differenzen“
weitere Bedeutungsmerkmale.
Dies läßt sich in einem pyramidalen Formalismus für die regulären (widerspruchslosen) Begriffe eines Themenkomplexes darstellen. Links in den Kreisen
(Begriffspositionen) werden die generischen Merkmale notiert, rechts außen stehen die spezischen Differenzen.
Extensional-dihäretische Begriffspyramide
mit eingeschriebenen Intensionen
Extensional-multiple Begriffspyramide
mit eingeschrieben Intensionen
A
AB
ABD
A
AC
ABE
ACF
AB
ACG
ABF
ABG
AC
AD
ADH
ADI
AE
ADJ
2. Die Gewinnung von regulären Begriffen durch Induktion
Eine reguläre Begriffspyramide zeigt, was eine logische Induktion (Epagogé)
bzw. begriffliche Abstraktion ist. Merkmalsreiche unterste Begriffe werden verglichen und darauf hin geprüft, welche Merkmale in ihnen gleich sind, d. h.
Identitäten darstellen, und worin sie sich spezifisch unterscheiden. Identische
Merkmale werden hierbei durch gleiche Buchstaben dargestellt. In höheren bzw.
allgemeineren Begriffen werden sie zusammengefaßt und wiederum entsprechend
überprüft. Zuletzt wird die jeweils höchste Gattung für den Prüfbereich gebildet,
die mindestens ein allen Unterbegriffen gemeinsames Merkmal enthält. Diese Induktion zur Begriffsbildung ist immer vollständig.
Die Induktion legt keine bestimmte Abstraktionsrichtung zu bestimmten Oberbegiffen fest. Jedes beliebige Merkmal läßt sich für die Wahl einer Induktionsrichtung (Verallgemeinerung) benutzen. Durch die Merkmalswahl wird ein Induktionsrahmen festgelegt. Durch die verschiedenen Induktionsrahmen unterscheiden
sich verschiedene Theorien über demselben Erfahrungsbereich. Drei verschiedene
Induktionen mögen das an einem inhaltlichen Beispielen zeigen:
1
2
AB
Sokrates = ein philosophischer Grieche
C
B
A
ABC
3
BA
BAC
Sokrates = ein griechischer Philosoph
CB
CBA
Sokrates = einer der „Sokrates“ genannten
Personen unter den philosophischen Griechen
Merkmale bzw. Intensionen: A = griechisch B = philosophisch C = sokratisch
95
Erläuterung: In 1 wird „Griechentum“ als Induktionsrahmen gewählt, innerhalb
dessen „einige Griechen“ Philosophen, einige (d. h. alle anderen) Nicht-Philosophen sind. „Sokrates“ wird als „ein philosophischer Grieche“ definiert.
In 2 wird „Philosoph“ als Induktionsrahmen gewählt. „Einige Philosophen“
sind Griechen, einige sind Nicht-Griechen. Sokrates wird als „ein griechischer
Philosoph“ definiert.
In 3 bilden „alle Sokrates“ genannten Individuen den Induktionsramen, von
denen „einige Philosophen“, einige Nicht-Philosophen sind. Sokrates wird als
„einer der ‚Sokrates„ genannten philosophischen Griechen definiert.
Schon beim Thema Induktion zeigt sich ein wesentlicher Unterschied der logischen und mathematischen Auffassung. Von der logischen Induktion, wie sie
durch Platon und Aristoteles als „Epagogé“ („Hinführung zum Allgemeinen“)
eingeführt wurde, ist zu zeigen, daß sie immer „vollständig“ ist. Schon von einer
individuellen Instanz aus (wie Wilhelm von Ockham mit Recht bemerkte und wie
die obigen Beispiele zeigen 53) läßt sich durch Weglassen spezifischer Differenzen
ein Allgemeinbegriff induzieren. Dessen Merkmale bestimmen dann, welche
anderen bekannte oder noch unbekannte Instanzen entweder dieselben Merkmale
des induzierten Allgemeinbegriffs aufweisen und deswegen „unter ihn fallen“
oder mangels dieser Merkmale nicht unter ihn fallen.
Es kann bei der Induktion also keinesfalls darauf ankommen, ob und wieviele
weitere Instanzen hinsichtlich dessen überprüft werden, ob sie die Merkmale eines
regelrecht induzierten Allgemeinbegriffs aufweisen oder nicht. In der Logik hat
sich aber durch Sextus Empiricus (um 200 - 250 n. Chr.) die falsche Meinung
durchgesetzt, daß die Begriffsinduktion grundsätzlich „unvollständig sei“, (genauer: unmöglich sei!) weil man niemals alle Instanzen überprüfen könne“. 54
Die Mathematik vertritt demgegenüber die ursprüngliche Meinung von Platon
und Aristoteles. Das was hier mathematische Induktion zur Gewinnung z. B. des
allgemeinen Zahlbegriffs genannt wird, sei grundsätzlich „vollständig“. Das gilt
zwar für die Induktion ganz allgemein, dürfte aber in der Arithmetik geradezu
paradox erscheinen angesichts der Tatsache, daß man weder „alle Zahlen“ kennt
noch eine einheitliche Meinung darüber besteht, was überhaupt die gemeinsamen
Merkmale aller Zahlen in mathematischen Zahlbegriffen sind.
53
Vgl. Léon Baudry, Lexique philosophique de Guillaume d‟Ockham, Paris 1958, art. Induction, S. 119: “Aliquando
universale quod debet induci habet pro subiecto speciem specialissimam et ad habendam cognitionem de tali universali
frequenter sufficit inducere per unam singularem” / Zuweilen hat der zu induzierende Allgemeinbegriff als Instanz eine
speziellste Unterart, und um die Kenntnis eines solchen Allgemeinbegriffs zu erreichen genügt es häufig, ihn von einem
Einzelnen aus zu induzieren.
54
Sextus Empiricus, Pyrrhoneische Grundzüge. Aus dem Griechischen übersetzt und mit einer Einleitung und Erläuterungen versehen von Eugen Pappenheim, Leipzig 1877, Kap. 15, S. 142: „Sehr abzulehnen aber, meine ich, ist auch die
Weise in Betreff der Induction. Da sie (scl.: die Logiker) nämlich durch sie von den Einzeldingen aus das Allgemeine
beglaubigen wollen, so werden sie dies thun, indem sie entweder doch an all die Einzeldinge herangehen oder an einige.
Aber wenn an einige, so wird die Induction unsicher sein, da möglich ist, dass dem Allgemeinen einige von den in der
Induction ausgelassenen Einzeldingen entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen,
da die Einzeldinge unbegrenzt sind und unabschließbar. So dass auf diese Weise von beiden Seiten, mein„ ich, sich ergibt,
dass die Induction wankend wird“.
96
Ersichtlich ist auf Grund dieser angeblichen mathematischen „Vollständigkeit“
und damit Sicherheit der Induktion auch das negative Vorurteil gegen die logische
und das positive zugunsten der mathematischen Induktion entstanden. Das hat
wesentlich dazu beigetragen, alle mathematische Begriffsbildung für genauer,
zuverlässiger und maßgeblicher zu halten, als es die logische jemals vermöchte.
Es ist außerdem zu betonen, daß die Induktion eine Methode der Begriffbildung,
jedoch keineswegs eine Methode zur Gewinnung allgemeiner Behauptungssätze
ist, wie dies in der neueren Logik seit J. St. Mills Induktionstheorie der Kausalgesetze eingeführt und in der modernen Wissenschaftstheorie allgemein angenommen wird. Denn Behauptungssätze setzen schon die in ihnen verwendeten Begriffe voraus. Das gilt also auch von Kausalgesetzen, bei denen man schon über
Begriffe dessen, was Ursache, und dessen, was Wirkung ist, verfügen muß. Erst
recht bedarf es bei Kausalsätzen eines Vermittlungselementes zwischen Ursache
und Wirkung, das die „Humesche Lücke“ zwischen den Kausalgliedern schließt.
Fehlt dieses Zwischenglied, so bleibt ein vermeintlicher Kausalsatz eine korrelative Implikation. Auch dieses vermittelnde Element in kausalen Implikationen
muß als Begriff induziert werden (s. u. „korrelative Implikationsurteile“).
3. Die Konstruktion von Begriffen durch Deduktion
Eine reguläre logische Deduktion setzt die induktive Gewinnung eines Induktionsrahmens mit einem dadurch wohldefinierten allgemeinsten Begriff voraus.
Sie distribuiert die induktiv gewonnenen Merkmale auf die unteren Begriffspositionen und dient insofern zur Kontrolle einer regelrechten Induktion.
Widersprüchliche Begriffe (contradictiones in terminis bzw. contradictiones in
adiecto) werden gewöhnlich deduktiv gebildet. Sie verschmelzen induktiv gewonnene reguläre Artbegriffe, die in vollständiger Disjunktion (in kontradiktorischem
Gegensatz) zueinander stehen, zu einem einzigen Begriff, welcher die sich ausschließenden spezifischen Differenzen bzw. Merkmale zugleich und gemeinsam
enthält.
G. F. W. Hegel hat allerdings in seiner „dialektischen Methode“ der Begriffsbildung bzw. des Abstrahierens eine Induktion widersprüchlicher Begriffe benutzt. Sie besteht darin, dihäretische Begriffe in einem ersten Schritt zu einem
gemeinsamen Begriff zu verschmelzen, in welchem die sich gegenseitig negierenden spezifischen Differenzen der Ausgangsbegriffe gemeinsam enthalten blieben. Erst in einem zweiten Schritt, den er „Aufheben“ (bzw. Abstrahieren) nannte,
wurden diese sich negierenden spezifischen Differenzen weggelassen („erstes
Aufheben“) und die gemeinsamen generischen Merkmale beider Ausgangsbegriffe in einem regulären Begriff festgehalten („zweites Aufheben“). Der Aufbau
von Hegels „Phänomenologie des Geistes“ zeigt diese Induktion. Sie beginnt z. B.
mit der Dihärese von „Objekt“ und „Subjekt“, verschmilzt diese zum dialekti-
97
schen Begriff der „Erfahrung“ und abstrahiert daraus den regulären Begriff des
„Allgemeinen“.55
In diesem und anderen Beispielen solcher dialektischen bzw. kontradiktorischen
Begriffe werden Merkmale der Realität vereinigt, die nicht zu einem gemeinsamen Erfahrungskontext gehören. Sie können daher nur in der Phantasie bzw. in
Erinnerungen an absolut Ungleichzeitiges komponiert werden.
Widersprüchliche Begriffe sind deswegen auch die Bausteine der sogenannten
möglichen Welten. Zu diesen möglichen Welten gehört auch die Welt der mathematischen Gebilde, die in der Regel durch Deduktionen konstruiert werden.
Als spekulative Konzeptionen sind solche widersprüchlichen bzw. „dialektischen“
Begriffe für die Wissenschaft, Kunst und Technik kreativ. Für die Forschung sind
sie heuristisch fruchtbar und daher unentbehrlich. In der Argumentation verursachen sie Zwei- und Mehrdeutigkeiten, die sich in Widersprüchen und Paradoxien
ausdrücken. Und diese werden dann selbst wider Motive zu ihrer „Auflösung“
bzw. Eliminierung oder Ersetzung durch widerspruchslose Begriffe.
Kontradiktorische Begriffe lassen sich an jeder Stelle einer Begriffspyramide
zwischen je zwei dihäretischen (vollständig disjunkten, d. h. im Negationsverhältnis zueinander stehenden) Begriffen als deren Verschmelzung bzw. Fusion
einschreiben. Sie umfassen dann die Extensionen der fusionierten Artbegriffe gemeinsam. Diese Eigenschaft haben sie mit dem jeweiligen Oberbegriff (Gattung)
der dihäretischen Artbegriffe gemeinsam, und sie werden daher oft mit Gattungsbegriffen verwechselt. Die Gattung unterscheidet sich von ihnen aber dadurch,
daß sie die spezifischen Differenzen der disjunkten Arten nicht enthält, während
sie in deren kontradiktorischer Verschmelzung gerade enthalten sind. Das sieht
formal so aus:
Widersprüchlicher Begriff zwischen dihäretischen Artbegriffen
Biologisches Beispiel:
A = Lebewesen
AB = lebendiger Organismus
AC = toter Organismus (Leiche)
ABC = Zombie
A
AB
ABC
AC
Erläuterung: Zombies, d. h. „lebendige Leichen“, trifft man in in keinem Erfahrungskontext der Wirklichkeit an. Es gibt sie nur als Phantasieprodukte von
Künstlern und besonders Filmemachern.
Auch der Begriff der Zahl als Grundelement der Arithmetik läßt sich als dialektische Verschmelzung in obigem Schema darstellen. Er dürfte dadurch viel von
seinem mystischen Charakter verlieren, den er in den üblichen Zahltheorien
55
Vgl. dazu L. Geldsetzer, Über das logische Prozedere in Hegels ‚Phänomenologie des Geistes‟, in: Jahrbuch für Hegelforschung I, hgg. von H. Schneider, Sankt Augustin 1995, S. 43 – 80 und die daraus entnommene Begriffspyramide in
Abschn. 8.
98
besitzt. Der Mathematiker Leopold Kronecker hat sich in einem geflügelten Wort
so über die Zahlen geäußert: “Die (positiven, d. h. natürlichen) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk” 56
Die logische Terminologie liefert für den mathematischen Zahlbegriff den Gattungsbegriff (die aristotelische Kategorie) der Quantität (in der obigen Formalisierung: A) und seine beiden dihäretischen Artbegriffe Einheit (AB, logisch:
„ein“) und Allheit (AC, logisch: „alle“). Logisch gilt daher : „Einheit ist nicht
Allheit“ und umgekehrt.
Der mathematische Begriff der Zahl verschmilzt aber diese genau unterschiedenen Artbegriffe zu dem widersprüchlichen Begriff der „Ein-Allheit“ oder „AllEinheit“ (ABC). Zahlen sind daher zugleich Einheiten und Allheiten, von denen
dann nach dem obigen formalen Schema die Definitions-Gleichung gilt: „Einheit
= Allheit“ bzw. in Umkehr: „Allheit = Einheit“. ABC bezeichnet jede Zahl als ein
Etwas, das sowohl als Einheit bzw. „Element“ wie auch als Allheit (bzw. ein
Ganzes oder Gesamt von vielen Einheiten) gedacht wird.
Daß es „gedacht“ werden muß und keineswesg „sinnlich anschaulich“ gemacht
werden kann, erklärt sich wie bei allen dialektischen Begriffen daraus, daß nur die
Ausgangsbegriffe der Einheit (logisch: Individuelles) und der Allheit bzw. eines
Ganzen (logisch: alles) in jeweils verschiedenen Kontexten anschaulich werden
können, niemals aber zugleich und gewissermaßen auf einen Blick. Denn entweder betrachtet man etwas als (elementare) Einheit und erfaßt dann nicht die es
umfassende Ganzheit; oder man achtet auf das Ganze und muß insofern dessen
Einheiten bzw. Elemente außer acht lassen. Mathematisches Denken aber besteht
gerade darin, diese getrennten Erfahrungen kreativ zu „einer Idee“ bzw. zu einem
dialektischen Begriff zu vereinen.
In der Extension des Begriffs der Zahl liegen alle weiteren speziellen Zahlbegriffe, über deren Definitionen weiter unten zu sprechen sein wird. Daher besitzen sie, soweit es sich überhaupt um Zahlen handeln soll, das generische
Merkmal der „All-Einheit“. Das zeigt sich z. B. darin, daß man die Zahl Eins in
Bruchzahlen zerlegt, was voraussetzt, daß auch sie eine Allheit von Zahlen umfaßt. Umgekehrt darin, daß jede „größere Zahl“, die aus Einheiten zu einer Allheit
bzw. einem Ganzen zusammengesetzt wird, selber eine Zahl-Einheit darstellt.57
Der am meisten logisch klingende „Begriff“ der Zahl ist der Mengenbegriff, den
auch Euklid in seinem Lehrbuch „Elementa“ schon definierte. Logisch ist der
Mengenbegriff definiert, wenn er nur als logische Gattung der beiden logischen
Quantifikationsjunktoren „alle“ und „einige“ verstanden wird. Als mathematischer Begriff ist „Menge“ jedoch geradzu ein Paradigma der Dialektizität der
mathematischen Begriffsbildung geworden. Denn man hat in ihm alle logischen
56
Leopold Kronecker in “Ueber den Zahlbegriff”, in: Journal für reine und angewandte Mathematik 10, 1887, p. 261 –
274, auch in: L. Kronecker, Werke, vol. 3, hgg. von K. Hensel, Leipzig 1899, ND New York 1968.
57
Zur pyramidalen Formalisierung der Zahlbegriffe in: L. Geldsetzer, Logik, Aalen 1987, S. 133 – 155; ders., Elementa
logico-mathematica, Internet der HHU Duesseldorf 2006; ders., Logical Thinking in the Pyramidal Schema of Concepts:
The Logical and Mathematical Elements, Dordrecht-Heidelberg-New York-London 2013, S. 20 – 28. Die Pyramide der
Zahlbegriffe in Abschn. 8 (s. u.) ist um die Prim- und Nicht-Primzahlen erweitert worden.
99
Quantifikatoren zusammengefaßt, die in „gespreizten“ zahlenmäßigen Quantifikationen eine Rolle spielen.
Der logisch denkende Mensch weiß und hält es für selbstverständlich, daß man
„einige“ Dinge „eine Menge“ nennen kann. Er wird es auch verstehen, daß
Mengen kleinere Mengen, als sie selbst sind, umfassen und aus ihnen bestehen
können.
Der moderne mathematische Mengenbegriff (nicht aber der euklidische)
verlangt, auch dann von „Menge“ zu reden, wenn sie nur aus einem einzigen
Element besteht. Ebenso wenn sie überhaupt kein einziges Element enthält (die
„Null-Menge bzw. leere Menge). Und schließlich auch, wenn sie (selbstbezüglich) „sich selbst enthält“.
Daß der mathematische Mengenbegriff deshalb geradezu ein Wespennest von
Widersprüchen in sich birgt, ist logisch ersichtlich, und die Paradoxien (d. h. die
spezifischen Widersprüche) der Mengenlehre sind seit B. Russell allgemein
bekannt. Gleichwohl hat man einigen Generationen von Schülern die mathematische „Mengenlehre“ aufoktroyiert und ihnen beigebracht, daß es sich bei diesem
mathematischen Mengenbegriff um den einzig „wissenschaftlichen“ handele, und
daß daher die gemeinsprachliche, nämlich logische Vorstellung von Menge unzulänglich und überholt sei.
Es sei zusätzlich bemerkt, daß die hier vorgeführte Deduktion des Zahlbegriffs
aus den logischen ein- und all-Quantoren nur demjenigen Logiker oder
Mathematiker als grundsätzlich falsch erscheinen kann, der alles Widersprüchliche für grundsätzlich falsch und nur für falsch hält.
Zur logischen Durchsichtigkeit der mathematischen Begriffsbildung scheint es
von erheblicher und sehr unterschätzter Wichtigkeit zu sein, sich über den
begrifflichen Charakter der Buchstabenzahlen klar zu sein. Diese sind von
Franciscus Viëta (François Viète, 1540 - 1603) in die moderne Mathematik eingeführt worden. Eigentlich sollte die üblich gewordene Bezeichnung schon den
Verdacht erregen, es handele sich dabei um ein Oxymoron, angesichts der
allgemeinen Überzeugung, daß Zahlen nicht Buchstaben und Buchstaben nicht
Zahlen sind.
Daß sie in der Neuzeit allgemein akzeptiert wurden, ist aber selbst schon
Ausweis einer intendierten Logifizierung der Mathematik. Die Buchstaben sollten
formale Statthalter für Zahlbegriffe und Zahlausdrücke sein, ebenso wie sie in der
formalen Logik seit Aristoteles für die Subjekts- und Prädikatsbegriffe stehen.
Die Einführung der durch Buchstaben bezeichneten „Variablen“ trieb alsbald
einen neuen Zweig der Arithmetik als „Analysis“ hervor. Von der damals üblichen geometrischen Veranschaulichung der Zahlen durch Strecken blieb erhalten, daß die meistgebrauchten Buchstaben X, Y (evtl. auch Z) noch auf das cartesische Koordinatensystem der Raumdimensionen verweisen, in denen die Zahlen
durch Abstände auf den drei Koordinaten veranschaulicht wurden. In der Regel
stehen sie für „Unbekannte“ (Zahlen).
100
Die Buchstaben wurden zunächst nur als Variable verwendet. Die Bezeichnung
besagt, daß etwa X als Begriff für „beliebige“ Einsetzungen („Erfüllungen“) von
Zahlen stehen soll. Und zwar ebenso, wie das logische Zeichen „S“ für beliebige
Subjektbegriffe stehen kann. Dies allerdings mit der von der Logik übernommenen Einschränkung, daß bei solchen Einsetzungen in Rechnungen immer dieselbe Zahl (ob man sie kennt oder auch nicht kennt) durch die Variable vertreten
wird. Diese Einschränkung wurde aber alsbald fallen gelassen. In den sogenannten Funktionsgleichungen stehen die Variablen in der Regel für verschiedene
Zahlen bzw. „Größen“, was in der Logik keine Parallele hat.
Da aber Rechnungsgleichungen, wie sogleich zu betrachten ist, kreativ für die
Definition von Zahlarten sind, hat man auch einige solcher Zahlarten mit anderen
Buchstaben bezeichnet, die man seither Konstanten nennt. Am verbreitetsten sind
etwa der Quotient des Verhältnisses von Kreisumfang zum Kreisdurchmesser,
genannt „Pi“ (griech.: π = 3,14159…), der nur eine und in allen Berechnung
dieses Verhältnisses bei verschieden großen Kreisen gleichbleibende Irrationalzahl bezeichnet. Dann etwa „i“ als Konstante für eine „imaginäre“ Komponente
aller Zahlen, die sich aus dem Wurzelziehen (Radizieren) aus negativen Zahlen
ergeben. Oder auch der Differentialquotient „δx/δy“, der den sog. Grenzwert einer
sich asymptotisch der Null annähernden „unter jeden angebbaren Zahlenwert
hinabreichenden“ Quotienten bezeichnet (dazu s. u. über Differentialquotientenbildung). Logisch gesehen sind solche Konstanten Eigennamen für bestimmte
mathematische Gebilde, die bei ihrer Einführung wegen „Widersprüchlichkeit“
von vielen Mathematikern abgelehnt und gar nicht als „Zahlen“ anerkannt
wurden. Mit ihnen umzugehen muß der Mathematiker ebenso lernen, wie man
sich auch sonst bestimmte Wörter und Namen einprägt.
Mit der Einführung der Variablen verbunden war das Aufkommen der sog.
(mathematischen) analytischen Methode. Sie besteht darin, einerseits beliebige
Zahlen durch Variablen vertreten zu lassen, anderseits bestimmte unbekannte
Zahlen bzw. Zahlgrößen als bekannt zu behandeln und mit ihnen wie mit
bekannten Zahlen zu rechnen. Dadurch wurde die Rechentechnik außerordentlich
erleichtert und vereinfacht. Dies vor allem in den Fällen, wo sich die Unbekannten
durch geschickte Gestaltung von Rechenoperationen (z. B. das „Wegkürzen“ in
Gleichungen) zum Verschwinden bringen lassen. Was man von den „Unbekannten“ ohnehin nicht weiß, braucht man dann auch nicht mehr zu wissen.
Man hat wohl bis heute nicht bemerkt, daß die Buchstaben sowohl als Variable
wie als Konstanten ebenso wie das (mathematische) analytische Verfahren selbst
eine dialektische Seite besitzen. Die Dialektik besteht darin, daß mit den
Variablen die sogenannten kommensurablen Zahlen (Zahlen, die aus einer und
derselben Einheit zusammengesetzt sind, wie die Rationalzahlen) und die
inkommensurablen Zahlen (aus verschiedenenartigen Einheiten, wie die irrationalen und imaginären bzw. komplexen Zahlen und erst recht die Infinitesimalzahlen, die keinen Zahlenwert besitzen) gleicherweise als Zahlengrößen
dargestellt werden konnten. Daraus kann man entnehmen, daß die Buch-
101
stabenzahlen bzw. Variablen selbst dialektische Zahlbegriffe aus der Fusion des
Begriffs der kommensurablen mit dem Begriff der inkommensurablen Zahlarten
sind, was ihren widersprüchlichen Charakter ausmacht.
Die Variablen vertreten grundsätzlich Zahlenwerte, die ihrerseits den arithmetischen Quantifizierungen unterworfen werden. Man kann sagen: dadurch werden
Quantitäten nochmals quantifiziert.
Man versteht mathematisch etwa „3x“ als Multiplikation einer unbekannten
Zahl (x) mit 3, oder „3/x“ als drei Xtel. Das versteht jeder, der weiß, was „drei
Äpfel“ oder „drei Teile eines Apfels“ sind. Er wird nicht vermuten, daß aus den
drei Äpfeln oder drei Apfelteilen beim Multiplizieren etwas ganz anderes als
Äpfel werden könnten. In der Mathematik aber muß gelernt werden, daß etwa 3x
jede beliebige Zahl bedeuten kann, die sich beim Multiplizieren mit Drei ergeben
kann. Setzt man für x die eins ein, so bleibt es bei der Drei. Setzt man 1/3 ein, so
ergibt sich die Eins. Rechnet man jedoch im Dezimalsystem, so ergibt sich im
letzteren Fall „3  0,333....“, was nicht die Eins, sondern die Irrationalzahl 0,999...
ergibt, die ersichtlich keine 1, sondern eine kleinere Zahl als 1 ergibt. Nur Mathematiker finden das, wenn sie es gelernt haben, „ganz logisch“ und vor allem
„exakt“.
Konträre Begriffe lassen sich zwischen Begriffen in multiplen Artenreihen einschreiben. Ihre Extension besteht dann aus denjenigen der verschmolzenen Artbegriffe. Es handelt sich hier um die sogenannten Dispositionsbegriffe.
Dispositionsbegriff „ABC“ zwischen Artbegriffen aus einer multiplen Artenreihe
A
ABC
AB
AC
AD
physikalisches Beispiel:
psychologisches Beispiel:
A = Aggregatzustand
A = Wahrnehmung
AB = fest
AB = Sehen
AC=flüssig (geschmolzen)
AC = Hören
AD = dampfförmig
AD = Tasten
ABC = schmelzbar
ABC = Wahrnehmungsvermögen
Ihr dialektischer Charakter zeigt sich ebenso wie bei den kontradiktorischen
Begriffen darin, daß man die in ihnen verschmolzenen Merkmale zwar in verschiedenen bzw. getrennten Erfahrungskontexten, ihre fusionierte Vereinigung
aber nicht in einem und demselben Erfahrungskontext wahrnehmen kann.
Von dieser Art sind zahlreiche Grundbegriffe der Physik wie auch der Psychologie, nämlich die Begriffe von Kräften und Potentialen sowie von Vermögen,
Veranlagungen, Fähigkeiten. Da sie seit Jahrhunderten auch in der Alltagssprache
gebraucht werden, vermutet man kaum, daß sie einen dialektischen Charakter
besitzen könnten. Man wundert sich nicht einmal darüber, daß man Kräfte und
Fähigkeiten niemals sinnlich wahrnehmen kann, sondern nur ihre sogenannten
102
Wirkungen als physikalische Veränderungen von Zuständen, oder psychologisch
als manifeste Handlungen und Verhaltensweisen. Nur wenige Physiker, wie etwa
Ernst Mach, haben versucht, den Kraftbegriff deshalb gänzlich aus der Physik zu
eliminieren. In der Psychologie und Anthropologie sind die „Vermögen“ bzw.
„Fähigkeiten“ offenbar niemals auf ihren logischen Charakter hinterfragt worden.
4. Die Junktoren bzw. Funktoren oder Operatoren
Begriffe sind zwar unentbehrliche Bausteine des Wissens, aber sie sind als solche
noch nicht geeignet, wissenschaftliches Wissen auszudrücken. Dazu müssen sie in
die logischen Formen von Urteilen bzw. behauptenden Aussagen eingesetzt werden. Erst in Behauptungsform wird das Wissen wahrheitswertfähig, d. h. es kann
als wahres, falsches oder wahr-falsches oder auch „wahrscheinliches“ Wissen
ausgewiesen werden.
Das logische Mittel, Begriffe zu behauptenden Aussagen zu verknüpfen, stellen
einige Junktoren („Verknüpfungspartikel“, in der mathematischen Logik auch
Funktoren oder Operatoren genannt) dar.
In der hier vorgeschlagenen pyramidalen Formalisierung sind Junktoren selbst
zugleich logische Begriffe für die Beschreibung und Lesung der Relationen, die
zwischen den Begriffspositionen einer Pyramide bestehen. Es gibt nur vertikale
und horizontale Relationen. Deren Richtung ist dabei von entscheidender Bedeutung für die Definition des jeweiligen Junktors. Deshalb lassen sie sich auch durch
Pfeile darstellen. Einige ausgerichtete Relationen werden durch die logischen
Junktoren in mehrfacher Weise beschrieben. Darauf beruhen Synonymien
zwischen einigen Junktoren.
Von den Junktoren verknüpfen einige allerdings die Begriffe nur zu begrifflichen Ausdrücken, die nicht wahrheitswertfähig sind. Wir haben sie ausdrucksbildende Junktoren genannt.
Ausdrucksbildende Junktoren sind das Und (Konjunktor, manchmal auch
Adjunktor genannt) und der mathematische Summenjunktor (Plus), das ausschließende und nicht-ausschließende Oder (Alternative und Disjunktor, letzterer
ebenfalls manchmal Adjunktor genannt), die Quantoren (ein, einige, alle, kein)
und der Äquivalenzjunktor bzw. das mathematische Gleichheitszeichen. Auch die
Negation wird bei sogenannten negativen Begriffen als ausdrucksbildender Junktor gebraucht. Als „bestimmte Negation“ bezeichnet sie einen (positiven) Begriff
durch seine negierte (dihäretische) Nebenart und ist dann umkehrbar (z. B. „Raucher“ - „Nichtraucher“: Nicht-Nichtraucher = Raucher). Als unbestimmte Negation bezeichnet sie einen (positiven) Begriff einer multiplen Artenreihe durch eine
negierte Nebenart und ist dann nicht umkehrbar. (z. B. „gelb“ – „nicht-gelb“:
nicht-nichtgelb ≠ gelb). Der Nichtbeachtung dieses Unterschieds zwischen bestimmter und unbestimmter begrifflicher Negation verdanken sich viele Fehler in
logischen Argumentationen (s. u.).
Die übrigen logischen Junktoren verknüpfen Begriffe zu wahrheitswertfähigen
Urteilen. Wir nannten sie urteils- oder satzbildende Junktoren. Nur durch sie
103
lassen sich Behauptungen formulieren, die wahr, falsch oder auch wahr-falsch
sein können. Diese sind die Kopula (ist), das allgemeine und das spezielle
(aristotelische) Zukommen, die urteilsbildende Negation (ist nicht) und der
Existenz- bzw. Produktjunktor (es gibt) sowie vier verschiedene Implikationsjunktoren (wenn ... dann). Die Unterscheidbarkeit der wird erst in einer regulären
Begriffspyramide sichtbar. Ihre traditionelle Nichtunterscheidung hat immer
wieder zu Problemen geführt, so daß man sogar mit Nelson Goodman vom
„Rätsel der Implikation“ sprach.
Die in der folgenden Figur eingezeichneten Pfeile drücken die Verknüpfungsrichtung aus.
104
Begriffspyramide der satzbildenden Junktoren
Allg. Implikation
↕↔
Wenn…dann
↔
Korrelative
Implikation
Wenn...dann
↕ Allg. Aristotel.
Zukommen
Gehört zu
↑ Kopula
Materiale Implik.
ist, wenn dann
−d Negation
↔
ist nicht
↓ Arist. Zukom.
Formale Implik.
Inklusion
→← Existenzbzw. Produktjunktor Es gibt
Es gibt
Die ausdrucksbildenden Junktoren lassen sich als widersprüchliche Begriffe in die Pyramide der
satzbildenden Junktoren einschreiben.
Begriffspyramide aller Junktoren
Allg. Implikation
↕↔
Wenn…dann
↕ Allg. Aristotel.
↕↔ Disjunktor vel
und/oder
↔
Korrelative
Implikation
Wenn...dann
Zukommen
Gehört zu
und
↕↔ Quantoren
alle, einige, ein
↑ Kopula
Materiale Implik.
ist, wenn dann
↕↔ Konjunktor
und
↓ Arist. Zukom.
Formale Implik.
Inklusion
↕↔Alter↕↔
native
oder, aut
= Äquivalenz
dist ↔
gleich, d. h.
− Negation
ist nicht
→← Existenzbzw. Produktjunktor Es gibt
Es gibt
105
Enthalten Urteile widersprüchliche Begriffe, so erlauben die Junktoren sowohl
eine wahre wie eine falsche Lesung. D. h. Urteile mit widersprüchlichen Begriffen
sind zugleich wahr und falsch bzw. widersprüchlich.
Über die einzelnen urteils- bzw. satzbildenden (behauptenden) Junktoren mit
Wahrheitswerten ist folgendes zu sagen. Wir notieren dazu nur einige markante
Beispiele:
Die oberste Gattung der satzbildenden Junktoren ist die allgemeine Implikation.
Ihre Bedeutung ist es, die Pyramidenbegriffe in jeder Richtung miteinander zu
verknüpfen. Sie faßt die wahren Wahrheitswerte der drei untergeordneten Implikationsformen zu einem gemeinsamen Wahrheitswert zusammen. Sie besitzt
keinen Falschheitswert, weil sich für jede Anwendung ein Wahrheitswert einer
speziellen Implikation angeben läßt.
Die Nichtunterscheidung der allgemeinen Implikation von den drei speziellen
Implikationsformen mit Wahrheitswerten hat in der Geschichte der Logik immer
wieder das Problem erzeugt, daß manche ihrer Anwendungen in Beispielen als
wahr, andere als falsch erscheinen. Die allgemeine Implikation läßt sich wie folgt
darstellen:
Allgemeine Implikation
„Wenn A dann AB“ und „wenn A dann AC“
„wenn AB dann A“ und „wenn AC dann A“.
„wenn AB dann AC“ und „wenn AC dann AB“.
A
AB
AC
Die korrelierende Implikation wird hier ohne Pfeil notiert. Sie korreliert nur durch
Negation unterschiedene Begriffe.
Die beiden dihäretischen Arten (unter der Gattung der allgemeinen Implikation)
sind einerseits das allgemeine (aristotelische) „Zukommen“, das vertikal in beiden
Richtungen verknüpft. Sie ist seit langem außer Gebrauch und macht sich nur
bemerkbar, wenn untere Begriffe oberen Begriffen zugeordnet werden („Zukommen“ als „Inklusion“ von AB in A), oder wenn die (generischen) Merkmale
oberer Begriffe den in ihre Extensionen fallenden unteren Begriffen beigelegt
werden („Zukommen“ als Implikation von A in AB und AC). Andererseits die
korrelierende Implikation, die allgemein horizontal alle durch Negation bestimmbaren Begriffe verknüpft. Nur die korrelierende Implikation ist zur Formalisierung
von Kausalverhältnissen (Ursache ... Wirkung) geeignet.
Die dihäretischen Unterarten des allgemeinen Zukommens sind das spezielle
„Zukommen“ (Inklusion) bzw. die formale Implikation, welche nur von oben nach
unten verknüpft, sowie die materiale Implikation, welche nur von unten nach
106
obenverknüpft. Die Kopula („ist“ bzw. „sind“) ist synonym mit der materialen
Implikation.
Dihäretische Unterarten der korrelierenden Implikation sind die Negation und
der Existenzjunktor, die horizontal in beiden Richtungen verknüpfen (nämlich die
Begriffe, die durch die Urteils-Negation „ist nicht“ unterscheidbar und korrelierbar sind).
Die Negation ist der Unterscheidungsjunktor von nebenrangigen Begriffen. Sie
wird als das „Leere“ zwischen nebenrangigen Begriffspositionen notiert und
gelesen. Sie ist nur zwischen dihäretischen Nebenarten einer Begriffspyramide
umkehrbar. Zwischen Begriffen einer multiplen Artenreihe oder zwischen beliebigen Begriffen verschiedener Begriffspyramiden ist sie nicht umkehrbar. Viele
logische Schlußfehler beruhen auf der Nichtbeachtung dieses Unterschiedes.
Negation („ist nicht“)
AC
AB
„AB ist nicht AC“ und „AC ist nicht AB“
Der Existenzjunktor („es gibt“) führt Begriffe in eine Pyramide ein. Er korreliert
Intensionen und Extensionen miteinander zur Einheit des Begriffs, d. h. er
„produziert“ Begriffe. In Anwendung auf inhaltliche Beispiele behauptet er die
Existenz eines dem Begriff entsprechenden Gegenstandes. Da reguläre Begriffe
auf der Induktion aus sinnlichen Wahrnehmungen beruhen, bezeichnen die durch
Negation unterschiedenen unteren Positionen die Extension, ihre gemeinsamen
Merkmale die Intensionen der so eingeführten Begriffe.
Existenzjunktor
A
AB
„es gibt A“ , nämlich als induktiv gewonnene Gattung der durch
Negation unterschiedenen Artbegriffe AB und AC
AC
Ausdrucksbildende Junktoren
Sie sind aus je zwei der oben genannten dihäretischen urteilsbildenden Junktoren
zu widersprüchlichen Junktorbegriffen verschmolzen. Dadurch heben sich deren
Funktionen für die Wahrheitswertbildung auf. Die ausdrucksbildenden Junktoren
haben daher keinen Wahrheitswert.
Die nicht-ausschließende Disjunktion („und/oder“ bzw. lateinisch „vel“) ist aus
dem allgemeinen Zukommen und der korrelierenden Implikation verschmolzen
und verknüpft in allen Richtungen. Konjunktion bzw. Adjunktion („und“) und
Alternative („entweder... oder“, lateinisch „aut ...aut“) spezifizieren diese Verknüpfungsweisen. Der mathematische Summenjunktor („und“ im Sinne von
107
„plus“) verknüpft nur horizontal Gleichartiges. Der mathematische Differenzjunktor („minus“) ist aus der Adjunktion und der Negation zusammengesetzt
(„und nicht“) und verknüpft ebenfalls nur horizontal Gleichartiges (vgl. unten
über Grundrechenarten).
Die (positiven) Quantoren bzw. Quantifikatoren (ein, einige alle) sind aus der
Kopula und dem speziellen Zukommen verschmolzen und verknüpfen vertikal in
beiden Richtungen. „Alle“ verknüpft einen Begriff mit sämtlichen in seinem Umfang liegenden Unterbegriffen. „Einige“ verknüpft unbestimmt einen Begriff mit
einem seiner Unterbegriffe. Er drückt aber nicht aus, mit welchem von zweien
oder mehreren. „Ein“ verknüpft einen Begriff unbestimmt mit einem seiner Unterbegriffe bzw. einem in seinen Umfang fallen Individuum, drückt aber nicht aus,
mit welchem von „allen“, die unter den Begriff fallen. Deshalb sind die partikulär und
individuell quantifizierten Begriffe stets definitionsbedürftig.
die Quantoren bzw.Quantifikatoren
A
einige A
ein A
einige A
ein A
Quantifizierte Begriffe in dihäretischer Position
liefern als „Gegenprobe“ Definitionen ihrer Gegenarten: „einige A = AB“/„einige A = nicht AB
(= AC). Als „partikuläre Urteile“ wären sie Widersprüche.
Eigennamen definieren Individuen: „ABD =
ein A“ (z. B. „Sokrates = ein Mensch“).
Mathematische Quantoren sind bezüglich von Einheiten synonym mit dem
logischen „ein“. Bezüglich bestimmter Zahlenwerte („größer als Eins“) sind sie
Spreizungen (Spezifikationen) des logischen „einige“. Bezüglich infinitesimaler
und „unendlicher“ (infiniter) mathematischer Bestimmungen sind sie synonym
mit dem logischen „alle“.
Das logische „kein“ ist aus der Negation und dem „ein“ zusammengesetzt
(„nicht ein“). In der Mathematik wird die Negation auch mit dem „alle“ verknüpft. Dieser Ausdruck heißt dann auch „leer“. Die mathematische Quantifikation des „Leeren“ ist die Null („leere Menge“).
Die Äquivalenz bzw. der mathematische Gleichungsjunktor
Der Äquivalenzjunktor ist aus der Negation und dem Existenzjunktor verschmolzen. Die Äquivalenz verknüpft horizontal durch bestimmte Negation Unterscheidbares. Diese Unterscheidbarkeit bedingt, daß in einer Äquivalenz niemals
etwas mit sich selbst (also Ununterscheidbares) äquivalent sein kann, wie es der
falsche Gebrauch der sogenannten Tautologie in der Logik insinuiert. In der
Mathematik ist die tautologische Gleichungen (z. B. 2 = 2) per Konvention
üblich.
Die Äquivalenz induziert zugleich eine gemeinsame Bedeutung des Unterschiedenen, wie es der Existenzjunktor vorgibt. Im Gemeinsprachengebrauch wird
die Äquivalenz Synonymie genannt.
108
Neuerdings wird die Äquivalenz auch als „gegenseitige Implikation“ („genau
dann wenn“ bzw. „dann und nur dann, wenn“) dargestellt. Dies ist jedoch irreführend insofern, als durch diese Verwendung der „Implikation“ der Eindruck
erweckt wird, es handele sich bei der Äquivalenz um behauptende Urteile mit
Wahrheitswerten. Indem die Äquivalenzen jedoch Synonymien zwischen Begriffen und Termini bzw. zwischen Rechenausdrücken und Zahlwerten audrücken,
sind sie logische Ausdrücke ohne Wahrheitswerte. Sie dienen als Definitionen, die
„frei setzbar“ sind.
In der Mathematik wird das meiste, was überhaupt behandelt wird, in der Gestalt von Gleichungen vorgeführt. Und durch die Anwendung der Mathematik ist
die Gleichung auch in der Physik die Hauptform der Argumentation geworden. Es
bleibt aber auch hier zu betonen, daß Gleichungen grundsätzlich Äquivalenzen
bzw. Definitionen ohne Wahrheitswert sind. Gleichwohl gelten sie, wie im
vorigen Paragraphen schon gesagt wurde, in der Mathematik und und ihren
Anwendungen seit G. Boole als behauptende Urteile mit Wahrheitswerten. Mehr
darüber wird unten bei den Definitionen zu sagen sein.
Die mathematischen Grundrechenarten sind logisch gesehen ausdrucksbildende
Junktoren, die bestimmte Zahlkonfigurationen definieren, nämlich Summe, Differenz, Produkt und Quotient. An ihnen läßt sich eindrucksvoll zeigen, wie und wo
das mathematische Prozedere logisch ist, und wie und wo es von der Logik zur
Dialektik übergeht.
Das Addieren ist eine auf gleichrangige Nebenarten eingeschränkte Konjunktion
bzw. Adjunktion. Logisch daran ist, daß man beliebige Zahlen bzw. Zahlausdrücke zu Summen zusammenfassen kann. So wie man „einen Apfel und einen
(anderen) Apfel“ zu einem „Äpfelpaar“ summiert oder „mehrere Äpfel“ zu einer
„Apfelmenge“. Dialektisch ist die Aufhebung der Restriktion auf Gleichrangigkeit
der Summanden bei der Integralsumme. Darin wird das mathematische Additionsverfahren kreativ. Denn hierbei werden gerade lauter ungleichartige Summanden
(nämlich Differentialquotienten) summiert. Bekanntlich handelt es sich beim Integrieren einerseits um eine Summenbildung, andererseits aber auch um Nichtsummenbildung. Das zeigt sich darin daß Integrale nicht ausrechenbar sind,
sondern daß ihre Zahlenwerte „empirisch“, d. h. durch gemessene Exhaustion von
unregelmäßigen Flächen oder Körpern gewonnen und in Tabellen zur Verfügung
gestellt werden.
Das Subtrahieren ist eine Verknüpfung der logischen Konjunktion und der Negation zu einem Ausdruck von Differenzen. Logisch ist es, wenn man sagt „AB und
nicht AC“: Und das bleibt bei Anwendung auf Beispiele so lange logisch, wie der
Subtrahend kleiner ist als der Minuend. Es ist also logisch, daß man nicht mehr
„wegnehmen“ kann als „vorhanden“ ist. Nimmt man jedoch genau das weg, was
vorhanden ist, so wird das Subtrahieren dialektisch und kreativ. Die Subtraktion
109
definiert dann in widersprüchlicher Weise „Etwas und nicht Etwas“ als „Nichts“
und definiert somit die Null als Zahl (mathematisch „+ 2 -2 = 0“).
Die Dialektik setzt sich fort in der kreativen Definition der negativen Zahlen,
denn dabei wird mehr weggenommen als vorhanden ist. Logisch muß man sagen:
negative Zahlen sind zugleich negierte bzw. Nicht-Zahlen. Deshalb wurde ihr
Zahlcharakter von vielen Mathematikern bis in die Neuzeit bestritten. Als man im
Handel und Bankwesen den negativen Zahlen eine positive Bedeutung als Schulden oder Kredit zusprach, setzten sich auch die negativen Zahlen als spezifische
Zahlen in der Arithmetik durch. Noch Kant befaßte sich in seinem „Versuch, den
Begriff der negativen Größen in die Weltweisheit einzuführen“ 58 mit diesem
Problem. Er diagnostizierte ganz richtig den logisch widersprüchlichen Charakter
des Verfahrens und versuchte gleichwohl, die inhaltliche Anwendung des Verfahrens als „Realrepugnanz“ antagonistischer Entitäten (wie z. B. Newtons Kraft
und Gegenkraft), als nichtwidersprüchlich darzutun.
Das Multiplizieren hat als logische Grundlage die Verschmelzung bzw. Fusion
beliebiger Intensionen zu Begriffen unter Zuweisung von Extensionen. Diese Verschmelzung geschieht nicht mittels eines verknüpfenden Junktors. Wie sie funktioniert wurde bei der Begriffsbildung vorgeführt. Die logische Fusion führt zur
„Produktion“ neuer Begriffe, seien sie regulär oder auch widersprüchlich. Beispiele sind zusammengesetzte Begriffe wie das reguläre „Gast-Haus“ oder das
irreguläre „hölzerne Eisen“ (ein bekanntes sprachliches Oxymoron).
In der Arithmetik wird die Fusion auf Zahlen und Zahlausdrücke angewandt und
liefert dadurch mathematische „Produkte“. Als Rechenverfahren wird die Multiplikation auf wiederholtes Summieren zurückgeführt (3  2 = 2 + 2 + 2) und
dadurch erläutert und definiert. Die Multiplikation dient neben den anderen Rechenverfahren ebenfalls zur Definition der Zahlen. Im mathematischen Grundunterricht werden die Definitionen der Zahlen aus der dezimalen Zahlreihe am
häufigsten mittels des (kleinen) „Ein-mal-Eins“ auswendig gelernt.
Die traditionelle geometrische Veranschaulichung hat die Mathematiker an die
Kreativität der Produktbildung gewöhnt, so daß sie als „logisch“ erscheint. Man
stellt Zahlgrößen durch Strecken dar, die multipliziert Flächeninhalte (ein nichtstreckenhaftes Produkt!) produzieren. Dabei wird grundsätzlich ausgeblendet, daß
es sich nicht um gleiche Strecken, sondern um Vektorstrecken (die in der Fläche
ganz verschieden ausgerichtet sind) handelt. Und nur so kann die Multiplikation
von Strecken (a  b) zu einem nicht-streckenhaften Flächenprodukt („ab“) führen.
Dieses traditionelle Beispiel findet weite Anwendung bei der multiplikativen
Fusion unterschiedlich dimensionierter naturwissenschaftlicher Begriffe. Der
Physiker verschmilzt z. B. den Massenbegriff (m) mit dem Begriff einer Strecke
(s) und bildet so den Begriff „Arbeit“ (ms = Masse  Weg). Wollte man das Ver58
I. Kant, Versuch, die negativen Größen in die Weltweisheit einzuführen, Königsberg 1763, in: I. Kant, Werke in sechs
Bänden, hgg. v. W. Weischedel, Darmstadt 1960, S. 777 – 819.
110
fahren am logischen Beispiel erläutern, so müßte man definieren können: „Äpfel
mal Birnen = Kompott“.
Das Potenzieren
Die Dialektik setzt sich fort in der Potenzbildung, also im sogenannten Potenzieren. Hierbei wird, logisch gesehen, etwas mit sich selbst verschmolzen, was
einerseits eines und dasselbe bleibt, andererseits auch etwas anderes sein kann.
Ersteres zeigt sich in der Einerpotenz (1  1 = 1), letzteres in den Potenzen aller
anderen Zahlen (z. B. 3  3 = 9).
Die Selbstfusion von etwas mit sich selbst und somit die Widersprüchlichkeit
des Potenzierens wird in der Mathematik durch die traditionelle Veranschaulichung an geometrischen Anwendungen dissimuliert. Daher spricht man bekanntlich seit Euklid von „Quadratzahlen“ (2. Potenz) und „Kubikzahlen“ (3. Potenz).
Diese Art der Begriffsbildung wird seit der Renaissance heuristisch und spekulativ benutzt, um gewisse Probleme auf den Begriff zu bringen. So ist z. B. in
der Kinematik (Bewegungslehre) der Geschwindigkeitsbegriff (v, d. h. die Proportion Wegeinheit zu Zeiteinheit) mit sich selbst zu „v²“ potenziert worden, um
damit die Beschleunigung zu erfassen. (Nach der vorn schon genannten MertonRegel wird allerdings Beschleunigung als „mittlere Geschwindigkeit zwischen der
langsamen Anfangs- und der schnelleren Endgeschwindigkeit, also als „ ½ v² “
definiert.) Man findet in der einschlägigen Literatur keinen Hinweis darauf, daß
Physiker sich darüber Rechenschaft gaben, daß sie damit einen Begriff bildeten,
der eine Proportion von flächenhaften „Streckenquadraten“ und „Zeitquadraten“
darstellt, die sich jeder Veranschaulichung hinsichtlich bewegter Massen entzieht.
Und das wird in der Regel damit begründet, daß es sich bei den Potenzbegriffen
um rein numerische und an Beispielen empirisch verifizierte Meßgrößen handele.
In der nichtmathematischen Begriffsbildung ist das Verfahren des Potenzierens
Grundlage für das Verständnis sogenannter reflektiver bzw. ipsoflexiver (selbstbezüglicher) Begriffsbildung in der Reflexionsphilosophie. Beispiele sind etwa
das „Denken des Denkens“ (aristotelische „noesis noeseos“) oder „Bewußtsein
von Bewußtsein = Selbstbewußtsein“). Diese Begriffsbildung wird jedoch ebenso
wenig wie der mathematische Potenzbegriff als dialektisch durchschaut und anerkannt.
Das Wurzelziehen
Das als Umkehrung des Potenzierens eingeführte Wurzelziehen bzw. Radizieren
zerlegt die Potenzzahlen in ihre Faktoren. Darauf beruht die Notation der Potenzzahlen, die die „Wurzel“ als Basis und die Anzahl der multiplizierenden Fusionen
als Exponent notiert, wie z. B. 32 oder auch 3x . Wurzelzahlen lassen sich insofern
aus allen durch Potenzieren definierte Zahlen ziehen. Läßt man diese Beschränkung fallen, so wird auch das Radizieren kreativ für die Definition neuer Zahlarten, und zwar sogleich mehrfach. Einerseits definiert man so die irrationalen
Zahlen, die wir „ungenau“ nennen können (vgl. unten bei Division), andererseits
111
die sogenannten imaginären Zahlen als Wurzeln aus negativen Zahlen. Hinzu
kommt, daß dieselbe Potenzzahl sich aus positiven wie negativen Wurzeln gleicher Größe definieren (z. B. √4 = +2 und = –2). Wollte man diese doppelte
dialektische Definition an einem nicht-mathematischen Beispiel demonstrieren, so
könnte man sagen: „Der Wurzelbegriff des Selbst-Bewußtseins ist sowohl das Bewußte wie das Nicht- bzw. Unbewußte“.
Die Division
Das Dividieren bzw. die Teilung hat zur logischen Grundlage die logischen Quantoren. Es liegt auf der Hand, daß „einige A“ und „ein A“ Teile von „A“ (bzw. von
„allen A“) sind. Diese Teile sind in allen Bildungssprachen schon durch eigene
Wörter bezeichnet, wie etwa „Element von...“, „Hälfte“, „Drittel“ usw. Worauf es
ankommt ist, daß die Partikularisierungen stets das „alle“ bzw. „das Ganze“ im
Blick behalten. Daher entsteht das Rechenverfahren der Division aus einer Verschmelzung bzw. Fusion des Allquantors mit den Partikularisierungsquantoren.
Logisch könnte man dies „Teil-Ganzes“ nennen. Das erklärt, daß der mathematische Quotient als Ergebnis der Rechenoperation Division ebenfalls nur einen Teil
eines Ganzen definiert.
Logische Teilungen eines Ganzen können über „Teilbereiche“ nur bis zu
„Elementarteilen“ (was immer man in Beispielen dafür hält) führen. So ist es ganz
logisch, daß man All- oder Ganzheiten, die aus Einheiten bestehen, in vielfacher
Weise in ihre Teile bis zu den Einheiten zerlegen kann. Wobei das Divisionsverfahren z. B durch die Rechengleichung „6 : 3 = 2“, wie gesagt, nur den
Zahlenwert eines Teils definiert. Die beim Teilen entstehenden übrigen Teile verschwinden gleichsam im mathematischen Nirvana. Und dies ist logisch und
didaktisch die Grundlage für das Erlernen des Divisionsverfahrens.
Das mathematische Teilungsverfahren geht dialektisch darüber hinaus und wird
kreativ für die Definition neuer Zahlarten, nämlich der Bruchzahlen oder kurz: der
Brüche und insbesondere der sog. unendlichen Brüche. Die „elementare Einheit“,
aus der nach Euklid alle Zahlen zusammengesetzt werden, erscheint hierbei zugleich als logische Einheit und als Allheit. Sie kann darum in noch „elementarere
Einheiten als die Zahleinheit“ zerlegt bzw. „zerbrochen“ werden. Darauf beruht
schon die übliche Notierung der Brüche als „1/2“, „1/3“, „1/4“ usw. gemäß den
sprachlichen Bezeichnungen „eine Hälfte“, „ein Drittel“ und „ein Viertel“ (immer
hinzugemeint: von einem Ganzen), usw.
Die Notation der Bruchzahlen mittels des Bruchstriches („ / “) ist zugleich eine
Formalisierung der Rechenaufgabe. Das Divisionsergebnis, das man speziell
„Quotient“ nennt, ist jedoch nur eine Umformung in die Dezimalnotation mittels
der Äquivalenz-Gleichung, d. h. von der Bruch- in die Dezimalform (1/2 = 0,5).
Dabei erweist sich wiederum der kreative dialektische Charakter des Verfahrens
bei der Definition der „unendlichen“ Brüche. „1/2 = 0,5“ definieren sich gewiß
gegenseitig. Aber schon der einfache Quotient „1/3“ ist nicht in dezimaler Form
definierbar. Die Gleichung „1/3 = 0,333...“ (bei Abbruch der Rechnung an belie-
112
biger Stelle hinter dem Komma) liefert ersichtlich keinen genauen dezimalen Zahlenwert. Sie definiert daher logisch gesehen ungenaue Zahlen (sog. „Grenzwerte“
von Reihen) als eine besondere „ungenaue“ Zahlart neben denjenigen Zahlen, die
man „genaue Zahlen“ nennen kann. Die Gleichung ist dann zugleich (dialektisch!)
keine Gleichung bzw. sie wird eine Ungleichung.
Die Division hat ebenso wie das Multiplizieren und Potenzieren zu höchst
kreativen Begriffsbildungen in der Mathematik und ihren Anwendungen geführt.
Die übliche Formulierung von Divisionsaufgaben (als Rechenoperation) ist selbst
zugleich Ausdruck für Proportionen, bei der die proportionierten Größen bzw.
Dimensionen selbständige Begriffe sind. Das hat auch Euklid in seinen „Elementen“ berücksichtigt, als er die Proportionen von den Teilungen unterschied.
Proportionen sind Teilungen, bei denen berücksichtigt wird, daß dabei nicht nur
ein „Quotient“, sondern ebenso viele „Quoten“ entstehen, wie der Divisor vorgibt.
Diese für den Praktiker jederzeit anschauliche und verständliche Operation wäre
eigentlich formal z. B. als „6 / 3 = 2  3“ zu notieren. Das ist in der Mathematik
jedoch ausgeschlossen, weil es als Ungleichung und „falsche Rechnung“ verstanden würde.
Und doch werden diese Proportionen als gemeinsprachige Ausdrücke häufig
verwendet, z. B. bei der Angabe von Wettkampfergebnissen („Eins zu Drei“ oder
umgekehrt, etwa bei Ergebnissen von Fußballspielen). Es würde wohl niemandem
einfallen, Fußballergebnisse in der Weise einer Divisionsaufgabe auszurechnen,
also das obengenannte „Eins zu Drei“ auszurechnen und als ein Drittel bzw.
0,333... (oder umgekehrt: 3/1 bzw. 3,0) anzugeben.
Das Beispiel kann darauf aufmerksam machen, daß es logisch auszuschließen
ist, eine quantifizierte Proportion als Divisionsaufgabe auszurechnen. Die Ausrechnung von Proportionen führt jedoch in der Mathematik zu Definitionen einer
Reihe genuin mathematischer und in Anwendungen physikalischer Begriffe. Als
Beispiel wurde schon die Proportion von Kreisumfang und Kreis-Durchmesser als
Quotient genannt, die mit dem (stets ungenau bleibenden) Zahlenwert 3,14159...
ausgerechnet wurde. Das Ergebnis ist die Definition der Naturkonstante Pi (π), die
für alle Kreise aller beliebigen Größen gilt.
Der mathematische Formalismus erzwingt jedoch nach der Zulassung der Null
als Zahl auch die Ausrechnung von Divisionsproblemen, bei denen Nullwerte im
Dividenden oder Divisor vorkommen. Die Rechenergebnisse reichen dann ins
Infinite und Infinitesimale. Dabei ist man allerdings nicht konsequent geblieben.
Man hat solche Rechenausdrücke als „sinnlos“ bzw. unzulässig „verboten“. Dies
aber erzeugte den Bedarf, auf andere Weise mit dem sich hier zeigenden Infinitesimalproblem umzugehen. Und das Ergebnis war die Einführung einer besonderen Quotientenart: des sogenannten Differentialquotienten.
Bei den Differentialquotienten tritt die arithmetische Dialektik dem Logiker wohl
am eindrucksvollsten entgegen. Es handelt sich um ein Divisionsverfahren mit
113
„Zahlen, deren Zahlenwert unter jede bestimmbare Größe hinabreicht und sich
asymptotisch der Null annähert (d. h. ohne sie zu erreichen)“. Logisch wird man
solche „Zahlen ohne Zahlengröße“ als Nichtzahlen bezeichnen. Die Buchstabenrechnung war jedoch das geeignete Mittel, diese dialektische Eigenschaft als
irrelevant erscheinen zu lassen. Und so wurden diese „hybriden“ nicht-zahlhaften
Zahlen als „Infinitesimalzahlen“ zugelassen und buchstabenmäßig (was dann
„algebraisch“ genannt wurde) wie Zahlen behandelt. Daraus hat sich eine ganze
mathematische Disziplin, die „Infinitesimalmathematik“ entwickelt.
Nun sollte man nicht erwarten, daß in der Mathematik angesichts ihrer rein
„theoretischen“ (d. h. unanschaulichen) Ausrichtung überhaupt etwas unendlich
Kleines (Infinitesimales) oder auch unendlich Großes (Infinites) vorkommen
könnte, da sich Großes und Kleines und ungeheuer Großes oder winzig Kleines
ausschließlich in der sinnlichen Anschauung findet. Hier hat man dasjenige, was
man bei der Beobachtung mit bloßem Auge unendlich klein und unendlich groß
nennt, mit Mikro- und Teleskop ziemlich vergrößert oder verkleinert. Die Infinitesimalmathematik empfiehlt und plausibilisiert sich daher mit dem (allerdings
metaphorischen) Versprechen, gewissermaßen in eine Feinstruktur der Zahlen
(und ebenso in eine Megastruktur des Zahlenkosmos mittels der Cantorschen
„Mächtigkeiten“ von Zahlsystemen) einzudringen. Ein Mathematiker bekennt
dazu: „In den letzten 200 Jahren hat sich dieser Zweig der Mathematik zu einem
umfassenden Hilfsmittel der Naturwissenschaften entwickelt. Er ist immer noch
nicht völlig erforscht.“ 59
Daß hier noch viel Forschungsbedarf besteht, kann den Logiker nicht verwundern. Das wird auch so bleiben, wenn man sich in der Infinitesimalmathematik
nicht über die hier waltende Dialektik im klaren ist. Und das war schon so, als
besonders George Berkely das infinitesimal-geometrische Verfahren von Leibniz
und das physikalisch-mechanische Fluxions-Verfahren von Newton als dialektisches Unternehmen analysierte und kritisierte.
Die Preußische Akademie der Wissenschaften hatte dies in einer Preisfrage für
das Jahr 1784 über das Wesen des Unendlichhen so formuliert:
„Man weiß, daß die höhere Geometrie kontinuierlich vom unendlich Großen und
unendlich Kleinen Gebrauch macht. Indessen haben die Geometer, und sogar die
antiken Analysten, sorgfältig alles vermieden, was mit dem Unendlichen zu tun hat;
und berühmte Analysten unserer Zeit bekennen, daß die Termini unendliche Größe
widerspruchsvoll sind. Die Akademie verlangt also, daß man erkläre, wie man aus
einer widerspruchsvollen Annahme so viele wahre Sätze deduziert hat, und daß man
ein sicheres und klares, d. h. wirklich mathematisches Prinzip angebe, das geeignet
ist, das Unendliche zu ersetzen, ohne die Forschungen, die darauf beruhen, zu
schwierig oder zu lang zu machen.“ 60
59
R. Knerr, Goldmann Lexikon Mathematik, Art. „Infinitesimalrechnung“, München 1999, S. 163.
Nouveaux Mémoires de l‟Académie Royale des Sciences et Belles-Lettres, Berlin 1784, S. 12: „On sait que la haute
Géometrie fait un usage continuel des infiniment grands et des infiniment petits. Cependant les Géometres, et mȇme les
Analystes anciens, ont évité soigneusement tout ce qui approche de l‟infini; et de grands Analystes modernes avouent que
les termes grandeur infinie sont contradictoires. L‟Académie souhaite donc qu‟on explique comment on a déduit tant de
théoremes vrais d‟une supposition contradictoire, et qu‟on indique un principe sȗr, clair, en un mot vraiment mathématique,
60
114
Eine Antwort vom logischen Standpunkt hätte auch damals lauten können: Der
Differentialquotient, der ausschließlich in Buchstabenzeichen (δx/δy) dargestellt
wird, bleibt logisch immer eine nicht auszurechnende Proportion (wie bei den
Fußballergebnissen). Die Proportion wird aber (wie im Falle von Pi) als Quotient
bzw. Divisionsaufgabe behandelt und (wenn auch nur buchstabenmäßig) „ausgerechnet“. Das Ergebnis wird dann als neu definierter mathematischer Begriff
behandelt, dessen Widersprüchlichkeit keine mathematische Besonderheit darstellt, wie es die Preisfrage der Preußischen Akademie unterstellt, da sie dem dialektischen Verfahren der üblichen mathematischen Begriffsbildung entspricht.
G. W. Leibniz hatte das dialektische Verfahren dadurch begründet, daß er alle
Begriffe kontinuierlich bzw. „stetig“ in einander übergehen ließ. Dafür postulierte
er seine berühmte „Lex continuationis“61. Dies „Gesetz“ steht in offenbarem Widerspruch zur logischen Begriffsbildung und Begriffsunterscheidung, wonach
grundsätzlich keine Kontinuität zwischen Begriffen bestehen kann, da sie gerade
durch ihre gegenseitige Abgrenzung (griech. peras, lat. definitio, im Gegensatz
zum apeiron als „Infinitem) zu Begriffen werden.
Die Widersprüchlichkeit zeigt sich in dem von Leibniz in die Geometrie eingeführten Begriff vom „Grenzübergang“, der einerseits eine Abgrenzung der Begriffe voraussetzt, andererseits diese Grenze negiert. Was hier eine Grenze überschreitet, gehört somit beiden Bereichen diesseits und jenseits der Grenze zugleich
an. Ersichtlich lassen sich daraus widersprüchliche geometrische Urteile über dasjenige deduzieren, was einerseits zum Bereich diesseits, andererseits jenseits der
Grenze gehört und zugleich beiden Bereichen gemeinsam sein soll. Und dies
beantwortet die Akademie-Preisfrage nach der Fruchtbarkeit des Verfahrens. Naturgemäß weisen Leibnizens Beispiele aus der projektiven Geometrie der „in
einander übergehenden“ Kegelschnitte eben dieselbe kreative Dialektik auf. Und
das gilt nicht minder für alle erst im 19. Jahrhundert entwickelten Kontinuitätstheorien der Zahlentheorie (Dirichlet).
Leibnizens Hauptbeispiel für die Deduktion des Differentialquotienten ist eine
geometrische Strecke (die Sekante einer Kurve), die „im Grenzübergang“ in einen
geometrischen Punkt (Berührungspunkt einer Tangente) übergeht. Übrigens ein
Beispiel, das auch Nikolaus von Kues schon in vielen Variationen diskutiert
hat.62 Im Grenzübergang kann daher die Strecke zugleich Punkt und Strecke sein.
Der dialektische Begriff „Grenzübergang“ wurde nachfolgend aber nicht auf die
Grenze zwischen Strecken und Punkten beschränkt, sondern in der Geometrie
allgemein auf alle Punkte einer Strecke (oder Kurve) angewandt, die dann zugleich auch Strecken in einem Punkte sein sollten. Das konnte logisch nur bepropre à ȇtre substituté à l‟Infinie, sans rendre trop difficiles, ou trop longues, les recherches qu‟on expédie par ce moyen”
(zit. nach G. W. F. Hegel, Ges. Werke, Band 7, Hamburg 1971, Anhang S. 369f. Hier auch die Titel der eingereichten und
weiterer Arbeiten).
61
G. W. Leibniz, „Principium quodam generale“ / „Über das Kontinuitätsprinzip“, in: Hauptschriften zur Grundlegung
der Philosophie I, hgg. von E. Cassirer, Leipzig 1904, auch Hamburg 1966, S. 84 – 93.
62
Nikolaus von Kues, „De mathematica perfectione / Über die mathematische Vollendung“, in: Nikolaus von Cues, Die
mathematischen Schriften, hgg. v. J. Hofmann und J. E. Hofmann, Hamburg 1952, S. 160 – 177.
115
deuten, daß alle Punkte auf einer Strecke zugleich als „Strecken-Punkte“ und die
Strecken in einem Punkte als „Punkt-Strecken“, d. h. als ausgedehnt und zugleich
nicht-ausgedehnt definierbar wurden.
Isaak Newton hat diesen dialektischen Begriff „Fluente“ genannt. Sein Hauptbeispiel entstammt der physikalischen Kinematik: Die Geschwindigkeit einer
physikalischen Bewegung bliebe danach auch in einem „Zeitmoment“ (d. h. in
einem Zeit-Punkt) erhalten. Logisch widerspruchslos läßt sich allerdings nur behaupten: Eine Strecke ist kein Punkt; und eine durch Raum- und Zeiterstreckungen definierte Geschwindigkeit läßt sich nicht auf einen Punkt übertragen, denn dies wäre allenfalls ein „Ruhepunkt“ (was übrigens Zenon, der
Schüler des Parmenides, schon in der Antike und Nikolaus von Kues im Übergang vom Mittelalter zur Neuzeit demonstriert hatten).
Sicher dient es zur Dissimulierung dieses Widerspruchs im Begriff des Differentialquotienten, daß er in Lehrbüchern immer noch anhand von Leibnizens
geometrischer Veranschaulichung als „Grenzübergang“ von einer SekantenStrecke zu einem Tangenten-Punkt einer Kurve dargestellt wird. Man hat sich so
sehr daran gewöhnt, daß diese Demonstration nicht mehr als widersprüchlich
durchschaut wird, wenn damit behauptet wird, die Eigenschaften einer Strecke
(bezüglich ihrer Lage im Raum) blieben auch im unausgedehnten Punkt erhalten.
Die Folge ist, daß man dann auch in der Physik von „Punktgeschwindigkeiten“
redet, wo logisch nur das Gegenteil von Geschwindigkeit, nämlich „keine Geschwindigkeit“ angetroffen werden kann. Werner Heisenberg hat, wie schon
vorne erwähnt, mit seiner „Unschärferelation“ bei sogenannten konjugierten physikalischen Größen aus der Not dieses Widerspruchs die Tugend einer ontologischen Eigenschaft der Mikro-Natur gemacht.
5. Die Definitionen
Definitionen sind Äquivalenzausdrücke. Sie sind daher keine behauptenden wahrheitswertfähigen Urteile, und darum frei bzw. willkürlich festsetzbar. Es ist ein
verhängnisvoller Fehler, sie mittels der Kopula zu notieren oder auszudrücken,
anstatt durch das Gleichheitszeichen oder mit Hilfe sprachlicher Wendungen wie
„das heißt“. Die Mathematik bezieht, wie schon gezeigt wurde, einen beträchtlichen Teil ihres wissenschaftlichen Renommees aus diesem Mißverständnis, ihre
Gleichungen seien wahrheitswertfähige Behauptungen. Definitionen beschreiben
einen Begriff mit extensionalen und/oder intensionalen Eigenschaften in den Ausdrücken anderer Begriffe, oder umgekehrt. Die Definitionen der Begriffe sind in
der „pyramidalen“ Formalisierung durch die Position des zu definierenden Begriffs in einer Begriffspyramide direkt ablesbar.
Die aristotelische Standarddefinition umschreibt einen Begriff durch explizite
Angabe seiner generischen Intensionen mittels des „nächst höheren“ Begriffs
(Gattung) und durch die spezifische Intension bzw. „Differenz“, die ihn von der
Gattung und seinen Nebenarten unterscheidet. Die aristotelische Definitionsweise
116
erlaubt keine Definition höchster Gattungsbegriffe (axiomatische Grundbegriffe).
Wohl aber lassen sich solche axiomatischen Begriffe auf andere Weise (siehe
Induktion) definieren. Die üblicherweise in der Logik und Mathematik angenommenen axiomatischen Grundbegriffe bzw. Kategorien, die nicht definierbar sein
sollen, können daher überhaupt keine Begriffe sein.
Die sogenannten partikulären Urteile sind Definitionen. D. h. daß auch sie
keine wahrheitswertfähigen Urteile sind. Gleichwohl werden sie seit jeher und
noch immer ganz allgemein für Urteile gehalten und in den Lehrbüchern als
solche behandelt. Sie drücken die Äquivalenz zwischen einem extensional unterbestimmten Begriff und einem Begriff aus („Einige Lebewesen, d. h. Tiere“). Die
Negation führt hier stets zu einer weiteren Definition (Einige Lebewesen, d. h.
Nicht-Tiere). Die Negation eines sogenannten partikulären Urteils kann daher als
Gegenprobe auf ihren Definitionscharakter gelten.
Die sogenannten singulären bzw. individuellen Urteile sind ebenfalls Definitionen. Sie drücken die Äquivalenz zwischen einem Begriff und seiner Umschreibung durch die generischen Merkmale und die singuläre Extension seiner Gattung
aus („Mensch, d. h. ein vernünftiges Lebewesen“).
Mathematische Gleichungen sind ebenfalls Definitionen. Sie drücken Äquivalenzen zwischen einer Zahl und deren Umschreibung durch Rechenausdrücke
bzw. zwischen Rechenausdrücken mit Variablen aus.
Tautologien in der Gleichungsform „x = x“ sind weder logische Ausdrücke
noch sprachlich sinnvolle Sätze. Sie sind mißbräuchliche Verwendungen der
logischen Definitionsform für den Ausdruck der Identität (mehr darüber unten bei
Axiome).
Sogenannte Funktionsgleichungen („Funktionen“) sind einerseits Äquivalenzen
von Rechenausdrücken mit Variablen (Unbekannten). Ihre übliche formale Gleichungsnotierung „y = f (x)“ besagt nur, daß der Begriff y dasselbe bedeutet wie
ein durch f (eine spezifische Differenz) bestimmter anderer Begriff x. Z. B.
„Quadrat, d. h. gleichseitig-rechtwinkliges Viereck“, oder „Gattin, d. h. verheiratete Frau”. Insoweit sind auch Funktionsgleichungen Definitionen.
In der sogenannten analytischen Geometrie, die auf die cartesische Veranschaulichung der Zuordnung von Zahlgrößen zu geometrischen Punkten in der Fläche
zurückgeht, wird die Gleichungsform auf die Zuordnung auch gänzlich verschiedener Zahlgrößen angewandt. Diese analytischen Funktionsgleichungen definieren durch Gleichungen einen oder mehrere gemeinsame Punkte auf Kurven
bzw. anderen geometrischen Gebilden, und zwar durch zwei verschiedene Zahlarten, nämlich der x- und der y-Größen auf den Flächenkoordinaten. Insofern ist
ihre Notation als Gleichung gerechtfertigt.
Bei den algebraischen Funktionsgleichungen aber entfällt die geometrische
Veranschaulichung als Bezug auf die definierten Punkte. Dadurch werden die
Gleichungen zu Ungleichungen im Gewande von Gleichungen. Als Ungleichungen werden sie zu korrelierenden Implikationsurteilen über das Verhältnis der
Variablen y und x. Solche algebraischen Funktionsgleichungen sind daher logisch
117
zu formulieren als: „wenn y dann (f)x“. Als Implikationen sind diese Funktionen
Behauptungen und haben daher Wahrheitswerte (Über behauptende Funktionen
mit Wahrheitswerten siehe unten bei Urteil).
6. Urteile bzw. Propositionen
Urteile machen den Bestand des Wissens aus. Sie können wahr, falsch oder beides
zugleich sein. Letzteres im Falle der widersprüchlichen Urteile bzw. der Wahrscheinlichkeitsurteile. Sie sind immer allgemein, wie die stoische Logik gegen
Aristoteles mit Recht annahm. Und zwar, weil die sogenannten partikulären und
individuellen Urteile, wie gezeigt, Definitionen ohne Wahrheitswerte sind.
Wahre Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Wahrheitsdefinition.
Beispiele für wahre Urteile in der pyramidalen Formalisierung
1.
2.
A
AB
alle AB sind A =
wenn AB dann A
(kopulatives Urteil =
materiale Implikation)
3.
A
AB
A kommt allen
AB zu =
wenn A dann AB
(aristotel. „Zukommen =
formale Implikation)
alle AB sind nicht AC =
kein AB ist AC,
wenn AB dann AC
AB
AC
(allg. negatives Urteil und
korrelative Implikation)
Die materiale und die formale Implikation können nicht zur logischen Formalisierung von Kausalrelationen dienen. Dies offensichtlich deshalb, weil Begriffe
nicht kausale Ursachen von einander sind. Die übliche Rede von „logischen
Gründen“ verführt aber häufig zu Verwechslungen von logischen und kausalen
„Gründen“.
Die korrelative Implikation dient einerseits zur Formalisierung von beliebigen
Nebeneinanderstellungen. Sie ist jedoch auch die formale Gestalt von Kausalrelationen. Bei diesen bedarf es jedoch weiterer anwendungsbezogener bzw.
inhaltlicher Präzisierungen. Erstens muß ein zeitlicher Unterschied zwischen den
Bedeutungen der korrelierten inhaltlichen Begriffen vorausgesetzt werden.
Zweitens muß der inhaltliche Oberbegriff als Garant der kausalen Verknüpfung
(das seit Hume gesuchte „innere Band“ zwischen Ursache und Wirkung) bekannt
und bestimmt sein.
Falsche Urteile verknüpfen reguläre Begriffe innerhalb einer Begriffspyramide
mittels der urteilsbildenden Junktoren gemäß deren Falschheitsdefinition. Diese
ergeben sich im Formalismus der Pyramide am einfachsten durch regelwidrige
(„verkehrte“) Lesung der satzbildenden Junktoren: z. B. der Kopula als negierte
Kopula und umgekehrt; oder einer der Implikationen, z. B. der Korrelation als
materiale oder formale Implikation, und umgekehrt.
118
Beispiele für falsche Urteilslesung in pyramidaler Formalisierung
1.
2.
3.
alle AB sind nicht A
AB
alle AB sind AC /
alle AC sind AB
A
A
AB
A kommt AB nicht zu
AB
AC
Verwechselung von Unter- und Oberbegriffen (4 u. 5) und von Nebenarten mit Unterordnung
4.
5.
AB
6.
AB
B
A
AB
A
Wahr-falsche (widersprüchliche) Urteile verknüpfen reguläre (nicht-widersprüchliche) und irreguläre (widersprüchliche) Begriffe mittels der urteilsbildenden
Junktoren derart, daß die Verknüpfung bezüglich der im irregulären Begriff
verschmolzenen Intensionen sowohl als wahr wie als falsch gelesen werden kann.
Diese Urteile werden oft nicht als widersprüchlich erkannt, wenn der irreguläre
Begriff selbst nicht als contradictio in adiecto erkannt wird. In diesem Falle hat
man sich gewöhnlich per Konvention auf eine der beiden Lesungen geeinigt. Die
klassische und die mathematische Logik lesen das widersprüchliche Urteil als (in
toto) falsch, da sie Wahr-Falschheit als „Drittes“ nicht zulassen.
Beispiele für zugleich wahre und falsche Urteile (wahr-falsche bzw. widersprüchliche Urteile)
1
2.
A
AB
wahr als materiale I.
falsch als formale und
als korrelative Impl.
AB
wenn AB dann A
4.
A -A
wahr-falsch
als Urteil mit
widerspr. Prädikat
AB
alle AB sind A und -nicht A
3.
A
wahr als formale I.
falsch als mat. I. und
als korrelative Impl.
wenn A dann AB
5.
AB
AC
ABC
wahr-falsch als Urteil mit widerspr.
Subjekt
alle ABC sind AB und AC
wahr als korrelative Impl.
falsch als formale
und als materiale Implikation
AB
AC
wenn AB dann AC
6.
Wahr-falsches Urteil als
wahres neg. U. und falsches
kopulatives Urteil
AB
AC
alle AB sind AC und nicht AC
119
Widersprüchliche Urteile gelten (zu unrecht) in der klassischen und in der
mathematischen Logik als falsche Urteile bzw. Aussagen. Damit wird jedoch in
dialektischer Weise das darin enthaltene wahre Urteil ebenfalls für falsch erklärt.
Die Begründung für diese merkwürdige Meinung ergibt sich in der klassischen
Logik aus deren Zweiwertigkeit. Man schloß einen „dritten Wahrheitswert“ aus
der Logik aus und hielt das damit Behauptete für „unvorstellbar“ bzw. „absurd“.
Die mathematische Logik bzw. „Aussagenlogik“ übernahm diese Meinung und
begründete sie mit der (Frege-Tarski) Unterscheidung von Sinn und Metasinn
bzw. „Sinn“ und „Bedeutung“ von Aussagen. Der „Metasinn“ von widerprüchlichen Aussagen wurde dogmatisch als „falsch“ definiert, um damit überhaupt ein
formales Falschheitsmerkmal auszuzeichnen. Und dies u. a. auch deshalb, weil
man davon ausging, es ließe sich kein rein formallogisches Merkmal für (einfache, nicht-widersprüchliche) falsche Behauptungen angeben. Wie oben gezeigt,
ist dies in der pyramidalen Formalisierung möglich.
Auch die Urteilsalternativen (z. B. alle AB sind entweder A oder Nicht- A / alle
AB sind entweder AC oder nicht-AC) sind wahr-falsche Urteile. Sie ergeben sich
durch Einsetzen eines nicht wahrheitswertfähigen alternativen Ausdrucks als
Prädikat in ein kopulatives oder implikatives Urteil, welches dadurch Wahrheitswerte erhält. Der alternative Prädikatsausdruck bedeutet dann aber nur, daß die
durch „entweder … oder“ verknüpften Prädikatsbegriffe in einem dihäretischen
Nebenartverhältnis zueinander stehen. Das kopulative Urteil mit einem alternativen Prädikat behauptet deshalb nur, daß einer der beiden Prädikatsbegriffe auf
den Subjektsbegriff zutrifft (was als „wahr“ gilt) und deshalb der andere nicht
zutrifft (was als „falsch“ gilt).
Ein alternatives Urteil ist allerdings nur sinnvoll zu benutzen, wenn grundsätzlich unbekannt ist, welcher Prädikatsteil zutrifft und welcher nicht. Dagegen
wird in der Praxis häufig verstoßen. So besagt etwa die sogenannte Abtrennungsregel, daß man von einem alternativen Prädikat jeden der beiden PrädikatsBegriffe als „wahr“ annehmen und damit weitere wahre Urteile bilden könne. Und
dies eben deswegen, weil das alternative Urteil insgesamt wahr sei. Darauf beruhen viele Fehler und Irrtümer bei der Anwendung der Urteilsalternative auf
Sachverhalte.
Die Meinung, daß alternative Urteile ohne Rücksicht auf inhaltliche Sachverhalte wahr seien, ist in der klassischen und modernen Logik seit jeher dogmatisch festgehalten worden. Eine Begründung dafür ist die, daß der AlternativenJunktor (das ausschließende Oder) den Sinn einer Negation des Und-Junktors
(„oder = nicht und ...“) hat. Und da die Und-Verknüpfung sich widersprechender
Behauptungsanteile als formal „falsch“ gilt, gilt die Negation dieser Falschheit
schon deswegen als formale Wahrheit. Da man in der Form alternativer Behauptungen demnach immer eine Wahrheit aussprechen können soll, ist die Urteilsalternative eine der beliebtsten Formulierungsformen in den Wissenschaften
geworden. Sie erlaubt es, durch alternative Urteile stets recht zu behalten ohne
Rücksicht auf inhaltliche Sachverhalte.
120
Die mathematische (Aussagen-) Logik definiert für die Aussagenalternative
auch „falsche Wahrheitswerte“, nämlich wenn beide Prädikatsteile wahr oder
beide falsch seien. Dadurch werden aber nur „Nicht-Alternativen“ und nicht etwa
falsche Alternativen definiert. In der mathematischen Logik sind daher die „falschen Alternativen“ zugleich nicht-alternative Alternativen.
Im Gegensatz zur (vermeintlichen) Absurdität der widersprüchlichen Behauptung behauptet die (echte) Alternative nur das Nichtwissen darüber, welcher
Behauptungsanteil wahr und welcher falsch ist (d. h. die Unentschiedenheit oder
Unentscheidbarkeit). Sie kann also, wie schon gesagt, nur im Falle solchen Nichtwissens sinnvoll gebraucht werden. Und deshalb ist sie die logische Form „möglicher Antworten“ auf präzise Forschungsfragen, die eine Entscheidung über den
wahren bzw. falschen Behauptungsanteil erbringen sollen.
In der neuzeitlichen Logik sind auch sogenannte Wahrscheinlichkeitsurteile
mehr und mehr in den Vordergrund des Interesses der Logiker getreten. Trotz
ihrer Verbreitung im Forschungsbetrieb ist ihre logische Natur noch keineswegs
angemessen geklärt worden. Sie sind durchweg Vermutungen (Konjekturen bzw.
Hypothesen) im Gewande von Behauptungen. Das läßt von vornherein auf ihren
dialektischen Charakter schließen.
Was man vermutet, weiß man bekanntlich gar nicht oder nicht genau. Deshalb
formuliert man Vermutungen alltagssprachlich im Konjunktiv („es könnte sein
daß ...“). Ihr Gegenstandsbereich ist hauptsächlich alles Zukünftige, daneben aber
auch gegenwärtig mehr oder weniger Unbekanntes. Niemand, der seine Alltagssprache und ihre Grammatik beherrscht, wird die Konjunktivsätze mit Behauptungen verwechseln.
Obwohl Aristoteles in seiner zweiwertigen Logik die Behauptungssätze zum
Substrat von Wahrheit und Falschheit gemacht hatte, hat er aber auch Vermutungen (über die „possibilia futura“, d. h. zukünftig Mögliches) in seiner Modallogik
in Behauptungsformen ausgedrückt. Bekanntlich gibt es seither weder in der
Logik noch in der Mathematik konjunktivische Satzformen. Um gleichwohl dem
Nichtwissen in den Vermutungen Rechnung zu tragen, hat man die aristotelische
Modallogik zur dreiwertigen Logik erweitert. Der sogenannte „dritte Wahrheitswert“ ist jedoch gerade das, was Aristoteles aus der zweiwertigen Logik ausschließen wollte, nämlich das „Dritte“ neben Wahrheit und Falschheit.
Die Bezeichnung für dieses Dritte neben Wahrheit und Falschheit, also die
„Wahrscheinlichkeit“, wuchs den damit verbundenen Problemen erst in der
Neuzeit zu. Noch Joachim Jungius konnte in seiner „Logica Hamburgensis“ von
1681 die Wahrscheinlichkeit mit der Wahrheit gleichsetzen. Er definierte: „Wahrscheinlich ist, was von den Meisten oder Klügeren gebilligt, d. h. als wahr eingeschätzt wird“.63 Von daher ist dem Wahrscheinlichkeitsbegriff auch später stets
die Wahrheitsnähe vindiziert worden.
63
„Probabile verum est, quod plerisque aut sapientioribus probatur, hoc est verum censetur“, Joachim Jungius, Logica
Hamburgensis, hgg. v. R. W. Meyer, Hamburg 1957, S. 2 und S. 403.
121
Kant widmete der Wahrscheinlichkeit ein Kapitel seiner Logikvorlesungen und
definiert sie schon etwas einschränkender als „ein Fürwahrhalten aus unzureichenden Gründen ..., die aber zu den zureichenden ein größeres Verhältnis haben,
als die Gründe des Gegentheils“64. Er unterscheidet dabei zwischen der „mathematischen Wahrscheinlichkeit (probabilitas)“, die „mehr als die Hälfte der Gewißheit sei“ (ibid. S. 91), und der „bloßen Scheinbarkeit (verisimilitudo); einem Fürwahrhalten aus unzureichenden Gründen, insofern dieselben größer sind als die
Gründe des Gegentheils“ (ibid. S. 90). Bei letzterer entfällt jeder „Maßstab der
Gewißheit“. Daher könne es auch keine „Logik der Wahrscheinlichkeit (logica
probabilium)“ geben, „denn wenn sich das Verhältnis der unzureichenden Gründe
zum zureichenden nicht mathematisch erwägen läßt, so helfen alle Regeln nichts“
(ibid. S. 91).
Kants Hinweis auf den Unterschied zwischen logischer und mathematischer
Wahrscheinlichkeit wurde freilich nicht beachtet. Wohl aber wurde durch ihn die
(falsche) Meinung verstärkt, daß die (mathematische) Wahrscheinlichkeit näher
bei der Wahrheit als bei der Falschheit sei.
Kant sah jedenfalls ganz richtig, daß auf den „Schein der Wahrheit“ kein Verlaß
ist, und daß hinter dem Schein durchaus auch die Falschheit versteckt sein könnte.
Genau das ist auch der Fall. „Wahrscheinlichkeit“ ist eine recht euphemistische
Bezeichnung für den dritten Wahrheitswert geblieben, der diesen Namen nicht
verdient. Denn was nur „wahr erscheint“, kann ebensowohl „falsch“ sein. Und um
dies zu benennen, fehlt es noch bislang an einem Begriff von „Falschscheinlichkeit“.
Logisch betrachtet ist die Wahrscheinlichkeit dasselbe wie Falschscheinlichkeit.
Und das kann man etwas strikter als „Wahr-Falschheit“ bezeichnen. Was das ist,
haben wir schon ausführlich als die logische Form des Urteilswiderspruchs behandelt.
Der widersprüchliche Charakter der Wahrscheinlichkeitsurteile zeigt sich zunächst darin, daß sie Vermutungen (also Nicht-Behauptungen) im Gewande von
Behauptungen sind. Dann aber auch darin, daß sie (wie die Alternativen) ein
Nichtwissen als Wissen „erscheinen“ lassen. Zeigen wir dies am Beispiel von
prognostischen Wahrscheinlichkeitsurteilen.
Werden Wahrscheinlichkeits-Prognosen als Urteile behandelt (was durchaus
problematisch ist), so sind sie wahr-falsche Konjunktionen bzw. Adjunktionen
einer positiven und einer negativen Aussage über denselben zukünftigen Sachverhalt. Erweist sich die positive Aussage als wahr (sogenannte Verifikation, was
freilich nicht in der Zukunft, sondern in der Gegenwart festgestellt wird, wenn die
Prognose nicht mehr Prognose ist!), so war die negative falsch. Erweist sich die
negative Aussage als wahr (sog. Falsifikation), so war die positive Aussage
falsch.
64
I. Kant‟s Logik. Ein Handbuch zu Vorlesungen, hgg. v. G. B. Jäsche, erl. v. J. H. v. Kirchmann, Leipzig 1876, S. 90.
122
Der logische Musterfall dieser Verhältnisse ist der Münzwurf. Man weiß mit
Sicherheit, daß die geworfene Münze Bild oder Zahl zeigen wird, aber man weiß
nicht, welche Seite sich zeigen wird. Wenn die Münze auf dem Rand stehen
bleibt, gilt dies nicht als Münzwurf. Die logische und zugleich mathematische
Formulierung des Falles aber lautet: die Wurfergebnisse stehen im Verhältnis von
1 : 1 (oder „fifty-fifty“). Man beachte dabei, daß es sich bei dieser Formulierung
um eine Proportion (wie beim Fußballspiel), keineswegs aber um einen ausrechenbaren Quotienten handelt.
Man sieht, daß die Wahrscheinlichkeiten (auch „Chancen“ genannt) für den
einen und den anderen Fall der Münze gleichverteilt sind. Man kann auch sagen:
Wahrheit und Falschheit der Prognose sind im Gleichgewicht. Was wiederum
bedeutet, daß man mittels der logischen Wahrscheinlichkeit überhaupt nichts über
das prognostizierte Ergebnis behaupten kann.
Mathematiker berechnen die „statistische Wahrscheinlichkeit“ mittels ausgerechneter Quotienten. So ergeben sich Wahrscheinlichkeits- (oder „Risiko-“) Koeffizienten. Darüber soll im § 10 mehr gesagt werden. Jedenfalls kann schon
festgehalten werden, und jedes Beispiel numerischer Wahrscheinlichkeiten zeigt
es, daß die logische Halbe-Halbe-Wahrscheinlichkeit immer auf alle mathematischen („statistischen“) Wahrscheinlichkeiten durchschlägt. Letztere mögen hoch
oder niedrig sein, das Ergebnis ist im Einzelfall immer gänzlich unbestimmt.
Selbst das Höchst-Wahrscheinliche passiert manchmal gerade nicht, und das
Unwahrscheinlichste passiert.
Deshalb kann man mit Wahrscheinlichkeitsaussagen – je nach Standpunkt –
immer Recht behalten oder immer falsch liegen.
Analytische Funktionsgleichungen sind, wie die Bezeichnung besagt, Gleichungen
und als solche Definitionen. Gegenstand der Definitionen waren (und sind) in der
analytischen (cartesischen) Geometrie die gemeinsamen Punkte, die durch die
Zahlvariablen der zwei (flächenbestimmtenden) oder drei (raumbestimmenden)
cartesischen Koordinaten dargestellt werden. Was wir hierbei Definitionsgleichungen genannt haben, wird in der Terminologie der analytischen Geometrie als
„Abbildung“ (d. h. ein-eindeutliche Zuordnung) von Variablenwerten (gewöhnlich von y-Werten zu x-Werten in der cartesischen Fläche) verhandelt. Die numerischen Ausdrücke mit den Variablen x und y links und recht des Gleichheitszeichens beziehen sich auf einen Punkt oder alle Punkte auf einer Kurve als ihre
gemeinsame Bedeutung.
Die Ausweitung der euklidisch-cartesianischen Geometrie auf nicht-euklidische
Räume und mehrdimensionale Zahlordnungen hat inzwischen die ursprünglichen
geometrischen Veranschaulichungen der Funktionszusammenhänge in den Gleichungen weit hinter sich gelassen. Das führte zur Entwicklung rein arithmetischer
algebraischer Funktionen. Zwar versucht man auch für diese - oft aus didaktischem Interesse – geometrische Veranschaulichungen (sog. Graphen) zu finden,
aber das ist nur noch beschränkt möglich. Bei komplizierteren Funktionen geht
123
die Gleichungseigenschaft der ein-eindeutigen Zuordnung der Variablenwerte
verloren. Die numerische Analysis ist daher dazu übergegangen, die Gleichungsnotation zugunsten einer korrelierenden Implikation aufzugeben. Statt y = f(x)
formalisiert man „y → f(x)“ d. h. “wenn x dann ein anderer (nur in Ausnahmefällen derselbe) Zahlenwert von y“.65 Darin deutet sich ein grundsätzlicher
Übergang der Funktionentheorie von der Definition ihrer numerischen Ausdrücke
zu (hypothetischen bzw. kreativen) Behauptungen in der Form korrelierender
Implikationen über das Vorliegen von existierenden neuen numerischen Gebilden
an.
7. Schlüsse.
Implikative Urteile sind zugleich einfachste Schlüsse. Komplexe Schlüsse, auch
Argumente genannt, sind Urteilsverbände, wie die aristotelischen Syllogismen
und die stoischen (chrysippschen) Schlüsse.
Man bemerke, daß sich bei den Urteilsimplikationen als einfachsten Schlüssen
nicht die Frage nach einem „falschen“ ersten oder zweiten Schlußglied stellen
kann, da diese selbst nur Begriffe, jedoch keine wahrheitswertfähigen Urteile sind.
Aristotelische Syllogismen sind Argumente aus drei Begriffen, deren intensionale und extensionale Verflechtungen in einer Begriffspyramide durch Urteile
und/oder Definitionen klar und deutlich dargestellt werden. Ihre Subsumptionsverhältnisse im Gattungs-Art-Individuum-Zusammenhang werden durch die Kopula bzw. die materiale Implikation (oder beides zusammen) von unten nach oben,
oder (wie oft bei Aristoteles) durch das spezielle „Zukommen“ bzw. die formale
Implikation (oder beides zusammen) von oben nach unten dargestellt. Ihre Unterscheidungen von Nebenbegriffen werden durch die Negation dargestellt.
Da hierbei alles auf die Unter- und Nebenordnung der drei Begriffe des Syllogismus ankommt, spielen in den aristotelischen Syllogismen die Quantifikationen die Hauptrolle. Die Nebenordnung kann durch die Negation eines Begriffs („kein ... ist“) oder durch die Negation der Kopula („.... ist nicht“) dargestellt werden. Die in vielen aristotelischen Syllogismen enthaltenen sogenannten partikulären bzw. individuellen Urteile sind als Definitionen zu lesen (statt
„ist“ lies „das heißt“).
Alle klassischen Syllogismen des Aristoteles lassen sich auf drei Verknüpfungsschemata zurückführen. Diese sind nicht mit den sog. syllogistischen Figuren des
Aristoteles zu verwechseln. Sie sehen folgendermaßen aus:
65
R. Knerr, Goldmann Lexikon Mathematik, München 1999, S. 131.
124
Die drei Schemata der aristotelischen Syllogismen
1.
Leiter
2. Riß
3. Spitze
A
A
AB
ABD
AB
AC
AB
AC
ABD
Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund
Erklärung: In der „Leiter“ wird eine Unterart bzw. ein Individuum mit einem
Artbegriff, dieser mit seiner Gattung und im engeren „Schluß“ ersteres mit letzterem verknüpft. Im Beispiel: Alle Hunde sind Tiere. Alle Tiere sind Lebewesen.
Also sind alle Hunde Lebewesen (modus barbara).
Im „Riß“ werden Unterart und Artbegriff verknüpft und beide durch Negation
von einer Nebenart unterschieden. Im Beispiel: Alle Hunde sind Tiere. Kein Tier
ist Pflanze. Also ist keine Pflanze Hund (modus calemes).
In der „Spitze“ werden zwei Artbegriffe gegeneinander abgegrenzt und mit ihrer
Gattung verknüpft. Im Beispiel: Kein Tier ist Pflanze. Alle Tiere sind Lebewesen.
Also sind (eigentl. =) einige Lebewesen Nicht-Pflanzen (modus felapton). Der
Schluß i. e. Sinn ist eine Definition von „Tier“ durch Negation der Nebenart
„Pflanze“!
Die von Aristoteles als „gültig“ dargestellten und in einem berühmten Merkspruch benannten Syllogismen spielen sämlich in diesen Figuren. Jedoch sind
nicht alle echte Syllogismen, da in einigen mittels negativer Definitionen mit
mehr als drei Begriffen „gespielt“ wird.
Die sogenannten stoischen Schlüsse (Chrysipps fünf „Unbeweisbare“ bzw.
„Indemonstrablen“) sind Argumente, in denen zwei Begriffe in einem pyramidalen Zusammenhang gemäß den möglichen junktoriellen Verknüpfungen eingeführt („es gibt...“) oder eliminiert werden („es gibt nicht...“). Sie bestehen aus
einem hypothetischen bzw. nicht-behauptenden Anteil (falls es gäbe, ... so gäbe es
auch …), der sprachlich im Konjunktiv formuliert wird, und einem behauptenden
Anteil, den im engeren Sinne sogenannten Schluß (nun gibt es... also gibt es … /
gibt es nicht …).
Der Einführung oder Eliminierung eines Begriffs in den oder aus dem pyramidalen Formalismus entspricht gemäß dem nicht-formalen Logikverständnis der
Stoiker die inhaltliche Behauptung oder Negierung der wirklichen Existenz von
Gegenständen, die unter den jeweiligen Begriff fallen. Die Schlüsse i. e. S.
behaupten daher die Existenz oder die Nichtexistenz des unter den einen Begriff
125
Fallenden in Abhängigkeit von der Existenz oder Nichtexistenz von Gegenständen, die unter den anderen Begriff fallen (sog. modus ponens und modus tollens).
Gemäß der universaldeterministischen Ontologie der Stoiker lassen sich ihre
Schlüsse nur auf die logische Klärung des Verhältnisses von Ursache und
Wirkung bzw. von Wirkung und Ursache beziehen. Das Kausalverhältnis setzt
(worauf Sextus Empirikus besonders hinweist 66 ) stets ein zeitliches Verhältnis
voraus: Die Ursache geht zeitlich voraus, die Wirkung folgt zeitlich nach. Ein
Ursache-Wirkungsverhältnis kann aber, wie vorn gezeigt wurde, nur durch die
korrelierende Implikation zwischen Nebenartbegriffen dargestellt werden. Denn
weder kann die Gattung Ursache für Unterbegriffe noch können Unterbegriffe
Ursache für ihre Gattungen sein. Nur so erklärt sich der Sinn der fünf „unbeweisbaren“ Schlußformen des Chrysipp. Diese lassen sich so formulieren:
a. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im diskutierten Beispielsfall) eine Ursache. Also gibt es (auch) eine Wirkung (modus ponens).
b. Falls es eine Ursache gäbe, dann würde es eine Wirkung geben. Nun gibt es (im
diskutierten Beispielsfall) keine Wirkung. Also gibt es (auch) keine Ursache (modus
tollens).
c. Es gäbe nicht (gleichzeitig) eine Ursachen und eine Wirkung. Nun gibt es aber eine
Ursache. Also gibt es (noch) nicht eine Wirkung.
d. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Beispielsfall eine Ursache. Also gibt es (noch) keine Wirkung.
e. Entweder gäbe es eine Ursache, oder es gäbe eine Wirkung. Nun gibt es (im Beispielsfall) keine Wirkung. Also gibt es (erst nur) eine Ursache. 67
Der Orientierung der stoischen Schlußlehre am Ursache-Wirkungszusammenhang
kann man entnehmen, daß diese Schlußformen in der Wissenschaft eine Hauptform der logischen Methode zur Entdeckung (oder Widerlegung) der Existenz von
Kausalfaktoren geworden ist.
Beispiel ist die langwährende Debatte der Stoiker über die Existenz des (demokriteischen) Leeren bzw. des leeren Raumes, den sie gegen die aristotelische
Bestreitung („horror vacui“ der Natur) zu beweisen suchten. Sie schlossen von der
Existenz sichtbarer Schweißperlen auf der Haut, daß es auch unsichtbare „Poren“
in der Haut geben müsse, durch welche die Schweißperlen austreten. Das Beispiel
zeigt zugleich, daß die Kausalforschung der Stoiker eine Grundlage für die Suche
nach „unbeobachtbaren Parametern“ (wie den unbeobachtbaren Kräften in der
Physik) geworden ist.
66
Sextus Empiricus, Pyrrhoneische Grundzüge, aus dem Griechischen übersetzt und mit einer Einleitung und Erläuterungen versehen von Eugen Pappenheim, Leipzig 1877, 3. Buch Kap. 3,26, S. 170.
67
Vgl. die Darstellung der fünf „Unbeweisbaren“ bei J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg-München 1970,
S. 145f.
126
Die sogenannte Aussagenlogik
Die moderne Aussagenlogik steht zwischen der traditionellen Urteilslehre und der
Schlußlehre. Es werden beliebige inhaltliche Urteile („Aussagen“ bzw. sog. Elementarsätze als Beispielsfälle) in die Begriffspositionen eingesetzt, so daß die
Junktoren nicht mehr Begriffe, sondern selbständige wahre oder falsche Urteile zu
komplexen Aussagen verknüpfen. Diese komplexen Aussagen ähneln den Verknüpfungen von Urteilen zu Schlüssen.
Für die komplexen Aussagen werden je nach den darin verwendeten Junktoren
eigene Wahrheitswerte („wahr“ oder „falsch“; ein dritter Wahrheitswert wird
strikt ausgeschlossen) definiert bzw. festgesetzt. Die vorne satzbildende Junktoren
genannten Operatoren behalten ihre traditionellen (von den Stoikern detaillierter
als bei Aristoteles ausgearbeiteten) Definitionen.
Die ausdrucksbildend genannten Junktoren erhalten in der Aussagenlogik ebenfalls Wahrheitswert-Definitionen, deren Sinn rätselhaft erscheint und deshalb umstritten ist. Dies kann nicht verwundern, weil sie gar keinen Wahrheitswert besitzen können. Die für die Definitionen aller Junktoren aufgestellte „Wahrheitswerttabelle“ 68 gilt als bedeutende Errungenschaft der modernen Logik. Obwohl
sich Wittgenstein selbst später vom damaligen Stand seiner Philosophie distanziert
hat, gehört der „Tractatus“ noch immer zum obligatorischen Lehrstoff der Logikseminare.
Die Aussagenlogik beruht auf zahlreichen fehlerhaften Annahmen, die mehr
Probleme in der Logik aufgeworfen als gelöst haben.
Die grundlegende (falsche) Voraussetzung ist das Vorurteil, die Logik insgesamt
sei eine Meta-Sprache. D. h. ihr „Vokabular“ (Variable und Junktoren) und ihre
„Grammatik“ (die Regeln der Verknüpfung der Vokabeln und Junktoren zu „Aussagen“) erzeuge eine autonome logische Bedeutungsschicht mit eigenständiger
Wahrheit und/oder Falschheit über dem Bedeutungsbereich der normalen und der
inhaltlichen wissenschaftlichen Bildungssprachen, die jeweils ihre eigenen Wahrheitswerte besitzen. Das hat vielfach widersprüchliche oder gar paradoxe Folgen.
Sie bestehen darin, daß die definierten Wahrheitswerte der Meta-Sprache selbst in
Widerspruch zu den Wahrheitswerten der Beispielsätze geraten.
Wittgenstein hat selbst den Terminus „Elementarsatz“ eingeführt, aber niemals
ein Beispiel für einen Elementarsatz geliefert. Aus seiner Definition: „Der Elementarsatz besteht aus Namen. Er ist ein Zusammenhang, eine Verkettung, von
Namen“ (Tractatus 4.22) kann man aber schließen, daß er mathematische Ausdrücke wie Summen, Quotienten, Produkte und ihre „Verkettungen“ für wahrheitswertfähige Behauptungssätze hielt. Das ist jedoch, wie gezeigt wurde, falsch.
68
Vgl. L. Wittgenstein im Tractatus logico-philosophicus. 1920/21 Satz 5.101, in: L. Wittgenstein, Tractatus logicophilosophicus. Logisch-philosophische Abhandlung, Frankfurt a. M. 1963, S. 60. – Vgl. dazu die Darstellungen bei J. M.
Bochenski und A. Menne, Grundriß der Logistik, 4. Aufl. Paderborn 1973, S. 36f. sowie W. Stegmüller, Probleme und
Resultate der Wissenschaftstheorie und Analytischen Philosophie, Band I: Wissenschaftliche Erklärung und Begründung,
Berlin-Heidelberg-New York 1969, S. 6 - 25.
127
Eine weitere (falsche) Voraussetzung Wittgensteins besteht darin, daß die in der
Aussagenlogik verknüpften „Elementarsätze“ (Basissätze) keinerlei thematischen
Kontext zu besitzen brauchen. Was Aristoteles durch den „Mittelbegriff“ als Zusammenhang zwischen Prämissen und Folge garantiert hatte, ist also fallengelassen worden. Das aber hat u. a. zur Folge, daß auch die Abfolge von Vorderund Hintersätzen (bzw. von Prämissen und Folgerungen) willkürlich gewählt
werden kann.
So lehrt die Aussagenlogik, die gewöhnlich beliebige Behauptungssätze als
Elementarsätze verwendet, z. B. folgende metasprachliche „Wahrheiten“: Werden
ein beliebiger wahrer und ein ebenfalls beliebiger falscher Satz durch den Junktor
„und“ zu einem aussagenlogischen Argument verknüpft, so hat das Argument insgesamt den Wahrheitswert „falsch“. Werden ein beliebiger wahrer Satz und ein
beliebiger falscher Satz durch den Junktor „oder“ (hier ist das ausschließende
„entweder ... oder“, die Alternative, gemeint) zu einem Argument verknüft, so hat
das Argument den Wahrheitswert „wahr“. Wird ein beliebiger falscher Satz und
ein beliebiger wahrer Satz durch den Junktor „wenn ... dann“ (Implikation) zu
einem Argument verknüpft, so hat das Argument den Wahrheitswert „wahr“.
Wird in umgekehrter Reihenfolge ein beliebiger wahrer und ein beliebiger
falscher Satz durch den Implikationsjunktor zu einem Argument verknüpft, so hat
das Argument den Wahrheitswert „falsch“. Und werden zwei beliebige falsche
Satze durch den Implikationsjunktor zu einem Argument verknüpft, so hat das
Argument den Wahrheitswert „wahr“.
Die Formen dieser Argumentbildungen erscheinen nur deshalb in einigen Hinsichten als plausibel, weil sie die Urteilsbildung der klassischen Logik nachahmen. Aber der Schein trügt.
Es wurde vorn schon gezeigt, daß in der klassischen Urteilslehre ausdrucksbildende Junktoren ohne Wahrheitswert und satzbildende Junktoren, die den
Wahrheitswert bestimmen, zu unterscheiden sind. Gerade diese grundlegende
Unterscheidung wird in der Aussagenlogik außer acht gelassen. Nimmt man die
Voraussetzungen der Aussagenlogik beim Wort, so muß man z. B. ganze Bücher
voller falscher Sätze mit einer daraus gefolgerten falschen These für „wahr“ halten. Und das kommt in den Wissenschaften nicht selten vor (und wird durch die
Aussagenlogik gleichsam abgesegnet). Der entscheidende Fehler, der viele andere
nach sich zieht, ist also der, den ausdrucksbildenden Junktoren bzw. Operatoren
generell und speziell auf der Meta-Ebene Wahrheitswerte zuzusprechen.
Geben wir noch einige Beispiele dieses Fehlers, die sich aus dem MetaEbenenansatz ergeben. So muß z. B. eine „alternative“ Verknüpfung zweier beliebiger wahrer Sätze (mit „entweder ... oder“) wie „entweder ist Paris die Hauptstadt
von Frankreich oder die Erde ist ein Planet“ für falsch gehalten werden. Man
bemerkt aber, daß es sich nicht um eine falsche, sondern überhaupt nicht um eine
Alternative handelt.
Ebenso gilt die Konjunktion (mit „und“) eines falschen und eines wahren Satzes
wie „Paris ist die Hauptstadt von Deutschland und die Erde ist ein Planet“ (ebenso
128
in umgekehrter Reihenfolge) als falsch. Zu verstehen dabei ist allenfalls, daß die
Konjunktion nach dem Muster der Widerspruchsfalschheit für falsch gehalten
wird, obwohl es sich keineswegs um einen echten Widerspruch handelt. Es
handelt sich vielmehr um eine bloße Nebeneinanderstellung eines selbständigen
wahren und eines falschen Satzes. Man sieht dabei nicht ein, warum die beiden
Sätze noch einen übergeordneten Meta-Wahrheitswert haben sollten.
Formalisiert man die Beispielsätze selbst (üblicherweise mit den Variablen für
ganze Behauptungssätze „p“ (= wahrer Satz) und „-p“ (falscher Satz), so verkennt
der gesamte Meta-Sprachenansatz und mit ihm die Aussagenlogik, daß durch
diese Formalisierung (p bzw. –p) der inhaltliche Beispielsatz seine eigene wahre
oder falsche Satz-Bedeutung verliert und ein nicht wahrheitswertfähiger Ausdruck
an seine Stelle tritt. „Wahrer Satz“ bzw. „falscher Satz“ sind nicht selbst wahre
oder falsche Behauptungen, sondern Bezeichnungen eines (logischen) Sachverhaltes. Dies ebenso wie die nebeneinandergestellten Ausdrücke „weiße Kuh
und schwarze Kuh“.
Die Aussagenlogik ist entwickelt worden, um komplexe Satzverknüpfungen als
Argumente formalisieren zu können. Tatsächlich lassen sich die behauptenden
komplexen Urteile (also solche mit satzbildenden Junktoren) in der Regel auf
syllogistische und stoische Schlußformen zurückführen. Als Hauptjunktor verwendet man dann die Implikation (wenn ... dann) und interpretiert die damit
verknüpften Aussagen nach der scholastischen Faustregel: „Ex falso seqitur quodlibet“ (Aus dem Falschen folgt Beliebiges, d. h. Wahres und Falsches) und „Verum sequitur ex quolibet“ (Wahres folgt aus Beliebigem, d. h. aus Wahrem und
aus Falschem).
Diese Faustregeln, die aus der scholastischen Syllogistik in die Aussagenlogik
übernommen worden sind, machen aber nur Sinn, wenn das „Beliebige“ als Widerspruchsfalschheit (also als wahr und falsch zugleich) verstanden wird. Nur
wenn ein widersprüchliches Urteil wahr und falsch zugleich ist, kann sowohl
Wahres als auch Falsches daraus gefolgert werden. Und ebenso folgt das Wahre
nur dann aus Beliebigem, wenn das „Beliebige“ ebenfalls als widersprüchliches
Urteil sowohl wahr als auch falsch zugleich ist und damit das Wahre mitenthält.
Diese – eigentlich auf der Hand liegende – restriktive Bedingung für das Funktionieren solcher Schlüsse hat aber weder die scholastische Logik noch die Aussagenlogik anerkannt. Als logisches „Falsum“ wurden und werden einfach falsche
Beispielsätze (anstatt widersprüchliche Sätze) in die Faustregel-Schemata eingesetzt, und man wundert sich dann oft über die Schlußfolgen.
Dieser traditionelle Fehler verbindet sich schließlich mit dem durch die Aussagenlogik neu eingeführten weiteren Fehler, den wir schon genannt haben. Er
macht sich auch in den gerade genannten Beispielssätzen bemerkbar. Er besteht
darin, daß bei der Formalisierung der Argumente auf jeden begrifflichen Zusammenhang zwischen den Argumentsätzen verzichtet wird. Dieser „kontextuelle“
Zusammenhang bleibt jedoch für jede Schlußbildung eine wesentliche Bedingung.
In der Aussagenlogik wird aber aus beliebigen Sätzen und Ausdrücken und ihren
129
Verknüpfungsweisen durch die Junktoren auf die Wahrheit oder Falschheit des
Gesamtarguments geschlossen. Deshalb kann man auch nur aus der Aussagenlogik (nicht aber aus einem aristotelischen Syllogismus) den „wahren Schluß“
lernen: „Wenn 4 eine Primzahl und Berlin die Hauptstadt von Frankreich ist, dann
ist die Erde kein Planet“. Pfiffige Geister können daraus den moralischen Schluß
ziehen: Glaubwürdigkeit ergibt sich auch durch konsequentes Lügen.
Die von L. Wittgenstein vorgeschlagene Wahrheitswerttabelle von 16 Wahrheitswerten für die Kombination zweier Elementarsätze hat seither durch ihren
mathematischen Charakter der Variation aller möglichen Nebeneinanderstellungen zweier Elementarsätze mit ihnen zugelegten Wahrheitswerten fasziniert. Sie
dürfte der bislang letzte Ausläufer der Lullischen Kunst sein, die darin bestand,
alle Kombinationen von 9 Kategorien mechanisch zu erzeugen.69
Nach allem, was vorn über die logische Leistungsfähigkeit der Junktoren gesagt
wurde, dürfte klar sein, daß die Wahrheitswertdefinitionen der Aussagenlogik sich
insgesamt dem mathematischen „dialektischen“ Prozedere verdanken.
Daher wird z. B. die Kopula, sicher der wichtigste, weil in der Logik meistgebrauchte Junktor, überhaupt nicht definiert, sondern mit dem Gleichheitszeichen
und dem Existenzjunktor gleichgesetzt (Tractatus 3.323). Die vieldiskutierte
„Tautotologie“ mit dem Wahrheitswert „immer wahr“, mit der Wittgenstein gar
das Wesen der Logik erfaßt haben wollte, besteht in einer (nicht wahrheitswertfähigen) Konjunktion zweier (widersprüchlicher) Selbstimplikationen („Wenn
p, so p; und wenn q so q“).70 (Die „Kontradiktion“ mit dem Wahrheitswert „immer falsch“, wird gleichsam spiegelbildlich als Konjunktion zweier widersprüchlicher Satzvariablen dargestellt („p und nicht p; und q und nicht q“). Es sei
dem Leser überlassen, sich über den Unterschied der logischen und mathematischen Denkweise anhand solcher Belege weiter klar zu werden.
8. Theorie
Theorien sind logisch geordnete Begriffspyramiden über einem abgegrenzten Erfahrungsbereich. Basisbegriffe einer Theorie sind unterste Artbegriffe bzw. Beschreibungstermini oder Eigennamen. Alle anderen Begriffe sind induktiv durch
Weglassen der spezifischen Differenzen und Festhalten der gemeinsamen generischen Merkmale aus diesen zu abstrahieren. Das gilt insbesondere für die höchsten Gattungsbegriffe, die sogenannten axiomatischen Grundbegriffe oder Kategorien der Theorie.
Beachtet man nur die Begriffe einer Theorie, ohne auf die Relationen zwischen
ihren Begriffspositionen Rücksicht zu nehmen, so hat man es mit dem zu tun, was
man als den „harten Kern“ (hard core) einer Theorie bezeichnen kann. Über diese
Begriffe zu verfügen, nennt man wissenschaftliche Kenntnisse. Erst die Notierung
69
Vgl. dazu L. Geldsetzer, Metaphysik. Einleitung und Geschichte der antiken und mittelalterlichen Metaphysik. Internet
des Philosophischen Instituts der HHU Duesseldorf 2009.
70
Vgl. jedoch dazu Tractatus 4.243: „Ausdrücke wie ‚a = a‟, oder von diesen abgeleitete, sind weder Elementarsätze,
noch sonst sinnvolle Zeichen“!
130
und Lesung der satzbildenden junktoriellen Beziehungen zwischen den Begriffen
einer Theorie liefert ihre Behauptungen, die man wissenschaftliche Erkenntnisse
nennt.
Bei Theorien kann es vorkommen, daß nur einzelne ihrer Sätze falsch oder
wahr-falsch sind. Man kann diese, wenn sie erkannt werden, aus der Theorie
durch Umordnung ihrer Begriffspositionen eliminieren.
In der üblichen Praxis und unter der Voraussetzung, daß Satzwidersprüche
„logisch falsch“ seien, hält man eine Theorie jedoch insgesamt für falsch und
widerlegt, wenn sich nur ein oder nur einige Widersprüche darin finden. Da diese
sich aber durch Umstrukturierung ihres pyramidalen Zusammenhanges eliminieren lassen, kann man vorhandene Theorien verbessern. Das erklärt die ebenso
übliche Praxis, bewährte Theorien nicht aufzugeben (was K. Popper jedoch
empfahl), sondern sie zu „retten“ und der Erfahrungslage anzupassen.
Induktiv gewonnene Theorien sind in der Regel widerspruchslos und werden,
wenn dies (evtl. durch Deduktion aller involvierten Begriffe) bestätigt wird, als
wahr akzeptiert. Man muß freilich betonen, daß es tatsächlich wahre Theorien gibt
angesichts der unter Wissenschaftlern verbreiteten Meinung, Theorien könnten
allenfalls wahrscheinlich sein. Letzteres würde nach den hier vorgestellten logischen Prinzipien nur bedeuten, daß sie Widersprüche enthalten.
Viele Theorien werden allerdings rein deduktiv entwickelt. Sie sind in der Regel
anfällig für die absichtliche oder unbemerkte Einführung widersprüchlicher
Begriffe. Die Verknüpfung solcher widersprüchlicher Begriffe liefert dann auch
widersprüchliche Aussagen bzw. Theoreme dieser Theorien.
Alle Theoriebegriffe müssen definierbar sein, wie bei der Induktion gezeigt
wurde. Allerdings geht man in der Logik wie in der Mathematik seit Aristoteles
ganz allgemein davon aus, daß die obersten Gattungsbegriffe (axiomatische
Grundbegriffe) nicht definierbar seien. Wir sagten vorne schon: wenn dies so
wäre, würde es sich dabei nicht um Begriffe handeln. Und in der Tat werden sie
auch durch „Intuitionen“ eingeführt, die keinen Anspruch darauf machen, als
Begriffe akzeptiert zu werden. Das hält die üblichen Theorien gewissermaßen
lebendig und jeweils offen für vielfältige Interpretationen.
Als Beispiele für eine induktiv konstruierte Theorie in Form einer Begriffspyramide sei hier zunächst eine formale und zugleich semiformale Darstellung der
Hauptgedanken der „Phänomenologie des Geistes“ von Hegel vorgestellt. Semiformal heißt: anstelle der Intensionen-Variablen sind die inhaltlichen Begriffe
Hegels in die Begriffspositionen eingetragen.
131
Die „Theorie“ der Hegelschen „Phänomenologie des Geistes
A
Erinnerung
absoluter Geist
Vern. Wissen
AB
Selbstbewußt
sein,Person
ABD
unglückl. Bewußtsein
ABDF
Totes Äußeres, Sinne
ABDFHI
Wahrnehmung
ABDFH
Täuschung
Allgemeines
Dieses, sagen
ABDFHJ
Ding, Objekt
ABDFHJK
Erfahrung
ABDFG
Begreifen
Begriff
ABDFI
Einzelnes,
Meinen
ABDE
Handeln
Begierde
ABDG
Inneres Leben
Verstand
ABDGL
Kraft
ABC
Schaffen
Taten
AC
Institutionen
Normen
ABE
freies HerrenBewußtsein
ACP
Sitte
ABEN
"stoisches"
Bewußtsein
ABDGLM
Erklärung
ACQ
Recht
ABEO
"sekptisches"
Bewußtsein
ABDDGM
Gesetz
ABDFHK
Ich, Subjekt
Erläuterung: Hegel beginnt mit der Induktion der „Erfahrung“, in welcher die
beiden sich dihäretisch gegenüberstehenden Instanzen Objekt und Subjekt bzw.
Ding und Ich zu einem dialektischen Begriff verschmolzen sind. „Erfahrung“
enthält die spezifischen Merkmale des Objektiven (…J) und Subjektiven (…K)
gemeinsam. Werden diese weggelassen, so wird der Begriff des „Allgemeinen“
bzw. des als „Dieses … Sagbare“ als Oberbegriff der beiden Ausgangsbegriffe
erreicht. Dem „Allgemeinen“ (…H) steht im Negationsverhältnis gegenüber der
Begriff des „Einzelnen“ (…I) bzw. des nur „Meinbaren“. Allgemeines und Besonderes bzw. das Sag- und Meinbare werden zum dialektischen Begriff dessen,
was zugleich „Wahrnehmung” und „Täuschung“ ist, verschmolzen. Wird von den
gemeinsamen spezifischen Differenzen (…HI) abgesehen („aufheben 1“), gewinnt
man den höheren Begriff des durch die „Sinne wahrgenommenen Äußeren” und
„Toten“ („aufheben 2“). Diesem steht im Negationsverhältnis gegenüber das
durch den „Verstand zu erfassende innere Leben“. Usw. bis zur letzten Induktion
des „absoluten Geistes“ mit seinen „Er-Innerungen“ des gesamten Induktionsprozesses.
Man bemerke, daß Hegel nicht alle Begriffe als „dialektische“ konstruiert,
sondern daß er dialektische Begriffe als eine Stufe der Begriffsinduktion einschaltet. Gelegentlich deduziert er aus der erreichten Stufe weitere Begriffe, wie
sie auf der rechten Seite des Schemas erscheinen.
132
Als Beispiel für eine deduktiv konstruierte Theorie sei eine semiformale Pyramide
der Zahlbegriffe vorgestellt.
Semiformale Dartellung einer logisch begründeten Zahlentheorie
Logische
Quantifikation
Zahlbegriff
Menge
Logisches
Ein = Element
Buchstabenzahl
Variable, Konstante
Kommensurable
rationale Zahl
Null
Positive Zahl
Logisches
Alle = Ganzes
Inkommensurable
komplexe Zahl
Non-standardZahl
Negative
Neg. number
Zahl
ganze
Zahl and
und
Integer
rationale Bruchzahl
ra-
Irrationalzahl
z.B.period.Bruchzahl
irrationale Wurzel
Imaginäre Zahl
Wurzel aus negativer
Zahl
tional fractals
rationale
Bruchzahl
ganze Zahl
„natürliche“ Zahl
ungerade Zahl
nicht halbierbar
gerade Zahl
halbierbar
nmber
Primzahl
nur durch sich
selbst teilbar
Nicht-Primzahl
nicht nur durch
sich selbst teilbar
nmber
Erläuterung: Es handelt sich um den Vorschlag einer logisch begründeten Deduktion des allgemeinen Zahlbegriffs (Menge) und der hauptsächlichen Zahlarten
und Unterarten. Er unterscheidet sich als „logische Deduktion“ ersichtlich von
allen bisher vorgeschlagenen mathematischen Zahldefinitionen. Die Pyramide
stellt bei Lesung der Verknüpfungen zwischen den Begriffspositionen eine Zahltheorie dar.
133
Die in die Elipsen eingezeichneten Begriffe sind logische Quantifikationsbegriffe.
Aus den Begriffen „Eines“ (Element) und „Alles“ (Gesamt) wird der mathematische Grundbegriff „Zahl“ (logisch „Menge“ genannt) fusioniert, der beide
logische Merkmale zugleich enthält. Von diesem dialektischen Zahlbegriff ist der
nichtwidersprüchliche logische Quantifikator „Einige“ zu unterscheiden, der die
mittlere Position in der multiplen Artenreihe „ein, einige, alle“ einnimmt und
deswegen die sich widersprechenden Merkmale des mathematischen Zahlbegriffs
nicht enthält. Alle spezielleren Zahlbegriffe enthalten die widersprüchlichen
Merkmale des Mengen- bzw. Zahlbegriffs als generische Merkmale und sind
deswegen in Rechtecke eingeschrieben. Aus den dihäretisch deduzierten Nebenarten von Zahlen lassen wiederum fusionierte dialektische Zahlbegriffe induzieren, die die spezifischen Differenzen der beiden Nebenarten gemeinsam enthalten,
und deren Extensionen sie gemeinsam umfassen.
Die Deduktion der Primzahlen als „ungerade nur durch sich selbst teilbare“, und
der Nichtprimzahlen als „nicht nur durch sich selbst teilbare ungerade ganze
Zahlen“ ergibt sich aus der – an anderer Stelle ausgeführten – Kritik an der seit
Euklid üblichen Zulassung der 2 und Nichtzulassung der 1 als genuiner Primzahlen.
Corollarium zur Goldbachschen Vermutung:
Die Vermutung von C. Goldbach (1690 – 1764) lautet bekanntlich, daß jede gerade Zahl, die größer als 2 ist, durch die Summe zweier Primzahlen dargestellt werden könne. Die Vermutung kann ersichtlich wegen der üblichen Primzahldefinition nicht entschieden werden.
Die Zulassung der 1 als Primzahl sollte eigentlich selbstverständlich sein. Denn
sie erfüllt die traditionelle euklidische Definition der Primzahlen als „nur durch
sich selbst und die 1 teilbare (natürliche ganze) Zahl“, wie auch Henry Lebesgue
annahm. Daß die 1 als Primzahl zugelassen wird, ist für die Lösung des Problems
ausschlaggebend.
Ob die 2 als Primzahlen zugelassen wird oder nicht, spielt für die Goldbachsche
Vermutung jedoch keine Rolle. Wohl aber, daß die 1 eine ungerade und die 2 eine
gerade Zahl ist. Das Kriterium für eine Lösung liegt in den Primzahlzwillingen
(also Primzahlabständen der Größe 2). Nur mit der 1 als Summand läßt sich zur
Bildung jeder geraden Zahl, die größer als 2 ist, der kleinere Primzahlzwilling zur
„Summe zweier Primzahlen“ ergänzen. Q. e. d.
9. Axiome
Axiome als oberste Gattungsbegriffe werden, wie gesagt, in vielen Wissenschaften
als „unableitbare“ Kategorien des jeweiligen Bereiches vorgestellt. Da sie nach
klassischem aristotelischem Definitionsmuster nicht definierbar sind und diese
Meinung sich allgemein durchgesetzt hat, spricht man mit D. Hilbert von ihrer
impliziten Definition, die sich erst im Verlauf von Deduktionen und Interpretationen aus ihnen herausklären lassen soll.
134
Die definitorische Unbestimmtheit der Kategorien als oberster Gattungen der
wissenschaftlichen Theorien hat seit der Antike den großen Freiraum für Interpretationen dessen geschaffen, was mit ihnen in den jeweiligen Wissenschaften bzw.
Wissenszusammenhängen gemeint sein konnte. Die Fachtermini zur Bezeichnung
der Kategorien konnten sich so über Jahrhunderte konstant erhalten. Die Auslegung ihres Sinnes hat jedoch zu allen Zeiten und bei allen Schulbildungen innerhalb der Disziplinen eine große Variationsbreite gehabt. Die Technik solcher
Auslegungen führte schon in der Spätantike zur Ausbildung sogenannter dogmatischer und zetetischer Hermeneutiken in der alexandrinischen Philologie und von
daher in der Jurisprudenz und Theologie.71
Am deutlichsten hat sich die hermeneutische Methode in der Ausbildung einer
eigenen mathematischen Disziplin „Axiomatik“ zur Geltung gebracht. Ihr Gründer
war David Hilbert. Er reklamierte in einem berühmt gewordenen Dictum „jeden
Gegenstand des wissenschaftlichen Wissens“ in einer ausgereiften Theorie als
„Gegenstand der axiomatischen Methode“ und somit „indirekt als Gegenstand der
Mathematik“.72
Dieser axiomatische Aufbau der Mathematik geht von vornherein davon aus,
daß die axiomatischen Grundbegriffe der Mathematik grundsätzlich nicht definierbar seien, sondern daß sich ihr Sinn erst in den Interpretationen offenbare. Kompensatorisch dazu hat die Mathematik jedoch eine Reihe von Kriterien entwickelt,
die zur Auszeichnung und Bestimmung derjenigen „Ideen“ dienen sollen, die sich
als Axiome verwenden lassen. Diese Kriterien lauten bekanntlich: Unabhängigkeit
(von einander), Widerspruchslosigkeit, Vollständigkeit und ggf. Evidenz.
Kriterien sind nun freilich keine Theoriebegriffe. Es handelt sich dabei eher um
Ideale oder „Postulate“, die das Selbstverständnis der Mathematiker über Ziel und
Zweck ihrer Wissenschaft ausdrücken. Man möchte in den vorhandenen mathematischen Theorien diejenigen Begriffe herausfinden, die als „unabhängig“ von einander nicht deduziert werden können. Man strebt an, daß alles mathematisch Demonstrierte und Bewiesene widerspruchslos sei. Auch soll alles Mathematische in
der Gestalt von Theorien vorgeführt werde, die ihrer Natur nach einen thematischen Bereich „vollständig“ abdecken. Und das alles soll sogleich auch „einleuchten“ (evident sein) und insofern überzeugen.
Nach allem, was vorn über den pyramidalen Zusammenhang von Begriffen in
Begriffspyramiden von Theorien gesagt wurde, dürfte leicht zu sehen sein, daß
diese sogenannten Kriterien oder vielmehr Ideale für ihre Zwecke untauglich sind
– und sich schon gar nicht dazu eignen, gleichsam als Super-Kategorien behandelt
zu werden.
Denn wenn Axiome unabhängig von einander sein sollen, können sie nicht auf
Widerspruchslosigkeit hin geprüft werden. Wenn sie widerspruchslos sein sollen,
71
Vgl. dazu und zum Folgenden L. Geldsetzer, Art. „Hermeneutik“ in: Handlexikon der Wissenschaftstheorie, hgg. v. H.
Seiffert und G. Radnitzky, München 1989, S. 127 – 138, sowie § 45 im vorliegenden Text.
72
Vgl. D. Hilbert, Axiomatisches Denken, in: Mathematische Annalen 78, 1918, S. 405 – 415, ND in: Gesammelte
Abhandlungen III, Berlin 1935, S. 146 – 156; ND New York 1965.
135
können sie nicht unabhängig von einander sein. Wenn sie vollständig sein sollen,
muß schon der ganze Inhalt der Theorie aus ihnen abgeleitet, begründet und bekannt sein. Wenn sie evident sein sollen, müssen ihre Intensionen und Extensionen
bekannt sein, d. h. es geht nicht ohne ihre Definition.
Als oberste Gattungen („axiomatische Grundbegriffe“ oder „Kategorien“) sowohl der Logik wie auch der Mathematik gelten seit jeher die Begriffe Identität,
Widerspruch und Drittes. Da sie in Axiomatiken als nicht-definierbar gelten, kann
man sich nicht wundern, daß sie bis heute höchst umstritten, d. h. interpretierbar
geblieben sind. Ihre Problematik dürfte aber nur eine scheinbare sein, denn es läßt
sich zeigen, daß es sich bei der Identität, dem Widerspruch und dem Dritten
keineswegs um Kategorien, sondern um nachrangige Begriffe logischer Theorien
handelt.
Dafür spricht, daß sie bei Erläuterung ihrer logischen und mathematischen Natur
gewöhnlich mit den Begriffen Wahrheit und Falschheit in Verbindung gebracht
werden. Man sagt, die Identität garantiere die Wahrheit, der Widerspruch bringe
die Falschheit zum Ausdruck, und das Dritte liege außerhalb von Wahrheit und
Falschheit.
Diese Meinung wird damit begründet, daß die Identität eine Tautologie sei, bei
der man gewissermaßen keinen Irrtum begehen könne; daß der Widerspruch in der
Form einer Behauptung überhaupt „Nichts“ behaupte (deshalb wird sein Wahrheitswert aussagenlogisch mit 0 (Null) = Falschheit bezeichnet); das Dritte aber
liege jenseits der zweiwertigen Logik und werde erst in der neueren dreiwertigen
oder in mehrwertigen Logiken als eigenständiger Wahrheitswerte-Bereich ausgespreizt. Dieser Bereich umfasse die sogenannten Wahrscheinlichkeitswerte.
Als die tatsächlichen Axiome der Logik und Mathematik erweisen sich dadurch
die Begriffe von Wahrheit, Falschheit und Wahr-Falschheit.
Wahrheit und Falschheit sind diejenigen obersten Gattungen, in deren Extension
alle logischen und mathematischen Urteile und Schlüsse liegen. Im Umfang des
Wahrheitsbegriffes liegen sämtliche wahren Urteile und Schlüsse; im Umfang des
Falschheitsbegriff liegen alle falschen Urteile und Schlüsse. Die Begriffe von
Wahrheit und Falschheit stehen im Negationsverhältnis zueinander. Dadurch können sie auch in Äquivalenzgleichungen definiert werden. Diese lauten: Wahrheit
= Nicht-Falschheit; sowie: Falschheit = Nicht-Wahrheit.
Wahr-Falschheit ist ein kontradiktorischer Begriff, der aus der Verschmelzung
der Begriffe von Wahrheit und Falschheit entsteht. Man erinnere sich, daß die
Extension eines kontradiktorischen Begriffs die Extensionen beider verschmolzenen Ausgangsbegriffe umfaßt. In seiner Extension liegen daher alle wahr-falschen sowie Wahrscheinlichkeitsurteile und -Schlüsse, da sie aus wahren und
falschen Urteilen bzw. Schlüssen zusammengesetzt sind. Die Definition lautet
demnach: Wahr-Falschheit = Wahres und Falsches bzw. Nicht-Wahres und
Nicht-Falsches.
Man bemerke, daß Begriffe als logische und mathematische Elemente nicht
unter diese Kategorien von Wahrheit, Falschheit und Wahr-Falschheit fallen.
136
Begriffe können nicht wahr oder falsch oder wahrscheinlich sein. Insbesondere
sind es kontradiktorische und konträre widersprüchliche Begriffe nicht, die man
oft „falsche Begriffe“ nennt. Sie sind allerdings als Prädikatsbegriffe in Urteilen
das Hauptmittel, diese Urteile wahr-falsch zu machen. Im übrigen sind sie, wie
gezeigt wurde, phantastische Vorstellungen mit erheblicher heuristischer und
kreativer Relevanz.
Die Definitionen von Wahrheit, Falschheit und Wahr-Falschheit lassen erkennen, daß diese Kategorien nicht „unabhängig“ sondern im Gegenteil abhängig von
einander sind. Daher stellt sich die Frage der Kriterien anders als es die mathematische Axiomatik vorschlägt.
Das Wahrheitskriterium besteht in der logischen Kohärenz (oft auch Konsistenz
genannt) und Komprehensibilität (Umfassendheit) einer Theorie als Urteilssystem. Kohärenz ergibt sich im definitionsgemäßen Gebrauch und entsprechender Lesung der satzbildenden Junktoren in Anwendung auf reguläre Begriffe.
Komprehensibilität bedeutet, daß eine einzelwissenschaftliche Theorie sich in das
Gesamt des jeweiligen Fachwissens einschließlich seiner philosophischen (metaphysischen und grunddisziplinären) Begründungen kohärent einfügen läßt.
Das Falschheitskriterium bedeutet: logische Inkohärenz bzw. Nicht-Kohärenz.
Diese zeigt sich im definitionswidrigen Gebrauch und entsprechender Lesung der
satzbildenden Junktoren in Anwendung auf reguläre (widerspruchslose) Begriffe.
Bei der Verwendung widersprüchlicher Begriffe in Urteilen ergibt sich die Inkohärenz durch die falschen Anteile in den wahr-falschen Behauptungen.
Das Kriterium der Wahr-Falschheit ergibt sich aus gleichzeitiger Kohärenz und
Inkohärenz einer Theorie. Diese zeigen sich im definitionsgemäßen Gebrauch und
entsprechender Lesung satzbildender Junktoren in Anwendung auf irreguläre
(kontradiktorische und konträre) Begriffe. Hauptformen sind die widersprüchlichen Urteile, insbesondere als Möglichkeitsurteile, Paradoxe und Wahrscheinlichkeitsurteile.
Bemerken wir auch an dieser Stelle: Es ist ein häufiger, jedoch irreführender
logischer Sprachgebrauch, widersprüchliche Urteile als „unlogisch“ oder gar
„sinnlos“ bzw. “absurd“ zu bezeichnen, und dies im Unterschied zu falschen Urteilen. Denn Urteilswidersprüche gehören ebenso wesentlich zur Logik wie widerspruchslose falsche Urteile.
Sind dadurch die logischen und mathematischen begrifflichen Axiome klar und
deutlich als „Kohärenz“ und „Inkohärenz“ definiert, so lassen sich mit ihnen auch
die logischen und mathematischen „axiomatischen Grundsätze“ formulieren: 1.
„Alles Wahre ist kohärent“, 2. „Alles Falsche ist inkoherent“. 3. „Alles WahrFalsche bzw. Wahrscheinliche ist kohärent und inkohärent zugleich“. Diese axiomatischen Eigenschaften lassen sich im pyramidalen Formalismus sowohl darstellen als auch ablesen.
137
§ 10 Der Möglichkeitsbegriff und seine Rolle in den Wissenschaften
Die aristotelische Modallogik als Logik der Vermutung über Zukünftiges. Der logische Charakter
von Christian Wolffs und I. Kants Begriffsdefinition als „Bedingungen der Möglichkeit“. Die
übliche Auffassung der Möglichkeit als Gattungsbegriff und seine eigentliche logische Natur als
widersprüchlicher Begriff. Der Leibnizsche Entwicklungsbegriff als dalektische Verschmelzung
des Nichts gewordenen Vergangenen und des gegenwärtigen Seinszustandes. Die „Enkapsis“ des
noch nicht seienden Zukünftigen im gegenwärtigen Sein. Die geschichtliche „Realität“ und das
Zukünftige als ontologische Bereiche von Möglichkeiten. Die Konstruktion der Notwendigkeit als
unveränderliche Vergangenheit und ihre Fragwürdigkeit. Die Dialektik des Entwicklungsbegriffs
als Fusion von Wirklichkeit und Möglichkeit
In § 5 wurde bereits auf den Unterschied zwischen der gemeinsamen wirklichen
Lebenswelt des Menschen und den sonderbaren möglichen Welten der Wissenschaftler aufmerksam gemacht. Nachdem im Vorangegangen zusätzlich einiges
über die Logik ausgeführt worden ist, kann nunmehr etwas genauer über diese
möglichen Welten gehandelt werden.
Die bereits von Aristoteles konzipierte Modallogik hat zu einer in der ganzen
Logikgeschichte bearbeiteten Formalisierung der Vermutungen bzw. Hypothesen
geführt. Aristoteles hatte seine Modallogik als Theorie der „zukünftigen Möglichkeiten“ (possibilia futura) entwickelt. Mit ihr sollten nicht wahre oder falsche
Behauptungen formalisiert werden, sondern „unentscheidbare“ Vermutungen über
zukünftige Ereignisse, also gerade das, was man im grammatischen Futur oder in
grammatisch-konjunktivischen Sätzen äußert. Aristoteles stellte diese Vermutungen als „Möglichkeitsurteile“ neben die Notwendigkeitsurteile und die Wirklichkeitsurteile.
Unter Notwendigkeitsurteilen konnte man in der aristotelischen Logiktradition
die rein formalen Urteile verstehen, da der logische Formalismus als „zwingende
Notwendigkeit“ aufgefaßt wurde. Inhaltliche bzw. nicht-formalisierte Urteile galten dann als Wirklichkeitsurteile. Zusammen mit diesen wurden die Vermutungen
als Möglichkeitsurteile i. e. S. dann in der sogenannten Modallogik behandelt.
Gerade dadurch, daß die Modallogik als traditioneller Teil der klassischen Logik
galt und die Möglichkeitsurteile zusammen mit den Notwendigkeitsurteilen (seit
Kant: „apodiktische Urteile“) und den Wirklichkeitsurteilen (seit Kant auch: „assertorische“ bzw. „faktische Urteile“) behandelt wurden, wurden auch die „Möglichkeitsurteile“ (Kant nannte sie „problematische Urteile“) zum Gegenstand
zweiwertiger Wahrheitswertbetrachtungen. Daraus haben sich eine Reihe spezieller Modallogiken und Modalkalküle entwickelt.73 Das hat dahin gewirkt, daß
73
Vgl. dazu neben den im § 5 genannten Arbeiten die Artikel „Modalität“, „Modalkalkül“ und „Modallogik“ von K.
Lorenz in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, Band 2, Mannheim-Wien-Zürich
1984, S. 904 – 906, 906 – 907 und 907 – 911.
138
man den Möglichkeitsbegriff selbst für einen regulären logischen Begriff gehalten
hat.
Leibniz definierte den Möglichkeitsbegriff in Übereinstimmung mit dieser logischen Tradition als „das Widerspruchslose“ bzw. als das, „was eingesehen werden
kann, d. h. was klar eingesehen wird“. 74 Das wird durch Christian Wolff (1679 –
1754) in seiner Definition: das Mögliche ist das, „was keinen Widerspruch in sich
enthält“ 75 gemeine Auffassung der neueren Philosophie.
Kants Transzendentalphilosophie legt ebenfalls diese Möglichkeitsdefinition zugrunde. Transzendentalphilosophie verstand sich ausdrücklich als eine Erforschung der „Bedingungen der Möglichkeit von Erkenntnis“, d. h. der begrifflichen
Grundlagen der Erkenntnis. Dabei sollte diese „Ermöglichung“ der wissenschaftlichen Erkenntnis (neben den Anschauungsformen der Sinne und den „dialektischen“ Ideen der Vernunft) wesentlich in Grundbegriffen („Kategorien“ bzw.
„konstitutiven“ Grundbegriffen) des Verstandes bestehen, die widerspruchslos
sein sollten.
Die Leibniz-Wolff-Kantische Möglichkeitsdefinition macht jedenfalls verständlich, daß die begrifflichen „Möglichkeiten“ als reguläre (widerspruchslose) Begriffe gefaßt werden. Umgekehrt hat es auch dazu geführt, daß Begriffe überhaupt
als „Möglichkeiten“ verstanden werden. Das Mögliche soll sich also widerspruchslos denken bzw. vorstellen lassen. Was aber einen Widerspruch enthält,
gilt danach als negierte Möglichkeit, also als „unmöglich“ (daher auch „absurd“
bzw. „sinnlos“). Auch das ist so von der modernen Logik übernommen worden.
Der Möglichkeitsbegriff ist außerhalb der Logik zum Stammbegriff einer Reihe
von Grundbegriffen in den Einzelwissenschaften geworden. Auf das griechische
„dynamis“ und die lateinische Übersetzung „potentia“ gehen der physikalische
Kraftbegriff und die „Potentialität“ sowie die anthropologischen und psychologischen Begriffe „Vermögen“, „Anlage“, „Disposition“ zurück. Von der Medizin bis in die Vulgärsprache sind auch die aristotelischen Begriffe der geschlechtlichen „Potenz“ und des Geschlechts-„Akts“ erhalten geblieben.
Die vorgenannten Begriffe von Kräften und Vermögen haben in den betreffenden Wissenschaften immer etwas Rätselhaftes behalten. Sie sollen als angenommene Ursachen manifest Wirkliches (bei Aristoteles „energeia“, lateinisch
„actus“, deutsch wörtlich: „Wirklichkeit“), das immer sinnlich wahrnehmbar ist,
aus einem unsichtbaren und theoretisch konstruierten Hintergrund erklären. Physikalische Kräfte werden erst in ihren Wirkungen erfaßt und bemessen, psychische
Vermögen und Anlagen erst, wenn sie sich in manifesten Leistungen darstellen.
Daher hat es auch nicht an Kritikern gefehlt, die z. B. eine Physik ohne Kräfte
74
„Possibile est, quod intelligi potest, id est ... quod clare intelligitur“, in: G,. W. Leibniz Confessio philosophi, 1673, zit.
nach H. Seidl, Art. Möglichkeit, Historisches Wörterbuch der Philosophie, hgg. v. J. Ritter und K. Gründer, Band 6, BaselStuttgart, 1984, Sp. 85.
75
Vgl. H. A. Meissner, Philosophisches Lexikon aus Christian Wolffs Sämtlichen Deutschen Schriften, Bayreuth und Hof
1737, ND hgg. von L. Geldsetzer, Instrumenta Philosophica, Series Lexica III, Düsseldorf 1970, S. 379.
139
(Ernst Mach) oder eine Psychologie ohne Vermögen (J. H. Herbart) gefordert
haben.
Die meisten Physiker und Psychologen fuhren jedoch fort, von den Kräften und
Vermögen so zu reden, wie man vordem von Geistern und Dämonen redete. Diese
bewirken alle physischen und psychischen Prozesse, doch nimmt sie niemand
wahr, und sie zeigen sich niemals in manifesten Erscheinungen. Und so bilden
auch jetzt noch die „potentiellen Kräfte“ und „unentdeckten, unausgeschöpften
und unbewußten Vermögen bzw. Kapazitäten“ (jetzt manchmal auch „Kompetenzen“ genannt) ein wissenschaftstheoretisches Gespensterreich hinter denjenigen physikalischen und psychischen Phänomenen, die aktuell beobachtet werden.
Der traditionelle Glaube in der Philosophie und in den Wissenschaften, daß da,
wo ein Wort eine lange Geschichte aufzuweisen hat und als „Terminus“ in den
Wissenschaften verbreitet ist, auch ein regulärer Begriff zugrunde liegen müsse,
hat den Begriff der „Möglichkeit“ immer davor geschützt, als das erkannt und
durchschaut zu werden, was er ist: nämlich ein widersprüchlicher Begriff (contradictio in terminis). Da widersprüchliche Begriffe bei der Satz- und Urteilsbildung widersprüchliche Urteile nach sich ziehen können, liegt in solchen Begriffen die Grundlage für die „dialektische Logik“, die von der klassischen auf
Nichtwidersprüchlichkeit abzielenden Logik unterschieden werden muß. Die faktische Existenz dieser Dialektik ist auch dort, wo man sie nicht vermutet, offensichtlich.
Nun scheint es besonders die vermeintliche Undefinierbarkeit der höchsten Gattungen gewesen zu sein, die die Logiker und Ontologen seit jeher dem Möglichkeitsbegriff zugute gehalten haben. Sie verstehen ihn dann als (oberste) Gattung
über den beiden ontologischen Artbegriffen „Sein“ und „Nichts“ bzw. „Wirklichkeit“ und „Unwirklichkeit“. Verwendet man den Möglichkeitsbegriff („das
Mögliche“) als genus proximum über den Begriffen „Sein“ und „Nichts“, so ergibt sich die gewiß im Abendland traditionelle Definition von „Sein“ als „SeinsMöglichkeit“ und von „Nichts“ als „Nicht-Möglichkeit“ bzw. „Unmöglichkeit“.
Vom Sein läßt sich dann als wahr behaupten, daß es nicht Nichts ist; und vom
Nichts, daß es nicht Sein ist.
Trotz der Plausibilität und allgemeinen Verbreitung dieser Definition weist sie
jedoch einen gravierenden logischen Fehler auf, der erst durch die genaue Analyse
der Intensionen und Extensionen des Möglichkeitsbegriffs sichtbar wird.
Wäre „Möglichkeit“ die Gattung über „Sein“ und „Nichts“, dann müßte zur
Bildung des Begriffs der Möglichkeit von den spezifischen Differenzen „Sein“
und „Nichts“ (bzw. „Nichtsein“) abstrahiert werden können. „Möglichkeit“ bliebe
dann nur als gemeinsame Gattung übrig, und „möglich“ müßte als generisches
Merkmal den Artbegriffen „Sein“ und „Nichts“ zukommen. Was zur Folge hätte,
daß alles Seiende und alles Nichtige auch möglich sein müßte. Dieses reine
„Mögliche“ müßte sich in irgend einer Weise denken bzw. vorstellen lassen, und
zwar ohne Verknüpfung mit irgendwelchen Vorstellungen von Sein oder Nichts,
denn davon müßte ja abstrahiert werden. Es verhielte sich nicht anders als
140
beispielsweise beim Begriff des „Lebendigen“, dessen Definition man durch
Abstraktion von den spezifischen Merkmalen der Arten des Lebendigen, nämlich
der „Tiere“ und der „Pflanzen“ erhält.
Der Möglichkeitsbegriff kann jedoch keine Gattung über den Artbegriffen Sein
und Nichts sein. Die Logiker entledigen sich jedoch der Frage nach seinen
Intensionen und Extensionen durch die These von der grundsätzlichen Undefinierbarkeit höchster Begriffe, zu denen die „Möglichkeit“ neben „Sein“ und
„Nichts“ traditionellerweise gerechnet wird.
Es wurde schon früher 76 vorgeschlagen, den Möglichkeitsbegriff als widersprüchlichen Begriff zu verstehen. „Möglichkeit“ wird danach nicht durch Abstraktion von Sein und Nichts als gemeinsame Gattung beider induziert, wie das
bei regulären Gattungsbegriffen (und somit auch bei höchsten Gattungen bzw.
Kategorien) der Fall ist, sondern durch Verschmelzung der beiden im Negationsverhältnis zu einander stehenden Begriffe „Sein“ und „Nichts“ zu einem
dritten Begriff. „Möglichkeit“ ist dann als „Sein-Nichts“ oder auch (wegen der
Symmetrie der Verschmelzung) als „Nichts-Sein“ zu definieren. Schon die Tatsache, daß solche zusammengesetzten Bezeichnungen in der Philosophie- und
Logikgeschichte bisher nicht aufgetaucht sind, zeigt, daß diese dialektische Begriffsverschmelzung im Möglichkeitsbegriff bisher nicht gesehen worden ist.
Intensional bedeutet das, daß der Möglichkeitsbegriff die sich ausschließenden
Intensionen „Sein“ und „Nichts“ zugleich enthält, was eben seine Widersprüchlichkeit ausmacht. Daneben aber enthält der Möglichkeitsbegriff kein eigenes
Merkmal, wie es von einer gemeinsamen Gattung über Sein und Nichts zu fordern
wäre. Die Extension des Möglichkeitsbegriffs besteht hier in den vereinigten
beiden Extensionen der Ausgangsbegriffe „Sein“ und „Nichts“.
Das hat aber weitreichende Folgen für das, was man sich bei „Möglichkeit“
vorzustellen und zu denken hat. Es handelt sich nicht um etwas Transzendentes,
was über Sein und Nichts bzw. Wirklichkeit und Nichtwirklichkeit hinausliegen
könnte (wie bei einer Gattung zu fordern wäre), sondern gerade um alles das, was
man zugleich und in gleicher Hinsicht „nichtiges Sein“ und „seiendes Nichts“
nennen könnte. Wer also von Möglichkeiten spricht und sich dabei etwas denkt
bzw. vorstellt, der kann damit in der Regel nur etwas Wirkliches meinen, das er
zugleich für unwirklich hält, oder umgekehrt etwas Unwirkliches, was er zugleich
für wirklich hält.
Bezüglich der „Möglichkeit“ denkt sich freilich jeder Logiker und Wissenschaftler irgend etwas, wenn es auch schwer fällt zu sagen, was es ist und wie es
beschaffen sein könnte. Und darum meint man allgemein auch, „Möglichkeit“
müsse etwas anderes sein als ein Widerspruch in sich. Und das soll dann ebenso
von den oben genannten Ableitungsbegriffen (den ebenso dialektischen Artbegriffen) der Möglichkeit wie Kraft, Vermögen, Anlage gelten. Jeder, der damit
umgeht, stellt sich unter irgend einem Modell bzw. einem Gleichnis etwas dabei
76
Vgl. L. Geldsetzer, Logik, Aalen 1987, S. 94 und S. 98.
141
vor und beruhigt sich damit, im Modell (besser gesagt: in der jeweiligen
Privatmythologie) ließe sich dem Unanschaulichen gewissermaßen als Denkhilfe
etwas Bildhaftes beigesellen.
Was bei diesem widersprüchlichen Begriff gedacht bzw. vorgestellt werden soll
und kann, ist jedoch einerseits das, was als Seiendes oder Existierendes (d. h. als
etwas unter den Begriff „Sein“ Fallendes) wahrgenommen und nur durch die
Wahrnehmung in seiner faktischen Existenz überhaupt bestätigt werden kann.
Andererseits ist es zugleich auch das, was in der Erinnerung an das Wahrgenommene nach dessen Verschwinden (ein Fall von Nichts!) vorgestellt wird.
Ohne Erinnerung an Vergangenes könnte man darüber nicht als von einem vordem wahrgenommenen Sein oder Wirklichen reden.
Wahrnehmung und Erinnerung sind in aller Regel wohlunterschiedene geistige
Tätigkeiten. Während und solange man etwas wahrnimmt, bemerkt man nicht, daß
man zugleich dieses Wahrgenommene auch erinnert. Es muß aber begleitend
erinnert werden, wenn es als etwas mehr oder weniger Beständiges ausgezeichnet
werden kann. Aristoteles scheint dies mit seiner Substanzdefinition gemeint zu
haben. Sie lautet bekanntlich „to ti en einai“ bzw. „das, was war und (noch) ist“
(wir haben es mit „Ge-Wesen“ übersetzt). Wohl aber bemerkt man an den Erinnerungen, daß das, was ihnen als Wahrgenommenes zugunde lag, ins Nichts
abgeglitten ist. Es ist für keine sinnliche Wahrnehmung mehr verfügbar.
David Hume hat die Erinnerungen „schwache Bilder“ und „weniger lebhafte
Wahrnehmungen“ von Sinneseindrücken (faint images und less lively perceptions) genannt.77
Als solche schwachen Bilder werden die Erinnerungen gewiß nicht mit den
sinnlichen Wahrnehmungen verwechselt. Für den realistischen Empirismus, wie
ihn Hume vertrat, ist nur das Wahrgenommene in und während der Wahrnehmung
eigentliches Sein. Die „schwachen Bilder“ nach der Wahrnehmung repräsentieren
das ins Nichts Verschwundene. Die erinnerten Bilder sind das Sein dieses Nichts
im Bewußtsein.
Die realistischen Erkenntnistheorien erklären die sinnliche Wahrnehmung bekanntlich selbst schon als eine Abbildung eines (an sich unerkennbaren) Objektes,
des „Dinges an sich“ Kants. Sie verkennen den Unterschied zwischen nicht-abbildenden Wahrnehmungen und bild-bildenden Erinnerungen und übertragen das
letztere Verhältnis auf das erstere. Idealistische Erkenntnistheorien, wie diejenige
George Berkeleys, betonen jedoch gerade die Identität von sinnlicher Wahrnehmung und Gegenstand der Wahrnehmung. Abbildhaftigkeit von Erkenntnissen
ergibt sich für einen wohlverstandenen Idealismus, wie ihn Berkeley vertrat,
77
“By the term impression, then, I mean all our more lively perceptions, when we hear, or see, or feel, or love, or hate, or
desire, or will. And impressions are distinguished from ideas, which are the less lively perceptions, of which we are
conscious, when we reflect on any of those sensations or movements above mentioned”, D. Hume, An Inquiry Concerning
Human Understanding, ed. by. J. McCormack and M. Whiton Calkins, Leipzig 1913, S. 15 / „Unter der Bezeichnung
Eindruck verstehe ich also alle unsere lebhafteren Auffassungen, wenn wir hören, sehen, tasten, lieben, hassen, wünschen
oder wollen. Eindrücke sind von Vorstellungen unterschieden, welche die weniger lebhaften Auffassungen sind, deren wir
uns bewußt werden, wenn wir uns auf eine jener oben erwähnten Wahrnehmungen oder Regungen besinnen“, D. Hume,
Eine Untersuchung über den menschlichen Verstand, 9. Aufl. hgg. von R. Richter, Leipzig o. J. S. 18.
142
ausschließlich und nur durch das Verhältnis der Erinnerungen zu den Wahrnehmungen, die sie abbilden.
Die Verschmelzung von Sein und Nichts im Möglichkeitsbegriff hat nun ihre
weiteste Anwendung in den historischen Wissenschaften. Man sollte vorsichtigerweise sagen: eigentlich müßte es so sein. Denn der Gegenstand der historischen
Wissenschaften ist nichts anderes als ein ins ontologische Nichts verschwundenes
Sein, das teilweise in mehr oder weniger ausgearbeiteten und geordneten Erinnerungen präsent gehalten wird.
Das Vergangene und Gewesene gilt jedermann als etwas, das „nicht mehr“
existiert. Das heißt jedoch ontologisch konsequent: Es ist Nichts bzw. zunichte
geworden. Zugleich hat es ein Sein in der Erinnerung als historisches Geschichtsbild. Das Objekt der Geschichtsschreibung war und ist diese Identifikation von
Nichts und Sein, die zuerst Heraklit auf den Begriff des „Logos“ zu bringen
versucht hat.
Heraklit hat seinen Logosbegriff (der gewöhnlich, aber fälschlich als Prototyp
eines regulären widerspruchslosen Begriffs interpretiert wird) präzise als die
„Einheit des Entgegengesetzten“ definiert. Seine „Dialektik“ richtete sich gegen
Parmenides, der in seinem berühmten Lehrgedicht den größten Gegensatz von
Sein und Nichts herausgearbeitet hatte. Das Sein hatte Parmenides als nur zu
denkendes ruhendes Eines, das Nichts als vielfältiges und bewegtes sinnlich
Wahrnehmbares erklärt. Und darauf gestützt sollte Wahrheit im Seinsdenken bestehen, Falschheit, Irrtum und Täuschung aber in jeder sinnlichen Wahrnehmung.
Heraklit aber zeigte, daß diese Gegensätze ihrerseits als Einheit begreifbar sein
mußten, nämlich als Werden. Und es ist das Werden, das alles Geschichtliche
auszeichnet. Daher sein bekanntes Dictum „Alles fließt“ (panta rhei). Heraklits
„Eines auch Alles“ (Hen kai Pan) sowie zahlreiche weitere Beispiele erweisen die
logische Natur seines „Logos“ als Einheit entsprechender extremer Gegensätze.
Über des Heraklit Logoslehre ist die Philosophie jedoch als zu „tief, dunkel und
unverständlich“ hinweggegangen. Schon die Zeitgenossen haben Heraklit als den
„Dunklen“ ausgegeben.
Es war Platon, der der Wiedererinnerung (Anamnesis) an die angeblich vorgeburtlich geschauten Ideen einen so wichtigen Platz in der Ideenlehre zusprach. Er
hielt die erinnerten Ideen selber für das eigentliche Sein im Unterschied zu der
Nichtigkeit der wahrgenommenen Phänomene. Und so war es auch Platon, der
dem Vergangenen als erinnerten Ideen diesen besonderen Seinscharakter vindizierte, den man ihm heute noch zuspricht. Denn wenn man das Vergangene noch
immer „historische Realität“ nennt, meint man, daß es wirkliches Sein sei. Aber
mit Heraklit ist daran zu erinnern, daß es sich dabei um eine „nicht-reale Realität“
handelt. Und das ist genau das, was man sich in Erinnerungen (seien sie auch
kollektiv in wissenschaftlicher Arbeit konstruiert) als „historische Möglichkeiten“
vorzustellen hat.
Man sollte freilich hinzufügen, daß die historischen Geschichtsbilder nicht allein
auf den aufgezeichneten Erinnerungen von Zeitzeugen oder späteren Historikern
143
beruhen. Deren Berichte über Fakten und Daten gelten zwar, je älter desto mehr,
als die eigentlichen Quellen des historischen Wissens. Jedoch sind die sogenannten Relikte bzw. Überbleibsel als gegenwärtige Quellen von Daten und Fakten, die durch Interpretationen unter steter Bezugnahme auf die vorgenannten
Berichtsquellen gewonnen werden, wesentlich für die Konstruktion der Geschichtsbilder. Für die Epochen der Geschichte vor der Erfindung der Schriften
sind sie als archäologische Funde ersichtlich alleinige Faktenquellen, aus denen
auf ein Sein des Nichtseienden geschlossen wird.
Betonen wir aber sogleich, daß so erarbeitetes historisches Wissen keine hypothetische Spekulation darüber sein kann, „wie es eigentlich gewesen“ ist (Leopold
v. Ranke), sondern daß es direkt „das Historische selbst“ ausmacht. Denn es gibt
kein „reales historisches Sein“, mit dem historisches Wissen konfrontiert und verglichen werden könnte. Man kann das in traditionellen Termini der Geschichtswissenschaft auch so ausdrücken: Die sogenannten „res gestae“ (historische Fakten) sind nichts anderes als „historiae“ (aufgezeichnete Erinnerungen), und dies
zusammen mit den Schlußfolgerungen aus der jeweils gegenwärtigen Existenz
von Relikten. Das hatten wohl auch schon die antiken stoischen Juristen im Sinne
mit ihrer noch immer den Juristen geläufigen Maxime: Quod non est in actis non
est in mundo (Was nicht aufgezeichnet ist, das gibt es gar nicht in der Welt).
Bezüglich der vorgeblichen „historischen Realität“ hat sich seit langem die
Vorstellung verfestigt, sie sei das einzige ontologische Fundament gesetzlicher
Notwendigkeiten. Man stellt sich vor, was einmal geschehen ist, kann nicht mehr
verändert werden. Scholastische Philosophen gingen so weit zu behaupten, nicht
einmal der allmächtige Gott könne verändern, was er in der Zeit selbst erschaffen
habe. Dadurch erhielten die historischen Fakten den logischen Charakter von
Notwendigkeiten. Aber die Vorstellung von Notwendigkeiten in der Welt verdankt sich nur dem stoischen Glauben an das Fatum und die Ananke, der sich im
Abendland als Kausaldeterminismus verfestigt hat.
Solange die „Historiographie“ ihren Status als pure Faktenbeschreibung behielt,
blieb sie – wie andere „Graphien“ – auf die Faktensicherung beschränkt. Diese
erschöpfte sich in den „Historien“, die auch in dem deutschen Begriff „die Geschichte“ (oftmals bis ins 19. Jahrhundert) ein grammatischer Plural blieb. Aber
die aristotelische Wissenschaftstheorie verlangte für eigentliche Wissenschaft die
Erklärung der Fakten durch die vier Ursachen. So konnte man erwarten, daß auch
die Historiker immer wieder bestrebt waren, die historischen Fakten und Daten als
manifeste Wirkungen von Ursachen anzusehen und die „verborgenen“, d. h. nicht
als historische Fakten bekannten Ursachen, hypothetisch zu konstruieren. Dabei
waren es stets die aristotelischen (und zugleich stoischen) Wirk- und Zielursachen, die so konstruiert wurden. Das führte einerseits zu spekulativen Hypothesen über die Wirkursachen historischer Fakten, andererseit zu teleologischen
Spekulationen über den Sinn und Zweck der Daten und Fakten. Die Zweckursachen verwiesen im Geschichtsgang jeweils auf jüngere Fakten und Daten,
144
also das, was man ebenfalls in historischen Erinnerungen deren Wirkungsgeschichte nennt.
Wie in der Naturwissenschaft verfielen jedoch die Zweckursachen in der Neuzeit mehr und mehr dem Verdikt theologischer Vorurteile und der Verfälschung
der Tatsachen. So blieben – ebenfalls wie in der Naturwissenschaft – die Wirkursachen allein zur Erklärung historischer Fakten übrig. Es war Leibniz, der dafür
mit seinem logischen Erklärungsprinzip der „rationes sufficientes“ das Leitmotiv
der historischen Erklärungen formulierte und es auf den Begriff der „Entwicklung“ bzw. „Evolution“ brachte.
Für die Betrachtung der Geschichte spielt seither der Entwicklungsgedanke eine
primordiale Rolle. Er geht zwar auf den neuplatonischen Emanationsgedanken
zurück, erhielt aber in der Neuzeit eine ganz neue Fassung. Vor allem verschmolz
er fast gänzlich mit dem Fortschrittsgedanken. Man kann sagen, er brachte das die
Neuzeit beherrschende Lebensgefühl geradezu auf den Begriff. Sein Gegenteil,
nämlich Niedergang, Degeneration, Rückschritt wurde auch schon von Leibniz
„Involution“ genannt. Aber weder der Begriff noch eine entsprechende Geschichtsbetrachtung erlangte gleichen Rang und Ansehen wie die „Evolution“ als
Fortschritt. Eigentlich hätte man erwarten können, daß der Begriff „Revolution“
statt „Involution“ für Dekadenztheorien verwendet würde. Aber er war in der
Astronomie schon für die Bezeichnung der Planeten-Kreisläufe vergeben. In der
Renaissance geriet er selbst ins Bedeutungsfeld des Fortschritts- und Evolutionsbegriffs. Revolution wurde – ebenso wie „Reformation“ - mehr und mehr zum
Schlagwort einer bestimmten Art von Entwicklung durch Erneuerung.
Der Entwicklungsgedanke wurde durch Leibniz zu einer der fruchtbarsten dialektischen Kategorien der Geschichtswissenschaft, und dies auf Grund der darauf
angewendeten mathematisch-dialektischen Denkweise. Der Entwicklungsbegriff
verschmilzt nämlich eine aktuelle Wirklichkeit mit dem Nichts der Vergangenheit
zur Einheit. Und dies ist gerade das, was als Möglichkeit verstanden wird. Was
sich entwickelt, hat zu jedem Zeitpunkt seinen aktuellen Zustand. Aber dieser
muß als Resultat bzw. Wirkung der näheren oder ferneren vorangegangenen
Zustände verstanden werden, die als in ihm „aufgehobene“ Ursachen erinnert
werden müssen. Diese schon vergangenen Zustände als Ursachen sind bzw.
existieren „nicht mehr“ und darum überhaupt nicht.
Der dialektische Charakter des Leibnizschen Entwicklungsbegriffs zeigt sich in
den sonderbaren Bestimmungen der „Enkapsis“ bzw. des „Enthaltenseins“ und in
der Verwendung des Möglichkeitsbegriffs bei Leibniz. Die jeweils gegenwärtige
wirkliche Welt ist für Leibniz bekanntlich „die beste aller möglichen Welten“. D.
h. wenn auch wegen der Güte des Schöpfers die „beste“, so doch „mögliche
Welt“. Und was so der geschaffenen „möglich besten“ Welt an Wirklichkeit abgeht, das kommt der göttlichen Zentralmonade als höchster Realität zu, die in
Akten der „creatio continua“ ständig die beste aller möglichen Welten „effulguriert“ (aus sich „herausblitzt“).
145
Verführt von der vermeintlichen Beobachtung des Leeuwenhoek, der in den
tierischen Samen schon en miniature ausgebildete Gestalten der nächsten Generation zu sehen glaubte78, schloß Leibniz, daß alle seitherigen und nicht minder
alle künftigen Generationen in dieser Weise schon in den erstgeschaffenen Monaden enthalten bzw. „präformiert“ sein müßten – er nannte es „Enkapsis“ (Eingeschlossenheit). 79 Und darum sei der Welt-Geschichtsprozeß insgesamt eine
Auswicklung dessen, was so schon von Anfang an in vorbestimmter, „determinierter“ Weise als das große „Verhängnis“ (das stoische Fatum oder die Anangke)
vorgegeben, „präformiert“ und wirklich sei.80
Was so aber für die Geschichte gelten sollte, das verlängerte sich in die Zukunft.
Leibniz betont, daß alle Gegenwart „mit der Zukunft schwanger“ sei. 81 Das konnte nur heißen, daß alle künftigen Möglichkeiten in der Gegenwart schon vorbestimmt und dadurch – wie der Fötus im Mutterleib - zugleich auch wirklich
seien. Dies ist auch eine dialektische Verschmelzung der sonst gegensätzlichen
Begriffe von Determiniertheit und Freiheit bzw. von Kausalität und Teleologie.
Zugleich aber auch eine Grundlage für ein Verständnis von Entwicklung als
symmetrisches Verhältnis von Herkunft aus dem Nichts der Vergangenheit und
dem Nichts der Zukunft, das im Sein einer jeweils vorfindlichen Gegenwart
verankert ist.
Von den Späteren hat Hegel in seiner Entwicklungstheorie den dialektischen
Grundzug im Entwicklungsbegriff in den Vordergrund gebracht. Und zwar durch
die Verschmelzung der gegensätzlichen Bedeutungen des „Aufhebens“ (sowohl
des Beseitigens als auch des Konservierens) in jeder Entwicklung. Auch dies läßt
sich modal erläutern, wie Hegel es auch getan hat: „Die ungeheure Arbeit der
Weltgeschichte“, die die Späteren sich in der historiographischen Arbeit aneignen, deren „Inhalt (ist) schon die zur Möglichkeit getilgte Wirklichkeit, die bezwungene Unmittelbarkeit, die Gestaltung bereits auf ihre Abbreviatur, auf die
einfache Gedankenbestimmung, herabgebracht.“ 82
Die Umgestaltung der vorher weitgehend klassifikatorischen bzw. taxonomischen Botanik und Zoologie zur Entwicklungsbiologie durch Lamarck und Darwin hat bis heute den Eindruck hinterlassen, der Entwicklungsgedanke sei
überhaupt eine Errungenschaft der naturwissenschaftlichen Biologie gewesen und
habe sich von dort aus erst in der zweiten Hälfte des 19. Jahrhunderts ausgebreitet.
Tatsächlich setzt jedoch das biologische Evolutionskonzept den Möglichkeits78
Vgl. Em. Radl, Geschichte der biologischen Theorien in der Neuzeit, 1. Teil, Leipzig-Berlin 1913, S. 173.
„Denn gleichwie sich findet, daß die Blumen wie die Tiere selbst schon in den Samen eine Bildung haben, so sich zwar
durch andere Zufälle etwas verändern kann, so kann man sagen, daß die ganze künftige Welt in der gegenwärtigen stecke“.
G. W. Leibniz, Von dem Verhängnisse, in: Hauptschriften, hgg. von E. Cassirer, Band II; ähnlich in Nouveaux Essays,
Vorwort.
80
„Das Verhängnis besteht darin, daß alles an einander hänget wie eine Kette, und ebenso unfehlbar geschehen wird, ehe
es geschehen, als unfehlbar es geschehen ist, wenn es geschehen ... Und diese Kette besteht in dem Verfolg der Ursachen
und der Wirkungen“. Vom dem Verhängnis, in: Leibniz, Hauptschriften Band II, S. 129f.
81
„Ex rationibus metaphysicis constat praesens esse gravidum futuro“. G. W. Leibniz, Fragment über die apokatastasis
panton, Erstausgabe in: M. Ettlinger, Leibniz als Geschichtsphilosoph, München 1921, S. 30.
82
G. W. Hegel, Phänomenologie des Geistes, hgg. v. J. Hoffmeister, Hamburg 1952, S. 28.
79
146
begriff in Anwendung auf die Geschichte voraus und hebt einige speziellere
Aspekte seiner Dialektik heraus. Man sollte doch zumindest bemerken, daß die
biologisch-evolutionäre Rede von der „Vererbung“ aus dem Erbrecht und also
historisch-kulturellen Zusammenhängen übernommen wurde. Jedes Erbe ist ja ein
je gegenwärtiges Wirkliches, das Vergangenes und ins Nichts Verschwundene in
sich aufbewahrt. So ist auch nach der Entwicklungslehre jedes Lebewesen
Produkt und Resultat seiner Ahnen und insofern ein Erbe aller vorangegangenen
Generationen.
Im Unterschied zum Erbrecht aber wird in der Biologie die Art und Weise, wie
die Erbschaft von Familien (bzw. biologisch: der Gattungen) und des Individuums
in der Geschichte zustandegekommen und aufgehäuft wurde, mit in den Evolutionsbegriff aufgenommen. Das Individuum wird als Wirklichkeit von Möglichkeiten verstanden, sowohl seiner vergangenen wie auch seiner zukünftigen. Die
Möglichkeit des Vergangenen wird im Darwinismus zur kausal konstruierten
Genidentität. Die Gene aber sind dabei noch stets die Substanz des geschichtlichen Werdens geblieben, die Aristoteles als To ti en einai, als „Ge-Wesen“ definiert hat. Die zukünftigen Möglichkeiten erweisen sich in der „Anpassungsfähigkeit“ an die jeweilige Umwelt im Überleben einer je existierenden Generation und ihrer Individuen (survival of the fittest). Im gegenwärtig wiederbelebten Lamarckismus jedoch wird das Individuum teleologisch konstruiert: als
Träger erworbener Eigenschaften, Fähigkeiten und „Vermögen“, die sich in einer
hier konstruierten Memidentität (Meme, eigentlich „Mneme“, sind im Gedächtnis
niedergelegte Möglichkeiten) zeigen sollen.
Ersichtlich ist man sich heute beim so selbstverständlichen Gebrauch des Entwicklungsgedankens in den Einzelwissenschaften von der Kosmologie über die
Biologie bis zu den Technik-, Kultur- und Geisteswissenschaften dieser Dialektik
nicht bewußt. Allenfalls sind Spuren in der Definition des Entwicklungsbegriffes
des Begründers der modernen Entwicklungsphilosophie Herbert Spencer auszumachen. Er hatte „Evolution“ und zugleich ihr Gegenteil, die „Dissolution“ folgendermaßen definiert: „Evolution in ihrem einfachsten und allgemeinsten Aspekt
ist die Integration der Materie und die Zerstreuung der Bewegung; während
Auflösung Absorption der Bewegung und begleitende Differenzierung der Materie
ist“.83
Die Evolutionsmerkmale Integration und Dissolution (= Differenzierung) klingen vertraut als mathematische Bestimmungen: Integrieren und Differenzieren
gehören zu den komplizierten höheren Rechnungsarten, und sie sind höchst
gegensätzlich. Sie waren dem studierten Ingenieur Spencer wohl vertraut. Indem
er versucht, diese gegensätzlichen Merkmale einerseits auf Materie, andererseits
auf Bewegung zu beziehen, will er ihren dialektischen Charakter verschleiern. Im
83
“Evolution under its simplest and most general aspect is the integration of matter and concomitant dissipation of motion;
while dissolution is the absorption of motion and concomitant desintegration of matter”. Herbert Spencer, First Principles §
97, zitiert nach R. Eisler: Wörterbuch der philosophischen Begriffe, 3. Aufl. Berlin 1910, Band 1 Art. Evolution, S. 356.
147
spencerschen Entwicklungsbegriff wird die „Integration des Differenzierten“ zum
dialektischen Merkmal der „bewegten Materie“.
Anders als bei der „Notwendigkeits-Möglichkeitskonstruktion von Vergangenheit verhält es sich mit den schon von Aristoteles zum Ausgangspunkt seiner
Modallogik gemachten „zukünftigen Möglichkeiten“. Ihr Anwendungsbereich
sind vor allem die Gegenstände und Ereignisse, von denen in naturwissenschaftlichen und wirtschaftswissenschaftlichen Prognosen und in manchen Hypothesen
die Rede ist. Man nennt das Zukünftige gewöhnlich „noch nicht Seiendes“, d. h.
aber konsequent ontologisch: Es ist ebenfalls Nichts. Und dies im Gegensatz zum
gegenwärtigen Sein der beobachteten und wahrgenommenen Wirklichkeit. Auch
alles Zukünftige wird so zur Möglichkeit, indem es als (noch) nicht Seiendes (=
Nichts) in einer erinnerungs- und beobachtungsgesteuerten realen Antizipation
gedacht, phantasiert, vorgestellt und evtl. prognostiziert, aber auch geplant,
gewünscht oder befohlen wird.
Wem diese ontologische „Vernichtung“ des Vergangenen und Zukünftigen zugunsten einer „Verseinung“ der erinnernden und antizipierend-prognostischen
stets gegenwärtigen „seienden“ Bewußtseinsleistung zu idealistisch (der Patristiker Aurelius Augustinus hat sie bekanntlich schon genauer ausgearbeitet) erscheint, der wird gleichwohl am Leitfaden des Möglichkeitsbegriffs denken und
argumentieren. Denn der Realist hält buchstäblich die „historische Realität“, und
ebenso die antizipierten zukünftigen Ereignisse für ontologisches Sein, und er
spricht darüber meist sehr emphatisch als „objektive“ Realitäten. Aber dafür hält
er das Bewußtsein mit seinen Erinnerungen und Antizipationen für etwas ontologisch Nichtiges, das er als „subjektiven Faktor“ möglichst aus seinen Überlegungen auszuschalten bemüht ist. Wie man sieht, hat er nur die Seins- und Nichtsbegriffe gegenüber dem Idealisten ausgetauscht.
Daß das Nichts als Gegenbegriff zum Sein in der abendländischen Philosophie
bisher nicht Gegenstand solcher logischen Analysen geworden ist, die für die
Klärung des Möglichkeitsbegriffs vorausgesetzt werden müssen, verdankt sich
offensichtlich den stets im Abendland dominierenden Seinstheorien des Parmenides, Platons und Aristoteles‟. In ihnen wird das Nichts als Inbegriff aller Falschheiten - das logisch Falsche wird bis heute als „Bedeutung“ aller falschen Behauptungen formalisiert - perhorresziert oder als „Mangel an Sein“ stets vom Sein her
thematisiert.
Als eigenständiges Thema hat der Nichtsbegriff allerdings in der indischen und
chinesischen Philosophie stets große Aufmerksamkeit auf sich gezogen. Von den
Ergebnissen dortiger Gedankenarbeit kann auch die abendländische Philosophie
und Wissenschaftstheorie noch fruchtbare Anregungen übernehmen.
148
§ 11 Die Paradoxien der Wahrscheinlichkeit
Die üblichen Auffassungen vom Paradoxen. Über objektive und subjektive Wahrscheinlichkeit
und die mathematische Formulierung von Meßwerten der Wahrscheinlichkeit. Die Dialektik des
Wahrscheinlichkeitsbegriffs. Logische versus mathematische Wahrscheinlichkeit. Die Verschmelzung des stoischen Universaldeterminismus und des epikureischen Indeterminismus im Wahrscheinlichkeitsbegriff. Die Rolle der „docta ignorantia“ beim Umgang mit der Wahrscheinlichkeit.
Von entsprechender Wichtigkeit wie beim Möglichkeitsbegriff dürfte in der Erkenntnistheorie, in der Logik und in der Mathematik eine Analyse des Wahrscheinlichkeitsbegriffs sein.
Auf der Verschmelzung von Wahrheit und Falschheit zum Begriff des WahrFalschen beruht eine bestimmte Version des Lügner-Paradoxes (des „Eubulides“).
Man könnte die hier gemeinte Person den „wahrsagenden Lügner“ nennen, weil er
die Wahrheit mittels einer Lüge und zugleich eine Lüge mittels der Wahrheit
behaupten soll. Das hält man gemäß traditionellen Meinungen über die Zweiwertigkeit der Logik und die Natur des Widerspruchs für „unmöglich“, „falsch“
und jedenfalls für „wider alle Meinung“ (para doxan).
Ebenso steht es aber mit dem Wahrscheinlichkeitsbegriff. Er ist seiner logischen Konstitution nach ein Beispiel für dieses Dritte Auch er zeigt deswegen
paradoxe Züge, denen wir im folgenden nachgehen wollen.
In einer dreiwertigen Logik, bei der neben Wahrheit und Falschheit ein „Drittes“, nämlich eben die Wahrscheinlichkeit explizit zugelassen wird, kann das
Paradox kein Paradox bleiben. Man hat sich so sehr an die Wahrscheinlichkeit als
Drittes gewöhnt, daß man auch in der begrifflichen widersprüchlichen Verschmelzung von Wahrheit und Falschheit zur Wahrscheinlichkeit den Widerspruch nicht
mehr erkennt.
Der wahrsagende Lügner bzw. lügende Wahrsager (man könnte ihn auch einen
„ehrlichen Betrüger“ nennen) ist daher inzwischen eine in vielen Wissenschaften
notorische Person. Es handelt sich um denjenigen Wissenschaftler, der Wahrscheinlichkeitsbehauptungen aufstellt.
Das funktioniert jedoch nur in der Wissenschaft. Denn im Alltagsleben stellt
man nur über dasjenige Behauptungen auf, was man sicher weiß. Was man aber
nur glaubt oder gar nur ahnt, darüber spricht man im Alltagsleben im Konjunktiv,
und der ist zum Behaupten nicht geeignet, sondern zum Vermuten gemacht. Wer
statt des Konjunktivs oder in Verbindung damit etwas „wahrscheinlich“ nennt
(„es könnte wahrscheinlich so sein!“), der behauptet es damit nicht, sondern läßt
die Frage offen. Bei diesem Sprachgebrauch hat die „vermutende Wahrscheinlichkeit“ nichts mehr mit urteilsmäßiger Wahrheit und Falschheit zu tun, auch
nicht mit einer urteilsmäßigen Wahr-Falschheit.
Der erste paradoxale Zug am Wahrscheinlichkeitsbegriff ist also der, daß er von
Aussagen bzw. Behauptungen gelten soll, die gar keine Aussagen bzw. Behaup-
149
tungen sein können. Sie sind Vermutungen im Gewande von Behauptungen. Als
Vermutungen besitzen sie überhaupt keinen Wahrheitswert, d. h. sie sind weder
wahr noch falsch. Als Behauptungen aber besitzen sie einen Wahrheitswert, und
der ist „wahr und falsch zugleich“, was dann als „wahrscheinlich“ bezeichnet
wird.
Ein weiterer paradoxaler Zug am Wahrscheinlichkeitsbegriff liegt in seiner
doppelten Beziehung auf das subjektive Wissen bzw. Glauben einerseits und auf
einen angeblich objektiven Wirklichkeitsbestand andererseits. Nur das erstere
konnte bei seiner Verwendung schon durch die antiken Skeptiker gemeint sein,
und es wird weiterhin in der sogenannten subjektiven Wahrscheinlichkeitstheorie84 beibehalten.
Letzteres, die „objektive Wahrscheinlichkeit“, ist eine Erfindung der neuzeitlichen Mathematik, die ihren eigenen Begriffen ein ontologisches Korrelat zu
geben bemüht war. Die Kalkülisierung von „probabilités“ 85 beruhte auf der Annahme, daß diese mathematischen „Wahrscheinlichkeiten“ objektive Zustände
seien, die sich durch Messungen, d. h. Anwendung der Arithmetik auf empirische
und besonders physikalische Gegebenheiten, annäherungsweise erfassen ließen.
K. Popper hat solche objektiven Wahrscheinlichkeiten „propensities“ (etwa: Tendenzen) genannt.
Messungen sind in aller Regel ungenau und oszillieren um gewisse „Häufigkeitspunkte“, die man als Grenzwerte „unendlicher“ (d. h. beliebig lange fortsetzbarer aber nie zuende zu bringender) Meßreihen berechnet. Aus diesen Grenzwerten ergeben sich dann „idealisierte“ Meßwerte, von denen man annimmt, sie
drückten die Wirklichkeit aus. Es waren und sind noch immer diese genuin
mathematischen Verfahren, die dazu geführt haben, daß so viele Naturwissenschaftler davon überzeugt sind, die Wirklichkeit ließe sich überhaupt und
grundsätzlich nur noch in Wahrscheinlichkeitsbegriffen erfassen. Und da Naturgesetze grundsätzlich durch quantitative Messungen gewonnen werden, gibt man
in diesem Sinne auch die Naturgesetze nunmehr als Wahrscheinlichkeitsgesetze
aus.
Dies fällt dem mathematischen Logiker und Physiker umso leichter, als er seit
Leibniz (und Nikolaus Cusanus) daran gewöhnt ist, wohlunterschiedene Begriffe
in Kontinua aufzulösen, die an ihren definitorischen Grenzen ineinander übergehen. Danach ist etwa der „nichtausgedehnte Punkt“ zugleich eine „minimal
ausgedehnte Fläche“ (in der dann unendlich viele infinitesimale Flächenelemente
enthalten sind). Genau so erscheint dann die Wahrheit zugleich auch als „maximale (100 %ige) Wahrscheinlichkeit, und die „minimale“ (0%ige) Wahrscheinlichkeit als Falschheit. Darin zeigt sich aber nur ein weiterer paradoxaler Zug am
84
Vertreter sind L. J. Savage, The Foundations of Statistics, New York 1954, 2. Aufl. 1972 sowie B. de Finetti,
Probability, Induction, and Statistics. The Art of Guessing, London-New York 1972.
85
Pioniere dieser Wahrscheinlichkeitstheorie waren Jakob Bernoulli, Ars coniectandi, Basel 1713, ND Brüssel 1968 und
P. S. de Laplace, Théorie analytique des probabilités, Paris 1812, ND Brüssel 1967; dazu auch: Jak. F. Fries, Versuch einer
Kritik der Principien der Wahrscheinlichkeitsrechnung, Braunschweig 1842, auch in Sämtl. Schriften, hgg. von L.
Geldsetzer und G. König, Band 14, Aalen 1974.
150
gängigen mathematischen Wahrscheinlichkeitsbegriff. Für den Logiker aber
bleiben Wahrheit und Falschheit streng von der Wahrscheinlichkeit unterschieden.
Denn er wird ganz logisch behaupten: Wahrscheinlichkeit koinzidiert nicht mit
Wahrheit oder Falschheit.
Die entscheidende Paradoxie im Wahrscheinlichkeitsbegriff ergibt sich aus der
Verschmelzung logischer und mathematischer Vorstellungen in ihm. Die logische
Wahrscheinlichkeit wird nur logisch quantifiziert, die mathematische aber numerisch.
So ergibt sich die paradoxale Erscheinung, daß das für wahrscheinlich Gehaltene logisch nur entweder vorliegt (ohne daß man es kennt) bzw. daß es in der
Zukunft eintreten soll (was man daher in der Gegenwart auch nicht feststellen
kann), oder daß es nicht vorliegt (oder eintritt). Das mathematisch Wahrscheinliche aber wird in zahlenmäßiger Quantifizierung als Proportion „günstiger Fälle“
zu „allen möglichen Fälle“ ausgedrückt und dann als Quotient auch ausgerechnet.
Dadurch soll einem komparativen Mehr oder Weniger des Wahrscheinlichen hinsichtlich seiner Wahrheitsnähe Rechnung getragen werden.
Die Redeweise von „günstigen Fällen“ stammt aus dem Anwendungsbereich der
Glücks- und Wettspiele, wo der günstige Fall der erhoffte oder gewinnbringende
Ausgang eines Zufallsarrangements (Spiel) ist. Die „möglichen Fälle“ umfassen
den gesamten Risikobereich, der durch die nach den Spiel- oder Wettregeln
zugelassenen Spielzüge und Spielergebnisse beschrieben wird. Man geht also
davon aus, daß „alle möglichen Fälle“ neben den ungünstigen auch die günstigen
Fälle enthalten. Daher werden in der mathematischen Proportion die günstigen
Fälle doppelt angerechnet: einmal im ersten Glied der rein günstigen Fälle, zum
anderen nochmals im zweiten Glied aller Fälle. Das kann logisch gesehen keine
echte Proportion von günstigen zu ungünstigen Fällen darstellen.
Beispielsweise hält man nach mathematischen Vorstellungen die Wahrscheinlichkeit eines bestimmten Zahlwurfes mit einem fairen Würfel für 1 / 6. In
Prozenten ausgedrückt: 1 / 6 von 100 = 16,666... %. Dies gibt den Wahrscheinlichkeitswert für einen „günstigen“ Wurf. Wobei die 1 im Zähler des Quotienten
für den (erhofften) günstigen Fall, die 6 im Nenner für die sechs möglichen Fälle
einschließlich des einen günstigen Falles beim Würfelwurf steht.
Logisch aber gilt zugleich, daß jeder günstige Fall nur entweder eintritt oder
nicht eintritt, so oft man auch würfeln mag. Die mathematische Wahrscheinlichkeit eines prognostizierten Wurfergebnisses kann gar nichts über den jeweils
erhofften günstigen Fall besagen.
Glücksspieler dürften sich daher nicht beklagen, wenn etwa eine erhoffte und für
sie günstige Würfelzahl (die doch nach den Regeln der Wahrscheinlichkeitsrechnung „durchschnittlich“ einmal pro sechs Würfen erscheinen sollte) bei noch
so vielen Würfen (und „unendlich“ oft kann man nicht würfeln!) überhaupt nicht
erscheint. Sie freuen sich aber, wenn wider alle Erwartung der günstige Fall gleich
beim nächsten Wurf oder gar in Serie eintritt.
151
Der Münzwurf, bei dem es nur zwei gleichwertige Möglichkeiten (Bild und Zahl)
gibt, bietet das Beispiel der logischen Wahrscheinlichkeit. Was wir hier logische
Wahrscheinlichkeit nennen, wird gewöhnlich als „fify-fifty“ bzw. ´ oder 50 %ige
Wahrscheinlichkeit mathematisch quantifiziert. Die numerischen Formulierung
auch der logischen Wahrscheinlichkeit (50 %) erweckt den Anschein, als sei der
mathematische Wahrscheinlichkeitsbegriff der einzig angemessene und schließe
den logischen Wahrscheinlichkeitsbegriff ein. Das führt aber nur dazu, daß die
Paradoxie mathematisch so lautet: Jede nicht 50 %ige Wahrscheinlichkeit (von
0,999... bis 0,000...1) ist zugleich eine 50 %ige. Wie man ja leicht bei jedem
Glücksspiel feststellen kann.
Die Attraktivität, ja der Zauber der mathematischen Wahrscheinlichkeit beruht
auf zweierlei. Einerseits auf dem „statistischen“ Erhebungsverfahren staatlicher
Behörden, mit dem ursprünglich alle Fälle in einem Erfahrungsbereich erhoben
wurden (z. B. die Zahl der Einwohner, der Heiraten und der Geburts- und Sterbefälle in einem bestimmten Zeitintervall in einer bestimmten Region). Das konnte
bei gehöriger Sorgfalt der Erhebung zu wahren Ergebnissen führen und versah
alles „Statistische“ mit dem Renommee der Zuverlässigkeit und der Wahrheit.
Diese Erwartung erhielt sich auch bei der Ausweitung der Anwendung statistischer Verfahren auf repräsentative Stichproben, die mehr oder weniger mit Ungenauigkeiten behaftet sind. Diese werden dann ihrerseits mit statistischen Schätzungen über den Umfang der Abweichung von Erwartungswerten austariert. Damit aber kam der mathematische Wahrscheinlichkeitsbegriff ins Spiel. Er ließ bei
allen Anwendungen der mathematischen Statistik eine zahlenmäßig abschätzbare
Wahrheitsnähe assoziieren, wie ja schon die Bezeichnung selber nahelegt. Sie ist
bei allen Anwendungen der statistischen Wahrscheinlichkeitsberechnungen bei
Prognosen, insbesondere ökonomischen und spieltheoretischen Risikoabwägungen relevant geworden.
Logisch gesehen aber wird in der Tat mit dem Wahrscheinlichkeitsbegriff zugleich eine jeweils entsprechende Falschheitsnähe angesagt, die man dabei grundsätzlich unterschlägt, die aber in dem hier vorgeschlagenen Begriff „Wahr-Falschheit“ sehr deutlich zum Ausdruck kommt.
Im Falle der Glücksspiele sollte sich der würfelnde Glücksspieler klarmachen,
daß – gemäß dem herrschenden mathematischen Wahrscheinlichkeitsbegriff seine Hoffnung auf den mit 16,666... % Wahrscheinlichkeit für ihn günstigen Fall
immer zugleich mit einer Restquote von 83,333...% „Falschscheinlichkeit“ begleitet wird. Zugleich kann er aber über das Ergebnis des nächsten Wurfs überhaupt
nichts wissen (sofern der Würfel gut geeicht, d. h. „fair“ und nicht gefälscht ist).
Stellt man aber die Berechnung von Wahrscheinlichkeiten nicht, wie in der
Mathematik üblich geworden, als Proportion von günstigen zu allen möglichen
Fällen (und „alle möglichen Fälle“ erinnern hier an die ursprüngliche statistische
Gesamterhebung „aller“ Daten) dar und rechnet sie zudem als Quotient aus,
sondern beachtet, wie es logisch allein angemessen ist, die Proportion der günstigen zu den ungünstigen Fällen, so ergeben sich auch ganz andere numerische
152
Wahrscheinlichkeitsergebnisse. Beim Würfeln ist die Proportion dann 1 zu 5 und
nicht 1 zu 6. Oder in Prozenten: statt 16,666...% sogar 20 % für den günstigen Fall
und 80 % für den ungünstigen. Diese Formulierung des Wahrscheinlichkeitsquotienten ist in der Mathematik längst vorgeschlagen worden, hat aber keinen
Anklang gefunden.
Bringt man auch noch die oben explizierte logische Wahrscheinlichkeit in
Anschlag, so lautet die Proportion von günstigen zu ungünstigen Fällen sowohl
beim Münzwurf wie beim Würfeln 1 zu 1, also 50 % zu 50%. Die mathematischen Wahrscheinlichkeiten könnten also als 1 / 6, 1 / 5 und 1 / 2 (oder in entsprechender Dezimalform) angegeben werden.
Man sollte meinen, auf Grund dieser Erwägung müßten nun alle Wahrscheinlichkeitsaussagen und Prognosen korrigiert bzw. umgerechnet werden. Daß dies
aber weder nötig noch zielführend ist, ergibt sich schon daraus, daß die Wahrscheinlichkeiten ganz unerheblich für erwartete bzw. prognostizierte Daten sind.
Sie waren und sind eine mit großem mathematischem Apparat vorgeführte „Docta
ignorantia“, in der ein grundsätzliches Nichtwissen als verläßliches Wissen vorgetäuscht wird.
In dem wissenschaftstheoretisch so prominenten Thema der Wahrscheinlichkeit
treffen noch immer die seit der Antike kontroversen Ansichten der Stoiker und
Epikureer über die Frage zusammen, ob die Gesamtwirklichkeit einer durchgängigen Kausalität unterliege oder ob sie ganz und gar indeterminiert, d. h. „spontan“ und alles in ihr „zufällig“ sei.
Der stoische (kausale) Universaldeterminismus dominierte bis zum Beginn des
20. Jahrhunderts in der Physik. Nämlich bis auf Grund unlösbar scheinender Probleme der Mikrophysik der epikureische Indeterminismus wieder in den Vordergrund der Überlegungen trat. Seither sieht die Lage in der Physik, die man
gemeinhin für die entscheidende Einsichtsquelle in die kausal-determinierte oder
indeterminierte Struktur der Wirklichkeit hält, nach einem Waffenstillstand beider
Lager aus. Man sagt, in der Makrophysik herrsche der kausale Determinismus; in
der Mikro- bzw. Quantenphysik aber der Indeterminismus. Die Verbindung zwischen beiden aber stelle die statistische Wahrscheinlichkeitsbetrachtung her.
Nun sind beide Standpunkte ersichtlich Totalisierungen beschränkter Einsichten.
Nämlich daß es viele zuverlässige Erkenntnisse über Kausalitäten in der Natur
gibt, und daß es andererseits viele (vielleicht nur vorläufig) kausal unerklärliche
Erscheinungen in der Natur gibt. Der kausale Determinismus erweist sich so als
eine Hypothese bzw. Vermutung, daß in irgend einer fernen Zukunft alles bisher
kausal Unerklärbare kausal erklärt werden könne. Ihm steht der Indeterminismus
gegenüber als eine Hypothese bzw. Vermutung, daß alles bisher schon kausal
Erklärte sich in irgend einer fernen Zukunft noch tiefergehend als spontane
(chaotische bzw. freie) Selbstorganisation der Natur erklären lasse. Beide Strategien treiben naturgemäß die Forschung voran und legen die Vorstellungen von
asymptotischen Annäherungsprozessen an die Wahrheit nahe, wie sie K. Popper
propagiert hat.
153
Beide Strategien aber unterschätzen die Bedeutung und die Natur des Nichtwissens in der Wissenschaft. Die alte „docta ignorantia“ des Sokrates, des Cusaners und Pascals ist in neueren Zeiten gerade in die Wahrscheinlichkeitsproblematik eingebaut worden. Sie berührt aber darüber hinaus höchste Interessen der
Menschheit, nämlich die Interessen an einer Begründung der Freiheit einerseits,
und der Kalkulierbarkeit der Welt andererseits. Soll Freiheit mehr sein als Abwesenheit von sozialen Zwängen, so fällt sie überall mit dem Bereich des Nichtwissens zusammen. Und soll Notwendigkeit mehr sein als ein dringendes Bedürfnis,
so fällt sie mit dem Bereich der erkannten Kausalitäten zusammen.
§ 12 Die Rolle der Modelle und der Simulation in den Wissenschaften
Einige Vermutungen über den kulturellen Ursprung des Abbildens als Wurzeln von Kunst und
Wissenschaft, insbesondere der Mathematik. Die Trennung von sinnlicher Anschauung und unanschaulichem Denken bei den Vorsokratikern. Die Erfindung der Modelle durch Demokrit: Buchstaben als Modelle der Atome. Ihre Verwendung bei Platon, Philon und bei den Stoikern. Allgemeine Charakteristik der Modelle. Geometrie als Veranschaulichung der arithmetischen Strukturen von Zahl und Rechnung. Die Rolle der geometrisierenden Veranschaulichung der Naturobjekte in der Physik. Der Modelltransfer und seine Rolle bei der Entwicklung der physikalischen
Disziplinen. Die Mathematisierung von Chemie, Biologie und einiger Kulturwissenschaften. Die
Parallele der Entwicklung von formalisierter Mathematik und formaler Logik und die Frage von
Anschaulichkeit und Unanschaulichkeit. Das Verhältnis von mathematischer Axiomatik und
Modell-Theorien ihrer Anwendungen. Die Dialektik von Gleichung und Analogie in formalen
Modellen der Mathematik. Die Modellierung von Prozessen als Simulation und die Dialektik von
Abbildung und Vortäuschung. Der Computer und seine Modell- und Simulationsfunktion. Die
Computersimulation der Gehirnvorgänge und deren metaphysisch-realistische Voraussetzungen.
Die KI-Forschung („Künstliche Intelligenz“) und die Dissimulierung der Analogie von Computer
und Intelligenz. Weitere Anwendungsbereiche der Computersimulation. Das Beispiel der KlimaSimulation
In jeder Kultur greift der Mensch in die Dinge und Sachverhalte ein, verändert
ihre Konstellationen und erzeugt neue Gegenstände. Die Wörter als artikulierte
Lautkonstellationen in den Gemeinsprachen gehören selbst schon zu solchen
„künstlichen“ Gegenständen. Aber ein großer Teil der künstlichen Dinge ahmt die
natürlichen Dinge nach und stellt Abbilder von ihnen dar. Auch die Lautnachahmungen vieler Wörter (wie das berühmte „Wau-wau“) verdanken sich dieser
primitiven Kulturtätigkeit. Erst recht aber auch die verkleinerten oder vergrößerten Bildwerke, die schon in den ältesten archäologischen Funden zutage getreten
sind. Es muß schon ein gewaltiger Schritt in der Kulturgeschichte gewesen sein,
als diese Abbilder von räumlichen Gegenständen zu Bildern wurden, d. h. in
154
flächige Figuren überführt wurden, wie sie in den Fels- und Höhlenzeichnungen,
die vermutlich bis zu 40 000 Jahre alt sind, gefunden wurden.
Die Repräsentationen der natürlichen Dinge durch körperliche und flächige
Abbilder machte die Dinge verfügbar für den zivilisatorischen Umgang mit ihnen.
Spiel, Belehrung, Kult, Erinnerungskultur, Handel, Thesaurierung und vieles
mehr beruhte auf dieser Verfügbarkeit. In ihrem Gebrauch wurden sie zu Zeichen
für das, was sie abbilden. Am deutlichsten sieht man es noch in den chinesischen
(„ikonischen“) Schriftzeichen, die als stilisierte Abbildungen von Dingen und
Sachverhalten entwickelt wurden. Derjenige verstand die Zeichen, der sie mit
ihren Vor- oder Urbildern, den Gegenständen selbst, vergleichen konnte.
Aber mit zunehmender Komplexheit der Zivilisationen und Kulturen wurden die
Zeichen „abstrakt stilisiert“. Der Zusammenhang mit dem, was sie abbildeten,
wurde prekär und vieldeutig. Am deutlichsten zeigt sich das in der Verschiedenheit der kulturgebundenen Laut-Sprachen. Durch die eigene (Mutter-) Sprache
hat noch jeder einen bestimmten konkreten Zugang zu seiner Umwelt. Wer eine
Fremdsprache lernt, muß die Spuren noch vorhandener Abbildlichkeit aus ihrer
Kultur lernen. Selbst der Hahnenschrei „lautet“ in den verwandten europäischen
Sprachen immer wieder anders als das deutsche „Kikeriki“.
Der Umgang mit den Abbildern ist die Grundlage von Kunst und Wissenschaft
geworden. Deren Entwicklungen gehen Hand in Hand. Frühe Wissenschaft bedient sich der Kunst, wenn sie deren Abbilder und Zeichen zu ihren besonderen
Gegenständen macht. Dadurch präsentiert sich das Große und Ferne als Kleines
und Nahes der unmittelbaren Inspektion und Manipulation der Wissenschaftler.
Lao Zi (ca. 571 – 480 v. Chr.) drückte es in China so aus:
„Ohne aus der Tür zu gehen, kennt man die Welt. Ohne aus dem Fenster zu spähen,
sieht man das Himmels-Dao (den Prototyp des Weltgesetzes). ... Darum kennt sich
der Heilige (d. h. der prototypische Wissenschaftler) ohne zu reisen aus. Er nennt
die Dinge beim Namen ohne herumzuspähen, und er bringt etwas zustande ohne
einzugreifen“.86
Auch der moderne Wissenschaftler befindet sich vor seinem Buch oder Computer
noch in der gleichen Situation, indem er die Welt über Verbildlichungen zu sich
kommen läßt. Frühe Kunst aber bedient sich solchen Wissens und der anfänglichen Formen von Wissenschaft, wenn sie ihre Bilder und Zeichen verfeinert,
stilisiert, typisiert.
Mathematik in ihren beiden Zweigen Geometrie und Arithmetik dürften die
ältesten Wissenschaften sein. Geometrie arbeitet aus den Abbildungen der Dinge
und Sachverhalte deren einfachste Formen heraus und perpetuiert ihre ständige
Reproduzierbarkeit mit Zirkel und Lineal. Man setzt den Zirkel an einem „Punkt“
86
Lao Zi, Dao De Jing, neu übersetzt von L. Geldsetzer, II. Teil, 47, im Internet des Philosophischen Instituts der HHU
Düsseldorf, 2000; auch in: Asiatische Philosophie. Indien und China. CD-ROM, Digitale Bibliothek (Directmedia Publishing GmbH), Berlin 2005.
155
ein und zieht damit „Kurven“ und „Kreise“. Dem Lineal verdankt man den
geraden Strich, die „Linie“.
Arithmetik unterwirft alle Dinge der Abzählbarkeit, indem sie verfügbare Dinge
als Abbilder von Dingen gruppiert und ordnet. Ihre plastischen und schon abstrakten Abbilder der Dinge dürften zuerst Psephoi (Kalksteinchen), alsbald Münzen
gewesen sein. In den verschiedenen Münzmetallen unterscheidet die Arithmetik
(axiein = wertschätzen) die Abbilder, die Einzelnes und Vielfaches repräsentieren.
Was wir so sagen können, ist eine hypothetische historische Spekulation über
Ursprünge, und dies im Sinne einer historischen Möglichkeit, wie sie vorne
definiert wurde. Sie soll am Einfachen und Schlichten auf etwas Wesentliches an
der Wissenschaft hinweisen.
Wissenschaft beruht auf der Anschauung und sinnlichen Erfahrung der Welt.
Noch immer erinnern ihre vornehmsten Begriffe daran: „Wissen“ hat die etymologische Wurzel im „Sehen“ (indogermanisch Vid-; griech. idea, lat. videre),
„Theorie“ in der „Gesamtschau“ einer Gesandtschaft, die darüber berichtet
(griech. theorein), „Intuition“ in der „Betrachtung des Einzelnen“. Auch die arabische Wissenschaft, die an die antike griechische Bildung anknüpfte, führt ihre
Theoriebegriffe auf das „Anschauen“ (arab.: nazar) zurück. Was darüber hinausgeht, heißt noch immer „Spekulation“, d. h. „Spiegelung“ der Bilder, das zu neuen
und vermittelten Bildern führt. Spekulation ist der Ausgang des philosophischen
Denkens aus der Anschauung in ein anderes Medium, über dessen Natur noch
immer heftig diskutiert und geforscht wird.
Die einen nennen dies Medium „überanschauliches Denken“, manche „unanschauliches Denken“. Auch die „Ahn(d)ung“ und die Intuition, von der wir eingangs sprachen, weist in diese Richtung. Wird das Denken von der Sinnesanschauung unterschieden und getrennt, wie es für abendländische Wissenschaft
und Philosophie konstitutiv wird, so muß das Denken etwas anderes und Selbständiges gegenüber der sinnlichen „bildhaften“ Wahrnehmung sein.
Parmenides (geb. um 540 v. Chr.) übersprang die sinnliche Anschauung als
täuschend und identifizierte das reine Denken (to noein) als Eines mit dem Sein
(to einai). Anaxagoras (ca. 499 – ca. 428 v. Chr.) nannte es „Nous“ (Vernunft
oder Denkkraft). Bei Platon, Aristoteles und bei den Stoikern wurde der Nous (lat.
ratio) zum eigentlichen Erkenntnisorgan. Descartes wiederholte in der Neuzeit die
parmenideischen und platonischen Argumente, indem er die sinnliche Anschauung skeptisch in Frage stellte und das Vernunftdenken als einzig zuverlässige
Erkenntnisquelle herausstellte. In einer der wirkkräftigsten spekulativen Philosophien der Moderne, in der Transzendentalphilosophie Kants, wurde reines Denken
zur „reinen Vernunft“. Alle Formen des philosophischen Rationalismus berufen
sich seither auf Descartes und Kant und beschwören die Selbständigkeit der
Vernunft gegenüber aller sinnlichen Anschauung.
Zu dieser Frage der Stellung und Rolle der Vernunft muß auch der Wissenschaftstheoretiker Stellung beziehen. Er muß metaphysisch Farbe bekennen, ob er
sich auf die eingefahrenen Bahnen des Rationalismus oder des Sensualismus
156
begeben will. Machen wir also keinen Hehl aus dem diesen Ausführungen zugrunde liegenden Sensualismus. Und verschweigen wir nicht die offensichtliche
Tatsache, daß der Rationalismus in der Moderne die Mehrheit der Wissenschaftler
hinter sich hat, der empiristische Sensualismus aber nur wenige Denker des 18.
Jahrhunderts wie George Berkeley (1685 -1753) und Etienne Bonnot de Condillac
(1714 – 1780).
Ein wesentlicher Prüfstein für die Leistungsfähigkeit des Rationalismus bzw.
des Sensualismus sind die in der Wissenschaft verwendeten Modelle. Ihre Rolle
ist ein Modethema der neueren Wissenschaftstheorie geworden.87 Aber die Modelle haben unter den Bezeichnungen Gleichnis, Metapher, Symbol u. ä. eine
lange Geschichte.
Der erste Philosoph, der die Modelle zum Thema machte, war Demokrit (2.
Hälfte des 5. Jhs v. Chr.). Er suchte, wie alle Vorsokratiker, nach dem Grund und
Ursprung aller Dinge (arché) und fand ihn im Vollen der Atome und im Leeren
des Raumes. Von den Atomen aber sagte er, man könne die winzigsten von ihnen
nicht sehen bzw. sinnlich wahrnehmen, und ebenso wenig den leeren Raum. Gerade das, was der Grund und Ursprung aller Dinge in der Welt sein sollte, könne
nicht sinnlich wahrgenommen werden. Es mußte zur Erklärung der unsichtbaren
winzigen Atome (größere Atome könne man u. U. als Sonnenstäubchen sehen)
und des leeren Raumes „gedacht“ werden. Das wurde zur Matrix der physikalischen Theorien von den „unbeobachtbaren Parametern“, die eines der umstrittensten Themen der modernen Physik geworden sind.
Aber „unanschauliches Denken“ konnte Demokrit sich nicht vorstellen. Und so
führte er die Modelle zur Veranschaulichung des Unanschaulichen ein. In seinem
Falle waren es die (erst kurz vor ihm in Griechenland eingeführten) Buchstaben
der Schrift. Ihre verschiedenen Gestalten vertraten die verschiedenen Atomsorten,
ihre Verbindungen zu Wörtern und Sätzen vertraten die Komplexionsformen der
Moleküle. Und man darf vermuten, daß er die Lücken zwischen Wörtern für
anschauliche Modelle des Leeren hielt (auch bei der alten scriptio continua
mußten sich die gelesenen Wörter von einander abgrenzen lassen, um verstanden
zu werden).
Der zweite wichtige Entwicklungsschritt zur Modelltheorie war Platons (427 –
347 v. Chr.) Ideenlehre. Von Demokrit hat er den Modellgebrauch für Veranschaulichungen übernommen. Seine Modelle für die „unanschaulichen“ und nur
„zu denkenden“ Ideen waren seine berühmten Gleichnisse (Höhlengleichnis, Sonnengleichnis, Liniengleichnis im „Staat“), und viele andere. Daß er gleichwohl
von „Ideenschau“, und zwar mit einem „geistigen Auge“, sprach, darf man selbst
schon als Metaphorik, in welcher das sinnliche Auge als Modell für das „unsinnliche Denken“ steht, verstehen. Aber es wurde zu einer Wurzel des „dialektischen Denkens“, in welchem das sichtbare Modell mit dem Unsichtbaren ver87
Für eine Übersicht der Modelltypen und Anwendungsgebiete vgl. H. Stachowiak in: Handlexikon zur Wissenschaftstheorie, hgg. v. H. Seiffert und G. Radnitzky, München 1989, S. 219 – 222; ders., Allgemeine Modelltheorie, Wien 1977,
sowie ders., Modelle - Konstruktion und Simulation der Wirklichkeit, München 1983.
157
schmolz (wie modellhaft die immer sichtbare Vorderseite des Mondes mit seiner
unsichtbaren Rückseite).
Die Nachfolger der platonischen Ideen waren in der abendländischen Philosophie und Wissenschaft der Gott, die Geister und die Kräfte. Sie sind immer da
und wirken, aber man nimmt sie nicht wahr. Wie man über sie „dialektisch“
redete und dachte, zeigt sich in der Erbfolge des Platonismus und Neuplatonismus.
Für alle Geisteswissenschaften wurde die Lehre des Neuplatonikers Philon von
Alexandria (um 25 v. Chr. – um 50 n. Chr.) vom mehrfachen Schriftsinn eine
immer sprudelnde Quelle der geisteswissenschaftlichen Modelle, die hier die
Form der Metaphern und Allegorien annahmen. Auf dem Hintergrund der platonischen Ideenlehre war für Philon der „geistige Sinn“ der heiligen Schriften und
insbesondere der jüdischen Thorah etwas nur zu Denkendes. Von diesem nur zu
Denkenden unterschied Philon seine Veranschaulichung in den Texten. Zentral
wurde sein hermeneutischer Kanon vom „allegorischen Sinn“, in dem Platons
Gleichnislehre perenniert wurde. Er liegt auch Cassians vierfachen Kanones vom
literalen, allegorischen, moralischen und anagogischen Sinn zugrunde, die vor
allem den Laien der religiösen Gemeinde die „geistige Botschaft“ durch die
wörtliche Einkleidung, die gleichnishaften und moralischen Beispiele und die
Hinweise bzw. Andeutungen prophetischer Art anschaulich vermitteln.
Der dritte wesentliche Entwicklungsschritt der Modelltheorie war die Theorie
der Stoiker über das Verhältnis von Mikrokosmos und Makrokosmos. Die stoische Neuerung bestand darin, daß sie nicht das Unanschauliche durch Modelle
repräsentierten, sondern etwas Anschauliches durch etwas anderes Anschauliches.
Das wurde zum Ausgang einer allgemeinen Metaphorologie, in welcher alle
Dinge Symbole für einander werden konnten. Da sie im allgemeinen einen kausalen Universaldeterminismus vertraten, hat sich bei den Stoikern das MikroMakroverhältnis mit der Meinung vermischt, das Modell-Verhältnis sei ein Kausalverhältnis. Davon zeugt der römische Augurenkult und im weitesten Ausmaß
die Astrologie und Mantik. Sternkonstellationen, Handlinien, Physiognomien sind
bekanntlich auch heutzutage noch in weitesten Kreisen motivierende Kausalitäten
für praktisches Verhalten, Tun und Entscheidungen.
Kommen wir aber zu einer mehr systematischen Betrachtung der Modelle.
Modelle sind seit Demokrit ein „Quid pro quo“ geblieben. Etwas Anschauliches
steht für etwas anderes. Was dies andere aber sein kann ergibt sich aus metaphysischen Begründungen sowie aus der Abgrenzung der Wissenschaftsgebiete und
deren Gegenständen.
1. Wichtig ist, daß ein Modell grundsätzlich etwas anderes ist als das mit ihm
„Veranschaulichte“. Das Modell für die „Sache selbst“ nehmen, ist daher ein
schwerer aber weitverbreiteter Fehler in den Anwendungen. Solchen Fehlern sind
wir schon in den bisherigen Ausführungen begegnet.
158
2. Modelle sind grundsätzlich Verkürzungen dessen, was sie darstellen sollen.
Was nicht in ihnen dargestellt wird, bleibt außer Betracht, obwohl es als existent
vorausgesetzt wird.
3. Nicht alles eignet sich dafür, als Modell für etwas gebraucht zu werden. Aber
die tatsächlich verwendeten Modelle werden oft in ihrer Modellfunktion verkannt.
4. Auch wird leicht übersehen, daß ganze Disziplinen und Wissenschaften mit
ihren Objekten Modell für andere Wissenschaften geworden sind.
Letzteres ist gerade bei der Geometrie zuerst und bis heute der Fall. Die geometrischen Gebilde Punkt, Linie, Kurven, Fläche, Körper waren und sind durch
die Arbeit der Geometer stets verfeinerte und untereinander zu immer komplexeren Gebilden ausgestaltete Abbilder von Dingen und Sachverhalten der Erfahrungswelt geworden. Sie werden zuerst anschauliche Modelle für die Ausbildung
der Arithmetik, wie man am Lehrbuch des Euklid und in seiner Tradition in der
Mathematik sehen kann.
Aber auch die Naturphilosophen verwendeten die geometrischen Figuren als
Modellvorrat. Davon zeugt die antike Kosmoslehre in ihrer selbstverständlichen
Voraussetzung, daß die Himmelskörper auf Fix-Punkten („Firmament“) stehen
oder auf Kreisbahnen laufen sollten, ebenso mit der Voraussetzung, daß sich beim
Schattenwurf des Lichts zwischen Lichtquelle und Gegenstand gerade Linien
ergeben.
Nicht minder verbreitet war aber auch die Benutzung geometrischer Figuren in
der Landvermessung (daher die Bezeichnung „Geometrie“) und deren proportionierte Verkleinerungen in der Kartographie und in Bau- und Konstruktionsplänen der alten Architekten und Ingenieure. Man erinnere sich, daß die griechischen Tempelbauer nur in Proportionen bauten, nicht aber mit geeichten
numerischen Maßen. Nicht zwei Tempel der antiken Welt weisen übereinstimmende „Maße“ auf, obwohl sie fast alle in ihren geometrischen Proportionen
übereinstimmen.
Die Entwicklung der Arithmetik als Wissenschaft des „unanschaulichen Denkens“ war ohne die Modelle der geometrischen Gebilde nicht möglich. Und die
Didaktik der numerischen Mathematik kann auch heute nicht auf die geometrischen Modelle verzichten. Erst die neuzeitliche Erfindung der „analytischen
Geometrie“ hat diesen Modellzusammenhang von Geometrie und Arithmetik
gelockert, aber sie hat den Zusammenhang nicht aufgehoben.
Die neuzeitliche analytische Geometrie des Descartes verstand sich selbst als
Autonomisierung der Arithmetik, die das ganze Gebiet der Geometrie als Anwendungsbereich der Numerik vereinnahmte. Das führte bekanntlich zu enormen
Fortschritten der konstruierbaren Komplexität der geometrischen Gebilde, die
weit über deren ursprünglichen Abbildungscharakter hinausging. Aber auch für
die arithmetischen Strukturen und Gebilde werden noch immer „Graphen“ (d. h.
geometrische Modelle) gesucht und entwickelt. Die Grenzgebilde zwischen geometrischer Anschaulichkeit und arithmetischer Unanschaulichkeit kann man
besonders in der Entwicklung der Infinitesimal- und Unendlichkeitsnumerik be-
159
sichtigen, die als „transzendent“, d. h. über geometrische Demonstrierbarkeit
hinausgehend, bezeichnet werden.
Der Verlust anschaulich-geometrischer Modelle in der sogenannten Analysis
eröffnete zwar neue Perspektiven für unanschauliches mathematisches Denken.
Aber dessen Vollzug und Nachvollzug ist weitgehend Sache der individuellen und
privaten Modelle ihrer Entwickler und ihrer Interpreten. Kommt es dabei zu neuen
Vorschlägen, so werden die mathematischen Denker für ihre Denkergebnisse
durch die „Fielding-Medaille“ (den „Nobelpreis“ der Mathematiker) und Prämien
von speziellen Stiftungen ausgezeichnet. Dem Laienpublikum sind sie in der
Regel schon lange nicht mehr verständlich zu machen, und dem Mathematiker
anderer Spezialisierung meist ebenso wenig. Es gibt wohl keine andere Wissenschaft, in der die Spezialisierung so weit getrieben worden ist, daß nur noch
zwei oder einige wenige Spezialisten sich darüber verständigen können, worüber
sie forschen und reden und was sie sich dabei „denken“.
Die Physik wurde sowohl in der platonischen Zuordnung zum Quadrivium wie
im Aristotelischen System der „theoretischen Wissenschaften“ aufs engste mit der
Mathematik zusammengestellt. Mathematik ist bei Aristoteles die zweite „theoretische Wissenschaft“ nach der Ontologie (die später „Metaphysik“ genannt wurde); die dritte theoretische Wissenschaft ist die Naturwissenschaft („Physik“).
Das gilt bis heute als selbstverständlich und alternativlos. Daß es nicht immer
selbstverständlich war, erkennt man daran, daß die aristotelische Physik bis in die
Renaissance fast ohne Arithmetik, wohl aber auf geometrischer Grundlage, entwickelt wurde. Die Einbeziehung der Arithmetik in die Physik war immer eine
platonische und dann neuplatonische Erbschaft, wie man an der Licht-Geometrie
des Robert Grosseteste (ca. 1168 – 1253), Roger Bacons (ca. 1214 – ca. 1292) ,
bei den „Calculatores“ des Merton-Colleges an der Universität Cambridge, dann
vor allem bei Nikolaus von Kues (1401 – 1464) und danach bei Galileo Galilei
(1564 – 1642) sehen kann.
Die mathematische Physik bestand und beruht bis heute auf der Verwendung
der Geometrie als Modellreservoir für die Abbildung der physikalischen Welt.
Alles, was Gegenstand physikalischer Forschung und Erklärung sein kann, muß
zunächst „geometrisiert“ werden, um es dann auch numerisch-messender Betrachtung zu unterwerfen. Erst in dieser geometrisierten Gestalt können physikalische
Objekte auch Gegenstand der numerisch-messenden Physik werden. Man sieht
das an der kosmologischen Big-Bang-Theorie (Urknall), die den Anfang des
Kosmos als Punkt-Ereignis und die Ausdehnung des Kosmos als sphärisch-lineare
Ausbreitung geometrisiert. Die alternative Theorie einer kosmischen Oszillation
von Ausdehnung und Zusammenziehung („ohne Anfang“, nach dem „SystoleDiastole“-Modell des Empedokles) bedient sich teilweise des geometrischen Wellenmodells.
Daß man in der Physik solche Modelle „selbstverständlich“ verwendet, verdankt
sich einer langen Tradition des Modelltransfers und der Modellkonkurrenz zwischen den einzelnen physikalischen Spezialdisziplinen.
160
Die „physikalische“ (eigentlich: physische) Natur bietet sich dem Betrachter dar
in Gestalt diskreter fester Körper und als kontinuierliches Fließen von Flüssigkeiten und Wehen von Winden (Gasen). Ob und wie man das eine für den Grund
des anderen halten konnte, darüber haben sich Demokrit und die stoischen und
epikureischen Atomisten mit Heraklits (um 544 – 483 v. Chr.) Dictum „Alles
fließt“ (panta rhei) und neuplatonischen „Emanations-Philosophen“ (emanatio =
„Herausfließen“) auseinandergesetzt.
Die Physik hat zunächst beide Phänomene in getrennten Disziplinen erforscht.
Daraus entstanden einerseits die sogenannte korpuskulare Mechanik und andererseits die „Hydrodynamik“ der Flüssigkeiten. I. Newton (1643 – 1727), der Korpuskularphysiker, und Christian Huygens (1629 - 1695), der Hydrodynamiker,
wiederholten den antiken Streit zwischen den Atomisten und Emanatisten um den
Vorrang ihrer Modelle für die Erklärung des Lichts und seiner Eigenschaften auf
den Grundlagen der mathematischen Physik ihrer Zeit. Es ging um die Frage,
welches Modell – diskrete Körper oder kontinuierliche Flüssigkeiten – sich besser
dazu eigne, die Lichterscheinungen mathematisch elegant und vollständig zu erklären und zugleich anschaulich zu machen.
Wie man weiß, blieb der Streit unentschieden. Beide Modelle blieben in Konkurrenz auch in neueren physikalischen Disziplinen. Die entsprechenden Theorien
sind die Korpuskel-Mechanik und die Wellenmechanik. Mathematisches dialektisches Denken aber vereinigt mittlerweile beide zur „dualistischen“ Theorie der
Partikel-Wellen-Mechanik.
Daß es überhaupt zu einer Abgrenzung der „Mikrophysik“ (der Elementarteilchen oder Wellen) von der klassischen Makrophysik gekommen ist, verdankt
sich ebenfalls zum Teil einem Modelltransfer. Die alte Physik der Himmelskörper
und ihrer mechanischen Bewegungen wurde selbst zum Modell, sich die Atome
wie kleine Sonnen vorzustellen, um welche die Elektronen wie Planeten kreisen
(Bohrsches Atommodell). Aber die genauere Erforschung des Verhaltens der
Elektronen (deren Theorie ja in der „Hydro“-Dynamik des elektrischen “Stroms“
entwickelt worden war) zeigte das Ungenügen dieser Modellvorstellung. Statt um
„Flüsse“ und ihr „Strömen“ geht es nun um „Strahlungen“, in denen etwas bewegt
wird, was sich manchmal an Meßpunkten identifizieren läßt, manchmal aber auch
nicht (non-locality). Die anhaltende Verlegenheit um eine Modellvorstellung
dafür äußert sich in der „String-Theorie“ („Schleifen“).
Ebenso war die Entwicklung der Relativitätstheorie, die heute die makrokosmische Physik beherrscht, zunächst inspiriert von den Erkenntnissen der Akustik,
insbesondere des Dopplereffektes bewegter Schallquellen. Schallausbreitung wurde zum Modell der Lichtausbreitung, bis sich das Ungenügen der Modellanalogien des Schalls angesichts der (von A. Einstein postulierten) Konstanz der
Lichtausbreitung herausstellte. Inzwischen steht auch die Astronomie im Zeichen
der Modellierung und Simulation, wie es im Titel der Jahrestagung der astronomischen Gesellschaft in Deutschland 2011 zum Ausdruck kam: „Surveys and
Simulations / The Real and the Virtual Universe“.
161
Die Chemie war in ihrer Geschichte (als Alchemie) ziemlich weit entfernt von
Mathematisierung. Antoine Laurent Lavoisier (1743 – 1794) und John Dalton
(1766 – 1844) aber haben erste quantitative Gesetze der Elementenverbindungen
aufgestellt und damit ihre Mathematisierung eingeleitet. Atome wurden durch
Jens Jakob Berzelius (1779 – 1848) mit latinisierten Eigennamen bezeichnet (z. B.
„H“ für „Hydrogenium“ bzw. Wasserstoff). Moleküle als chemische Verbindungen von Atomen bezeichnete er mit Wörtern bzw. „Formeln“, die ihren Aufbau
gemäß der Zahl ihrer Atome darstellten (z. B. „H2O“ für das Wassermolekül, bestehend aus 2 Wasserstoffatomen und einem Sauerstoffatom). Molekülvorstellungen aber unterwarf man dann auch in der Chemie der Geometrisierung mittels
„Strukturformeln“, die die gegenseitige Lage der Atome im Molekül veranschaulichen sollten. Diese wurden dann auch durch dreidimensionale Modelle
dargestellt. Die Modelle erwiesen sich als fruchtbare heuristische Instrumente für
die Entdeckung vieler komplizierterer Molekülverbindungen. August Kekülé von
Stradonitz (1829 – 1896) berichtete 1865, wie er im „Halbtraum“ das Strukturmodell des Benzolrings (C6H6) in Gestalt einer sich selbst in den Schwanz
beißenden Schlange fand. Francis Crick und James Watson entdeckten 1953 die
Doppelhelix als Strukturmodell der DNA und erhielten dafür den MedizinNobelpreis.
Ein bedeutender Schritt in der chemischen Modellierung waren die sogenannten
chemischen Reaktionsgleichungen. Sie stellen Anfangs- und Ergebniskonstellationen von chemischen Prozessen dar. Auch bei ihnen kann man den Effekt dialektischer Mathematisierung feststellen. Denn sie drücken zugleich die Gleichheit
und die Unterschiedlichkeit der Anfangs- und Endkonstellationen von Prozessen
in Gleichungsform dar, wo man logisch behauptende kausale Implikationen erwartet hätte.
Auch die Biologie hat an dieser Geometrisierung ihrer Gegenstände teilgenommen. Goethes „Urform“ der Pflanze im Modell des Ginko-Blattes war ein Vorschlag dazu. Eine wichtige Vorstufe, die Biologie näher an die Physik heranzubringen, war die geometrische Beschreibung der tierischen und pflanzlichen „Zellen“ durch Matthias Jakob Schleiden (1804 – 1881). Noch weitergehend versuchte
dies der „Energetismus“ der Monisten-Schule des Chemie-Nobelpreisträgers Willhelm Ostwald (1853 – 1932) und Ernst Haeckels (1834 – 1919).
Der Physiker Felix Auerbach (1856 – 1933) ging von dem Ansatz der Monistenschule aus, daß die Organismen insgesamt „Energiewesen“ sind, die in ihren Körpern Energie speichern und „verkörpern“, zugleich aber auch in ihren Lebensprozessen Energie umsetzen. Er erkannte dabei, daß der Bereich des organischen
Lebens sich vom Bereich der toten physikalischen Natur dadurch unterscheidet,
daß die Lebewesen nicht dem 2. Hauptsatz der Thermodynamik unterliegen.
Dieses sogenannte Machsche Gesetz besagt, daß in „geschlossenen Systemen“ der
Physik (ohne Energiezufuhr von außen) die Energiepegel eine „entropische Tendenz“ zum allgemeinen Niveauausgleich aufweisen (deshalb nennt man das
Machsche Gesetz auch Entropiegesetz), wodurch zugleich auch die physikalische
162
Zeitrichtung (von der Vergangenheit in die Zukunft) definiert bzw. simuliert wird.
Auerbach nannte den Energiehaushalt lebendiger Organismen im Gegensatz zur
Physik geschlossener Systeme „ektropische Systeme“, (in denen sich auch die
Zeitrichtung, die die Entwicklung der Lebewesen bestimmt, umkehrt. 88 Heute
spricht man diesbezüglich von „Negentropismus“ (= negativer Entropismus). Auf
dieser Grundlage hat dann Karl Ludwig v. Bertalanfy (1901 - 1972) sogenannte
Fließdiagramme der Lebewesen erarbeitet. Diese hat er in Modellen von „offenen
Systemen“ (GST, d. h. General System Theory) darzustellen versucht.89
Obwohl die Möglichkeit einer adäquaten Darstellung „offener Systeme“ und
erst recht deren Anwendung in anderen Wissenschaften wie Psychologie und
Soziologie umstritten ist, war dieser Ansatz doch ein wichtiger Beitrag zur Eingliederung der biologischen Objekte in das physikalisch-geometrische Paradigma.
Aber erst die neuere Rückbindung der Biologie an die physikalische Chemie
(„Molekularbiologie“ und „Molekularmedizin“) hat diese Tendenz zur herrschenden gemacht.
Die moderne Tendenz zur Mathematisierung weiterer Einzelwissenschaften hat
auch das Modelldenken in diesen Wissenschaften zur dominierenden Methode
gemacht. Hier sind vor allem die Soziologie und die Ökonomie zu nennen. Für
beide Bereiche war einer der Ausgangspunkte die Max Webersche Theorie von
den „Idealtypen“, die schon als Modelle in nuce angesprochen werden können.90
Kern- und Ausgangspunkt für ökonomische Modelle ist etwa der „vollkommene
Markt“ (ohne Monopole und Kartelle bei vollständiger Information aller Marktteilnehmer über die Marktlage) oder der „Homo oeconomicus“, der sich stets
marktgerecht „rational“ verhält.91
Von den Geisteswissenschaften hat sich die Linguistik („Computerlinguistik“)
am meisten dieser Tendenz geöffnet.92
Die Psychologie hat sich seit dem 19. Jahrhundert in einen geisteswissenschaftlichen (W. Dilthey, H. Lipps u. a.) und einen medizinisch-klinisch-naturwissenschaftlichen Zweig (im Anschluß an J. F. Herbart) geteilt. Für den letzeren Zweig
dürften das Hauptmodell der Computer und seine Leistungskapazitäten geworden
sein.
In die Philosophiegeschichtsschreibung hat das Modellkonzept mit Rudolph
Euckens „Bilder und Gleichnisse in der Philosophie“ 93 Einzug gehalten. Aber es
88
Vgl. F. Auerbach, Ektropismus und die physikalische Theorie des Lebens, Leipzig 1910.
K. L. v. Bertalanfy, Biophysik des Fließgleichgewichts, Braunschweig 1953, 2. Aufl. Berlin 1977; ders., General
System Theory, Scientific-Philosophical Studies, New York 1968, 2. Aufl. 1976.
90
M. Weber, „Über einige Kategorien der verstehenden Soziologie“ sowie „Die drei reinen Typen der legitimen Herrschaft“, in: M. Weber, Soziologie, Weltgeschichtliche Analysen, Politik, hgg. v. J. Winckelmann, Stuttgart 1956, S. 97 –
166.
91
Vgl. R. Mayntz, Formalisierte Modelle in der Soziologie, Neuwied 1967; D. Maki und M. Thompson, Mathematical
models and applications. With emphasis on the social, life, and management sciences, Englewood Cliffs, N. J. 1973; K.
Troitzsch, Modellbildung und Simulation in den Sozialwissenschaften, Opladen 1990; H. Albert, Marktsoziologie und
Entscheidungslogik, Neuwied-Berlin 1967, neue Aufl. Tübingen 1998.
92
Vgl. N. Chomsky, Explanatory models in linguistics, in: Logic, Methodology and Philosophy of Science, hgg. von E.
Nagel, P. Suppes und A. Tarski, Stanford Univ. Press 1962, S. 528 – 550; H. P. Edmundson, Mathematical Models in
Linguistics and Language processing, in: Automated Language Processing, hgg. von H. Borko, New York 1968, S. 33 – 96.
89
163
dauerte bis in die zweite Hälfte des 20. Jahrhunderts, bis es von Hans Leisegang
unter dem Titel „Denkform“ 94 und Ernst Topitsch in Verbindung mit dem
Mythosbegriff wieder aufgenommen wurde. Topitsch arbeitete insbesondere technomorphe, biomorphe, soziomorphe und psychomorphe Modelle als anschauliche
Denkgrundlagen der großen historischen Philosophiesysteme heraus. Dies allerdings in der kritischen Absicht, sie als gänzlich unzulängliche Stützen überholter
Denksysteme der „wissenschaftlichen Philosophie“ des Wiener Kreises, d. h. der
Analytischen Philosophie gegenüber zu stellen.95
Eine positive forschungsleitende Bedeutung erhielt das Modelldenken bei Hans
Blumenberg (1920 - 1996) für diejenigen Philosophen, welche die Philosophie im
engen Anschluß an die Sprach- und Literaturwissenschaften betrieben. Er ging
von theologischen und literarischen Metaphern- und Mythenstudien aus, wo es
seit jeher gepflegt wurde, und hat es geradezu zur Leitmethode eines „trivial“philosophischen Denkens gemacht. Für ihn sind Metaphern und Mythen das genuine Denkmittel einer philosophischen Sinnkonstruktion für die Welterklärung.
Dies in scharfem Gegensatz zum begrifflichen und abstrakten wissenschaftlichen
Denkstil der neuzeitlichen Naturwissenschaft. „Die Metaphorologie sucht an die
Substruktur des Denkens heranzukommen, an den Untergrund, die Nährlösung
der systematischen Kristallisationen, aber sie will auch faßbar machen, mit welchem ‚Mut‟ sich der Geist in seinen Bildern selbst voraus ist und wie sich im Mut
zur Vermutung seine Geschichte entwirft“.96
So fruchtbar sich diese Version der Metaphern- und Mythenforschung in Blumenbergs eigenen Schriften und in denen seiner zahlreichen geisteswissenschaftlichen Schüler erwiesen hat, so betonte er in seinem letzten Werk „Die Lesbarkeit
der Welt“ 97 auch die Kehrseite überkommener Mythen und Modelle als Verführung und Irreführung der wissenschaftlichen Forschung. Dies am Beispiel der
(augustinischen und galileischen) Metapher vom „Buch der Natur“ („das in geometrischen und arithmetischen Zeichen geschrieben ist“). Erst die neuzeitliche
Naturwissenschaft habe sich von der darin implizierten Leitvorstellung eines göttlichen Buch-Autors verabschiedet und den Nachweis erbracht, daß es sich um das
Modell eines Buches mit gänzlich leeren Seiten gehandelt habe.
Zuletzt hat sich noch Kurt Hübner für die Unentbehrlichkeit des Modelldenkens
in den Wissenschaften stark gemacht. 98 Auch er ging von der theologischen
Mythenforschung aus und stellte die Mythen als empirisch nicht widerlegbare
93
R. Eucken, Bilder und Gleichnisse in der Philosophie, Leipzig 1880.
H. Leisegang, Denkformen, Berlin 1951.
95
E. Topitsch, Vom Ursprung und Ende der Metaphysik. Eine Studie zur Weltanschauungskritik, Wien 1958; ders., Mythische Modelle in der Erkenntnistheorie, in: E. Topisch, Mythos, Philosophie, Politik. Zur Naturgeschichte der Illusion,
Freiburg 1969, S. 79 - 120.
96
H. Blumenberg, Paradigmen zu einer Metaphorologie“, Bonn 1960, S. 11; ders., Arbeit am Mythos, Frankfurt a. M.
1979. - Vgl. dazu L. Geldsetzer, Die Philosophie der Philosophiegeschichte im 19. Jahrhundert, Meisenheim 1968, S. 172 173.
97
H. Blumenberg, Die Lesbarkeit der Welt, Frankfurt a. M. 1981.
98
K. Hübner, Die Wahrheit des Mythos, München 1985, 2. Aufl. Freiburg-München 2010; ders., Die nicht endende
Geschichte des Mythischen, in: Texte zur modernen Mythenforschung, Stuttgart 2003.
94
164
„ontologische“ Erfahrungssysteme mit eigenem Recht neben die naturwissenschaftliche Ontologie. Die mythischen Modelle, so meint er, besäßen im Unterschied zu den wissenschaftlichen Theorien den Vorzug der unmittelbaren sinnlichen Anschaulichkeit der in ihnen benutzten Begriffe.
Kommen wir aber auf die eigentlichen methodologischen Grundlagen des Modelldenkens in der Logik und Mathematik und seine Relevanz für die Veranschaulichung des „unanschaulichen Denkens“ zurück.
Die mit der „quadrivialen“ Mathematik konkurrierende „triviale“ Logik galt
ebenso wie jene seit jeher als eine Praxis des unanschaulichen Denkens. Aber im
Gegensatz zur Mathematik wurde in der Logik das Denken gerade und nur durch
die Beziehung auf inhaltliche Objekte veranschaulicht. Insofern entwickelte sich
Logik auch zuerst als „inhaltliches, d. h. anschauliches Denken“ mittels der inhaltlichen Beispiele. Jedes inhaltliche Beispiel für einen Begriff oder ein Urteil galt
als Modell dessen, was mit einem Begriff oder Urteil als rein logischen Gebilden
gedacht werden sollte. In diesen Veranschaulichungen durch inhaltliche Beispiele
wurde die Logik vor allem von den Stoikern kultiviert.
An der Stelle, wo sich die Arithmetik der geometrischen Modelle zur Veranschaulichung von Zahlen und Zahlverhältnissen bedienen konnte, entwickelte
Aristoteles durchaus in Konkurrenz zur Mathematik seine Logik auf der Grundlage ausgewählter grammatischer Kategorien.
Man sollte die aristotelischen Buchstaben (bzw. Zahlzeichen) selbst als ein logisches Pendant zur mathematischen Geometrisierung verstehen. Formale Buchstaben als logische „Variable“ bildeten nicht Gegenstände ab, sondern veranschaulichten bei Aristoteles die sonst unanschaulichen Begriffe, und nur diese.
Vielleicht hat er das von Demokrit übernommen. Man sollte nicht verkennen, daß
die noch heute verbreitete Gewohnheit von Logikern (aber auch von Mathematikern und Physikern), einen thematischen Gegenstand zuallererst mit einem
Buchstaben zu belegen („... nennen wir es X“), der dann in einer Rede oder
Schrift für das Gedachte bzw. Gemeinte stehen bleibt, daraus entstand.
Die aristotelischen „synkategorematischen“ Junktoren, die nach Aristoteles und
auch späterhin keinen eigenen „Sinn“ besitzen sollten, waren in den Anfängen
dieser Formalisierung keine Abbildungen von irgend etwas in der Welt, sondern
direkter Ausdruck von (vermeintlich) unanschaulichen Denkverknüpfungen bzw.
Relationen. Erst ihre Stellung zwischen den formalen Modellen (Variablen) von
Begriffen erhielt als „Mitbedeutung“ (connotatio) eine Abbildungsfunktion. So
stellten erst die formalisierten Urteile in dieser Junktoren-Verknüpfung mit Begriffen Modelle von Urteilen und Schlüssen dar.
Aber dieser Modellansatz in der aristotelischen formalen Logik war ziemlich
beschränkt und wurde bekanntlich in der logischen Arbeit von Jahrhunderten
nicht wesentlich erweitert. Und noch wesentlicher für die Entwicklung der Logik
war es, daß diese einfachen Formalisierungen nicht als Modelle für die Anschaulichkeit des logischen Denkens erkannt und durchschaut wurden. Daher der immer
wiederholte Rekurs auf die (anschaulich bleibende) Sprache in der Logikge-
165
schichte bis zur Wittgensteinschen Identifizierung von „Idealsprachen“ mit Mathematik und Logik. In der Sprachverwendung sah man einen unmittelbaren und
gleichsam naturwüchsigen Denkvollzug von Zusammenhangsstiftungen zwischen
den Objekten des Denkens.
Die Interpretation der Einführung (Eisagoge) des Porphyrius (um 232 – um 304
n. Chr.) in das Aristotelische Organon brachte in der mittelalterlichen Scholastik
eine explizite Modell-Veranschaulichung der Begriffe und ihrer hierarchischen
Ordnung in Begriffspyramiden in den sogenannten Porphyrianischen Bäumen
hervor. Aber auch diese Veranschaulichungen beschränkten sich auf das Verhältnis von Oberbegriff zu je zwei Artbegriffen, die in den „Begriffsbäumen“
übereinander abgebildet wurden. Damit konnten allenfalls Extensionen von Begriffen, nicht aber ihre Intensionen und deren Zusammenhang veranschaulicht
werden. Und damit auch nicht die durchlaufende Hierarchisierung aller Begriffe
einer Theorie von ihrem axiomatischen Grundbegriffen bis zum Eigennamen,
geschweige denn von der Satz- bzw. Urteils- zur Schlußbildung.
In Bezug auf solche Begriffshierarchien blieb die Logik bis heute auf die Phantasie der Logiker angewiesen. Und dem verdankt sich die Tatsache, daß logisches
Denken sich ebenso wie die Arithmetik einen Nimbus der Unanschaulichkeit bewahrt hat. „Rationales Denken“ wird zwar in allen Wissenschaften und besonders
in der Wissenschaftsphilosophie beschworen und in Anspruch genommen, aber es
besteht keinerlei auch nur annähernd einheitliche Auffassung über das, was Rationalität eigentlich sei.
Die Aszendenz von Modelltheorien in der Wissenschaftsphilosophie verdankt
sich in erster Linie der Entwicklung der mathematischen Logik hin zu einem Verständnis des Rationalen als Idealsprache.
Gemäß linguistischem Sprachverständnis baute man eine besondere „Semantik“
als Lehre von den Objekten aus, über die und von denen in dieser Ideal-Sprache
geredet werden kann. Solche Objekte konnten für Mathematiker nur die mathematischen Gebilde selbst sein, also die Zahlen und ihre Aufbaustrukturen sowie
die geometrischen Gebilde. Als Objektbereich der Mathematik werden sie – analog der traditionellen Ontologie – auch in der Mathematik als deren „Ontologie“
bezeichnet. Aber auch diese „Ontologisierung“ abstrakter Gegenstände appelliert
an die Veranschaulichung des angeblich nur Denkbaren durch die inhaltliche Beispiele, die in den Ontologien einzelner Wissenschaftsbereiche vorgeführt werden.
Die Modellauffassung der modernen mathematischen Logik erhebt jede inhaltliche Interpretation bzw. die Anwendung des logischen Formalismus auf einen
Sachverhalt zu einem Modell der dafür gesetzten oder geforderten unanschaulichen Denkobjekte ihrer Axiomatik. Und da man den (axiomatischen) Formalismus für eine Wahrheitsgarantie der formalisierten Denkprozesse hält, wird von
dem interpretierenden Modell erwartet, daß es ebenfalls zu inhaltlich wahren
Aussagen führt. In diesem Sinne wird etwa die mathematische Zahlentheorie als
ein Modell der Peanoschen (1858 – 1932) Axiomatik aufgefaßt, die Euklidische
166
Geometrie als Modell der Hilbertschen (1862 – 1943) Axiomatik. Dies dürfte die
Standardauffassung in der Wissenschaftsphilosophie sein.
Umgekehrt findet man aber auch die Meinung, für jede „intuitive“ inhaltliche
Theorie eines Objektzusammenhangs sei der (axiomatische) Formalismus ein Modell. Aber wie man leicht bemerkt, ist das erstere – die Interpretation eines Formalismus - nichts anderes als ein Anwendungsbeispiel. Aus solchen Beispielen aber
wird der Formalismus in aller Regel erst gewonnen (wie es die stoische Logik
vorführte). Formalismus und Interpretation müssen daher von vornherein „tautologisch“ übereinstimmen. Diese Modellvorstellung ist daher ein Fall einer petitio
principii.
Da für die Logik die logischen Formalismen die anschaulichen Modelle für das
sind, was man logisches Denken (oder oft auch Rationalität schlechthin) nennt,
kommt alles darauf an, wie die Formalismen gestaltet sind und was sie dabei „zu
denken“ erlauben.
Der übliche logische Formalismus mit Begriffsvariablen und Junktoren ist –
ebenso wie der mathematische mit Zahlvariablen und Rechenarten als Junktoren
(„Operatoren“) – an die Textgestalt von Schriftsprachen gebunden. Das Textmodell modelliert die Abfolge von ganzen Begriffen in (behauptenden) Sätzen und
deren Abfolge zu weiteren Begriffen und Behauptungen als “Denkprozeß“ entsprechend der Abfolge eines schriftlich notierten Lese- und Vorstellungsablaufes.
Dies ist die Grundlage für die sogleich zu behandelnde „Simulation“ von Abläufen geworden.
Die Modelle in der Form von Graphen modellieren dagegen keinen sprachlichen
Gedankenlauf, sondern geben ein statisches Abbild von logischen Relationen. Als
Beispiele haben wir schon die porphyrianischen Bäume, die (umgekehrten) Begriffspyramiden, die Eulerschen Kreise sowie die Vennschen Diagramme erwähnt. Sie gelten zwar als didaktische Hilfsmittel, haben aber eine selbständige
und andersartige Funktion ihrer Abbildlichkeit als die textartigen Formalismen.
Wesentlich für sie ist, daß diese Graphen-Formalismen als das behandelt werden
können, was man Modelle nennt. Der von uns vorgeschlagene und in § 9 ausführlich explizierte Formalismus stellt insofern einen Verbesserungsvorschlag des
Pyramidenmodells dar.
Hier ist jedoch darauf hinzuweisen, daß es sich bei der hier entwickelten Formalisierung nicht um eine Veranschaulichung eines „unanschaulichen Denkens“ das es nicht gibt - handelt. Was in den logischen Pyramiden „modelliert“ wird ist
immer inhaltliches Vorstellen, sei es in direkter sinnlicher Betrachtung des Pyramidenformalismus selbst oder als Erinnerung an seine Gestaltung. Die Formalisierung liefert nur ein normatives Beispiel dafür, wie man mit anschaulichen
Vorstellungen, Erinnerungen und Phantasien umzugehen hat, wenn sie in eine
logische Ordnung gestellt werden sollen. Der pyramidale Formalismus in seiner
Anschaulichkeit ist also selbst ein Exemplar des logischen Vorstellens im Unterschied zu rein sprachlichem Reden, zum Schreiben oder Spekulieren, das der
logischen Formalisierung vorauslaufen oder auch nachfolgen mag.
167
Echte Modelle sind stets ein Quid-pro-quo geblieben. D. h. sie „supponieren“
(„stehen für...“ wie man in der scholastischen Logik sagte) für etwas, das in
bestimmten Hinsichten anders ist als das Modell, das zugleich aber auch etwas
Identisches des Gegenstandes und des Modells zur Anschauung bringt und damit
definiert. Das zeigt sich am deutlichsten in den maßstäblichen Verkleinerungen
und Vergößerungen geometrischer Gebilde. Identisch bleiben zwischen Modell
und Dargestelltem die Gestalt, verschieden aber sind die Maßverhältnisse bzw. die
Proportionen. Das identisch-verschiedene Verhältnis wird logisch Analogie genannt.
Nun hat der Analogiebegriff bekanntlich durch Thomas v. Aquins (1225 – 1274)
„Seinsanalogie“ (analogia entis) weite kategoriale und ontologische Anwendungen gefunden. Aber „Analogie“ ist als Begriff des Identisch-Verschiedenen ein
weiteres Beispiel für einen dialektischen, d. h. widersprüchlichen Begriff. Er hat
auch in der mathematisch-logischen Modelltheorie eine besondere Anwendung
gefunden. Daher ist hier besonders auf die „Analogie“ im Modellverständnis der
Mathematik und mathematischen Logik einzugehen.
Wie gezeigt wurde, gehört das dialektische Denken seit jeher zur Kultur der
Mathematik. Es kann daher nicht verwundern, daß es auch bei den mathematischen Modellen durchschlägt. Und es verwundert auch nicht, daß die Modelltheorien der Mathematik in einer eigenen mathematischen Disziplin entwickelt
worden sind, die ebenso wie die ganze Mathematik ihre dialektischen Voraussetzungen nicht sieht und geradezu verleugnet.
Das hauptsächliche methodische Mittel zur Dissimulierung des dialektischen
Charakters der Modellvorstellungen in der Mathematik ist die analytische Methode (nicht mit der analytischen Geometrie zu verwechseln), die etwas Unbekanntes
als Bekanntes behandelt. Beispiel dafür ist die Supposition von Variablen für
unbekannte Zahlgrößen „als ob sie bekannt wären“. Ein weiteres Mittel ist die
(falsche) Verwendung der Gleichungsform für Behauptungssätze.
Gemäß diesen methodischen Mitteln wird nun auch das Verhältnis von Modell
zum Objekt der Modellierung als Gleichung und zugleich als Analogieverhältnis
zwischen beiden formuliert. Das Modell wird in der Mathematik als „ein-eindeutiges Abbild“ („Strukturidentität“) von Modell und Objekt und zugleich als
dessen Analogie (teilweise Übereinstimmung bei teilweiser Nicht-Übereinstimmung) dargestellt. Beides steht jedoch im Widerspruch zueinander.
Mit der Gleichung wird nur der identische Teil des Bezuges zwischen Modell
und Objekt beachtet und dargestellt. Die Analogie aber sollte gerade die Ungleichheiten herausstellen. Aber diese wird bei Modellen ausgeblendet. Es gilt
geradezu als Vorzug und Stärke der mathematischen Modelle, daß in ihnen von
den Ungleichheiten zwischen Modell und Modelliertem abgesehen bzw. abstrahiert wird, und somit die Abbild-Relation als gegebenes Identitätsverhältnis
postuliert wird.
Ein Lexikonartikel „Modell“ formuliert dies so:
168
„Modell (nach dem aus lat. modellus, Maßstab (Diminutiv von Modus, Maß)
gebildeten ital. (16. Jh.) modello), in Alltags- und Wissenschaftssprache vielfältig
verwendeter Begriff, dessen Bedeutung sich allgemein als konkrete, wegen ‚idealisierender‟ Reduktion auf relevante Züge, faßlichere oder leichter realisierbare Darstellung unübersichtlicher oder ‚abstrakter‟ Gegenstände oder Sachverhalte umschreiben läßt. Dabei tritt die Darstellung der objekthaften Bestandteile hinter der Darstellung ihrer relational-funktionalen Beziehungen (Struktur) zurück.“ 99
„Idealisierende Reduktion“, „faßlichere oder leichter realisierbare Darstellung“,
„relational-funktionale Beziehungen“ und „Struktur“ sollen hier dasjenige bezeichnen, was ins Modell eingeht. Aber die „objekthaften Bestandteile“, die im
Modell nur „zurücktreten“ sollen und als „unübersichtlich“ oder „abstrakt“ gelten,
widersprechen als analogischer Anteil ersichtlich der Prätension, es handele sich
um ein ein-eindeutiges Abbildungsverhältnis, das in einer Gleichung dargestellt
werden könnte.
Die mathematischen Modelltheorien setzen, wie vorn gesagt, voraus, daß jede
mathematische Theorie – in welcher Disziplin auch immer (einschließlich physikalischer Theorien in mathematischer Form) eine ein-eindeutige Abbildung ihrer
Axiomatik sei. Die „wahre“ oder „bewährte“ Theorie sei dann zugleich auch das,
was man in der Mathematik ein Modell ihrer Axiomatik nennt. Man kann auch
sagen: eine mathematische Theorie veranschaulicht jeweils ihre unanschauliche
Axiomatik.
Diese Meinung wurde durch David Hilbert (1862 - 1943) begründet und durch
die französische Mathematikergruppe, die unter dem Namen „Bourbaki“ veröffentlicht, weiter verfestigt. Alfred Tarski hat die mathematische Modelltheorie zu
einem disziplinären Teil der von ihm sogenannten Meta-Mathematik gemacht.100
Die mathematische Modell-Theorie spielt hier die Rolle einer „Semantik“ der
Theorie-Objekte, die die „Syntaktik“ der axiomatischen Idealsprache durch ein
Modell interpretiert. Unter der (wie wir meinen: falschen) Voraussetzung, daß die
mathematischen Objekttheorien widerspruchslos seien, überträgt sie diese Voraussetzung auch auf die (Hilbertsche) Axiomatik zurück und versucht, die Erfüllung der Axiom-Kriterien der Unabhängigkeit, Vollständigkeit, Definierbarkeit,
Widerspruchsfreiheit usw. auch für die Axiomatik nachzuweisen.
Wir haben aber vorn in § 9 gezeigt, daß die sogenannten axiomatischen Grundbegriffe, die nach Hilbert als „undefinierbare Begriffe“ verstanden werden, logisch keine Begriffe sind. Zur Verdeutlichung dessen, was damit gement sein soll
und was als ihr Anwendungsbereich in Frage kommt, bedarf es daher der Anwendungsbeispiele, d. h. eben der ausgeführten Theorien.
99
G. Wolters, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-WienZürich 1984, S. 911.
100
Vgl. A. Tarski, Contributions to the Theory of Models, in: Indagationes Mathematicae 16, 1954, S. 572 - 588; nach G.
Wolters, Art. „Modelltheorie“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band,
Mannheim-Wien-Zürich 1984, S. 913 – 914; vgl. auch G. Hasenjäger, Art. „Modell, Modelltheorie“ in: Wörterbuch der
Philosophischen Begriffe, Band 6, hgg. von J. Ritter und C. Gründer, Basel-Stuttgart 1984, Coll. 50 – 52.
169
Ebenso wurde gezeigt, daß die mathematischen Gleichungen im logischen Regelfall Definitionen sind. Das aber heißt, daß die vorgeblichen Modelle als „eineindeutige“ Abbildungen der Axiomatik Definitionen der axiomatischen „Grundbegriffe“ sein müssen, die deren intensional-extensionalen Status überhaupt erst
festlegen. Damit klären und erläutern sie aber nur Sinn und Bedeutung der
Axiomatik selber von den Modell-Beispielen ihrer Anwendungen her.
Wenn aber davon ausgegangen wird, daß mathematisches Denken überhaupt auf
der Voraussetzung seiner „Unanschaulichkeit“ beruht, so ist die Modellbildung in
interpretatorischen Anwendungen immer noch ein prekärer Versuch der Veranschaulichung des Unanschaulichen. Diese Veranschaulichung aber stützt sich auf
das Vorhandensein disziplinärer mathematischer Theorien und kann daher auch
nur den Mathematikern selbst als „Veranschaulichung“ dienen. Dem mathematischen Laien dürften die mathematischen Theorien selbst als unanschaulich imponieren. Um sie auch dem Nichtmathematiker verständlich zu machen, bedarf es
daher logischer Analysen des mathematischen Apparates, wie wir sie vorn schon
vorzuführen versucht haben.
Neben den Modellen haben in jüngeren Zeiten die Simulationen eine bedeutende
Funktion in den Wissenschaften und in der Technik übernommen. Auch die
Simulationen verdanken sich der zunehmenden Ausbreitung mathematischer
Methoden in den früher nicht-mathematischen Einzelwissenschaften. Insbesondere spielten die gewaltigen Fortschritte in der Computertechnik und der dadurch
gegebenen Manipulierbarkeit großer Datenmassen eine Hauptrolle. Dadurch ist
das Thema der Simulation als „Computersimulation“ allbekannt geworden.
Das Wort Simulation (lat. simulare, dt. Nachahmen, aber auch Verstellen bzw.
Heucheln) insinuiert zunächst einmal, daß hierbei etwas mehr oder weniger Klares
bzw. mehr oder weniger Bekanntes der physikalischen Wirklichkeit durch ein
besonders scharfes und klares Bild wiedergegeben werde. Dasselbe Verhältnis
war ja auch in den Modellkonzeptionen prätendiert. Der Physiker Heinrich Hertz
(1857 – 1897) hat es in einem berühmt gewordenen Dictum über die Methode des
physikalischen Denkens so ausgedrückt:
„Wir machen uns Symbole oder Scheinbilder der äußeren Gegenstände, und zwar
derart, daß die denknotwendigen Folgen dieser Bilder stets wiederum die Bilder
seien von den naturnotwendigen Folgen der abgebildeten Gegenstände“.101
In diesem Dictum ist schon auf die „Folgen der Bilder“, also das prozessuale
Moment der Nachbildung, hingewiesen, welches im Simulationskonzept festgehalten wird. Diese Bedeutung dürfte überhaupt der Grund für die Attraktivität des
Terminus „Simulation“ gewesen sein.
Daneben hat aber die Simulation schon seit der Antike noch die recht pejorative
Nebenbedeutung, die seine positive Bedeutung geradezu ins Gegenteil verkehrt.
101
H. Hertz, Prinzipien der Mechanik, in: Ges. Werke Band 3, Leipzig 1894, zit. nach F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 4, Berlin 1923, S. 422.
170
Man erinnere sich an seinen Gebrauch in der ärztlichen Diagnostik, wo der
„Simulant“ der gesunde „Patient“ ist, der eine Krankheit und ihre Symptome
„vortäuschen“ kann. Das „Vortäuschen“ dürfte auch jetzt noch nicht ganz aus dem
heutigen Sprachgebrauch verschwunden sein. Die Militär-Strategen (wie schon
Sun Bin in China, wie Cäsar, aber auch die modernen militärischen Stäbe), die
Juristen und Steuerbeamten und nicht zuletzt die Geschäftsleute haben gewiß bis
heute die römische Maxime beherzigt:
„Quae non sunt simulo, quae sunt ea dissimulantur”
(was es nicht gibt, das täusche ich vor; was wirklich der Fall ist, wird verborgen)
Angesichts dieser Geschichte der „Simulation“ sollte man also auch in der Wissenschaftstheorie eine gewisse Skepsis gegenüber der Konjunktur der Simulationen nicht ganz hintanstellen.
Ebenso wie die mathematischen Modelltheorien beruhen auch die (Computer-)
Simulationen auf mathematischen Theorien. Anders als die mathematischen Modelltheorien bezieht sich dabei die mathematisierte Theorie der Computer nicht
auf eine Axiomatik, sondern direkt auf große Forschungsbereiche und die hierin
gesammelten Daten- und Faktenmassen nebst ihren Zusammenhängen.
Ein weiterer Unterschied zu den mathematischen Modellen besteht darin, daß
die Objekte der Simulation in der Regel Prozesse bzw. Abläufe sind, die dann
auch durch technische Prozesse bzw. ihre mathematischen Formalisierungen in
Algorithmen, die das Computerprogramm ausmachen, abgebildet werden. Günter
Küppers und Johannes Lenhard haben die Simulationen daher sehr griffig als
„Modellierungen 2. Ordnung“ bezeichnet.102 So bleibt das Quid pro quo der Modelle auch in den Simulationen erhalten.
Die Attraktivität und Konjunktur der Simulation dürfte sich in erster Linie der
Tatsache verdanken, daß sie – ebenso wie die Modelltheorien überhaupt - so gut
in den Kontext der realistischen Erkenntnistheorie paßt.
Simulationen erscheinen als eine exakte und mathematisierte Form der traditionellen Adaequatio rei et intellectus, der „Übereinstimmung von Sachverhalt und
Erkenntnis“. Durch die ein-eindeutige Abbildung eines prozessualen Sachverhaltes soll eine selber progredierende Erkenntnis simuliert werden. Das Paradigma
dafür ist das Computerprogramm (und dafür ist wiederum die sogenannte TuringMachine das konzeptionelle Modell), das die maschinellen Prozesse im Computer
steuert, die ihrerseits durch bild- und geräuscherzeugende Simulation etwas darstellt, was als schon bekannt und wiedererkennbar erscheint.
Das kennt jedermann vom Theater her, in welchem ja historische oder typische
Lebensabläufe und Handlungszusammenhänge simuliert werden. Sie gelten in der
Ästhetik als umso „wahrer“, je mehr sie „dem vollen Leben entsprechen“. Aller102
Vgl. G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 305 – 329. Eine Ausarbeitung dieses
Ansatzes mit zahlreichen Anwendungsbeispielen und kritischen Bemerkungen in Joh. Lenhard, Mit allem rechnen – zur
Philosophie der Computersimulation, Berlin 2015.
171
dings war sich die ästhetische Einschätzung der dramatischen Simulationen schon
seit dem Sophisten Gorgias (ca. 480 – 380 v. Chr.) bewußt, daß dabei immer auch
die „Täuschung“ und Verstellung“ durch die Illusionen der Bühne und die Verstellungskunst der Schauspieler im Spiel war. Diese Bedenken sind jedoch in den
quadrivialen Naturwissenschaften und ihren Simulationen verloren gegangen.
Umso mehr besteht Bedarf, sie auch hier geltend zu machen.
Wie in § 5 gezeigt wurde, lebt die Forschung wesentlich von Vermutungen und
Hypothesen, die eigentlich im sprachlichen Konjunktiv zu formulieren wären. Da
es diesen Konjunktiv aber weder in der Logik noch in der Mathematik gibt,
formuliert man auch die Vermutungen in der behauptenden Urteilsform. Und das
erfüllt zunächst den Tatbestand der Vortäuschung von Tatsachen, wo über deren
Existenz oder Nichtexistenz, geschweige über deren bestimmten Charakter, nichts
behauptet werden kann. Wie sich die Wahrscheinlichkeitskonzeptionen über diesen logischen Sachverhalt selbst hinwegtäuschen, haben wir schon ausführlich
beschrieben. Es kann jedenfalls nicht verwundern, daß in den Simulationen ausgebreiteter Gebrauch von statistischer Wahrscheinlichkeit und Schlußfolgerungen
daraus gemacht wird.
Da diese in ihren mathematischen Formalisierungen als sicheres und wahrheitsgarantierendes Wissen gelten, ersetzen und vertreten sie alles das, was auf der
Faktenebene alles andere als sicher, gewiß und etablierte Wahrheit ist. Damit
erfüllt das Simulationsverfahren die erste römische Maxime: „Simulo quae non
sunt“. Die mathematischen Simulationen stehen als „wahre Theorien“ für nur
vermutete und unsichere Fakten. Und zugleich decken sie das Ungewisse, vom
dem man nur mit Sicherheit weiß, daß da „irgend etwas ist“, mit Wahrheits- und
Gewißheitsansprüchen zu. Damit erfüllen sie auch die zweite römische Maxime:
„Quae sunt ea dissimulantur“. Erst die post-festum Verifikationen und Falsifikationen können allenfalls als Begründungen für gelungene oder mißlungene
Simulierung dienen. Aber post festum sind die Simulationen nicht mehr Simulationen, sondern Tatsachenbehauptungen.
Ersichtlich sind es gerade die schwierigsten Grundprobleme, an denen sich
metaphysische Forschung jahrhundertelang abgearbeitet hat, die nun mit der
Simulationstechnik in Angriff genommen und mit der Hoffnung auf endgültige
Erledigung bewältigt werden sollen. Nämlich die Fragen: Was ist eigentlich Geist,
Subjekt, „Intelligenz“ und deren Leistungsfähigkeit; und was ist das „Ding an
sich“ als objektiver Kern aller Wirklichkeit.
Auf der metaphysischen Grundlage des herrschenden materialistischen Realismus geht die KI-Forschung (Künstliche Intelligenz-Forschung) davon aus, das
Gehirn sei das materielle Substrat des Geistes bzw. des Subjekts. Die physiologischen Gehirnprozesse müßten daher durch maschinelle Prozesse simuliert
werden können.
Der Mathematiker Johann v. Neumann (1903 – 1957), neben Konrad Zuse
(1910 – 1995) der Pionier des Computerbaus, der für sein photographisch genaues
und zuverlässiges Gedächtnis berühmt war (er konnte schon als Kind eine Tele-
172
phonbuchseite mit allen Namen und Nummern zuverlässig erinnern) hat in seinem
Buch „The Computer and the Brain“ 103 die „Analogie“ des Computers zum
menschlichen Gehirn unterstrichen. Für die Wissenschaften relevant sind dabei
naturgemäß die sogenannten kognitiven Leistungen des Gehirns.
Aber wie man durch Maschinen seit jeher die menschlichen körperlichen
Leistungen verlängert und verstärkt hat, so natürlich auch die sogenannten intellektuellen Leistungen. Teleskop und Mikroskop, Hörgeräte, Thermometer und
Waagen sind Verlängerungen der sinnlichen Organe. Leibnizens Rechenmaschine
war die erste Maschine, die auch eine solche – und zwar notorisch aufwendige
und umständliche – intellektuelle Leistung, nämlich das Rechnen in den Grundrechnungsarten verlängerte, beschleunigte und fehlerlos ersetzte.
Mit Recht sieht man darin die Matrix der Computer. Das Wort Computer ( =
„Rechner“) selbst hat diesen Ursprung festgehalten. Nur in Frankreich hat man
eine weitere Leistungsfähigkeit der Computer aus jüngeren Entwicklungen in den
Vordergrund gerückt. Man nennt sie dort „ordinateur“ und betont damit zugleich
mit ihrer Datenspeicherkapazität – die als maschinelles Gedächtnis eingeschätzt
wird - die zuverlässige Klassifizierung und Anordnung der Daten und ihre sichere
Abrufbarkeit.
Gewiß übertrifft der Computer inzwischen jede menschliche Erinnerungs- und
Ordnungskapazität. Daher überlassen wohl die meisten Zeitgenossen ihre Erinnerungen und die Registerhaltung ihrer Angelegenheiten ihrem Computer. Und
ersichtlich wird im gleichen Maße das individuelle Erinnern und die Ordnungshaltung vernachlässigt und ersetzt.
Computerprozesse werden durch Algorithmen gesteuert. Das sind in der Mathematik Handlungs- bzw. Prozeßanweisungen für die Durchführung von Rechnungen. Computerprogramme sind mehr oder weniger komplexe Algorithmen, die
das Funktionieren der Computer auf bestimmte Ergebnisse hin abrichten und
steuern. Längst setzt man sie daher auch für alle möglichen Berechnungen ein, die
ein Mensch wegen Umfang und Dauer nicht mehr durchführen kann. Daraus hat
sich auch in der Wissenschaft längst ein computergestütztes „Puzzle-Solving“,
also das mechanische Problemlösen, durchgesetzt. Insbesondere mechanisiert man
mathematische Beweisverfahren.104
Nun weiß man zwar genau, wie die Computer funktionieren, aber nicht, wie das
menschliche Gehirn funktioniert. Gemeinsam haben beide nur, daß man „von
außen“ nicht sieht, wie sie ihre Geschäfte erledigen. Beide sind das, was man
„black box“ (eine schwarze Kiste) nennt, in die etwas hineingetan wird („in-put“)
und etwas herauskommt („out-put“). Und so kommt wiederum das mathematische
Modelldenken, verstärkt durch das Simulieren unbekannter Vorgänge durch bekannte Prozesse, ins Spiel. Wenn der Computer so gut rechnen und Daten spei103
J. v. Neumann, The Computer and the Brain, 1958, neue Aufl. New Haven 2000, dt.: Die Rechenmaschine und das
Gehirn, 1958.
104
Vgl. dazu die Literatur bei Kl. Mainzer, Artikel „Intelligenz, künstliche“, in: Enzyklopädie Philosophie und Wissenschaftstheorie, hgg. v. J. Mittelstraß, 2. Band, Mannheim-Wien-Zürich 1984, S. 255 –256.
173
chern und wieder hervorrufen kann, und beides als ausgezeichnete und geradezu
paradigmatische Intelligenzleistung gilt, so läßt man sich gerne zu dem Schluß
verführen, geradezu alle Bewußtseinsakte ließen sich computermäßig simulieren.
Als Beweis für gelungenes Simulieren der rechnenden und datenspeichernden
Intelligenz gilt nicht von ungefähr das Schachspiel der Schachcomputer gegen die
Weltmeister des Schachspiels. Und da freies Entscheiden und sogenannte Kreativität als wesentliches Anthropinon gilt, haben viele Tonkünstler und Maler ihre
Kreativität längst in die Programmierung von geräusch- und bilderzeugenden
Computern mit eingebauten Zufallsgeneratoren verlagert. Was man aber bisher so
noch nicht simulieren kann, ergibt dann regelmäßig ein willkommenes und stets
auszuweitendes Forschungsprogramm.
Neben dem Rechnen ist es das Sprechen, welches gemeinhin als „Out-put“ von
Denkprozessen gilt. Das sieht man schon daran, daß alles Schulwesen heute
Mathematikkenntnisse und Sprachverfügung als hauptsächliche Testfelder intelligenter Leistungen festgeschrieben hat. Auch bei den sprachlichen Artikulationen
findet der Computer seit langem verstärkten Einsatz. Schriftliche und lautliche
out-puts gehören längst zum Standard der Computer bei Übersetzungen, bei
Robotern und Automaten bis hin zu den Richtungsanweisungen im GPS der Fahrzeuge.
Und so hält man es für eine Frage des Fortschritts, bis auch alle weiteren
Gehirnfunktionen computermäßig simuliert werden könnten. Puppen lachen und
weinen schon und simulieren Gefühle. Die inzwischen aufgelaufene Literatur zur
Künstlichen Intelligenz läßt schon ahnen, was man sich davon verspricht, nämlich
die Klonung menschlicher Gehirne in Gestalt von Computern und den Zusammenschluß von Computerelementen mit neuronalen Organen (Implantation von
Computerchips ins Gehirn). Auch die Tagespresse nimmt regen Anteil an der
Reklame.105 Alle diese schönen Hoffnungen und Aussichten, die inzwischen mit
Millionendotierungen an zahlreichen Forschungsinstituten genährt und unterhalten werden, beruhen aber, wie schon vorn gesagt, auf naturwissenschaftlichen
Modell- und Simulationsmethoden. Der Computer ist Modell des Gehirns, und die
Computerprozesse sind die Simulationen des menschlichen Seelenlebens. Daß nur
eine Analogie vorliegt, die neben dem, was dabei identisch funktioniert, gerade
das Unterschiedliche kennzeichnen sollte, gerät dabei immer mehr aus dem Blick.
Man muß schon die Perspektive eines sensualistischen Idealismus einnehmen,
um zu erkennen, daß auch Gehirne und ihre Funktionen etwas sind, was erst
einmal gesehen, beobachtet und erforscht werden muß, und zwar keineswegs
durch Computer.
Die sogenannten bildgebenden Beobachtungsverfahren, die die Grundlage für
die hirnphysiologischen Erkenntnisse darstellen, haben einstweilen nur eine neue
105
Vgl. z. B. FAZ vom 6. 8. 2011, S. 31: Art. „Unsterblichkeit für alle“: „Unermüdlich arbeitet Ray Kurzweil daran, uns
den Weg ins ewige Leben zu weisen. Im Jahr 2029, so prophezeit es der amerikanische Autor und Erfinder, werden das
menschliche Gehirn und der Computer eine Einheit bilden“.
174
innersomatische Beobachtungsebene neben den äußeren Beobachtungsflächen
psychischer Phänomene (z. B. Verhalten oder Gesichtsausdruck) geschaffen. Sie
sind nur eine Fortentwicklung der schon lange üblichen Diagnoseinstrumente, mit
denen man „unter die Haut“ gehen kann. Dabei ist man noch weit davon entfernt,
die elektrischen, chemischen und physiologischen Funktionen des Gehirns zu
durchschauen. Für alle diese Funktionen aber hat sich mittlerweile der gutklingende Terminus „Feuern der Neuronen“ (ein schönes Oxymoron als Modell)
eingebürgert.
Computer als Maschinen müssen konzipiert, konstruiert und ihre Programme
entwickelt werden, und auch dies nicht durch Computer, sondern mittels lebendiger Gehirne. Das wird durch menschliche Intelligenz und psychisches Leben von
Subjekten (oder „Geistern“) geleistet, die sich keineswegs selbst konstruieren,
programmieren und nach Modell- und Simulationsmethoden erklären lassen.
Das andere Feld der Simulationen ist die „objektive Welt“ der Dinge, Sachverhalte und Vorgänge „an sich“. Das erstreckt sich von den mikrophysikalischen
Vorgängen in den Atomen mittels des sogenannten Standard-Modells der Teilchen und ihrer Wechselwirkungen bis zur Evolution des Universums mitsamt der
Evolution der Lebewesen. Wie dies methodisch geschieht, haben wir vorn schon
verschiedentlich berührt. Was man einigermaßen kennt, wird als Modell und
Simulation auf das Unbekannte übertragen. Und was nicht zum Modell-Modell
paßt, wird aus der Beachtung und Betrachtung ausgeschlossen.
Am bekanntesten dürfte heute die Klima-Simulation geworden sein. Sie hat sich
aus der Wetterprognostik entwickelt. Daß diese früher stets in Konkurrenz mit
„Omas großer Zehe“ stand und dabei oftmals hinter Omas Treffern zurückblieb,
dürfte dem älteren Radiohörer noch in Erinnerung sein. Inzwischen ist das Klima
so etwas wie die geographische und historische Durchschnittslage aller Wetterverhältnisse über dem Erdplaneten geworden.
Die Faktenlage ergibt sich aus historischen Wetteraufzeichnungen, aus der Geschichte der Vulkanausbrüche und vermuteter Meteoriteneinschläge auf der Erde,
aus Einlagerungen in Korallen, den Wachtumsringen langlebiger Bäume und der
Verteilung und Abholzung von Wäldern, den polaren Eislagern mit konservierten
Pollen, den Meeres- und Binnensee-Ablagerungen und den fossilen Funden;
darüber hinaus aus Schwankungen der Erdbahnparameter, den Variationen der
Sonneneinstrahlung und der Meeresströmungen und der Meerespegel. Die Luftströmungen über Weltmeeren waren übrigens die ersten Wetterphänomene, die
auf diese Weise simuliert wurden. Sie waren stets schon für die Schiffahrt
wichtig.106
Von Außenseitern wird immer wieder auf weitere Faktoren hingewiesen, die
wegen schwieriger Modellier- und Simulierbarkeit nicht in die Klimaprognosen
eingehen. So etwa der gesamte und stets ausgeweitete Funkverkehr, der erhebliche Energievolumina in die Wetterverhältnisse einbringt, und den z. B. Klaus106
Zur Entwicklung auch G. Küppers und J. Lenhard, Computersimulationen: Modellierungen 2. Ordnung, in: Journal for
General Philosophy of Science / Zeitschrift für allgemeine Wissenschaftstheorie 36, 2005, S. 316 – 324.
175
Peter Kolbatz schon seit 1994 für die Zunahme der regionalen Sturm- und
Regenkatastrophen verantwortlich macht.
Am meisten umstritten ist dabei der Eintrag zivilisationserzeugter sogenannten
Treibhaus-Gase, besonders des Kohlendioxyds. Sie waren zwar schon immer eine
natürliche Bedingung des Lebens auf der Erde. Jetzt werden sie jedoch wegen
vermuteter übermäßiger Freisetzung aus ihren natürlichen Speichern in Kohle,
Erdöl und Erdgas als ein Hauptfaktor der Klimaerwärmung angesehen.
Die Daten sind recht kontingent und weisen in allen geschichtlichen Epochen
eine erhebliche Streuung auf. Je mehr man mit derartigen Daten und den immer
dichter ausgebauten Meßstationen der Gegenwart nahe kommt, desto dichter werden sie. Sicher ist vom Klima aber nur das eine: daß es immer und überall ein
Klima (als Integral der Wetterlagen) gegeben hat. Aber wie es früher war, ist
überwiegend unbekannt, und wie es jetzt ist, kann jedermann direkt beobachten.
Es ist schon eine erhebliche (hypothetische) Induktion, vom Wetter in verschiedenen Erdregionen und in begrenzten Zeitperioden zum Klima überzugehen und
dabei das Klima als Wetterdurchschnitt bestimmter Zeitepochen oder geographischer Zonen zu definieren.
Die Klimax der Simulation aber ist bei alledem die Tendenzformulierung gemäß
der Comteschen Devise des „Savoir pour prévoir“. Wie das Wetter (je nach
Wunsch und Nutzen) mal für besser, mal für schlechter gehalten wird, so auch die
Simulation. Die einen beklagen, die anderen wünschen eine bestimmte Klimatendenz. Und jede gewünschte Tendenz läßt sich auch simulieren.
Hier kommen jedoch die nationalen und erst recht die industriellen und kommerziellen Interessen ins Spiel. Wird es tendentiell kälter (in Richtung auf eine
neue Eiszeit), so erscheint das genau so gefährlich und lebensbedrohend wie eine
Tendenz zur Erwärmung. Beide Tendenzen lassen sich durch entsprechend ausgewählte fotographische Bestandsaufnahmen bestimmter Weltregionen illustrieren. Die Kehrseite dieser Gefahren ist freilich der kaum öffentlich diskutierte
Nutzen und Vorteil solcher Tendenzen für die eine oder andere Weltgegend und
ihre Bewohner, seien es Menschen oder Tiere und Pflanzen.
Die überall privilegierte Ausrichtung der Klima-Simulation zwischen den extremen Tendenzen ist die Konstanthaltung des Klimas geworden, der Status quo,
wie er gegenwärtig empfunden wird. Die Simulation liefert ein mathematisches
Bild, in welchen die bekannten und die zahlreichen vermuteten unbekannten
Faktoren ein prekäres Gleichgewicht aller bekannten und unbekannten Faktoren
vortäuschen. Schon die Einteilung natürlicher und zivilisatorischer Faktoren, die
in diese Simulationen eingehen, bleibt willkürlich und interessengebunden. Daß
die Weltklimakonferenzen dazu auffordern können, das Klima so, wie es sich
heute darbietet, zu stabilisieren und dazu ungeheure Ressourcen aufzubieten, dürfte eine der merkwürdigsten Erscheinungen der bisherigen Weltgeschichte sein.
176
§ 13 Die Bestimmung des wissenschaftlichen Wissens.
Über den Zusammenhang von Alltagswissen und wissenschaftlichem Wissen. Wahres, falsches
und wahr-falsches (Wahrscheinlichkeits-) Wissen. Wissenschaftliches Wissen als Kenntnisse und
Erkenntnisse. Die Verkennung von Dokumentationen als Wissensbasen.
Wissenschaftliches Wissen wird gewöhnlich strikt vom Alltagswissen unterschieden und abgegrenzt. Doch geht es in der Regel von diesem aus und bleibt auch
immer darauf bezogen. Denn der größte Teil des Alltagswissens ist, jedenfalls im
Abendland, wissenschaftliches Wissen von ehedem. Wissenschaftliches Wissen
ist auch zu großen Teilen Bestätigung von Alltagswissen, wenn auch oftmals in
verfremdeter Terminologie und somit kaum wiedererkennbar. Zuweilen stellt es
sich aber gerade als dessen Widerlegung und Korrektur dar. Schließlich aber wird
das Wissen auch auf Erfahrungsbereiche ausgedehnt, das den Alltagserfahrungen
nicht zugänglich ist. Dieses wissenschaftlich erarbeitete Wissen wird oft mit
gehöriger zeitlicher Verzögerung allmählich in das Alltagswissen einspeist und
dieses dadurch bereichert.
Ganz verfehlt ist die Auffassung, wissenschaftliches Wissen sei - gerade im
Gegensatz zu Alltagswissen - durchweg wahres Wissen. Es teilt vielmehr mit
jenem die Eigenschaft, teils wahr und teils falsch zu sein. Während Alltagswissen
seiner Natur nach täglich auf dem Prüfstand hinsichtlich seiner Wahrheit und
Falschheit steht, hat wissenschaftliches Wissen vielerlei Formen und Gestalten
entwickelt, in denen es wahr und falsch zugleich ist. Die verbreitetste Gestalt
solcher „Wahr-Falschheit“ ist das, was in § 11 als „Wahrscheinlichkeitswissen“
behandelt wurde.
Wissenschaftliches Wissen besteht aus Kenntnissen und Erkenntnissen. Dies ist
eine Unterscheidung, die Aristoteles herausgearbeitet hat, und die seither festgehalten worden ist.
Kenntnisse beziehen sich auf Fakten und Daten. Aristoteles bestimmte sie als
dasjenige Wissen, das durch Beschreibungen der „empirischen“ und „historischen“ Erfahrungen gewonnen wird. Werden sie methodisch erhoben, so wird
dieses Faktenwissen in den „beschreibenden Wissenschaften“ („-Graphien“ und
„Historien“) konsolidiert. Diese Bezeichnung hat sich für einige Wissenschaften
bis ins 20. Jahrhundert erhalten, wie z. B. in „Historiographie“ und „Geographie“.
Faktenkenntnisse werden in der Regel mittels ihrer Eigennamen und/oder sogenannte Kennzeichnungen gewußt. Man „kennt“ die Namen bzw. Bezeichnungen
von Personen, Dingen, Ereignissen, Sachverhalten, Örtern und bedient sich ihrer,
um sich an sie zu erinnern und/oder sie sich vorzustellen. Oft braucht es einigen
Lernaufwand, um sie sich zu „merken“, wie bei den Eigennamen von Personen
und ihren „Daten“ oder bei bestimmten Ereignissen. Dieser Aufwand ist auch
beim Studium zu beachten, das grundsätzlich auf solchen Kenntnissen aufbaut.
177
Fachkenntnisse bestehen wesentlich aus Kenntnissen der Terminologie, der
Eigennamen von wichtigen Wissenschaftlern, insbesondere von Klassikern, den
Titeln ihrer Hauptwerke und ihren Publikationsdaten, von wichtigen historischen
Ereignissen und ihren „Daten“, von Formeln und inhaltlichen „Merksätzen“ (evtl.
Zitaten oder Argumenten). Jede Prüfung von Studienerfolgen fragt zuerst nach
solchen Daten. Erst im Anschluß an solche Kenntnisse kann man nach „Erkenntnissen aus und über“ diese Daten weiterfragen. Mancher Studierende bleibt bei
solchen Kenntnissen stehen. Als diplomierter Absolvent mag er sogar mit solchem Faktenwissen glänzen, das er wie ein Papagei vortragen und ausbreiten
kann. Was man gelegentlich „falsche Kenntnisse“ nennt, bezeugt aber Unkenntnis. Sie sollte nicht mit falschen Erkenntnissen verwechselt werden.
Erkenntnisse beziehen sich auf Beziehungen und Verknüpfungen von Kenntnissen untereinander. Sie werden daher, im Unterschied zum „empirischen und
historischen Faktenwissen“, gewöhnlich auch „theoretisches Wissen“ genannt.
Aristoteles sah darin das eigentliche „szientifische“ (griech.: epistematische) Wissen derjenigen Wissenschaften, die über die empirisch-historische Stufe hinausgewachsen sind. Sie erklären die einzelnen Daten und Fakten aus Ursachen (vgl.
seine Lehre von den „vier Ursachen“). Im Unterschied zu den „graphischen Wissenschaften“ nannte er sie „-Logien“ oder auch „Techniken“.
Auch das ist – unter mancherlei Veränderungen der Ursachentheorien – im
allgemeinen erhalten geblieben. Noch jetzt benennt man einige Wissenschaften
mit der Endung „-logie“ (wie Ontologie, Theologie, Kosmologie, Biologie, Soziologie, Psychologie), andere mit der Endung „-ik“ (wie Logik, Mathematik, Rhetorik, Ethik, Ökonomik, Politik, Pädagogik, usw.). Ursprünglich zeigte die Endung „-ik“ (von griech.: „-iké téchne“) an, daß ihr Gegenstand Handlungsbezüge
aufwies. Neuere Wissenschaftbezeichnungen benutzen diese Endungen jedoch
eher nach dem Wohlklang (wie z. B. Germanistik, Sinologie).
Einfachste Formen solcher Erkenntnisse sind schon die Definitionen wissenschaftlicher Begriffe, die die Termini mit anderen Termini in geregelte logische
Beziehungen setzen. Sie zeigen (wie in Prüfungen oft erfragt wird), daß die Daten
und Fakten nicht nur bekannt, sondern auch verstanden worden sind. In weiteren
Zusammenhängen werden diese Erkenntnisse zu „Argumenten“. Sie können in
mehr oder weniger schlichter und konziser Form niedergeschrieben, vorgetragen
und diskutiert werden, aber ebenso auch in hochformalisierter Gestalt. Fachliche
Kompetenz und ggf. Brillanz zeigt sich darin am meisten. Vor der sich ausbreitenden Manie, Argumente nur als „Intuitionen“ vorzutragen, haben wir allerdings
schon eingangs gewarnt.
Die elaboriertesten Formen der Erkenntnisse sind die wissenschaftlichen Theorien. Sie verknüpfen im Idealfall nur wohldefinierte Begriffe zu einem systematischen Gesamt („hard core“ im „non-statement-view“). Gelingt dies, so ist ihr
pyramidaler Zusammenhang auch in Sätzen (logischen Urteilen), Argumenten und
Schlüssen formulier- und lesbar.
178
Es sei auch hier betont, daß neben den Argumenten auch und gerade Theorien,
und erst recht Teile von Theorien, wahr, falsch und auch wahr-falsch sein können.
Ebenso sei hier nochmals auf die merkwürdige Tatsache hingewiesen, daß in der
neueren Wissenschaftstheorie der Mathematik und Naturwissenschaften die Meinung vertreten wird, daß insbesondere die Grundbegriffe bzw. „Prinzipien“ (axiomatische Grundbegriffe) einschlägiger Theorien gerade „undefinierbar“ seien. Es
handelt sich dabei jedoch um die ersichtlich wahr-falsche These, daß solche
Grundbegriffe zugleich Begriffe und auch keine Begriffe seien.
Alles Wissen ist grundsätzlich Wissen lebendiger Menschen. Es besteht daher
wesentlich im Vollzug sogenannter geistiger Handlungen. Da diese privater Natur
und von anderen Menschen nicht unmittelbar erfaßbar sind, kann man ein Wissen
nur auf Grund seiner Verlautbarungen in sprachlichen und anderen symbolischen
Zeichen erschließen. Man nennt dies gewöhnlich „Objektivierung“ des Wissens.
Sprachliche Äußerungen auf Tonträgern, Texte, Bilder und Schemata gelten allgemein als solche Objektivierungen und sind die Grundlage für alle öffentlichen
Institutionen des Wissens.
Die Tatsache solcher Objektivierungen des Wissens führt allerdings zu der verbreiteten irrigen Auffassung, Wissen selbst bestünde in diesen Objektivierungen.
Daher spricht man heute allgemein von Texten, Dateien u. ä. als „Wissensbasen“.
Von da ist es nur ein kleiner Schritt, Dokumentationen, Bibliographien, Bücher,
Bibliotheken, Archive insgesamt als „objektives Wissen“ anzusehen und ihre Ordnungsapparaturen als „Expertensysteme“ zu bezeichnen. Besonders die Computer
mit ihrer ungeheuren Leistungsfähigkeit für die Speicherung und Zur-Verfügungstellung solcher Objektivationen haben diese Meinung verbreitet, so daß man
wegen der Verbreitung der Computer auch die sie benutzende Gesellschaft gerne
„Wissensgesellschaft“ nennt.
Hinter allen solchen Bezeichnungen verbergen sich aber nur Halbwahrheiten. Es
ist wahr, daß solche Apparate Wissen dokumentieren und den Zugang zu ihm
erleichtern und ordnen können. Aber es ist eine falsche Meinung, daß die Dokumentation von Wissen schon selber Wissen sei. Wie oben schon betont, kommt
Wissen nur (privat und individuell) zustande, wenn die Dokumentation zur Kenntnis genommen, gelesen, verstanden und „bedacht“ wird, und zwar eben durch
einen lebendigen Menschen in seinen (privaten) geistigen Kenntnis- und Erkenntnisakten.
Frühere Zeiten haben die platonische Einsicht kultiviert, daß Reden, Texte, Dokumentationen stumm und tot bleiben, wenn sie nicht in einem lebendigen Bewußtsein verarbeitet werden. Man war sich darüber im klaren, daß die (materiellen) Formen sprachlicher Verlautbarungen von Texten, Bildern, Schematen ein
Mittel waren, geistige Akte zu evozieren und diesen selbst eine bestimmte Form
zu geben. Daher nannte man sie „Informationen“ (wörtlich: In-Form-Bringen).
Heute spricht man zwar noch in diesem alten Sinne davon, man „informiere sich“,
wenn man sich aus Dokumenten ein bestimmtes Wissen verschafft. Aber die
Information wird mehr und mehr mit dem Dokument als solchem, dem In-Form
179
Gebrachten, identifiert. Das erzeugt den Anschein, als ob das Dokument selber
schon ein Stück Wissen wäre. Man glaubt, Wissen ließe sich im Computer speichern.
Abgespeicherte Information ist dann aber nicht mehr die gelesene, aufgenommene, verstandene oder auch unverstandene, und gewußte Botschaft, sondern die
materielle Zeichenhülle selbst. Kein Wunder, daß Menschen, die sich auf solches
„dokumentiertes Wissen“ verlassen und die Information in Bits und Bytes quantifizieren und sich dabei vom eigenen Erfassen und Denken entlasten, dabei in
Gefahr geraten, immer dümmer zu werden. Da dies jedoch eine sehr weit verbreitete Tendenz in den modernen Gesellschaften ist, muß es falsch und irreführend sein, die gegenwärtige Gesellschaftform eine „Wissensgesellschaft“ zu
nennen.
§ 14 Die Bestimmung von Wissenschaft
Wissen als Wesen der Wissenschaft. Abweisung des psychologischen, anthropologischen und
informationstheoretischen Reduktionismus. Das „Wissen von...“ als realistische Selbsttäuschung.
Wissensbasen und Institutionen des Wissens als Instrumente des Wissenserwerbs. Unterschied und
Zusammenhang von Lebenserfahrung, Schulunterricht und wissenschaftlicher Lehre und die
Aufgaben der Forschung
Nach dem bisher Gesagten müssen wir darauf bestehen, daß Wissenschaft wesentlich auf wissenschaftlichem Wissen beruht. Vieles andere kommt noch hinzu, aber
es ist nicht mit diesem Wesentlichen zu verwechseln, noch, wie es in der Wissenschaftstheorie häufig geschieht, an seine Stelle zu setzen.
Wissenschaft wesentlich auf das Wissen zu gründen, heißt keineswegs, es auf
ein anthropologisches oder psychologisches Wissen über das Wissen zu gründen
und damit einem reduktionistischen Anthropologismus oder Psychologismus zu
huldigen. Denn solches philosophisches Bereichswissen oder einzelwissenschaftliches Wissen, wie es auch das psychologische Wissen selbst ist, könnte allenfalls
ein Beispiel, ein Fall von wissenschaftlichem Wissen sein, das selber schon gewußt werden muß.
Betonen wir beiläufig: Menschen haben auch vor der Entstehung oder Erfindung
von Wissenschaft mancherlei gewußt, und erst recht weiß jeder Mensch vieles,
ohne Anthropologe oder Psychologe zu sein und über spezielles Wissen aus
diesen Disziplinen zu verfügen. Wenn also die Wissenschaft darauf warten müßte,
bis eine besondere Wissenschaft geklärt hätte und „weiß“, was Wissen selber ist,
so gäbe es sicherlich noch keine Wissenschaften. Ebenso beiläufig sei gesagt:
Wenn Sokrates behauptete, daß er „wisse, daß er Nichts (genauer: nicht) wisse“
und Descartes, daß er „wisse, daß er wisse“, so verdanken diese Sprüche ihre
180
Notorietät offensichtlich gerade der Tatsache, daß sie auf ein Wissen hinweisen,
das sich in keiner Weise „objektivieren“ läßt.
Ein ebenso falscher Reduktionismus liegt der Denkfigur und der darauf beruhenden Bestimmung des wissenschaftlichen Wissens als „Wissen von...“ zugrunde. Man setzt dabei voraus, dasjenige, von dem oder über das etwas gewußt werde, sei die sogenannte objektive Wirklichkeit, also schlechthin der Gegenstand des
Wissens und der Wissenschaft. Diese wissenschaftlichen Objekte müßten unabhängig von allem Wissen erst einmal „gegeben“ und somit dem Wissen von ihnen
vorgegeben sein.
Diese Denkfigur ist in unseren Zeiten ein Grundgedanke des herrschenden
Realismus in den meisten Wissenschaften geworden. Es wird dabei aber nicht
bedacht, daß man das „Wovon“ und „Worüber“ des Wissens immer schon erkannt
haben und davon wissen muß, um überhaupt darüber reden zu können. Deshalb
verweist auch diese „realistische“ Denkfigur nur wiederum auf ein vorgängiges
Wissen, das dann weiteres „nachgängiges“ Wissen erzeugt, hinter das aber nicht
zurückgegangen werden kann.
Da nun Wissenschaft wesentlich auf Wissen beruht und dieses grundsätzlich ein
(privater) und bewußter Besitz lebendiger Menschen ist, sollte man sie am ehesten
bei den Wissenschaftlern selbst vermuten. In der Tat hat man diejenigen, bei
denen man Grund zu dieser Vermutung hatte, seit jeher als „Weise“ geehrt und
ausgezeichnet. Dieser Sitte verdanken sich noch immer alle Wissenschaftspreise
und Ehrungen.
Das alte Wissen darum, daß die Wissenschaft wesentlich vom Wissen der Wissenschaftler getragen wird, ist zwar heute sichtlich im Schwinden begriffen zugunsten der Meinung und Erwartung, „objektiviertes“ Wissen stelle sich in den
wissenschaftlichen Institutionen mehr und mehr von selbst und gleichsam automatisch in der oben genannten informationstechnischen Weise her. Aber man
wird auf das „lebendige“ Wissen zurückkommen müssen, wenn man Wissenschaft wirklich haben und erhalten will.
Wissen erwirbt man bekanntlich durch Lernen aus der Lebenserfahrung oder
durch Unterricht. Das gilt natürlich auch für wissenschaftliches Wissen. Ein guter
Wissenschaftler hat wie andere Menschen auch schulichen Unterricht genossen
und Lebenserfahrungen angesammelt. Wie gut die Schule und sein wissenschaftliches Studium war und wie tief und vielfältig seine Lebenserfahrungen sind, das
bestimmt auch nachhaltig die Qualität seines Wissens. Im übrigen lernt er im
besten Falle ständig hinzu und unterrichtet sich selbst weiter. „Life long learning“
war immer ein Spezifikum der Wissenschaftlerexistenz. Es nun jedermann zuzumuten kann nur bedeuten, alle Menschen zu Wissenschaftlern bilden zu wollen.
Dabei wäre es viel wichtiger, darauf zu achten und Sorge dafür zu tragen, daß und
wie schon einmal erlangte Wissensstandards in allen Bereichen des Lebens und
der Wissenschaft erhalten, vermittelt und womöglich verallgemeinert werden
könnten.
181
Obwohl wissenschaftliches Wissen an allgemeines Schul- und Alltagswissen
anknüpft, unterscheidet es sich doch auch von diesem in mancher Hinsicht. Die
Wissenschaften haben, so lange es sie gibt, Vermittlung und Erweiterung des wissenschaftlichen Wissens durch besondere Institutionen zu sichern versucht, nämlich durch Lehre und Forschung.
Hier ist zunächst zu betonen, daß Lehre und Forschung Hilfsmittel zur Gewinnung, Vermittlung und Erweiterung des wissenschaftlichen Wissens sind, keineswegs aber das Wesentliche der Wissenschaft selber darstellen.
Sie sind nächst dem wissenschaftlichen Wissen zwar das Auffälligste und daher
am meisten Sichtbare an der Wissenschaft, gehören aber doch nur zum äußerlichen Apparat des wissenschaftlichen Betriebes. Und nur deshalb kann damit
herumexperimentiert werden, können Lehre und Forschung ständig verbessert
oder verschlechtert, revolutioniert, reformiert oder restituiert werden; kann Lehre
schulischem Unterricht angenähert oder auch davon abgehoben werden; können
sowohl Lehre als auch Forschung als handwerkliche Praxis, als Technik oder auch
als Kunst betrieben werden. Wichtig ist nur, ob sie ihrem Zweck genügen, nämlich wissenschaftliches Wissen aufrecht zu erhalten, zu perennieren, zu gewährleisten, ständig zu kontrollieren und zu überprüfen und es gegebenenfalls zu erweitern.
Wissenschaftliche Lehre unterscheidet sich vom schulischen Unterricht nicht
nur durch die verschiedenen Lebensalter, in denen Schüler der gesetzlichen Schulpflicht unterliegen und Studierende sich mehr oder weniger zwanglos einem
Studium widmen.
Die wissenschaftliche Lehre tradiert ein wissenschaftliches Wissen, von dem
wir oben schon sagten, daß es wahres, aber auch falsches, und auf weite Strecken
wahr-falsches Wissen enthält. Was an diesem Wissen wahr, falsch oder beides
zugleich ist, festzustellen, ist gerade dasjenige, was die Lehre mit der Forschung
verknüpft, wie es Wilhelm von Humboldt mit seinem Diktum von der „Einheit
von Forschung und Lehre“ an Universitäten sehr richtig ausgesprochen, wenn
auch nicht erfunden hat. Kurz, die berühmte Wahrheitsfrage ist das ständige Problem der Wissenschaft, und ihre Lösung das Ideal, dem sie nacheifert.
Schulischer Unterricht hält sich im Unterschied zur wissenschaftlichen Lehre an
sogenannte ausgemachte Wahrheiten und im praktischen Bereich an effiziente und
erprobte Kulturtechniken, die dadurch vermittelt werden. Und diese werden daher
in den meisten Staaten von Bürokraten unter mehr oder weniger Beratung durch
Wissenschaftler in den Schulkurrikula festgeschrieben und kanonisiert.
Das ist im optimalen Fall derjenige Teil wissenschaftlichen Wissens, auf den
sich die Mehrheit der Fachwissenschaftler als wahr und sicher geeinigt hat. Insofern handelt es sich oft um älteres und insofern etwas abgestandenes Wissen. In
anderen Fällen kann es sich aber auch um Wissen von wissenschaftlichen Minderheiten handeln, die ihre für wahr gehaltene Meinung über die Schulkurrikula
im Bewußtsein nachwachsender Generationen verankern möchten, ohne daß sie
dem Test längerer wissenschaftlicher Auseinandersetzung ausgesetzt gewesen
182
wäre. Dieses „avantgardistische“ Wissen kann sich zwar als wahr bewähren, es
kann sich aber auch als (falsche) „Ideologie“ erweisen.
Gegenwärtig kann man eine so eingeimpfte Gewißheitserwartung in weiten
Kreisen der Studierenden feststellen. Sie sind geschockt, enttäuscht und oft empört, wenn sie an den Hochschulen einer forschungsnahen Lehre konfrontiert werden, in der das meiste vorgetragene Wissen mehr oder weniger unsicher, diskutabel, problematisch erscheint. Gerade auf diese Unsicherheit des wissenschaftlichen Wissens hätte sich ein guter Schulunterricht immer auch propädeutisch im
Hinblick auf das wissenschaftliche Studium auszurichten und insofern mit aller
Vorsicht auf manche Ungesichertheit und Vorläufigkeit des wissenschaftlichen
Wissens vorzubereiten.
Begegnet man nun häufig bei den Studierenden und auch in weiten Kreisen der
Öffentlichkeit der Meinung, Wissenschaft sei als solche schon der Hort der
Wahrheit und eine „richtige“ Lehre vermittle daher lauter(e) Wahrheiten, so ist es
anderseits bei den Wissenschaftlern selbst geradezu eine Mode geworden, mit K.
R. Popper davon auszugehen daß alles in der Wissenschaft grundsätzlich unsicher
sei, daß alles Wissen der Wissenschaft nur vermutendes bzw. hypothetisches
„Wahrscheinlichkeitswissen“ sei, und daß sich Wissenschaft in und durch Forschung nur allmählich und „asymptotisch“ der Wahrheit annähere, ohne sie je
erreichen zu können.
Dem Philosophen mag es zwar schmeicheln, darin eine alte Bescheidenheit wiederzuerkennen, die auf den Titel „Weiser“ (besser: Wissender) zugunsten der
„Liebe zur Weisheit“ (besser: zum Wissen) verzichtete - und damit auch auf das
Wahrheitsmonopol. Aber die Meinung, daß alles wissenschaftliche Wissen nur
wahrscheinlich sei, ist eine falsche Bescheidenheit und erst recht eine ganz falsche
Ansicht vom Wesen des wissenschaftlichen Wissens.
Das zeigt sich schon daran, daß man, um von einer „Annäherung an die Wahrheit“ (K. E. Popper) auch nur zu reden, schon wissen muß, was die Wahrheit ist.
Und wenn man das weiß, wie Popper natürlich voraussetzt, so hat man schon
wenigstens ein Stück wahren Wissens, von dem aus sich andere Stücke falschen
Wissens als falsch und als abständig von der Wahrheit einschätzen lassen.
Die wissenschaftliche Forschung stellten wir als Hilfsmittel zur Erweiterung
und Bereicherung des wissenschaftlichen Wissens heraus. Das Wort „Forschung“
(investigatio, auscultatio, scrutatio, skepsis, zetesis)107 verweist auf die Bedeutung
des Ausspähens, Herumblickens, Weitersehens, Suchens. So denkt man in erster
Linie daran, daß das wissenschaftliche Wissen durch Forschung neue Bereiche an
Kenntnissen und ihre erkennende Durchdringung erschließt.
Das ist in der Tat so. Die Erschließung ganz neuer Wissens- und Wissenschaftsbereiche besonders in den Naturwissenschaften mit Hilfe neuer technischer
Experimentier- und Beobachtungsinstrumente hat diesen Forschungsbegriff verfestigt. Aber zur Forschung gehört neben der Erweiterung auch die Konsoli107
Vgl. L. Geldsetzer, Der Begriff der Forschung im 19. Jahrhundert. In: Jahrbuch der Universität Düsseldorf 1975/76,
Düsseldorf 1977, S. 135 – 146.
183
dierung und ständige Revision des wissenschaftlichen Wissens, also das, was wir
oben schon Prüfung der Wahrheit und Falschheit dieses Wissens genannt haben.
Man darf hier schon sagen: diese Art von Forschung steht heute weit hinter der
anderen, ständig auf Neues ausgerichteten - auch in der öffentlichen Wertschätzung - zurück. Der Zustand des kritischen Rezensionswesens in allen Wissenschaften zeigt es an. Es ist überall in vollem Verfall befindlich, und zwar zugunsten übersprudelnder „Informationen“ über neues Wissen, das nur noch darauf hin
geprüft wird, ob es nach „wissenschaftlichen Methoden“ erarbeitet, nicht aber ob
es wahres oder falsches Wissen ist.
Hinzu kommt ein in der Neuzeit sich immer mehr verbreitendes Fortschrittsbewußtsein, das dazu neigt, alles schon vorhandene Wissen für überholt und daher
für „falsch geworden“ anzusehen. In gleichem Maße hält man es dann auch der
Mühe nicht mehr für wert, sich dieses Wissens überhaupt zu versichern, es zu
kennen und das vorgeblich Neue mit ihm zu vergleichen. Gerade dies aber ist die
einzig denkbare Probe für tatsächlich Neues. Man kann es auch so sagen: In
vielen Bereichen der Wissenschaft wird Amerika ständig neu entdeckt und das
Rad immer neu erfunden. Es wird nur anders benannt, und das erzeugt dann den
Anschein der Erschließung immer neuer „möglicher Welten“.
Forschung zur Erreichung und Verbesserung des Wissens gab und gibt es
natürlich auch außerhalb der Wissenschaft. Daher gilt von ihr ebenso wie von der
Lehre, daß sie vielfältige Gestalten annehmen kann. Sie kann sich auf handwerkliche Tricks und sogenanntes „know how“ stützen, sie kann als hohe Kunst
betrieben werden, und nicht zuletzt ist sie in neueren Zeiten immer mehr mit der
Technik verschmolzen worden. Das hat K. R. Poppers Schüler Paul Feyerabend
wohl mitgemeint und gesehen, als er für die Forschung die Parole ausgab:
„Anything goes“ (Alles geht) 108. Er hat mit dieser Parole aber viel zu weit gegriffen, indem er der Durchmischung aller Methoden und Tricks in der Wissenschaft ziemlich Vorschub geleistet hat. Wir haben aber schon genügend Gründe
aufgezählt, die es nahelegen sollten, zwischen wissenschaftlichen und außerwissenschaftlichen Forschungsmethoden zu unterscheiden.
Gerichtsprozessuale und „kriminalistische“ Verfahren zur Gewinnung (oder Herstellung) von wahrem Wissen und Entlarvung von Lüge, Täuschung und Betrug
sind wohl so alt wie die Kultur überhaupt. Sie haben in vielfältiger Weise Muster
und Modelle auch für die wissenschaftlichen Forschungsmethoden vorgegeben.
Gleichwohl ist die Forschung für die Wissenschaften derjenige Bereich geworden,
auf dem am meisten sichtbare und lehr- und lernbare Methoden entwickelt wurden, die daher im Mittelpunkt der Aufmerksamkeit der Wissenschaftstheoretiker
stehen. Angesichts der diesen Methoden gewidmeten Literatur könnte man den
Eindruck gewinnen, Wissenschaftstheorie sei fast nur Methodenlehre der Forschung. Das ist bei der Wichtigkeit der Sache kein Wunder. Aber es besteht doch
108
P. K. Feyerabend, Against Method. Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the
Philosophy of Science IV, 1970, S. 117 – 130, 2. erw. Ausgabe: Against Method, London 1975; dt. erw. Übers.: Wider den
Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976.
184
Grund sich daran zu erinnern, daß auch Forschungsmethoden nur ein Mittel zum
Zweck der Wissensgewinnung und Wissenskonsolidierung sind, auf welche in der
Wissenschaft schlechthin alles ankommt.
II. Zur Geschichte der Disziplin Wissenschaftsphilosophie
§ 15 Aufkommen der Bezeichnung Wissenschaftphilosophie und die Tendenzen
zur Ausbildung der Disziplin Wissenschaftsphilosophie bzw. Wissenschaftstheorie
Clemens Timpler und seine „Technologia“ von 1604. Die Vorgaben der Universalenzyklopädien,
der Literar- und Wissenschaftsgeschichte, der Bibliographie und Wissenschaftskunde, der Architektoniken und Klassifikationen der Wissenschaften. Die Reflexion auf Nutzen und Relevanz der
Wissenschaften. Die Philosophie als Grund- und Fundamentalwissenschaft der Wissenschaften.
Die Philosophie als Verunftkritik und Wissenstheorie. Die Philosophie als Wissenschaftslehre. Die
Vorbilder der klassischen Methodologien.
Die Disziplin wird - wie viele andere auch - durch eine gräzisierende Namengebung in der deutschen Schulphilosophie des frühen 17. Jahrhunderts etabliert.
Dies geschieht in der kleinen Schrift von Clemens Timpler: „Wissenschaftswissenschaft oder allgemeine Abhandlung über das Wesen und die Unterschiede der
freien Künste bzw. der wissenschaftlichen Disziplinen“ von 1604 109, das auch als
Einleitung in sein „Systema metaphysicum“ öfter aufgelegt wurde.
Hier steht das griechische Wort „téchne” für das lateinische „artes” bzw. artes
liberales, d. h. die freien Künste oder wissenschaftlichen Disziplinen der „Artistenfakultät”, d. h. der Philosophischen Fakultät. Die „Logie” der „technai” versteht sich also als eine neue Wissenschaft von den Wissenschaften der Philosophischen Fakultät, d. h. der „trivialen” (oder „sermocinalen“, auf Reden bezogenen) „Geisteswissenschaften” (Logik, Rhetorik, Grammatik) und der „quadrivialen“ (oder „realen”, auf Sachverhalte bezogenen) „mathematischen“ Naturwissenschaften (Arithmetik, Geometrie, Astronomie bzw. Naturwissenschaft,, musikalische Harmonielehre). Sie ist als Wissenschaft vom Wesen und den Unterschieden der Einzelwissenschaften konzipiert. Damit hat Timpler der Wissenschaftsphilosophie ihre früheste Programmschrift geliefert.
Freilich ist eine solche Programmschrift nur sichtbarer Ausdruck von Tendenzen, die zur Konstitution der Disziplin zusammenliefen. Und diese erstrecken sich
über längere Zeiträume, z. T. kommen sie erst in der Gegenwart zum Tragen.
Dafür seien vor allem die Bestandsaufnahmen des Wissens und der Wissenschaften hervorgehoben, die eine leichte Übersicht erlaubten und zur Reflexion
109
Clemens Timpler, Technologia, seu tractatus generalis de natura et differentiis artium liberalium, Hanau 1604.
185
über diese Materie herausforderten. Sie bringen sich zur Geltung in mehreren
Literaturgattungen.
Universalenzyklopädien der Wissenschaften.110 Unter diesen sind die bedeutendsten die folgenden:
Vincent von Beauvais, Speculum quadruplex (verf. um 1260), 4 Bände Douai 1624, ND Graz
1965
Gregorius Reisch, Margarita Philosophica, Freiburg 1503, 4. Aufl. 1517, ND in Instrumenta
philosophica Series Thesauri I, hgg. von L. Geldsetzer, Düsseldorf 1973
Joh. Heinr. Alsted, Scientiarum omnium Encyclopaedia septem tomis distincta, Herborn 1630, 2.
Aufl. Leyden 1649
J. Th. Jablonski, Allgemeines Lexikon der Künste und Wissenschaften, 2 Bde Königsberg-Leipzig
1721, 3. verm. Aufl. hgg. v. J. J. Schwaben, Königsberg u. Leipzig 1767
J. Harris, Lexikon technicum, or an Universal English Dictionary of Arts and Sciences, London
1704, 1708, 1710, 1736, Supplement 1744, ND New York 1967
Ephr. Chambers, Cyclopedia, or a Universal Dictionary of Arts and Scienes, 2 Bde London 1728,
6. Aufl. hgg. von A. Rees, 5 Bde London 1788 – 1791
J. H. Zedler (Hg. u. Verleger), Großes vollständiges Universal-Lexikon aller Wissenschaften und
Künste, 64 Bde und 4 Suppl.-Bde (A bis Cag), Halle u. Leipzig 1732 – 1754, ND Graz 1961- 1964
D. Diderot und J. LeRond d„Alembert (Hg.), Encyclopédie ou Dictionnaire raisonné des Sciences,
des Arts et des Métiers, 35 Bde Paris bzw. Neuchâtel-Amsterdam 1751 - 1780 (mehrere
Ausgaben), ND Stuttgart-Bad Cannstatt 1969 ff.- Umarbeitung und Erweiterung durch Ch. J.
Pankouke und H. Agasse zur Encyclopédie méthodique ou par ordre des matières, 166
Bände, Paris-Liège 1781 – 1832, Ausgabe in 184 Bänden, Padua 1791
J. G. Krünitz (Hg. u. Verleger), Ökonomisch-technologische Enzyklopädie der Wissenschaften
und Künste, 242 Bände Berlin 1773 - 1858
Deutsche Enzyklopädie oder allgemeines Real-Wörterbuch aller Künste und Wissenschaften, von
einer Gesellschaft von Gelehrten (sog. “Frankfurter Enzyklopädie”), 23 Bde Frankfurt 1778 –
1807
J. G. Gruber und J. S. Ersch (Hg.), Allgemeine Encyclopädie der Wissenschaften und Künste, 167
Bde (in 3 unvollständigen Serien), Leipzig 1818 – 1889, ND Graz 1969 ff.
A. Rees (Hg.), The Cyclopaedia or universal Dictionary of Arts, Sciences, and Literature, 45
Bände London 1819 ff.
M. N. Bouillet (Hg.), Dictionnaire universel des Sciences, des Lettres et des Arts, Paris 1854, 12.
Aufl. Paris 1877
La Grande Encyclopédie. Inventaire raisonné des sciences, des lettres et des arts, 31 Bände Paris
1885 – 1902.
2. Die Literar- und Wissenschaftsgeschichte im Sinne einer Faktenkunde des
Bereichs, wie z. B.
110
Vgl. G. Tonelli, A Short-Title List of Subject Dictionaries of the Sixteenth, Seventeenth and Eighteenth Centuries as
Aids to the History of Ideas (Warburg Institute Surveys IV), London 1971.- Vgl. zu den folgenden Materialien und weiteren Literaturgattungen L. Geldsetzer, Allgemeine Bücher- und Institutionenkunde für das Philosophiestudium. Wissenschaftliche Institutionen, Bibliographische Hilfsmittel, Gattungen philosophischer Publikationen, Freiburg-München 1971.
186
Dan. Georg Morhof, Polyhistor literarius, philosophicus et practicus, 1688, 4. Aufl. Lübeck 1747,
ND Aalen 1970 in 2 Bänden
Gottl. Stolle, Anleitung zur Historie der Gelahrtheit denen zum besten, so den freien Künsten und
der Philosophie obliegen, 1718, 4. Aufl. Jena 1736
V. Ph. Gumposch, Die philosophische Literatur der Deutschen von 1400 bis auf unsere Tage,
Regensburg 1851, ND in Instrumenta Philosophica Series Indices Librorum II, hgg. v. L.
Geldsetzer, Düsseldorf 1967
J. Andr. Fabricius, Abriß einer allgemeinen Historie der Gelehrsamkeit, 3 Bände, Leipzig 1752 –
1754
L. Wachler, Handbuch der allgemeinen Geschichte der literarischen Cultur, 2 Bände Marburg
1804, 2. Aufl.: Handbuch der Geschichte der Litteratur, 3 Teile in 2 Bänden Leipzig 1822 – 1824
W. T. Krug, Handbuch der Philosophie und der philosophischen Literatur, 2 Bände, Leipzig 1820
– 1821, 2. Aufl. 1822, 3. verm. Aufl. 1828, ND in Instrumenta Philosophica Series Thesauri III,
hgg. v. L. Geldsetzer, Düsseldorf 1969; schwedische Übers. von A. A. Bäckström, Stockholm
1831
W. T. Krug, Allgemeines Handwörterbuch der philosophischen Wissenschaften nebst ihrer
Literatur und Geschichte nach dem heutigen Standpunkt der Wissenschaften, 4 Bände nebst
Supplementband, Leipzig 1827 - 1829, 2. Aufl. in 6 Bänden 1832 – 1838
F. X. v. Wegele (Hg.), Geschichte der Wissenschaften in Deutschland, 22 Bde, München 1864 –
1913. Darunter Bd.VII Geschichte der Ästhetik von H. Lotze, 1886; XIII Geschichte der
Philosophie seit Leibniz von Ed. Zeller, 1873; XVIII (in 6 Teilbdn) Geschichte der deutschen
Rechtswissenschaft von R. Stintzing und E. Landsberg, 1880 – 1910; XIX (1-2) Geschichte der
klass. Philologie von C. Bursian, 1883; XX Geschichte der deutschen Historiographie von F. X.
von Wegele, 1885
F. Wagner und R. Brodführ (Hg.), Orbis Academicus, Problemgeschichte der Wissenschaften in
Dokumenten und Darstellungen, 3. Abteilungen in 59 Bänden, Freiburg i. Br. 1950 - 1987.
Darunter J. M. Bochenski, Formale Logik, 1956, 6. Aufl. 2002
L. Geymonat (Hg.), Storia del pensiero filosofico e scientifico, 9 Bände Mailand 1970, 2. Aufl.
1975
3. Bibliographie und Wissenschaftskunde:
C. Gesner, Bibliotheca universalis, sive catalogus omnium scriptorum, Tomus 1 - 3 nebst
Appendix, Zürich 1545 – 1555. ND Tom. 1 und Appendix mit der “Epitome” des Gesamtwerks
von J. Simler von 1555, Osnabrück 1966
M. Lipenius, Bibliotheca realis universalis omnium materiarum, rerum et titulorum in theologia,
iurisprudentia, medicina et philosophia occurrentium, Frankfurt 1679 - 1685, ND Hildesheim 1965
Burkh. Gotthelf Struwe, Bibliotheca Philosophica, Jena 1704, 5. stark erw. Aufl. hgg. v. L. M.
Kahle, Bibliothecae Philosophicae Struvvianae emendatae continuatae atque ultra dimidiam partem auctae, 2 Bände Göttingen 1740, ND in Instrumenta Philosophica Series Indices Librorum,
hgg. v. L. Geldsetzer, Düsseldorf 1970
J. G. Sulzer, Kurzer Inbegriff der Wissenschaften und anderer Teile der Gelehrsamkeit, Leipzig
1745, 6. Aufl. 1786
J. M. Gessner, Primae lineae isagoges in eruditionem universam, Göttingen 1757 - 1760, 3. Aufl.
1786
J. S. Ersch, Handbuch der deutschen Literatur seit der Mitte des 18. Jhs. bis auf die neueste Zeit, 6
Bde Leipzig 1822 – 1840, ND Hildesheim 1969
J. S. Ersch und Christian A. Geissler, Bibliographisches Handbuch der philosophischen Literatur
der Deutschen von der Mitte des achtzehnten Jahrhunderts bis auf die neueste Zeit, 3. Aufl.
Leipzig 1850, ND in Instrumenta Philosophica Series Indices Librorum, hgg. mit Vorwort und
Registerbearbeitung von L. Geldsetzer, Düsseldorf 1965
187
J. Joach. Eschenburg, Lehrbuch der Wissenschaftskunde, Berlin 1792 - 1800, 2. Aufl. 1800, 3.
Aufl. 1809
K. Chr. Erh. Schmid, Allgemeine Enzyklopädie und Methodologie der Wissenschaften, Jena 1810
A. M. Moschetti und A. Padovani u. a. (Hg.), Grande Antologia Filosofica, 8 Abteilungen,
Mailand 1954 ff.
W. Schuder (Hg.), Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
4. Die Architektoniken und Klassifikationen der Wissenschaften, welche den Blick
auf ihre Zusammenhangsprinzipien, ihre Voraussetzungsstruktur und ihre Unterschiede lenkt, die auch schon Timpler behandelte. In dieser Hinsicht sind beachtlich:
F. Bacon, Novum organum scientiarum (= Instauratio magna I), London 1620, dt. Übers. v. S.
Maimon, Neues Organon, Berlin 1793, dt. Übers. von A. T. Brück, Neues Organ der Wissenschaften, Leipzig 1830, ND Darmstadt 1974
J. LeRond d„Alembert, Vom Ursprung, Fortgang und Verbindung der Künste und Wissenschaften
(Discours préliminaire zur Encyclopédie, übers. v. J. Wegelin), Zürich 1761, franz. Ausg. Paris
1965
von Berg, Versuch über den Zusammenhang aller Teile der Gelehrsamkeit, Frankfurt a. M. 1794
W. T. Krug, Über den Zusammenhang der Wissenschaften unter sich und mit den höchsten
Zwecken der Vernunft, nebst einem Anhang über den Begriff der Enzyklopädie, Jena-Leipzig
1795
Töpfer, Encyklopädische Generalcharte aller Wissenschaften (gestochen von W. v. Schlieben),
nebst Kommentar, Leipzig 1806 – 1808
G. B. Jäsche, Grundlinien zu einer Architektonik der Wissenschaften nebst einer Skiagraphie und
allgemeinen Tafel des gesamten Systems menschlicher Wissenschaften nach architektonischem
Plane, Riga 1817
J. M. Ampère, Essai sur la philosophie des sciences, 2 Bände, Paris 1834 - 1843 (hier wird aus
seinem Klassifikationsversuch der Wissenschaften eine „Mathésiologie“)
J. Bentham, Essai sur la nomenclature et la classification des principales branches d‟ art et science,
1823 (in : J. Bentham, Engl. Works, Band 8, 1843)
H. Spencer, The classification of Sciences, 2. Aufl. New York 1870
W. Schuder, Universitas Litterarum. Handbuch der Wissenschaftskunde, Berlin 1955
B. M. Kedrow, Klassifizierung der Wissenschaften, aus dem Russischen übersetzt von L. Keith
und L. Pudenkow, 2 Bände Köln 1975 – 1976
5. Die Reflexion auf Nutzen und Relevanz der Wissenschaften für Gesellschaft und
Staat. Diese ist immer zugleich eine Reflexion auf ihr Wesen. Sie ist freilich seltener positiv als negativ (Zensur) betrieben worden. Hier sind zu nennen:
G. W. Leibniz, Grundriß eines Bedenkens von Aufrichtung einer Sozietät in Teutschland zu
Aufnehmen der Künste und Wissenschaften, 1671
Fontenelle, Préface sur l‟ utilité des Mathématiques et de la Physique et sur les travaux de l‟
Académie des Sciences, in: Œuvres, Band V, Paris 1758
Friedrich II., De l‟ utilité des sciences et des arts dans un état, in: Werke, Berlin 1878 ff.
I. Kant, Der Streit der Fakultäten, Königsberg 1798
Auguste Comte, Prospectus des travaux scientifiques nécessaires pour réorganiser la société, Paris
1822, dt. : Plan der wissenschaftlichen Arbeiten, die für eine Reform der Gesellschaft notwendig
sind, München 1973
188
6. Die Philosophie als Grundwissenschaft im Sinne der Fundamental- oder Begründungswissenschaft für alle anderen Wissenschaften oder gar als “System der
Wissenschaften”:
Philosophie bzw. eine ihrer Disziplinen so aufzufassen, ist eine aus der Transzendentalphilosophie
des deutschen Idealismus erwachsende Tendenz, die auch in vielen Konzeptionen moderner
Wissenschaftstheorie eingeht. Unter anderem ist das auch eine Reaktion auf die Verselbständigung
der Disziplinen der „philosophischen” Fakultät zu Einzelwissenschaften in der Neuzeit, denen die
Philosophie dadurch ein gemeinsames Band und Zusammenhalt verschafft.
G. F. W. Hegel, System der Wissenschaft, Band 1: Die Phänomenlogie des Geistes, Bamberg 1807
J. A. Brüning, Anfangsgründe der Grundwissenschaft oder Philosophie, Münster 1809
F. L. Fülleborn, Materialien zu einer Grundwissenschaft (proté philosophia), Berlin 1845
W. T. Krug, Fundamentalphilosophie oder System des transzendentalen Synthetismus, ZüllichauFreistadt 1803, 3. Aufl. 1827
G. W. Gerlach, Grundriß der Fundamentalphilosophie zum Gebrauch bei Vorlesungen, Halle 1816
J. Thürmer, Fundamentalphilosophie, Wien 1827
Fr. X. Biunde, Fundamentalphilosophie, Trier 1838
J. J. Tafel, Die Fundamentalphilosophie in genetischer Entwicklung, Tübingen 1848
In neueren Zeiten haben Joh. Rehmke, Philosophie als Grundwissenschaft, Leipzig - Frankfurt
1910, und sein Schüler Johs E. Heyde, Grundwissenschaftliche Philosophie, Leipzig - Berlin 1924,
diese Tendenz gepflegt. Nicht zuletzt kam sie auch in M. Heideggers Konzeption einer Fundamentalontologie zum Ausdruck.
7. Die Philosophie als Vernunftkritik und Wissenstheorie:
Sie hat seit Kant im deutschen Idealismus im Zentrum der philosophischen Forschung gestanden.
Hier sind wesentliche Klärungen erarbeitet worden, die auch heute noch die Vorverständnisse
bezüglich des Wissensbegriffs der Wissenschaften steuern. Sie werden jedoch z. Z. nicht mit der
wünschenswerten Intensität weiterbetrieben.
I. Kant, Kritik der reinen Vernunft, Riga 1781; ders., Kritik der praktischen Vernunft, Riga 1788;
ders., Kritik der Urteilskraft, Berlin und Libau 1790
J. F. Fries, Wissen, Glaube und Ahndung, Jena 1805; ders., Neue oder anthropologische Kritik der
Vernunft, 3 Bde Heidelberg 1807, 2. Aufl. 1828, in: Sämtl. Schriften hgg. v. G. König u. L.
Geldsetzer, Aalen 1968 ff, Bd. 3 und Bde 4 - 5
E. Stiedenroth, Theorie des Wissens, mit besonderer Rücksicht auf Skeptizismus und die Lehren
von einer unmittelbaren Gewißheit, Göttingen 1819
J. A. Voigtländer, Eine Untersuchung über die Natur des menschlichen Wissens, mit
Berücksichtigung des Verhältnisses der Philosophie zum Empirismus, Berlin 1845
W. Rosenkrantz, Wissenschaft des Wissens und Begründung der besonderen Wissenschaften
durch die allgemeine Wissenschaft. Eine Fortbildung der deutschen Philosophie mit bes. Rücksicht
auf Platon, Aristoteles und die Scholastik des Mittelalters, 1. Bd. München 1866, 1. u. 2. Bd.
Mainz 1868
Im vergangenen Jahrhundert hat Edmund Husserl die „Phänomenologie“ als eine neue Theorie des
Wissens konzipiert. So in: Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Freiburg 1913, 3. Aufl. 1928. Neben ihm vgl. A. Nordenholz, Scientologie, Wissenschaft
von der Beschaffenheit und Tauglichkeit des Wissens, München 1934; dazu W. Schingnitz, Scientologie, in: Minerva 7, S. 65 - 75 und 110 - 114. Derartige Studien gewinnen auch heute noch viel
durch sorgfältige Interpretation und Aneignung der „klassischen” Erkenntnistheorien Lockes,
189
Berkeleys, Humes, Leibniz„„ u. a. mit ihren „realistischen“ oder „idealistischen” Erkenntnis- und
Wissenskonzeptionen.
8. Die Philosophie als Wissenschaftslehre:
Philosophie so aufgefaßt, ist sowohl in terminologischer wie sachlicher Hinsicht die genuine Frühgestalt moderner Wissenschaftstheorie. In ihr laufen die erkenntnistheoretischen ontologischen,
praxeologischen und anthropologischen Errungenschaften der Aufklärung und des deutschen
Idealismus in der Weise zusammen, daß daraus das Konzept einer philosophischen Disziplin von
der Natur des Wissens als menschlicher „Tathandlung” und dem Entwurf ihrer Gegenstandsbereiche entsteht. Auch hierin bringt sich eine Tendenz zur Geltung, der Philosophie in der Nachfolge der „Logik” des Triviums der alten philosophischen Fakultät eine verbindende und begründende Funktion gegenüber den verselbständigten trivialen und quadrivialen Wissenschaften zu
verschaffen. Im 20. Jahrhundert wird diese Tendenz in der Gesamtdarstellung der philosophischen
Grund- und Bereichsdisziplinen in „philosophischen Enzyklopädien“ und Handbüchern weitergeführt
J. Chr. Gottsched, Erste Gründe der gesamten Weltweisheit, darinnen alle philosophische Wissenschaften in ihrer natürlichen Verknüpfung in zwei Teilen abgehandelt werden, 1734, 5. Aufl. 1748
- 1749
J. G. Fichte, Über den Begriff der Wissenschaftslehre oder der sog. Philosophie, Weimar 1794;
ders., Grundlage der gesamten Wissenschaftslehre, 1794, neu hgg. v. W. G. Jacobs, Hamburg
1970
B. Bolzano, Wissenschaftslehre. Versuch einer ausführlichen und größtenteils neuen Darstellung
der Logik, 4 Bände, Sulzbach 1837
H. M. Chalybäus, Entwurf eines Systems der Wissenschaftslehre, Kiel 1846
G. Biedermann, Die Wissenschaftslehre, 3 Bde Leipzig 1845 - 1860
R. Graßmann, Die Wissenschaftslehre in der Philosophie, 4 Teile 1884
W. Wundt, Logik, I. Bd.: Erkenntnislehre, II. Bd.: Methodenlehre, Stuttgart 1880 - 1883, 4. Aufl.
in 3 Bänden : I. Allgemeine Logik und Erkenntnistheorie, 1919, II. Logik der exakten
Wissenschaften, 1920, III. Logik der Geisteswissenschaften, 1921
A. Baeumler und M.Schröter (Hg.), Handbuch der Philosophie, 4 Bände, München-Berlin 1925 1934
F. Heinemann, Die Philosophie im XX.Jahrhundert. Eine enzyklopädische Darstellung ihrer
Geschichte, Disziplinen und Aufgaben, Stuttgart 1959, 2. Aufl. 1963
S. Daval und B.Guillemain (Hg.), Philosophie. 6 Bände in 3 Abteilungen, Paris 1962 u. ö.
A. Diemer, Grundriß der Philosophie. Ein Handbuch für Lesung, Übung und Unterricht. Band I:
Allgemeiner Teil, Band 2: Die philosophischen Sonderdisziplinen, 2 Bände, Meisenheim 1962 –
1964
9. Die klassischen Vorbilder der wissenschaftlichen Methodologie:
Gewisse Werke waren und bleiben prägende Vorbilder auch für moderne wissenschaftstheoretische Konzeptionen. Einige Theorien über das, was Wissenschaft sei, explizieren nichts anderes als
dasjenige, was sie als vorbildlich in dem einen oder anderen Werk eines der Klassiker ausgeführt
finden und empfehlen es als Exempel bzw. Paradigma für jede ernstzunehmende Wissenschaft.
Neben den immer bekannt gebliebenen und vielzitierten Klassikerwerken gibt es jedoch zahlreiche
„apokryphe“ wissenschaftliche Arbeitsinstrumente, die zu ihrer Zeit oder noch einige Zeit nach
ihrem Erscheinen Aufsehen erregt haben, die jedoch gerade wegen ihrer Verbreitung nicht mehr
190
genannt und zitiert wurden, dafür umso mehr ausgeschrieben und als selbstverständliches öffentliches Gedankengut behandelt wurden.111
Zu solchen Klassikerwerken gehören die folgenden:
Aristoteles, Organon (Kategorien, Hermeneutik, Analytiken, Topik, Sophistische Widerlegungen)
Euklid, Die Elemente, Buch 1 – 13, dt. Ausgabe Darmstadt 1971
Galenus, Einführung in die Logik, dt. v. J. Mau, Berlin 1960
Porphyrios, Isagoge (Einführung in das Organon des Aristoteles), dt. v. A. Busse, Berlin 1887
Petrus Hispanus, Summulae logicales, Venedig 1572, ND Hildesheim-New York 1982
R. Lullus, Ars generalis ultima, Palma de Mallorca 1645, ND Frankfurt 1970; Ars brevis, Palma
1669, Nachdr. Frankfurt 1970; Logica nova – logica parva – De quinque praedicabilibus et decem
praedicamentis, Palma 1744, ND hgg. v. C. Lohr, Frankfurt 1971; R. Lullus, Die neue Logik, lat.dt. übers. von W. Büchel und V. Hösle, Hamburg 1985
Nikolaus von Kues, De docta ignorantia – Die belehrte Unwissenheit (1440), lat.-dt. hgg. v. P.
Wilpert u. H. G. Senger, 3. Aufl. Hamburg 1977 – 1979.
J. Aconcio, De Methodo, hoc est de recta investigandarum tradendarumque artium ac scientiarum
ratione (1558), dt.-lat. Parallelausgabe nach der 2. Aufl. 1582 hgg. v. L. Geldsetzer in: Instrumenta
Philosophica Series Hermeneutica IV, Düsseldorf 1971
Fr. Bacon, Novum Organum Scientiarum, 1620; ders., De Dignitate et Augmentis Scientiarum,
1605, dt. Darmstadt 1966
G. Galilei, Discorsi e Dimostrazioni matematiche intorno a due nuove scienze, Leiden 1638, dt.
1891
R. Descartes, Discours de la méthode pour bien conduire la raison et chercher la vérité dans les
sciences, Leiden 1637, dt. Hamburg 1969
G. W. Leibniz, Dissertatio de arte combinatoria, in qua ex arithmeticae fundamentis
complicationum et transpositionum doctrina novis praeceptis exstruitur, Leipzig 1666
I. Newton, Philosophiae naturalis principia mathematica, 1687, (ND London 1960), 2. Aufl. 1713,
3. Aufl. 1726, dt. Übers. v. J. P. Wolfers, Berlin 1872, ND Darmstadt 1963
G. Vico, De nostri temporis studiorum ratione, Neapel 1708, dt. Übers., Vom Wesen und Weg der
geistigen Bildung, Godesberg 1947, ND Darmstadt 1974
G. F. Meier, Versuch einer allgemeinen Auslegungskunst, 1757, neu hg. v. L. Geldsetzer in: Instrumenta Philosophica Series Hermeneutica I, Düsseldorf 1965; auch hgg. von A. Bühler und
Luigi Cataldo Madonna, Hamburg 1996
I. Kant, Metaphysische Anfangsgründe der Naturwissenschaft, 1786; ders., Prolegomena zu einer
jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können, 1783
C. Chr. E. Schmid, Erste Linien einer reinen Theorie der Wissenschaft, in: Phil. Journal für
Moralität, Religion und Menschenwohl 3, 1794 (neu in: Studien zur Wissenschafttheorie, hg. v. A.
Diemer, Meisenheim 1968)
G. F. W. Hegel, Die Wissenschaft der Logik, 2 Bde, Nürnberg 1812 – 1816, hgg. v. G. Lasson,
Leipzig 1951
Aug. Comte, Cours de philosophie positive, 6 Bde Paris 1830 – 1842
J. St. Mill, A System of Logic, rationative and inductive, 2 Bde London 1843, 9. Aufl. 1875
W. St. Jevons, The principles of science. A Treatise of Logic and scientific Method, 1874, 2. Aufl.
1877
111
Einige davon wurden in Nachdrucken wieder zugänglich gemacht in: L. Geldsetzer, Instrumenta Philosophica, 17
Bände in vier Serien, Series hermeneutica (G. F. Meier, A. F. J. Thibaut, M. Flacius Illyricus, Jac. Aconcio, J. M. Chladenius); Series Lexica (J. Micraelius, St. Chauvin, H. A. Meissner); Series Indices Librorum (J. S. Ersch und Chr. A.
Geissler, Ph. V. Gumposch, B. C. Struve, J. H. M. Ernesti; Series Thessauri (Gr. Reisch, K. G. Hausius, W. Tr. Krug), Düsseldorf (Stern-Verlag) 1965 -1972.
.
191
A. Cournot, Essai sur les fondements de nos connaissances et sur les caractères de la critique
philosophique, 2 Bde, Paris 1851
R. H. Lotze, Mikrokosmus. Ideen zur Naturgeschichte und Geschichte der Menschheit, 3 Bände
Leipzig 1856 – 1864, 6. Aufl. 1923
H. v. Helmholtz, Über das Verhältnis der Naturwissenschaften zur Gesamtheit der Wissenschaften,
1862
G. Frege, Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens, Halle 1879, ND Darmstadt 1974
W. Dilthey, Einleitung in die Geisteswissenschaften. Versuch einer Grundlegung für das Studium
der Gesellschaft und der Geschichte, 1883
H. Poincaré, La science et l‟ hypothèse, Paris 1902; ders., Science et méthode, Paris 1909
P. Duhem, La Théorie Physique. Son Objet - Sa Structure, Paris 1906
B. Russell und A. N. Whitehead, Principia Mathematica, 3 Bände Cambridge 1910 – 1913
Edm. Husserl, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, Freiburg 1913, 3. Aufl. 1928
L. Wittgenstein, Tractatus logico-philosophicus, 1921, engl. London 1922; ders., Philosophische
Untersuchungen / Philosophical Investigations, deutsch-engl. Ausg. Oxford 1953 u. ö.
M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 1922, u. a. über “Kategorien der
verstehenden Soziologie”, die “„Objektivität„ sozialwissenschaftlicher Erkenntnis” und den “Sinn
der ‚Wertfreiheit„ der Sozialwissenschaften”
E. Cassirer, Philosophie der symbolischen Formen (I. Die Sprache, II. Das mythische Denken, III.
Phänomenologie der Erkenntnis), 1923 - 1929, 6. Aufl. Darmstadt 1964
R. Carnap, Der logische Aufbau der Welt, Berlin 1928, 3. Aufl. Hamburg 1966
K. R. Popper, Logik der Forschung, Wien 1935, 10. Aufl. Tübingen 1994, engl., The Logic of
Scientific Discovery, London 1959, 10. Aufl. 1994
W. V. O. Quine, From a Logical Point of View, Cambridge, Mass. 1953; dt., Von einem logischen
Standpunkt, Frankfurt a. M. 1979
H.-G. Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1960 u. ö.
E. Betti, Die Hermeneutik als allgemeine Methodik der Geisteswissenschaften, Tübingen 1962, 2.
Aufl. 1972; ders., Teoria generale dell‟interpretazione, Mailand 1955
W. Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie,
Berlin-Heidelberg-New York 1969 - 1984. Vol. I: Wissenschaftliche Erklärung und Begründung,
1969, 2. ed. 1974, 3. ed. 1983; Vol. II/1: Theorie und Erfahrung: Begriffsformen, Wissenschaftssprache, empirische Signifikanz und theoretische Begriffe, 1970, 2. ed. 1974; Vol. II/2: Theorie
und Erfahrung: Theoriestrukturen und Theoriendynamik, 1973, 2. ed. 1985 (Engl.: 1976); Vol. III
(mit M. Varga von Kibéd): Strukturtypen der Logik, 1984; Vol. IV/1: Personelle und Statistische
Wahrscheinlichkeit: Personelle Wahrscheinlichkeit und Rationale Entscheidung, 1973; Vol. IV/2:
Personelle und Statistische Wahrscheinlichkeit: Statistisches Schließen, Statistische Begründung,
Statistische Analyse, 1973.
Die Wissenschaftsphilosophie hat im 20. Jahrhundert und zumal in dessen zweiter
Hälfte einen erstaunlichen Aufschwung genommen. Sie hat sich hauptsächlich aus
der traditionellen Grunddisziplin „Erkenntnistheorie“ heraus entwickelt, und daher auch in Deutschland von dieser die Bezeichung „Theorie“ , nämlich „Wissenschaftstheorie“ übernommen, obwohl es sich naturgemäß nicht um eine einzige
Theorie, sondern um Lehre und Forschung mittels vieler und über viele Theorien
der Wissenschaft handelt.
Vielerorts in der Welt werden heute philosophische Lehrpositionen mit dem
Forschungs- und/oder Lehrschwerpunkt „Wissenschaftstheorie“ ausgeschrieben
192
und besetzt. Zunehmend verschwindet dabei auch jeder Hinweis auf die Philosophie als Fach, zu dem die Wissenschaftsphilosophie gehört. Dadurch verbreitet
sich der Eindruck und die Meinung, es handele sich dabei schon um eine besondere Einzelwissenschaft. Dies umso mehr, wenn sie als Abteilung philosophischer
Institute oder sogar als eigene Institute begründet oder ausgestaltet werden.
Diesen Ausgründungen kommen dann auch die Forschungen von Einzelwissenschaften entgegen, die sich irgend einem Aspekt der Wissenschaften widmen. Ein
enges Verhältnis besteht vor allem zur Wissenschaftsgeschichte, die früher teils
als Forschungs- und Lehrschwerpunkt einzelner Einzelwissenschaftler als Geschichte ihres Faches, meist jedoch im Rahmen der Medizingeschichte und damit
im Rahmen der Medizinischen Fakultäten gepflegt wurde. Sie hat sich inzwischen
an mehreren Standorten als selbständige Wissenschaft etabliert und schließt dann
auch die Wissenschaftsphilosophie ein.
Die Psychologie, heute mehr und mehr in enger Verbindung zur Gehirnphysiologie, hat sich unter mehreren Aspekten – wie vor allem Intelligenz- und Kreativitätsforschung – den Wissenschaften und ihren hervorragenden Repräsentanten
gewidmet und profitiert dabei naturgemäß vom politischen und populären Interesse am Wachstum der wissenschaftlichen Leistungen und Produkte, die sie zu
effektuieren verspricht.
Wissenschaftssoziologie, Wissenschaftsökonomie und Wissenschaftsstatistik
sind ebenfalls längst etablierte Spezialdisziplinen der entsprechenden Einzelwissenschaften, die auf breites Interesse der Öffentlichkeit und der politischen
Instanzen treffen. Besonders die ökonomische Betriebswirtschaftslehre ist dabei
so erfolgreich gewesen, daß im letzten Dezennium die wissenschaftlichen Verwaltungs- und Betriebsstrukturen auf dem Wege gesetzlicher Vorgaben gänzlich
nach den Mustern industrieller und dienstleistender Großbetriebe ausgerichtet
worden sind. Darüber wurde im Vorangehenden schon mehrfach gehandelt.
Zwei Tendenzen zeichnen sich hier ab. Einerseits die Ersetzung der Philosophie
als eigenständiges Lehrfach an Hochschulen durch die Wissenschaftsphilosophie.
Andererseits das Verschwinden der Philosophie aus dem Fächerkanon der Hochschulen zugunsten der interdisziplinär vernetzten einzelwissenschaften Forschungen über das Wissenschaftsphänomen.
193
III. Zur Geschichte der Wissenschaftsphilosophie
A. Die Antike
§ 16 Die Vorsokratiker
Die Erfindung der Arché als ursrpung und Wesen der Wirklichkeit. Der Gegensatz von Objekt und
Subjekt und die Zuordnung der Wirklichkeitsbereiche zum Objekt und der Erkenntnisvermögen
zum SubjektDie Enttdeckung der Elemente und Kräfte. Der heraklitische Logos als Muster des
dialektischen (widersprüchlichen) Begriffs. Der pythagoreische Zahlbegriff als dialektische Vermittlung von Denk- und Sinnesobjekt. Das Sein der Atome und das Nichts des leeren Raumes bei
Demokrit und seine Erfindung der Denkmodelle. Das Nichts des Gorgias.
Im Gedanken der „Arché” (ἀή) setzen die Vorsokratiker das Grundschema
abendländischer Erklärungsweise von Realität fest. Arché ist Grund, Ursache,
Erstes, Anfang, Ausgang, Bedingung, aber auch Wesen, Beherrschendes, Eigentliches, wahres Sein, ja Absolutes, lateinisch: principium. „Arché“ wird damit auch
das Denkmuster des „Begriffs“ in aller logischen Verwendung, insofern im Begriff das Wesen und die Einheit des vielfältig Erscheinenden gedacht werden soll.
Der Arché steht dadurch gegenüber Folge, Wirkung, Zweites, Abgeleitetes, Bedingtes, und entsprechend Erscheinung, Uneigentliches, scheinbare Natur, das
schlechthin Abhängige, das Nichtige, Nichtsein. Die Vorsokratiker teilen so alle
Realität in zwei wohlunterschiedene Sphären auf. Sie verleihen ihr eine Doppelbödigkeit, die für abendländisches Denken und seine Wissenschaft Leitthema
bleibt: Wesen und Erscheinung, Ursache und Wirkung, Grund und Folge, Sein
und Nichts.
Dieses Schema der Doppelbödigkeit der Objekte wird von den Vorsokratikern
tastend auf alle Bereiche der Forschung angesetzt: zunächst und vordringlich auf
die Natur (im heutigen engeren Sinne), dann auf den Menschen und die Kultur,
nicht zuletzt aber auch auf die Erkenntnis selber.
Von besonderer Bedeutung und für die einzelnen Denker spezifisch sind die
weiteren Bestimmungen, die sie für diese Sphären festsetzen. Die Arché als
eigentliches Sein ist notwendig, eines, ruhend (unbewegt), wahr, göttlich, nur im
Denken erfaßbar. Das Abgeleitete, Phänomenale, eigentlich Nichtige ist zufällig,
vielfältig, bewegt, „natürlich”, durch die Sinne erfahrbar, aber täuschend, behauptet Parmenides.
Als Resultat dieser Forschungen ergibt sich für die anschließende klassische
Philosophie der Griechen folgendes ontologisch - anthropologische (Seins- und
Erkenntnis-) Schema:
194
Das erkenntnistheeoretische und ontologische Subjekt-Obejekt-Schema
Objekt
Wesen
<==>
Phänomen, Erscheinung <==>
Subjekt
Denken,Vernunft
Anschauung, Sinne
Aber ungeachtet der Dominanz dieses Subjekt-Objektschemas (bis in die gegenwärtige Philosophie) bleibt die Ausfüllung immer umstritten. Während die frühen
Jonier Thales, Anaximenes, z. T. noch Heraklit, dann Xenophanes ein phänomenal
Gegebenes: Wasser, Luft, Feuer, Erde, Empedokles dann sämtliche vier „Elemente” Erde, Wasser, Luft und Feuer als Arché ausgeben und so ein Sinnliches
unter anderen als das eigentliche Sein auszeichnen, schlagen andere eine Richtung
der Erklärung ein, die man eine transzendente Dimension nennen könnte. Sie
präludiert dem, was die Aristoteliker später das „Metaphysische” („hinter der
sinnlichen Natur Liegende”) nannten.
Anaximander nennt seine Arché „Apeiron” (ἄ), d. h. das Grenzenlose,
Unbestimmte, Gestaltlose, lateinisch das Infinite (Aristoteles wird es reine
Materie und Nicht-Sein nennen), aus dem „nach der Ordnung der Zeit” und nach
notwendigem Gesetz Entstehen und Vergehen aller Dinge geschieht. Für Anaxagoras ist Arché der „Nous” (ῦς), das Geistige; für Heraklit der „Logos”, Weltgesetz und Geistiges zugleich; für Parmenides das Sein schlechthin, welches zugleich Geist und Denkkraft ist. Demokrit aber faßt die Bestimmungen des Anaximander und des Parmenides zusammen, indem er aus dem „Kenon”, dem
Leeren und Unbestimmten, und aus dem Seienden, das er als vielgestaltig Unteilbares (Atome) und gleichwohl sinnlich nicht Erfaßbares bestimmt, zusammen die
phänomenale Welt der Dinge erklärt. Empedokles „dynamisiert” das Erklärungsschema, indem er die vier Elemente durch Liebe und Haß (philia kai neikos
íìῖς), Anziehung und Abstoßung, Verbindung und Trennung zu
allem Erscheinenden gefügt sein läßt.
Heben wir das für die Wissenschaft Bedeutsame heraus: Schon bei diesen
Vorsokratikern geht es um die Rolle von Denken bzw. Vernunft und von
Anschauung und Beobachtung bzw. Sinnlichkeit in der Erkenntnis und um den
eventuellen Vorrang des einen vor dem anderen. Das liefert die erste Weichenstellung für die beiden Wege, die später als Rationalismus und Empirismus in
der Philosophie und in wissenschaftlichen Forschungsstrategien eingeschagen
werden. Anaxagoras prägt mit dem „Nous“ (Vernunft, Geist, Pneuma, Ratio,
Spiritus) auch schon den Titelbegriff für alle späteren Rationalismen.
Indem Anaximander (um 610 – um 550 v. Chr) die Arché als Apeiron, ein
Unendliches und Grenzenloses faßte, bestimmte er aller Forschung ein unendliches, nie zu erreichendes Ziel und lenkte sie damit auf den Weg des end- und
grenzenlosen Fortschreitens in immer tiefere Tiefen und umfassendere Weiten.
195
Noch Poppers „asymptotische Annäherung an die Wahrheit“ (die nie erreichbar
sein soll), ist ein aktueller Nachhall dieser Programmatik.
Heraklit (um 544 – 483), der schon zu seiner Zeit als „dunkel“ (skoteinos
ός) galt und es geblieben ist, gibt aller späteren Logik den Begriff des
Begriffs, den Logos (ός), vor. „Dunkel“ war an seinem Logos, daß darin Wort,
Sprache, eigentlicher Begriff und „Verhältnis“ ungeschieden beieinander lagen
und erst später genauer unterschieden wurden. Aber klar war daran jedenfalls, daß
sein „Begriff“ als „Einheit des Gegensätzlichen“ zu denken war, wie er an vielen
Beispielen demonstrierte.
Sein „Logos“ wurde daher nicht, wie üblicherweise angenommen wird, zum
Prototyp des regulären logischen Begriffs, bei dem man die Einheit als Identität
des Gemeinsamen (der sog. generischen Merkmale) und keineswegs die Einheit
des gegensätzlich Verschiedenen (der sog. spezifischen Differenzen) zu denken
hat. Er wurde vielmehr zum Prototyp der logischen Figur der Contradictio in
adjectis bzw. in terminis, also des in sich widerprüchlichen Begriffs, bei dem man
sowohl die generischen Merkmale wie zugleich die spezifischen Differenzen von
dihäretisch unterschiedenen Artbegriffen als Einheit zu denken hat. Der eine Fluß,
in den man zum zweiten Mal zum Bade hineinsteigen möchte, ist zugleich derselbe, und er ist auch nicht derselbe wie beim ersten Male. Und das „alles vernichtende Feuer“ ist zugleich die wohltätige Grundlage aller Zivilisation, wie es
der Mythos von Prometheus besagt. Hegel hat es spät, aber klar erkannt und
Heraklit deshalb den ersten Dialektiker genannt. Wie man mit solchen widersprüchlichen Begriffen umgeht, zeigt eine große Geschichte des „dialektischen
Denkens“ bis zur Gegenwart. Aber für zünftige Logiker ist alles Dialektische
Anathema, und deshalb ist der Umgang mit solchen „dialektischen Begriffen“ und
überhaupt mit dem Widerspruch ein recht unterbelichtetes Kapitel der Logik
geblieben.
Demokrit (2. Hälfte des 5. Jhdts) behauptet schon dadurch eine ausgezeichnete
Stellung, daß sein „Atomismus“ - durch die Schulen der Stoa und des Epikur zu
materialistischen Denksystemen ausgebaut - bis heute die Grundlagenmetaphysik
des herrschenden Weltbildes der Moderne geblieben ist. Auf seine Lehre vom
Leeren (kenon κενόν) bzw. vom leeren Welt-Raum (als Behälter des Vollen der
Atome, pléres πλήρες) ist man erst im 20. Jahrhundert wieder zurückgekommen
(nach dem negativen Ausgang der Versuche von Michelson und Morley, einen
raumfüllenden „Äther“ und damit die Nichtexistenz des leeren Raumes nachzuweisen). Von großem Einfluß, nicht zuletzt bei Platon, wurde auch seine Lehre
von der symbolischen Erkenntnis mittels der Modelle.
Ausgehend von der genannten Unterscheidung von sinnlicher Anschauung und
unanschaulichem Denken in der Erkenntnis, hält er die Archai des Vollen und
Leeren (wegen der Kleinheit der Atome und der Ungreifbarkeit des Leeren) für
etwas, das nur im Denken zu erschließen sei. Da das Denken auf diese Weise
keinen Inhalt hat, muß es sich anschaulicher Bilder bedienen, die in der sinnlichen
Erfahrung gewonnen werden. Demokrit nennt sie geradezu „Bildchen“ (eidola
196
ἴ). Als Bilder für die Atome stellt er sich Buchstaben vor, die sich in ihren
verschiedenen Gestalten zu Komplexen der Wörter und Sätze „verhakeln“ - und
für das Leere mag er an einen Behälter oder an die Leerstellen zwischen den
einzelnen Wörtern gedacht haben, was er freilich nicht sagt. Anschauliche Buchstaben werden somit zu anschaulichen „Symbolen“ für das unanschaulich zu Denkende. Ersichtlich sind seine Eidola die Muster aller „Modelle“ und „Symbolisierungen“ geworden, mit denen die Wissenschaft auch heute noch arbeitet.
Demokrit hat damit auch das Unanschauliche und nur Denkbare „auf den Begriff“
gebracht. Aber es ist ein - im herakliteischen Sinne – dialektischer Begriff. Wenn
die Atome (hier nach dem Modell von Buchstaben, in unseren Zeiten nach dem
Modell kleiner Sonnen, um welche die Elektronen wie kleine Planeten kreisen)
gedacht werden sollen, so weiß man doch zugleich, daß sie keine Buchstaben (und
keine kleinen Sonnen) sind: man stellt sie sich als Buchstaben vor und denkt sie
zugleich als Nicht-Buchstaben!
Die extremen, für die Wissenschaftsgeschichte folgenreichsten Positionen werden allerdings in Unteritalien von den Pythagoräern und von Parmenides entwickelt.
Parmenides (geb. um 540 v. Chr.) überwindet schon im Prinzip die SubjektObjekt-Spaltung, die seine vorsokratischen Zeitgenossen aufgerissen hatten: Denken und Sein ist ihm dasselbe (to gar auto noein estin te kai einai ò
γὰρὐòῖἐíεìἶ). Dies zu sagen und zu erforschen ist der eine
Weg der Wissenschaft (hier kommt das Thema der Methode, griech.: methodos
auf, hodos ὁός = Weg), der zur Wahrheit führt. Und ebenso ist ihm Nicht-Sein,
Erscheinung und sinnliche Erfahrung dasselbe. Dies zu sagen und zu erforschen
ist ihm der Weg des Irrtums und der Täuschung. Aber unterstreichen wir dies:
auch dieser Weg des Irrtums und der Täuschung ist ein Weg der Forschung, und
so gehört er auch zur Wissenschaft! So liefert Parmenides die erste Theorie des
Irrtums (wir besitzen bis heute keine unumstrittene) und das erste Beispiel einer
idealistischen Theorie der Wahrheit. Was hier zu denken ist (und dazu nicht auf
anschauliche Modelle zurückgreifen soll), ist die Identität von Sein, Einheit und
Unbewegtheit bzw. Ruhe und Wahrheit. Betonen wir das idealistische Moment an
dieser These: Es gibt hier nicht ein Denken auf der einen Seite, welches ein
einheitliches ruhendes Sein auf der anderen Seite sich gegenüber hätte - und daher
auch dann noch Denken bleibe, wenn es nicht (oder Nichts) denkt, vielmehr ist
Denken selbst Sein, und Sein ist Gedachtes. Spätere Gestalten des Idealismus sind
selten auf der Höhe dieses Gedankens geblieben, und alle Rationalismen haben
ihn verleugnet, indem sie die Vernunft und das Denken vom Sein unterschieden
und trennten. Von Parmenides haben sie - bis zum heutigen Tag - nur festgehalten, daß mathematisches und logisches Denken nur ruhende Einheiten zu
denken vermag.
Die Pythagoräer (die Schule des Pythagoras, um 582 – 496 v. Chr.) versuchen
gegenüber diesem Ansatz auch die „Phänomene zu retten” (sozein ta phainomena
ῴὰό) ein dann beständiges Thema griechischer und abend-
197
ländischer Wissenschaft) um die Dignität der sinnlichen Erkenntnis zu wahren.
Für sie ist Grund und Wesen aller Realität die gerade auch sinnlich wahrnehmbare
Harmonie (von Tönen, Farben, Gestalten) als eine dialektische Einheit in der Vielheit, die denkend in den Zahlenverhältnissen erkannt wird. Die Zahlen selbst sind
daher die mustergültigen Denkformen, die Archai aller Dinge, in denen das Vielfältige dem jeweils Einen verbunden und damit „gerettet“ wird. Wie im musikalischen C-G-C„ Quint-Oktav Akkord dem Ohre wohlklingend verschiedene
Töne einheitlich zusammenstimmen, so dem „geistigen“ Auge die Vielheit der
Dinge, Bewegungen und menschlichen Verhaltensweisen in den Gesetzen der
Mathematik.
So werden die Pythagoräer die Väter der abendländischen messenden und meßbar machenden Wissenschaft, die in der Mathematik ihre einzige Methode sucht.
Aber ihr Zahlbegriff (arithmos ἀό) ist ein Begriff des herakliteischen Typs,
also ein dialektischer Logos, indem er die Einheit zusammen mit der Vielheit und
umgekehrt die Vielheit in der Einheit zu denken lehrt. Gerade dies zeigt die
sinnliche Anschauung nicht, und das macht ihren Unterschied zum Denken aus:
Was gedacht wird, ist Zahl und Zahlenmäßiges, und dieses ist (nach heraklitischem Logos) zugleich und in gleicher Hinsicht Einheit und Vielheit. Man
beachte, wodurch sich nun bei den Pythagoräeren die Unanschaulichkeit des
mathematisch zu Denkenden vom Anschaulichen der sinnlichen Wahrnehmung
unterscheidet: es ist der Unterschied zwischen dem Widerspruch im unanschaulichen Begriff (der Zahl) und der widerspruchslosen anschaulichen Vorstellung.
Indem aber die sinnlich wahrnehmbaren Dinge jeweils entweder Einheiten oder
Vielheiten (Mengen) sind, werden sie Anwendungsfälle für die Anwendung der
Zahl auf sie, da diese beides, Einheit und Vielheit zugleich ist. Es wurde zur
Katastrophe für ihr Zahlendenkprogramm, als sie bei solchen Anwendungen auf
die Proportionen von Kreisumfang und Kreisdurchmesser oder von Seiten und
Diagonalen im Quadrat auf Verhältnisse stießen, bei denen das Verhältnis von
genau abzählbaren Vielheiten zur Einheit und umgekehrt nicht auf eine Zahl zu
bringen war. Sie entdeckten, daß das anaximandrische Apeiron, das Infinite, nicht
nur ein unendlich Großes oder ein unendlich Kleines sein konnte, das man eben
deswegen nicht mehr überschauend wahrnehmen oder bemessen konnte, sondern
daß es sich auch gleichsam mitten im (geometrisch) genau Überschaubaren und
Meßbaren zur Geltung brachte. Auch diese Proportionen nannten sie noch Zahlen,
aber da sie zugleich kein Verhältnis (logos, ratio) von Vielheit und Einheit aufwiesen, nannten sie sie „irrationale Zahlen“ (alogoi arithmoi ἄλογοι ἀοί).
Genau besehen handelt es sich aber um potenzierte Widersprüchlichkeit im
Zahlbegriff. Denn was sie damit denken wollten, mußte zugleich Zahl und NichtZahl sein. Wie man weiß, hat die Mathematik diese Wendung mitgemacht und
später noch oft wiederholt. Von den Pythagoräern lernten dann Platon und das
Abendland, daß alle dingliche Veranschaulichungen und alle zeichenhaften
Symbole niemals das zur Anschauung bringen können, was als Zahl und Zahlverhältnis nur zu denken ist.
198
Zenon von Eleia (1. Hälfte des 5. Jahrh. v. Chr., zu unterscheiden von den
beiden späteren Stoikern namens Zenon), der große Schüler des Parmenides,
kritisiert diese pythagoräischen Weiterungen, die das Denken mit der Anschauung
verknüpfen und anschauliches Denken lehren wollen. Alle seine berühmten paradoxalen Argumente beziehen sich darauf, daß dabei dialektische Begriffe als
Denkmittel benutzt werden müssen, mittels derer sich bezüglich des tatsächlichen
Denkens der unbewegten Einheit Wahres, bezüglich des anschaulich Vielfältigen
und Bewegten aber Falsches aussagen lassen muß.
Auch den Zahlbegriff der Pythagoräer hat er dabei kritisiert, denn für ihn und
seinen Meister Parmenides konnte die Zahl nur als unbewegte Einheit gedacht
werden und nicht zugleich auch als Vielheit, da ja die Vielheit und Veränderung
nur der sinnliche Anwendungsbereich dieser Zahleneinheiten beim Zählen sein
konnte. Sein durch Zitat überliefertes Argument lautet: „Wenn Vieles ist (wäre),
müßte dies zugleich groß und klein sein, und zwar groß bis zur Grenzenlosigkeit
und klein bis zur Nichtigkeit“.112
Seine Paradoxien vom fliegenden Pfeil, der ruht; von Achill, der die Schildkröte
im Wettlauf nicht überholen kann etc. sind durchweg Scherze, die er über die
Erklärungsweise der Pythagoräer macht, wenn sie die Gegebenheiten der sinnlichen Beobachtung zu denken versuchen. Sie sind noch jetzt Herausforderungen
an die mathematische Theorie physikalischer Bewegung, der noch heute Abhandlungen und Widerlegungen gewidmet werden. Und gewöhnlich wird dabei der
Witz der Sache verfehlt. Denn man hält die zenonischen Paradoxien für schlichtweg falsch und sucht sie zu widerlegen. Tatsache aber ist, daß er damit das
faktische Denken der mathematischen Physiker auf den Punkt bringt, das noch
immer Wahrheit und Falschheit in widersprüchlichen Denkkonzepten verschmilzt.
Soll die Bewegung eines fliegenden Pfeiles mathematisch gedacht und konstruiert werden, so konstruiert ihn auch jetzt noch die Mathematik als einen Pfeil
an (jeweils) einem Punkt - und das ist nach Zenon und Parmenides das wahre
Denken dessen, was da ist: daß der eine Pfeil ruht! Zugleich aber summiert die
mathematische Konstruktion die Vielheit der Punkte zur ballistischen Linie, auf
denen viele Pfeile nacheinander sind und auch nicht sind. Genau das macht nach
Parmenides und Zenon die illusionäre Falschheit der Anschauung aus.
Aristoteles wird den gordischen Knoten zerhacken, indem er zwischen Sein und
Nichts eine mittlere ontologische Sphäre ansetzt, in der Bewegung, Vielheit und
Veränderung angesiedelt werden: das Werden bzw. die Veränderung. Dieser
Gedanke aber lag den Vorsokratikern gänzlich fern, und es ist noch eine offene
Frage, ob er zum Segen oder zum Schaden der abendländischen Wissenschaft
ausschlug.
Sicher waren Parmenides und Zenon zu rigoros und sparsam mit dem Denken,
wenn sie es nur auf einheitliche stabile Gegenständlichkeit bezogen und alles
andere auf täuschende Anschauung zurückführten. Aber dieser Sparsamkeit
112
O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, 2. Aufl., Freiburg / München 1964, S. 42.
199
verdankt die Philosophie und Wissenschaft die Festlegung dessen, was ein
regulärer logischer Begriff ist - im Gegensatz zum dialektischen heraklitischen
Logos.
Dabei ist ja durch Zenon, wie wir dartun wollten, auch sehr deutlich festgestellt
worden, was ein dialektischer Logos, nämlich ein widersprüchlicher Begriff ist.
Daß Zenon dabei die heiligen Kühe der Pythagoräer und der griechischen Mathematik, nämlich die Zahlen, als widersprüchliche Denkgebilde schlachtete, die man
doch schon damals allgemein als paradigmatische Archai und als widerspruchslose Denkgebilde ansah, hat dazu geführt, daß man seine Paradoxien insgesamt als
falsch einschätzte. Und so hält man auch bis heute die Zahlen für widerspruchslose Denkgebilde und die Paradoxe und Widersprüche für begriffliche
Falschheiten. Und das kann nach allem, was darüber schon ausgeführt wurde, nur
selber falsch sein. Der Tatbestand ist selber ein Beispiel für Parmenides‟ These,
daß der Weg der Falschheit selbst zur Wissenschaft gehört.
Vergessen wir aber auch nicht den Sophisten Gorgias (ca. 480 - 380 v. Chr.)
den man gewöhnlich nur als den Erzvater des Nihilismus und der Leugnung aller
wissenschaftlichen Erkenntnis hinstellt. 113 Er hatte behauptet, es sei überhaupt
Nichts (Me on ὴὄnicht-sein, und wenn Etwas (Sein: on ὄ) sei, so könne
es nicht erkannt werden, und wenn es erkannt werden könne, so könne es nicht
ausgesprochen werden. Hinsichtlich des Arché-Problems ist seine Stellung eine
unabweisbare Konsequenz der Diskussionslinie Anaximander - Parmenides Zenon. Es ist die Einlösung der These des Sophisten Protagoras, daß es vom
Menschen abhängt, ob er das Sein oder das Nichts als „Arché“ behauptet.
Wenn die Arché aller vordergründigen Realität mit Anaximander als „unbestimmt” gilt, so kann sie (wie es später Aristoteles von der absolut form- und
gestaltlosen Materie sagte) auch das Nichts genannt werden. Daß somit das Ziel
aller Forschung die Erkenntnis des Seins als eigentlich Nichts sein muß, das
haben später alle Mystiker behauptet, zu jener Zeit aber auch die Buddhisten in
Indien, von denen mancher auch damals schon als „Gymnosophist“ in Griechenland aufgetreten sein und für die neue Lehre geworben haben mag. Jedenfalls
deuten auch die stammelnden Ausdrucksformen der Mystiker darauf hin, daß dies
Nichts schwerlich auszusprechen ist.
So sollte man auch Gorgias lesen: Es ist überhaupt das Nichts; wenn aber
Etwas wäre, so müßte es als Nichts erkannt werden; wenn aber Etwas als Nichts
erkennbar wäre, so müßte es als das Nichts ausgesprochen werden.
Nimmt man aber Georgias wörtlich und damit ernst, so kann auch seine
angeblich skeptische These nur ein Beitrag zur „Rettung der Phänomene“ sein, die
sich gegen die parmenideische Lehre vom falschen Weg der Forschung richtete
und dessen Lehre über das Nichts nicht mehr als falsche, sondern als wahre Lehre
propagierte. Wenn Parmenides im reinen Denken nur die Einheit und Unbe113
Vgl. W. Capelle, Die Vorsokratiker. Die Fragmente und Quellenbericht übers. und eingeleitet, Stuttgart 1968, S. 345 –
353.
200
wegtheit erfaßte, und wenn sein Schüler Zenon das, was da gedacht werden sollte,
schon an sinnlichen Phänomenen auswies: daß der eine Pfeil jeweils an einem Ort
ruht, so war es konsequent, die Einheit und Unbewegtheit auch einmal gänzlich
sinnlich zu demonstrieren.
Was aber wäre einheitlicher und unbewegter als die sinnliche Erfahrung der
absoluten Stille bei angestrengtestem Horchen, oder der absoluten Finsternis bei
angestrengstem Schauen und Spähen, oder gar der reinsten Luft bei angestrengtestem Schnüffeln und Riechen. Was man in diesen Fällen jederzeit sinnlich
wahrnimmt, das nennt man schlicht - Nichts.
Ersichtlich ist auch das, was man so das Nichs nennt, ein sinnlicher Erfahrungsgegenstand neben vielen anderen. Aber er erfüllt sehr genau die Kriterien, die
Parmenides als Wahrheitskriterien der Arché vorausgesetzt hatte, nämlich einheitlich und unbewegt (unveränderlich) zu sein. Gorgias zeichnet es - eben wegen
der parmenideisch-zenonischen Wahrheitskriterien, als Arché aller sonstigen
vielfältigen und veränderlichen Sinnesgegebenheiten aus und begründet damit den
abendländischen Nihilismus. Er hat nicht nur die Phänomene, sondern das Nichts
selber als Phänomen „gerettet“.
Gewiß hätte ohne diese Rettung des Nichts als Phänomen durch Gorgias auch
die Lehre des Demokrit vom Leeren (oder leeren Raum) wohl kaum später solche
Fortüne bei den Naturwissenschaftlern machen können. Denn der leere Raum galt
nachmals bis auf Newton als ein einheitliches ruhendes Nichts, in dem alles
vielfältige und bewegliche Sein „erscheinen“ konnte. Und verhehlen wir uns
nicht, daß auch die gegenwärtige kosmische Physik mit ihrer Bilanzierung positiver und negativer Weltmaterie zu einer großartigen kosmischen Null durchaus in
den Bahnen dieser Vorstellungen wandelt. So darf auch dieser „sophistische” Ansatz als ein wesentliches und propulsives Moment abendländischer Wissenschaftsgeschichte angesprochen werden.
§ 17 Platon (437 - 347)
Die Ideenschau mit dem geistigen Auge. Die Hierarchie von der Idee des Guten herab über die
Begriffe, Zahlen, geometrischen Gebilde bis zu den Phänomenen, Abbildern und Schatten. Denken
als Noesis und Dianoia und die sinnliche Anschauung. Denken in Mythen und Metaphern bzw.
Modellen. Die Entdeckung des regulären Begriffs: Dihairesis und Negation. Das Wissenschaftskonzept als Begründungszusammenhang und als Institution der „freien Künste“. Der Zeitbegriff
als „stehende Zahl“ und die Konstitution des Vergangenen in der Wiedererinnerung.
Platon hat die parmenideischen und pythagoräischen Tendenzen in seiner Ideenlehre vereinigt und dabei immer wieder mit dem Hilfsmittel des „dialektischen
Logos“ des Heraklit gearbeitet. Es ging ihm darum, die Einheit und Unbewegtheit
des Seins als „Idee“ zu gewährleisten und trotzdem die „Phänomene zu retten”, d.
201
h. auch der Welt der Sinne und ihren vielfältigen und bewegten Phänomenen
gerecht zu werden.
Ersteres versuchte er mit Hilfe der sokratischen Entdeckung des Abstraktionsund Verallgemeinerungszusammenhanges der Begriffe, der Induktion (epagoge
ἐή: Wie der Allgemeinbegriff das Gemeinsame und Eine im Verschiedenen der Unterbegriffe zusammenfaßt und darstellt (er ist hier gleichsam die „Harmonie” der Pythagoräer), so stellt auch die Idee des Guten (und zugleich Schönen
und Wahren) als oberster aller denkbaren Begriffe die Einheit in der Verschiedenheit des ganzen Ideenreiches dar. Sie wird nur im reinen Denken erfaßt. Platon
bedient sich allerdings zur „Veranschaulichung“ der demokriteischen ModellMetaphorik, wenn er dies denkerische Erfassen eine „Schau mit dem geistigen
Auge“ nennt, dabei doch voraussetzend, daß der Geist kein Auge hat und deshalb
auch nicht „schaut“. Diesem Ideenreich sind auch die pythagoräischen Zahlenund Gestaltverhältnisse zugeordnet, gleichsam die Vorhalle zum Tempel des
Ideenreiches, in den man nur Zugang findet, wenn man sich durch das Studium
der Mathematik mit dem „abstrakten Denken” vertraut gemacht hat.
Anders als bei Parmenides wird die Sphäre der Phänomene, der sinnlich wahrnehmbaren Dinge gefaßt. Freilich gibt es über Sinnliches auch bei Platon nur
Meinung, Glaube (doxa ό und pistis í), aber diese sind nicht durchweg
Irrtum und Täuschung, sondern enthalten auch Wahrheit. Soviel ist allerdings
richtig: die Dinge sind nicht das, als was sie erscheinen. Sie „scheinen” etwas zu
sein, nämlich wahre Realität, was sie doch nicht sind. Ihre Seinsart ist eine
geborgte, nämlich von den Ideen und mathematischen Gebilden. Sie sind deren
Abbilder und haben an deren Sein teil (methexis é, participatio = Teilhabe).
Platon erläutert dieses Teilhabeverhältnis, indem er auf das analoge Teilhabeund Abhängigkeitsverhältnis von Spiegelbildern und gemalten Bildern von diesen
sinnlichen Dingen hinweist. So ergibt sich gemäß dem Teilhabeverhältnis zwischen allen Seins- und Phänomenbereichen eine ontologische Hierarchie. Sie wird
durch die Neuplatoniker und die frühchristliche Philosophie fest im abendländischen Denken verankert. Dies hat das pythagoräische Motiv in der Wissenschaftskonzeption verfestigt und die Ideen und Begriffe mit einbezogen: Forschung ist danach die Erkundung der Idee, des begrifflichen Wesens, das in allen
vordergründigen Phänomenen nur „zum Ausdruck” kommt.
Neben der ontologischen Hierarchie verdankt man Platon eine dieser entsprechende Hierarchie der (anthropologisch begründeten) Erkenntnisvermögen. Dem
Bereich der Ideen und mathematischen Gebilde ist die Vernunft zugeordnet. Im
reinen Denken „schaut” sie die Idee des Guten, von ihr absteigend über die allgemeinen Begriffe, die Zahlen und Proportionen bis zu den geometrischen Formen
und wieder aufsteigend zur Einheit, erkennt und erkundet sie begrifflich-diskursiv
das Reich der Ideen und der Wahrheit. Dies erzeugt eigentliche Wissenschaft
(episteme ἐή).
Im Reich der sinnlichen Dinge und ihrer Spiegel- und Abbilder aber orientieren
uns die Sinne, vorzüglich das Auge. Leicht sind sie der Täuschung und dem
202
Irrtum zugänglich. Daher ist, was sie liefern, nur Glaube und Meinung, nicht mehr
eigentliche Wissenschaft. Auf den Weg der Wahrheit führen sie nur, wenn sie zur
„vernünftigen” Erfassung der Urbilder, Ideen und Begriffe Anlaß geben, wenn die
Seele sich anläßlich sinnlicher Anschauung der Phänomene der geistigen Schau
der Idee „erinnert” (anamnesis ἀά).
So steht bei Plato die Erinnerung (man übersetzt anamnesis gewöhnlich mit
„Wiedererinnerung“) zwar für die Ideenschau, die das Einheitliche und StabilRuhende in der Vielfältigkeit und bewegten Veränderlichkeit der Phänomene
erfaßt. Aber Platon entdeckt und thematisiert damit genau die Leistungsfähigkeit
des Gedächtnisses, das Vergangene, nicht mehr Seiende und damit zum Nichts
Gewordene in ein geistiges Sein, eine seiende Gegenwärtigkeit zu verwandeln, die
in aller empirisch sinnlichen Anschauung als Folie des Einheitlich-Ruhenden, auf
dem sich das Vielfältig-Bewegte abheben kann, miterfahren wird. Aristoteles wird
es in seine Bestimmung der Substanz als des „Ge-Wesens“ (to ti en einai
ìἦἶ), als desjenigen aufnehmen, das historisch und zugleich empirisch
als in der Zeit „Durchständiges“ aufweisbar ist.
So erweitert und verfestigt Platon das vorsokratische Subjekt-Objektschema der
Erkenntnis und Wirklichkeit und macht es zum festen Besitz abendländischer
Wissenschaft:
OBJEKT
SUBJEKT
kosmos noetos, geistige Welt
(mundus intelligibilis
Wahres, Idee des Guten
Sein, Begriffe
Zahlen und Zahlverhältnis
geometrische Gebilde
Denkvermögen, Vernunft
<==>
<==>
<==>
<==>
Noesis, Intuition
Dianoia, begriffliches Denken
Dialektik, mathemat. Denken
strukturelles Denken
kosmos aisthetos, sinnliche Welt
(mundus sensibilis)
Sinnesvermögen
täuschender Schein, Phänomene <==>
Abbilder
==>
Schatten
<==>
sinnliche Anschauung
sinnl. Ansch. u. Erinnerung
sinnl. Ansch. u. Erinnerung
Kritisch ist darauf hinzuweisen, daß Platon trotz allem Bestreben, „vernünftige”
Erkenntnis als das ganz andere und höhere gegenüber der sinnlichen Anschauung
auszugeben, gleichwohl nicht umhin kann, dies nach demokriteischem Vorbild in
der Sprache der sinnlichen Anschauung zu verdeutlichen. Nicht nur sind die
„Ideen” und zumal die geometrischen Gestalten und Figuren als „Bilder” und
sinnliche Formen konzipiert, sondern auch ihre Erfassung gilt ihm als „Schau“,
Betrachtung, „Theorie” (griech.: í Schau). Man interpretiert diese Tatsache
als notwendige Metaphorik, als Akkomodation an beschränkte menschliche Vorstellungskraft. Und entsprechend interpretiert man die Tatsache, daß sich Platon
zur Darstellung der höchsten und wichtigsten Einsichten der Gleichnisse und
203
Mythen bedient 114, als Verbildlichung der „unanschaulichen“ Denkgebilde durch
Modelle der sinnlichen Anschauung. Wir können aber hier schon vorausgreifend
darauf hinweisen, daß diese platonische Metaphorologie der Erkenntnis im frühen
18. Jahrhundert durch den irischen Platoniker und Bischof George Berkeley
gründlich revidiert wurde. Berkeley leugnet die unanschauliche Denkerkenntnis
und begründet die Ideenschau direkt in der sinnlichen Wahrnehmung („Esse =
Percipi“; „Sein und Wahrgenommenwerden sind dasselbe). Das platonische Metaphernverhältnis wird ihm dadurch zu einem Verhältnis zwischen den Sinnesleistungen der einzelnen Sinne. Was man mittels des Auges sieht, wird nach Berkeley in einer metaphorischen „Natursprache“ gefaßt und auf die Sinneserfahrung
des Tastsinnes angewendet.
Von Platons Ideenlehre stammen eine Reihe von Grundkonzeptionen der ganzen
späteren Wissenschaftsentwicklung ab, die bei vielen Wissenschaftlern als pure
Selbstverständlichkeiten gelten. Als solche lassen sich nennen:
1. Die Grundunterscheidung zwischen „unanschaulichem (wahrem) Denken“
und fehlbarer (täuschungsanfälliger) empirisch-sinnlicher Wahrnehmung. Sie hat
als parmenideisches Erbe den Vorrang des rationalen Denkens gegenüber empirischer Anschauung und Beobachtung für die Erkenntnis befestigt und zugleich
dieses angeblich unanschauliche Denken - da offensichtlich solches „Denken“
überhaupt keinen Inhalt haben kann – nachhaltig mystifiziert. Die Prätention,
unanschaulich denken zu können, ist seither eine Domäne besonders von Mathematikern, Physikern und nicht zuletzt Theologen geblieben, die dadurch vorgeblich „geniale Einsichten“ und mystische Partizipation am Göttlich-Geistigen jeder
nachvollziehenden Kontrolle entziehen.
2. Die Modell- bzw. Paradigmentheorie. Sie wurde als demokriteisches Erbe ein
unentbehrliches Komplement der rationalistischen These vom reinen unanschaulichen Denken. Modelle, Metaphern, Gleichnisse, Analogien, Symbolisierungen
sind bisher - nach Wittgensteins eigener Metapher - die „Leitern“ gewesen, auf
denen man zum nur noch rein zu Denkenden aufsteigen müsse, um sie nach
Erreichung solcher Denkziele „wegwerfen“ zu können.
Kritisch wird man bemerken, daß sich so erreichte schwindelnde Einsichtshöhe
regelmäßig als Schwindel entlarven läßt. Die vorgeführten Modelle sind stets
anschauliche „Sachen selbst“, über welche nicht hinausgegangen werden kann.
Gerade deswegen sind sie nicht das, was durch sie vermittelt bzw. symbolisiert
werden soll (vgl. dazu das in § 12 Gesagte).
114
Vgl. Platon, Politeia (Staat), 6. Buch, 508 a - 509 b: Sonnengleichnis; 6. Buch 509 d - 510 b: Liniengleichnis; 7. Buch,
514 a - 517 a: Höhlengleichnis. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band
6, Hamburg 1958, S. 220 - 222 und S. 224 - 226. – S. auch Platon, Phaidros 246 a - d: Wagenlenker-Modell des Menschen.
In: Platon, Sämtliche Werke Band 4, Hamburg 1952, S. 27f. Es dürfte aus dem indischen Kathaka-Upanishad des YayurVeda 3, 7, Vers 3 - 9 übernommen worden sein, vgl. P. Deussen, Sechzig Upanishads des Veda, 4. Aufl. Darmstadt 1963,
S. 276f.
204
Die platonische Modelltheorie ist seither auch die Unterlage geblieben für alle
hermeneutischen Unterscheidungen zwischen vordergründigem Literal-Sinn und
Hintersinn in den interpretierenden Geisteswissenschaften. Aber auch davon gilt,
daß jeder metaphorische Hintersinn sich nur als anschaulicher Sachverhalt wirklich verstehen läßt. Ebenso liegt diese Modelltheorie noch allem semantischen
Verständnis von logischen und mathematischen Formalismen zugrunde, insofern
die Formalismen als sinnlich-metaphorische Veranschaulichung eines nur zu
denkenden eigentlichen „Ideengehaltes“ aufgefaßt werden.
Hier ist die Lage jetzt dadurch verunklart worden, als man gewöhnlich den
Sachverhalt, auf den ein Formalismus „angewendet“ werden soll, als Modell
bezeichnet, welches den angeblich „unanschaulichen Formalismus“ veranschauliche bzw. „erfülle“ oder gar „verifiziere“. Abgesehen davon, daß auch Formalismen keine leeren Denkformen sein können (da es dergleichen nicht geben
kann), die erst durch Anwendung auf Sachverhalte einen Inhalt gewinnen
könnten, sind sie gerade besonders hartnäckige Anschauungsevokationen von
Laut- und Bildgestalten, die sich bei Anwendungen mit deren Anschauungsgehalt
verknüpfen.
3. Die Definition des (regulären, d. h. widerspruchslosen) Begriffs. Platon entdeckt als Erbe der sokratischen Dialektik das Allgemeinheitsgefälle der Begriffe
und die dihäeretische (bzw. dichotomische, d. h. zweiteilende) Einteilungsfähigkeit der Arten und Unterarten der Gattung. Jeder unter ein Allgemeines fallende
reguläre Begriff enthält dieses Allgemeine partizipierend als „generisches“ Merkmal in sich und verknüpft es mit einem durch das Wortzeichen besonders bezeichneten Merkmal (von Aristoteles dann „Idion“ ἴ, lat. proprium d. h Eigentümliches genannt).
Am Beispiel der Definition des „Angelfischers“ im Dialog „Sophistes“ 115 zeigt
Platon, daß die Merkmale von dihäretisch unter eine gemeinsame Gattung fallenden Artbegriffen außer durch das (positive) spezifische Merkmal (Idion) auch
durch die Negation des spezifischen Merkmals der Nebenart bezeichnet werden
können. Z B. ist der „mit der Angel fischefangende Beutemacher“ zugleich ein
„nicht mit dem Netz fischefangender Beutemacher“, wobei der „mit dem Netz
fischefangende Beutemacher“ die Nebenart zum Artbegriff des Anglers darstellt.
Platons Begriffsdefinition besteht demnach in der (intensionalen) Angabe (soweit
möglich) aller über diesem Begriff stehenden Gattungen, an denen er „teilhat“,
und dem hinzutretenden Eigenmerkmal (aristotelisch: „Idion“, „Proprium“, „differentia specifica“).
Die wesentliche logische Einsicht Platons liegt in der Entdeckung der Substituierbarkeit von eigentümlichen (spezifischen) Merkmalen einer Art durch negativ
bezeichnete spezifische Merkmale der dihäretischen Nebenart. Sie begründet den
115
Platon, Sophistes 219 d - 221 a. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a.,
Band 4, Hamburg 1958, S. 189 – 191.
205
Unterschied zum heraklitischen widersprüchlichen Logos, in welchem das jeweilige spezifische Merkmal eines Begriffes zugleich und in gleicher Hinsicht positiv
und negativ bezeichnet wird: Der heraklitische „Angelfischer“ wäre zugleich auch
ein „Nichtangelfischer“ (z. B. wenn er gerade schläft und deswegen nicht angelt).
Man bemerke, daß Aristoteles den heraklitischen „nichtangelnden Angelfischer“
zum „potentiellen Angelfischer“ erklären wird.
4. Das Wissenschaftskonzept Platons. Es bezieht sich einerseits auf den Begründungszusammenhang des Wissens überhaupt, andererseits auf die institutionelle
Seite der Wissensvermittlung.
a. Der Begründungszusammenhang des Wissens schließt an die Hierarchie der
Erkenntnisvermögen und der ihnen zugeordneten Wirklichkeitsbereiche an. Die
„intuitive“ Einsicht in das, was die oberste Idee (des Guten, Wahren und Schönen)
zu denken geben soll, wird Grundlage für jede spätere sogenannte Axiomatik. Sie
begründet insgesamt das Logische als entfalteten Begriffszusammenhang in der
Gestalt dihäretischer Begriffspyramiden. Dieser logische Begriffszusammenhang in logischen Urteilen und Schlüssen expliziert – begründet seinerseits die arithmetischen Ideen von Zahlen und Proportionen. Auf ihnen beruhen die geometrischen
Konstruktionen, die ihrerseits die unmittelbare ideelle Strukturerfassung der Erscheinungswirklichkeit begründen.
Man bemerke, daß dieser Begründungszusammenhang, der zugleich ein Ranggefälle der wissenschaftlichen Disziplinen ausdrückt, bis in die Gegenwart wirksam ist. Moderne Platoniker halten es noch immer für selbstverständlich, daß alle
eigentlich wissenschaftliche Phänomenerkenntnis in mathematischen Formen
stattzufinden habe (wobei insbesondere seit Descartes geometrische Konstruktionen grundsätzlich nur als „Veranschaulichungen“ der analytischen, d. h. arithmetischen Proportionen aufgefaßt werden), die Mathematik insgesamt logisch zu
begründen sei, die Logik aber auf letzten selbstevidenten Axiomen beruhe.
b. Die institutionelle Seite der Wissensvermittlung hat Platon im „Staat“ als
Konzept der „Enzyklopädie der sieben freien Künste“, die jeder Gebildete zu
durchlaufen habe, ausgeführt. Das sogenannte „enzyklopädische Wissenschaftssystem“ (es handelt sich in der Tat allerdings um eine Klassifikation) etabliert
sieben Einzelwissenschaften. Platon trägt der sophistischen Entdeckung des
grundlegenden Unterschiedes zwischen Natur und Kultur Rechnung, indem er
drei dieser Wissenschaften auf die Kultur und das Wesensmerkmal der Sprache
des Menschen, das ihn zum Kulturschöpfer macht, bezieht, die vier übrigen aber
auf die Natur und (nach pythagoräischem Vorgang) auf die Grundmethode der
Naturerforschung, die Mathematik.
Die ersteren drei nannte man später in didaktischer Absicht „Trivium“ (d. h.
Dreiweg). Es handelt sich um Grammatik, Rhetorik und Dialektik (bzw. Logik),
durch die der freie Bürger den richtigen (wissenschaftlichen) Umgang mit der
Schriftsprache, mit der öffentlich gesprochenen Rede sowie mit dem logischen
Denken lernen sollte. Die letzteren vier hießen später „Quadrivium“ (Vierweg).
206
Dieses umfaßte Arithmetik, Geometrie, Astronomie (auch im weiteren Sinne Naturwissenschaft) und musikalische Harmonielehre, welche seit den Pythagoräern
ja als mathematische Proportionenlehre der „Sphärenklänge“ benutzt wurde. Der
„Dreiweg“ und der „Vierweg“ als Richtungsausweisung der Wissenschaften
haben nachmals die beiden pamenideischen Wege der Wahrheit und der Falschheit abgelöst und aus der Erinnerung getilgt.
„Triviales“ Kulturwissen und „quadriviales“ Naturwissen der sieben freien
Künste bzw. Disziplinen wurden - angereichert durch die Ergebnisse aristotelischer und stoischer Forschungen - durch die Enzyklopädisten der Spätantike und
der beginnenden Scholastik zum Kurrikulum der abendländischen Bildung konsolidiert. In den islamischen Hochschulen (Medresen) und etwas später in den
mittelalterlichen Universitäten wurden sie zum Kurrikulum für das Grundstudium
(bzw. Propädeutikum) in der „Philosophischen Fakultät“, das man vor der Zulassung zum „praktischen Berufsstudium“ der sogenannten Höheren Fakultäten
Theologie, Jurisprudenz und Medizin zu absolvieren hatte.
Ersichtlich wurden die sprachlich-historisch orientierten Fächer des Triviums
mit ihrer Nähe zum Problembestand der Theologie und Jurisprudenz zum Ausgangspunkt der dann sogenannten Geisteswissenschaften, während das Quadrium
mit seiner Nähe zum Problembestand der Körpermedizin zur Grundlage der
modernen Naturwissenschaften wurde. Die immer weiter forcierte Arbeitsteilung
führte dann im Laufe des 19. Jahrhunderts genau an der Nahtstelle zwischen
Trivium und Quadrivium zur Teilung der einstigen „Philosophischen Fakultät“ in
die neue rein geisteswissenschaftliche „Philosophische Fakultät“ und die neue
„Mathematisch-Naturwissenschaftliche Fakultät“.
5. Das Zeitverständnis Platons soll hier besonders hervorgehoben werden, da es
- meistens unterschätzt und „mythologisch“ verharmlost - abendländische Wissenschaft und Weltanschauung nachhaltig geprägt hat. Im „Timaios“ wird die Zeit in
allegorischer Weise als „ein bewegliches Bild der Unvergänglichkeit“ und genauer als ein „in Zahlen fortschreitendes unvergängliches Bild der in dem Einen
verharrenden Unendlichkeit“ eingeführt.116 Was hier „unanschaulich“ als Zeitbegriff zu denken ist, ist die stehende Einheit. Spätere nannten es ein „nunc stans“,
d. h. eine stehende Gegenwärtigkeit der unendlichen vom Demiurgen geschaffenen Welt. Das Modell zur Veranschaulichung dieses Zeitbegriffs aber ist die
nach zenonischem Vorgang in Zahlenfolgen gemessene und „festgestellte“ Abfolge der Stadien der Veränderung und Bewegung aller Vielheiten und Teile dieser Welt, maßgeblich aber der Bewegungen der Himmelskörper auf fixierten
Ruhepunkten.
Dieses Modell bestimmt die Messung der Bewegung und Veränderung der
Phänomene durch Reduktion auf stehende „Zeitpunkte“, denen Zahlfolgen entsprechen. Heute ist diese Darstellungsweise durch die Digitaluhren technisch
116
Platon, Timaios 37 d. In: Platon, Sämtliche Werke, übers. v. F. Schleiermacher, hgg. von W. F. Otto u. a., Band 5,
Hamburg 1958, S. 160.
207
realisiert worden, insofern man auf ihnen nur stehende Zahlen (für Stunden,
Minuten und ggf. Sekunden) sieht. In diesen stehenden Zahlen aber sieht man
keinen Hinweis auf vergangene oder zukünftige Zu-Stände. Auf den klassischen
Analoguhren, die das aristotelische Prinzip der Anschaulichkeit der Zeit als Bewegung des Früheren über das Jetzt zum Späteren hin zugrundelegen, sieht man auf
dem Ziffernblatt die Bewegung der Zeit selbst an den Zeigern. Und man sieht
jederzeit hinter den Zeigern eine Vergangenheitsfläche und vor den Zeigern eine
Zukunftsfläche auf dem Zifferblatt.
An Platons Zeitkonzept zeigt sich zweierlei: einerseits die „Nichtigkeit“ der jeweiligen phänomenalen Gegenwärtigkeit - insofern sie sich auf einen unausgedehnten (Null-)Punkt einschränkt, und andererseits das wahre (ideelle) Sein alles
ins phänomenale Nichts hinabgeglittenen Vergangenen, insofern es durch die
zahlenmäßige (chronologische) Wiedererinnerung zu einer geistigen Präsenz gebracht wird. Entsprechendes - bei Platon allerdings unthematisiert - muß für alles
phänomenal Nichtige der Zukunft gelten, das in der denkenden und planenden
Antizipation ebenfalls zu einer ideellen Präsenz gebracht wird.
Man wird bemerken, daß dieser platonische Zeitbegriff die logische Struktur
eines heraklitischen Logos besitzt. Er ist die Einheit der Gegensätze von Sein und
Nichts und damit der ruhende Begriff des Werdens und der Veränderung selbst.
Er liegt auch jetzt noch - undurchschaut in seiner logischen widersprüchlichen
Struktur - dem Verfahren der physikalischen Mechanik und überhaupt der Naturwissenschaft zugrunde, die mittels des Zeitbegriffs grundsätzlich unerfahrbare
Vergangenheiten und Zukünfte vergegenwärtigt (als ob sie vor Augen lägen) und
zugleich die jeweils beobachtbaren gegenwärtigen Naturphänomene in der zeitlichen Bestimmung selbst „vernichtet“, indem sie sie in „Zeit-Punkten“ zu berechnen versucht.
Über den Kult der Erinnerung in den historischen Geisteswissenschaften ist dies
Verfahren auch zur Grundlage der Geisteswissenschaften geworden, insofern hier
die chronologisch bestimmten Daten und Fakten, denen ja ontisch-phänomenal
Nichts entspricht, zur geistigen „Realität“ aller Sinngebilde gemacht wurden. Um
dies zu bemerken, muß man aber die abendländischen Denkgewohnheiten anhand
der in anderen Kulturen entwickelten Denkmuster zu relativieren gelernt haben.
208
§ 18 Aristoteles (384 – 322 v. Chr.)
1. Das Wissenschaftskonzept. Empirisch-historische Grundlage als Faktenkunde. Die Kategorien
als Fragen nach dem Was (Substanz) und den Eigenschaften (Akzidentien). Die theoretisch-erklärende Wissenschaft: Das Vier-Ursachen-Schema der Erklärung. Die metaphysischen Letztbegründungen. Nachwirkungen des Vier-Ursachen-Schemas. 2. Die formale Logik als Instrument der
Wissenschaften, a. die Begrifflehre, b. die logischen Axiome, c. die Urteilslehre, d. die Schlußlehre oder Syllogistik. 3. Die Architektonik der Wissenschaften: theoretische und praktische Wissenschaften und ihre Ziele und Zwecke
Aristoteles ist der große Systematiker, der alle vorsokratischen Motive in sorgfältiger Sichtung und Kritik zusammenfaßt. Da er zwanzig Jahre lang Schüler
Platons war, wiegt dessen Einfluß bei weitem am meisten. Dies so sehr, daß man
bis ins hohe Mittelalter, ja noch in der Renaissance die Unterschiede zwischen
beiden Anschauungen kaum zu unterscheiden wußte und sich umso mehr ihrer
„concordantia“ widmete. Und gewiß sind auch die Ähnlichkeiten und Gemeinsamkeiten ihrer Philosophien größer, als man annehmen möchte, wenn man Platon zum Begründer des Idealismus, Aristoteles zum Begründer des Realismus
stilisiert.
Soviel ist freilich wahr und von ausschlaggebender Bedeutung: daß Aristoteles
das Auseinanderreißen von Vernunft und Sinnlichkeit, von Idee und Erscheinung
nicht billigt und somit die beiden Reiche wieder zusammenführt, ohne sie jedoch
zu verschmelzen. Er „rettet die Phänomene”, indem er dem Sinnlichen und den
Dingen ihr Recht einräumt, Etwas, Seiendes, Realität zu sein und nicht nur
bildhafter Abglanz höherer eigentlicher Wirklichkeit. Er nennt sie Substanzen,
genauer erste Substanzen. Was Platon die Idee genannt hatte, die Bilder und
Formen solcher substanziellen Dinge, die ihr Wesen ausmachen, nennt er zweite
Substanzen.
So wird die Zwei-Substanzen-Lehre des Aristoteles die Theorie, in welcher der
platonische Dualismus überwunden erscheint, während er doch zugleich perenniert ist. Nur gewinnen dabei die ersten Substanzen, die sinnlich erfahrbaren
Dinge, an ontologischem Rang, was die zweiten Substanzen, die „bloßen“ Ideen
und Begriffe vom „Wesen” der Dinge einbüßen. Auch die Sinnlichkeit als Erkenntniskraft gewinnt dabei an Schätzung. Sie wird Grundlage aller wissenschaftlichen Empirie, nicht mehr nur Medium des Meinens und der Vermutung
wie bei Platon.
1. Das Wissenschaftskonzept des Aristoteles
a. Die empirisch-historische Grundlage. Alle Wissenschaft beginnt mit der
sinnlichen Gewißheit der Erfahrung über das „Daß” von Substanzen (Hóti ὅ),
mit der Kenntnis vom Einzelnen, Besonderen, sinnlich Bestimmten. Dies ist Empirie (Empeiria ἐμπειρία). Aber jede sinnliche Erfahrung von Gegenwärtigem
wandelt sich ständig um in gedächtnismäßigen Besitz von Vergangenem. Dies ist
209
Historia (Historie ἱζηορίη). Die Entfaltung von Empirie und Historie als Wissenschaft ist Faktenkunde und Geschichte. Ihre gemeinsame Methode ist die sorgfältige und genaue Beschreibung dessen, was sich sinnlich beobachten und gedächtnismäßig behalten läßt.
Was sich so beschreiben läßt, sind die ersten Substanzen. Die Beschreibung
beruht, wie gesagt, auf sinnlicher Beobachtung und Erinnerung an Beobachtetes.
Aristoteles bringt das in die Definition der Substanz ein: Die Substanz (Ousia,
ủíeigentlich: „Seiendheit“) ist ein „To ti en einai“ (òíἦἶ), „etwas,
das war und (noch) seiend ist“. Wir können es mit „Ge-Wesen“ übersetzen. Es ist
ein in der Zeit von der erinnerten Vergangenheit her in die Gegenwart identisch
Durchständiges.
Zur vollständigen Beschreibung gehören aber auch die Eigenschaften und
Verhältnisse, die die Substanzen aufweisen und in denen sie stehen. Für die
vollständige Deskription hat Aristoteles eine ingeniöse Methode entwickelt. Sie
besteht darin, sich am Leitfaden aller möglichen Fragen über das vor Augen
Liegende zu orientieren und diese Fragen jeweils durch die Beschreibung zu beantworten.
Die Fragenliste liefert das, was man seither seine Kategorienlehre genannt hat.
Kategorien sind, wie Aristoteles in der Kategorienschrift des Organons ausführt,
allgemeinste Begriffe. Er macht in seiner Kategorienlehre allgemeinste Fragen
selbst zu solchen obersten Begriffen und behält die Fragewörter als Begriffsnamen bei. Seine Liste variiert in den bezüglichen Texten, und er wird selbst
bemerkt haben, daß sich manche möglichen Fragen überschneiden. Als Hauptkategorien stehen jedoch folgende im Vordergrund, und sie wurden nachmals
auch die Grundlage aller weiteren Kategorienlehren, nicht zuletzt bei Kant. Wir
geben sie in doppelter Reihe als Fragen und (allgemeine) Antworten wieder:
Frage
Antwort
1. Was? (Ti, í)
2. Wie beschaffen? (Poion, ό)
3. Wie bemessen? (Poson, ό)
4. In welcher Beziehung? (Pros ti, ό
5. Wo? (Pou, ῦ)
6. Wann? (Pote, é)
„Et-Was“, Substanz
Eigenschaft, Qualität
Maß, Quantität
Verhältnis, Relation
Ort (Raum)
Zeitbestimmung (Zeit)
Was als vor Augen liegend beschrieben werden soll, wird demnach zunächst
gemäß der ersten Frage als „Gegenstand“ (eine Substanz) benannt. Alle möglichen Antworten können nur in der Angabe einer sprachlich verfügbaren Benennung des Gegenstandes bestehen. Die anschließenden Fragemöglichkeiten faßt
Aristoteles als Fragen nach den „hinzukommenden“ (symbebekota, 
όlat.akzidentellen) Bestimmungen (daher der Ausdruck „zufällig“) zusammen. Sie werden durch Prädikationen in beschreibenden Urteilen mit dem Subjekt
verknüpft.
210
Es ist bemerkenswert, daß Aristoteles ausdrücklich davor warnt, die Was-Frage
nun ihrerseits auf die akzidentellen Bestimmungen anzuwenden, also etwa nach
der Substanz von Qualitäten, Maßen, Relationen, ja auch von Raum- und
Zeit(bestimmungen) zu fragen. Und das muß ja auch über das Verhältnis aller Kategorien untereinander gelten. Gerade das aber hat man in späteren Kategorienlehren immer wieder getan. Und das führte zu den Logomachien über die
„Substantialität“ von Raum, Zeit und Relationen, die „Zeitlichkeit“ von Substanzen, Räumen, Qualitäten und Quantitäten, die „Relationen“ von substanzialisierten Zeiten und Räumen und anderes mehr.
Kompliziert wird die Lage durch den offensichtlichen Fehler des Aristoteles,
die Überschneidung der Relationskategorie mit den übrigen Akzidenzkategorien
nicht durchschaut zu haben. Ersichtlich lassen sich ja ein Wann und Wo und alle
Maßangaben nur selbst als Relationsverhältnisse bestimmen. Ebenso muß auffallen, daß Aristoteles eine wichtige Frage nicht in die Kategorienliste aufgenommen hat, die er doch in seinem Werk immer wieder gestellt und beantwortet hat. Es ist die Frage nach der Wirklichkeit, Notwendigkeit, Möglichkeit
oder gar nach der „Nichtigkeit“.
Seine Antworten auf diese Frage, die er in der Logik als Modallehre ausführlich
behandelt, sind klar genug und maßgebend geworden: Alles, was vergangen ist
(und nur durch Erinnerung gegenständlich werden kann), wird als „notwendig“
(anankaion ἀí, das gegenwärtig vor Augen Liegende wird als „wirklich“
(energeia on ἐéὄ„aktuell“), alles als zukünftig Vorgestellte wird als
„möglich“ (dynamei on άὄ„potentiell“) beschrieben. Was es aber damit
auf sich hat, wurde schon bei ihm zu einer Grundfrage der Logik und ist es in der
Weiterentwicklung seiner „Modallogik“ und in der Anwendung derselben besonders in den Naturwissenschaften, aber auch in der Alltagssprache geblieben.
Aristoteles wie seine Schule (besonders Theophrast von Eresos ca. 372 - 288 v.
Chr.) haben auf der Grundlage dieser Kategorienlehre dem Abendland auf Jahrhunderte hinaus durch ihre beschreibenden „Naturgeschichten” (von Aristoteles„
Verfassungsgeschichten ist nur wenig erhalten) Kenntnis von den Realien verschafft, die als so genau und vollständig galten, daß auf lange Zeiten kaum jemand
sie zu überprüfen für nötig fand. Diese Revision wurde erst seit der Renaissance
in großem Stil in Angriff genommen und brachte die Blüte neuzeitlicher empirischer und historischer Natur- und Kulturwissenschaft hervor, von der die neuere
Historiographie im engeren Sinne ein integrierender Bestandteil ist.
b. Die theoretisch-erklärende Wissenschaft. Auf der Basis empirisch-historischer
Kenntnisse, die dann zu deskriptiven „Historien“ (oder „-Kunden“) der einzelnen
Wirklichkeitsbereiche entfaltet wurden, erhebt sich der Bau der „theoretischen”,
erklärenden Wissenschaft, die aus (empirisch-historischen) Kenntnissen „epistemische“ bzw. szientifische Erkenntnis macht. Sie hat das platonische Renommee,
die eigentliche und jedenfalls höhere Wissenschaft zu sein, immer behalten. Und
211
doch führt sie nicht über den Bereich der Dinge, die ersten Substanzen hinaus,
sondern stiftet nur zwischen ihnen Zusammenhänge.
Auch zur Auffindung dessen, was als Erklärung gelten kann, verwendet Aristoteles die Fragemethode. Hier ist sein Leitfaden die Frage nach dem „Warum” (di„
hoti ҅ὅ Und auch diese Erklärungsfrage wird nach vier speziellen Fragemöglichkeiten „kategorisiert“. Es sind die Fragen nach den berühmten „Vier Ursachen“ (aitiai αỉí, causae): nach der (begrifflichen) Form (eidos ἶ causa
formalis), nach dem (materiellen) Stoff (hyle ὕ causa materialis), nach der
Wirkursache i. e. S. (causa efficiens) und nach dem Zweck bzw. Ziel (telos
écausa finalis). Wir können ins Deutsche übersetzen: es geht um das Wodurch (Formbestimmung), das Woraus (materielle Verkörperung), das Woher (das
Aristoteles sehr genau mit: „Woher der Ursprung der Bewegung bzw. Veränderung“ ὅἡἀὴῆήumschreibt und das Weshalb bzw. das Worumwillen (bei Aristoteles hou heneka ὗἕoder auch telos έgenannt).117
Durch jede der in diesen vier Fragerichtungen erstrebten Antworten wird eine
Ursache für das vorher beschriebene und dadurch gegebene Ding bzw. eine
Substanz angegeben. Jede dieser Ursachen aber muß vorher schon selber als
beschriebene Substanz festgestellt sein. Dies ist „Episteme“ (lat.: scientia), Wissenschaft im eigentlichen und engeren Sinne. In ihr findet die vorsokratische
„Archelogie” ihre fortwirkende Ausgestaltung, und sie gibt zugleich die vier Dimensionen weiterer Ursachenforschung bezüglich der Ursachen von Ursachen bis
auf erste (oder letzte) Ursachen vor.
Im Zentrum dieser Wissenschaftslehre steht somit das aristotelische Vier-Ursachen-Erklärungsschema. In ihm werden die Richtungen der vorsokratischen und
platonischen Ursachenforschung wie in einem Fadenkreuz vereinigt. Ursachen(„Kausal-“) Forschung bleibt nicht eindimensional, sondern wird vierdimensional.
Erklärende und ableitende Forschung heißt: das durch historisch-empirische
Kenntnis gesicherte Faktum mit vier Arten ebenso und schon vorgängig gesicherter Fakten in einen Zusammenhang zu bringen. Dieser Zusammenhang
„erklärt” das je Einzelne und Besondere aus anderem Einzelnen und Besonderen.
So ergibt sich folgendes Schema:
Formursache
Eidos
Wirkursache Herkunft
Substanz
Telos Zweckursache
Hyle
Materieursache
117
Aristoteles, Metaphysik 983 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 15.
212
Es ist gegenüber einer späteren und üblich gewordenen Neigung zur Mystifizierung dieser Ursachen von größter Wichtigkeit zu bemerken, daß diese Erklärung durch die vier Ursachen ihrerseits die Kenntnis und Gesichertheit derjenigen
Fakten und Substanzen, die als Ursache in Frage kommen, voraussetzt. Diese aber
bedürfen, wie gesagt, zu ihrer eigenen Erklärung selber der kausalen Ableitung
von wieder anderen Fakten. So ist in jeder Forschung weitere Forschung angelegt,
die das je Erkannte in weitere Netze der Erkenntnis einbettet.
Geben wir ein Beispiel, das Aristoteles selbst in seiner „Metaphysik“ vorführt:
Wir sehen (sinnlich gesichert) ein Etwas vor uns stehen. Seine Form erinnert uns
an ein Haus (wir wissen schon, was ein Haus ist, oder wir müssen es uns erklären
lassen). Dies ist seine Formbestimmung durch seine Bezeichnung bzw. durch
einen Begriff. Wir prüfen (sinnlich), woraus es besteht und sehen Steine und Holz.
Dies ist seine Materie (wir geben uns damit zufrieden oder lassen uns weiter
erklären, was Holz und Steine sind). Wir fragen weiter, woher es stammt, und
erfahren (durch Berichte von Augenzeugen, oder wir erinnern uns, gesehen zu
haben), daß es von Bauleuten errichtet worden ist. Dies ist sein „Woher der Entstehung”, bzw. die causa efficiens. Und wir vollenden die kausale Erkenntnis
dieses Hauses, wenn wir auch seinen Zweck – es ist ein Wohnhaus, ein Stall, ein
Tempel, ein Universitätsgebäude – erkundet haben, und falls wir nicht wissen,
was das ist, müssen wir uns das ebenso weiter erklären lassen.
Die Beispiele, die Aristoteles für das Weitererklären der Ursachen aus deren
Ursachen gibt, entstammen den Vorschlägen anderer Philosophen. Daß „Fleisch
aus Erde, und Erde aus Wasser, und Wasser aus Feuer“ als Materieursachen, oder
„daß der Mensch von der Luft bewegt werde, diese von der Sonne, die Sonne vom
Streite“ als Wirkursachen; daß die Zweckursache des Gehens „um der Gesundheit
willen, diese um der Glückseligkeit, diese wieder um eines anderen willen“
geschehe, und entsprechend auch bei der Formursache des „Wesenswas“ (To ti en
einai òíἦἶ), 118 gibt ersichtlich nicht des Aristoteles„ eigene Meinung
wieder. Die Beispiele dienen ihm aber zur Begründung der These, daß die VierUrsachen-Erklärungen nicht ins Unendliche fortgeführt werden können, sondern
jeweils zu einer letzten bzw. ersten Ursache führen. Dies ist sein Thema für das,
was man seither seine Metaphysik nennt, was Aristoteles selbst aber als eine göttliche Wissenschaft und als Ontologie (theologike episteme ὴἐήὀíbezeichnet
Aber diese Leistungsfähigkeit des Erklärungsschemas nach den vier Ursachen
hätte sicher nicht genügt, ihm im Abendland auf Jahrhunderte kanonische Geltung
zu verschaffen, wenn Aristoteles ihm nicht durch weitere Ausgestaltung versucht
hätte, gerade das mitzuerklären, was seit Heraklit, Zenon von Eleia und besonders
Platon als Wesensmerkmal der Phänomene und sinnlichen Dinge galt: Veränderung, Wandelbarkeit, Bewegung. Wer die Phänomene retten wollte, mußte sich
mit Zenons Paradoxien der Bewegung („der fliegende Pfeil ruht!“), mit dem
118
Aristoteles, Metaphysik 994 a. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966, S. 41f.
213
Logos des Heraklit („Logos als Einheit des kontradiktorisch Entgegengesetzten“)
und Platons These, daß man hinsichtlich der Phänomene nur Glaube und Meinung
(pistis und doxa), aber kein begriffliches Wissen erlangen könne, auseinandersetzen.
Wir wollen nicht behaupten, daß es bis heute befriedigend gelungen sei, phänomenale Bewegung und Veränderung auf den Begriff zu bringen. Aber die von
Aristoteles vorgeschlagenen Begriffe und seine Theorie zu diesem Problem befriedigte jedenfalls viele Jahrhunderte. Sie war zum Teil eine Grundlage der
klassischen Mechanik in der Physik und ist in die landläufigen Vorstellungen über
„Bedingungsgefüge“ von Sachverhalten auch der Gegenwart eingegangen.
Das obige einfache Vier-Ursachenschema stellt die uns geläufig gewordene
strikte Unterscheidung zwischen den jeweiligen Ursachen und Wirkungen als jeweils ontologisch getrennte Dinge dar. Später hat man das als „extrinsisch“ bezeichnet. Wer gemäß den vier Ursachen etwas erklärt, muß die äußere (extrinsische) Umgebung des Interpretandums kennen. Er muß bei einem Gebäude schon
wissen, was ein Haus, was das Bauzeug, was Bauleute und was die Verwendungszwecke von Gebäuden sind. Aber nicht diese sollen erklärt werden – da man
sie als schon erklärt und bekannt voraussetzt – sondern was und wie sie in dem
Interpretandum „wirken“.
Dieses „intrinsische“ Wirken wird durch eine der Bedeutungen von „Arché“,
nämlich „Herrschaft“ ausdrückt. Die Herrschaft durchwest und bestimmt das Beherrschte ganz und gar. Diese Bedeutung hat Aristoteles ebenfalls berücksichtigt
und durch besondere Begriffe gemäß den vier Dimensionen ausgedrückt.
Daß die „Form“ in der Substanz als ihr „Wesen“ enthalten ist, dürfte auch nach
heutigem Verständnis von Wesensbegriffen noch nachvollziehbar sein. Die Form
als „Begriff der Sache“ muß schon „extrinsisch“ bekannt sein, um ihn auch als
„Wesen“ der zu erklärenden Sache wiederzuerkennen. Wer die Form als Begriff
der Sache kennt, erklärt dadurch das, was Aristoteles die „Energie“ (ἐέ, lat.
actus, „wörtl.: beim Werke sein“, dt. „aktuell“, „Wirklichkeit“) der Sache genannt
hat.
Ebenso ist leicht verständlich, daß die Materieursache voll und ganz zur „Verkörperung“ der Form in und für die Sache dient und somit in der Sache „intrinsisch“ aufgeht. Man muß jedoch das Baumaterial auch extrinsisch schon kennen
um zu erklären, zu welcher Gestaltung in einem Gebäude es geeignet ist. Die in
der Sache verkörperte Materie wird von Aristoteles definiert als das zur Aufnahme und Verkörperung von Formen Fähige. Und das wird speziell „Kraft“ (Dynamis ύ, lat. potentia, dt.: Anlage, Fähigkeit, Vermögen, Disposition zu...,
Möglichkeit) genannt.
Wer also die Materie einer Sache kennt, der erklärt durch sie, welche Möglichkeiten zur Verwirklichung (Formaufnahme) in ihr liegen. Das „seiner Möglichkeit nach Seiende“ (to dynámei on  ά ὄ) ist jedoch ein heraklitischer Logos, nämlich der Begriff von etwas, was zugleich ist und nicht ist.
Die Sache existiert jeweils als bestimmt geformte Materie, zugleich existiert sie
214
nicht in derjenigen Form und Gestalt, die sie aufnehmen kann aber noch nicht aufgenommen hat.
Damit erweist sich die intrinsische Kraft oder Potenz als eine Ursache, die nur
als heraklitischer Logos, also als widersprüchlich vorgestellt werden kann, wie
das auch schon vorn in § 5 gezeigt wurde.
Dasselbe Enthaltensein im zu erklärenden Gegenstand muß nun aber auch für
die Wirk- und Zweck-Ursachen gelten, die man später nur als getrennte („extrinsische“) ansah.
Die intrinsische Zweckursache wird, wie es Aristoteles mit dem von ihm geprägten Terminus klar ausdrückt, als „Entelechie“ (ἐέentelechia, Tendenz zu …, „das Ziel bzw. den Zweck in sich habend“) bezeichnet. Um mittels
der Entelechie etwas zu erklären, muß man die Zwecke und Ziele schon kennen,
z. B. beim Hausbau, welchem Zweck es dienen soll. Vermutlich hat Aristoteles
diesen technischen Begriff nach dem Beispiel des „Strebens“ (ὁή, hormé, Neigung zu…, Bestreben bei beseelten Lebewesen, deutsch noch in „Sehnsucht“
erhaltengebildet. Bei den beseelten Körpern, die sich „von selbst“ bewegen
können, wird die Hormé selbst als „Anfang der Bewegung“ (arché tes kineseos
ἀὴῆήdefiniert.
Daß die Wirkursache außen vor (extrinsisch) bleibt, dürfte auf der Hand liegen
und ist in allen späteren Kausaltheorien festgehalten worden. Aristoteles nennt
ihre Wirkung „Schlag“ bzw. „Stoß“ (plegé ήDer Schlag oder Stoß ist eine
äußere Berührung durch einen bewegten Körper, die man sinnlich wahrnimmt. Er
bewirktdie Bewegung (kinesis íals Ortsbewegung oder als innere Veränderung der Sache. Erst diese Bewegung oder Veränderung ist die intrinsische
Wirkung, z. B. daß ein Steinblock durch Behauen die Form und einer Statue annimmt. Dazu muß man die Arbeiter und ihre Handwerke (technai, artes) kennen,
um zu erklären, was sie durch ihre Arbeit intrinsisch bewirken. Im Hinblick auf
die erwünschte Form und Gestalt beschlagen und behauen sie Steine und bewegen
sie zu ihren vorgesehenen Örtern. Der Schlag oder Stoß einer Waffe mag eine
Verwundung verursachen, die den lebendigen Organismus gänzlich verändert.
Alle Substanzen stehen nach Aristoteles in steter Berührung untereinander, denn
es gibt keinen „leeren Raum“ zwischen ihnen, wie sein Argument vom „horror
vacui“ gegen die demokritische Lehre vom „Leeren“ (kenón ó) der ganzen
Natur zeigt. Ein Schlag ändert deshalb alle vorher bestehenden Kontakte der
Substanz mit ihrer Umwelt. Das zeigt Aristoteles bei seinem Paradebeispiel des
Steinwurfs, bei dem nicht nur der Stein, sondern auch die ihn umgebende Luft in
Bewegung versetzt wird.
Bei den Bewegungen der vier materiellen Elemente Erde, Wasser, Luft und
Feuer unterscheidet Aristoteles grundsätzlich die „natürlichen“ und die „erzwungenen“ Bewegungen. Die natürlichen Bewegungen sind jederzeit am Fallen von
Erdhaftem und von Flüssigkeiten in gerader Richtung auf den Erdmittelpunkt hin
zu beobachten. Ebenso bewegen sich Luft und Feuer in gerader Richtung nach
oben. Das hatte schon Empedokles gesehen und die vier Elemente durch „Liebe“
215
und „Haß“ sich gegenseitig anziehen und abstoßen lassen. Es war eine Verallgemeinerung der Erfahrungen mit Magneten. Von ihm hat Aristoteles sowohl die
Theorie der vier Elemente wie auch die Theorie, daß Gleiches zu gleichem strebt,
übernommen.
Aristoteles hat wohl deswegen Leichtigkeit und Schwere (koupha oῦ und
baria ί) als „natürlich“ angesehen. Schwere und Leichtigkeit sind bei ihm
Bezeichnungen für ihre spezifischen „Entelechien“, die sie auf geradem Wege zu
ihrem „heimatlichen Ort“ (oikeios topos ἰĩó) hinführen. Z. B. Erdhaftes und Flüssiges zum Erdmittelpunkt hin, Luft und Feuer in entgegengesetzter
Richtung nach oben. Ebenso wächst ein Lebewesen durch seine Entelechie zur
vollendeten Gestalt etwa der ausgereiften Pflanze oder des erwachsenen Tieres
und des Menschen.
Erzwungene Bewegung zeigen sich in allen Bewegungsrichtungen, die von den
natürlichen abweichen. Das bedeutet in erster Linie, daß sie die vier Elemente
daran hindern, ihren natürlichen Bewegungsrichtungen zu folgen. Der Stein auf
dem Tisch und das Wasser im Krug fällt nicht nach unten (und natürlich auch
nicht nach oben!), sondern es wird zum Liegenbleiben bzw. zur Ruhe gezwungen.
Aufsteigender Luft und dem Feuer wird an der Zimmerdecke eine Ausweichrichtung aufgezwungen. Und nur diese Abweichungen sind es, die durch die
Wirkursache (causa efficiens) erklärt werden sollen. Es wird also nicht eine Bewegung oder Veränderung selbst erklärt, sondern die von den natürlichen abweichenden Richtungen dieser erzwungenen Bewegungen.
Aristoteles diskutiert das beispielhaft an der Wurfbewegung.
Der Wurf eines Steines durch eine werfende Hand bewegt nicht nur den Stein,
sondern auch das umgebende Medium der Luft in die aufgezwungene Richtung.
Wie die Erfahrung lehrt, verwirbelt sich die mitgeführte Luft alsbald in alle anderen Richtungen. Wäre das nicht der Fall, würde sie den Stein weiter mit sich
nach oben führen. Die Erfahrung zeigt, daß der geworfene Stein die ihm „aufgezwungene“ Richtung nicht beibehält, sondern allmählich in einer ballistischen
Kurve (die der damaligen Geometrie als Parabel-Kegelschnitt längst bekannt
war), zur natürlichen Richtung auf den Erdmittelpunkt zurückkehrt. Hätte es
Aristoteles schon mit befeuerten Ballonen zu tun gehabt, hätte er wohl erklärt, daß
das Feuer den luftgefüllten Ballon durch und über die Luft zu den Sternen entführen würde.
Wie wird nun dieses komplexere Vier-Ursachen-Schema zur Erklärung von
Bewegungen und Veränderung der beobachtbaren Dinge in der Welt eingesetzt?
Aus dem Schematismus der vier Ursachen ergibt sich, daß Potenz und aktuelle
Wirklichkeit (dynamis und energeia) in umgekehrt proportionalem Verhältnis zueinander stehen müssen. Je mehr Potenz, Dynamis, Möglichkeit, Kraft, Macht,
Anlage (zu Beginn einer Bewegung oder Entwicklung), desto weniger Akt, Energie, Wirklichkeit. Und umgekehrt: je mehr Wirklichkeit, Energie, „Reife” (gegen
Ende einer Entwicklung), desto weniger Potenz, Möglichkeit, Kraft. Aristoteles
hat auch einen Begriff für den „Abstand”, die „Beraubung” (steresis έ,
216
privatio), der die jeweilig erreichte Form und Gestalt vom vollendeten Zustand
oder Ziel trennt. Dieser „Abstand” muß gemäß der Proportionalität eine negative
Größe für die Energie (deshalb der negative Ausdruck „Beraubung”) und eine
positive Größe für die Potenz sein. Denn bei großem Abstand von Ziel ist die
Dynamis bzw. Potenz, dahin zu gelangen, noch größer als bei jeder weiteren
Annäherung.
Aristoteles hat es vermieden, bei seinen Erklärungen mittels der vier Ursachen
die auch von seinen Vorgängern, erst recht aber von den Nachfolgern ins Spiel
gebrachten Begriffe von Raum und Zeit und von quantifizierten Strecken und
Längen oder zeitlichen Dauern zu verwenden. Und so stellten sich in seiner Bewegungslehre auch keine zenonischen Paradoxien ein, die sich erst in der Beziehung von Bewegungen auf quantifizierte Strecken und Punkte und ihre zeitliche Bemessung ergeben, wie sie für die neuzeitliche mathematische Physik konstitutiv geworden sind.
Fügen wir hinzu, daß für den Bereich mechanischer Ortsbewegungen diese Terminologie trotz aller antiaristotelischen Purgatorien der neuzeitlichen Physik
speziell in der Mechanik und „Dynamik” erhalten geblieben ist. Man kann es noch
an den physikalischen Begriffen „Impuls“ (als Wirkursache) und „Entropie“ (als
richtungsgebende Finalursache von physikalischen Prozessen in abgeschlossenen
Systemen, Vorgängerbegriff war der von Joh. Buridan eingeführte Begriff impetus, d. h. „inneres Streben“) erkennen. Für den Bereich der Organismen und für
das Wachstums hat sich die Rede von den „entelechialen” Kräften und Tendenzen
und aristotelischer Teleologismus fast bis zur Gegenwart erhalten. Um die Jahrhundertwende erhielt die entelechiale Theorie durch die evolutionsgenetischen
Befunde großen Auftrieb (wie z. B. bei Hans Driesch).
Fassen wir auch diese Modifikationen des Vier-Ursachen-Schemas zur Erklärung bewegter und sich verändernder Dinge zu einem Schema zusammen, so
ergibt sich folgende Figur:
Form
eidos
Wirkursache plegé
informatio Wesens-Begriff
Bewegung Veränderung Substanz hormé u. entelechia Tendenz
Dynamis, Potentia, Anlage
Telos
hyle
Materie
Es ist hervorzuheben, daß diese Theorie der Bewegung und Veränderung ihrem
teleologischen Charakter gemäß jeweils die reife Gestalt bzw. die Ruhe als Ziel
einer Bewegung privilegiert. Jede Bewegung kommt zur Ruhe, wenn sich ihre
Entelechie erschöpft hat, wenn also ihr Ziel erreicht ist. Die Relativität von
Bewegung und Ruhe ist in diesem Schema undenkbar. Erst recht ist es der
217
neuzeitliche Gedanke einer unendlichen ungestörten geradlinigen Bewegung (seit
Newton). Ebenso enthält die Theorie keine Aussage über Verfall und Auflösung
bei Veränderungen, die doch auch natürliche Prozesse sind. Nicht Verfall und
Tod, sondern Vollendung und reife Gestalt sind die ideellen und konzeptuellen
Muster, unter denen Aristoteles die lebendige Natur betrachtet hat: eine schwere
Hypothek bis in unsere Tage, wo man weithin noch immer fassungs- und gedankenlos vor diesen Phänomenen des Verfalls steht.
Einzig und allein die Kreisbewegungen des Firmaments und aller Himmelskörper, die aus reinem Feuer bestehen und deshalb leuchten, sind bei Aristoteles
ohne Anfang und Ende. Die Kreisbewegungen sind daher für Aristoteles vollkommene Bewegungen mit stets gleichbleibender „Energie“. Auf den Kreisen und
Epizyklen der aristotelisch-ptolemäischen Astronomie läßt sich kein Anfangsoder Endpunkt ausmachen. Vielmehr sind diese Kreisbewegungen selbst die erste
Ursache aller Bewegungen im „sublunarischen“ meteorologischen Bereich der
Wettererscheinungen und auf der Erdoberfläche, wie z. B. von Flut und Ebbe. Die
Kreisbewegung des Mondes um die Erde zieht die Wassermassen der Meere mit
sich, bis sie an den erdhaften Küsten zurückprallen und zu ihren heimatlichen
Örtern zurückkehren. So entstehen Flut und Ebbe an den Küsten.
c. Die metaphysische Letztbegründung. Es dürfte klar sein, daß die Frage nach
den letzten Ursachen nicht mehr im Bereich erklärender Forschung liegen kann,
die von solchen Ursachen zur Erklärung des Einzelnen Gebrauch macht. Letzte
Ursachen haben definitionsgemäß keine Ursachen, wenn es überhaupt letzte
Ursachen gibt. Ihre Behandlung ist das Thema der Metaphysik bzw. Theologie)
oder einer „ersten Philosophie”. Sie stellt die Frage, ob es in den vier Kausaldimensionen letzte Ursachen geben könnte, die für die von ihnen verursachten Substanzen „erste Gründe“ sein müßten, für den forschenden Wissenschaftler und die
Wissenschaft insgesamt aber nur als „letzte Ursachen“ erkennbar sein könnten.
Die aristotelische Metaphysik postuliert bekanntlich gemäß den vier Kausaldimensionen vier letzte Ursachen. Es muß einen „ersten Beweger” geben, der selbst
unbewegt ist und bleibt, ebenso ein letztes Ziel, einen Endzweck der Welt, was
Aristoteles (mit Platon) das höchste Gute nennt. Die Reihe der Formen als
allgemeiner Begriffe kann nur durch einen allgemeinsten und höchsten Begriff
abgeschlossen werden, den Aristoteles Sein (On ὄ) nennt. „Sein“ bezeichnet die
allgemeinste Form ohne jede Beimischung von Materie und wird deshalb auch
reine Energie (ἐέlat.actus purus) genannt.
Diese drei ersten Ursachen sind das, was alle den „Gott“ nennen.
Ebenso muß jedoch die Stufung der Materien mit einer letzten gänzlich formlosen Materie enden. Aristoteles nennt sie „prima materia“ (óὕoder
auch „Nichts“ (bzw. Nicht-Sein ὴὄ)..
d. Schließlich ist ein Blick auf die Wirkungsgeschichte des aristotelischen VierUrsachen-Schemas zu werfen. Die ersten drei Letztursachen haben der aristote-
218
lischen Theologie der Hochscholastik als metaphysische Argumente für den trinitarischen Gottesbegriff gedient. Die vierte Letztursache der reinen (formlosen)
Materie (als Nichts) erlangte in der sogenannten negativen Theologie, dann aber
auch bei allen Satans- und Teufelsvorstellungen eine bedeutende Nachwirkung.
Die moderne Naturwissenschaft seit Galilei bleibt auch dann noch im Rahmen
des aristotelischen Vier-Ursachen-Schemas, wenn sie Erklärungen aus Ziel- und
Form-Ursachen ablehnt und die Natur ausschließlich aus Wirkursachen (causae
efficientes) als Kräften im modernen Sinne und Materie (Masse) erklärt. Damit
überließ sie die Form- und Ziel-Ursachen dem nicht-natürlichen Bereich der
Wirklichkeit, der Kultur- und Geisteswelt, als Erklärungsprinzipien, dessen sich
die modernen Geisteswissenschaften angenommen haben.
Diese, konservativer als die Naturwissenschaften, verzichten zwar nicht darauf,
ihre Gegenstände auch aus Materie und Wirkursachen zu erklären und sich so der
naturwissenschaftlichen Erklärungsmuster zu bedienen, ihr Schwerpunkt liegt
jedoch in der Erklärung aus Formen („Sinn“, Ideen, Begriffen, Gestalten) und
Zielen bzw. Zwecken („Bedeutung“). Und dies grenzen sie methodologisch als
„Verstehen” gegen das „kausale” Erklären der Naturwissenschaften ab. Will man
also verstehen, was hier geschieht, so ist der Rückgriff auf das aristotelische VierUrsachen-Schema noch immer von großer Bedeutung. Es ist selbst eine Form, in
welcher wissenschaftliche Tätigkeit, Forschung als Erklären und Verstehen, Gestalt gewonnen hat. Darauf ist später nochmals genauer einzugehen.
2. Die formale Logik als Instrument (Organon) der Wissenschaften
Zu den bemerkenswertesten Leistungen des Aristoteles gehört die Begründung der
formalen Logik als Lehre von Begriff, Urteil und Schluß und ihren Gesetzen bzw.
Axiomen. Sie ist in den „ersten und zweiten Analytiken”, den „Kategorien”, der
„Topik”, den „sophistischen Widerlegungen” und in der „Hermeneutik” niedergelegt, welche Schriftengruppe die Späteren zum „Organon” (= „Werkzeug”, Hilfsmittel der Wissenschaften, nicht selber Wissenschaft) zusammengestellt haben. In
ihr gewinnt eine der Hauptmethodologien abendländischer Wissenschaft - neben
der Mathematik - ihre erste, frühreife und bis heute verbindliche Gestalt.
Da Aristoteles keine eigene Sprachphilosophie vorgelegt hat, wohl aber Platon
schon (im Dialog „Kratylos“) viele einschlägige und nachwirkende Gedanken
über die Sprache entwickelt hatte, kann man davon ausgehen, daß die aristotelische Logik zu einem gewissen Teil seine Sprachphilosophie enthält. In der Tat
ist sie ein Unternehmen, dasjenige in der (griechischen) Sprache genauer zu untersuchen und aufzubereiten, was sich für die oben geschilderten beschreibenden und
theoretisch-forschenden und erklärendenVerfahren der Wissenschaft eignet.
Logisch relevant aus dem umfassenderen Sprachmaterial sind zunächst die der
Beschreibung dienenden Wörter für Substanzen (Subjekte der Aussage) und für
die akzidentellen näheren Bestimmungen (Satzaussagen, Prädikationen), wie es
219
die Kategorienlehre vorordnet. Sie werden zu logischen „Begriffen“ stilisiert und
zugleich durch Buchstaben „formalisiert“. Dabei wird ausdrücklich vor sprachlichen Homonymien (dasselbe Wort für verschiedene Dinge) und Synonymien
(verschiedene Wörter für dasselbe Ding) wie auch vor Paronymien (als Bedeutungsübertragungen von einem Ding auf ein anderes) gewarnt.
Das sogenannte Identitätsprinzip der aristotelischen Logik fordert das Festhalten
eines und desselben Begriffes in thematischen Argumentationen. Und zwar eben
deswegen, weil wegen der sprachlichen Synonymien, Homonymien und Paronymien oft schwer festzustellen ist, um welchen Begriff hinter der sprachlichen
Bezeichnung es sich handelt. Die beschreibenden „Begriffe“ sind, wie Aristoteles
in der Hermeneutikschrift betont, psychische Abbilder von sinnlich beobachtbaren
Gegenständen, die von allen Menschen in gleicher Weise vorgestellt bzw. erinnert
werden. Nur ihre Laut- und Schriftdarstellung in den verschiedenen Sprachen sind
verschieden.119 Offensichtlich entspringt aus dieser sprachlichen Verschiedenheit
der Benennungen das Bemühen um die „Formalisierung“ dieser „begrifflichen“
Elemente, die insofern der Versuch einer Neutralisierung der Sprachverschiedenheiten ist.
Während die logischen Begriffe etwas zu denken und vorzustellen geben,
drücken sprachliche Sätze Verknüpfungen der „kategorialen“ Bestimmungen mittels sprachlicher Verknüpfungswörter aus. Auch hier wählt die Logik einen Teil
von Sätzen aus den grammatisch unterscheidbaren Satzformen aus, nämlich solche, die einen Behauptungssinn enthalten und dadurch Wahrheit und/oder Falschheit zum Ausdruck bringen. Der logisch relevante Satz ist für Aristoteles der entweder wahre oder falsche Behauptungssatz. Befehle, Wünsche, Fragen, Vermutungen u. a. sind insofern nicht „wahrheits- bzw. falschheitsfähige“ grammatische
Satzformen.
Als logisch relevante Verknüpfungswörter in Behauptungssätzen benutzt Aristoteles „zukommen“ (tygchanein ά „ist“ (esti ἐísog. Kopula“nicht“
(ouk ὔegation in Verbindung mit dem „Zukommen“ oder der Kopula),
„wenn ... dann“ (ei ... ἶ, in Verbindung mit den vorigen oder auch ohne diese
Verbindung).
„Und“ (kai í), „oder“ (eite ἶ) und gelegentlich das einfache „nicht“ (me
μή) verknüpfen innerhalb eines Behauptungssatzes mehrere Subjekt- oder Prädikatbegriffe zu komplexen begrifflichen Ausdrücken, die als solche (wie auch die
selbständigen Begriffe) keinen Wahrheits- bzw. Falschheitswert besitzen. Aristoteles hat diese Funktion der Ausdrucksbildung von „und“, „oder“ und der einfachen Verneinung nicht beachtet, was sich bis heute als Lücke in der Logik
bemerkbar macht. Deswegen ist die Natur solcher Ausdrücke, zu denen etwa die
negativen Begriffe und die durch mathematische Rechenarten verknüpften Aus-
119
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 16 a. in: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 86.
220
drücke (Summe, Produkt, Differenz, Quotient) gehören, bisher unterbelichtet geblieben (vgl. dazu, was darüber in § 9, 4 gesagt wurde).
Die später sogenannten Quantifikatoren „alle“ (tauta ύAllquantor, oder
auch katholou óvom Ganzen gesagt), „einige“ (tines íPartikularisator, oder auch en merei ἐέauf einen Teil bezogen) und „ein“ (tis í
Individualisator) werden von Aristoteles als Bedeutungsmodifikationen ausschließlich von Substanzbegriffen behandelt (erst die neuere Logik hat versucht,
auch die „Prädikate“ zu quantifizieren). Daneben spricht er auch von „unbestimmten“ (ahoristoi ἀὁíBegriffen bzw. Ausdrücken, die also keine Quantifikation aufweisen. Auch hierbei hat Aristoteles übersehen, daß die Quantifikationen ihrer logischen Funktion nach komplexe Ausdrücke bilden, indem sie einen
Begriff mit einem oder mehreren anderen Begriffen im Rahmen eines Begriffsumfanges verknüpfen. Diese Verkennung hatte gravierende Folgen für seine
Schlußlehre, die sogenannte Syllogistik, die bei ihm in wesentlichen Teilen auf
der Struktur dieser quantifizierten Ausdrucksverknüpfung beruht.
Von allen diesen Verknüpfungswörtern, später Junktoren (in der mathematischen Logik auch Funktoren oder Operatoren) genannt, meint Aristoteles, daß sie
erst in der Satzverbindung selbst und in Abhängigkeit von den kategorialen Begriffen eine eigene - logische - Bedeutung erhielten. Daher nennt er sie „Synkategoremata“ (ήlatconnotationes, „Mitbedeuter“). In der Tat
hat er aber ihren gemeinsprachlichen Sinn in die Logik mitübernommen, ohne daß
dies von ihm und späteren Logikern durchschaut wurde. Eine eigene Junktorenlehre hat Aristoteles nicht aufgestellt, und er hat die Junktoren auch nicht
„formalisiert“ d. h. durch eigene logische Zeichen dargestellt.
Aus den sprachlichen Satzverbindungen, den „Reden“, läßt Aristoteles als
logisch relevant nur die behauptenden Aussagen zu, durch die sich Wahres oder
Falsches darstellen läßt. Daneben behandelt er jedoch als Kernstück seiner Logik
auch die aus mehreren behauptenden Sätzen bestehenden Argumente. In diesen
stehen die einzelnen Urteile in einem solchen Verhältnis zueinander, daß aus
einigen von ihnen („Prämissen“) ein einzelner Behauptungssatz hinsichtlich seiner
Wahrheit oder Falschheit abgeleitet bzw. „bewiesen“ wird. Wichtig ist hier die
thematische Einheit des Sinnzusammenhangs dieser Satzverbindung (die später
von einigen Stoikern und von der modernen Logik aufgegeben wurde). Die argumentative und beweisende Rede wird in der Syllogistik auf gewisse Standardformen der Schlüsse gebracht. Es liegt auf der Hand, daß bei den Behauptungssätzen besonders die Wenn ... dann-Verknüpfungen und darüber hinaus alle
Syllogismen das logische Instrumentarium für die Artikulation der theoretischen
Erklärungen und der Ursachenforschungen darstellen sollen. Die Syllogismen
gelten Aristoteles grundsätzlich als Beweisformen.
Die aristotelische Logik greift aus dem Sprachmaterial diejenigen Elemente
heraus, die sich für die Darstellung von Wahrheit und Falschheit eignen. Was
diese sind, ist offensichtlich auch bei Aristoteles vom parmenideischen Denkan-
221
satz her vorgegeben. Wahrheit wird mit dem Denken des Seins und Falschheit mit
dem Denken des Nichts identifiziert.
Für Aristoteles ergibt sich Wahrheit, wenn über Seiendes behauptet wird, daß es
ist, und über Nichtseiendes, daß es nicht ist. Und umgekehrt ergibt sich Falschheit, wenn über Seiendes behauptet wird, daß es nicht ist, und über Nichtseiendes,
daß es ist. Diese etwas schlichte Bestimmung (aus der Hermeneutikschrift) wurde
zur Grundlage des seither berühmten „aristotelisch-realistischen Wahrheitskonzeptes der Korrespondenz“ oder kurz zum „Korrespondenzprinzip der Wahrheit“.
In der Scholastik wurde es als „Adäquationstheorie der Wahrheit“ formuliert.
Man versteht dies so, daß im wahren Denken die Realität (der seienden Dinge und
ihrer Verhältnisse) abgebildet werde. Das wahre Denkbild „entspreche bzw. korrespondiere“ dem Sein schlechthin („adaequatio rei et intellectus“ bei Thomas von
Aquin). Dann muß das falsche Denken dem Nichts entsprechen, und falsche
Behauptungen sind grundsätzlich Reden über Nichts, die das Nichts als ein Seiendes „erscheinen“ lassen.
Das setzt nun allerdings voraus, daß man vor und unabhängig vom Behaupten
jeweils schon weiß, was Sache ist und wie die Realität beschaffen ist, um das
wahre Denkbild mit dem realen Vorbild vergleichen zu können. Wie derartiges
möglich sein könnte, hat weder Aristoteles erörtert, noch ist es von den „realistischen“ Vertretern dieser Wahrheitskonzeption jemals befriedigend gezeigt
worden.
Eine Reaktion auf diese Lage war die Weiterentwicklung des „idealistischen“
platonischen Ansatzes zur sogenannten Kohärenztheorie der Wahrheit, in der alle
Wahrheit auf den inneren Zusammenhang (Kohärenz) des Denkens selbst und alle
Falschheit auf Inkohärenzen, gleichsam Brüche, im Denken zurückgeführt werden. Inkohärent war und bleibt es, die sogenannte objektive Realität bzw. Kants
„Dinge an sich“ (in der 2. Auflage der Kritik der reinen Vernunft) realistisch als
etwas ganz anderes (aber „wie anders“ konnte nie erklärt werden!) zu behandeln
denn als sinnlich wahrgenommene und gedanklich verarbeitete Erfahrung. Und
kohärent war und bleibt es, diese sinnlich erfaßte Erfahrungswelt und ihre gedankliche Vereinheitlichung im Idealismus auszuarbeiten (so in Berkeleys Esse =
Percipi-Prinzip und in Kants Lehre vom „Ding an sich als Noumenon“ in der
ersten Auflage der Kritik der reinen Vernunft).
Als Schüler Platons hat auch Aristoteles diesen kohärentistischen Ansatz für die
Ausgestaltung seiner Logik weiterverfolgt. Das zeigt sich darin, daß er sich
bemühte, rein logisch-formale Kriterien für die Auszeichnung von Wahrheit und
Falschheit aufzustellen - gewissermaßen ohne Hinblick auf die Realität. Er fand
sie in dem, was man seither als die drei Grundprinzipien - „Axiome“ - der formalen Logik herausstellt: Identität, Widerspruch und Drittes.
Auch auf sie stieß er sicherlich durch genaue Beobachtung der Sprachgebräuche
und ihrer Folgen für wahre und falsche Überzeugungen: Man denkt nicht dasselbe
(Identische), wenn man sich durch gleichlautende (homonyme) Wörter verführen
läßt, Unterschiedliches als dasselbe zu denken. Und man soll sich auch nicht
222
durch verschiedene Benennungen desselben Sachverhaltes (Synonyme) verführen
lassen, Identisches als Unterschiedliches zu denken. Man kann und soll auch nicht
zugleich und in gleicher Hinsicht etwas bejahen und verneinen, denn eines von
beidem muß wahr und deshalb das andere falsch sein, auch wenn man nicht weiß,
welches von beidem jeweils wahr oder falsch ist. Bejaht und verneint man
dennoch etwas bezüglich einer Substanz zugleich, so ergibt sich ein „Widerspruch“, und dieser ist die auffälligste Gestalt einer logischen Inkohärenz. Und
wenn man von Beliebigem nur entweder etwas behaupten oder dasselbe verneinen
kann, dann kann es daneben kein „Drittes“ (oder wie Spätere es auch nannten: ein
Mittleres) mehr geben, jedenfalls nicht in demjenigen, was für Wahrheiten und
Falschheiten in Frage kommt. Was es damit auf sich hat, wurde schon vorn in den
Paragraphen 3 und 9 erörtert und bleibt auch im folgenden genauer zu betrachten.
a. Die Begriffslehre. Begriffe sind - abgesehen von dem, was durch sie und mit
ihnen gedacht und vorgestellt wird (nämlich erste Substanzen und ihre Eigenschaften, auf die die „formale“ Logik anzuwenden ist) – mehr oder weniger
komplexe Denkformen, die wir schon als „zweite Substanzen“ kennengelernt
haben. Aristoteles hat die Begriffe grundsätzlich als Einheiten behandelt und sie
deshalb in seiner Formalisierung durch einfache Zeichen (griechische Buchstaben,
die zugleich auch Zahlzeichen sind) dargestellt.
Es liegt auf der Hand, daß er dadurch eine wesentliche Einsicht Platons für die
Formalisierung ungenutzt läßt, nämlich gerade die Einsicht in die Zusammensetzung der Begriffe aus Merkmalen und Umfängen. Man kann hier schon darauf
hinweisen, daß der große Aufwand, den er mit der formalen Syllogistik treibt, nur
eine Kompensation dieses Defizits an Durchschaubarkeit der Komplexionsverhältnisse der in den Urteilen und Schlüssen verwendeten Begriffe ist. Diese wird
durch eine formale Notation dieser „internen“ Begriffsstrukturen in Begriffspyramiden überflüssig. Wohl aber hat er von Platon gelernt und vorausgesetzt, daß die
Merkmale von allgemeinen Begriffen voll und ganz (d. h. identisch) auch zu
sogenannten generischen Merkmalen aller unter sie fallenden Art- und Unterartbegriffen werden, wobei bei den Art- und Unterartbegriffen zusätzliche Merkmale, die sogenannten spezifischen Differenzen, hinzutreten. Aber auch diese Einsicht hat er nicht für die Formalisierung genutzt, wohl aber für sein Definitionsschema der Begriffe.
Durch die von den Allgemeinbegriffen zu den „spezielleren“ Begriffen zunehmende Komplexheit der Merkmale ergibt sich nun auch das, was man das
Allgemeinheitsgefälle der Begriffe nennen kann. Je allgemeiner ein Begriff, desto
weniger Merkmale weist er auf. Umgekehrt vergrößert sich sein Anwendungsbereich, der sogenannte Umfang. Diese umgekehrte Proportionalität von Merkmalen
(Begriffsgehalt, Intensionen) und Umfängen (Anwendungsbereiche, Extensionen)
der Begriffe wurde erst im 17. Jahrhundert (in der Logik von Port-Royal) klar
herausgestellt. Aristoteles hat sie nicht durchschaut. Wohl aber hat er es für
selbstverständlich gehalten, daß von einem Begriff nur die Rede sein kann, wenn
223
er überhaupt Merkmale, und mindestens ein Merkmal aufweist. Es blieb dagegen
der modernen Logik vorbehalten, auch dann noch von Begriffen zu reden, wenn
gar kein Merkmal vorhanden ist, was dann zur Entwicklung der sogenannten rein
extensionalen Logik (Typ: „Klassenlogik“ und Mengenlehre) führte.
Das Allgemeinheitsgefälle der Begriffe nach Gattung, Arten und Unterarten, das
man sich nach dem Vorbild der platonischen Begriffspyramide im Dialog
„Sophistes“ vorstellen kann, bestimmt nun auch, was man obere und untere
Begriffe oder auch abstrakte und konkrete Begriffe nennt. Obere oder abstrakte
Begriffe mit größtem Umfang (Kategorien genannt) werden durch das Hinzutreten
weiterer Merkmale näher bestimmt, „konkretisiert” (von lat. congresci, zusammenwachsen, nämlich von Merkmalen). Damit werden untere Artbegriffe gebildet, deren Umfang gegenüber dem oberen Gattungsbegriff eingeschränkt ist.
Die Hinzufügung von Merkmalen kann im Prinzip beliebig weit fortgesetzt werden, so daß die „konkretesten“ Begriffe „unendlich“ viele Merkmale besitzen
können. Deren Umfang bezieht sich dann nur noch auf einen einzigen Anwendungsfall, und sie sind daher Begriffe für einzelne Dinge und werden durch deren
Eigennamen bezeichnet.
Die Scholastik brachte den Sachverhalt auf die Formel: „individuum est ineffabile” („Die einzelnen Dinge können nicht ausgesprochen werden“). Gemeint ist,
daß sie nicht logisch analysiert werden könnten, weil sie „unendlich“ viele
Merkmale besitzen. In der Tat werden sie ja gerade durch ihre Namen „ausgesprochen“). Wie es nun nach aristotelischer Begriffslehre keine merkmalslosen
obersten Begriffe gibt, so auch keine umfangslosen untersten, die sich auf gar
keinen Gegenstand beziehen würden. Derartige „leere Begriffe“ nimmt erst die
moderne extensionale Logik in Betracht, um mathematischen Vorstellungen von
der Null bzw. der „leeren Menge“ eine logische Grundlage zu geben.
Bestehen nun die Begriffe in der geschilderten Weise aus der Vereinigung von
Merkmalen und Umfängen, so lassen sich auch Methoden angeben, wie sie daraus
gebildet werden. Aristoteles hat sich sehr darum bemüht, solche Methoden auszuarbeiten. Sie sind als „Analyse“ (Analysis ἀάdihairesis αἵ, lat.:
resolutio) und „Synthese“ (Synthesis ύoder Epagogé ἐφ, lat.: inductio und constructio) bzw. als Induktion und Deduktion bekannt.
Jedoch sind die später in der logischen Methodologie der Begriffsbildung so
grundlegenden Verfahren der Analysis und der Synthesis bei der Begriffsbildung
doppeldeutig, je nachdem, ob man damit Begriffe aus Merkmalen (Intensionen)
oder aus Umfängen (Extensionen) bildet. Entsprechend werden auch die Verfahren der Induktion und Deduktion doppeldeutig.
Synthetisiert man Umfänge spezieller Begriffe, so bildet man ihren gemeinsamen Oberbegriff (die Gattung). Dies nennt man üblicherweise Induktion des
Allgemeinen aus dem Besonderen. Analysiert man den Umfang einer Gattung, so
kommt man auf ihre Art- und Unterartbegriffe zurück, und das nennt man gewöhnlich Deduktion. Gerade umgekehrt verhält es sich aber bei der Merkmalssynthese und -analyse. Synthetisiert man die wenigen Merkmale allgemeiner
224
Begriffe zu merkmalsreichen „konkreten“ Begriffen, so bildet man „deduktiv“
spezielle Begriffe. Und analysiert man die Merkmale merkmalsreicher spezieller
Begriffe, so kommt man „induktiv“ auf allgemeinere (merkmalsärmere) Begriffe.
In dieser Doppeldeutigkeit von Synthesis und Analysis bzw. von Induktion und
Deduktion scheint jedenfalls der Grund für die später notorische Dunkelheit und
Problematizität dieser Verfahren zu liegen.
Es wurde schon gesagt, daß Aristoteles die Begriffe durch Buchstaben (bzw.
Zahlzeichen) „formalisierte“. Dadurch ergab sich zwangsläufig das Bedürfnis, bei
der Verwendung solcher formaler Platzhalter bzw. „Variablen“ vorzuschlagen
oder auch gelegentlich daran zu erinnern, für welche inhaltlichen Begriffe sie in
einem bestimmten Kontext stehen sollen. Auch daraus machte er ein logisches
Lehrstück, nämlich die Definitionslehre.
Eine Definition (Horismos ὁólat. definitio, Abgrenzung oder Begrenzung) definierte Aristoteles als eine „erläuternde Rede über den Sinn einzelner
Begriffe oder auch ganzer Reden“. Er vermied es offensichtlich mit Sorgfalt, von
solchen Reden oder Definitionen anzugeben, ob er sie für behauptende Urteile
(die wahr oder falsch sein müßten) oder für eine nicht wahrheits- bzw. falschheitsfähige Satzart hielt. Und diese Frage ist auch bis heute ein dunkler Punkt der
ganzen Logik geblieben. Daß wir die Definitionen grundsätzlich für nichtbehauptend und somit nicht für wahrheitswertfähig halten, wurde schon in den
Eingangsparagraphen, bes. § 9, dargetan.
Ersichtlich ist der erste Zweck einer Definition die Einführung der formalen
Variablen für inhaltliche Begriffe selber; z. B. für „Mensch“ stehe das Zeichen
„A“, und daher auch umgekehrt die Erläuterung: „A“ steht für „Mensch“, so oft es
in einem bestimmten logischen Zusammenhang vorkommt. Aber dieser grundlegende Zweck der Definition wurde und wird in der Logik bis heute wohl seiner
Trivialität wegen übersehen.
Der nächste Zweck, auf den auch Aristoteles insistiert, ist dann die Erläuterung,
aus welchen sinnvollen Merkmalen (Intensionen) sich ein Begriff zusammensetzt.
Und da er von Platon gelernt hatte, daß die Merkmale einer Gattung sämtlich
zugleich auch als generische Merkmale in allen zur Gattung gehörenden Art- und
Unterartbegriffen enthalten sind, und daß darüber hinaus jeder Begriff besondere
zusätzliche „spezifische Merkmale“ aufweist, die ihn von sogenannten Nebenarten und auch von der Gattung unterscheiden, verwendete er diese Begriffseigentümlichkeit zu dem, was seither die Standard-Definition überhaupt geworden
ist.
Eine zünftige Begriffsdefinition besteht nach Aristoteles in der Angabe der
nächsthöheren Gattung eines Begriffs nebst der Angabe der „spezifischen Differenz“. Hierzu sei nochmals betont, daß Aristoteles die interne Vernetzung der
Merkmale und Umfänge in den Begriffen nicht durchschaute und deshalb in
dieser Definitionenlehre davon ausging, ein Begriff werde durch die Angabe
anderer (ganzer) Begriffe definiert. Er übersah, daß dabei nicht ganze Begriffe,
sondern nur Merkmale (gelegentlich auch nur Umfänge) angeführt werden. Die
225
Logik ist ihm darin bis heute gefolgt, wenn sie etwa die „spezifischen Differenzen“ (oder das sog. „Proprium“, d. h. eine individuelle Eigentümlichkeit) als
ganze Begriffe zu fassen sucht.
Verdeutlichen wir dies durch einige Hinweise auf Voraussetzungen, die auch
von erfahrenen Logikern leicht übersehen und vernachlässigt werden.
1. Die Angabe der „nächsthöheren Gattung“ besteht im Hinweis auf einen
allgemeineren Begriff, unter den der zu definierende Begriff fällt. Das ist aber
zugleich das Mittel, alle Merkmale sämtlicher über einem zu definierenden
Begriff stehenden Allgemeinbegriffe mitanzugeben, da sie alle als „generische
Merkmale“ in die Merkmale auch aller Unterbegriffe eingehen. Ließe man die
„nächsthöhere“ Gattung aus und würde die über-nächsthöhere Gattung angeben,
so würde man nur einen Teil der generischen Merkmale benennen können. Wer z.
B. erläutern wollte: „Hunde, d. h. lebendige Geschöpfe“, der hätte nicht deutlich
gemacht, daß Hunde zunächst Tiere - und nicht etwa Pflanzen - sind, wobei
„Tiere“ ihrerseits als bestimmte lebendige Geschöpfe zu definieren wären.
2. Da man die generischen Merkmale in der Definition durch den zugehörigen
Gattungsbegriff erläutert, hat man fast immer angenommen, auch die spezifischen
Differenzen seien als eigenständige Begriffe anzuführen, und Begriffe seien
insgesamt daher so etwas wie „Durchschnitte“ oder gemeinsame Knotenpunkte
verschiedener sonst eigenständiger anderer Begriffe. In der Tat hätte Aristoteles
auch schon von Platons Umgang mit Ideen lernen können, daß sich Merkmale
bzw. spezifische Differenzen ganz ohne Umfänge handhaben lassen, wie er es in
der Tat auch praktizierte, ohne sich davon Rechenschaft zu geben. Dies läßt die
Frage nach den Umfängen solcher vermeintlicher „Begriffe“ von spezifischen
Differenzen gar nicht erst aufkommen. Wichtig ist allerdings die Bemerkung, daß
die Wortbezeichnungen der Begriffe in der Regel nur diese spezifische Differenz
benennen bzw. von daher gebildet sind, während sie auf den nächsthöheren Gattungsbegriff keinen Bezug nehmen. Aus dem Wort „Tier“ selbst kann man nicht
entnehmen, daß in dem dadurch Bezeichneten das Merkmal des Lebewesenhaften
mitzudenken ist. Hat man allerdings einen Begriff vom „Tier“, so denkt man es
immer schon mit.
3. Da nun Aristoteles die formgerechte Definition auf diesen Typ der Angabe
der nächsthöheren Gattung nebst der spezifischen Differenz beschränkte, mußte er
grundsätzlich die Definierbarkeit der Begriffe auf einen Begriffsbereich zwischen
den höchsten Gattungen (Kategorien) und den untersten Arten (Eigennamen)
beschränken. Oberste Gattungen haben naturgemäß keine Gattungen über sich,
aus denen ihre Merkmale erläutert werden könnten. Und unterste Arten, die durch
Eigennamen bezeichnet werden, haben unüberschaubar viele (wie der scholastische Satz behauptet: unendlich viele) Merkmale, die nicht alle erläuternd angeführt werden können. Dieser Sachverhalt wurde in der späteren Logik kanonisiert mit der Folge, daß man Kategorien und „Individuen“ grundsätzlich für
undefinierbar hielt und ihre Behandlung aus der Logik weitgehend ausschloß.
226
4. Gleichwohl ist dies falsch, wie schon vorn in § 9 gezeigt wurde. Denn
ersichtlich lassen sich die in einem Begriff implizierten Merkmale auch auf andere
Weise angeben. Und erst recht kann man die Begriffe auch durch extensionale
Erläuterungen sehr klar definieren. So lassen sich höchste Gattungen (Kategorien)
sehr wohl durch Aufweis des gemeinsamen generischen Merkmals ihrer Arten
(und zusätzlich durch die extensionale Festlegung ihres Umfangs) definieren.
Ebenso kann man sich bei der Definition von untersten Artbegriffen (die für
Individuen stehen sollen), auf die Angabe der „wesentlichen“ spezifischen Differenzen beschränken, wie es in der Praxis (und auch in Beispielen des Aristoteles)
immer wieder geschieht.
5. Nicht definiert und auch nicht durchschaut hat Aristoteles diejenige Begriffsart, die wir vorn als heraklitischen Logos bzw. als kontradiktorischen Begriff
(contradictio in adiecto bzw. contradictio in terminis) erwähnt haben, und die
Aristoteles in seiner Modallogik faktisch verwendet.
Es handelt sich hierbei um einen Begriff, der zusätzlich zu einer spezifischen
Differenz auch deren Negation als Merkmal enthält, welches seinerseits als „positive“ spezifische Differenz eine dihäretische Nebenart unter derselben Gattung
defniert.
Was z. B. mit „Raucher“ und mit „Nicht-Raucher“ gemeint ist, dürfte bekannt
und verständlich sein. Der „nichtrauchende Raucher“ ist dann ein widersprüchlicher Begriff. Damit meint man Personen, die man jetzt häufig in öffentlichen
Räumen antrifft, wo den Rauchern das Rauchen verboten ist. Er besagt aber (wegen der Symmetrie der Negationen) nichts anderes als „rauchender Nichtraucher“.
Und erst in dieser Formulierung „spürt“ man die Widersprüchlichkeit dieses Begriffs. Gleichwohl ergab sich aus diesem widersprüchlichen Begriff die Hauptbegründung für die neue Anti-Rauchergesetzgebung. Gemeint war nämlich derjenige Nichtraucher, der in verrauchten Kneipen zum Mitrauchen gezwungen
wurde. Wir erwähnen das Beispiel, um darauf aufmerksam zu machen, daß widersprüchliche Begriffe keineswegs „unsinnig“, „sinn- und bedeutungslos“ und Ausdruck des „Absurden“ sein können, wie man gewöhnlich voraussetzt.
Ersichtlich ist Aristoteles„ Begriff der „Möglichkeit“ auf diese Weise aus den
spezifischen Differenzen „seiend“ und „nichtseiend“ und einem von ihm für nicht
angebbar gehaltenen generischen Gattungsmerkmal einer gemeinsamen Gattung
über dem Seienden und dem Nichtseienden konstruiert. Da er dies selbst nicht
durchschaute, hat er den Begriff der „Möglichkeit“ (als Prototyp aller späteren
Begriffe von Kraft, Anlage, Disposition, Vermögen) als dritte höchste Gattung
neben „Sein“ und „Nichtsein“ behandelt, worin ihm die meisten Logiker bis heute
gefolgt sind (vgl. dazu § 10 über den Möglichkeitsbegriff).
b. Die logischen Grundsätze (Axiome). Wie bei den später anzuführenden
Wissenschaften i. e. S. hat sich Aristoteles bemüht, auch für die Logik Grundsätze
zu entwickeln, die beim Argumentieren zu beachten sind. Er nennt sie Axiome,
was man seither mit „Grundsätzen“ übersetzt. Zu seiner Zeit war „Axioma“
227
(ἀíWertvolles, Wichtiges) aber auch gleichbedeutend mit „Arché“, wonach
in aller Forschung als „Grund“, „Ursache“ oder „Prinzip“ gesucht wurde. Solche
Gründe oder Bedingungen wurden aber in der Regel nicht als Sätze formuliert,
sondern als Begriffe. Und so ist es auch bis heute eine offene Frage, ob seine
logischen Grundsätze nur logische Kategorien, also Grundbegriffe der Logik, oder
allgemeinste Sätze der Logik sind. Im letzteren Falle ist umstritten, ob es sich um
behauptende Grundurteile, um Definitionen oder um nichtbehauptende Sätze, z.
B. Imperative, Normen oder Regeln für Handlungsvollzüge handelt.
Je nach dem, was man hier annahm, ergaben sich später recht verschiedene
Logikkonzepte. Die übliche Darstellung als 1. Satz (oder Prinzip) der Identität, 2.
Satz (Prinzip) vom zu vermeidenden Widerspruch, und 3. Satz (Prinzip) vom ausgeschlossenen Dritten läßt nicht erkennen, ob es sich um Urteile über die Begriffe
Identität, Widerspruch und Drittes (wobei Identität ein Erstes, Widerspruch ein
Zweites wäre) handelt oder um Definitionen derselben. Das „zu vermeiden“ bzw.
„ausgeschlossen“ beim Widerspruch und beim Dritten klingt eher nach normativen Festsetzungen. Aristoteles äußert sich an verschiedenen Stellen im Organon
und in der Metaphysik über diese Axiome - allerdings ohne sie zu numerieren. Er
läßt dabei erkennen, daß er das Axiom über den Widerspruch für das „stärkste“
und wichtigste im argumentativen Gebrauch hielt. Er nennt es geradezu die
„Arché auch der anderen Axiome“.
Die logischen Axiome haben sämtlich einen Bezug zur Frage der Wahrheit und
Falschheit, wie aus dem Kontext der Formulierungen bei Aristoteles hervorgeht.
Und daß er mittels der Axiome über Wahrheit und Falschheit redet, läßt wiederum
erkennen, daß er die Logik insgesamt für ein Instrument der Prüfung von Wahrheit und Falschheit, ihrer argumentativen Herstellung und zugleich auch ihrer
Dissimulierung hielt.
Die herrschende Meinung in der Logik geht seither davon aus: Hielte man sich
strikt an die Beachtung der Identität, vermeide Widersprüche und lasse ein Drittes
(was als etwas, das nicht auf Wahrheit oder Falschheit festzulegen sei, interpretiert wird) nicht zu, so könne man nicht irren noch täuschen und befinde sich
auf dem sicheren Weg der Wahrheit. Dissimuliere man aber die Identität, führe
Widersprüche offen oder versteckt ein und lasse das Dritte zu, so irre man sich,
täusche sich und andere und gehe den Weg der Falschheit oder des „sophistischen“ Betrugs. Kurzum, diese drei Axiome begründen nach allgemeiner Auffassung die sog. zweiwertige Logik von Wahrheit und Falschheit und ihrer genauen
Unterscheidung. Und da Aristoteles das Axiom vom (zu vermeidenden) Widerspruch erklärtermaßen für das stärkste Prinzip hielt, geht man sehr allgemein auch
davon aus, daß jede Argumentation, in der sich ein Widerspruch aufdecken läßt,
allein dadurch insgesamt falsch sein müßte. Aristoteles ging auch davon aus, daß
Wahrheit und Falschheit sich ausschließlich in behauptenden Urteilen zur Geltung
brächten, weshalb man diese Axiome in der Hauptsache nur auf seine Urteilslehre
bezog.
228
Dazu ist nun kritisch einiges zu sagen. Hierbei sei auf das schon vorn im § 9
Ausgeführte hingewiesen.
Nimmt man die drei Axiome als oberste Grundsätze im Sinne behauptender Urteile über Wahrheit und Falschheit, so müßten sie formuliert werden: a. Alles
Identische ist wahr; b. alles Widersprüchliche ist falsch; c. alles Dritte ist weder
wahr noch falsch (und gehört daher nicht zur Logik).
1. Das ist Grundlage für eine herrschende Tendenz der ganzen Logikgeschichte
geworden Auf a gründet sich die Meinung, es gäbe überhaupt nur eine Wahrheit
(vgl. z. B. bei G. Frege), und alles genuin Logische sei tautologisch (vgl. z. B. L.
Wittgensteins „Tractatus logico-philosophicus“). Auf b beruft sich die entsprechende Meinung von der Falschheit. Daß es nämlich nur eine einzige und einheitliche logische Falschheit gebe, die sich ausschließlich im Widerspruch manifestiere. Dies begründet wiederum die Unterscheidung von formaler Logik im
Gegensatz zu inhaltlicher Argumentation, da man inhaltliche (und nicht-widersprüchliche) Falschheiten (Lügen, Irrtümer, falsche Sätze) überhaupt nicht logisch
kennzeichnen könne. Auf c wird einerseits der Ausschluß der fiktiven Literatur
(Dichtung, oft auch der „metaphysischen Erörterungen“) aus der logischen Behandlung begründet. Andererseits aber auch die Erweiterung der klassisch-aristotelischen Logik um eine „dreiwertige“ Logik, in welcher nun das Dritte gerade
zugelassen wird. Dreiwertige Logiken sind - wozu freilich Aristoteles schon
Ansätze geliefert hat - spezielle Modallogiken, insbesondere die sog. Wahrscheinlichkeitslogik.
Nun ist es allerdings die Frage, wie solche Axiome das leisten könnten, was
man von ihnen verlangt: Wenn jede Wahrheit mit sich selbst identisch sein soll,
(mit Leibniz und Frege wird auch behauptet, alle logischen Wahrheiten seien
untereinander identisch), so müßte das auch von der Falschheit gelten. Daß der
Widerspruch als solcher falsch wäre, hat nicht einmal Aristoteles behauptet. Er
behauptete nur, die in einem widersprüchlichen Satz verknüpften gegenteiligen
Behauptungen könnten weder zugleich und in gleicher Hinsicht wahr noch auch
zugleich und in gleicher Hinsicht falsch sein! Er sagt an einer Stelle sogar ausdrücklich: „Notwendig muß das eine Glied des Widerspruches wahr sein. Ferner:
wenn man notwendig jedes bejahen oder verneinen muß, so kann unmöglich
beides falsch sein; denn nur das eine Glied des Widerspruchs ist falsch“.120
Was das sog. Dritte betrifft, so kann man darunter - wie oben erwähnt - dasjenige verstehen, was weder wahr noch falsch ist. Man kann und sollte aber
darunter gerade auch dasjenige verstehen, was zugleich wahr und falsch ist. Dann
aber ist das Dritte selbst der Widerspruch. So gesehen, ist das Dritte eigentlich das
Zweite und es gibt daneben kein besonderes Drittes. Nimmt man das ernst, so
müssen sich die sog. dreiwertigen Logiken sämtlich als Logikkonzepte mit Zulassung des Widerspruchs (als vermeintlichem Dritten) erweisen lassen. Und das
120
Aristoteles, Metaphysik IV. Buch 8, 1012b 10-13. In: Aristoteles, Metaphysik, übers. von H. Bonitz, Hamburg 1966,
S. 90. Vgl. dazu auch J. M. Bochenski, Formale Logik, 3. Aufl. Freiburg i. Br.-München 1956, S. 73.
229
bedeutet nichts anderes, als daß solche dreiwertigen Logiken ausgearbeitete
Dialektiken sein müssen (vgl. dazu das schon in § 9 Gesagte).
2. Nimmt man die Axiome als Grundbegriffe, so sind sie für die Logik höchste
Gattungen (Kategorien). Man versteht dann zwar, daß sie nach Aristoteles‟
eigener Begriffslehre nicht definiert werden können, aber dies haben wir schon als
falsch bezeichnet. In der Tat hat er sich auch nicht um solche Definitionen
bemüht, und die Logiker sind ihm im allgemeinen darin gefolgt. Was er selber
darüber sagt, läßt sich gleichwohl zu klaren Definitionen benutzen, aber man wird
dabei über seine Andeutungen konstruktiv hinausgehen müssen.
Die Identität (Toiautes ύSelbigkeit) bezog er nur auf die Begriffe: sie
sollten in aller Kontextverwendung dieselben bleiben und nicht unter der Hand
(etwa als Homonyme) unter demselben Wort oder Zeichen verschiedene Bedeutungen besitzen. Da er aber die Begriffe als Einheiten ansah, bemerkte er nicht,
daß sich im Gattungs-Art-Unterart-Gefälle die Merkmale der jeweils oberen
Gattungbegriffe in den zugehörigen Arten und Unterarten in der Tat identisch in
allen unteren Begriffen gerade unter und hinter den verschiedenen Begriffsbezeichnungen durchhalten. Bemerkt hat er aber, wie sich in seiner Standarddefinition zeigt, daß alle Merkmale einer Gattung als „generische“ Merkmale in
den Merkmalsbestand eines definierten Artbegriffs eingehen. Die Identität läßt
sich in der Logik also gerade nicht auf ganze Begriffe beziehen, sondern nur auf
dieselben Merkmale in verschiedenen Begriffen. Und dies ist eine wesentliche
Bedingung dafür, daß das Spiel der Logik funktioniert. Wir können also definieren: logische Identität, d. h. der gemeinsame Merkmalsbestand von Ober- und Unterbegriffen im Allgemeinheitsgefälle der Begriffe.
Was den Widerspruch (Antiphasis ἀí) betrifft, so sollte man sich daran
erinnern, daß er zunächst einmal eine „Einrede“ oder Bestreitung eines Arguments
bedeutet, also dessen Negierung (oder wenn das Argument selbst ein negatives
war, so dessen positive Behauptung, wie schon im griechischen und auch noch
heutigen Gerichtsgebrauch). Ist das Bestrittene falsch, so kann das nur durch die
Wahrheit der Einrede bewiesen werden. Aber es kann auch umgekehrt ausfallen
(was das Gericht zu entscheiden hat). Auf keinen Fall wird man davon ausgehen,
daß der „Widerspruch“ im Sinne einer „Einrede“ von vornherein falsch ist, wohl
aber davon, daß eines von beidem, entweder das Bestrittene oder die Einrede,
wahr und dann das andere falsch sein muß.
Von dieser Sachlage ist auch Aristoteles ausgegangen, wie seine Beispiele
zeigen, die fast wie Mahnungen an die Richter klingen, niemals Anklage und
(bestreitende) Verteidigung gleichzeitig für wahr oder gleichzeitig für falsch zu
halten. Was diesen - auch heute noch vorhandenen - juristischen Widerspruchsbegriff vom logischen unterscheidet, ist nun dies, daß Aristoteles beide wohlunterscheidbaren und selbständigen Argumente einer Rede und einer Gegenrede in ein
einheitliches Satzgebilde zusammenfaßte und dieses als ganzes „Widerspruch“
nannte. Als einheitliches Satzgebilde ordnete er ein solches - komplexes - Urteil
aber in die Klasse der „adjunktiven“ (durch „und“ verbundenen) Urteile ein, von
230
denen er annahm (s. u.), daß sie falsch seien, sofern mindestens ein Bestandteil
falsch sei. Der Widerspruch im Urteil ist daher im aristotelischen Sinne ein
Spezialfall eines falschen konjunktiven Urteils, und so wurde er seither in der
Logik auch behandelt und immer als formale Gestalt eines falschen Behauptungssatzes eingeschätzt. Diese Einschätzung ist aber selbst - als eine offensichtliche
Petitio principii - die Folge der aristotelischen Voraussetzung, daß Behauptungssätze nur entweder wahr oder falsch sein könnten, und daß ein „Drittes“ in der
Logik nicht zugelassen sei.
Ohne diese Voraussetzung würde man derartige Behauptungen mit dem Volksmund schlicht „Halbwahrheiten“ oder auch „Halbfalschheiten“ nennen. Man hat
sicher auch ein entsprechendes Bewußtsein davon, daß es eine „logische Zumutung“ darstellt, gemäß dieser Zweiwertigkeitsvoraussetzung den offensichtlichen
wahren Teilgehalt solcher Und-Sätze und Widersprüche einfach zu unterdrücken,
wegzuleugnen und das Ganze für falsch zu erklären.
Die Sache wird auch nicht besser durch den Hinweis auf (neuere) Meta-Theorien der Semantik, die zwischen einer „objektiven Bedeutung“ (1. Semantische
Stufe) eines Prädikats und einer „Meta-Bedeutung“ (2. semantische Stufe) eines
aus zwei „objektiven Bedeutungen“ mittels Junktoren zusammengesetzten Prädikates unterscheiden und den eigentlichen Sinn eines solchen komplexen Urteils
dann nur an der Behauptung der Meta-Bedeutung festmacht. Denn offensichtlich
ist auch diese Meta-Bedeutung nur zu verstehen und zu denken, wenn die
„objektive Bedeutung“ ihrer Bestandteile (der 1. semantischen Stufe) ebenfalls
verstanden und gedacht wird. Und das erfüllt genau den Tatbestand, daß man
sowohl die Wahrheit wie auch die Falschheit zugleich und in gleicher Hinsicht
denken muß, also genau das von Aristoteles ausgeschlossene „Dritte“ vorstellt.
Natürlich gilt das alles - spiegelbildlich - auch von einer Oder-Verbindung von
Prädikatsbestandteilen mit einem Subjekt, die unter denselben Voraussetzungen
immer für wahr gehalten werden, wenn einer der Bestandteile wahr, und der
andere falsch ist. Darauf wurde schon in § 9 bei der Urteilslehre kritisch eingegangen. Definieren wir nun den Widerspruch im Sinne des Aristoteles, so müssen
wir formulieren: Widerspruch, d. h. ein Urteil mit einem Prädikatsausdruck, der
aus einem Prädikatsbegriff und seiner Negation in Und-Verknüpfung besteht, und
das zugleich wahr und falsch ist.
Da dieser Sachverhalt eindeutig ist, aber selber nur in widersprüchlicher Weise
definiert werden kann, versteht man, warum so viele Logiker dem ausweichen
möchten und den Widerspruch lieber als konventionelle logische Norm formulieren: Man soll ein (wie beschrieben komponiertes) Urteil, das zugleich wahr und
falsch ist, als falsches Urteil behandeln!
Wir entgehen allen diesen Schwierigkeiten, wenn wir uns erinnern, daß der
Widerspruch keineswegs nur an Urteilen mit Wahrheits- oder Falschheitsanspruch
auftritt, sondern auch an Begriffen. Aristoteles selbst hat dies wegen seiner
Annahme, Begriffe seien Einheiten, nicht bemerkt, wohl aber widersprüchliche
231
Begriffe verwendet und sogar formuliert. Aber heute gehören die „contradictiones
in adiecto bzw. in terminis“ zum festen Bestand logischer Elemente.
Niemand wird Begriffe als solche für wahr oder falsch halten, also auch nicht
widersprüchliche. Will man aber die Widersprüchlichkeit so allgemein definieren,
daß sie auch für Begriffe paßt, so muß man die Wahrheits- bzw. Falschheitsrelevanz dabei ganz aus dem Spiel lassen und zusehen, was sich daraus für die
Urteile ergibt. Wir können allgemein definieren: Widerspruch. d. h. logisches
Element, in welchem im bestimmten Negationsverhältnis zueinander stehende Begriffsmerkmale zu einem Begriff oder entsprechende Prädikationsbestandteile mit
einem Subjektsbegriff zu einem Urteil verknüpft werden.
Über das Dritte bräuchte eigentlich nichts mehr gesagt zu werden, wenn es mit
dem Widerspruch identifiziert bzw. gleichgesetzt wird. Identität und Widerspruch
beschreiben gewissermaßen binnenlogische Verhältnisse. Das Dritte könnte dann
allenfalls auf die ausdrückliche Abgrenzung der Logik von allem, was nicht der
logischen Betrachtung zugänglich ist, bezogen werden.
Der Spielraum dafür ist weiter, als man gewöhnlich denkt. Wenn die Logik sich
auf die Analyse von Wahrheit und Falschheit bezieht, so würde ersichtlich das,
was immer und nur wahr wäre und niemals falsch sein kann, nicht zur Logik
gehören. Und unterdrücken wir nicht die Feststellung, daß die meisten Logiker es
so mit den logischen Axiomen selbst gehalten haben, von denen sie seither
annehmen, sie seien immer wahr (und nach Kant „apriori“, was dasselbe bedeuten
soll), so daß sie weder logisch analysiert noch auch nur logisch diskutiert werden
könnten.
Ebenso würde das Immer-Falsche aus der Logik auszuscheiden haben. Und das
würde erklären, warum man „lauter Lügen“ und einem Lügengeflecht nicht allein
auf logische Weise beikommen kann. Auch ein so scharfsinniger Denker wie
Descartes hielt den „allmächtigen Lügengeist“ für ein Argument, das logisch nicht
zu hinterfragen sei. Im platonischen Sinne würden auch alle Dichtung und fiktive
Literatur (als Lügengeflecht) aus der Logik herausfallen, wenn sie nicht - wie
Aristoteles gelegentlich von der Dichtung sagte - als „höhere“ (und exemplarische) Wahrheit schon herausgefallen wäre. Aber dies Verdikt träfe die Dichtung
natürlich auch, wenn sie weder wahr noch falsch sein wollte oder sollte. Der
interessante Fall ist daher nur derjenige, der wiederum „wahr und falsch zugleich“
ist, der ja in widersprüchlichen Urteilen realisiert ist, wie gezeigt wurde.
Nun behauptet Aristoteles an einer Stelle in der Hermeneutikschrift (9, 19 a 39
- b 4), es sei klar, „daß es keineswegs notwendig ist, daß von den Gliedern eines
Widerspruchs gerade das eine wahr, das andere falsch sein müsse. Denn es verhält
sich bei dem, was schon ist, nicht ebenso, wie bei dem, was noch nicht ist“.121
Aristoteles begründet das damit, daß sonst alles „kausal“ determiniert sein
müsse. Z. B. müsse jetzt und heute schon feststehen, ob morgen eine Seeschlacht
bei Salamis stattfinden werde oder nicht. Diese „prognostische“ Determiniertheit
121
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 19 b. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 99.
232
lehnt Aristoteles ab, während die Stoiker im Anschluß an die Logikerschule von
Megara und insbesondere Diodoros Kronos - und in gewissen Grenzen auch
heutige Wissenschaft - sie behaupten. Es handelt sich in diesen Fällen um „Möglichkeiten“, und insbesondere in der Zukunft liegende (scholastisch „possibilia
futura“ benannt).
Man hat in dieser Behauptung des Aristoteles eine beschränkte Zulassung des
sonst ausgeschlossenen Dritten gesehen und darauf seine Begründung einer über
die grundsätzlich von ihm vertretene zweiwertige Logik hinausgehende dreiwertige Logik gestützt. Genau besehen handelt es sich aber um ein weiteres Argument des Aristoteles dafür, alle Aussagen über Möglichkeiten und insbesondere
die Prognosen über Zukünftiges aus der logischen Behandlung auszuschließen, da
sie nicht auf Wahrheit oder Falschheit hin entschieden werden könnten. Solche
Aussagen, das hat er sicher klar gesehen, sind zwar strukturell logische Widersprüche, aber in ihnen, so meinte er gleichwohl, könnten beide Teilaussagen
zugleich wahr oder auch zugleich falsch sein (eine These, die Kant für die Behandlung der „Antinomien der reinen Vernunft“ übernommen hat, und die in der
modernen „Paralogik“ wieder aufgenommen wurde).
Betonen wir, daß Aristoteles offenbar genau gesehen hat, daß dieses „Dritte“
auch die Struktur des Widerspruches hat. Nur meint er, daß es nicht dessen Wahrheits- und Falschheitsbedingungen unterliege. Das ist nachmals nicht festgehalten
worden. Vielmehr bildeten sich gegenläufige logische Traditionen des Umgang
mit diesem „Dritten“ aus. Die einen hielten sich daran, daß das „Dritte“ immer
falsch sei, nannten eine es verwendende Logik „Dialektik“ und verstärkten dadurch auch die Überzeugung derjenigen, die den Widerspruch überhaupt für
„immer falsch“ hielten. Sie versuchten seither, die Dialektik aus der Logik als
eine „Un-Logik“ auszuscheiden. Andere hielten sich daran, daß das Reden über
„Möglichkeiten“ und insbesondere eine Prognose „immer wahr“ sei (falsch nur
dann, wenn sie nicht logisch zünftig aus den wahren Prämissen abgeleitet wäre
und somit gar keine echte Prognose sei). Noch Kants Konzeption von den
„Möglichkeiten a priori“ zeugt von dieser Einstellung, und alle Transzendentalphilosophie setzt seither noch deren „apriorische Wahrheit“ voraus.
Daß es sich bei den Möglichkeitsbegriffen und den „modalen“ Möglichkeitsurteilen (Wahrscheinlichkeitsurteilen, statistischen Prognosen) um echte Widersprüche handelt, das wurde im Lauf der Zeit vergessen und verdient es heute
umso mehr, wieder in Erinnerung gebracht zu werden, um so manche Ungereimtheit in den logischen Grundlagentheorien, insbesondere den Wahrscheinlichkeitstheorien, aufzudecken (vgl. dazu das in § 10 und § 11 Gesagte).
c. Die Urteilslehre. Ein Urteil (behauptender Satz, Aussage, Protasis ó
Logos apophantikosóἀó) ist nach Aristoteles die Verbindung
von Begriffen mittels bestimmter Verbindungswörter (in der neueren Logik Junktoren bzw. Funktoren genannt).
233
Die Hauptverbindung stellen die Kopula „ist” (oder die Negation „ist nicht” im
Verhältnis eines Subjekts- zum Prädikatsbegriff) und das von Aristoteles bevorzugt verwendete „kommt zu“ (tygchanei ά, nämlich ein Prädikatsbegriff
kommt einem Subjektsbegriff zu) oder „kommt nicht zu“, her. Diese Art der
Begriffsverbindung macht diese im Unterschied und Gegensatz zu den Merkmalsverknüpfungen in Begriffen selber „wahrheits- bzw. falschheitsfähig”.
Da alle Wissenschaft darin besteht, wahre Urteile zu fällen und falsche Urteile
auszuscheiden, ist die Urteilslehre gleichsam das Zentrum wissenschaftlicher
Methodologie. Wahrheit von Urteilen besteht für Aristoteles darin, daß in ihnen
bejaht wird, was ist (der Fall ist, Sein hat) oder verneint wird, was nicht ist.
Ersichtlich folgt er gerade in der Urteilslehre dem parmenideischen Forschungsprogramm: den Weg der Wahrheit und des Seins zu bahnen, und den Weg der
Täuschung und des Nichts kenntlich zu machen und zu vermeiden.
Um wahre oder falsche Behauptungen aufstellen zu können, muß man nach
Aristoteles wissen, was in der Wirklichkeit der Fall ist. Die Wirklichkeit wird, wie
oben schon gesagt, durch wahre Sätze „abgebildet“. Falsche Sätze aber stellen
Nichtwirkliches im Bilde des Wirklichen (täuschend, d. h. Abbilder vertauschend)
dar. Die Begriffe bilden selbst schon Substanzen und ihre Eigenschaften und
Verhältnisse ab, ohne daß damit eine Wahrheits- oder Falschheitsbehauptung
verbunden wäre. Diese kommt erst durch die verknüpfenden (satzbildenden)
Junktoren zustande. Wie dies geschieht, ist sowohl für Aristoteles wie für die
meisten Logiker seither rätselhaft oder gar ein mystisch zu nennendes Geschehen
geblieben. Denn die Junktoren sollen, wie Aristoteles ja meint, selber keine eigene
Bedeutung haben, vielmehr eine solche erst im Behauptungssatz erhalten.
Es dürfte dieses Mysterium der Junktoren gewesen sein, das moderne Logiker
wie Frege und Wittgenstein dazu geführt hat, sogar auch den Begriffen selbst jede
Bedeutung abzusprechen und zu behaupten, sie erhielten auch ihrerseits erst eine
Bedeutung durch den Satz, in dem sie vorkommen. Daß das blanker Unsinn ist
und die Logik mit schwersten Irrtumshypotheken belastet hat, dürfte auf der Hand
liegen. Wir sagten schon, Sinn und Bedeutung der Junktoren hat Aristoteles aus
dem sprachlichen Sinn dieser Sprachpartikel mit in die Logik übernommen. Nur
hat er nicht erkannt, worauf sie sich in den logischen Verhältnissen tatsächlich
beziehen. Und dies hängt wiederum mit seiner Behandlung der Begriffe als Einheiten und der Verkennung ihres regulären Aufbaus aus Merkmalen und Umfängen zusammen.
Die Junktoren bedeuten in der Logik nichts anderes als die Verhältnisse, die
zwischen Merkmalen und Umfängen der Begriffe in Behauptungssätzen bestehen,
so wie sie mutatis mutandis auch die Verhältnisse zwischen sonstigen sprachlich
ausgedrückten Verhältnissen bedeuten. Aber diese Verhältnisse lassen sich in der
von Aristoteles erfundenen Formalisierung der logischen Verhältnisse nicht darstellen (wohl aber in der eingangs vorgestellten pyramidalen logischen Notation,
in der sich zeigt, daß auch unter den Junktoren einige Synonymien und Homonymien bestehen).
234
Nicht einmal der Hauptunterschied zwischen einfachen wahren und falschen
Urteilen läßt sich in der von Aristoteles eingeführten und seither grundsätzlich in
Geltung gebliebenen formalen Notation darstellen: „A ist B“ (oder aussagenlogisch: „p“ für ein positives Urteil) stellt nicht dar, ob damit ein wahrer oder falscher Satz gemeint ist, ebenso wenig wie „A ist nicht B“ (oder: „ - p“ für ein
negatives Urteil). Gleichwohl ist es das Bemühen und später der Wunschtraum
aller Logiker gewesen, durch die formale Notation selber mitauszudrücken, ob
damit dargestellte Urteile wahr oder falsch sind (auch dies leistet erst die
pyramidale Notation). Man muß es in einfachen bejahenden und verneinenden Urteilen zum Formalismus hinzusagen, ob mit solchen Formeln ein wahrer oder ein
falscher Behauptungssatz gemeint sei.
Dem Bemühen um die formale Notation wahrer bzw. falscher Sätze verdankt
sich aber offenbar der große Aufwand, den Aristoteles darauf verwendet hat,
wenigstens einige solcher logischen Figuren zu entdecken, die ohne Hinsicht auf
die Wirklichkeit und ein Wissen um diese aus „formalen logischen Gründen“
Wahrheit und Falschheit des notierten Urteils darstellen können. Im Zentrum steht
bei ihm und blieb seither die Figur des widersprüchlichen Urteils, das die ganze
spätere Logik für die formale Gestalt des falschen Urteils ausgab.
Wir haben eingangs schon über die Problematik dieser Festlegung gehandelt.
Sie besteht darin, daß der Urteilswiderspruch durch positive und negative Formulierung eines allgemeinen Urteils immer Wahrheit und Falschheit der Teilsätze
zugleich notiert. Man kann jedoch dieser Formalisierung nicht entnehmen, welcher Teilsatz der wahre und welcher der falsche ist, es sei denn, man wisse schon
vor der Formalisierung eines inhaltlichen Urteils um die wirklichen Verhältnisse,
die logisch formal dargestellt werden sollen. Nicht zuletzt ist auch in Betracht zu
nehmen, daß Aristoteles für die modalen Möglichkeitsurteile diese Funktion der
Wahrheits-Falschheitsdarstellung des Widerspruchs außer Kraft gesetzt hat, da
das Zukünftige eben nicht wirklich ist.
Daß das widersprüchliche Urteil in der ganzen Logikgeschichte als formale
Gestalt eines falschen Urteils behandelt wird, also die These von der „Falschheit
des Widerspruchs“, kann man bei dieser Sachlage nur als ein logisches Dogma bezeichnen. Es hat als nächste und verheerende Folge, daß bei logischer Kritik auf
Widersprüchlichkeit von Argumentationen in der Regel auch der wahre Teilbestand solcher Argumentationen als „falsch“ angesehen wird.
Die eigentliche Bedeutung der aristotelischen Urteilslehre, wie sie vor allem in
der Hermeneutikschrift des Organons entwickelt wird, liegt nun keineswegs darin,
überhaupt die logischen Urteilsformen formalisierend darzustellen und zu klassifizieren, wie es später zum Hauptgegenstand der Urteilslehre wurde. Vielmehr besteht sie darin, in einer sprachphilosophisch zu nennenden Weise sprachliche
Satzformen auf ihren Behauptungscharakter, der sie ja erst wahrheits- und
falschheitsfähig machen kann, zu überprüfen und sie von den nichtbehauptenden
Satzformen abzugrenzen.
235
Die Methode besteht darin, an inhaltlich-sprachlichen Beispielsätzen, die man
leicht als wahr oder als falsch anerkennen konnte, herauszuarbeiten, mit welchen
Junktoren sie gebildet wurden. Die interessanten Fälle waren natürlich diejenigen,
bei denen sich der „Wahrheitswert“ änderte, d. h. die Wahrheit in Falschheit und
umgekehrt vertauschte, wenn man dieselben Subjekt- und Prädikatsbegriffe durch
jeweils verschiedene Junktoren verknüpfte.
1. Die erste Einsicht war hier die Herausarbeitung der Rolle der Verneinung
bzw. Negation, die jedes allgemeine wahre Urteil in ein falsches verwandelt und
umgekehrt. Sie gab später Anlaß, die logischen Urteile unter der „Qualitätskategorie“ in bejahende und verneinende (positive und negative) einzuteilen.
2. Die Entdeckung der Quantifikation der Urteile (alle..., einige..., ein..., kein...,
jeweils auf Subjektbegriffe bezogen) war eine zweite folgenreiche Leistung. Sie
führte dazu, eine zweite Einteilung der Urteile nach der „Quantitätskategorie“
vorzunehmen, nämlich allgemeine, partikuläre und individuelle Urteile zu unterscheiden. Die Urteilsform: „Kein...“ behandelte Aristoteles als bedeutungsidentisch mit der Negation eines positiven allgemeinen Urteils.
Er bemerkte auch, daß sich bei den partikulären (und individuellen) Urteilen der
Wahrheitswert durch Negation nicht umkehren ließ. („Einige Lebewesen sind
Tiere“ erscheint als wahr, aber ebenso: „Einige Lebewesen sind nicht Tiere“,
nämlich auf Pflanzen bezogen, die ebenfalls „einige Lebewesen“ sind). Nach
seinen eigenen Voraussetzungen wären die partikulären Urteile wegen ihrer Unentscheidbarkeit eigentlich aus der Logik auszuscheiden gewesen. Das haben erst
die Stoiker bemerkt und sie deshalb auch konsequent aus der Logik herausgehalten. Weil Aristoteles sie aber in seinen Syllogismen häufig benutzt, wurden
die partikulären und individuellen „Urteile“ überhaupt als Urteile behandelt. Sie
trugen wesentlich zur Komplexität seiner Schlußlehre bei.
Da Aristoteles die Quantifikation für eine Bedeutungsmodifikation des Subjektsbegriffs hielt, durchschaute er nicht, daß man durch die Partikularierung (und
Individualisierung) tatsächlich den Subjektsbegriff durch einen unbestimmt bleibenden Art- oder Unterartbegriff innerhalb seines Umfangs ersetzt und zugleich
dessen generische Merkmale angibt. Das Prädikat liefert dann die spezifische
Differenz hinzu und definiert so den quantifizierten Begriff. Und dies kann wiederum nur bedeuten, daß die partikulären und individuellen Urteile überhaupt
keine behauptenden Urteile, sondern Definitionen sind, die nicht mit der Kopula
„ist“, sondern mit einem Äquivalenzjunktor zu formulieren sind: „Einige Lebewesen, d. h. Tiere / Einige Lebewesen, d. h. Nicht-Tiere“. Bei Definitionen aber
spielt der Wahrheitswert logisch deshalb keine Rolle, weil man bei ihrer Festsetzung frei ist.
Man kann hier schon anmerken, daß die Verwechslung der Kopula „ist“ mit der
logischen Äquivalenz (bzw. dem mathematischen Gleichheitszeichen, sprachlich
etwa durch „das heißt...“ wiederzugeben) seit Aristoteles in der Logik endemisch
geblieben ist und viele unnütze Logomachien nach sich gezogen hat.
236
3. Drei weitere von Aristoteles unterschiedene und erörterte Urteilsformen hat
man später unter der „Relationskategorie“ zusammengefaßt. Es sind die sogenannten konjunktiven (mit „und“-Verknüpfung zwischen den Subjekts- oder
Prädikatsbegriffen, auch Adjunktion genannt), die distributiven bzw. disjunktiven
(mit „oder“-Verknüpfung zwischen denselben) und hypothetischen bzw. implikativen (mit „wenn ... dann …-Verknüpfung zwischen Subjekts- und Prädikatsbegriff) Urteile.
α. Die konjunktiven Urteile beziehen mittels der Kopula oder mittels des „Zukommen“ mehrere Prädikatsbegriffe auf einen Subjektbegriff oder umgekehrt.
Subjekt oder Prädikat bestehen dann aus einem komplexen Ausdruck. Da Aristoteles komplexe begriffliche Ausdrücke als logische Elemente nicht eigens zum
Thema gemacht hat, berücksichtigt er dabei nicht, ob und inwiefern die im Prädikats- oder Subjektausdruck vereinigten Begriffe ihrerseits in einem logischen
Gattungs-, Art- oder Nebenart-Verhältnis zueinander stehen. Hätte er neben den
eigentlichen Begriffen auch die (komplexen begrifflichen) Ausdrücke berücksichtigt, so hätte dies ihm und der späteren Logik viele Mühen und Aufwand
erspart. Wohl aber berücksichtigt er, ob es sich um positive oder negierte Begriffe
handelt, die in diese Ausdrücke eingehen. Dabei stellt er fest bzw. er dekretiert,
daß ein konjunktives Urteil insgesamt falsch sei, wenn mindestens einer der durch
„und“ verknüpften Begriffe in ihnen, würde er alleine stehen, zu einem falschen
Urteil führen würde.
Wir haben uns hier vorsichtig ausgedrückt. Es sei aber bemerkt, daß man
anhand eines inhaltlichen Beispiels wissen muß, daß die Urteilsbehauptung auf
eines der Und-Glieder nicht zutrifft. Dann weiß man natürlich auch, daß alle
anderen im komplexen Ausdruck stehenden Begriffe „zutreffen“, d. h. zu einem
wahren Urteil führen. Man weiß also, daß ein konjunktives Urteil mit (mindestens) einem falschen (unzutreffenden) Gliede bezüglich der anderen Glieder
wahr ist. Und weiß man das (bei einem empirischen Beispiel), so weiß man
natürlich auch, in welchem Bestandteil solche konjunktiven Urteile wahr und/oder
falsch sind. Im üblichen inhaltlichen Sprachgebrauch würde man diese Bestandteile sofort unterscheiden, und eine dieses nicht unterscheidende Rede als
Halbwahrheit oder halbe Lüge bezeichnen. Dieses wird aber durch das aristotelische Dekret, daß konjunktive Sätze insgesamt als falsch zu gelten haben, wenn
mindestens ein Glied „falsch“ sei, in der Logik verhindert. Offensichtlich war es
eine Vorsichtsmaßnahme, die dann auch als Maxime: „Wer einmal lügt, dem
glaubt man nicht, und wenn er auch die Wahrheit spricht“ populär wurde. Durch
die Formalisierung aber wird gerade unsichtbar gemacht, welches gegebenenfalls
das falsche Glied ist. Und so wird auch dadurch vieles Wahre zum Falschen
erklärt.
Die Logik enthält jedoch keine Regeln, sich auch gegen halbe Lügen und halbe
Wahrheiten zu wappnen. An deren Stelle setzte Aristoteles das stärkere Prinzip
der Vorsicht, lieber die Wahrheit zu opfern, wenn sie mit noch so wenig
Falschheit gleichsam befleckt ist. Der Fall hat, wie man sieht, Ähnlichkeit mit
237
dem Widerspruch. Formal kann man die konjunktiven Urteile auch leicht als
Widersprüche konstruieren, wenn man ein Ausdrucksglied mit seiner Negation
verbindet. In diesem Falle wird zwar rein formal darstellbar, daß der falsche
Bestandteil des Urteils entweder im positiven oder negativen Glied (aber auch hier
ist logisch nicht entscheidbar, in welchem) liegt, gleichwohl gilt es insgesamt als
falsch.
Alles Gesagte aber setzt wiederum voraus, daß ein konjunktives Urteil sicher
dann wahr ist, wenn alle Glieder in gleichem Sinne als „wahr gelten“, und das
wiederum muß empirisch gewußt werden, so daß auch sein formales Notat als
wahres Urteil gilt. Und ebenso wird allgemein vorausgesetzt, daß ein konjunktives
Urteil falsch ist, wenn alle seine Glieder in gleichem Sinne als „falsch gelten“.
β. Die distributiven bzw. disjunktiven Urteile verbinden zwei oder mehrere
Glieder im Subjekt oder Prädikat mittels des „oder“ zu komplexen Ausdrücken.
Wie in der üblichen Sprache hat das „oder“ in vielen Fällen dieselbe Bedeutung
wie das „und“ und ist insofern mit ihm synonym. Deshalb kann man sehr oft
Sätze mit der Verbindungsfloskel „und/oder“ bilden. Die Sinnidentität bezieht
sich auf die Fälle, wo alle Glieder gemeinsam zutreffen und dann Wahres
ausdrücken, und wo alle Glieder gemeinsam nicht zutreffen und dann Falsches
ausdrücken. Spitzt man nun aber das einfache „oder“ (später lateinisch als „vel“
bezeichnet) zum „entweder ... oder“ (lateinisch „aut“) zu, so ergibt sich eine Sinndifferenz zum „und“.
Diese Art der Disjunktion nannte man später vollständige Disjunktion oder
Alternative. Alternativen sind Ausdrücke, die nur aus zwei gegensätzlichen (in
„vollständiger Disjunktion“ bzw. im Negationsverhältnis zu einander stehenden)
Gliedern zusammengesetzt sind, die ihrerseits einen Widerspruch bilden. Von dieser Art des „alternativen Widerspruchs“ dekretierte Aristoteles nun gerade das
Gegenteil des durch „und“ gebildeten Widerspruchs, und dies möglicherweise der
schönen Symmetrie wegen.
Ein alternatives Urteil sei demgemäß insgesamt wahr, wenn das eine Glied als
wahr und das andere als falsch gelte. Auch dieses aristotelische Dekret von der
Wahrheit der Alternative wurde in der Logik zu einem Dogma. Und ersichtlich
sind die Folgen ebenso verheerend wie diejenigen der dekretierten Falschheit des
Widerspruches. Denn wenn eine Alternative mit einem falschem Glied wahr ist,
werden die falschen Satzbestandteile, wenn man nicht weiß, welches Glied der
Alternative wahr und welches falsch ist, leicht unbesehen ebenfalls zu Wahrheiten
erklärt.
Auch die Alternative hat unter den logischen Urteilsformen eine seither bevorzugte Stellung gefunden, weil sie nach aristotelischer Festsetzung eine Notation
aus rein logischen Gründen immer wahrer Urteile erlaubt, die man ohne Hinblick
auf und ohne Kenntnis der Wirklichkeit behaupten könne, ebenso wie der
Widerspruch aus rein logischen Gründen als immer falsch gilt.
Dazu muß allerdings bemerkt werden, daß die Stoiker später auch für die Alternativen falsche Wahrheitswerte feststellten: sie seien dann falsche Urteile, wenn
238
beide Glieder zusammen wahr und auch wenn beide zusammen falsch seien (und
diese Festlegung ist in der neueren Logik kanonisch geworden). Abgesehen
davon, daß man dies wiederum empirisch am Beispiel wissen muß und die Alternative dadurch wieder ihren rein logischen Wahrheitsstatus verliert, wird man sich
fragen, ob das, was man hier für eine falsche Alternative hält, nicht vielmehr
keine Alternative ist.
Aristoteles hätte allenfalls den ersten Fall, daß beide Glieder zugleich wahr sind,
als möglichen Grenzfall zugelassen (man kann die oben zitierte Passage aus der
Hermeneutikschrift darauf beziehen), z. B. wiederum im Falle einer partikulären
Alternative: „Einige Lebewesen sind entweder Tiere oder nicht Tiere“, was offensichtlich beides wahr ist. Aber in diesem Falle würde es sich nach unserem Vorschlag wiederum nicht um ein behauptendes Urteil, sondern um eine Definition
handeln: „Einige Lebewesen, d. h. entweder die Tiere oder die Nicht-Tiere (Pflanzen)“.
γ. Die sogenannten hypothetischen Urteile verbinden Subjekt und Prädikat
durch „wenn ... dann...“. Dies kann auch zusammen mit der Kopula (oder mit „es
gibt“, welches Aristoteles als Kopula ohne Prädikat behandelte: „A ist“) oder mit
dem „Zukommen“ geschehen und stellt eigentlich dann erst klar heraus, daß es
sich um behauptende Urteile handeln soll. Man bemerke aber, daß in diesem Falle
nicht ein Urteil gebildet wird, sondern zwei Urteile miteinander verbunden werden, was dann schon zur Schlußlehre überleitet. Aristoteles hat reichlich davon
Gebrauch gemacht und wohl am meisten in dieser Urteils- bzw. Schlußform
argumentiert.
Werden nur Subjekts- und Prädikatsbegriff so verknüpft, so kann man sehr in
Zweifel sein, ob es sich um ein gemeintes Urteil oder um einen Ausdruck handelt,
der keinen Wahrheitswert hat. Wir sagten schon, daß Aristoteles selber logische
Ausdrücke als Begriffsverknüpfungen nicht thematisiert hat, und zwar, weil er das
Ineinandergreifen der Intensionen und Extensionen im Gattungs-Art-Unterartgefälle der Begriffe nicht durchschaut hat. In pyramidaler Notation wird dieses
sichtbar und erklärt unmittelbar anschaulich die Bedeutung der so gebildeten
Ausdrücke: „Wenn Gattung dann Art“ (Subsumption eines Artbegriffs unter seine
Gattung, formale Implikation), „Wenn Art, dann Gattung“ (Implikation des generischen Gattungsmerkmals im Artbegriff, materiale Implikation) und „Wenn
Art dann Nebenart“ (Korrelation von Artbegriffen unter gemeinsamer Gattung
oder auch unter verschiedenen Gattungen). Man sieht hier, daß das „wenn ...
dann...“ dreierlei Bedeutung annehmen kann, die jeweils die Verbindung von Gattung zur Art, von der Art zur Gattung und von einer Art zu einer Nebenart, d. h
die überhaupt möglichen Verhältnisse zwischen Begriffen, bezeichnen. Da
Aristoteles durch seine Formalisierung ganzer Begriffe (Wenn A dann B) diese
Strukturen geradezu verdeckt, erkannte er den logischen Grund dieser verschiedenen Bedeutungen des „wenn ... dann“ nicht.
Ein weiteres kommt hinzu. Da er das „wenn ... dann“ als Urteilsverknüpfung behandelte, bemerkte er auch nicht den Unterschied zwischen grammatisch behaup-
239
tender Form des „(immer) wenn ... dann“ und grammatisch nichtbehauptender
Konjunktivform „falls ... so wäre...“. Diese Nichtunterscheidung hat ihren Grund
in seiner Modallehre von den „Möglichkeiten“. Denn hier redete er ja selber ständig in hypothetischen Sätzen des „irrealen“ Typs: „Gesetzt den Fall daß..., so
wäre...“.
Erinnern wir uns nun daran, daß Aristoteles‟ Urteilslehre darauf abgestellt war,
durch wahre behauptende Urteile die Wirklichkeit abzubilden und falsche Urteile
als Abbildung von Scheinwirklichkeit (d. h. eigentlichem Nichts) kenntlich zu
machen und von den wahren Urteilen zu unterscheiden. Und das hätte dazu führen
müssen, die konjunktivischen Sätze, mit denen man Vermutungen formuliert, aus
der Logik auszuscheiden. Nur die (echten, behauptenden) Wenn ... dann-Urteile
(in Verbindung mit Kopula, Existenzjunktor „es gibt“ und „Zukommen“) kann
man auf ihre Wahrheit und Falschheit hin prüfen und unterscheiden.
Es ist klar, daß jede der oben unterschiedenen drei Implikationsformen jede für
sich in der geschilderten Anwendung wahre Urteile liefert, in jeder anderen aber
falsche. Aber diese Unterscheidung konnte Aristoteles nicht machen. Die unechten (eigentlich im grammatischen Konjunktiv zu formulierenden) „hypothetischen
Urteile“ (mit: „falls ... so wäre ...“) sind aber in allen Gestalten als falsche Urteile
einzuordnen. Denn man weiß ja, wenn man sie als Sätze formuliert und gebraucht,
daß die Wirklichkeit sich gerade nicht so verhält, wie sie es darstellen. („Falls
Sokrates Flügel hätte, dann würde er fliegen“ lautet ein in der Antike verbreitetes
Beispiel). Es wird jedoch in logischen Lehrbücher meist in der Behauptungsform:
„Wenn Sokrates Flügel hat, denn fliegt er“ kolportiert. Aristoteles ließ die Vermutungsform auch, ohne diesen grammatischen Unterschied zu beachten, als
falsche Urteile zu und übernahm von Philon von Megara (nicht mit dem späteren
Neuplatoniker Philon von Alexandria zu verwechseln) die Festlegung, „hypothetische Urteile“ mit zwei falschen Teilsätzen seien wahr.
Das kann man einen der erstaunlichsten Vorschläge nennen, die in der Logik je
gemacht wurden. Er ist umso erstaunlicher, als er nachmals undiskutiert als
Dogma festgehalten wurde. Er erlaubte es seither, in der Logik über alles und
jedes als „logische Möglichkeiten“ zu spekulieren und sich zugleich bewußt zu
bleiben, daß man sich dabei über alle Wirklichkeit in luftige „mögliche Welten“
begab, die aus lauter „kontrafaktischen“ Falschheiten gesponnen waren. Die Akzeptanz fiel den Logikern offenbar deshalb so leicht, als sie ja mit Aristoteles auch
den Widerspruch als falsch, wenn ein Teilsatz wahr, und die Alternative als wahr,
wenn ein Teilsatz falsch sei, angenommen haben. Warum also nicht auch die
implikative Urteilsform, in der beide Teilsätze falsch sind?
Da Aristoteles nun sowohl die aus wahren wie die aus falschen Teilsätzen zusammengesetzten hypothetischen Urteile für wahr hielt, blieb die Suche nach der
Form falscher hypothetischer Urteile bei ihm auf die Kombinationsform von
wahren und falschen Teilsätzen beschränkt. Man kann nur feststellen: er entschied
sich dafür, die Form mit falschem Vordersatz und wahrem Hintersatz ebenfalls für
wahr zu halten. Aus Falschem läßt sich in der Logik seither auf beliebige Wahr-
240
heiten schließen! Einzig die Form mit wahrem Vordersatz und falschem Hintersatz erklärte er – wiederum mit den Megarikern - für falsch. Auf Falsches kann
man seither aus beliebigen Wahrheiten schließen! Daß es sich auch dabei um
Dogmen der Logik handelt, die von Aristoteles und auch von Späteren in keiner
Weise begründet wurden, dürfte auf der Hand liegen. Sie erlauben es seither den
Logikern, ganze Bücher voller „hypothetischer“ Lügen für pure logische Wahrheiten zu erklären, gleichgültig, ob nun auch der einzige Endsatz (als Resultat
bzw. Konklusion) falsch oder zufällig wahr ist (Vgl. dazu die Interpretation des
„ex falso sequitur quodlibet“ und „verum sequitur ex quolibet“ in § 9).
In den Überlegungen zu den Urteilen finden sich auch die Ausgangspunkte für
das, was später als Modallehre ausgestaltet wurde und in der modernen Logik
geradezu als selbständige Disziplin auftritt. In der Hermeneutikschrift bemerkt
Aristoteles – vorangegangene Überlegungen zusammenfassend – „Bei gegenwärtigen und vergangenen Dingen muß also Bejahung oder Verneinung immer entweder wahr oder falsch sein ... Bei Einzelfällen ist es aber auch dann nicht mehr
ebenso, wenn sie in der Zukunft liegen. Denn wenn hier jede Bejahung oder
Verneinung entweder wahr oder falsch sein müßte, dann müßte auch alles mit
Notwendigkeit entweder eintreten oder nicht eintreten“.122
Man kann daraus entnehmen, daß Aristoteles die prognostischen Aussagen über
Zukünftiges (die possibilia futura) hinsichtlich ihrer Wahrheit oder Falschheit für
unentscheidbar gehalten hat. Das wäre eigentlich ein Grund gewesen, Prognosen
ebenso wie die konjunktivischen Vermutungen (was Prognosen in der Regel sind)
nicht für behauptende Aussagen zu halten und sie deswegen aus der Urteilslehre
auszuscheiden. Erst die Stoiker haben aber auf Grund ihres Universaldeterminismus auch Prognosen für echte Urteile mit Notwendigkeitscharakter gehalten
und in den Chrysippischen „Indemonstrablen“, den Schlußformeln (besonders der
ersten als „modus ponens“ und in der zweiten als „modus tollens“) dargestellt.
Und so dürften sie es gewesen sein, die die Unterscheidung von Notwendigkeitsund Möglichkeitsurteilen (sowie die Wirklichkeitsurteile als Beispielsfälle) zu
einer besonderen Modallogik ausgearbeitet haben.
Halten wir noch einmal fest, worauf es Aristoteles in der logischen Urteilslehre
ankam und womit er auch einige falsche Weichenstellungen in der Logikgeschichte initiierte.
1. wollte er diejenigen sprachlichen Satzformen feststellen, die durch ihren Behauptungscharakter Wahrheit und Falschheit - und nur diese - darzustellen erlauben. Das ist ihm nur teilweise gelungen. Zum einen blieb der Unterschied zwischen nichtbehauptender Definition (später als Äquivalenz meistens als behauptendes Urteil behandelt, so vor allem in der Mathematik der Gleichungen) und
eigentlichem Behauptungsurteil ungeklärt. Zum andern hat er unter der Form der
hypothetischen bzw. implikativen Urteile auch nichtbehauptende (im gramma122
Aristoteles, Hermeneutik /Peri Hermeneias (lat.: De Interpretatione) 18 a. In: P. Gohlke, Aristoteles, Die Lehrschriften,
hgg., übertragen und in ihrer Entstehung erläutert: Kategorien und Hermeneutik, Paderborn 1951, S. 94f.
241
tischen Konjunktiv auszudrückende) Satzformen in die Logik aufgenommen, wie
Vermutungen und kontrafaktische Hypothesen. Diese wurden seither auf seine
Autorität hin in der Logik als behauptende Urteile mit Wahrheits- bzw. Falschheitscharakter behandelt.
2. wollte er durch seine „Formalisierung“ mittels der Vertretung sprachlicher
Begriffe durch Variablen in den Urteilen von der faktischen Wirklichkeit abstrahieren und so die logische Urteilslehre als „allgemeine“ Theorie wahrer und
falscher Behauptungen begründen. Diese sollte nicht mehr an inhaltlich-sprachliche Behauptungsbeispiele gebunden bleiben, wenn sie diese auch jederzeit zur
Begründung und Erläuterung der formalisierten Urteile und ihres Wahrheitswertes
heranziehen konnte und auch tatsächlich so verfuhr. Dabei übernahm er aus der
konventionellen Sprachpraxis auch die Voraussetzung, behauptende Urteile zunächst und grundsätzlich als wahr zu behandeln, also ihnen einen Vertrauensvorschuß einzuräumen, es sei denn, daß ihre Falschheit (sprachlich: Lügenhaftigkeit, Irrtum) nachgewiesen oder logisch formal festgesetzt wird.
3. war er bemüht, die rein logischen Funktionen der logischen Junktoren herauszufinden, die es - ohne Rücksicht auf die Wirklichkeit und ihre Beispiele – erlauben, wahre Urteile in andere wahre, wahre in falsche, falsche in andere falsche,
und falsche wiederum in wahre umzuwandeln bzw. vom einen zum anderen
überzugehen. Dabei erkannte er nicht den Unterschied zwischen den ausdrucksund den satzbildenden Junktoren.
4. Seine Hauptentdeckung bezüglich der Junktoren dürfte die Rolle der satzbildenden Negation gewesen sein, die allgemeine wahre in allgemeine falsche
Urteile und umgekehrt umwandelt.
5. Sodann sah er eine wichtige Rolle der Quantifikation (von Subjektbegriffen)
darin, von allgemeinen wahren auf partikuläre (und individuelle) wahre Urteile
überzugehen (sogenannte Subalternation). Dies war ein verhängnisvoller und in
der Logikgeschichte folgenreicher Irrtum. Er bemerkte nicht, daß die Partikularisierung und Individualisierung keine Form behauptender Urteile, sondern eine
Definitionsform darstellt (vgl. dazu § 9).
6. Insbesondere wendete er die Implikation („wenn ... dann ...“) neben ihrer
Behauptungsfunktion (in Korrelationen und Kausalurteilen) auch auf hypothetische Urteile an. Sein Fehler dabei war es, die sprachlich-grammatische Vermutung in eine Behauptung umzumünzen. Seither gab und gibt es in der Logik keinen „Konjunktiv“. Und das bedeutet, daß in der Logik auch alle Hpothesen als
Behauptungen formuliert und mit Wahrheitswerten ausgestattet werden.
7. Um die Logik auch noch von jeder Rücksichtnahme auf empirische Beispiele
und deren Wahrheitswertvoraussetzung unabhängig zu machen, suchte Aristoteles
nach logischen Urteilsformen, die allein durch ihre Form einen bestimmten Wahrheitswert der Urteile darzustellen erlaubten. Er glaubte sie im Widerspruch als
Form reiner logischer Falschheit und in der Alternative als logische Form reiner
logischer Wahrheit gefunden zu haben. Manche seiner Ausführungen legen auch
die Vermutung nahe, daß er auch die sogenannten Äquivalenzurteile (und damit
242
die Definitionen bzw. die mathematischen Gleichungen) als Gestalten rein logischer Wahrheit angesehen hat, denn sie kommen als Prämissen oder Schlußsätze
in seinen Syllogismen vor.
Offensichtlich verstand er selbst den Übergang von der Empirie der Beispiele zu
den rein logischen Urteilsformen als genügende Begründung dafür, die logische
Falschheit des Widerspruchs und die logische Wahrheit der Alternative grundsätzlich von der (durch Negation gebildeten) inhaltlichen Wahr-Falschheit der
Teilsätze zu unterscheiden und abzugrenzen.
Die Logiker sind ihm mit den Stoikern darin auch durchweg gefolgt, und in der
neueren Logik wurde die semantische Meta-Theorie der Sinnebenen geradezu dazu erfunden, diesen Unterschied herauszustellen. Sie erlaubt seither den Logikern
zu argumentieren, daß so manches inhaltliche Satzbeispiel sachlich falsch, aber
seine formale Gestalt rein logisch wahr und umgekehrt sein könne. Wir haben
unsere Bedenken gegen diese Sicht der Dinge (und somit gegen die Homonymität
der Wahrheitswertbegriffe) schon in § 9 deutlich gemacht.
d. Die Schlußlehre. In der Lehre vom Schluß gipfelt die aristotelische Logik.
Sie ist zugleich Beweistheorie für die Wahrheit von Urteilen (oder für ihre Falschheit). So ist sie auch die Hauptmethodologie für die kritische Überprüfung sprachlicher Kontexte und für die Gewinnung neuer Urteile aus dem Kontext schon
vorhandener.
Ein Schluß (syllogismos ó, lat.: ratiocinatio, ratiocinium, discursus)
ist eine Verbindung von Urteilen derart, daß daraus ein neues Urteil gebildet werden kann.
Im einfachsten Fall gewinnt man nach Aristoteles aus allgemeinen Urteilen
durch Subalternation spezielle „partikuläre“ Urteile. Das hat man bis heutzutage
als „logisches Theorem der partikulären Urteile“ festgehalte. Es lautet: „Aus
einem allgemeinen Satz läßt sich ein partikulärer Satz ableiten, der dieselbe Qualität sowie dasselbe Subjekt und Prädikat hat.“ 123 Ein Beispiel dafür wäre: “alle
Menschen sind sterblich”, daraus folge: “einige Menschen sind sterblich” (und
„Sokrates ist sterblich”).
Wenn die Partikularisierungen jedoch tatsächlich wahre Urteile wären, müßte
man (als Gegenprobe) ebenso „wahr“ schließen können: „einige Menschen sind
unsterblich bzw. nicht sterblich“ (und auch: „alle Menschen außer Sokrates sind
unsterblich“). Aber abgesehen davon, daß die „Sterblichkeit“ in Logiklehrbüchern
noch nie als „dialektisches Prädikat“ erkannt worden ist (die Tote und Lebendige
zugleich umfaßt), zeigt sich an der „Gegenprobe“, die bei einer Partikularisierung
ebenfalls gefolgert werden kann, daß es sich nicht um Urteile, sondern um Definitionen dessen handelt, was als „einige“ und „ein“ nur unbestimmt ausgedrückt
wird und deshalb genauerer Bestimmung bedarf.
123
K. Ajdukiewicz, Abriß der Logik, Berlin 1958,S. 117.
– „Qualität des Urteils“ bedeutet bejahend oder verneinend.
243
Eine einfache Schlußform ist auch schon das hypothetische wenn … dann …Urteil. Wie oben dargelegt, erlaubt es einen einfachen Schluß von einem wahren
Satz auf einen anderen wahren Satz, und (die kontrafaktischen Vermutungen
einschließend) auch von einem falschen Satz auf einen falschen Satz, ja sogar von
einem falschen Satz auf einen wahren Satz. Nur der Übergang vom Wahren zum
Falschen wird dadurch als „unwahr“ bzw. unzulässig ausgeschieden.
Auch dazu ist zu bemerken, daß solche einfachen Schlüsse für praktische
Anwendungen gänzlich abwegig sind, wohl aber zu allen Zeiten einer phantastischen Spekulation Tür und Tor geöffnet haben, weil durch Aristoteles dazu eben
eine logische Schlußform als „wahrheitsverbürgend“ zur Verfügung stand. Was
davon zu halten ist, wurde schon in § 9 bei Gelegenheit der Kritik der „Aussagenlogik“ behandelt.
Interessanter und exemplarisch sind die syllogistischen Regelfälle, in denen aus
je zwei Urteilen ein neues drittes gebildet wird. Diese hat Aristoteles zum Gegenstand seiner Analysen gemacht und die Regel aufgestellt, nach denen dies zu
wahren oder falschen Urteilen führt. Die Hauptbedingung dabei ist, daß die
Ursprungsurteile (jeweils zwei Prämissen) einen Begriff gemeinsam haben (sogenannter Mittelbegriff). Und daraus erhellt schon, daß der „Schluß” im engeren
Sinne (conclusio), d. h. das daraus zu gewinnende Urteil aus den nicht gemeinsamen Begriffen der Prämissen-Urteile besteht. Charakteristisch für die aristotelische Syllogistik ist jedenfalls, daß in einem regelrechten Syllogismus nur drei
Begriffe vorkommen dürfen. Einer von diesen ist der Mittelbegriff, der im eigentlichen Schlußsatz herausfällt, so daß aus den beiden übrigen das Schlußurteil gebildet wird.
Für die Übersicht der möglichen Verbindungsweisen zog Aristoteles grundsätzlich die Stellung des Mittelbegriffs heran, nämlich ob dieser als Subjekt in der
einen und Prädikat in der anderen oder als Subjekt in beiden oder als Prädikat in
beiden Prämissen steht. Die Anordnung der Prämissen selber (die erste Prämisse
heißt Maior, weil ihr Prädikatsbegriff den „größeren Umfang“ haben soll, die
zweite Minor, weil ihr Prädikatsbegriff den „kleineren Umfang“ haben soll) geschieht so, daß die erste Prämisse immer das Prädikat zum Schlußurteil liefert
(falls es nicht als Mittelbegriff wegfällt); die zweite Prämisse das Subjekt (falls es
nicht als Mittelbegriff wegfällt). Es ist dabei zu beachten, daß Aristoteles meistens
die Formulierung mit „zukommen“ benutzte, z. B. „Sterblichkeit kommt allen
Menschen zu”. Die kopulative Formulierung wechselt aber Subjekt- und Prädikatstelle aus: „Alle Menschen sind sterblich”. Daher lassen sich seine sogenannten
Schlußfiguren sämtlich in beiden Formulierungen lesen: z. B.: „(alle, einige) M
sind P“ = „P kommt (allen, einigen) M zu“, usw. Legt man dies zugrunde, so
stehen I und II in spiegelbildlichem Verhältnis zu III und IV im Schema.
So ergeben sich die vier bekannten aristotelischen Schlußfiguren in der Anordnung gemäß der Stellung des Mittelbegriffs in den Prämissen:
244
Die vier aristotelischen Schlußfiguren
I. M-P
S-M
S-P
II. P-M
S-M
S-P
III. M-P
M-S
S-P
IV. P-M
M-S
S-P
(M= Mittelbegriff,
der im Schlußurteil
eliminiert wird).
In der logischen Literatur wird zwar allgemein angenommen, erst Galen habe die
IV. Figur herausgearbeitet. Aber das dürfte ein Irrtum sein, der auf der Nichtbeachtung der doppelten aristotelischen Formulierungsweise (mit Kopula oder
„Zukommen“) beruht.
Unter Berücksichtigung dessen, daß nach Aristoteles jedes Urteil wiederum bejahend oder verneinend und zugleich allgemein oder partikulär sein kann, ergeben
sich in jeder Schlußfigur acht mögliche Verbindungen zu neuen Urteilen, insgesamt also 256. Diese werden „Schlußmodus“ genannt. Von diesen fand Aristoteles 14 als gültige, d. h. aus wahren Prämissen immer zu wahren neuen Urteilen
führende heraus (noch heute ist jedoch die Zahl der gültigen Schlußmodi umstritten!). Diese abgeleiteten Schlußmodi, die auch einige Definitionen in der
Form partikulärer und individueller Urteile enthalten, durch Rückführung auf ihre
jeweilige Stammform, die o. a. Schlußfiguren, bewiesen zu haben, ist in diesem
Felde eine äußerst scharfsinnige Leistung des Aristoteles.
Die scholastische Logik hat nach dem Vorbild des byzantinischen Logikers
Michael Psellos (1018-1078 oder 1096 n. Chr.) für alle für gültig gehaltenen
Schlußmodi sehr sinnreiche Namen gebildet, aus denen man Bejahung und Verneinung sowie die Quantifikation der Subjektsbegriffe in den Prämissen direkt
entnehmen konnte. Sogar die Reduktionsregeln sind (durch die Konsonanten) in
den künstlichen Termini für die gültigen Schlußmodi durch die Scholastiker
mitbezeichnet worden. So wurde die logische Prüfung von Argumentationen ein
technisches Spiel, den Kontext in Schlüsse aufzugliedern, für diese jeweils den
Schlußmodus zu bestimmen, und diesen wiederum durch Rückführung auf die
Stammform zu „verifizieren”. Als Hauptstammform gilt dabei der (von den
lateinischen Scholastikern sogenannte) Modus Barbara: „Wenn alle A B sind,
und wenn alle B C sind, dann sind alle A auch C“.
Bei Aristoteles gilt nun für die Schlüsse das nämliche wie für die Urteile: auch
sie sind letztlich Begriffsverbindungen. Da Aristoteles noch nicht über den Schematismus der Begriffspyramide bzw. den porphyrianischen Baum verfügte, konnte er nicht sehen, daß alles Schließen auf einen Nachweis der Subsumtionsfähigkeit oder Nicht-Subsumtionsfähigkeit von Begriffen hinausläuft. Durch den
Mittelbegriff aber fand er ein ingeniöses Mittel für die Sicherung, daß die in den
Syllogismen vorkommenden Begriffe sämtlich im Verhältnis von Gliedern einer
überschaubaren Begriffspyramide mit gemeinsamer Gattung und dihäretischen
(disjunktiven) Nebenarten sowie einer Unterart stehen.
Aristoteles durchschaute nicht, wie wir sagten, daß die Quantifikation der in den
Syllogismen stehenden Subjektbegriffe zugleich den Übergang zu speziellen Art-
245
begriffen bedeutet. Z. B. „Einige Lebewesen“ können nur entweder „Tiere“ oder
„Pflanzen“ sein, wobei das eine zugleich auch die Negation des anderen darstellt
(„Tiere“ sind „Nicht-Pflanzen“, und umgekehrt sind „Pflanzen“ „Nicht-Tiere“).
Daher ist auch die Negation in den aristotelischen Syllogismen immer eine „bestimmte Negation“, die nur einen bestimmten Nebenartbegriff zu einem positiv
benannten Begriff negativ bezeichnet. „Kein Tier ist Pflanze“ bedeutet hier deshalb dasselbe wie: „alle Tiere sind nicht Pflanzen“. Man beachte, daß dies nur für
disjunktive bzw. dihäretische Beispiele gilt, was im Syllogismus vorausgesetzt
wird.
Wird nun ein solcher nur durch die Quantifikation (undeutlich) bezeichneter
Artbegriff unter der Gattung in einer der Prämissen auch explizit genannt, so
ergibt sich, daß im Schlußurteil (conclusio) nur festgestellt wird, welche von
beiden nur quantifizierend (extensional) bezeichneten Arten die zutreffende sein
kann. Z. B. wenn von „einigen Lebewesen“ in der einen Prämisse gesagt wird,
daß sie „nicht Tiere sind“, so muß das, was in der zweiten Prämisse über die
„Pflanzen“ gesagt wird, auch von diesen „einigen Lebewesen“ gelten, nicht aber
von den „Tieren“. Trifft das zu, so ist der Schluß wahr, wenn nicht, ist er falsch.
Aristoteles hat diese Formen offensichtlich durch langwieriges Erproben anhand
von Beispielen herausgebracht und sich dabei nur gelegentlich getäuscht. Und
offenbar immer dann, wenn er die Negation versteckterweise als unbestimmte
Negation benutzte und dadurch weitere undefinierte Begriffe (über die Zahl drei
hinaus) in einigen Syllogismen einführte.
Wie wir anderen Ortes herausgearbeitet haben 124 spielen alle syllogistischen
Modi in der Begriffspyramide derart, daß zwischen ihren bestimmten Teilen
(„Begriffspositionen in der Pyramide“) Urteilsverknüpfungen ausgesprochen bzw.
abgelesen werden. Hierbei lassen sich grundsätzlich nur drei Figurationen unterscheiden, die wir die „eigentlichen aristotelischen syllogistischen Figuren“ genannt haben.
Diese sind 1. Die Figur der „Leiter“, die ein Verhältnis von Unterart oder
Individuum-Art-Gattung bezeichnet.
2. Die Figur des „Risses“, die das (negative) Verhältnis zwischen zwei (disjunktiven) Nebenarten und der Unterart einer dieser beiden Nebenarten ausdrückt.
3. die Figur der „Spitze“, die das Verhältnis von zwei Nebenarten zueinander
und zur gemeinsamen Gattung thematisiert.
Notieren wir diese Verhältnisse als Ausschnitte aus einer dihäretischen Pyramide in pyramidaler Notation, indem wir die Begriffe durch Angabe ihrer generischen und spezifischen Merkmale am jeweiligen pyramidalen Ort eintragen,
so ergeben sich folgende Schemata, die wir schon in § 9 im systematischem
Zusammenhang vorgestellt haben:
124
L.Geldsetzer, Logik, Aalen 1987, S. 312 - 319.
246
Die drei Schemata der aristotelischen Syllogismen
1.
Leiter
2. Riß
3. Spitze
A
A
AB
ABD
AB
AC
AB
AC
ABD
Beispiel: A = Lebewesen; AB = Tier; AC = Pflanze; ABD = Hund
Liest man in diesen Schematen die Verbindungsstriche zwischen den Begriffspositionen von unten nach oben als Kopula („ist“, „sind“) und von oben nach
unten als „Zukommen“, die nicht bezeichneten Querverhältnisse aber als Negationen („ist nicht“, „sind nicht“), so wird man in allen Figuren alle wahren
Syllogismen-Modi ablesen. Bei Vertauschung dieser Lesungen aber jeweils falsche Modi. Beweise erübrigen sich, da dies wegen der Identität der Merkmale und
der mit dargestellten Quantifikationen unmittelbar abzulesen ist. Nach unseren
Ermittlungen ergeben sich insgesamt sieben Modi in der Lesung mit Kopula und
entsprechend auch sieben mit „Zukommen“, was zusammen 14 „gültige“ bzw.
wahre Schlußmodi ergibt. Dies ist auch die von Aristoteles festgestellte Zahl.
Bei den Syllogismen gilt ebenso wie bei den Urteilen, daß man zu ihrer Formalisierung schon ein inhaltliches Vorwissen über die wirklichen Verhältnisse besitzt, die durch die involvierten Begriffe und Prämissen-Urteilen formalisiert ausgedrückt werden. Ist das der Fall, so wird man die vorkommenden Begriffe in die
richtigen Gattungs-Art-Unterartpositionen einsetzen und ihre generischen und
spezifischen Merkmale richtig notieren. Dann und nur dann ergeben sich aus
wahren Urteilen wahre Schlüsse, und die Modi können als Prüf- und Beweismittel
für die Wahrheit dieser Schlüsse benutzt werden.
In dieser Hinsicht ist die Syllogistik auch jahrhundertelang als Hauptinstrument
der Logifizierung von empirischen Theorien benutzt worden, indem alle in ihnen
vorkommenden Begriffe hinsichtlich ihrer Stellung in der pyramidalen Allgemeinheitshierarchie geprüft und die urteilsmäßigen Verknüpfungsmöglichkeiten
zwischen ihnen expliziert wurden. In der Praxis geschieht dies auch heute noch
beim Ausbau von Theorien. Nur wird nach der neuzeitlichen Verschmähung alles
„Scholastischen“ streng vermieden, sich dabei auf die Syllogistik zu berufen. Sie
wird also eher untechnisch evoziert und benutzt.
Aber schon Aristoteles selbst und erst recht die Scholastiker verwendeten die
Syllogistik weit über den Bereich der Prüfung wissenschaftlicher Empirie auch
auf kontrafaktische Spekulation und ihre „Möglichkeiten“ an. Diese Verwendung
247
steht, wie wir schon bei den hypothetischen Urteilen zeigten, unter der Bedingung, daß als Prämissen manifest falsche Urteile eingesetzt werden und daraus
wiederum nach dem Schlußschema der hypothetischen Urteile auch von Falschem
auf Falsches gültig (bzw. „wahr“) geschlossen werden sollte. Diese Spekulationen
wurden zusätzlich durch die zwei scholastischen Maximen: „Ex falso sequitur
quodlibet“ und „Verum sequitur ex quolibet“ unterstützt. Von diesen wurde aber
schon in § 9 klargestellt, daß sie nur unter der Voraussetzung gelten können, daß
„Quodlibet“ (Beliebiges, d. h. Wahres oder Falsches) nur bei dialektischen Urteilen (die Wahres und Falsches zugleich enthalten) logischen Sinn macht.
Zweifellos war es eben diese spekulative Verwendungsweise der Syllogismen,
die sie in der Neuzeit in Verruf gebracht hat und auf Grund derer man ihnen, wie
Kant schrieb, eine „falsche Spitzfindigkeit“ unterstellt hat.
3. Die Architektonik der Wissenschaften
Nicht der geringste Beitrag des Aristoteles zur Wissenschaftsphilosophie war
seine Architektonik der Wissenschaften. Durch sie hat er zuerst auf die Voraussetzungszusammenhänge unter den Einzelwissenschaften und den philosophischen Disziplinen aufmerksam gemacht und damit allen nachfolgenden Wissenschaftsklassifikationen ein Muster aufgestellt. Und ersichtlich liegt es auch der
hier vorgeschlagenen Einteilung der Bereichsdisziplinen und Einzelwissenschaften (vgl. vorne § 2) noch zugrunde. Sein Einteilungsprinzip ist die menschliche
Erkenntnis- und Handlungsfähigkeit. Nach ihren Gegenständen und Produkten
teilt er die ganze Realität auf und die Wissenschaften zu:
A. Eigentlich theoretische (“spekulative”) Wissenschaften, in denen es um die
„reine Erkenntnis” des Seins und seiner Prinzipien geht. Diese sind:
1. Erste Philosophie bzw. Theologie (später Metaphysik genannt) als Wissenschaft von den ersten (bzw. letzten) Prinzipien (Ursachen) alles Seins, d. h.
vom Göttlichen.
2. Mathematik als Wissenschaft von den Zahlen und geometrischen Gebilden,
d. h. vom einzelnen “unbewegten” Seienden.
3. Physik als Wissenschaft vom “bewegten” Seienden in der toten, lebendigen
und seelischen Natur. „Physik“ als Naturwissenschaft schließt also Physik i. e.
S., sowie Biologie und Psychologie ein.
B. Praktische Wissenschaften, genauer Wissenschaften vom reinen und produktiven Handeln und seinen Bereichen. Diese sind:
1. Politik als Wissenschaft vom allgemeinen Guten im Staat bzw. in der Gesellschaft.
2. Ökonomik als Wissenschaft vom besonderen Guten der Hausgemeinschaft,
insbesondere der Produktion und Verteilung der „Güter“.
248
3. Ethik als Wissenschaft vom „guten“ (glückseligen) Leben durch „tugendhaftes“ Handeln des Einzelnen.
C. Schaffenswissenschaften (poietische Wissenschaften), genauer Wissenschaften
von den Produkten menschlichen Handelns. Dazu gehört alle Theorie des handwerklichen und künstlerischen Schaffens (heute allgemein „Technologie“ genannt). Aristoteles hat davon nur Umrisse der „Poetik” als Wissenschaft vom
dichterischen Schaffen, speziell der Tragödie, geliefert. Aber auch seine Rhetorik
als Technik der Herstellung und Manipulation von Meinungen und Überzeugungen kann hier zugeordnet werden. Man kann nach seinen Andeutungen und
mannigfaltigen Beispielen sehr wohl die folgenden „poetischen“ (= produktiven)
Disziplinen unterscheiden:
1. Lehre vom Handwerk als Disziplin vom Nachahmen und Üben praktischer
Herstellungsprozesse von Gütern ohne explizite Einsicht in ihre Prinzipien.
2. Kunstlehre als Disziplin vermischt handwerklicher und technischer Produktion.
3. Techniklehre als Disziplin theoretischen Wissens um die Prinzipien
der allgemeinen Produktionsbedingungen von Gütern und Werken.
Man muß freilich hinzufügen, daß Aristoteles in seinem Werk nur verstreut Hinweise auf eine solche Architektonik gibt. Diese sind aber von seiner Schule
alsbald in Richtung auf das vorliegende Schema ausgestaltet worden. Dabei traten
die Schaffenswissenschaften nicht mehr als selbständige Gruppe auf, sondern
wurden den Handlungswissenschaften zugeschlagen. So hat die aristotelische Tradition vor allem die Unterscheidung zwischen theoretischen und praktischen Wissenschaften verfestigt und an die Neuzeit überliefert. Vor allem durch Christian
Wolff ist sie im 18. Jahrhundert wieder geradezu populär geworden.
Die Logik erscheint hier nicht, obwohl doch gerade Aristoteles sie wie eine
Wissenschaft betrieben, aber nicht als Wissenschaft bezeichnet hat. Dies hat seine
Schule zum Anlaß genommen, sie als „Organon” (Hilfsmittel oder Methodologie)
allen Wissenschaften voranzustellen, was ebenfalls weite Nachfolge gefunden hat.
Ebensowenig erscheint Geschichte. Dies erklärt sich daraus, daß Aristoteles
einerseits das, was wir heute Historiographie nennen, unter die Poetik subsumiert
(sie liefert die Einzelheiten, aus denen die eigentliche Dichtung das Allgemeine
exemplarisch heraushebt). Andererseits hat er jeder Wissenschaft eine „Geschichte” (historia) als Faktenkunde der Einzelheiten ihres Bereichs zugeordnet, wie
vorne schon gezeigt wurde.
Auch für die Handlungswissenschaften bewährt sich das Vier-UrsachenErklärungsschema. Denn jede Handlung hat eine (schon durch die Handlungsverben bezeichnete) Form; eine Materie im menschlichen Körper mit der ihm
eingeschriebenen Handlungspotenz bzw. Fähigkeit; einen dabei Wirkenden; und
ein Handlungsziel. Im Vordergrund stehen dabei jedoch die Ziele und Zwecke des
249
Handelns, die durch vernünftige Überlegung (Phronesis ó, später „praktische Vernunft“ genannt) zu erkunden sind.
Im Falle der reinen Handlungen ergibt sich das Ziel der politischen Aktionen als
das Gemeinschafts- oder Staatswohl (bonum commune, „common wealth“); das
Handeln im familiären Haushalt (oikos ἶ) richtet sich auf die Prosperität der
Familiengemeinschaft; das individuelle „ethische“ Handeln auf das „gute Leben“
(Eu zen ὒῆ des Einzelnen. Dieses hängt wesentlich von der Kultur bzw.
Erziehung zum „theoretischen Leben“ ab, das erst in die Lage versetzt, die einzelnen Handlungsziele der „Mitte zwischen den Extremen des Zuviel und Zuwenig“
zu erforschen und sich diese als „Tugenden“(Arete ἀή durch Übung und
Gewohnheit zu eigen zu machen.
Die produktiven („poietischen“) Handlungen haben zum Ziel und Zweck die
Herstellung von Produkten und Werken, die den Reichtum und das zivilisatorische und Kulturniveau der politischen Gemeinschaft ausmachen.
Im Handwerk werden die darauf gerichteten Handlungen durch Nachahmung
(der Natur und des ausbildenden „Handwerksmeisters“) und ständige Übung
erworben.
In der Technik werden die Produktionsziele und die Mittel ihrer Erreichung
theoretisch erforscht und gelehrt. Die sonst schwer in die Handlungswissenschaften einzuordnende Rhetorik (Redekunst, rhetorike techne ῥὴέfindet
sachangemessen unter diesen produktiven Disziplinen ihren Platz. Denn sie
handelt nach Aristoteles über die Herstellung und Veränderungen von Meinungen
durch Reden, indem sie an Vergangenes erinnert, Gegenwärtiges beurteilt, und
Künftiges beratschlagt.
Die Kunst aber ergibt sich als offenes Feld der Kreation neuer Ziele und
Zwecke aus der Verbindung von handwerklichem Können und theoretischen Erwägungen.
Zusammenfassend kann man sagen, daß Aristoteles in großartiger Weise die Motive der vorsokratischen und platonischen Philosophie so zusammenfaßt, daß daraus ein für Jahrhunderte und z. T. bis heute tragfähiges Wissenschaftskonzept
entsprang. Es betont die Wichtigkeit und Unterscheidung von Empirie und Theorie in jeder Einzelwissenschaft, die Ursachenforschung als zentrales Anliegen
theoretischer Forschung, den Voraussetzungszusammenhang der Wissenschaften
und philosophischen Grunddisziplinen untereinander und in diesem Zusammenhang die Unabdingbarkeit einer letztbegründenden „ersten Philosophie” oder
Metaphysik, die gerade die Voraussetzungen der Einzelwissenschaften, die diese
nicht selber reflektieren, zum Thema nimmt. Eine Besinnung auf dieses und die
kritische Auseinandersetzung mit diesem Konzept kann auch in der gegenwärtigen Lage der Wissenschaftstheorie mancherlei Klärungen über das erbringen,
was als „naturwüchsig” erscheinendes Erbe und Besitz in die heutige Praxis der
Wissenschaft eingegangen ist.
250
§ 19 Euklid (um 300 v. Chr), seine „Elemente” und das Vorbild der Mathematik
Der platonische Charakter der „Elemente“ des Euklid als „dialektische Logik“. Vermeintliche geometrische Anschaulichkeit und tatsächliche Unanschaulichkeit sowohl der geometrischen wie der
arithmetischen Gebilde. Die geometrischen und arithmetischen „Definitionen“. Die Gleichung als
Ausdrucksmittel der mathematischen Argumentation. Bekanntheit und Unbekanntheit der Zahlen
und die Rolle der Buchstabenzahlen (Variablen). Die „Axiome“ als Definitionen. Die Theoreme
als Behauptungssätze. Die „Probleme“ als praktische Konstruktionsaufgaben und als Methodenarsenale. Die „Elemente“ und der philosophische „Mos geometricus“.
Die Mathematik war als Rechen- und Meßkunst in der antiken Welt schon zu
hoher Blüte gelangt, als die Philosophie noch in den Windeln lag. Doch haben
auch ihr die Vorsokratiker, besonders schon Thales und Pythagoras, wesentliche
Hilfestellung bei der Theoretisierung ihrer Praxis geleistet und Platon ihr eine
wesentliche propädeutische Funktion für die Philosophie und jede Wissenschaft
eingeräumt und zumal jede Naturwissenschaft auf sie verpflichtet.
Aristoteles hat ihr zwar unter den theoretischen Wissenschaften, die um ihrer
selbst willen zu pflegen sind, nach der Metaphysik den zweiten Rang eingeräumt,
ihr jedoch keine methodologische Bedeutung für andere Wissenschaften zugemessen. Nach seiner Auffassung gewann sie ihre besonderen Gegenstände durch
Abstraktion aus der sinnlichen Erfahrung: Zahlen und ihre Verhältnisse sowie die
geometrischen Gebildeverhältnisse sind für ihn Eigenschaften sinnlicher Dinge,
und zwar nur, soweit diese als unbewegte betrachtet werden, denn die Bewegung
und Veränderung (als Gegenstände der Physik) seien nicht mathematisch zu
erfassen. Da sie es mit einfachen und unveränderlichen Gegenständen zu tun habe,
könne die Mathematik nicht zur darstellenden Beschreibung und Erklärung der
veränderlichen Weltverhältnisse dienen. Und dafür konnte er sich wohl auf Zenon
von Eleia berufen, der ja paradigmatisch gezeigt hatte, wie die Anwendung der
statischen quantitativen Denkformen auf qualitative Sachverhalte und insbesondere auf Bewegungen zu unauflöslichen Paradoxien führt, die Aristoteles seinerseits zu „lösen“ sucht. Nicht zuletzt dieser Überzeugung verdankt sich wohl auch
der Eifer, den Aristoteles auf die Entwicklung der formalen Logik als einer
konkurrierenden Theorie qualitativer Denkformen – der Begriffe und ihrer urteilsund schlußmäßigen Verbindung – verwendet hat.
Man kann vermuten, daß Euklid nicht nur die aristotelische, sondern auch die
stoische Logik kannte, da er den stoischen Grundbegriff der „gemeinsamen angeborenen Ideen“ (koinai ennoiai κοινὶ ἔννοιαι) verwendet. Und daß er die aristotelische Logik gekannt haben wird, kann man schon deswegen vermuten, weil sie
zu seiner Zeit das methodologische Werkzeug in allen antiken Wissenschaften
geworden ist.
Daß die Zahlen und geometrischen Gebilde „Ideen“ seien, das hatte schon
Platons Ideenlehre behauptet. Daraus ergab sich das Programm, die Mathematik
insgesamt aus der Logik – als der Theorie der Ideenformen – abzuleiten. Dies
bleibt ein Bemühen aller platonisch und neuplatonisch inspirierten Philosophie.
251
Zuletzt ist sie im 19. Jahrhundert im Zeichen eines Neo-Neuplatonismus mathematischer Grundlagenforschung wieder verstärkt in Angriff genommen worden.
Aber solche Bestrebungen stehen auch jetzt noch weit hinter den umgekehrten
zurück, die Logik aus einer autonomen Mathematik zu begründen und herzuleiten,
wenn dieses Anliegen auch hinter oftmals gegenteilig lautenden Absichtserklärungen nicht so leicht erkennbar ist.
Daß die Mathematik schon so früh in die Lage geraten ist, als Urbild und
Vorbild einer abgeschlossenen Wissenschaft von höchster Stringenz, Kohärenz, d.
h. eindeutiger Beweisbarkeit aller ihrer Sätze und Inhalte, zu gelten, hat sie Euklid
zu verdanken. Von ihm ist bekannt, daß er um 300 v. Chr. unter Ptolemäus Soter
in Alexandria ein mathematisches Institut gründete, welches nachmals gute tausend Jahre bestand. Aus ihm sind danach fast alle bedeutenden Mathematiker der
antiken Welt hervorgegangen. Sein Hauptwerk, die „Elemente” (griech.: Stoicheiai í) ist das mathematische Lehrbuch des Abendlandes schlechthin
gewesen.125
Euklid faßte alle Errungenschaften der vorangegangenen griechischen Mathematik zusammen und verdrängte dadurch auch alle vorher bestehenden Werke,
von denen wir fast nur die Verfasser, die Buchtitel und mehr oder weniger ausgedehnte Partien und Referenzen kennen. Sein Werk, die „Elemente“, hat noch im
19. Jahrhundert dem Gymnasialunterricht als Lehr- und Textbuch gedient.
Neben den „Elementen“ ist von Euklid noch ein Werkchen erhalten, das den
Titel „Data“ trägt Daneben existiert eine in arabischer Bearbeitung überlieferte
Schrift über Teilungen.126
Das Werk „Elemente” ist, wie schon gesagt, nicht ohne Kenntnis der aristotelischen und auch der stoischen Logik entstanden. Darauf deuten neben den darin
vorkommenden Begriffen insbesondere die Anlage des Werkes, die - wie Aristoteles für alle Wissenschaften fordert - die Prinzipien als Voraussetzungen der
Disziplin streng von allem davon Abzuleitenden und von ihnen her zu Begründenden (als Theoreme) unterscheidet.
Der Haupthintergrund der „Elemente“ ist jedoch die Platonische Ideenlehre,
obwohl dies an keiner Stelle des Werkes explizit gesagt wird. Von ihr her müssen
wir voraussetzen, daß die genuin geometrischen und arithmetischen Gegenstände
als nur im Denken zu erfassende Gebilde aufgefaßt werden, die zwar durch sinnliche Symbolisierung „veranschaulicht“, aber niemals gänzlich und rein darzustellen sind. Darüber hinaus zeichnet sich das Werk durch einige Züge aus, die
den antiken Wissenschaftsbegriff nachhaltig bereicherten. Es ist ein Lehrbuch
„praktischer Wissenschaft” (nicht im aristotelischen Sinne Theorie der Praxis!)
125
Euklid, Die Elemente, Buch I-XIII, hgg. und. ins Deutsche übersetzt von Clemens Thaer, Darmstadt 1962, 479 S.;
Euclid‟s Elements of Geometry. The Greek text of J. L. Heiberg (1883-1885), edited and provided with a modern English
translation by Richard Fitzpatrick (13 Bücher), Internet 2008. Im folgenden wird zitiert nach: Euklid‟s Elemente, 15
Bücher, aus dem Griech. übers. von Joh. Friedrich Lorenz, neu hgg. von Carl Brandan Mollweide, 5. Aufl. Halle 1824.
126
Clemens Thaer, Hg.: Die Data von Euklid. Nach Menges Text aus dem Griechischen übersetzt und herausgegeben, mit
89 Figuren, Berlin/Göttingen/Heidelberg 1962, 73 S. Zu Euklids mathematischen Leistungen und seine weiteren Schriften
Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 1. Band, 3. Aufl. Leipzig 1907, S. 258 - 294.
252
und bringt ägyptisch-babylonische Meß- und Rechenkunst als Aufgaben- bzw.
Problemsammlung für geometrische Konstruktionen so zur Geltung, daß jedermann den unmittelbaren Nutzen dieser Wissenschaft für das Leben sehen konnte.
Wie der Philosoph bei Platon von der sinnlichen Anschauung ausgehend zur
„Ideenschau“ aufzusteigen hat, verwendet auch Euklid die sinnliche Anschauung
als didaktischen Ausgang für sein Lehrbuch. Von daher versteht sich, daß die
Geometrie mit ihren noch am leichtesten zu veranschaulichenden Gegenständen
die Propädeutik für alles weiter Behandelte darstellt, insbesondere auch für die
Arithmetik.
In dieser Hinsicht, die als unanschaulich geltenden arithmetischen Verhältnisse
aus anschaulichen geometrischen Verhältnissen zu demonstrieren, ist es für die
Lehre der Mathematik im Abendland richtungsweisend geblieben bis zur Renaissance, ja teilweise bis heute. Ein besonderes Raffinement der Darstellungsweise
bis in die Formulierungen des Textes besteht jedenfalls darin, dem Leser - und
sogar dem unvorgebildeten Schüler - den Eindruck zu erwecken, diese Veranschaulichung genüge zum vollkommenen Verständnis des Gesagten. Eben darum
hat es sich vor allem so lange als Schullehrbuch gehalten. Was an stillschweigend
vorausgesetzten platonischen Ideen und Lehrmeinungen darüber hinaus enthalten
ist, erschließt sich gewöhnlich erst dem zweiten und dritten Blick - und manchem
Leser überhaupt nicht, ohne daß dieser den Eindruck gewinnen müßte, er habe die
Sachen bei sonst genügender Aufmerksamkeit und gutem Gedächtnis nicht vollständig verstanden.
Der umgekehrte Weg, die Geometrie aus der Arithmetik herzuleiten und zu begründen und damit die sinnliche Anschauung zugunsten des „reinen Denkens” in
Zahlenverhältnissen gänzlich aus der Mathematik zu eliminieren, war vordem von
den Pythagoräern schon versucht worden. Er hatte sich jedoch mit ihren „rationalen” Zahlbegriffen als nicht gangbar erwiesen. Schon die arithmetische Berechnung der Diagonale im Quadrat und des Kreisdurchmessers im Verhältnis zum
Kreisumfang hatte die Pythagoräer auf die „Irrationalzahlen” geführt, bei denen
die Frage, ob es sich bei ihnen überhaupt um Zahlen handeln konnte, in der Antike immer umstritten blieb. Und die Benennung dieser Zahlen als „alogoi“ (ἄ
, eigentlich: „kein Verhältnis aufweisend“ bzw. „nicht mit gemeinsamem
Maße berechenbar, „inkommensurabel“) zeigt noch, daß sie dies als vernichtende
Niederlage des rationalen arithmetischen Denkens gegenüber den Phänomenen
der geometrischen sinnlichen Anschauung empfanden, in der ja auch irrationale
Verhältnisse, wie z. B. die Diagonale im Rechteck oder ein Kreis mit seinem
Durchmesser, leicht darstellbar sind.
Euklid definiert im 10. Buch, was rational (griechisch: rheton ῥή) und irrational (griechisch: alogon ἄ) bedeutet auf der Grundlage von Kommensurabilität und Inkommensurabilität von geometrischen Strecken. Derart entmutigt, wurde der Versuch, Geometrie von der Arithmetik her zu begründen, auch
erst durch Descartes im 17. Jahrhundert mit Erfolg im Programm seiner „analy-
253
tischen Geometrie” wieder aufgenommen, nämlich als man sich im Abendland
daran gewöhnt hatte, das Irrationale im Rationalen selbst zu verankern.
Der Aufbau des Werkes „Elemente” zeigt überall die glückliche Verbindung
von Theorie und Praxis. Die dreizehn Bücher (denen zwei weitere aus der Schule
beigesellt sind) beginnen fast alle mit einem „faktenkundlichen“ Teil, der in der
Gestalt von Definitionen die Grundlagen der ganzen Disziplin liefert. Daran
schließt sich jeweils ein Hauptteil mit „Problemen” als Konstruktionsaufgaben an,
zu deren Lösung aus den theoretischen Grundlagen zu folgernde „Lehrsätze”
(Theoreme) gleichsam als intellektuelles Handwerkszeug mitgegeben werden. In
diesen „Problemen“ und „Lehrsätzen“ stellt sich nun der ganze Reichtum mathematischen (geometrischen wie arithmetischen) Wissens dar, den man - nach
aristotelischer Wissenschaftslehre - als den eigentlich theoretisch-erklärenden Teil
der Mathematik ansehen kann.
Die meisten der Bücher (bzw. Kapitel) beginnen mit „Hypothesen” (wörtlich:
Unterstellungen, Voraussetzungen, in lateinischen Ausgaben als „Definitionen“
übersetzt). Sie benennen und definieren (im 1. bis 4. und 11. bis 13. Buch) die
geometrischen und (im 5. bis 10. Buch) die arithmetischen Gebilde. Darin darf
man gewiß den nach Aristoteles zu fordernden faktenkundlichen Teil dieser
Wissenschaft sehen. Nur handelt es sich dabei um Fakten, Elemente, Gebilde, die
- anders als die aristotelischen sinnlich-empirisch zu beschreibenden Substanzen gerade nicht sinnlich-anschaulich gegeben, sondern im Denken erfaßt werden
sollen.
Es sei betont, daß dies auch für die so anschaulich erscheinenden geometrischen
Gebilde gilt. Auch für diese, erst recht aber für die arithmetischen Gebilde, ist der
Ausgang von der Anschauung zwar „didaktisch“ notwendig, aber nicht hinreichend. Man hat ja später oft und in der Moderne ganz besonders die angeblich
allzu schlichten, ja ungenügenden und irreführenden „Definitionen“ bespöttelt und
sie durch „Beliebiges“ (wie D. Hilbert in seiner Axiomatik) ersetzen wollen. Und
dies vor allem in Verkennung eben dieser Voraussetzung, daß sie keineswegs „anschauliche“ Gegebenheiten beschreiben, sondern Hinweise für ihr über die
Anschauung hinausgehendes denkerisches Erfassen als „Ideen“ geben sollten.
Man hat sich hier wieder an die durch Platon von Demokrit übernommene Lehre
vom Denken in Modellen zu erinnern, die dabei zum Tragen kommt: Das Modell
gibt den sinnlichen Ausgang, aber das eigentlich zu Denkende ist gerade nicht im
Modell darstellbar. Wie dies eigentliche Denken dabei funktioniert, ist freilich
immer das große Geheimnis der Platoniker - und auch der „überanschaulich denkenden“ Mathematiker - geblieben. 127 Wir können dazu nur weiter unten einen
Erklärungsvorschlag machen. Betrachten wir das an den geometrischen und anschließend an den arithmetischen Beispielen etwas ausführlicher.
127
„Wenn wir heute in unseren besten Theorien die Grenzen unseres anschaulichen Denkens überwinden können, dann
nicht zuletzt deswegen, weil der Rückgriff auf die Anschauung so entschieden aus den Beweismethoden der Mathematik
verbannt wurde“. N. Froese, Die Entdeckung der axiomatischen Methode durch Euklid, im Internet, Stand 30. 8. 2015, S. 4.
254
Das erste Buch der Elemente beginnt mit seinen „Definitionen“ bzw. „Hypothesen“ folgendermaßen:
„1. Ein Punkt ist, was keine Teile hat. 2. Eine Linie aber ist eine Länge ohne Breite. 3. Das
Äußerste einer Linie sind Punkte. 4. Eine gerade Linie (Strecke) ist, welche zwischen den
in ihr befindlichen Punkten auf einerlei Art liegt. 5. Eine Fläche ist, was nur Länge und
Breite hat. 6. Die Enden einer Fläche sind Linien. 7. Eine ebene Fläche ist eine solche, die
zu den geraden Linien auf ihr gleichmäßig liegt. 8. Ein ebener Winkel ist die Neigung
zweier Linien gegen einander, die in einer Ebene zusammentreffen, ohne in gerader Linie
zu liegen“. 9. - 12. definieren verschiedene Winkel. „13. Grenze heißt, was das Äußerste
eines Dinges ist. 14. Figur, was von einer oder mehreren Grenzen eingeschlossen wird.”
usw. über Kreis, Dreieck, Polygone bis zum berühmten Satz über Parallelen: „35. Parallel
sind gerade Linien, die in derselben Ebene liegen, und, soweit sie auch an beiden Seiten
verlängert werden, doch an keiner Seite zusammentreffen”.
Im 11. Buch definiert Euklid auf die gleiche Weise (und unter anderem) die geometrischen
„Körper” als das „was Länge, Breite und Tiefe hat”. Darunter kommt auch die „Kugel”
(Sphaera ĩ) vor, von der es heißt (Nr. 14:) „Eine Kugel ist der Körper, welchen ein
Halbkreis beschreibt, der sich um seinen unverrückten Durchmesser einmal ganz herumdreht”.
Bei diesen Definitionen der geometrischen Gebilde handelt es sich um dialektische Bestimmungen. Unter deren spezifischen Merkmalen wird mindestens eines
in positiver und zugleich negierter Weise angegeben. Auf letzteres weist die
häufig explizite negative Formulierung hin. Wir sagten von ihnen, daß so definierten Begriffen nichts in der Wirklichkeit entspreche (sie haben keine eigene
Extension). Wohl aber entspricht ihren Komponenten, nämlich getrennt den
positiven wie auch den negativen, etwas in der Wirklichkeit. Hier kommen sie
nun als Gegenstände des platonistischen „dialektischen“ Denkens wieder zur Geltung. Zeigen wir das an den oben zitierten Definitionen.
1. „Punkt ist, von dem kein Teil (existiert)“ (Semeion estin, hou meros ouden
ζημεĩον ἐζηὶν οὗ μέρος οσδέν). Das läßt sich recht anschaulich verstehen, wenn
man den Punkt wörtlich als ein „Zeichen“ versteht, das dann kein Zeichen mehr
ist, wenn man ihm einen Teil wegnimmt. Das heißt, es muß „unteilbar“ sein. Das
„ist“ aber muß als Äquivalenzjunktor gelesen werden, also als Definitionszeichen
bzw. mathematisches „ist gleich“ („=“). Anders formuliert: „Punkt = nicht teilbares Etwas“.
Drückt man mit spitzem Schreibgerät einen Punkt auf eine Unterlage, so wird
man in der Tat keine Teile unterscheiden können. Das teillose Etwas hat dann
„keine Teile“, wie die sinnliche Beobachtung lehrt. Demokrit hat ein derartiges
Gebilde „Atom“ (ἄηομον, Unteilbares, lat. individuum) genannt“, und jeder Grieche mußte das verstehen. Aber derselbe Demokrit nennt seine Atome auch insgesamt „das Volle“ (pléres πλήρες) im Gegensatz zum „Leeren“ (kenón κενóν).
Um das Leere zu füllen, müssen die Atome eine gewisse Ausdehnung besitzen.
Demokrit spricht deshalb von unterschiedlichen „Größen“ der Atome. Und gerade
dies geht aus Euklids Sätzen Nr. 3, 4 und auch 7 hervor. Punkte liegen „in der
255
Linie“, „begrenzen Linien“ und „liegen in Linien in der Fläche“. Liegen Punkte in
den Linien, so müssen sie zumindest an deren Ausdehnung in einer Richtung
„teilhaben“ (wie Platon dies nannte). Und das wird in der Geometrie als Schnittpunkt von Linien dargestellt. Diese Ausgedehntheit der Punkte wird in der Euklidischen Definition unterschlagen, aber beim geometrischen Umgang mit Punkten
vorausgesetzt, wenn die genannten Sätze einen verständlichen Sinn haben sollen.
Beide anschaulichen, aber sich ausschließende Sachverhalte sind nun im geometrischen Begriff des Punktes zusammengeführt und machen seinen dialektischwiderspruchsvollen Charakter aus. Was aber die „Idee“ des Punktes ausmacht, so
ist sie im platonischen Sinne nur zu denken. Sie drückt sich keineswegs in einem
graphischen Bilde aus. Dasselbe Verfahren der kontradiktorischen Begriffsdefinition kommt nun auch, wie gezeigt werden soll, bei den meisten übrigen Definitionen zum Tragen. Konzentrieren wir uns bei den übrigen Gebilden aufs Wesentliche:
2. Die „Linie“ (γραμμή) hat als „breitenlose Länge“ sowohl Breite - um als gezeichneter Strich oder gespannte Schnur gesehen zu werden - als auch NichtBreite - um als Strich zwar veranschaulicht, aber nicht eigentlich dargestellt zu
werden. Was Nicht-Breite anschaulich bedeuten kann, sieht man an flachen Dingen wie Blättern und Häuten, wenn man sie von der Seite betrachtet, aber nicht an
Linien.
3. „Endpunkte“ von Linien haben als Teile der Linie Längenausdehnung, als
Punkte zugleich auch nicht.
4. Die „Geradheit“ einer Linie ist ein „Gleichmaß“ der Längen-Erstreckung
zwischen allen Punkten in ihr: Die Linie enthält also interne „Endpunkte“ und
zugleich auch nicht. Was „Gleichmaß“ ist, wird gerade nicht definiert. Ersichtlich
gilt diese Definition auch für gleichmäßig gekrümmte Linien, etwa einer Kreislinie, die zu allen Punkten auf ihr „gleichmäßig liegt“.
Es ist daher ein falsches Argument der sog. nichteuklidischen Geometrien gegen
den Euklidismus, dieser habe die „Geradheit“ als „Nichtkrümmung“ vorausgesetzt. Gerade die Dialektik der euklidischen Definition von Geradheit erlaubt es
- und hätte es auch den antiken Geometern schon erlaubt - die „Geradheit einer
Linie“ als „stetige bzw. gleichmäßige Krümmung“ zu verstehen. Galilei hat die
„horizontale Linie“ (die mit der Erdoberfläche gleichmäßig gekrümmt ist) als
„gerade Linie“ bezeichnet. Und daß Bolyai, Lobatschewski, Gauß und Riemann
gerade dieses Krümmungs-Verständnis der Geraden als Erweiterung und Verallgemeinerung der Geometrie durch die „nichteuklidische Geometrie“ entwickelten,
erweist die Fruchtbarkeit des Euklidischen Verfahrens der dialektischen Definitionen und seine in der Mathematik fortwirkende Aktualität.
5. Eine „Fläche“ sieht man an jedem flachen Gegenstand von vorn und hinten.
Daß sie „nur“ Breite und Länge, d. h. „keine Tiefe“ hat, sieht man nicht, wenn
und solange man die Fläche betrachtet. Wohl aber sieht man, was gemeint sein
kann, wenn man den flachen Gegenstand von der Seite betrachtet. Dann aber sieht
man eben die Fläche nicht. Zusammen kann es nur „gedacht“ werden.
256
6. Die Begrenzung einer Fläche gehört als Linie sowohl zur Fläche als auch
nicht, denn als Flächenbegrenzungslinie hat sie sowohl Breite (als zur Fläche
gehörend) als auch nicht (als nicht zur Fläche gehörend).
7. Die ebene Fläche enthält zugleich Linien als auch nicht. „Gleichmäßig
liegen“ (der Linien) wird aber wie im Falle der Geraden gar nicht definiert und
gilt daher auch für sogenannte nichteuklidische Flächen, die daher ebenfalls auf
den euklidischen Begriff der Flächen rückführbar sind.
8. - 12. Für die Winkeldefinition wird nur auf das Verhältnis („Neigung“) sich
schneidender Linien abgestellt, nicht aber auf die sich zwischen den Schenkeln
erstreckende Fläche, die gar nicht genannt und auch später nicht definiert wird.
Man muß sie „hinzudenken“. Bei der Bestimmung der Winkelgröße (rechter
Winkel, stumpfer und spitzer Winkel) ist es umgekehrt. Schenkelneigung und die
eingeschlossene Fläche – wohlgemerkt, sie wird nicht definiert und muß doch
vorausgesetzt werden, denn ohne sie kann nicht von Winkelgrößen die Rede sein können nur getrennt gesehen, müssen aber als Einheit gedacht werden.
13. „Grenze“ - ein schon vorsokratischer Begriff (péras έdas Gegenteil
von ápeironἄInfinites, Unendliches)mit weit über die Mathematik hinausreichender Bedeutung - gehört als das, „worin etwas endet“ zugleich der begrenzten Sache an und auch nicht, wie schon bei den Endpunkten der Linie und
den Begrenzungslinien der Flächen gesagt wurde.
14. Umgekehrt ist daher auch jede „Figur“ das von ihrer Grenze Umschlossene.
Die Grenze gehört jeweils dazu und zugleich auch nicht.
Der Leser mag die übrigen geometrischen Figuren auf ihre Dialektik hin selbst
überprüfen. Sie spielt vor allem damit, daß die bisher definierten Begriffe
wiederum als Merkmalsbestände in diesen verwendet werden.
Betrachten wir aber auch noch die berühmte Parallelendefinition (Nr. 35).
Abgesehen von der Unklarheit der Merkmale „gerade“ und „in derselben Ebene
liegen“, was ja auch für die sogenannten nichteuklidischen Ebenen paßt, wird das
„nicht einander Treffen, soweit sie auch an beiden Seiten verlängert werden“ als
spezifisches Merkmal der Parallelen ausgewiesen. Was „gleicher Abstand zwischen geraden Linien“ bedeutet, sieht man ohne weiteres in der Nähe (etwa an
geraden Eisenbahn-Gleisen). „Verlängern“ lassen sich solche Linien auf dem
Papier oder auf einer Landebene, soweit es eben praktisch geht. Aber was man auf
einige Entfernung an solchen Verlängerungen sinnlich wahrnimmt, ist, daß sie je
weiter desto mehr zusammenlaufen. Das „in der Verlängerung“ gerade nicht
Wahrzunehmende (daß die Parallelen gleichen Abstand bewahren) ist also so zu
denken, wie es in der Nähe gesehen wird und nicht, wie es in der Ferne gesehen
wird. Der dialektische Witz bei der späteren Diskussion des Parallelenbegriffs
liegt nun gerade darin, daß die weitere Entwicklung der Parallelentheorie dies
„Nichttreffen“ im unendlich Entfernten genau nach der sinnlichen Erfahrung des
„Treffens im entfernt Wahrnehmbaren“ behandelt: Die Parallelen, die sich im
Endlichen nicht treffen, treffen sich gerade und nur im Unendlichen!
257
Daß hier die geometrischen Grundsachverhalte „dialektisch“ definiert werden,
kann nur aus der Voraussetzung der platonistischen These erklärt werden.
Nämlich daß durch die Veranschaulichung gerade nicht das ideelle Wesen dieser
Gebilde darstellbar sei. Denn es liegt ja auf der Hand, daß etwa die aristotelische
oder stoische Sicht dieser Gebilde ausschließlich auf ihre schlichte Anschaulichkeit verweisen würde und sie durchweg „nicht-dialektisch“ definiert hätte.
Es wären Definitionen dabei herausgekommen, die George Berkeley später für
den „Punkt“ mittels seines „Minimum sensibile“ vorgenommen hat, und die
durchaus für die Praxis genügen und dem Verständnis nach herkömmlicher logischer Begriffsbildung entsprechen. Dann ist nämlich der Punkt eben das gerade
noch Sichtbare einer minimalen Fläche (was jedermann als den berühmten Fliegendreck kennt), und die Linie der Rand einer Fläche, die von der Seite her gesehen wird; die Fläche selbst aber das, was man von einem bestimmten Standpunkt
aus an Körpern sieht, während Körper ihrerseits überhaupt nicht als solche gesehen werden, sondern nur sinnlich ertastete Erfahrungsgebilde sind.
Die epochale Erfolgswirkung der euklidisch-platonischen Definitionen besteht
aber gerade darin, daß sie diese Merkmale eben mitenthalten und durch sie an die
Anschauung (und Betastung) des Praktikers appellieren und sich ihr verständlich
machen können, während sie dem eingeweihten „Denker“ noch viel mehr und
zum einen oder anderen gerade das Gegenteilige vorzustellen aufgibt.
Dies zu bemerken ist schon deshalb wichtig, weil die herrschende Meinung in
der Mathematik spätestens seit der Neuzeit mathematische Definitionen grundsätzlich für widerspruchslos hält und deshalb auch im Rückblick bei den euklidischen Definitionen allenfalls Schlichtheit, Fahrlässigkeit, Adaptation an das
Verständnis von Anfängern und alles mögliche andere eher annimmt als explizit
definierte Widersprüchlichkeit. Und da man nicht damit rechnet, setzt man eben
auch die Nichtwidersprüchlichkeit der mathematischen Begriffe in Euklids
Elementen voraus und hat sich längst daran gewöhnt, mit ihnen so umzugehen, als
ob sie tatsächlich widerspruchslos seien. Tauchen dann bei ihrer Verwendung in
Theorien und Theoremen Widersprüche auf - und sie sind in allen Teilen der
Mathematik eine immer wieder auftretende Herausforderung - so wird das nicht
auf die Dialektik der Begriffe, sondern auf ihre angebliche Unklarheit oder falsche
deduktive Satzbildung u. ä. zurückgeführt.
Kommen wir nun zu den arithmetischen Gebilden und weisen ihre „Dialektik“
bzw. ihren kontradiktorischen Charakter nach, der sie eben auch von den
regulären logischen Begriffen unterscheidet und zu reinen „Denkgebilden“ macht.
Und bemerken wir hier, daß das anschauliche Moment an diesen Gebilden durch
Euklid grundsätzlich an den eher anschaulichen Sachverhalten der Geometrie
verdeutlicht wird: Die Zahlen und Zahlverhältnisse wurden (und werden bis
heute) an sichtbaren Gegenständen demonstriert und gelernt. Das zeigen die
Psephoi, Rechensteine der Griechen, die Knöpfe auf dem Abacus, die Augen auf
einem Würfel, die zehn Finger, die Koordinaten als Zahlenstrahlen im cartesischen Koordinatensystem und manch andere Veranschaulichung.
258
Die Einheit wird als Punkt dargestellt, die Größe einer Zahl durch eine kürzere
oder längere Punktreihe, die Anordnung von Punkten auf einer Fläche oder auf
den Flächen eines Kubus führt zu bestimmten Zahlarten. Gleichungen und Ungleichungen sowie Proportionsgesetze werden am Modell der Waage mit horizontalen
Waagebalken versinnlicht. Aber der platonische Denker weiß, daß dies das ideelle
Wesen der Zahlgebilde nicht darstellt, sondern nur zu ihrem Denken hinführt.
Dieses aber besteht - nach unserem Interpretationsvorschlag – keineswegs darin,
sich etwas mystisch Unbestimmtes zu „denken“ (was kein Denken wäre), sondern
solche Anschauung gerade festzuhalten und mit einem Anschauen von etwas dazu
Gegenteiligem „dialektisch“ zu verknüpfen.
Wenn Euklid von Zahlen spricht, so handelt es sich ausschließlich um das, was
in den neueren Zahlentheorien als „natürliche“ (positive ganze Zahlen) bezeichnet
wird. Das heißt speziell, daß es hier weder die Null noch negative Zahlen noch
echte Brüche gibt. Die Buchstaben des Alphabets in ihrer Anordnung waren für
die Griechen zugleich Zahlzeichen. Und wenn sie Gegenstände abzählten, so hatten sie ebenso wie die meisten Sprachgemeinschaften besondere Wörter für kardinale Größen und ordinale Anordnung des Gezählten bzw. des Bemessenen in
übersichtlichen Dimensionen der sinnlichen Anschauung.
Größen und ihre Unterschiede sind bei Ansammlungen von Dingen für jeden
Praktiker sinnlich wahrnehmbare Phänomene. So auch bei den geometrischen Gebilden. Einige Strecken sind länger oder kürzer als andere, einige Flächen und
Körper größer oder kleiner als andere. Um diese Größenverhältnisse genauer zu
bestimmen, braucht man Maßstäbe. Diese liefert die Arithmetik bzw. die Zahlenlehre. Aber was dazu als Maßeinheit der Maßstäbe gelten konnte, blieb für die
Griechen (und bis in die moderne Technik) immer eine Sache der Konvention.
Was in der Geometrie „nur mit Zirkel und Lineal“ qualitativ konstruiert wird, das
wird mittels der Arithmetik gemäß stipulierten Einheiten quantitativ „bemessen“.
Daß nun jedoch die Zahlen selber „Größen“ seien oder „besäßen“, ist eigentlich
unvorstellbar. Niemand stellt sich große Zahlen als etwas Großes und kleine Zahlen als etwas Kleines vor. Auch lange Zahlenreihen vor oder hinter einem Komma
in der Dezimalnotation veranschaulichen keine großen oder kleinen Zahlen. Und
doch ist gerade dies die dialektische Zumutung der platonischen Ideenlehre, die
Zahlen als Größen zu „denken“ und die Größenunterschiede in der Sinnenwelt
durch die „Teilhabe“ der sinnlichen Phänomene an den Zahl-Ideen zu erklären.
Die Zahlideen stehen jedoch in der platonischen Ideenhierarchie unterhalb der
logischen Begriffe, und so haben sie teil an diesen. Ihre „Größen“ ergeben sich
aus den Voraussetzungen der Logik zur Verknüpfung der logischen Begriffe
mittels der Junktoren zu komplexen Ausdrücken.
Die zweite dialektische Zumutung als Erbschaft der platonischen Lehre von der
„Gemeinschaft der Ideen“ (koinonia ton ideon κοινφνία ηῶν ἰδεῶν) ist die These,
daß die Zahlen sich selber durch sich selber nach ihren Größen im Rahmen der
logischen Begriffe Einheit und Allheit unterscheiden und bestimmen.
259
Beides zusammen bedeutet, daß die logische Maßeinheit aller Zahlen, die Monas
(μόνας), zugleich auch die erste Zahl „eins“ (henas ἕνας) ist. Aber damit beginnen
auch schon die Interpretationsprobleme dieser Zahlenlehre. Viele Mathematiker
unterscheiden die Monas als Einheit von der Eins und gehen davon aus, daß die
Eins gar keine Zahl sei, sondern erst die Zwei die erste Zahl. Die Folgen werden
wir sogleich näher betrachten.
Die Ausarbeitung der euklidischen Zahlenlehre ist von manchen Interpreten
eine „Zahlenlehre ohne Zahlen“ genannt worden. Ersichtlich ist außer von der
Monas kaum von bestimmten Zahlen die Rede, also auch nur gelegentlich von der
Eins (henas). Diese Behandlungsweise dürfte jedoch von der aristotelischen Kategorienlehre inspiriert sein. Nicht die einzelnen Zahlen, sondern die Qualitäten,
Quantitäten und Relationen der Zahlbegriffe (als zweite Substanzen) werden
möglichst umfassend beschrieben und die Folgen daraus dargestellt.
Die Definitionen der Zahl und der Zahlbestimmungen lauten wie folgt:
„1. Die Einheit ist, nach welcher jedes Ding eins heißt. 2. Eine Zahl aber eine aus Einheiten
bestehende Menge. 3. Ein Teil ist die kleinere Zahl von der größeren, wenn sie die größere
genau mißt. 4. Ein Bruch aber, wenn sie, ohne die größere genau zu messen, Teile der
größeren enthält. 5. Ein Vielfaches ist die größere Zahl von der kleineren, wenn sie von der
kleineren genau gemessen wird. 6. Eine gerade Zahl ist, welche halbiert werden kann. 7.
Eine ungerade Zahl aber, welche nicht halbiert werden kann. 8. Gerademal gerade ist die
Zahl, welche von einer geraden Zahl nach einer geraden Zahl gemessen wird. 9. Gerademal
ungerade aber, welche von einer geraden Zahl nach einer ungeraden Zahl gemessen wird.
10. Ungerademal ungerade ist die Zahl, welche von einer ungeraden Zahl nach einer
ungeraden Zahl gemessen wird. 11. Eine Primzahl ist, welche nur von der Einheit gemessen
wird. 12. Primzahlen zueinander sind Zahlen, welche nur die Einheit zum gemeinsamen
Maße haben. 13. Eine zusammengesetzte Zahl ist, welche von irgend einer von ihr
verschiedenen Zahl gemessen wird. 14. Zusammengesetzte Zahlen zu einander sind, welche
irgend eine Zahl zum gemeinsamen Maße haben. 15. Eine Zahl vervielfältigt eine andere,
wenn letztere so oft, als erstere Einheiten hat, zusammengenommen, eine Zahl (Produkt)
hervorbringt. 16. Wenn zwei Zahlen einander vervielfältigen, so nennt man das Produkt aus
denselben eine Flächenzahl, und Seiten (Faktoren) derselben die Zahlen, welche einander
vervielfältigen. 17. Wenn drei Zahlen einander vervielfältigen, so nennt man das Produkt
aus denselben eine Körperzahl, und Seiten (Faktoren) derselben die Zahlen, welche
einander vervielfältigen. 18. Eine Quadratzahl ist das Produkt aus zwei gleichen Zahlen,
oder unter zwei gleichen Zahlen enthalten. 19. Eine Kubikzahl aber ist das Produkt aus drei
gleichen Zahlen, oder unter drei gleichen Zahlen enthalten. 20. Proportioniert sind Zahlen,
wenn die erste von der zweiten und die dritte von der vierten entweder einerlei Vielfaches,
oder einerlei Teil, oder einerlei Bruch ist. 21. Ähnlich sind Flächen-, auch Körperzahlen,
welche proportionierte Seiten haben. 22. Eine vollständige (vollkommene) Zahl ist, welche
allen ihren Teilen zusammen gleich ist.“
1. „Einheit“ (monas μóνας) ist die logische Bedeutung des „ein“ (hen ἕν). Dieses „Hen“ wird als sprachliches Partikel benutzt und wurde von Aristoteles als
Quantifikationsjunktor („Individualisator“) in die Logik übernommen. Man
subsumiert damit einen beliebigen „seienden“ Gegenstand (jedes der Seienden
260
ἕκαζηον ηῶν ὄνηφν) als Einzelnes einem allgemeinen Begriff, in dessen Umfang
es fällt: „ein Hund“, „ein Tier“, „ein Lebewesen“. Aber auch: „eine Zahl“, „eine
Menge“, „eine Idee“, usw. Zugleich ist „Hen“ aber im griechischen Sprachgebrauch auch das erste Zählwort in der Reihe „eins, zwei, drei …“
Hier zeigt sich die erste dialektische Bestimmung dieser platonischen Zahlentheorie. Die logische Einheit (Monas) ist zugleich die Maßeinheit aller Zahlen, die
gemäß Satz 2 von der Monas unterschieden werden. Also ist die Monas keine
durch Hen („eins“) bezeichnete „Zahl“. Nach einigen Interpreten muß daher die
Zahlenreihe mit der Zwei beginnen. Hen („eins“) bestimmt jedoch auch jeden
einzelnen Gegenstand, also auch jede Einheit (Monas). Und da im Griechischen
Hen durchweg zum Zählen verwendet wird, ist die Monas auch die erste Zahl
Eins. Sie wird im Euklidtext auch gelegentlich als solche benutzt.
2. Die Definition der „Zahl“ (arithmos ἀριθμóς) – im Unterschied zur „Einheit“
- benutzt den schon dialektisch definierten Einheitsbegriff und unterscheidet ihn
von der „Menge des aus Einheiten Zusammengesetzten“ (ek monadon synkeimenon plethos ἐκ μονάδφν ζσνκείμενον πλῆθοϛ). Die kontradiktorischen Merkmale der „Einheit“ bringen die Dialektik auch in den Zahlbegriff. Denn die
„Menge“ ist hier zusammengesetzt aus „Einheiten“. Gemäß Satz 1 ist aber die
Menge auch ein durch den logischen Individualisator zu bestimmendes „Eines“,
nämlich im Sinnes eines Gesamtes oder einer Ganzheit. Also ist die Menge als
Zahl zugleich „Eines“ und auch ein Ganzes von Einheiten.
Daß die Anfangszahl nicht die Eins, sondern die Zwei sei, wird daraus geschlossen, daß die Zwei bei Platon und dann im Platonismus als „undefinierte
Zweiheit“ (ahoristos dyas ἀοριζηòς δύας) beizeichnet wurde. Es ist lange und
ziemlich ergebnislos darüber spekuliert worden, was damit gemeint sein könnte.
„Ahoristos“ bedeutet unbegrenzt bzw. undefiniert (horos ὅρος = Grenze, Definition).
Mit der undefinierten Zweiheit (als „Einheit“) lassen sich alle geraden Zahlen
definieren. Und dies ebenso, wie sich mittels der Einheit (monas μóνας) alle
Zahlen insgesamt definieren lassen. Die gerade Zahl heißt bei Euklid „ártios
arithmós“ ἄρηιος ἀριθμóς (eng gefügte, passende, auch vollständige Zahl). Die
ungerade Zahl, die Euklid als „nicht halbierbar“ = „nicht durch 2 ohne Rest
teilbar“ genau von den geraden Zahlen unterscheidet, heißt „perissós arithmós
περιζζòς ἀριθμóς“ = über das Maß hinausgehend, etwa „Überschußzahl“. Ungerade Zahlen sind sämtlich nicht halbierbar. Das wird bei der Definition der
Primzahlen (s. u.) eine wichtige Rolle spielen.
3. Jede größere Zahl als die Eins hat Teile (méros μέρος), d. h. die Einheit und
damit auch die Zahl Eins hat keine Teile. Die Zahlteile sind also keine Brüche der
Einheit, sondern nur ganzzahlige Einheiten, durch welche sich die jeweilige Zahl
„bemessen läßt“ (z. B. 4 von 8 heißt: 4 Teile der Menge von 8 Einheiten). Euklid
hält sich an die „Einheit“ in der Bedeutung von „ein Ganzes“ (eine Allheit).
Wenn aber auch die Eins eine Zahl ist, muß sie ebenfalls Teile besitzen. Das
zeigt sich bei jeder Teilung einer „Einheit“ in Hälften, Drittel usw. Spätere
261
Interpreten haben diese Teilungen auch auf die Zahl Eins bezogen. Damit läßt sich
die Teilung von Zahlen in „sie genau messende“ Komponenten gar nicht von der
Teilung der 1- Einheit in „sie genau messende“ Bruchteile (s. Satz 4), d. h. in
echte Brüche, unterscheiden.
4. Der Bruch wird als eine Zahl definiert, die aus Teilen einer größeren Zahl
gebildet wird, die die größere Zahl „nicht genau mißt“ und stets kleiner bleibt als
die größere (z. B. 6 bezüglich 7). Die Definition schließt also das aus, was man
heute echte Bruchzahl nennt, nämlich Teile der 1- Einheit. Versteht man aber
auch die 1- Einheit als Zahl, so sind zugleich auch alle echten Bruchzahlen eingeschlossen. Euklid vermeidet mit seiner dialektischen Definition, sich auf das
pythagoräische Problem der Inkommensurabilität bei den sog. periodischen und
unperiodischen „irrationalen“ Brüchen einzulassen.
5. Beim „Vielfachen“ wird der Multiplikator definiert, welcher als Zahl angibt,
wie viele Male eine kleinere Zahl in einer größeren enthalten ist, die sie „genau
mißt“. Offensichtlich ist jede ganze Zahl ein Vielfaches der sie genau messenden
Einheit. Das muß auch für die Eins, wenn sie die erste Zahl ist, gelten. Sie kann
als „einmal Eins“ dialektisch nur ein nicht-vervielfachendes Vielfaches ihrer
selbst sein.
6. Hier wird die „gerade Zahl“ durch das Merkmal ihrer Halbierbarkeit
definiert. Die Zweiteilung zeigt, aus welchen kleineren geraden oder ungeraden
Zahlen als ihren Hälften eine größere Zahl zusammengesetzt ist. Die Zwei als
kleinste gerade Zahl halbiert sich nur in zwei Einheiten bzw. Einsen, und dies im
Unterschied zu allen größeren geraden Zahlen als die Zwei. Diese Besonderheit
bzw. Singularität der Zwei bedingt das Problem, ob die Halbierung der Zwei
dasselbe bedeutet wie eine „Teilung durch sich selbst“, die wiederum für die
Definition der Primzahlen grundlegend ist (vgl. Satz 11). Beide Möglichkeiten
werden dialektisch offen gelassen.
7. Daß die „ungeraden Zahlen“ nicht halbierbar sind, wenn es sich dabei um
eine Zweiteilung ohne Rest bei natürlichen Zahlen handelt, ist eine ganz undialektische Definition der ungeraden Zahlen. Sie wird erst im Licht der neueren
Bruchzahlentheorie dialektisch, da hier auch die Einheit bzw. die Zahl Eins halbiert wird.
8. – 10. definieren die Bildung der Zahlen aus graden und/oder ungeraden
Multiplikationsfaktoren. Damit werden gleichsam auf einen Streich auch die Multiplikation, die Division, das Potenzieren und das Wurzelziehen (aus den durch
Potenzieren gewonnenen Zahlen) definiert. Sie sind von großer Bedeutung für das
Durchschauen der Reihen- bzw. Folgenbildungen nach der Größenordnung der
Zahlen. Vermutlich hat Euklid die Kenntnis dieser Aufbaueigenschaften vorausgesetzt, um auch die Reihenbildung der Primzahlen zu erkunden, die ihm nicht
gelungen ist. Darauf läßt sich aus der Tatsache schließen, daß die nächste
Definition 11 direkt die Primzahlen thematisiert.
Die in Satz 10 liegende Dialektik (der gerademal geraden Zahl) besteht darin,
daß sie auch für alle vier Rechenarten bezüglich der Einheit bzw. der Eins gilt
262
(1mal 1 = 1; 1 geteilt durch 1 = 1; 1 in 2. Potenz = 1; Wurzel aus 1 = 1), zugleich
aber nicht gilt, weil dadurch keine größere Zahl erzeugt wird.
11. definiert die Primzahl (protos arithmos πρῶηος ἀριθμóς) als Zahl, „welche
nur von der Einheit gemessen wird“ (protos arithmos estin ho monadi mone metromenos πρῶηος ἀριθμóς ἐζηὶν ὁ μονάδι μόνῃ μεηρούμενος). D. h., daß sie nur
als „x ∙ 1“ dargestellt werden kann, wobei x für jede Primzahl steht. Auf welche
Zahlen die Definition paßt, läßt sich bekanntlich bisher nur durch eine Prüfung
jeder einzelnen Zahl auf ihre Nicht-Teilbarkeit (ohne Rest) in Faktoren größer als
1 feststellen. Die Dialektik in dieser Definition besteht darin, daß sie einerseits auf
die Zwei zutrifft, andererseits auch nicht zutrifft.
Die Zwei wird – als gerade Zahl - nur in die Einheiten geteilt und gehört dadurch
zu den Primzahlen. Aber dies geschieht nur durch eine Halbierung. Alle geraden
Zahlen, die größer als zwei sind, werden aber durch eine Halbierung in größere
Zahlen als die Einheiten geteilt und sind deshalb keine Primzahlen. Also kann die
Halbierbarkeit der geraden Zahlen kein Primzahlkriterium sein, und die 2 gehört
deswegen nicht zu den Primzahlen.
Nikomachos, ein Neupythagoräer, hat die Zwei schon vor Euklid nicht als
Primzahl angesehen.128 Auch der Neuplatoniker Jamblichos tadelt Euklid, weil er
sie als Primzahl zugelassen hat, unter Berufung auf Nikomachos.129
Eine weitere Dialektik der Primzahlen liegt in der Zuordnung oder Nicht-Zuordnung der Eins bzw. der Einheit zu den Primzahlen. Sie ergibt sich aus der Dialektik in den Sätzen 1 und 2. Ist die Einheit zugleich die kleinste Zahl 1, dann
gehört sie zu den Primzahlen (1 / 1 = 1). Ist die Eins keine Zahl sondern nur ein
anderer Name für die Einheit, dann gehört sie nicht zu den Primzahlen. Bekanntlich haben die Mathematiker bisher die Eins aus den Primzahlen ausgeschlossen.
Gleichzeitig rechnen sie durchweg mit der 1 als natürlicher Zahl, was offensichtlich ein selber dialektischer Sachverhalt ist.
Das Votum der Mathematiker, die 2 als Primzahl anzunehmen und die 1
auszuschließen, dürfte der Grund dafür sein, daß bisher noch keine algorithmische
Primzahlformel vorgeschlagen werden konne.130
12. Diese Definition liest sich wie eine Bestätigung bzw. Wiederholung von
Satz 11. Wenn nach dem Votum des Euklid die 2 prim ist, so gibt es auch zwischen geraden und ungeraden Zahlen prim-Verhältnisse, deren gemeinsame
Einheit die kleinste Primzahl 2 ist. Die Definition suggeriert, daß es auch unter
größeren geraden Zahlen als 2 Primzahlen geben könnte. Man hat allerdings noch
keine gefunden, sucht aber noch immer danach. Indem die Definition die 2 als
kleinste Einheit der Primzahlen zuläßt, widerspricht sie jedoch den Definitionen 1
128
Vgl. Cl. Thaer, Euklid, Anmerkung zu Buch VII, Def. 11, S. 439.
Vgl. Moritz Cantor, Vorlesungen über Geschichte der Mathematik, 3. Aufl. Leipzig 1907, S. 461.
130
Über eine Methode, die Primzahlen mit der 1 und unter Ausschluß der 2 zu berechnen vgl. L. Geldsetzer, Logik, Aalen
1987, S. 151 ff. sowie Elementa logico-mathematica, Internet der HHU Duesseldorf 2006; erweiterte engl. Übersetzung
mit Anmerkungen und Korollarien: L. Geldsetzer, Logical Thinking in the Pyramidal Schema of Concepts: The Logical
and Mathematical Elements. Introduced and Translated from German by Richard L. Schwartz, Dordrecht-Heidelberg-New
York-London 2013, S. 26 – 28 und S. 95f.
129
263
und 2. Ihre Dialektik liegt darin, daß sie nach Satz 2 die 1 als Einheit für alle Zahlen annimmt und sie für die Primzahlen ausschließt.
13. - 19. definieren die Eigenschaften der Nicht-Primzahlen unter den natürlichen (ganzen) Zahlen. Sie zeugen von Euklids Bemühung, dadurch zu erklären,
was ihm bezüglich der Primzahlen nicht gelungen ist. Es handelt sich um Präzisierungen der Definitionen der durch Teilungen und Vervielfältigungen gewonnenen Zahlen. Bemerkenswert ist hier, daß er bezüglich der Flächen- und Körperzahlen bzw. der Spezialfälle Quadrat- und Kubikzahlen explizit auf die geometrische Veranschaulichung der arithmetischen Produktbildung zurückgreift.
20. definiert, was „Proportionen“ (Analogien ἀναλογίαι) zwischen den natürlichen Zahlen sind. Sie ergeben sich, wie aus einigen daraus gefolgerten Theoremen hervorgeht, wenn größere (natürliche) Zahlen durch kleinere ohne Rest dividiert werden können. Alle derartigen Divisionsausdrücke, die denselben Quotienten ergeben, lassen sich proportionieren. Deshalb können alle Divisionsausdrücke,
die denselben Quotienten ergeben, gleichgesetzt und in Größenordnungsfolgen
angeordnet werden.
Dahinter verbirgt sich ebenfalls eine Dialektik, die sich aus der Darstellungsweise mittels Division und Gleichheitszeichen ergibt. Bei Divisionen wird stets nur
eine der sich bei der Teilung ergebenden Quoten als Ergebnis („Quotient“)
beachtet (z. B. 6 : 2 = 3). Jede Anschaung und Erfahrung mit Teilungen lehrt
jedoch, daß bei einer Teilung das zu Verteilende in so viele Teile („Quoten“) zerlegt wird, wie es der Verteilungsschlüssel („Divisor“) vorgibt. Euklid macht bei
der „Halbierung“ selbst darauf aufmerksam, daß sich dabei zwei Hälften ergeben,
also daß sich keineswegs nur eine einzige ergibt. Deshalb müßte die Division
eigentlich als 6 : 2 = 2 ∙ 3 notiert werden, um eine Gleichung darzustellen. Die
mathematische Division läßt jedoch die restlichen Quoten verschwinden und kann
deshalb keine Gleichung sein.
Nur mittels dieser dialektischen Verwendung der Gleichung können alle proportionierten Zahlausdrücke durch „Gleichungen“ gleichgesetzt werden. Einerseits bleiben die Größen der proportionierten Zahlen ganz verschieden, so daß die
Gleichungen zugleich eine Ungleichheit zum Ausdruck bringen. Das griechische
Wort Analogie (Ähnlichkeit), das im Lateinischen als Proportion übersetzt wurde,
bringt diese Dialektik jedenfalls treffend zum Ausdruck. Was analog bzw. ähnlich
ist, ist stets in einer Hinsicht gleich, in anderer Hinsicht ungleich.
21. definiert die „Ähnlichkeit“ (Analogia ἀναλογíα) zwischen Flächen- und
Körperzahlen auf Grund ihrer geometrisch demonstrablen „proportionalen“ Seitenverhältnisse. Auch hier formuliert Eulid dialektisch: „Gleiche Flächen- und
Körperzahlen sind diejenigen, die analoge Seiten haben“ (ὅμοιοι ἐπίπεδοι καὶ
ζηερεοὶ ἀριθμοὶ εἰζιν οἳ ἀνάλογον ἔτονηας ηὰς πλεσράς). „Analogie“ bedeutet
jedoch auch Ungleichheit, wie oben gezeigt wurde.
22. schließlich definiert die „vollständige (auch: vollkommene) Zahl“ (téleios
arithmós ηέλειος ἀριθμóς) als eine solche, die der Summe aller ihrer („allen
ihren“) Teilen gleich ist (ho tois heautou méresin ísos on ὁ ηοĩς ἑασηοῦ μέρεζιν
264
ἴζος ὄν). Man sieht hier aber nicht, daß außer der Zahl 3 als Summe von 1 + 2
(„aller ihrer Teile“) größere Zahlen die Definition erfüllen. Wohl deshalb hat man
den griechischen Text „verbessert“ und spricht statt von „Teilen“ von der Summe
der „echten Teiler“ (engl.: „factors“) einer Zahl. So hat man die Zahlen 6, 28, 496,
8128 und 33550336 durch Prüfung als solche „vollkommenen Zahlen“ gefunden.
Ob sich auch ungerade vollkommene Zahlen überhaupt finden lassen, ist noch ein
offenes Problem.
An diese Definitionen der arithmetischen Elemente und Verhältnisse, von denen
der Zahlbegriff selbst nur der geringste Teil ist, lassen sich einige logische Erwägungen anschließen, die Mathematiker gewöhnlich nicht anstellen.
Mathematiker gehen davon aus, wie die Kommentare zu Euklid zeigen, daß
eine regelrechte Definition die „Existenz“ der definierten Sache anzuzeigen habe.
Sie machen sich in der Regel keine Gedanken darüber, was in diesem Bereich
Existenz bedeutet. Dies umso mehr, als sie bei der Geometrie ebenfalls voraussetzen, die Existenz der geometrischen Gebilde ergebe sich aus ihrer Konstruierbarkeit auf dem Papier. Das kann man aber nur eine halbe Wahrheit nennen, wie sich ja aus der platonischen Voraussetzung ergibt, daß die sinnlichen
Phänomene die „Idee“ der Zahlen und geometrischen Gebilde selbst nicht adäquat
darzustellen vermögen.
Wenn es in diesem Bereich um Definitionen geht, so handelt es sich um das
Aufzeigen der intensionalen und extensionalen Komponenten eines Begriffs, der
nur „zu denken“ ist und allenfalls in diesem Gedachtwerden so etwas wie
Existenz besitzt.
Man sollte nun davon ausgehen, daß damit auch alle Zahlen, die auf solche
Weise definiert worden sind, auch bekannt sind und angegeben werden können.
Das ist bekanntlich nicht der Fall, wie man beispielsweise an den Primzahlen und
den „vollkommenen“ Zahlen sehen kann. Man kennt einige und hat sie errechnet
bzw. „ausprobiert“, aber man kennt auf keinen Fall alle und kann sie nicht als
bestimmte einzelne Zahlen benennen, obwohl jeder Grund zur Vermutung besteht,
daß es ihrer noch viele bisher unbekannte geben müßte. Euklid behauptet an
unerwarteter Stelle im Buch IX, Satz 20: „Die Menge der Primzahlen übersteigt
jede gegebene Anzahl derselben“.
Die Tatsache, daß man bei vorliegenden Definitionen bestimmter Zahlarten einige davon kennt und einige nicht, hat immer einen Grund dafür abgegeben, daß die
Mathematiker dieses Nichtwissen durch mathematische „Forschung“ in bestimmtes Wissen um immer mehr und größere (oder kleinere) Zahlen umzuwandeln
suchten. Dann wird natürlich gerechnet und „ausprobiert“, und die Resultate an
Wissen über noch mehr einzelne Zahlen, die die Definitionen „erfüllen“, gilt dann
als „Entdeckung“ und „Auffindung“.
Diese Meinung beruht aber auf der - gewiß nicht von Euklid gemachten - Voraussetzung, daß man die Zahlen schlechthin schon kenne und um sie wisse, wenn
man weiß, daß und wie sie durch Summation von Einsen und ihre rekursive An-
265
ordnung im Dezimalsystem gewonnen werden können. Auf diese Weise gewußte
und gedachte Zahlen hat man später „natürliche“ genannt. Und nur von ihnen ist
bei Euklid die Rede. Weil man nach allgemeiner Erfahrung mit ihnen und im
Dezimalsystem am einfachsten gleichsam mechanisch rechnen kann, erst recht
aber im computergerechten dualen Zahlsystem, kam die Vorstellung auf, ihre
Definition sei zugleich die grundlegende für Zahlen schlechthin. Leopold Kronecker (1823 - 1891) hat bekanntlich gesagt, „Die (positiven) ganzen Zahlen hat
der liebe Gott gemacht, alles andere ist Menschenwerk“ - was nur einen starken
Glauben an das Dezimalsystem und ein Verkennen der platonischen Methode des
mathematischen „Denkens“ verrät.
Wären die Zahlen reguläre logische Begriffe, so müßte ihre Definition ihre
sämtlichen Merkmale und Intensionen klar und deutlich bestimmen. Eine Zahl
wäre demnach nur dann bekannt und denkbar, wenn man alle ihre definierten
Eigenschaften bzw. alle ihre Definitionen kennt.
Das wird didaktisch insinuiert, wenn man lernt, wie sie überhaupt aus Einheiten
(nicht nur Einsen) zusammengesetzt sind. Die Lernart mittels des kleinen und
großen Einmaleins verleiht unmittelbar die Kenntnis ihres Zusammengesetztseins
aus solchen Einheiten ohne Rekurs auf die Dezimalkomposition. Und kennt man
Zahlen auf diese Weise, so weiß man im Bereich ihrer Größen auch durch pure
Aufmerksamkeit auf die sich ergebenden Lücken, welches etwa die Primzahlen
unter ihnen sein müssen.
Was aber die sogenannten großen Zahlen angeht, die man nach Belieben durch
Dezimalbenennungen angibt, so täuschen sie nur vor, bekannt zu sein, während
sie es in der Tat nicht sind. Und auch dies kann man eine Folge der Dialektik des
arithmetischen Denkens nennen.
Die logische Form der Definition ist in diesen Verhältnissen überall der Äquivalenzjunktor, den man sprachlich durch „das heißt“ wiedergeben kann, keineswegs
aber durch die Kopula „ist“. In neuerer Ausdrucksweise stellt man die Äquivalenz
auch als doppelte Implikation „genau dann, wenn ...“ dar. Die Definition erklärt
ein Wort oder einen Ausdruck durch einen intensional-extensional strukturierten
Begriff oder einen durch nicht-satzbildende Junktoren gebildeten anderen Ausdruck. Und bekanntlich ist man dabei frei, den Wörtern oder Ausdrücken recht
beliebige Begriffe definitorisch zuzuordnen bzw. umgekehrt (da es ja um umkehrbare Verhältnisse geht, wie die Gleichung es zeigt), die Begriffe beliebig mit
Worten zu benennen bzw. ihnen Termini beizulegen.
Die mathematische Gleichung ist ein logischer Äquivalenzjunktor. Das bedeutet, daß alle echten Gleichungen nur logische Definitionen sein können. Die
Frage ist nun, ob diese logische Bestimmung der Definition auch für die mathematische Definition bzw. die Gleichung gilt. Dies möchen wir nun gerade behaupten und damit auch zugleich behaupten, daß alles, was in mathematischen Gleichungen ausgedrückt werden kann, keinen behauptenden Charakter haben und
damit auch nicht wahrheits/falschheitsfähig sein kann. Was auch immer links oder
266
rechts in einer Gleichung steht, definiert sich gegenseitig und liefert so nur
Ausdrücke, keineswegs Urteile bzw. Sätze.
Insofern wird man auch davon ausgehen müssen, daß die euklidischen Definitionen nur das Begriffs- und Ausdrucksmaterial liefern, das für die Geometrie
und Arithmetik gebraucht wird. Und dies gilt nun auch für das Verhältnis von
dezimalsystematisch oder dualsystematisch bekannten und benannten Zahlen, die
eine Definition der natürlichen Zahlen nur vortäuschen, in Wirklichkeit aber reine
Benennungen sind. Und es gilt auch von denjenigen Zahldefinitionen, die auf
andere Weise bestimmte Zahlarten definieren.
Bemerken wir zusätzlich, daß die von Euklid benutzte Notation für Zahlengrößen, in der sie - wohl nach dem Vorbild der aristotelischen Notation der
Begriffe durch Buchstaben - durch Buchstaben „allgemein“ dargestellt werden
(die man in der Neuzeit Franciscus Viëta als neue Erfindung zuschreibt), sehr
dazu angetan war, diesen Unterschied von Wissen und Nichtwissen um die einzelnen Zahlen und ihre Definitionen unsichtbar zu machen.
Die Ausdrücke „die Zahl A“ oder „die Zahl B“ suggerieren als „formale“ Notation, daß die dadurch vertretenen Zahlen insgesamt bekannt seien oder bekannt
sein könnten. Und die Verwendung dieser Ausdrucksnotation in Gleichungen
verstärkt noch diese Suggestion, da man dann voraussetzt, sie definierten sich
gegenseitig. Erst recht gelten dann die auflösbaren Gleichungen, in denen einem
solchen formalen Zahlausdruck ein oder einige bestimmte Zahlenwerte zugeordnet werden, als Bestätigung dieser Voraussetzung.
Aber die unauflöslichen Gleichungen, wie etwa „A = Wurzel aus 2“, definieren
„Zahlen“, die gänzlich unbekannt sind (sofern man die sog. Irrationalzahlen überhaupt für Zahlen hält) oder die eben überhaupt keine Zahlen sind. Die mathematische Rechenpraxis ersetzt solche Gebilde durch Näherungswerte, d. h. durch
bekannte Zahlen, während die mathematische Theorie ihre definierten „Zahlbegriffe“ um immer neue „Zahlarten“ erweitert. Von diesen kann man logisch nur
feststellen, daß sie sowohl Zahlen als auch Nicht-Zahlen sind. Und auch dies zeigt
von dieser Seite her die Dialektik des mathematischen Denkstils.
Die nächste Gruppe von Voraussetzungen für die Mathematik bilden die sogenannten „Postulate” (Forderungen, Aitémata ἰέ), die sich im ersten Buch
an die geometrischen Hypothesen anschließen. Es sind nur drei Forderungen für
die Ausführung von geometrischen Konstruktionshandlungen.
Läßt man sich durch die Terminologie nicht irreführen, so handelt es sich freilich um die eigentlichen geometrischen Axiome, durch welche der Geometrie ihr
anschaulicher Konstruktionsbereich im Endlichen (Finiten) und zugleich ihr
unanschaulicher Denkraum im Transfiniten (oder Infiniten) eröffnet wird.
„Es sei ein für allemal gefordert, von jedem Punkt nach jedem anderen eine gerade Linie zu
ziehen; 2. desgleichen eine begrenzte gerade Linie stetig geradefort zu verlängern; 3. desgleichen, aus jedem Mittelpunkt und in jedem Abstand einen Kreis zu beschreiben”.
267
Hält man sich an die Anschaulichkeit des Geforderten, so handelt es sich um
dasjenige, was der Handwerker und Baumeister und auch der Landvermesser
ausführen können muß, erst recht natürlich der Mathematiker auf seinem Zettel
oder, wie bei den Griechen üblich, durch Striche auf dem Sandboden. Dies zu
betonen ist deshalb wichtig, weil es auf diesem sinnlichen Boden ganz unmöglich
gewesen wäre, solche Handlungen ins Unendliche zu erweitern und sich Gedanken zu machen, ob oder ob nicht parallele Linien sich in unendlicher Ferne treffen
oder der Umfang eines unendlich großen Kreises eine gerade Linie wird. Im
sinnlichen Anschauungsbereich und damit im Endlichen ist dergleichen ohne wieteres zu „sehen” (die parallelen Eisenbahnschienen laufen in der Ferne geradewegs aufeinander zu; der Meereshorizont, der doch ein endlicher Ausschnitt eines
Kreisumfangs ist, erscheint gerade), aber es ist nicht in Handlungen „auszuführen”.
Diese Kontrolle des Auges durch die Hand verhindert in der Praxis das Auftreten zenonischer Paradoxien, nach denen das Unterschiedene auch als dasselbe
(der Kreis ist Gerade, die Parallelen sind nicht parallel) und umgekehrt hätte
„gedacht” werden müssen. Aber gerade dies wird wiederum im platonischen Verständnis dieser Postulate gefordert und macht darum die „ins Unendliche erweiterte“ Anwendung dieser Postulate dialektisch.
Logisch gesehen haben diese sogenannten Postulate denselben dialektisch-kontradiktorischen Charakter wie die übrigen Definitionen, der freilich dem auf
Machbares beschränkten Praktiker verborgen bleibt. Der platonische Mathematiker aber weiß, daß es sich um zugleich ausführbare und auch nicht ausführbare
Handlungen handelt, wobei die ersichtlich nichtausführbaren eben so zu denken
sind, wie die ausführbaren. Aristoteles hat dergleich mit ebenso dialektischer
Bestimmung als „potentielle“ Handlung definiert.
An die Definitionen und Postulate schließen sich im ersten Buch noch die „Axiome” an. Im überlieferten Text des Euklid steht dafür der stoische Begriff Koine
ennoia (ὴἔlateinisch: notio communis,„gemeinsame Vernunfteinsicht“) was üblicherweise als „evidenter Begriff“ verstanden wird. Man deutet die
Axiome als Beweisgrundsätze und letzte Voraussetzungen für mathematisches
Tun. Auch hier wird man logisch erkennen, daß es sich keineswegs um das
handelt, was man jetzt Axiome nennt, sondern um Definitionen der arithmetischen
Rechenarten und der Merkmale einiger geometrischen Gebilde. Es sind 12 Axiome, welche lauten:
„1. Was einem und demselben gleich ist, ist einander gleich. 2. Gleiches Gleichem zugesetzt, bringt Gleiches. 3. Von Gleichem Gleiches weggenommen, läßt Gleiches. 4. Ungleichem Gleiches zugesetzt, bringt Ungleiches. 5. Von Ungleichem Gleiches weggenommen,
läßt Ungleiches. 6. Gleiches verdoppelt, gibt Gleiches. 7. Gleiches halbiert, gibt Gleiches.
8. Was einander deckt, ist einander gleich. 9. Das Ganze ist größer als sein Teil. 10. Alle
rechten Winkel sind einander gleich. 11. Zwei gerade Linien, die von einer dritten so geschnitten werden, daß die beiden innern an einerlei Seite liegenden Winkel zusammen
268
kleiner als zwei rechte sind, treffen genugsam verlängert an eben der Seite zusammen. 12.
Zwei gerade Linien schließen keinen Raum ein” (Euklid, Elemente, Buch I).
Bemerken wir zuerst, daß sie im 1. Buch gleich nach den geometrischen Definitionen und Postulaten stehen und deswegen gewöhnlich als geometrische Axiome
aufgefaßt werden. Das trifft aber nur auf einen Teil von ihnen zu. Der andere Teil
ist so formuliert, daß man ihn sowohl auf geometrische wie auf arithmetische
Gebilde beziehen kann. Und da sie offensichtlich auch für die Zahlverhältnisse
gelten sollen, scheinen sie überhaupt von den Definitionen und Postulaten abgetrennt worden zu sein.
Bemerken wir sodann, daß in Nr. 1 - 8 und in Nr. 10 immer von „Gleichheit“
die Rede ist, in Nr. 4, 5, 9 und 11 aber (auch) von Ungleichheit. Nur die Nr. 12
fällt aus dem Rahmen. Daraus können wir entnehmen, daß es sich hier überhaupt
um die Definition der mathematischen Hauptjunktoren handelt, nämlich der Gleichung als Äquivalenz und der Ungleichung (die logisch nur eine negierte Äquivalenz sein kann). Die nächste Frage muß dann sein, ob auch an diesen „axiomatischen“ Definitionen eine Dialektik bzw. Kontradiktorik auszuweisen ist. Und
das ist offenbar der Fall und kann in einer platonistischen Mathematik auch nicht
anders sein. Zeigen wir dies an den einzelnen Definitionen (vgl. dazu auch das
schon im Paragraphen 9 Gesagte).
Nr. 1 definiert die Gleichung selbst. Klarer formuliert könnte diese Definition
lauten: Eine Gleichung besteht zwischen zwei Gegebenheiten, die beide einer
dritten Gegebenheit gleich sind. Die Dialektik liegt dabei im hier benutzten und
vorausgesetzten Begriff der Gleichheit. Diese ist hier logisch gesehen eine Ähnlichkeit bzw. Analogie. Sie gibt etwas Identisches und zugleich Verschiedenes zu
denken. Was das jeweils bei geometrischen und arithmetischen Verhältnissen ist,
bleibt in der Definition unerwähnt (wohl deshalb, damit der dialektische bzw.
kontradiktorische Charakter der Definition verschleiert wird). Aber es läßt sich
genau angeben. Bei der arithmetischen Gleichung besteht die Identität im
Zahlenwert der Ausdrücke links und rechts in der Gleichung, der Unterschied aber
in der Ausdrucksgestalt dieses Wertes (G. Frege hat eben diesen Unterschied als
identische „Bedeutung“ und verschiedenen „Sinn“ bei der Gleichungsdarstellung
bezeichnet).
Bei geometrischen Beispielen besteht die Identität in der Form und gegebenenfalles in der Größe der verglichenen Gebilde, der Unterschied aber in der örtlichen
Festlegung bzw. in der numerischen Unterscheidung oder unterschiedlichen
Größe der Gebilde. Identität und Unterschied werden aber beide zusammen
„Gleichheit“ genannt. Nur deshalb können zwei verschiedene Gebilde überhaupt
verglichen werden, eben weil sie eine - als Drittes ausweisbare - identische Eigenschaft aufweisen.
Nr. 2 definiert mit Hilfe der Gleichung das Vergrößern von geometrischen
Gebilden bzw. die Addition (Summenbildung) bei Zahlen. Nimmt man die Definition wörtlich, so gilt sie anschaulich - z. B. für den kaufmännischen Praktiker für die Verhältnisse an einer Balkenwaage. Nur hier kann man an beiden Enden
269
der Balken (im gleichen Abstand von der Mitte) Gleiches zusetzen, so daß sich
Gleiches (wie der Ausgangszustand eines Gleichgewichts) ergibt. Der platonische
Mathematiker aber denkt und weiß natürlich, daß das „bringt Gleiches“ gerade ein
anderes Gleiches als die Gleichheit der Ausgangsverhältnisse meint - und damit
eben ein „ungleiches Gleiches“. Die Dialektik der Addition in der Gleichung liegt
also darin, daß dadurch die Gleichung als identische erhalten bleibt, aber die
Glieder der Gleichung sich „gleichmäßig“ verändern.
Nr. 3 definiert entsprechend das Vermindern oder Verkleinern geometrischer
Gebilde bzw. die numerische Subtraktion in der Gleichung. Bemerken wir hierzu,
daß Euklid noch nicht von „negativen Zahlen“ spricht und deshalb auch nicht von
einer Subtraktion einer größeren von einer kleineren Zahl. Dann gilt das oben
Gesagte wiederum von der Identität der Gleichung selbst und der Verschiedenheit
der sich ergebenden Zahlenwerte.
Nr. 4 und 5 definiert die Ungleichung so, daß sie durch die in 2 und 3 definierten mathematischen Operationen nicht verändert, sondern erhalten bleiben. Und
auch dies sieht man beim Umgang mit einer Balkenwaage.
Nr. 6 und 7 definieren am Beispiel der Verdopplung und Halbierung, die ja gerade in der Geometrie besonders wichtige Operationen sind, auch die numerische
Multiplikation und Division in der Gleichung. Auch davon gilt der dialektische
Vorbehalt, das das Resultat der Operationen ein „anderes Gleiches“ als das Ausgangsgleiche ist.
Nr. 8 ist eine speziell geometrische Definition der Deckungsgleichheit. Was
hierbei „decken“ bzw. „zur Deckung bringen“ heißt, ist praktische Routine beim
Darüberschieben gleicher Figuren in der Ebene, aber auch beim Überklappen von
spiegelbildlichen Figuren im Raume (z. B. beim Händeklatschen oder wie es
zusammengeklappte Schmetterlingsflügel zeigen).
Nun mag man logisch entweder die dazu geeigneten übereinandergeschobenen
Figuren gleich nennen, oder aber die spiegelbildlichen. Es geht jedenfalls ohne
Widerspruch nicht an, sie beide zugleich „gleich“ zu nennen, denn sie sind - die
einen am anderen gemessen - gerade ungleich. Und gerade darin liegt nun die
Widersprüchlichkeit dieser Definition, daß sie die Deckungsgleichheit sowohl auf
gleiche wie ungleiche Figuren bezieht. Der platonische Denker erhebt sich über
die sinnliche Anschauung des einen oder des anderen, indem er das sich deckende
Gleiche sowohl von der einen wie von der anderen Seite zugleich denkt, gleichsam von außen (wie auf dem Blatt vor ihm) und von innen (zwischen den
Blättern).
Dies betrifft aber nur die Spezialdialektik der Deckungsgleichheit. Die tieferliegende besteht in der Verschmelzung von Identität und Unterschied in diesem
Begriff von „Deckung“. Denn was sich wirklich deckt, wird in aller sinnlichen
Anschauung eines und identisch dasselbe und ist nicht mehr unterscheidbar. Da es
aber nur „gleich“ sein soll, so wird es gerade unterscheidbar und unterschieden
sein.
270
Nr. 9 macht von der Definition der Ungleichheit Gebrauch und spezifiziert sie
als das Verhältnis von „größer ... kleiner“. Dieses hat in der Arithmetik als eigener
Junktor „ > “ („größer als...“, und spiegelbildlich dazu „ < “ „kleiner als...“) eine
bedeutende Anwendung, ebenso aber auch in der Geometrie im Verhältnis von
Figuren und Teilfiguren (z. B. Kreis - Halbkreis).
Die Verwendung der Wörter „Ganzes“ und „Teil“ wendet sich zweifellos wieder an den Praktiker, der nicht im Zweifel sein kann, was dies anschaulich bedeutet. Der Arithmetiker wird sich das Verhältnis von Ganzem zu seinen Teilen
zunächst etwa an den Summen im Verhältnis zu ihren Summanden verständlich
machen, die immer größer sind als diese. Bei den Definitionen der arithmetischen
Verhältnisse im 5. Buch (Def. 1 und 2) und im 7. Buch (Def. 3) ist auch explizit
von größeren Zahlen und kleineren als deren Teile die Rede, nicht aber vom
Ganzen.
Der platonische Mathematiker muß hier aber das Ganze wiederum als ein
dialektisches Gebilde denken. Es enthält einerseits kleinere Teile, andererseits
enthält es sich selbst als seinen Teil und ist damit zugleich auch größer als es
selbst. Diese Denkform ist später in dem merkwürdigen Satz „das Ganze ist
größer als die Summe seiner Teile“ festgehalten worden. In der mengentheoretischen Mathematikbegründung wurde er weidlich ausgebeutet. Denn darin wurde
als selbstverständlich vorausgesetzt, daß Mengen sich selbst enthalten können.
Der kontradiktorische Charakter dieser Annahme hat sich in den mengentheoretischen Paradoxien gezeigt.
Nr. 10 klingt wie eine Tautologie und ist deshalb in manchen Euklidausgaben
an dieser Stelle weggelassen worden. Man unterstellt dann, daß der Begriff
„rechter Winkel“ schon selbst die Bedeutung hat, daß „alle gleich“ seien. Und das
wäre ganz richtig, wenn es in dieser Definition nur auf den Begriff vom rechten
Winkel ankäme, deren einzelne wohlunterschieden und somit „gleich“ sein
können. Erinnern wir uns aber, daß die mathematische Gleichheit eine Äquivalenz
bedeutet, in der ein Identisches und ein Unterschiedliches zugleich ausgedrückt
wird, nicht aber nur eine intensionale Identität des generischen Merkmals in allen
unter das Genus fallenden Instanzen. Die Gleichheit unter den rechten Winkeln
meint also zugleich die Identität hinsichtlich der gemeinsamen Eigenschaft
„rechte“ zu sein als auch die Unterschiedlichkeit ihrer Lage und Stellung in den
geometrischen Gebilden. Und dies läßt sich nur in Gleichungen bzw. Äquivalenzen darstellen.
Nr. 11 wird gewöhnlich als „negative“ Präzisierung der Parallelendefinition
verstanden und deswegen in neueren Euklidausgaben an dieser Stelle weggelassen. Gleichwohl scheint die Definition der Nicht-Parallelen an dieser Stelle
nicht überflüssig zu sein, da sie ja ein häufig auftretendes praktisches Problem betrifft, nämlich Parallelen von Nichtparallelen und die entsprechenden Winkelverhältnisse bei den Schnitten zu unterscheiden.
Die Dialektik der Nicht-Parallelendefinition liegt in der Bedeutung des Ausdrucks „genugsam verlängern“. In der Praxis wird sich immer ein Schnittpunkt
271
der Nicht-Parallelen in endlichem Abstand ergeben. Aber es wird durch die
Formulierung (und das sog. Postulat Nr. 2) nicht ausgeschlossen, daß er im Unendlichen liegen könnte. Dann sind die Nicht-Parallelen zugleich auch Parallelen
und die nicht-rechten Winkel sind zugleich rechte.
Nr. 12 besagt wörtlich, daß „zwei gerade Linien keinen Raum einschließen“.
Neuere Übersetzungen geben hier statt „Raum“ „Flächenraum“. Angesichts der
Tatsache, daß zwei winkelbildende Geraden auch bei Euklid eine Fläche einschließen (was, wie oben gesagt, vorausgesetzt werden muß, aber nicht definiert
wird), müßte man die Definition geradezu für „falsch“ (d. h. für eine „NichtDefinition“) halten. Dies ist aber bei Definitionen (als Äquivalenzen) auszuschließen und auch dem Euklid nicht zu unterstellen. Also wird doch wohl gemeint sein, daß sich durch zwei gerade Linien kein Raumgebilde einschließen
läßt. Man braucht - entsprechend den Winkelschenkeln des Dreiecks in der Fläche
- mindestens drei gerade Linien dazu. Euklid behandelt jedenfalls im 11. Buch der
Elemente unter der 11. Definition „körperliche Winkel“ bzw. Ecken. Es heißt da:
„Ein körperlicher Winkel (eine Ecke) ist die Neigung wenigstens dreier geraden
Linien gegen einander, welche, ohne in einerlei Ebene zu liegen, in einem Punkte
zusammentreffen. Oder: ein körperlicher Winkel wird von wenigstens drei ebenen
Winkeln eingeschlossen, welche, ohne in einerlei Ebene zu liegen, an einem
Punkte zusammengestellt sind“. Wenn es hierbei eine Dialektik gibt, so liegt sie,
wie auch schon bei den Winkelflächen, darin, daß diese Flächen bzw. Räume sowohl durch die Schenkellinien „eingeschlossen“ als auch (auf ihrer offenen Seite)
nicht eingeschlossen“ sind.
Wie man gesehen hat, gehen die „Elemente“ des Euklid in diesen „wissenschaftlichen” Teilen nicht über das hinaus, was auch schon Aristoteles für jede Wissenschaft gefordert hatte, was aber bei ihm nicht für den Bereich der Mathematik
geleistet war. (Genauer gesagt, man weiß es nicht, da evtl. einschlägige Schriften
von ihm verschollen sein können). Vermuten kann man, daß Aristoteles in mathematischen Abhandlungen die beschreibende Definition der „zweiten Substanzen“
bzw. der mathematischen Ideen gegeben haben könnte, die in einer „Faktenkunde“ gewußt und beherrscht werden mußten, um mit und zwischen ihnen „theoretische“ Verknüpfungen vornehmen zu können. Mathematische Theorie mußte
dann in einer „erklärenden“ Urteilsbildung bestehen, in der die so definierten Elemente als „Begriffe“ eingesetzt und in behauptenden Aussagen verbunden wurden.
Solche Erklärungen und Theorien liest man in den „Theoremen“ und überhaupt
in den Texten der mathematischen Abhandlungen und Lehrbücher, wenn man die
geometrischen Konstruktionen und die Gleichungen beiseite läßt. Wer diese Textpartien aufmerksam und unter Ansetzung der logischen Sonde liest, wird bemerken, daß in ihren Urteilen sehr bald alle diejenigen logischen Widersprüche,
Antinomien, Paradoxien auftauchen, die sich aus der Verwendung der definierten
kontradiktorischen Begriffe zwangsläufig ergeben müssen.
272
Sie wurden und werden in der Regel dadurch konterkariert, daß man je nach
Bedarf nur die eine der in den kontradiktorischen Bestimmungen gelegenen Behauptungsmöglichkeiten exhauriert und die gegenteilige unbeachtet läßt. Aber es
dürfte geradezu das Gesetz des Fortschrittes in der mathematischen Theoriebildung darstellen, daß die andere Seite schließlich doch aufgegriffen und in
Konkurrenz zur vorher angenommen Interpretation als deren Alternative entwickelt wird. In dieser Phase werden die definitorischen Kontradiktionen also
zum Ausgang alternativer Theoriekonzeptionen, die die früheren Theorien verdrängen oder diese als „klassische“ Vorstufen dem historischen Gedächtnis einverleiben. Als Beispiel sei auf die Definition der geraden Linie und der ebenen
Fläche verwiesen, in denen die Punkte bzw. Linien „auf einerlei Art“ liegen
(Elemente, Buch I, Def. 4 und 7). Ersichtlich gilt das auch für die als gänzlich
modern und als nicht-euklidisch angesehene sphärische Geometrie, die als Alternative zur euklidischen Geometrie entwickelt wurde.
Aber neben den sprachlichen mathematischen Artikulationen gibt es die sogenannten formalen Artikulationen der arithmetischen Formeln und Gleichungen in
den Beweisen und in den geometrischen Konstruktionen. Zünftige Mathematiker wahrscheinlich aber nicht Euklid selber - haben sich angewöhnt, in ihnen eine
eigene besondere, ja „ideale“ Sprache für die Behauptung mathematischer Wahrheiten von unübertrefflicher Präzision zu sehen. Und im selben Maße, wie sie dies
taten, sahen sie in den tatsächlichen sprachlichen Texten nur unpräzise, didaktisch-hinführende und allenfalls erläuternde Paraphrasen zum exakten Formelsinn,
von dem sie - immer noch mit Platon - meinten, er ließe sich in gewöhnlicher
Sprache prinzipiell nicht ausdrücken.
Entsprechend nahmen sie ihre Fachsprache auch nicht mehr ernst und arbeiteten nicht mehr daran, sie als Teil einer gelehrten Bildungssprache, die auch
Außenstehenden zugänglich sein konnte, zu kultivieren. Und so schwand auch
allmählich das Bewußtsein davon, daß es gerade umgekehrt war und auch von
Euklid so gemeint war: Die Formeln sind - gleichsam als nur eine Seite des in
Gleichungen Definierbaren - entweder nur einfache mathematische Begriffe oder
komplexe aus einfachen Begriffen mit mathematischen Junktoren gebildete mathematische Ausdrücke. Und die Gleichungen definieren ihrerseits, welche von
ihnen denselben Sinn und dieselbe Bedeutung wie andere haben sollen, die Ungleichungen aber definieren, welche Begriffe oder Ausdrücke nicht denselben
Sinn bzw. dieselbe Bedeutung haben sollen.
Was es dabei mit den speziell arithmetischen Junktoren (den Operationsanweisungen für die Rechenarten) auf sich hat, und daß sie sich prinzipiell von den logischen - nicht urteilsbildenden, sondern nur ausdrucksbildenden - Junktoren ableiten lassen, das haben wir an anderer Stelle (vgl. Logik, 1987, S. 156 – 161 sowie
in den einleitenden Paragraphen, bes. § 9) gezeigt.
Was bisher dargestellt wurde ist in den „Elementen“ des Euklid thematischer Gegenstand weniger Seiten am Anfang einiger Bücher (bzw. Kapitel). Der Hauptteil
273
des Werkes von guten 400 Seiten aber besteht in praktischen Konstruktionsaufgaben der Geometrie, deren Lösung mit Hinweis auf die dazu nötigen Begriffe und
Ausdrücke und die anzuwendenden praktischen Operationen angegeben wird.
Hinzu treten „Beweise“, daß die erzielten Ergebnisse „richtig“ sind. Dieser Teil
bzw. diese Teile der „Elemente“ stellen den praktischen Teil des Werkes dar, und
was dabei dargestellt wird, nennt man gewöhnlich die Probleme.
Es hat unter den Auslegern des Euklid langwierige Auseinandersetzungen darüber gegeben, was hier eigentlich Problem genannt werde, und ob und wie es von
den „theoretischen“ Partien zu unterscheiden sei: Proklos (410 – 485 n.Chr.),
einer der prominentesten Kommentatoren der „Elemente“, sagt darüber, „bald
gelte es, etwas Gesuchtes ausfindig zu machen, bald, ein bestimmtes Objekt herzunehmen und zu untersuchen, was es ist, oder von welcher Beschaffenheit, oder
was mit ihm vorging, oder in welchem Verhältnis es steht zu einem anderen”.131
Die Frage ist noch heute umstritten und bildet selber ein Problem. Und man
wird auch sagen können, daß es - angesichts einer recht dürftigen wissenschaftstheoretischen Literatur zum Thema „Problem“ - eines der bis in die moderne Wissenschaftstheorie am meisten vernachlässigten und aufklärungsbedürftigen Probleme darstellt. Während die einen alles problematisierten, schränkten die anderen
ein: Problem ist nur die Suche nach einem bestimmten von mehreren möglichen
Wegen zu einem bestimmten Ziel. Proklos drückt das so aus: „Wenn jemand in
der Formulierung, als handle es sich um ein Problem, sagen wollte, es sei in einen
Halbkreis ein rechter Winkel einzuzeichnen, so wird er sich den Ruf eines Laien
in der Geometrie zuziehen; denn jeder Winkel im Halbkreis ist ein rechter” (vgl.
O. Becker, a.a. O. S. 102).
Was also gar nicht anders zu machen ist als auf eine bestimmte Weise, kann
nicht Problem sein. So wird man in Proklos„ Sinne auch sagen dürfen, daß nicht
das Nichtwissen und auch nicht das Wissen die Probleme macht, sondern das je
bestimmte Wissen um das Nichtwissen. M. a. W.: Man muß schon wissen, was
man sucht, und muß den Umkreis kennen, wo es zu finden ist, so daß man bei genügendem Umherschweifen darauf stößt, daß es einem „einfällt”. Und so wird an
dieser Wissenschaft mit ihren so sparsamen und übersichtlichen Voraussetzungen,
Regeln, und Handgriffen klar, daß es auch in ihr nicht ohne Einfälle, Phantasie, ja
den „Zufall” geht, der einem nun diesen oder jenen Weg zur Lösung „eingibt”,
diese oder jene Hilfskonstruktion zu wählen half. Geben wir als Beispiel eine
solche geometrische „Aufgabe“. Sie lautet:
(Elemente, 1. Buch, Satz 1): „Aufgabe: Auf einer gegebenen begrenzten geraden Linie AB
ein gleichseitiges Dreieck zu errichten.“ - Eine beigegebene Figur zeigt die Strecke AB, um
deren Endpunkte zwei sich schneidende Kreise mit dem Radius AB geschlagen sind. Ein mit
C bezeichneter Schnittpunkt dieser Kreise, mit den Punkten A und B verbunden, liefert das
gleichseitige Dreieck. D und E (in der beigegebenen Zeichnung) bezeichnen Schnittpunkte
der verlängerten Strecke AB mit den Kreisen. - Die Problemlösung lautet: „Aus dem
131
Proklos, Kommentar zu Euklids Elementen, zit. nach O. Becker, Grundlagen der Mathematik in geschichtlicher Entwicklung, Freiburg-München 1964, S. 101.
274
Punkte A beschreibe mit AB den Kreis BCD, und aus dem Punkte B mit BA den Kreis
ACE. Vom Punkte C, in welchem die Kreise einander schneiden, ziehe nach A und B die
Geraden CA und CB: So ist ACB das verlangte Dreieck“. - Es folgt der Beweis: „Denn da
AC = AB und BC = BA: so ist AC = BC. Demnach ist AC = AB = BC, folglich das auf AB
errichtete Dreieck gleichseitig.“ - Man beachte, daß die Gleichungen im Beweis die
definierte „Deckungsgleichheit“ der Strecken zum Ausdruck bringen.
In der Tat sind die in diesem praktischen Teil der „Elemente“ aufgelisteten geometrischen Konstruktionsprobleme und gelegentlichen arithmetischen Probleme
sämtlich schon gelöste Probleme und insofern eben keine Probleme mehr. Sie sind
die von Euklid mit enormem Fleiß und gelehrtester Übersicht gesammelten Problemlösungen aller seiner Vorgänger in der Geometrie, zu denen er nur recht wenige eigene hinzugefunden hat. Und diese Lösungen sind wiederum das gesammelte
Erbe einer ausgebreiteten und emsigen empirischen Such- und Probiertätigkeit
nach Lösungen von praktischen Problemen der Architektur und der Mechanik.
Gelöste Probleme aber werden von selbst zu Methoden und Techniken zur Bewältigung von Aufgabenstellungen. Insofern waren und blieben die „Elemente“ zu
allen Zeiten das autoritative Handbuch der Aufgabenbewältigung für die entsprechenden praktischen Herausforderungen. Und das auch noch in Zeiten, wo sich im
Verlauf des Kulturverfalls solche Aufgaben nicht einmal mehr stellten und die
„Probleme“ als rein theoretische Angelegenheiten behandelt wurden.
Gerade dadurch aber wurden die „Elemente“ auch zum abendländischen Lehrbuch der Geometrie und späterhin zum Vorbild aller mathematischen Lehrbücher.
Diese enthalten noch immer Aufgabensammlungen, die dem Lernenden als Probleme aufgegeben werden, deren Lösungen ihm aber vorenthalten werden, so daß
er sich zunächst - und manchmal auch mit Erfolg - an einer selbstgefundenen
Lösung erfreuen und damit als neuer Thales oder Pythagoras fühlen kann. Der
Lehrer aber, der sich früher selbst vielleicht in dieser Weise an „Problemen“ abgearbeitet hat, kennt die Lösungen (oder sollte sie kennen) und weiß daher, daß auf
diesem Gebiete schwerlich neue Lösungen gefunden werden können. Je weiter
darin fortgeschritten wird, desto mehr konzentriert sich das Lernen und Lehren
auf die Beweise der Richtigkeit der Lösungen bis es - in der akademischen Lehre fast nur noch in der Herleitung von Beweisen für Lösungsvorschläge besteht. Man
verkenne nicht, in welchem Maße diese akademische Lehrart der Mathematik
dann dazu beigetragen hat, der Mathematik den Nimbus zu verschaffen, in ihr
werde geradezu alles in beweisender Deduktion von evidenten Axiomen her vermittelt.
Kein Wunder, daß die Platoniker, zu denen ja auch gerade Proklos gehörte, darin eine Bestätigung der Anamnesislehre sehen konnten, die dem Mathematiker
ein „unbewußtes Wissen” vindizierte. Sie ist bis heute der Grund für die verbreitete Überzeugung geblieben, daß die echten erstmaligen Problemlösungen der
Begnadung und der unvorgreiflichen Genialität verdankt werden und daher mit
Ehrenpreisen und unsterblichem Ruhm zu honorieren seien. Und so ehren die
Mathematiker (und Naturwissenschaftler) bis zum heutigen Tag die ingeniösen
275
Erfinder solcher Problemlösungen, indem sie diese mit deren Eigennamen benennen.
An der Stelle, wo in den geometrischen Büchern der „Elemente“ Probleme als
Konstruktionsaufgaben aufgelistet sind, stehen in den arithmetischen Büchern die
„Lehrsätze“ bzw. Theoreme, und nur gelegentlich sind auch „Probleme“ als Aufgaben eingestreut. Diese Theoreme sind nun die eigentlich behauptenden Urteile
und Schlüsse in den „Elementen“ und damit auch der wahrheits- bzw. falschheitsfähige Teil dieser Wissenschaft. In ihnen ist das „theoretische Wissen“ der ganzen
antiken Arithmetik gesammelt.
Bemerken wir zuerst und vorzüglich für Philosophen: Man findet hier keine der
vermeintlich banalen „mathematischen Wahrheiten“ wie etwa „2 mal 2 = 4“ oder
gar das kantische Beispiel für ein angeblich apriorisch-synthetisches Urteil, daß „5
+ 7 = 12“ sei, das naturgemäß und nach allem bisher Gesagten nur eine Äquivalenz bzw. eine Definition eines bestimmten Summenausdrucks durch einen bestimmten Zahlenwert darstellt. Die „theoretischen Wahrheiten“ in diesem Bereich
lauten vielmehr etwa so (Elemente, Buch 10, Satz 1):
„Nimmt man bei zwei gegebenen ungleichen Größen AB und C von der größeren AB mehr
als die Hälfte weg, von dem Reste wieder mehr als die Hälfte, und so immer fort, so kommt
man irgend einmal auf einen Rest, welcher kleiner ist, als die gegebene kleinere Größe C.“
Hier ist zunächst wichtig, daß von „Größen“ die Rede ist. Dies können Zahlen
sein und der Lehrsatz muß dann von ihnen gelten. Es können aber auch geometrische Größen wie etwa Strecken von bestimmter Länge sein. Und genau
solche werden nun im „Beweis“ des Lehrsatzes und in einer beigefügten Abbildung solcher Strecken verwendet. Er lautet (und sei als Beispiel für solche
Beweise hier angegeben):
„Mache, was immer angeht, von C (der kleineren Größe) ein Vielfaches DE, welches
zunächst größer als AB (die Ausgangsgröße) ist und teile solches in seine der C gleiche
Teile DF, FG, GE. Von AB nimm mehr als die Hälfte BH, von dem Reste AH mehr als die
Hälfte HI, und dies so fort, bis in AB so viele Abschnitte AI, IH, HB (sind) als Teile in DE
sind. Da also DE größer als AB ist, und von DE weniger als die Hälfte EG, von AB aber
mehr als die Hälfte BH weggenommen wird, so ist der Rest GD größer als AH. Nun wird
von GD die Hälfte GF, von AH aber mehr als die Hälfte HI weggenommen. Folglich ist der
Rest DF größer als AI, oder, weil DF = C ist, C größer als AI, folglich der Rest AI kleiner
als C. - Auf ähnliche Art wird der Satz bewiesen, wenn in AB immer nur die Hälfte
weggenommen wird.“
Der Beweis demonstriert die Größenverhältnisse „ad oculos“ für den geometrischen Praktiker, aber nicht für den arithmetischen Denker. Ihm ist es sicher
plausibel, daß man jede Zahl durch fortgesetzte Subtraktion von Einheiten kleiner
machen kann als eine beliebige Zahl, die kleiner ist als die Ausgangszahl. Das
Problem dabei ist, ob der Rest bei solchen Subtraktionen immer überhaupt eine
Zahl ist. Offensichtlich ist das nicht immer der Fall, denn es können auch „irrationale“ Restgrößen übrigbleiben, von denen es (wenigstens bei Euklid) offen
bleibt, ob sie Zahlen sind. Aber auch die irrationalen „Größen“ sind jedenfalls
276
Größen - und das 10. Buch der „Elemente“ handelt genau von diesen und definiert
sie. Deshalb impliziert der geometrische Beweis hinsichtlich der „Größen“ für die
Zahlenlehre, daß man die irrationalen Größen als Zahlen behandeln muß, wenn
das Theorem für die Arithmetik gelten soll. Und daß dies gemeint ist, geht wohl
schon aus dem nächsten Lehrsatz 2 hervor, welcher lautet: „Zwei ungleiche
Größen AB, CD sind, wenn bei wiederholter Wegnahme des Kleinern vom
Größern kein Rest das ihm nächst Vorhergehende genau mißt, inkommensurabel“.
Der 5. Satz aber lehrt unter deutlichem Hinweis auf die Verschiedenheit von
Zahlen und inkommensurablen Größen: „Kommensurable Größen A, B verhalten
sich wie Zahlen zu einander“.
Wir haben die „Elemente“ des Euklid als abendländisches Lehrbuch der Mathematik so ausführlich im vorliegenden Kontext dargestellt und logisch betrachtet,
weil es stilbildend für eine bestimmte Methode des wissenschaftlichen Denkens
geworden ist. Und dies in offenbarer Alternative zur Logik des Aristoteles und der
Stoiker.
Von den Philosophen ist es immer stiefmütterlich behandelt worden, und zwar
ersichtlich aus einem gewissen Horror vor dem „Unlogischen“ oder jedenfalls der
Esoterik des mathematischen Denkens. Als in der Spätantike und Scholastik die
aristotelische Logik genauer studiert und auch in der Theologie verwendet wurde,
konnte man nicht umhin, auch die Widersprüche in der heiligen Schrift und bei
ihren patristischen Auslegern zu bemerken. Wir werden später zeigen, daß einige
Philosophen und Theologien die Widersprüchlichkeit bzw. Dialektik der Glaubenswahrheiten (Credibilia) geradezu als Ausweis ihrer „höheren Wahrheit“ ausgegeben haben. Nicht jedem Philosophen blieb aber auch die Dialektik der Mathematik verborgen. Und so wurde auch die Mathematik seit dem 13. Jahrhundert ein
methodisches Instrument, diese höhere Glaubenswahrheit zu artikulieren und zu
beweisen, wie man in den Schriften von Roger Bacon und von Nikolaus von
Kues sehen kann.
Im 17. Jahrhundert erfreuten sich die „Elemente“ als Nachhall der (vermeintlichen) „Wiederentdeckung“ des Euklid durch die Mathematiker der Renaissance
großer Bewunderung und vieler Versuche von Anwendungen. Sie sind unter der
Bezeichnung „Mos geometricus“ bekannt geworden. Aber dieser an die dominierende Darstellung der Geometrie in den „Elementen“ erinnernde Titel wurde allzu
schnell als Methodentitel eines vermeintlich neuen „logischen“ Denkens aufgefaßt. Dieses bestand aber nur in der Übernahme der äußerlichen Gliederung der
„Elemente“ in Lehrbüchern der Disziplinen bzw. ihrer Theorien, d. h. im Ausgang
von Definitionen und Axiomen und der Deduktion von Theoremen aus ihnen.
In der Zeit der großen philosophischen Systembildungen des 17. Jahrhunderts
gab der Mos geometricus das maßgebliche Vorbild ab, die „Philosophien“ selbst
in dieser Gestalt aufzubauen. So hat etwa Descartes seine eigene Philosophie und
dann Spinoza das philosophische System des Descartes und auch seine eigene
„Ethik“ „more geometrico“ dargestellt. Kant brachte diese philosophische Haltung
277
auf die Formel, es gelte in den Systemen jeweils „ein nach Prinzipien geordnetes
Ganzes der Erkenntnis“ vorzustellen. Wie dergleichen aussehen sollte, dafür blieben die Elemente des Euklid ein ständiges Vorbild.
§ 20 Der Epikureismus
Die epikureische Wissenschaftsarchitektonik. Logik als Regelkanon der Begriffsbildung. Atomistische und indeterministische Naturphilosophie. Vorrang der Ethik. Individualismus und Freiheit
als Grundlage des guten Lebens. „Privatleben“ versus öffentliches Engagement. Die Rolle der
Freundschaften. Epikureismus als Hausphilosophie der empirischen Ärzte.
Begründet von dem Demokriteer Epikur (341 – 270 v. Chr.),132 knüpft der Epikureismus an die Atomlehre des Demokrit an und entwickelt sie zu einer materialistischen, indeterministischen und sensualistischen Welterklärungsdogmatik. Alle
Erkenntnis ist hier auf sinnlich ausgewiesene Begriffe (Prolepsis ῆ)
beschränkt und begründet, die nach logischen Regeln („Kanonik“) zu ordnen sind
und einer dem vernünftigen Lustgewinn gewidmeten Lebensführung dienen.
Dazu gehört vor allem die Abweisung alles Übersinnlichen, der Götter und der
Todesfurcht, die auf einem falschen Götter- und Jenseitsglauben beruhe. Von den
Göttern sagen die Epikureer, falls es sie gäbe, hielten sie sich weit enfernt von
unserer Welt in den „Zwischenwelten“ (Intermundien) auf und genössen dort
einer dauernden Glückseligkeit. Daher würden sie sich nicht um die hiesige
Menschheit kümmern. Sie greifen nirgends ein, und daher ist es zwecklos, etwas
von ihnen zu erbitten oder zu erhoffen, oder sie gar durch einen Kult geneigt zu
machen.
Die Welt ist bloß Natur. Sie besteht ewig. Alle ihre Bildungen sind zufällige Zusammenballungen der Atome, so auch die menschlichen Körper und Seelen. In ihr
herrscht durchweg Zufall und somit das, was man für den Naturbereich Indeterminismus, für den menschlichen aber Freiheit nennt.
Durch des Lukrez (ca. 96 – 55 v. Chr.) Lehrgedicht „De rerum natura” (Von der
Natur der Dinge)133 hat dieses Weltbild eine großartige dichterische Ausgestaltung
erfahren und weite Bildungskreise erreicht. Durch den Arzt Asklepiades von Pru-
132
Epikurs Lehren sind in der Form eines kurzen ethischen Lehrbuchs (Kyriai Doxai), einer Schrift „Über die Natur“ (Peri
Physeos), in Briefen an seine Freunde sowie vor allem durch die „Fragmente“ im letzten Teil der Philosophiegeschichte des
Diogenes Laertios überliefert. Vgl. O. Gigon (Hg. und Übers.), Epikur. Von der Überwindung der Furcht. Katechismus
Lehrbriefe, Spruchsammlung Fragmente, Zürich 1949, auch München 1991. - R. D. Hicks (Hg.) Diogenes Lartius, Lives of
Eminent Philosophers, griech.-engl, 2 Bände, London-Cambridge, Mass. 1959- 1965, Bd. 2, S. 528 - 677.
133
M. F. Smith (Hg.), Lucretius, De rerum natura, lat.-engl., Cambridge, Mass.-London 1975.
278
sa (1. Jh. v. Chr.) ist es auch zu einem Grundbestand ärztlicher Überzeugungen
geworden.
Für die Wissenschaftstheorie sind der atomistische Materialismus, die sensualistische Erkenntnistheorie, die Verankerung der Freiheit in der Natur selber sowie
die Indienstnahme der Wissenschaft für das praktische Leben die wirksamsten
Beiträge des Epikureismus gewesen. Er ist in der Neuzeit gleichsam wiederentdeckt worden und bildet seitdem einen festen Bestand forschungsleitender Hintergrundsideen.
Auch Epikur bemühte sich, eine Architektonik der Wissenschaften aufzustellen.
Sie ist, wie die stoische, dreiteilig und weist den einzelnen Teilen verschiedenen
Rang zu. Voran steht
1. die Logik. Sie wird von Epikur als Lehre von den Regeln der Begriffsbildung
behandelt und „Kanonik“ genannt. Eine besondere Urteils- und Schlußlehre hielt
er für entbehrlich, da sich das Urteilen und Schließen nur auf zuverlässige Begriffe stütze und immer wieder auf sie zurückführe.
Begriffe sind dabei nichts anderes als die in der Seele - durch die Sinnesorgane aufgefangenen Bilder (eidola ἴ) der Wahrnehmungsinhalte, die sich durch
Wiederholung verfestigen und dann sprachlich benannt und erinnernd evoziert
werden können. Sie sind vor allem von den „Phantasmen“ (θά) zu unterscheiden, die - als Abflüsse der körperlichen Dinge - durch die Poren in die
menschlichen Körper einfließen und im Bewußtsein als defekte und verunstaltete
Bilder dieser Dinge auftauchen.
Der Mathematik sprach Epikur jeden methodischen und Erkenntniswert ab und
befaßte sich daher auch nicht damit.
Den 2. Rang nimmt die Naturlehre ein. Sie beruht auf der demokritischen Voraussetzung, daß die Natur aus ewig bestehenden materiellen Atomen bestünden,
die im Leeren (dem Raum) chaotisch herumschwirren und sich gelegentlich durch
Zufälle zu komplexeren Gebilden zusammenfügen. Diese bilden ihrerseits die
toten und lebendigen Elemente und somit auch die tierischen und menschlichen
Körper. Auch die menschlichen Seelen sind nichts anderes als luft- und feuerartige Atomkomplexe, von denen sich ein Teil als „vernünftiger Seelenteil“ in der
Brust festsetzt, ein anderer „unvernünftiger Teil“ im ganzen Körper ausbreitet.
Der Tod wird als „Ausfall der Wahrnehmung“ (steresis aistheseos έ
ἰή) bezeichnet. Er kann deshalb auch nicht vom einzelnen Menschen selbst erfahren werden. Im Verfall des die Seele umgreifenden Körpers
vermischen sich auch die Seelenteile wieder mit den Atomen der Natur.
Die Natur selbst umfaßt unzählige sich immer wieder neu bildende und vergehende Welten (kosmoi ó), von denen nur der uns umgebende Teil bis
zum Sternhimmel sichtbar ist.
279
Den 3. und Hauptrang nimmt sodann die Ethik ein. Die Logik der sinnlich
ausweisbaren Begriffe und die beschränkten Einsichten der Naturlehre nutzend,
stellt sie eine Lehre darüber dar, wie der Mensch als prekäres, aber freies (durch
keine Kausalität determiniertes) Körperwesen in einer grundsätzlich chaotischen
und letztlich undurchschaubaren Welt ein möglichst lustvolles, glückliches Leben
führen kann.
Der einzelne Mensch wird in seiner jeweiligen zufälligen Konglomeration von
Körper- und Seelenatomen solange er lebt als einmaliges und unverwechselbares
„Individuum“ angesehen. Er ist in diesem Komplexionsbereich der Atome selbst
ein Analogon des natürlichen „Atoms“ (wie der lateinische Ausdruck „individuum“ besagt). Um ein glückliches Leben zu führen, muß das Individuum eine
vernünftige Balance zwischen Genuß und Hinnahme unvermeidlicher Übel wie
Krankheiten und widrigen äußeren Lebensumständen zustande bringen. Jedes
Übermaß an Lust straft sich selbst durch nachfolgende Beschwerden, und einem
unerträglichen Übermaß an Übeln kann durch Selbstmord entgangen werden.
Diese Balance aber wird durch Vernunftgebrauch und Ausbildung vernünftiger
Tugenden wie Mäßigung und Unerschütterlichkeit (Ataraxie ἀí) aufrecht
erhalten. Wie die natürlichen Atome sich zu dem verbinden, was man heute Moleküle nennt, so gehört es auch zum Wesen der menschlichen Individuen, sich zu
„Freundschaften“ zu verbinden. Sie sind gleicherweise eine ständige Lust- und
Genußquelle wie auch eine Bedingung des Schutzes und der Hilfe in der sonst
unbeständigen Welt und werden von den Epikureern in den höchsten Tönen
gepriesen. Im „Garten“ des Epikur, der der Schule als Lehr- und Treffpunkt zur
Verfügung stand, wurde die Freundschaft praktisch gepflegt. Im Unterschied zu
den anderen philosophischen Schulen nahmen an den philosophischen Diskussionen der „Gartenphilosophen“ auch die Frauen und Sklaven teil.
Von einer darüber hinausgehenden Einmischung in das öffentliche und staatliche Leben wird im allgemeinen abgeraten - es sei denn, aus der politischen
Betätigung könne im Einzelfall besonderer Lustgewinn gezogen werden. Maxime
der glücklichen Lebensführung bleibt in jedem Falle das „Lathe biosas“
(ῶ), das Leben in der „Eingezogenheit“, was man später mit dem der
stoischen Kritik entlehnten Wort „Privatleben“ (d. h. der öffentlichen Wirksamkeit „beraubtes“ Leben) bezeichnete.
Die epikureische Lehre war wegen ihres vorgeblichen „Hedonismus“ und ihrer
„Gottlosigkeit“ fast zu allen Zeiten Gegenstand heftigster Kritik aller anderen
Schulen. Allerdings sprach Epikur sehr wohl von den Göttern, aber als von immer
glücklichen Wesen in den „Zwischenwelten“, die sich um die Menschen in dieser
Welt nicht kümmern. Deswegen sei es nutzlos, sich an sie zu wenden.
Gleichwohl ist seine Lehre im Abendland immer, wenn auch gleichsam untergründig, wirksam gewesen. In der Renaissance erhielt sie mit dem Interesse an
allen Erbschaften der Antike erneuten Auftrieb. In den Naturwissenschaften des
17. und 18. Jahrhunderts war sie als indeterministische Körperlehre geradezu ein
280
Leitmodell der Naturerklärung, das auch in unserem Jahrhundert in der indeterministischen Mikrophysik nochmals aufgegriffen wurde.
In den Geisteswissenschaften und in der praktischen Philosophie wurde der Epikureismus seit der Aufklärung Grundlage des individualistischen (egoistischen)
Lebensstils, des modernen „persuit of happiness“ der freien Persönlichkeit und der
antiinstitutionellen „anarchistischen“ Bewegungen.
Ihre Naturphilosophie erfreute sich zu allen Zeiten der besonderen Sympathie
der Ärzte, und unter diesen besonders der „Empiriker“. Über die Ärzteschaft ist
sie auch in den Zeiten tradiert worden, wo sie wegen der Kritik der herrschenden
anderen Schulen in der Philosophie als untergegangen galt.
Die Virulenz des epikureischen Denkens in der (empirischen) Ärzteschaft zeigt
sich überall da, wo man den menschlichen Organismus insgesamt als atomare
Konglomeration ohne alle weitere psychische oder gar geistige Ingredienzien
betrachtete. Noch der berühmte Chirurg R. Virchow stellte im 19. Jahrhundert in
diesem Sinne fest, daß ihm bei all seinen medizinischen Operationen „nie eine
Seele unters Messer gekommen sei“. Ärztliche Erfahrung beschränkt sich dabei
auf „zufällige“ - und daher niemals notwendige - Regularitäten der gesunden und
kranken Prozesse, die zwar mehr oder weniger genaue Diagnosen des aktuellen
Zustandes, doch niemals genaue Prognosen künftiger Verläufe erlaubt. Daher
rechnet der empirische Arzt, der sich heute in der Gestalt des Naturheilkundigen
präsentiert, immer auch mit unvoraussehbaren „wunderbaren“ Heilerfolgen, die er
weder voraussehen kann noch erklären will.
§ 21 Die Stoa
Allgemeine Charakteristik. Die Wissenschaftsarchitektonik: Logik, Naturwissenschaft und praktische Philosophie. Die Logik bzw. „Dialektik“: Begriffslehre, Urteilslehre und Schlußlehre. Das
Wissenschaftskonzept: Atomismus, Universaldeterminismus, Makro-mikrokosmisches Modelldenken in Anwendung auf Natur, Kultur und den Menschen. Die praktische Philosophie: die vier
Kardinaltugenden des Vernunftmenschen. Ethik und Rechtsbegründung. „Naturrecht“ als ungeschriebenes oder erkanntes Naturgesetz. Stoische Rechtsbegriffe und das Fortleben der stoischen
Philosophie als Hausphilosophie der Juristen.
Benannt nach ihrem Lehrinstitut, der Stoa Poikile in Athen, ist diese Lehre von
Zenon aus Kition auf Zypern (ca. 336 – 264 oder 262 v. Chr.) begründet worden
und hat ihre umfassende Ausbildung durch Zenons Enkelschüler Chrysipp (ca.
281 – 208 v. Chr.) erfahren. Durch Panaitios von Rhodos (ca. 185 – 110 v. Chr.)
281
und Poseidonios von Apameia (ca. 135 – 51 v. Chr.) ist sie eine Art Staatsideologie des römischen Reiches geworden, zu der sich als bedeutendste Anhänger der
Kaiser Mark Aurel (Marcus Aurelius, Regierung 161 – 180 n. Chr.), der Staatsmann Lucius Annaeus Seneca (gest. 65 n. Chr.) wie auch der (freigelassene)
Sklave Epiktet (ca. 50 – 138 n. Chr.) bekannten.134
Durch ihre Gründer hat sie vor allem an die heraklitische Logoslehre, die Logik
der Megarer, die kynische Ethik und die aristotelische Wissenschaftslehre und
Logik angeknüpft und diese Motive zu einem in manchen Zügen dem epikureischen ähnlichen Weltbild vereinigt.
Ähnlich wie bei den Epikureern ist ihre sensualistische Grundlegung der Erkenntnislehre ausgestaltet. Alle Erkenntnis beginnt in dem sonst leeren Bewußtsein („tabula rasa”) mit der Ansammlung sinnlicher Eindrücke: den Sinnesbildern
und Erinnerungsbildern. Diese werden durch die „zupackende Phantasie” (phantasia kataleptiké íή, nach einer anderen Auslegung ist es
die „gepackte”, durch die Lebhaftigkeit der Sinneseindrücke überwältigte Phantasie) so geordnet, daß die am häufigsten vorkommenden Sinneseindrücke, sich in
der Erinnerung ständig überlagernd, zu festen Begriffen (Prolepsis ῆ)
werden.
Diese sind zugleich Kriterien der Wahrheit gegenüber den flüchtigeren und
besonders den sinnestäuschenden Eindrücken. Die spätere Stoa hat großen Wert
darauf gelegt, diese an sich sensualistische Erkenntnistheorie auch ontologisch zu
untermauern, indem sie die Allgemeinbegriffe als eingewurzelte Vernunftbegriffe
(Emphytoi logoi ἔó, logoi spermatikoi óí) der
menschlichen Seele erklärte und damit die (aristotelische) Tabula-rasa-Theorie
des Bewußtseins zugunsten einer (platonisch inspirierten) Lehre von „eingeborenen (besser aber als „angeboren“ zu bezeichnenenden) Ideen” aufgab.
Als Lehre von den allen Menschen „gemeinsamen Grundbegriffen” (koinai
ennoiai ὶἔ), Vor-Urteilen und Grundüberzeugungen wurde sie zum
festen Bestandteil aller späteren rationalistischen Erkenntnistheorien und der Lehren vom „Apriori“. Insbesondere aber hat sie später oftmals sowohl Juristen wie
Theologen und Ärzten dazu gedient, den Verbrecher, Häretiker oder Verrückten
als dieser gemeinsamen Menschenvernunft nicht Teilhaftigen aus der menschlichen Gemeinschaft auszuschließen.
In ihrer Naturauffassung gehen die Stoiker wie die Epikureer von einem atomistischen Materialismus aus. Auch die Seelen erklären sie aus feinster und
feurigster „luftartiger“ Materie (Pneuma ῦ). Götter und eine oberste Gottheit nehmen sie an und erklären sie als Weltseele und Urfeuer, das in unendlichen
Kreisläufen (Aion ἰῶ) alle Wirklichkeit aus sich entläßt und wieder verbrennt.
134
Zur Stoa vgl. M. Polenz, Die Stoa. Geschichte einer geistigen Bewegung, 2 Bände, Göttingen 1949 - 1959, neue Aufl.
1972 – 1978. – Immer noch lesenswert F. Ueberweg, Grundriß der Geschichte der Philosophie, Band 1: Die Philosophie
des Altertums, hgg. von K. Praechter, 12. erw. Aufl. Nachdr. Darmstadt 1957, S. 410 – 43; S. 475 – 483; S. 486 – 503.
282
Im Unterschied zu den Epikureern untersteht bei ihnen jedoch alles Geschehen
strengster Gesetzlichkeit oder Notwendigkeit (Anánke ἀά Die göttliche
Weltvernunft, oft als Heimarmene (ἱέ) bezeichnet, hat alles vorausbestimmt (Pronoia ó) und zum besten gerichtet (Teleologia í), vor
allem zum besten des Menschen, der die Mitte des Naturreiches darstellt.
So ist auch Zufall und Freiheit, wie sie die Epikureer vertraten, nur Schein. Der
universale Determinismus (Anánke ἀά, lat.: fatum, daher Fatalismus) zwingt
den Widerstrebenden und leitet den Willigen (Seneca: nolentem fata trahunt,
volentem ducunt) unter das Naturgesetz (Lex naturalis). So wird alle Wissenschaft
Forschung nach den Naturgesetzen, alle Lebensführung „naturgemäßes Leben”
(physikôs zên ῶῆ gemäß der Einsicht in diese Naturgesetze. Der
„kleine Kosmos” Mensch wird nach der von ihnen propagierten Mikro-Makrokosmos-Entsprechung ein Abbild des großen Kosmos.
Demgemäß teilen die Stoiker auch die praktische ethische Indienstnahme der
Wissenschaft mit den Epikureern: Sie pflegen und erweitern die Logik vor allem
durch Hinzunahme der Rhetorik und Sprachwissenschaft, deren bis heute verwendete grammatische Kategorien von ihnen stammen, als den „Zaun”, der den
„Garten” der Naturwissenschaft umgibt, in welchem die „Früchte” der Ethik und
praktischen Philosophie reifen. Letztere ist ihnen eine Ethik des öffentlichen, solidarischen Lebens der menschlichen Gemeinschaft, in welcher sie die Pflichten
und Verpflichtungen des Einzelnen für das Ganze und Allgemeine besonders
betonen. Sie richten sich damit besonders gegen die Epikureer und ihre individualistische Ethik des Privatlebens und der intimen Freundschaftsverhältnisse.
Es liegt auf der Hand, daß eine solche Philosophie eine besondere Relevanz für
Juristen, Staatsmänner und Institutionenvertreter besitzt, die sie seither als ihre
Hausphilosophie kultivieren.
Die stoische Erkenntnistheorie von den gemeinmenschlichen Grundüberzeugungen hat die römische Rechtsdogmatik begründet und ihren Anspruch auf Anerkennung bei allen Völkern und zu allen Zeiten zu einer abendländischen Selbstverständlichkeit gemacht. Die inhaltliche Ausgestaltung des Rechts ist nichts
weniger als willkürlich. Sie folgt selber der Einsicht in die Notwendigkeiten der
Natur, deren Gesetze sie im „Naturrecht” nur aufzeichnet, keineswegs aber
erfindet oder erzeugt.
Naturgesetz und Naturrecht ist für die Stoa eines und dasselbe: „Das Naturrecht
ist das, was die Natur alle Lebewesen gelehrt hat; denn dieses Recht ist nicht nur
der menschlichen Gattung eigen, sondern allen Lebewesen, die im Himmel, auf
der Erde und im Meer geboren werden“.135 So gibt sie auch der Weiterentwicklung der juristischen Dogmatik und der Gesetzgebung wie der Rechtsauslegung
die wissenschaftliche Einsicht in die Gesetze der Realität als Richtlinie vor. Das
Naturrecht, wie mangelhaft es auch immer als Naturgesetz erkannt und ausge135
Ius naturale est, quod natura omnia animalia docuit, nam ius istud non humani generis proprium est, sed omnium
animalium, quae in coelo, quae in terra, quae in mari nascuntur. In: Institutionen des Justinian, Buch I, Titel 2.
283
sprochen werden kann, bleibt hier Maßstab aller Gerechtigkeit und Vor-Urteil des
richtigen und wahren Rechts.
Es sei aber hier schon bemerkt, daß die Stoiker weit davon entfernt waren, alles
menschliche Handeln unter ethische oder gar juristische Normen zu stellen, wie
das besonders in der Moderne unter der Maxime der „Verrechtlichung aller Lebensverhältnisse“ immer mehr der Fall ist. Sie betonen vielmehr mit Nachdruck,
daß es in allem Handeln und gegenüber allen Normierungen stets den Bereich des
„Gleichgültigen“ (adiaphoron ἀδιάθορον) gibt, der solcher Normierung nicht bedarf.
Die gleichen Momente sind auch für die Wissenschaftstheorie von erheblicher
Bedeutung geworden. Der Gedanke des Universaldeterminismus in der Natur, auf
dessen Folie Freiheit nur ein objektiver Schein und allenfalls Anzeichen unserer
Unwissenheit über die zugrundeliegenden kausalen Zusammenhänge der Dinge
ist, hat die kausale Naturforschung selbst in ausweglos erscheinenden Lagen immer wieder beflügelt und zu oftmals überraschenden Kausalerklärungen geführt.
Erst zu Beginn des 20. Jahrhunderts sind ihr in der indeterministischen Quanteninterpretation „epikureische“ Gegner entstanden. Das anfängliche Schwanken
zwischen Sensualismus und apriorischem Rationalismus hat sich bis heute in den
wissenschaftstheoretischen Grundlagentheorien repristiniert, wo Empiristen und
Rationalisten sich noch mit gleichem Recht auf die Stoa berufen können. Nicht
zuletzt knüpft die neuere Logik und Argumentationstheorie, insbesondere in ihren
Gestalten als Metatheorie der idealen und natürlichen Sprachen, wieder an die
stoische Dialektik und Grammatik an, deren Schätze sie wohl kaum schon ausgeschöpft hat.
Ihre Auffassungen von einer Architektonik der Wissenschaften teilen die Stoiker
mit den Epikureern. Sie umfaßt
1. die Logik bzw. Dialektik, die sie - im Gegensatz zu Aristoteles - nicht als
Organon für die Wissenschaften, sondern als selbständige Wissenschaft ansahen
und in Verschmelzung mit den Sprachwissenschaften ausbauten.
2. die Naturwissenschaft, die sie - wiederum im Gegensatz zu Platon und Aristoteles gleichermaßen - als prognostische und „mantische“ Wissenschaft auffaßten,
welche auf Grund der vorausgesetzten Naturkausalität und Teleologie das den
Sinnen Verborgene aus dem Sichtbaren und künftige Naturereignisse aus dem
Gegenwärtigen vorauszusehen und technisch („mantisch“) zu manipulieren erlauben sollte.
3. die praktische Philosophie mit dem Schwerpunkt in der Ethik, die - ähnlich
wie bei den Epikureern - ein glückliches sowohl individuelles wie aber auch soziales und staatliches Zusammenleben garantieren sollte.
Wie im Bild vom Zaun, den Bäumen und ihren Früchten im Garten verglichen sie
diese Wissenschaften auch gerne mit der Schale, dem Eiweiß und dem Dotter
eines Eies. Und vielleicht war es dieses Bild, das noch heute in der Floskel vom
„Gelben im Ei“ als Bezeichnung des Wichtigsten an einer Sache fortlebt.
284
1. Die Logik bzw. Dialektik136 umfaßt, wie auch die aristotelische, besondere Lehren von den Begriffen, von den Urteilen und von den Schlüssen und hat diese
Einteilung nachhaltig stabilisiert. Auch in ihr geht es wesentlich um die Feststellung und Unterscheidung von Wahrheit und Falschheit in Urteilen und Schlüssen. Diogenes Laertios (1. Hälfte des 3. Jahrh. n. Chr.) überliefert in seiner Philosophiegeschichte als stoische Definition der Logik, sie sei die „Wissenschaft von
der wahren und falschen Rede, aber auch von der, die keines von beiden ist“.
Ersteres betont, daß es hier um eine zweiwertige Logik geht; letzteres, daß auch
alle sprachlichen Ausdrucksformen, die keinen Wahrheitswert besitzen, in den
Bereich der Betrachtung fallen. Die Wahrheit beruht dabei zunächst einmal auf
der Klarheit und Deutlichkeit der Begriffe (Enargeia ἐά die später Descartes wieder besonders betonen wird), die ihrerseits das Ergebnis des „Zuflusses“
materieller Abbilder durch die Sinneskanäle und z. T. auch Ergebnis der „Einwurzelung“ der allgemeinen Begriffe (der Logoi spermatikoi), die durch die Poren
und die Sinnesorgane in den eigenen Körper eingedrungen sind, darstellen.
Daß und wie die Wahrheit auch von der Verknüpfung in Urteilen mittels einzelner Junktoren abhängt, das haben sie gerade durch Untersuchungen an Beispielen
wahrer „Reden“ herauszufinden gesucht. Diese Aufgabe der Logik, überhaupt an
Beispielen von sprachlichen Gebilden herauszufinden und diese Gebilde danach
zu klassifizieren, ob und unter welchen Umständen sie für wahr oder falsch gehalten werden, macht sie gerade zur forschenden Wissenschaft. Dabei wird im
wesentlichen anhand von Standardbeispielen inhaltlicher Art argumentiert, und
nur gelegentlich treten - in der Schlußlehre - Formalisierungen durch Großbuchstaben auf, die hier als Ordnungszahlen (ein Erstes ... ein Zweites ...) für die
Anordnung von Ursache und Wirkung dienen.
A. Die Begriffslehre stellt fest, welche sprachlichen Elemente logisch relevant
sind. Es sind die Eigennamen (Onoma ὄ) und Substantive (Proshegoria
í) bzw. die sie vertretenden Pronomina und die Verben (Rhema
) in flektierten Formen als handlungsbeschreibende Behauptungselemente.
Die Verbindungspartikel (Syndesmos óbzw. Synkategoremata
ή bzw. die Junktoren werden wie bei Aristoteles nicht als Begriffe
behandelt. An der Standardsatzform „Sokrates geht“ (oder ähnlich) erkennt man,
daß auch das „ist“ (bzw. „sind“ an der Stelle eines Verbs) grundsätzlich als behauptendes Verb verstanden wird, weshalb es nicht als „Kopula“ bei den stoischen Synkategoremata vorkommt.
Die Begriffe sind bildhafte „Sinneseindrücke“ (Typosis ύ) und deren
Erinnerungsbilder (Phantasma ά) von wahrgenommenen Dingen und
136
Vgl. dazu K. H. Hülser, Art. Logik, stoische. In: J. Mittelstraß (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 1, Mannheim-Wien-Zürich 1984, S. 687 – 689 (mit Bibliographie); J. M. Bochenski, Formale Logik, 3 Aufl.
Freiburg-München 1970, S. 121 – 153; B. Mates, Stoic Logic, 2. Aufl. Berkeley-Los Angeles 1961, Nachdr. 1973.
285
Sachverhalten in der materiell verstandenen Seele. Als in der Erfahrung immer
wiederholte „Abdrücke“ solcher „Eindrücke“ verfestigen sie sich zum „Denkbild“
(Lekton ó). Bei allen Menschen können diese Denkbilder durch Laut- und
Schriftzeichen (Semeion ĩ) zuverlässig in der Vorstellung bzw. Erinnerung evoziert werden und dadurch die Aufmerksamkeit auf die „äußeren“ Dinge
und Sachverhalte, die sie abbilden bzw. auf die die „zutreffen“ (Tygchanon ύ
), gerichtet werden.
Diese Lehre von der Dreiheit von (sprachlichem) Zeichen, der „Vorstellung“
und dem äußeren Gegenstand bei den Begriffen entspricht sehr genau der von
Aristoteles in der Hermeneutikschrift entwickelten Lehre und ist vermutlich daher
entnommen. Sie wurde zur Grundlage aller später entwickelten (realistischen) Semantiktheorien, in denen sprachliche oder logische Zeichen eine Vermittlungsfunktion zwischen innerem Denkakt und äußerem Sachverhalt übernehmen.
Die Zeichenlehre ist in der Stoa zugleich die Grundlage ihrer Auffassungen
über die Möglichkeit der Erkenntnis verborgener gegenwärtiger und der Prognose
künftiger Sachverhalte und Ereignisse. Indem die Stoiker davon ausgehen, daß die
Zeichen (Symbole) als sinnlich wahrnehmbare Dinge von sich aus und natürlicher
Weise (daher „natürliche Zeichen“ wie beispielsweise der Rauch bezüglich des
Feuers) auf andere Dinge verweisen, wird ihnen die Verweisungsgesamtheit der
Zeichendinge zugleich ein heuristischer Leitfaden für die Forschung als Aufdeckung verborgener Kausalitäten und Teleologien. So erklären sie aus den natürlichen Krankheitszeichen („Signaturen“) verborgene Mechanismen der Krankheitsprozesse - aber auch aus den Sternkonstellationen menschliche Dispositionen
der einzelnen Organe für solche Krankheiten. Die sogenannte Astrologie und die
politische Prognostik der römischen Haruspices aus Vogelflug, Eingeweidebeschau von Opfertieren u. ä. erklären sich aus der Verallgemeinerung dieses „semantisch-heuristischen“ Forschungsverfahrens.
Bei den Begriffen selbst haben die Stoiker hauptsächlich deren Intensionen
bzw. Merkmale beachtet. Einfache Namen und Substantiva standen ihnen für
einfache, durch Adjektive und Adverbien determinierte Ausdrücke für komplexe
Begriffe. Wobei die Denkbilder einfacher Begriffe ihrerseits wieder Bestandteile
von komplexen Begriffen sein konnten. Dies läßt sich freilich nur am Beispiel
ihrer Kategorienlehre ersehen, die sie wohl kritisch gegen die aristotelische
Kategorienlehre wandten. Von Gattungen, Arten und Unterarten und erst recht
von der Einteilung von Arten unter einer Gattung - was eine extensionale Betrachtung impliziert - ist bei ihnen nirgends die Rede. Wenn es bei ihnen so etwas
wie ein Allgemeinheitsgefälle der Begriffe gibt, so besteht es nur in der zunehmenden intensionalen Komplexheit derselben, nicht in den extensionalen Umfängen, die Aristoteles dafür mit in Betracht gezogen hatte. Ihr Kategorienbeispiel
weist daher nicht die Struktur einer Pyramide, sondern eher die eines astlosen
Baumes mit dickem Stamm und dünner Spitze auf. Die Kategorien als „allgemeinste“ Begriffe werden folgendermaßen angeordnet:
286
Formalisierung von Begriffen anhand des stoischen Beispiels der Kategorien
A
I
BA
I
CBA
I
DCBA
Substanz („Zugrundeliegendes“, Hypokeimenon ὑĩ)
Qualität („Wie beschaffen Zugrundeliegendes“, Poion hypokeimenon
ὸὑĩ)
Verhalten („Wie sich verhaltendes wie beschaffenes Zugrundeliegendes“
ῶἔὸὑĩ

Relation („In Bezug worauf wie sich verhaltendes wie beschaffenes
zugrunde Liegendes“ óῶἔὸὑĩ)
Da nun die Stoiker sehr wohl das Einzelne (durch Eigennamen Bezeichnetes) und
das Allgemeine (durch allgemeine Substantive der Pluralformen Bezeichnetes)
unterschieden, wie ihre Beispiele zeigen, so hat man in dieser Unterscheidung die
Grundlage für ihre implizite, aber nicht ausgearbeitete extensionale Begriffsbehandlung zu sehen.
Ihre Begriffsquantifikation besteht demnach ausschließlich in der Beachtung
von „alle“ (Allgemeines) und „ein“ (Einzelnes). Dies stellt gegenüber der aristotelischen Quantifikation der Begriffe (die ja noch das „Einige“ dazwischen anordnet) eine bemerkenswerte Vereinfachung dar, die auch für die meisten logischen Zwecke genügt.
Insbesondere aber vermieden die Stoiker damit das früher aufgezeigte Problem,
ob die „partikulären Urteile“ überhaupt als Urteile und nicht vielmehr als Definitionen zu behandeln seien. Die moderne Logik hat in Verfolg dieser Betrachtungsweise die Quantifikationen „ein“ und „einige“ zur Spezialquantifikation „mindestens ein...“ zusammengezogen.
Darüber hinaus gibt es gute Gründe zu vermuten, daß diese Art der stoischen
Quantifikation späterhin dazu führte, ihre Begriffsquantifikation direkt durch
genaue Zahlenwerte gleichsam aufzufüllen und dadurch die „Einzelheiten“ durch
zahlenmäßige Meßbestimmungen zu quantifizieren. Die in der modernen mathematischen Logik verwendeten „metrischen Begriffe“ (W. Stegmüller), die vor
allem in der Physik Anwendung gefunden haben, können nur auf diese stoische
Begriffslehre zurückgeführt werden, da die aristotelische Quantifikation jede
zahlenmäßige Bestimmung ausschließt.
Dieser reduzierten Quantifikation entsprechend, haben die Stoiker auch die
Negation in ihrer Bedeutung für die Bildung negativer Begriffe und damit die
logische Bedeutung negativer Begriffe selbst herausgearbeitet, was man bei Aristoteles gänzlich vermißt. Aus ihrem Beispielssatz „Niemand geht umher“ kann
man entnehmen, daß sie eine „absprechende“ (apophatikon ἀó) Negation zur Bildung eines regulären (positiven) Subjektbegriffes benutzten. Ebenso
eine „beraubende“ (arnetikon ἀóNegation für die Bildung negativer Adjektive zur Subjektsdetermination (z. B. „menschenunfreundliches Verhalten“).
287
Schließlich kannten sie eine mangelanzeigende (steretikon ó) Negation
für Ausdrücke vom Typ „ohne ...“.
B. Die stoische Urteilslehre unterscheidet sich deswegen wesentlich von der
aristotelischen. Rein äußerlich zeigt sich dies schon daran, daß sie die Urteile in
der Regel nicht formalisiert, sondern sie als inhaltliche konkrete Sachverhaltsbeschreibungen behandelt, deren Wahrheit oder Falschheit man entweder unmittelbar kennt oder voraussetzen kann. Die Art von „Rede“, die als Urteil von ihnen
in Betracht genommen wird, hat daher den Charakter eines Zitates, über dessen
Wahrheit oder Falschheit im logischen Kontext geurteilt wird. Alles, was im Zitat
gesagt wird, bildet daher eine Einheit einer Sachverhaltsbeschreibung, die nur
insgesamt wahr oder falsch sein kann.
Das erklärt zunächst die Tatsache, daß sie solche zu beurteilenden Sätze nicht in
wahre und falsche Teilsätze zerlegten und diese einzeln auf Wahrheit und/oder
Falschheit hin prüften. Dabei waren sie offensichtlich vor allem daran interessiert,
die Aussageformen und die darin vorkommenden Junktoren darauf hin zu untersuchen, wie man durch sie Wahrheiten ausdrückt, nicht aber daran, wie man durch
falsche Sätze etwa lügen und betrügen kann. Und das wiederum erklärt, warum
bei ihnen die falschen Urteile als Fehlformen wahrer, nicht aber als selbständige
logische Elemente behandelt wurden.
Ein weiterer Unterschied zur aristotelischen Urteilslehre liegt darin, daß die stoischen Elementarsätze in der Regel mit flektierten Verben gebildete Handlungsund Sachverhaltsbeschreibungen darstellen („Sokrates sitzt“), wobei das gelegentlich vorkommende „ist“ im verbalen Sinne auch als Existenzjunktor („Es ist hell“
= „es gibt Licht“) fungiert.
Die echte Kopula im aristotelischen Sinne einer Subjekt-Prädikatverknüpfung
kommt nicht vor, ebenso wenig wie die partikularisierende Quantifikation. Dies
sind Anzeichen dafür, daß es in der stoischen Logik nicht um die Darstellung von
Allgemeinheits- und Besonderheitsverhältnissen innerhalb von Begriffsstrukturen
ging, wie in der aristotelischen Logik. Im übrigen haben die Stoiker die Funktion
der dann übrigbleibenden Junktoren bei der Urteilsbildung, und dies vor allem
anhand zusammengesetzter Sätze, viel genauer betrachtet als Aristoteles.
Dieses - von ihnen aber keineswegs deutlich gemacht - vorausgesetzt, haben sie
folgende Urteilsformen für wahre Ausdrucksformen gehalten und erst an ihnen
die Fehlformen falscher Sätze gemessen:
1. Ein Satz mit doppelter Negation (hyperapophatikon ὑó)
drückt dieselbe Wahrheit aus wie der Satz ohne jede Negation: „Nicht: es ist nicht
Tag“ = „Es ist Tag“. Daß die doppelte Negation auf die nichtnegierte (positive)
Behauptung eines Satzes zurückführe, ist seither ein logisches Dogma geworden.
Es gilt allerdings nur bei bestimmter Negation in streng dihäretischen Begriffslagen.
2. Einen durch ein oder mehrere „und“ (sympeplegmenon έ
Adjunktion bzw. Konjunktion) aus Teilsätzen zusammengefügten Gesamtsatz
288
hielten sie für wahr, wenn jede durch die Teilsätze beschriebene Situation zusammen mit den übrigen erfahrbar war: z. B. „Sokrates sitzt und (Sokrates) liest und
(Sokrates) denkt“. Paßt nur ein Teilsatz nicht in den Erfahrungskontext der Aussage, so macht dies den ganzen Satz falsch: z. B. „Sokrates sitzt und liest und
schläft“. Von dem nicht in den Erfahrungskontext passenden Glied sagten sie, daß
es mit den übrigen „unverträglich“ sei. Es wird nicht, wie beim aristotelischen
Widerspruch, durch Negation eines verträglichen Gliedes konstruiert. Zur Begründung findet man das Beispiel, man nenne auch ein Kleid, das nur einen einzigen
Riß aufweise, ein „zerrissenes Kleid“, selbst wenn es im übrigen ganz unversehrt
sei.
3. Der letztere Beispielssatz bleibt wahr, wenn in ihm das nicht zum Kontext
passende Glied durch ein ausschließendes „oder“ (diezeugmenon έ)
angehängt wird: z. B. „Sokrates liest oder schläft“ (Sokrates kann erfahrungsgemäß nicht zugleich lesen und schlafen!). Er bleibt ebenfalls wahr, wenn in diesem
Falle alle Teilsätze durch ein nicht ausschließendes „oder“ (paradiezeugmenon
έ) verknüpft werden, z. B. „Sokrates sitzt oder liest oder
schläft“. Die Wahrheitsbedingung ist in beiden Fällen, daß wenigstens ein Teilsatz
einen erfahrbaren und im Behauptungssinn gemeinten Sachverhalt ausdrückt.
Wenn das nicht der Fall ist, ist der ganze Satz falsch.
4. Die Implikation eines Nachfolgesatzes in einem vorhergehenden, der mittels
„wenn ... dann ...“ (zeugmenon έ) mit ihm verknüpft ist, hielten die
Stoiker für einen wahren Gesamtsatz außer in dem Falle, daß der erste Satz wahr
und der zweite falsch ist. Diese merkwürdige, auf den Megariker Philon zurückgeführte und bisher niemals plausibel gemachte, vielmehr als logisches Dogma
überlieferte Festlegung der Implikation brachte Chrysipp auf die Formel: „Ein
implikativer Satz ist wahr, in welchem der Gegensatz des Nachsatzes mit dem
Vordersatz unverträglich ist“. Ein Standardbeispiel dafür ist: „Wenn es Tag ist, ist
es hell“ - denn Dunkelheit ist mit Tagsein nicht verträglich.
Als eine weitere falsche Implikation sahen sie die Selbstimplikation an, in der
die Aussage des ersten Teilsatzes im zweiten nur wiederholt wird, z. B. „Wenn es
Tag ist, ist es Tag“. Offensichtlich gab es darüber Meinungsverschiedenheiten
unter den Stoikern. Da die Selbstimplikation aber unter den „falschen“ Formen
nicht weiter erwähnt wird, kann man davon ausgehen, daß sie diese überhaupt
nicht für einen sinnvollen Satz hielten mit dem Argument, „daß nichts in sich
selbst enthalten sein könne“.
Als Vorschlag für eine Erklärung für diese Implikationslehre möchten wir zunächst auf den bei den Stoikern zugrunde liegenden Universaldeterminismus hinweisen, wonach alle implikativen Sätze eine Beschreibung von Kausalzusammenhängen sein müssen. Dies setzt - analog zu den aristotelischen Mittelbegriffen in
den Syllogismen - auch für diese implikativen Aussagen einen „Situationszusammenhang“ voraus, wie auch aus den Beispielen ersichtlich wird. Die Implikation
drückt also ein Ursache-Wirkungsverhältnis („kausal“ im seither üblichen Sinne)
oder auch ein Wirkungs-Ursacheverhältnis (in der „teleologischen“ Sicht dieses
289
Verhältnisses) aus, in welchem von einer Kausalursache auf eine Wirkung oder
von einer Wirkung (teleologisch) auf ihre Ursache geschlossen werden kann. Sie
drückt auf keinen Fall wie die aristotelische Implikation ein Verhältnis von
Allgemeinem zum Besonderen (also die sogenannte materiale und formale Implikation) aus, da ersichtlich das Allgemeine nicht Ursache oder Wirkung von Besonderem sein kann.
Ebenso wenig kann dann eine Ursache Ursache von sich selbst sein. Das
schließt die Selbstimplikation aus. Weiß man nun, daß ein Teilsatz oder auch beide Teilsätze falsch sind - welches Wissen die Stoiker mit Philon und Diodor von
Megara ausdrücklich voraussetzen - so weiß man, daß entweder die in dem
Teilsatz gemeinte Ursache oder Wirkung oder auch beides nicht existiert.
Daraus ergeben sich die seither kanonisierten drei wahren und die eine falsche
Implikation. Es gilt als 1. wahre Implikation, wenn von einer gegebenen Ursache
auf eine gegebene Wirkung oder (teleologisch) umgekehrt von einer gegebenen
Wirkung auf eine gegebene Ursache geschlossen wird. Es gilt 2. als wahre Implikation, wenn von einer nicht gegebenen („falschen“) Ursache auf eine gegebene
Wirkung oder von einer nicht gegebenen Wirkung auf eine gegebene Ursache
geschlossen wird. Und 3. gilt es als wahre Implikation, wenn aus nicht gegebener
Ursache auf eine nicht gegebene Wirkung oder aus nicht gegebener Wirkung auf
eine nicht gegebene Ursache geschlossen wird (nach der Maxime: Aus Nichts
wird nichts, und Nichts entsteht aus Nichts!).
In letzterem Sinne ist offenbar das Beispiel zu deuten: „Wenn die Erde fliegt,
dann hat die Erde Flügel (was beides nach Voraussetzung falsch, d. h. nicht
gegeben ist und somit zu einem wahren Implikationssatz berechtigt). Die Implikation gilt demnach 4. nur dann als falsch, wenn aus einer gegebenen Ursache auf
eine nichtgegebene Wirkung oder aus einer gegebenen Wirkung auf eine nicht
gegebene Ursache geschlossen wird.
Unter Voraussetzung des gegenläufig kausal-teleologischen Determinismus der
Stoiker und der Tatsache, daß ein Wissen um die Falschheit von Sätzen zugleich
ein selber wahres Wissen ist, wird man diese Festlegungen gerade noch plausibel
finden. Die moderne aussagenlogische Formalisierung dieser Implikationsformen,
die sich offensichtlich stark an dieser stoischen Implikationslehre orientiert hat,
macht den ontologisch-deterministischen Hintergrund irrelevant und läßt damit
die (Wittgensteinsche) tabellarische Wahrheitswertdefinition als bloße Willkür erscheinen, die nur als Dogma fortgeschrieben wurde.
Es fällt auf, daß in der stoischen Urteilslehre nicht vom Widerspruch die Rede
ist, auch nicht bei Gelegenheit der „falschen“ Adjunktion. Dies läßt vermuten, daß
die Stoiker von der aristotelischen Widerspruchslehre nichts hielten, und daß sie
schon gar nicht die Meinung teilten, der Urteilswiderspruch könne ein (analytisches) Kriterium für Falschheit eines Urteils sein. Da sie sich allerdings intensiv
- und aus megarischer Tradition - mit der Antinomie bzw. dem Paradox des
„Lügners“ (der von sich selbst sagt, daß er lügt, wenn er etwas sagt) befaßt haben,
mußten sie auch dazu einen Lösungsvorschlag vorlegen.
290
Daß es sich bei einer Paradoxie um einen wahren Satz handeln könnte, schlossen
sie von vornherein aus. Ebenso, daß eine Paradoxie in der Form einer Antinomie
einfach falsch sei (was man heute noch meistens glaubt). Daß sie zugleich wahr
und falsch sei (was Aristoteles wenigstens diskutiert hatte), konnten sie nach ihren
Voraussetzungen nicht zugestehen. Also blieb nur übrig, die Antinomie für weder
wahr noch für falsch zu halten. Und das scheint aus einem Papyrusfragment Chrysipps auch hervorzugehen.
C. Die stoische Schlußlehre unterscheidet sich ebenfalls in bemerkenswerter
Weise von der aristotelischen Syllogistik. Äußere Kennzeichen dafür sind, daß sie
die oben genannten Urteilsformen in ihren „wahren Formen“ als Prämissen zuläßt,
daß darüber hinaus jedoch in ihren Teilsätzen insgesamt nur zwei Begriffe zugelassen werden. Mit der aristotelischen Schlußlehre hat sie die Gemeinsamkeit, daß
sie eine formale Schlußlehre ist, in deren Schlußfiguren wahre inhaltliche Urteile
derart eingesetzt werden können, daß auf Grund des Schematismus wiederum ein
wahres Urteil „erschlossen“ werden kann.
Erschließen bedeutet dabei zweierlei. Nämlich einerseits eine kausale Erklärung
offensichtlicher und bekannter Tatsachen, andererseits eine prognostische bzw.
heuristische Beweisführung für die Existenz verborgener (nicht sinnlich wahrnehmbarer) Ursachen oder Wirkungen.
Ein stoisches Beispiel für ersteres ist der Satz: „Wenn es Tag ist, ist es hell
(wörtlich: gibt es Licht). Nun ist es aber Tag, deswegen ist es hell“. Ein Beispiel
für letzteres ist der „Beweis“ für die Existenz von Poren in der Haut, die man
wegen ihrer Kleinheit nicht wahrnimmt: „Wenn Schweiß auf der Haut ausbricht,
so gibt es Poren. Nun bricht aber Schweiß aus der Haut aus. Also gibt es Poren“.
Die üblich gewordene Übersetzung formuliert die Prämisse als behauptende
Implikation. Wäre das so, dann wäre der Folgesatz jedoch eine Wiederholung
dieser Implikation, was zumindest seltsam klingt und auch als logische Form nicht
zugelassen wurde. Deshalb sollte die Prämisse in den stoischen Schlüssen als
konjunktivischer Vermutungssatz, d. h. als Hypothese, übersetzt und gelesen
werden. Umschreibend könnte man die Prämisse (Lemma) dann auch formulieren
mit „Gesetzt den Fall... (mit anschließender konjunktivischer Vermutung)“ oder
„Falls … wäre, so wäre …“.
In den sogenannten „Fünf Unbeweisbaren“ (nämlich Schlußfiguren) des Chrysipp hat die stoische Schlußlehre ihre klassische Gestalt gefunden. Die Bezeichnung „Unbeweisbare“ mag von den Stoikern in Analogie zur aristotelischen
„Axiomatik“ der unbeweisbaren logischen Grundsätze gewählt worden sein. In
der Tat kann sie sich nur auf die Nichtbegründbarkeit (also den hypothetischen
Charakter) ihrer Voraussetzung des kausal-teleologischen Determinismus beziehen, der seinerseits ihre Schlußlehre begründet.
Die stoischen Schlußformen haben folgende Gestalt:
291
Schema der stoischen Schlußformen
a.
Lemma (ῆ) =hypothetische Urteilsform eines zusammengesetzten Satzes,
wörtl. „Ertrag“ der Urteilslehre als 1. Prämisse im Schlußschema
b. Proslepsis (óηAnnahme) = empirische Konstatierung eines Sachverhalts
als Ursache oder Wirkung einer empirisch gegebenen oder gesuchten zugehörigen
Wirkung, oder Ursache als 2. Prämisse im Schlußschema
c. Epiphora (ἐάErgebnis) = Schlußsatz i. e. S. über eine empirisch gegebene oder gesuchte Ursache oder Wirkung
Wir vermuten, wie gesagt, daß die formale Bezeichnung „Erstes“ bzw. „Zweites“
für den ersten und zweiten Teilsatz des Lemmas in den implikativen Figuren (1
und 2) auf den kausalen Zusammenhang von Ursache und Wirkung oder auf den
teleologischen Zusammenhang von Wirkung und Ursache zu beziehen ist. In den
übrigen (verneint adjunktiv 3, und alternativen 4 und 5) Figuren aber beziehen
sich „Erstes“ und „Zweites“ auf die zeitliche Abfolge derselben, so daß hier das
„Erste“ die Existenz oder Nichtexistenz einer Ursache oder einer Wirkung zu
einem gegebenen „Jetzt“-Zeitpunkt, das „Zweite“ die Existenz oder Nichtexistenz
einer Wirkung oder einer Ursache zu eben demselben Zeitpunkt bezeichnet bzw.
anzeigt. Bei den hier gegebenen Beispielen und in der Erklärung ist nur die
„kausale“ Perspektive beachtet Der Leser kann sich leicht überzeugen, daß auch
„teleologische“ Beispiele und Erklärungen einsetzbar sind.
Die 5 „Unbeweisbaren“ Schlußfiguren nach Chrysipp lauten:
Formale Schlußfiguren
Beispiele
Erklärung
1. Falls das Erste, dann das Zweite
(Lemma: Implikation)
Nun das Erste (Proslepsis)
Also das Zweite (Epiphora)
Falls es Tag wäre, gäbe es Licht
Falls Ursache, dann
gäbe es eine Wirkung
Nun gibt es die Ursache
Also gibt es die Wirkung
2.
Falls das Erste, dann das Zweite
(Lemma: Implikation)
Nun nicht das Zweite
Also nicht das Erste
Falls es Tag wäre, gäbe es Licht
Nicht: das Erste und das Zweite
(Lemma: negierte Adjunktion)
Nun das Erste
Also nicht das Zweite
Nicht: Tag und Nacht zugleich
Nun ist es Tag
Also nicht Nacht
Nicht: Ursache und
Wirkung zugleich
Nun existiert Ursache
Also (noch) nicht Wirkung
Entweder das Erste oder das Zweite
(Lemma: vollständige Disjunktion)
Nun das Erste
Also nicht das Zweite
Entweder wäre es Tag
oder es wäre Nacht
Nun ist es Tag
Also nicht Nacht
Entweder die Ursache oder
die Wirkung wäre präsent
Nun (jetzt) Ursache
Also (noch) nicht Wirkung
5. Entweder das Erste oder das Zweite
(Lemma: vollständige Disjunktion)
Nun nicht das Zweite
Also das Erste
Entweder wäre es Tag
oder es wäre Nacht
Nun ist es nicht Nacht
Also ist es Tag
Entweder die Ursache oder
die Wirkung wäre präsent
Nun nicht Wirkung
Also (jetzt) Ursache
3.
4.
Nun ist es Tag
Also gibt es Licht
Nun gibt es kein Licht
Also ist es nicht Tag
Falls Ursache, dann gäbe
es eine Wirkung
Nun gibt es keine Wirkung
Also keine Ursache
Man kann davon ausgehen, daß diese stoischen Schlußfiguren auch die Hauptschemata der empirischen Forschung der Stoiker in allen Wissenschaften ge-
292
worden sind. Und dies in solchem Maße, daß die moderne Logik und Wissenschaftstheorie unmittelbar daran anknüpfen konnte, nachdem sie sie (durch Lukasiewicz in den dreißiger Jahren des 20. Jahrhunderts) geradezu wieder entdeckt
hatte.
Es ist dabei nur zu beachten, daß die neuzeitliche Wissenschaftstheorie es für
den entscheidenden Fortschritt gehalten hatte, die teleologische Erklärungsweise
(von der Wirkung auf Ursachen zu schließen) ein für allemal aus der seriösen
Wissenschaft ausgeschieden zu haben. In der Scholastik waren beide Erklärungsweisen noch allgemein verbreitet. Den Kausalschluß von der Ursache auf die
Wirkung nannte man damals „a priori ad posteriorem“ (vom Vorausgehenden
zum Folgenden), den umgekehrten von der Wirkung auf die Ursache „a posteriori
ad priorem“ (von der Folge auf das Vorausgehende).
Daß freilich die Ausscheidung des teleologischen Schließens aus den Wissenschaften konsequent durchgeführt und jemals gelungen sei, dürfte zu den Mythen
neuzeitlichen Wissenschaftsselbstverständnisses gehören. Die selbstverständliche
Voraussetzung eines eindimensionalen Zeitpfeiles (von der Vergangenheit in die
Zukunft), der zweite Hauptsatz der Thermodynamik (Machsches Gesetz der
Entropiezunahme in abgeschlossenen Systemen), die kosmologische Spekulation
über den Anfangszustand des Weltalls, schließlich das Evolutionsdenken in allen
möglichen Wissenschaftsbereichen und erst recht das „wirkungsgeschichtliche“
Rückschließen von späteren Wirkungen auf vorausliegende Ursachen in allen
historischen Geisteswissenschaften bezeugen allzu deutlich die faktische Anwendung teleologischer Denk- und Schlußweisen auch in der modernen Wissenschaft.
Nehmen wir die moderne Einschränkung der stoischen Erklärungsschemata auf
die kausale Perspektive als gegeben hin, so erkennen wir in der 1. Unbeweisbaren
(in der o. a. Darstellung) den klassischen Modus ponens und zugleich das von
Hempel und Oppenheim aufgestellte „hypothetisch-deduktive“ Erklärungsschema
der empirischen Forschung (daher „HO-Schema“ bzw. „HD-Schema“ genannt)
wieder. In die Stelle des Lemmas wird ein gesetzlicher Ursache-Wirkungszusammenhang eingesetzt, der allgemein von sogenannte „Antezedenzbedingungen“
(Ursachenkomplexe) auf „Konsequenzen“ (Wirkungen) zu schließen erlaubt.
„Hypothetisch“ wird dieser Gesetzeszusammenhang aus purer Vorsicht und mit
Rücksicht auf die angeblich „unvollständige Induktion“ des hier zum Gesetz
erhobenen Allgemeinen genannt. Eigentlich wäre er nach dem hier vorgeschlagenen stoischen Verständnis (als vermuteter Kausalzusammenhang) im Konjunktiv zu formulieren: „Falls die Antezedensbedingungen vorlägen, so würde
sich die Konsequenz ergeben, daß ...“.
„Deduktiv“ versteht sich gemäß noch immer kantischem Hintergrunddenken so,
daß der Schluß von „apriorischen Bedingungen der Möglichkeit“ auf die faktische
aposteriorische Wirklichkeit deduktiv sei. Logisch gesehen handelt es sich allerdings nicht um eine Deduktion vom Allgemeinen aufs Besondere, sondern vom
Besonderen auf anderes Besonderes (wie im stoischen Beispiel von Tag und
Nacht). Als Proslepsis wird im HD-Schema die empirische Konstatierung des
293
Vorliegens der Antezendensbedingungen eingesetzt, als Epiphora folgt die Prognose des erwarteten und insofern abzuwartenden Eintretens der Konsequenz.
Tritt diese prognostizierte Konsequenz ein, so hat sich die HD-Prognose und das
sie tragende Gesetz bestätigt. Die eingetretene Konsequenz gilt als „Verifikation“
des allgemeinen Gesetzes.
Tritt die prognostizierte Konsequenz nicht ein, so handelt es sich um den Fall
der 2. Unbeweisbaren. Sie stellt den logischen „Modus tollens“ dar und zugleich
das von R. Popper formulierte Falsifikationsschema der empirischen Forschung.
Als Lemma wird wiederum eine mittels einer „kühnen Idee“ vermutete Gesetzlichkeit mit prognostischer Relevanz eingesetzt. Die Proslepsis gibt auch hier
empirische „Anfangsbedingungen“ vor, und die Epiphora prognostiziert wiederum eine gesetzliche Wirkung. Tritt diese nicht ein, wie die 2. Unbeweisbare es
ausdrückt, so hebt dies auch die Antezedenzbedingungen auf.
Bei Popper gilt allerdings das Nichteintreten einer prognostizierten Wirkung als
„Falsifikation“ des allgemeinen (hypothetischen) Gesetzes. Daß Poppers Falsifikationstheorie nicht damit rechnet, daß es trotz Gültigkeit des Kausalgesetzes am
Nichtvorliegen bestimmter Antezedenzbedingungen (Kausalgründe) liegen könnte, wenn die Prognose falsifiziert wird, macht ersichtlich eine Schwäche der popperschen Theorie aus.
Die übrigen Unbeweisbaren 3 - 5 haben in der späteren Wissenschaftpraxis jedenfalls für das Kausaldenken keine Rolle mehr gespielt. Wir vermuten allerdings, daß sie in der sogenannten scholastischen Methode bzw. der „Sic-et-nonMethode“ (auch Quaestionenmethode genannt) zum Tragen gekommen sind.
Hierbei geht es um die Argumente zur Lösung vorgegebener Probleme bzw. um
die Gewinnung von Antworten auf Fragen (Quaestionen). Nennt man hierbei die
Argumente „Pro...“ (positive Lösungsargumente im Sinne der Fragestellung) „das
Erste“ und die Contra-Argumente „das Zweite“, so stellen sie die Schemata für
die Bewertung der Argumente dar und schließen es jedenfalls aus, daß sowohl die
Pro- wie auch die Contra-Argumente zugleich zur Problemlösung ins Spiel gebracht werden.
Insgesamt wird man also die logische Arbeit der Stoiker sehr hoch veranschlagen müssen, jedenfalls scheint sie erheblich mehr bewirkt zu haben als nur
die Begründung einer rudimentären Aussagenlogik, für die man die Stoiker auch
in der neueren Logik noch schätzt.
2. Das Wissenschaftskonzept der Stoa. Ist von stoischer Wissenschaft die Rede, so
denkt man meist an die „Naturwissenschaft“, da die ältere Stoa sich dieser neben
der Logik fast ausschließlich widmete. Diese reicht in der Tat vom ewigen Kreislauf der Gestirne (Astronomie) bis herab zu den im leeren Raum sich bewegenden
Atomen, die sich zu sichtbaren Körpern (und chemischen Stoffen) sowie zu
Lebewesen zusammenfügen. Aber der stoische Naturbegriff ist dabei derjenige,
der auch heute noch in zahlreichen Wendungen über die „Natur der Sache“ als
dem Wesen der Dinge vorkommt. Und er schließt deshalb neben der Natur (im
294
heutigen Verständnis) auch den Kulturbereich ein, soweit dessen Thematik nicht
zum Gegenstand der Praktischen Philosophie gehört. Diese Kulturwissenschaft
wurde vor allem in der mittleren Stoa durch Panaitios von Rhodos und Poseidonios bearbeitet. Natur und Kultur zusammen bilden den Kosmos, das „geschmückte“ und unter ewigen Gesetzen stehende Weltganze.
Das stoische Wissenschaftskonzept enthält drei metaphysisch zu nennende Voraussetzungen.
1. die demokriteische Voraussetzung, daß der gesamte Kosmos aus leerem
Raum und darin bewegten materiellen Atomen bestehe. Selbst das, was bei Ihnen
als „Götter“ bezeichnet wird, gehört zu diesem Kosmos und besteht nur aus der
feinsten luftartigen - pneumatischen - Atomart.
2. die universaldeterministische Voraussetzung, daß alle Bewegungen und Veränderungen im Kosmos strengen und ausnahmslosen Gesetzen unterliege. Diese
Gesetze nannten sie für die Natur im engeren Sinne „Naturgesetz“ (Lex naturalis),
im weiteren - die Kultur und den Menschen einschließenden - Sinne aber
„Naturrecht“ (Ius naturae).
3. die „phänomenologische“ Voraussetzung, daß die sinnliche Erkenntnis sich
auf Makroerscheinungen der kosmischen Gegebenheiten beschränke, da deren
atomare Mikrobedingungen nicht wahrgenommen werden könnten.
Daraus ergeben sich ihre Forschungsansätze.
Aus 1 folgt, daß alle Erklärungen mit äußerster Sparsamkeit der Prinzipien letztlich nur auf bewegte Atome im leeren Raume zurückgreifen dürfen. Aus 2 folgt,
daß jede Erklärung eine Kausalerklärung sein muß, und zwar entweder in der
Form der Angabe von erschlossenenen Ursachen für manifeste Wirkungen (Kausalerklärung im engeren Sinne) oder der Angabe von erschlossenen Wirkungen zu
manifesten Ursachen (teleologische Erklärung, insbesondere Prognosen), wozu
die ersten zwei „Unbeweisbaren“ als methodische Schlußformen dienen. Aus 3
folgt, daß die Erklärungen, soweit sie die Bewegung von Atomen im leeren Raum
implizieren, nach demokritischem Vorbild mit anschaulichen Modellen bzw. mit
Metaphern aus dem sinnlichen Anschauungsbereich arbeiten müssen, da ja die
Atome selbst und das Leere als nicht sinnlich beobachtbar gelten. Der dominierende Ausdruck dieser Modellerklärungen ist der bekannte stoische Rückgriff auf
das Mikro-Makrokosmos-Verhältnis.
Es liegt auf der Hand, daß die Himmelsphänomene unter solchen Voraussetzungen die Ausgangsbasis aller deterministisch-gesetzlichen Einsichten und Erkenntnisse abgeben mußten. In der Astronomie konnten schon damals mit großer
Sicherheit der jeweils aktuelle Stand der Himmelskörper beobachtet und von ihm
aus künftige Konstellationen prognostiziert und zurückliegende Konstellationen
„retrodiziert“ werden.
Aus den beschränkten Zyklen der Konstellationen von Sonne, Mond, Planeten
und der Fixsterne in den Rhythmen des Tages, der Monate und Jahre schlossen
die Stoiker alsbald auf den Zyklus einer kosmischen Gesamtkonstellation, der
berühmten „Apokatastasis panton“ (ἈάάWiederherstellung
295
aller Dinge), den sie den Aion (ἰῶWeltenjahr) nannten und auf ca. 20 000
Sonnenjahre berechneten. Er sollte in einer vollkommenen Verbrennung aller anderen Atome durch das Pneuma, den „Weltenbrand“ Ekpyrosisἐύ
daher später auch „Holokaust“) beginnen und enden. Zwischen diesen Punkten
sollte sich dann immer erneut eine Neubildung und Differenzierung der gröberen
Atome zu den Elementen der Luft, des Wassers und der Erde und dieser wiederum zu Atomgruppierungen aller Gestalten der toten und lebendigen Natur und
der menschlichen Kultur nach ebenso ehernen Gesetzen wie sie die Himmelsphänomene zeigten, abspielen. Die dominierende Rolle des Feuers als Urelement
und zugleich als pneumatisch-geistiger Urstoff im Kosmos (als „logoi spermatikoi“ óí) verrät ihre Anknüpfung an die Lehre des Heraklit.
Die phänomenologische Erfahrung der Himmelsmechanik wurde in der mittleren Stoa zum makroskopischen Modell der Erklärung der Kulturzyklen der
Menschheit. Auch in diesem Bereich setzten die Stoiker eine gesetzlich-zyklische
Entwicklung von den primitiven Anfängen nomadischer, ackerbauender, dann
städtischer Zivilisation und ihres Niederganges voraus und suchten diagnostisch
den aktuellen Stand ihrer eigenen Gegenwart in diesem Zyklus zu bestimmen. Da
sie die Kulturzyklen als Unterzyklen der astronomischen Zyklen und als von
diesen kausal bestimmt ansahen, ergab sich ihnen ein weiter Bereich für die
Verwendung der Himmelszeichen zur Deutung und Prognose irdischer Vorgänge.
Es ist das, was man seither als „Astrologie“ und „Horoskopie“ kennt. Damit
lieferten sie die (pseudo-) „wissenschaftliche“ Grundlage für das Auguren- und
Divinationswesen, das im römischen Reich institutionalisiert war.
Nicht zuletzt war es dann eine Anwendung dieses Erklärungsmusters, wenn die
Himmelszeichen auch auf die Zyklen des einzelnen Menschenlebens von der
Zeugung und Geburt bis zum Tode bezogen wurden. Auch im einzelnen
Menschenleben sollte alles streng determiniert und durch das Schicksal - Ananke
bzw. Fatum - festgelegt und vorausbestimmt sein. Darauf gründete sich der seither
nicht nur im Abendland nicht mehr abgerissene Brauch der Horoskope und
Nativitäten, in denen dem Einzelnen sein persönliches Schicksal gedeutet, seine
Vergangenheit erklärt und seine Zukunft prognostiziert wird. Von alledem gilt der
bekannte Spruch Senecas: Volentem fata ducunt, nolentem trahunt (Den Willigen
geleitet das Schicksal, den Widerspenstigen zwingt es).
Gewiß wird man diese auch heute noch populäre Schicksalsberechnung in den
Bereich von Pseudowissenschaft verweisen. Nicht zu verkennen ist aber, daß sie
die Grundlage für die noch fortbestehende Überzeugung und Erwartung geblieben
ist, es gäbe so etwas wie die „Natur“ des einzelnen Menschen, aus deren Diagnose
man sein biographisches Schicksal prognostizieren könne. Die frühkindliche Begabungsdiagnostik, vielerlei psychologische Testverfahren und die kriminalistische Veranlagungsdiagnostik, neuerdings die mechanistisch-physiologische Hirnforschung, setzen nicht nur diese unveränderliche Natur des Menschen voraus,
sondern stellen durch sanktionierende Maßnahmen meist auch die notwendigen
Folgen im Lebensgang der entsprechenden Personen selbst her.
296
Damit gipfelt die stoische „Naturphilosophie“ in einem eigentümlichen Menschenbild. Der Mensch steht hier „in der Mitte der ganzen Natur“, weil er von
allen körperlichen Gebilden das am meisten durch Vernunft bzw. Geistespneuma
durchweste Gebilde ist. Alles andere ist vom Schicksal teleologisch auf ihn und
die Dienlichkeit für sein Dasein ausgerichtet. Wie auch schon bei Platon und
Aristoteles enthält er „mikrokosmisch“ anteilige Bestandsstücke des Makrokosmos. Die gröberen Atome der sogenannten toten Natur, die feineren der Pflanzenausstattung mit ihren teologischen Trieben und Leidenschaften, die noch feineren der animalischen Instinkt- und Sinnesanlagen, und - wie gesagt am meisten die pneumatisch-geistige Vernunftausstattung.
Auf letztere kommt bei den Stoikern alles an. Sie macht den Menschen wesentlich zu einem vernünftigen Gattungswesen, obwohl jeder einzelne Mensch durch
das Mischungsverhältnis seiner Atombestandteile unverwechselbar einzig und von
jedem anderen unterscheidbar ist. Der normale und gesunde Mensch ist dementsprechend der Vernunftmensch, der seine vegetativen und animalischen Wesensbestandteile - seine Triebe und Leidenschaften - unter vernünftiger Kontrolle hält
und ihr Wirken in vernünftige Bahnen lenkt. Krankheiten und Anormalitäten erklären sich daher aus dem Verlust der Vernunftkontrolle (gewissermaßen aus dem
Mangel an genügend Vernunftatomen in der Zusammensetzung des Einzelnen).
Die Folgen und Heilmittel dieser Störungen und Anomalien stellen das Problemfeld für die stoische praktische Philosophie dar, die daher wesentlich therapeutische Züge aufweist.
3. Die praktische Philosophie der Stoa. Sie beruht auf den Grundlagen der
logisch-methodisch erreichten Naturerkenntnis. Wäre diese vollendet, so ließe
sich darauf auch eine abschließende Naturgesetzgebung für alles Handeln gründen. Da das Wissen aber - wie sie im Gefolge Demokrits in Rechnung stellten nicht abgeschlossen noch abschließbar ist, muß auch das Nichtwissen auf diesem
Gebiete besonderer Beachtung wert erscheinen.
Dies zeigt sich in der stoischen Behandlung des Themas „Freiheit“ - des provozierenden Hauptthemas der Epikureer. Indeterminierte Naturphänomene können
den Stoikern nur als Scheinphänomene undurchschauter Determinismen gelten.
Und entsprechend muß sich menschliche Freiheit des Willens und der Wahlmöglichkeiten als Komplement der Unwissenheit erweisen.
Wenn einige Stoiker und ihre neueren Gefolgsleute die Freiheit als „Einsicht in
die Notwendigkeit“ definieren, so kommt dies logisch der These gleich, daß es
eigentliche Freiheit nicht gibt. Es läßt Spielraum für eine Redeweise, die die
„Nichteinsicht in die Notwendigkeit“ als determinierenden Grund für so etwas
wie Freiheitsgefühl oder für die Selbsttäuschung über die Abhängigkeit des Handelnden von den natürlichen Determinismen in Anspruch nimmt.
Da nun die Natur und die Welt ingesamt von der Vernunft gestaltet und
beherrscht wird, so ist es für die Stoiker ein reiner Pleonasmus festzustellen, daß
auch der Sinn aller menschlichen Lebensgestaltung und Lebensführung darauf
297
hinausläuft, „in Angleichung an die Natur zu leben“ (homologoumenos te physei
zen ὁῦὴύῆnach Zenon, und das heißt: ein „logisches
Leben“ (íó, nach Chrysipp) zu führen. Und nur dies ist wiederum ein
solches, das ein „gutes Leben“ genannt werden kann. Gelingt dies, so führt es als
Mitgift (Epigenema ἐέ) Lust und Zufriedenheit mit sich, und man wird es
mit einem etwas altmodischen Ausdruck auch ein „lustiges Leben“ nennen
können.
Im Einklang mit der Natur zu leben, heißt dann zunächst einmal, in ihr „seinen
Platz“ bzw. seine „Heimat“ zu finden (Oikeiosis ἰí, offensichtlich eine
Verallgemeinerung des aristotelischen Begriffs oikeios topos ἰĩó, des
„Heimplatzes“, zu dem jedes Element seiner Natur nach strebt). Oikeiosis ist es
also, wenn einer sich in seiner eigenen Haut wohlfühlt und darüber hinaus seiner
Stellung in der Welt, nämlich in seiner Familie, in seinen Freundschaften, in der
Gesellschaft und insgesamt in der Menschheit, voll bewußt und damit in Einstimmung ist. Wer so seinen Platz in der Welt gefunden hat, bei dem stellt sich
dann auch eine vernünftige Bereitschaft oder Disposition (diathesis ά) zu
einem vernünftigen Verhältnis zu allem, was einem in der Welt begegnen oder
passieren kann, ein. Und das ist es, was die Stoiker Tugend (arete ἀή, lateinisch: recta ratio, nach Cicero) nennen.
Da es sich bei der Tugend um die habituelle vernünftige Einstellung handelt, so
kann es auch nur eine Tugend geben, die sich allenfalls nach vier Richtungen
äußert. Hierin schließen sich die Stoiker an Platons vier Kardinaltugenden an.
Die erste Ausrichtung der Tugend ist die Phronesis (óvernünftige
Überlegung oder Kants „praktische Vernunft“). Was sie leistet, das erklären die
Stoiker zu einer eigenen Disziplin der praktischen Philosophie, nämlich zur „Wissenschaft von den Gütern, den Übeln und von dem, was keines von beiden ist“
(Episteme agathon kai kakon kai oudeteron ἐήἀῶì ῶì
ὐέ).
Die zweite Ausrichtung ist die Tapferkeit bzw. der Mut (Andreia ἀĩ), die
sich zur „Wissenschaft vom Schrecklichen und dem Nichtschrecklichen und von
dem, was keines von beiden ist“ (Episteme deinon kai ou deinon kai oudeteron
ἐήῶìὖῶìὐέ) entfalten läßt.
Die dritte Ausrichtung der Tugend ist die Besonnenheit bzw. die Selbstbeherrschung (Autokratie ὐí). Was zu ihr gehört wird in einer „Wissenschaft
vom Annehmlichen, dem zu Vermeidenden und dem, was keines von beiden ist“
(Episteme haireton kai pheukton kai oudeteron ἐήἱῶ
ῶìὐέ) ausgeführt.
Die vierte Ausprägung ist schließlich die Gerechtigkeit (Diakaiosyne 
ύ die die Grundlage für die ganze Rechtswissenschaft abgibt als eine
„Wissenschaft von dem, was einem jeden (an Bewertung) zukommt“ (Episteme
aponemetike tes axias hekasto ἐήἀὴῆἀíἕlateinisch: scientia suum cuique tribuens).
298
Es war nicht zu erwarten, daß diese Disziplinen von den Stoikern selbst zu systematischen praktischen Wissenschaften ausgebaut werden konnten. Gleichwohl
schufen sie durch ihre kasuistischen Überlegungen in jedem der Gebiete die
Grundlagen für alle späteren Wert- und Güterlehren.
Indem sie auf allen Gebieten zwischen positiven und negativen Werten und
Gütern unterschieden und diese ihrerseits vom „Gleichgültigen“ (Adiaphoron
ἀά) abgrenzten, haben sie Maßstäbe für Handlungsziele formuliert, die
dem Abendland nie wieder verloren gingen. Man hat sich nur davor zu hüten,
diese stoischen Handlungsziele als Normen einzuschätzen, die ihrerseits einer höheren Begründung bedürften. Sie sind durchweg auf Grund praktischen Forschens
und Wissens gewonnene standardisierte Handlungsmöglichkeiten.
Was sie als Pflichten, „officia“ (Katorthoma ó) und als „Geziemendes“ (Kathekon ή) gegen sich selbst, gegenüber den Mitmenschen und gegenüber den Göttern (damit sind vor allem die „Deina“, was wir oben mit dem
„Schrecklichen“ übersetzt haben, gemeint, dem man „Ehrfurcht“ entgegenzubringen hat) beschreiben, das sind keine „moralischen“ Anforderungen, und ihr
Gegenteil ist nicht „Sünde“, sondern sie sind die der je eigenen Natur und dem
erlangten Stand in der Welt entsprechenden vernünftigen Verhaltensweisen, die
nach allen Erfahrungen ein gutes einzelnes und gemeinschaftliches Leben als
Wirkungen erzielen.
Was sie dagegen als „Laster“ beschreiben, sind Leiden(schaften) (Pathe ά)
bzw. „Krankheiten der Seele“, nach Chrysipp sogar Fehlurteile bzw. Irrtümer, denen man therapeutisch begegnen muß. Wenn heute noch einige derselben als
Straftaten aufgezählt und definiert werden, wenn vom Straftäter „Geständnis“ und
„Einsicht“ in seine Verfehlung gefordert wird, und erst recht wenn ihre Sanktion
in „Rehabilitierungs-“ und Therapiemaßnahmen bestehen soll, so ist das noch immer eine Erbschaft der stoischen Lehre.
Wie man weiß, hat die praktische Philosophie der Stoiker über das römische
Recht den nachhaltigsten Einfluß auf die Ausgestaltung der abendländischen und
westlichen Rechtssysteme ausgeübt. Die verbreitete Überzeugung, daß jedes positive Rechtssystem und jede Gesetzgebung an einem „überpositiven“ Recht auszurichten habe, das aus der „Natur der Sachen“ zu erkennen und als „Naturrecht“
nur ein Teil der übergreifenden Naturgesetzlichkeit schlechthin sei, hat sich in
vielfältigen Krisen positiver Rechtsordnungen, in denen das „Summum Ius
Summa Iniuria“ (höchstes Recht höchstes Unrecht!) geworden ist, immer wieder
als Rettungsanker und Korrekturmaßstab zur Rückkehr zu humanen Rechtsregeln
bewährt.
Das stoische „Suum ius cuiuque tribuere“ – „Jedem das Seine!“ - ist zu einem
Gemeinspruch aller Gerechtigkeitserwägungen geworden, trotz oder gerade wegen der Schwierigkeiten der Feststellung, was im Einzelfall „das Seinige“ sein
könnte. Es ist mit den aristotelischen Gerechtigkeitsbegriffen der „ausgleichenden“ (kommutativen) und der „zuteilenden“ (distributiven) Gerechtigkeit zur
einheitlichen Formel zusammengewachsen, im Recht „das Gleiche gleich und das
299
Ungleiche ungleich“ zu behandeln. Sie hat sich in der juristischen Konstitution
ganzer Rechtsgebiete bewährt. Strafrecht, Handels- und Vertragsrecht, Steuerrecht
und nicht zuletzt demokratisches Wahlrecht wurden auch noch in den neueren
Gesetzgebungen auf „kommutative“ Gerechtigkeit begründet, belastende Steuerund austeilende Wohlfahrts- und Sozialgesetzgebungen auf die „distributive“
Gerechtigkeit.
Auch aktuelle Gerechtigkeitsdebatten im politischen Raum „de lege ferenda“
sind noch von dieser stoischen Formel getragen und erweisen damit ihre Lebenskraft. Was sich hier als „linke“ Gerechtigkeitidee zeigt, ist noch immer nichts
anderes als das Bestreben, alle Lebensverhältnisse durch „distributive“ - ungleiche
- Belastungen und „Umverteilungen“ gleichzumachen. Und umgekehrt ist die
„rechte“ Gerechtigkeit nichts anderes, als bestehende Ungleichheiten durch „kommutative“ Gleichbehandlung ungleich zu lassen.
So kann es auch nicht verwundern, daß im Kompromiß dieser Gerechtigkeitsaspirationen beides zugleich in Gesetze gegossen wird. Das Strafrecht wird durch
(bei verschiedener Einkommenshöhe ungleiche) Tagessätze bei Geldstrafen, das
Handels und Vertragsrecht durch gesetzliche Rahmenverträge, das Wahlrecht
durch Quotenregelungen distributiv ausgestaltet. Andererseits wird das Steuerrecht durch Kopf- und Mehrwertsteuer, die Sozialgesetzgebung durch „Selbstbeteiligung“ und „Selbstbedienung“ kommutativ gemacht.
Die sich in parlamentarischen Gesetzgebungen überall einstellende Überregulierung aller Lebensverhältnisse ist ihrerseits ein bedauerliches Symptom dafür, in
welchem Maße die Kenntnis dieser stoischen Prinzipien zunehmend in Verfall
geraten ist. Allein schon die Erinnerung daran, daß die Stoiker zwischen dem
rechtlich zu Regelnden überall auch das „Gleichgültige“ (Adiaphoron) und damit
den rechtsfreien Raum anerkannt hatten, wäre auch für moderne Rechtsgestaltungen de lege ferenda schon hilfreich zur Eindämmung einer uferlosen Gesetzgebung und der zunehmenden Verrechtlichung aller Lebensverhältnisse.
Abgesehen vom stoischen Gerechtigkeitsprinzip gehen zahlreiche andere juristische Denkformen und Institutionen auf die stoische Lehre zurück. Dazu gehört
etwa die Symmetrie von Anspruchsrechten und Pflichten und der „Naturschutz“
bzw. die „Naturerhaltung“ und die entsprechende strafrechtliche Sanktionierung
der Naturbeschädigung und alles sogenannten „Widernatürlichen“. Wenn auch die
Begriffe von „Pflichten“ und vom „Widernatürlichen“ heute in voller Auflösung
begriffen sind, so zeigt doch die Aszendenz ihrer Komplementbegriffe die fortdauernde Virulenz dieser stoischen Lehren.
Das gilt nicht minder vom stoischen Begriff der „Persönlichkeit“. Ihr Begriff
der „natürlichen Person“, der ja nur die stoische Gattungsdefinition vom Menschen als „vernünftigem Lebewesen“ ins Recht übernommen hat, ist mit Verfassungsrang als „Würde der Person“ in fast alle modernen Rechtssysteme der
Welt eingegangen. Er ist darüber hinaus zum Verankerungsgrund aller sogenannten Menschenrechte geworden.
300
Erstaunlicherweise - so muß man wohl sagen - hat ihr Personbegriff auch dahin
gewirkt, daß der Begriff der „juristischen Person“ bzw. der „Rechtspersönlichkeit“ von Institutionen und überindividuellen Verbänden alle aufklärerische Kritik
an Geistern und Gespenstern in den Rechtssystemen schadlos überstanden hat.
Diese nichtpersönlichen „Persönlichkeiten“ konkretisieren sich dann auch in
den „Körperschaften“, die alles andere als Körper sind. Vom Staat bis herunter
zur Firma begeisten sie vielgestaltige institutionelle Körper, die mächtig wirken.
Gleichwohl sind es lebendige Menschen, die in ihnen und durch sie handeln und
wirken und ihre „Funktionen“ ausüben - oft auch hinter ihnen verstecken und sich
dadurch ihren persönlichen Pflichten und Verantwortlichkeiten entziehen können.
Vergessen wir auch nicht, in welch ungebrochener Tradition der stoische Universaldeterminismus heute noch im Rechtsdenken nachwirkt. Indeterminierte
Sachverhalte gibt es hier prinzipiell nicht. Jede gerichtliche Tatsachenfeststellung
und Beweiserhebung setzt die kausale Determiniertheit aller relevanten Fakten
unbefragt voraus, fingiert im Zweifel irgend einen „Verursacher“ und sanktioniert
dies als „richterliches Erkenntnis“.
Nur in Extremfällen - die man dann eher noch fachlicher Inkompetenz zuschreibt - enden die Kausalketten im „nicht mehr Feststellbaren“. Und da ja definitionsgemäß nur menschliches Handeln rechtsrelevant sein kann, müssen alle
festgestellten Kausalketten zunächst bei einer natürlichen Person enden. „Schuld“
- ein Begriff, der ja auch aus ganz anderen, vor allem theologisch inspirierten
Ethiken, Sinnbefrachtung erhält und dann gewöhnlich mit „Freiheit“ und Verantwortlichkeit in Verknüpfung gebracht wird - ist hier auf „Verursachung“ reduziert.
Freilich zollt auch der moderne Jurist, wie der alte stoische, der Freiheit gerne
Lippenbekenntnisse, aber mit einem gewissen Bauchgrimmen. Denn er wird es
immer vorziehen, die Kausalitäten gleichsam durch den Täter hindurch auf einzelne innere („Traumatisierung“, Krankheit, Veranlagung) oder äußere Faktoren (Elternhaus, Umgang, Umwelt, „die gesellschaftlichen Verhältnisse“) weiterzuverfolgen und somit den Täter selbst nur als Glied in einer über ihn hinausreichenden
Kausalkette einzuordnen, worin ihn ein überbordendes „wissenschaftliches“ Gutachterwesen nur bestärken kann. Und so läßt sich der Kreis zum „therapeutischen“ Behandlungs- und Maßnahmenwesen, von dem schon die Rede war, wieder schließen.
Die Beispiele mögen genügen, die Virulenz der stoischen praktischen Philosophie, wie sie in Logik und Naturwissenschaft begründet ist, auch in modernen
Zeiten darzutun. Wir haben diese Rechtslehre besonders hervorgehoben, weil sie
gewissermaßen der Kanal war, durch den das stoische Denken insgesamt in der
abendländischen Geschichte bis in unsere Tage transportiert worden ist.
301
§ 22 Die Skepsis
Antidogmatismus der Skeptiker. Die platonischen Phänomene als Unbezweifelbares. Methodische
Urteilsenthaltung und Pro- und Kontradiskutieren über die Reduktion der Erscheinungen auf „Unterliegendes“. Die skeptischen „Tropen“ als „Rettung der Phänomene“ in ihrer Vielfältigkeit.
Kritik der induktiven Begriffsbildung – und was davon zu halten ist. Das „Friessche Trilemma“
der Begründung. Kritik der Urteils- und Schlußlehren. Kritik der aristotelischen und stoischen
Kausaltheorien und die platonisch-idealistische Interpretation der Kausalerklärung. Wahrscheinlichkeitswissen als platonische Meinung und als Glaube.
Die Skepsis wurde nach ihrem Schulgründer Pyrr(h)on von Elis (ca. 360 – 270 v.
Chr.) auch Pyrrhonismus genannt. Gegenüber den Verfestigungen antiken Wissens zu dogmatischen Weltbildern hat sie die Tugend des sokratischen Nichtwissens aufrechterhalten und durch ihre scharfe Kritik an den Dogmatiken diese
zu ständiger Überarbeitung und Weiterentwicklung gezwungen. Als „Zetetiker”
(Forscher), wie sie sich auch nannten, gaben die Skeptiker sich mit keiner angeblichen Einsicht und „Wahrheit“ der anderen Schulen zufrieden, sondern
hielten sich offen für weitere Hinterfragungen aller Sicherheiten. Sie haben abendländischer Wissenschaft das Bewußtsein von der prinzipiellen Unabgeschlossenheit des Wissens, wie sie gerade in dem Begriff und der Rolle der Forschung zum
Ausdruck kommt, gleichsam wie einen bohrenden Stachel ins Fleisch gesetzt.
Ihre eigene Argumentation knüpft an Heraklits und der Sophisten These vom
Zusammenfall der Gegensätze (also auch von Wahrheit und Falschheit) und damit
der Behauptbarkeit beliebiger Thesen und Antithesen an.
Über die sokratische Aporetik, also die Lehrmethode, den Schüler erst einmal in
die „Ausweglosigkeit” bzw. zur Verzweiflung zu bringen, ehe man ihm mäeutisch, d. h. geburtsbehilflich zur Anamnesis hinführt, war der skeptische Geist
auch in die platonische Akademie, besonders die sogenannte mittlere und neuere
Akademie unter Arkesilaos (ca. 315 – 241) und Karneades (ca. 214 – 129) eingeflossen.
Die Skeptiker der mittleren Akadmie trieben aber solche sokratische Aporetik
auf die Spitze. Daß sie dabei an Platon anknüpften, erkennt man an ihrer Neubewertung seiner Lehre von den Phänomenen und der Sinnesanschauung. Ersichtlich richteten sich ihre Argumente dabei auch gegen den später sogenannten
„Homo-mensura-Satz“ des Sophisten Protagoras (ca. 481 – 411 v. Chr.), mit dem
sich auch Platon in seinem ihm gewidmeten Dialog auseinandergesetzt hatte. In
Platons Worten lautet der Satz des Protagoras bekanntlich: „Der Mensch sei der
Maßstab aller Dinge, der Seienden, daß sie sind, der Nichtseienden, daß sie nicht
sind. ... Denn so wie ein jeder ein Ding wahrnimmt, gerade so scheint es auch für
jeden zu sein“.
Dazu sei eine Stelle aus den „Pyrrhonischen Grundzügen“ des Sextus Empiricus angeführt, die offenbar von allen, die die Skeptiker zu Skeptizisten machen
wollten, übersehen worden ist. Dort heißt es nämlich:
302
„Wer aber sagt, daß die Skeptiker das Erscheinende aufheben, scheint mir unachtsam auf
das zu sein, was bei uns gesagt wird. Denn das in Folge eines Erscheinungsbildes Erleidbare, was uns willenlos zur Beistimmung führt, leugnen wir nicht ..., dies aber ist das
Erscheinende. Wenn wir aber bezweifeln, ob das Unterliegende so ist, wie es uns erscheint, so geben wir einerseits zu, daß es erscheint, bezweifeln aber nicht das Erscheinende, vielmehr das, was über das Erscheinende ausgesagt wird; dies ist aber etwas anderes als das Erscheinende selbst bezweifeln.“ 137
Platons „Phänomene“ bzw. das Erscheinende erkannten die Skeptiker also unumwunden als gegeben an, und sie waren das einzige, was sie überhaupt anerkannten. Wohl aber bestritten sie, daß die Phänomene je nach dem Standpunkt und der
Einschätzung einzelner Individuen als „Sein“ oder als „Nichtsein“ beurteilt und
von einem „Unterliegenden“ (einer Ursache) her erklärt werden könnten.
Was die Skeptiker dabei entschieden bestreiten, sind alle Schulmeinungen über
die Gründe und Hintergründe der Erscheinungen, also auch die ganze platonische
Ideenlehre. Ihr Argument dafür lautet, daß sich für jede „dogmatische“ Schulthese
eine diese negierende andere dogmatische Schulthese finden lasse, die im Widerspruch zur Gegenthese stünde. Ob sie deswegen alle dogmatischen Thesen für
grundsätzlich falsch hielten, dürfte eine offene Frage sein. Es wird nach dem in
der Logik herrschenden Verständnis vom Satzwiderspruch gerne so ausgelegt.
Arkesilaos hat die „Urteilsenthaltung“ (Epoché ἐή) und die Beschränkung
auf die Kritik anderer Meinungen zur Methode entwickelt. Cicero drückt es so
aus: „Er habe als erster eingeführt, nicht darzulegen, was er selber meinte, sondern
gegen das zu disputieren, was ein anderer als seine Meinung äußerte.“ 138
Karneades hat, darin wohl auch dem Beispiel des Protagoras folgend, die
skeptische Methode mit großem Scharfsinn und allen rhetorischen Mitteln zum
„pro et contra dicere” ausgestaltet - was nachmals in der sogenannten „scholastischen Methode” („Sic-et-Non“-Methode, auch Quaestionenmethode genannt)
Nachfolge erhielt.
Daß Karneades überdies eine besondere Wahrscheinlichkeitstheorie (Theorie
der émphasis ἔ oder pithanótes ó) entwickelte, spricht vielleicht
dafür, daß er die dogmatischen Widersprüche der Schulen nicht für gänzlich
falsch, sondern eben für „wahrscheinlich“ hielt. Dies in Übereinstimmung mit
Platons These, daß alle Phänomenerkenntnis nur Glaube und Meinung (pistis und
doxa) seien, in der Wahres und Falsches vermischt sei, so daß die Wahrscheinlichkeit für das Handeln und Leben genüge
Zu den weiteren Skeptikern gehört Ainesidemos aus Knossos (Änesidem, 1. Jh.
v. Chr.), der in Alexandria wirkte, sowie der schon genannte Arzt Sextos Empirikos (Sextus Empiricus. 1. u. 2. Jh. n. Chr.), der in seinen Schriften „Pyrrhonische Hypotyposen (bzw. Grundzüge)”, „Gegen die Dogmatiker” sowie „Gegen
die Mathematiker” (d. h. gegen die Vertreter mathematischer Wissenschaften, wie
137
Sextus Empiricus, Die pyrrhonischen Grundzüge, dt. Ausgabe von Eugen Pappenheim, Leipzig 1871, 1. Kap. 10, S. 28.
Cicero, De oratore 3,18, 67: „Primum instituisse non quid ipse sentiret ostendere, sed contra id quod quisque se sentire
dixisset, disputare”.
138
303
sie später im Quadrivium organisiert wurden, aber auch gegen andere „Lerngegenstände” wie Grammatik und Rhetorik) – die beiden letzteren werden gewöhnlich zu einem Werk „Adversus mathematicos” zusammengefaßt – die Argumente
der Skepsis abschließend darstellt.
Die Pyrrhonischen Hypotyposen des Sextus Empiricus beginnen mit den „Tropen” (tropoi ó, auch logoi ó oder topoi ó „Örter“). Die Tropen
laufen auf das Argument der Relativität sinnlicher Erkenntnis gemäß subjektiven
Bedingungen, etwa der Unterschiedlichkeit der Lebewesen, der unterschiedlichen
Organleistungen, Gemütslagen, Lebensverhältnissen, Nähe und Entfernung von
einem Gegenstand etc. hinaus.
Das wurde und wird gewöhnlich so verstanden, als ob damit die Zuverlässigkeit
von sinnlichen Daten und Fakten in Frage gestellt würde. Das ist jedoch nicht der
Fall. Vielmehr sind die Tropen selbst eine Sammlung von Argumenten des mittleren Platonismus, die „Phänomene - in der gesamten Bandbreite ihres Sichzeigens - zu retten“. Was einmal in dieser Farbe, ein andermal in anderer Farbe,
einmal klein, ein andermal groß „erscheint“, das ist keine Erscheinung von etwas
„Unterliegendem“ hinter vermeintlichen Erscheinungsformen, sondern es handelt
sich bei alledem um jeweils andere Erscheinungen, hinter die nicht zurückgegangen werden kann.
Kurzum, es geht dabei um die Grundlegung eines wohlverstandenen Phänomenalismus, der – anders als alle reduktionistischen Dogmatiken - den ganzen
Reichtum der sinnlichen Phänomene ernst nimmt. Man muß bis ins 18. Jahrhundert und auf George Berkeley warten, bis daraus die angemessenen philosophischen Folgerungen für einen modernen idealistischen Phänomenalismus gezogen
wurden.
Dies vorausgesetzt, bezweifeln die Skeptiker dann auch alle Sicherheiten der
Bedeutungsfixierung von Zeichen und und erst recht die darauf beruhende Begriffsbildung. Von Sextus Empiricus stammt das seither in der klassischen und
modernen Logik so weithin als stichhaltig angenommene Argument gegen die
Sicherheit der Induktion, auf das schon vorne in der Einleitung Bezug genommen
wurde. Es lautet wie folgt:
„Sehr abzulehnen aber, meine ich, ist auch die Weise in Betreff der Induktion. Da sie (scl.
die Aristoteliker) nämlich durch sie von den Einzeldingen aus das Allgemeine beglaubigen wollen, so werden sie dies tun, indem sie entweder doch an die Einzeldinge herangehen, oder an einige. Aber wenn an einige, so wird die Induktion unsicher sein, da möglich ist, daß dem Allgemeinen einige von den in der Induktion ausgelassenen Einzeldinge
entgegentreten; wenn aber an alle, so werden sie mit Unmöglichem sich abmühen, da die
Einzeldinge unbegrenzt sind und unumschließbar. So daß auf diese Weise von beiden Seiten, meine ich, sich ergibt, daß die Induktion schwankend wird.“ 139
Das Argument richtet sich gegen die platonischen Ideen und aristotelischen zweiten Substanzen, die für etwas anderes als die hier „Einzeldinge“ genannten Phäno139
Sextus Empiricus, Pyrrhonische Grundzüge, 2. Buch, Kap. 15, S. 142.
304
mene gehalten werden. Daß sich in „einigen“ Einzeldingen bzw. Phänomenen
gemeinsame Züge (nämlich Merkmale) zeigen, wird keineswegs bestritten. Und
daß man nicht „alle“ Einzeldinge wahrnehmen kann, dürfte unbestreitbar sein.
Speziell richtet sich das Argument aber gegen die aristotelische Weise der Induktion (eisagogé ἰή) der Art- und Gattungsbegriffe. Wir haben dies
skeptische Argument gegen die Induktion als Begriffsbildungsmethode schon
vorn in der Einleitung als nicht tragfähig kritisiert.
Denn Sextus Empiricus durchschaute nicht, daß ein Artbegriff (eidos ἶ, lat.:
species), der gemeinsame Züge bzw. Merkmale von Einzelnem zusammenfaßt,
damit zugleich auch seine Gegenart durch Negation mitdefiniert. Und das bedeutet, daß damit auch für alle noch unbekannten Instanzen festgelegt wird, ob sie
zur positiven oder negativen Art gehören. Was die Induktion der Gattung betrifft,
so faßt sie in gleicher „abstrahierender“ Weise die gemeinsamen Züge bzw. Merkmale der positiven und negativen Arten zusammen. Auf jeder Induktionsstufe –
vom Individuum über die Art bis zur Gattung - bestimmt die jeweils festgelegte
spezifische Differenz, ob ein weiteres noch unbekanntes oder schon bekanntes
Phänomen unter den induzierten Begriff fällt oder nicht.
Kurzum, Sextus durchschaute nicht den Unterschied zwischen dem, was
Aristoteles selbst schon als spezifische Differenzen der Arten und generische
Merkmale der Gattung unterschieden hatte. Und das ist leider auch bei allen späteren Logikern so geblieben, die seither die induktive Begriffsbildung für unsicher
hielten.
Darüber hinaus formulierten die Skeptiker unter anderem auch schon das „Friessche Trilemma”, das neuerdings viel verhandelt wird und der Popper-Albertschen
Wissenschaftsprogrammatik der „kritischen Prüfung” (einem direkten Nachfahren
der zetetischen Skepsis) zur Grundlage dient.
Sie bemerkten, daß die wissenschaftlichen Beweis- und Begründungsmethoden
entweder zum unendlichen Regreß führen, oder zirkulär sind, oder an beliebigen
Stellen durch Dogmen als unbezweifelbaren Letztbegründungen abbrechen. Daß
ihr skeptisches Prüfen allerdings auch nur eine besondere Art des unendlichen Regresses darstellt, der die Lösung der Probleme auf eine fernere Zukunft vertagt,
haben sie ebensowenig wie die kritischen Rationalisten bemerkt.
Als zirkulär kritisieren sie insbesondere die aristotelische und stoische Schlußlehre: Da allgemeine Begriffe nur das den Einzelheiten Gemeinsame enthalten,
Urteile aus solchen Begriffen mithin immer schon induktiv gewonnen sind, kann
auch im Schluß aus solchen Urteilen nur das wieder herausgeholt werden, was
vorher in sie eingegangen ist. Der Schluß setzt somit das voraus, was er erst
beweisen soll.
Ihren Hauptangriff richten sie jedoch gegen die aristotelische Ursachenlehre und
den stoischen Kausaldeterminismus. Unter den zahlreichen Argumenten, die dabei
vorgetragen werden, ist wohl das folgende von Sextus Empiricus am interessantesten: Wenn Kausalität eine Verknüpfung (pros ti ó, relatio) von zwei
wohlunterschiedenen verschiedenen Dingen (genauer: Erscheinungen) als Ursa-
305
che und Wirkung ist, so geht entweder das eine dem anderen zeitlich voraus, ist
gleichzeitig oder folgt ihm nach. Nun ist auszuschließen, daß Ursache und Wirkung gleichzeitig sind, sonst wären sie nicht als solche unterscheidbar. Auch soll
die Ursache nicht der Wirkung zeitlich nachfolgen können. Wenn Ursache der
Wirkung also vorausgeht, so ist ihr Unterschied gerade zeitlich bedingt: Ursache
gibt es nur dann, wenn es noch keine Wirkung gibt; Wirkung gibt es erst dann,
wenn es keine Ursache mehr gibt, denn sonst wären sie gleichzeitig. (Man
beachte, daß auch die stoischen 4. und 5. Unbeweisbaren dieses Argument berücksichtigen). Also bewirkt Ursache (was immer so genannt wird) – Nichts; und
Wirkung ist verursacht durch – Nichts.
Das aber verhält sich nur dann so, wenn man den Kausalzusammenhang wie
Aristoteles und die Stoiker als Beschreibung einer Beziehung zwischen den den
Erscheinungen zugrunde liegenden Substanzen versteht. Diese erkennen die Skeptiker aber nicht an.
Ursache oder Wirkung bezüglich eines Dinges bzw. einer Erscheinung oder Zustandes sind für die Skeptiker ein „Hinzugedachtes“ (epinoeitai monon ἐῖó), das nur gleichzeitig mit der jeweiligen Sache sein kann. Zu einer
gegenwärtigen Erscheinung, die als Wirkung gedacht wird, wird als „Ursache“
eine erinnerte Erscheinung hinzugedacht. Und einer als gegenwärtige Ursache
angesehenen Erscheinung wird als deren Wirkung eine in der Phantasie antizipierte (aber ebenfalls schon früher wahrgenommene) Erscheinung hinzugedacht.
Man beachte, daß das genau der platonischen Erklärung der sinnlichen Dinge aus
„gedachten“ Ideen-Ursachen (die ja wesentlich Gedächtnisinhalte der Anamnesis
sind) entspricht. Und es dürfte von daher auch eine „idealistische“ Interpretation
der „realistischen“ aristotelischen Erklärung aus den vier Ursachen sein, die insgesamt jeweils aus Erinnerung und Prohairesis zum einzelnen Erscheinenden hinzugedacht werden.
Man wird hier anerkennen, daß die Skepsis klarsichtig auf etwas aufmerksam
gemacht hat, was kausale Forschung aristotelischer und stoischer Manier übersehen
hat: daß nämlich bei Kausalerklärungen und Prognosen Vergangenes wie auch
Zukünftiges als „erinnerte Phänomene“ und damit als ideelle Gegenwart behandelt
und auf Einzelnes Gegenwärtiges bezogen werden.
Daß Skeptizismus als Metaphysik und dogmatische Position, im Unterschied
zur skeptischen Methode, widerspruchsvoll und damit unhaltbar ist, gehört heute
zu den ausgemachten Wahrheiten. Allerdings würde man den antiken Skeptikern
Unrecht tun, wenn man sie für Skeptizisten hielte. Ebenso wie einem modernen
Forscher, wenn er wirklich bereit ist, seine Voraussetzungen und Überzeugungen
in Frage zu stellen und zu überprüfen. Die Skeptiker waren zweifellos dazu bereit.
Sie haben diese Offenheit für neue und andere Problemlösungen und damit den
Perfektibilitäts- und Fortschrittsgedanken des Erkennens und Wissens im abendländischen wissenschaftlichen Ethos verankert.
Es wird offensichtlich in der Geschichte der Philosophie und Wissenschaftstheorie zu wenig beachtet, daß die Skeptiker eine Filialschule der platonischen
306
Akademie bildeten - man rechnet sie zur „mittleren Akademie“ - und deswegen
kaum gegen alle platonischen Grundeinsichten skeptisch gewesen sein können.
Daß sie über diese Schuldogmatik der Platoniker nicht sprachen, nimmt ihrer
kritischen Schärfe gegenüber den nichtplatonischen Schulen nichts an Gewicht.
Ihre Kritik richtet sich gegen alle Versuche, die Phänomene der sinnlichen Erfahrung und die rationale Verarbeitung derselben in Theorien und formallogischen
Methoden zum Wesen der Philosophie und gesunder Wissenschaft zu machen.
Und das hinderte sie nicht, die platonische Lehre von den Ideen für etwas „Überwissenschaftliches“ zu halten, an das man - in dem Sinne, wie es von den Neuplatonikern überhaupt in Anspruch genommen wurde - glauben müsse. Und auch
das hat sich bei späteren Adepten der Skepsis gehalten.
Die Kosten dieser Haltung waren freilich hoch: wenn die „wissenschaftliche“
Wahrheit nicht zu fassen ist oder noch aussteht, so muß man auch mit der
Falschheit, dem Irrtum und dem Schein nicht nur in der Wissenschaft, sondern
auch im Leben ganz gut zurechtkommen. Sie haben den „zweiten Weg der
Forschung” des Parmenides recht eigentlich gangbar gemacht und denen, die ihn
beschreiten, das gute Gewissen zurückgegeben.
Dies zeigt sich seit der Neuzeit in der noch immer zunehmenden Aszendenz der
Wahrscheinlichkeitslogik. Daß ein „subjektiv“ wahrscheinliches Wissen oder ein
Wissen um „objektive Wahrscheinlichkeiten“ näher bei der Wahrheit als bei der
Falschheit sei, ist eine in gutgläubiger Absicht vorgenommene Mystifikation, die
sich schon in der Wortwahl zeigt. Sie macht sich die traditionelle Tatsache zunutze, daß man Wissen schlechthin gewöhnlich mit wahrem Wissen identifiziert.
Daß man auch falsches Wissen haben kann, zeigt sich spätestens, wenn es als
falsches widerlegt und durch wahres ersetzt worden ist.
In der Tat ist aber sogenanntes Wahrscheinlichkeitswissen ein (in der Mathematik sogar in exakten mathematischen Proportionen dargestelltes) Verhältnis von
wahrem und falschem Wissen über einen und denselben Sachverhalt, das man
füglich, wie im § 11 begründet, „Wahr-Falschheitswissen“ nennen sollte. Indem
es in logischen Alternativen oder gar Widersprüchen, in welchen immer der eine
Teilsatz wahr und der andere falsch ist, ausgesagt wird, drückt sich Wahrheit und
Falschheit also zugleich satzmäßig aus.
Was man hierbei sicher und wahr und genau weiß ist, daß die Wahrheit in der
wahrscheinlichen Aussage mitenthalten ist. Aber man weiß ganz und gar nicht,
welcher Teilsatz dabei der wahre ist, und entsprechend auch nicht, welcher der
falsche ist (sonst würde man diese logische Ausdrucksform nicht benutzen). Und
so verbindet sich im Wahrscheinlichkeitswissen nicht nur Wahrheit und Falschheit, sondern zugleich wahres Wissen über (unentschiedenes) Nichtwissen. Es ist
das, was Nikolaus von Kues später „docta ignorantia“ - „gelehrte Unwissenheit“ genannt hat.
307
§ 23 Der Neuplatonismus.
Synkretistischer und „ökumenischer“ Charakter des Neuplatonismus. Die Hauptvertreter. Die logische Begriffspyramide des Porphyrios und ihre Ontologisierung bei Plotin. Die Dynamisierung des
hierarchischen Stufenzusammenhangs als „Emanation“ bei Proklos: Moné, Prodromos und Epistrophé als Bleiben, Schöpfung und Rückkehr des Erschaffenen zum Ursprung. Die neuplatonische
Kausaltheorie. Die Ausbildung der Hermeneutik als Auslegungslehre heiliger und profaner Texte
bei Philon von Alexandrien: Buchstabensinn und philosophischer Hintersinn.
Der Neuplatonismus ist in der ausgehenden Antike die dominierende Philosophie.
Nicht nur gehören ihm Denker aus allen Bevölkerungsschichten an, sondern in
ihm artikulieren sich erstmalig in großem Stil auch die Philosophen der orientalischen Mittelmeerländer. Die große Sinnoffenheit des Werkes Platons erlaubt
die Inanspruchnahme für die verschiedensten, oftmals divergentesten Interpretationen. So ist der Neuplatonismus ein synkretistisches Gebilde, das zu allen anderen Denkströmungen Verbindungen schlägt. Er ist die „katholische” Philosophie
der antiken Welt, gewissermaßen die philosophische Ökumene, in der die Nationen und Gebildeten aller Völker kommunizierten.
In seinem Zentrum bleiben jedoch die Motive wirksam, die der späte Platon
selber, sodann die platonische Akademie und ihr aristotelischer Ableger, der Peripatos, besonders betont hatten: Pythagoräische Zahlenspekulation, aristotelische
Logik, die Abwendung von der sinnlichen Wirklichkeit und Zuwendung zum
Geisterreich, welches in einer umfassenden Ontologie des Sinnes und des Geistigen erschlossen und abgemessen wird, kulminieren bei allen Vertretern in einer
philosophischen Gotteslehre.
Damit verbunden ist eine „Lebensphilosophie” und Ethik, die alle Lebensverhältnisse und Handlungsziele gemäß einem platonischen Wort (Theaitetos 176 b)
auf die „möglichste Angleichung an das Göttliche” (homoiosis theô katà dynatón
ὁμοίφζις θεῷ καηὰό) ausrichtet.
In Alexandria wirkte, intensive philologische Studien an den heiligen Texten
bestreibend und anregend, der Jude Philon (Philo Judaius, ca. 15 v. Chr. - ca. 50
n. Chr.), der seither noch immer als „Philon von Alexandrien“ bekannt geblieben
ist. Plutarch von Chaironeia (45 - ca. 125 n. Chr.), der an der Akademie in Athen
studiert hatte, Priester in Delphi und Statthalter Roms in der griechischen Provinz
war, wohl der charmanteste Schriftsteller der antiken Welt, brachte die Kenntnisse
über die neuplatonische Philosophie zu den gebildeten Freunden nach Rom und führte
gleichsam im Plauderton den Neuplatonismus in die Weltliteratur ein. Er ist freilich
eher durch seine Parallelbiographien bedeutender Griechen und Römer im abendländischen Denken verankert geblieben. Auch Ammonios Sakkas (ca. 175 - 242 n.
Chr.) wirkte in diesem propagandistischen Sinne in Alexandria, von wo sein Schüler
Plotin (203 – 269 n. Chr.), der „zweite Platon“, den Neuplatonismus in Rom popularisierte und sogar zur Hofphilosophie des Kaiserhauses des Galienus machte. Plotins Schüler war Porphyrios aus Tyros (geb. ca. 232 – 304 n. Chr.). Dessen Schüler
308
Jamblichos (gest. ca. 330 n. Chr.) bildete dann in Syrien eine Reihe tüchtiger
Schüler heran, die am Studienzentrum von Pergamon, nicht zuletzt aber auch am
byzantinischen Kaiserhof für die Verwurzelung des Neuplatonismus sorgten. Hier hat
er in Kaiser Julianus (wegen seines Abfalls vom christlichen Glauben „Apostata“
genannt, 332 – 363 n. Chr.), dem Neffen Konstantins des Großen, einen kaiserlichen
Vertreter gehabt.
In Athen aber gehörten Proklos (412 - 485 n. Chr.), in Konstantinopel geboren
und mit Recht „der große Scholastiker des Altertums“ (F. Ueberweg) genannt,
übrigens in Alexandria ausgebildet, und sein Schüler Simplikios aus Kilikien (5. /
6. Jhdt. n. Chr.) zu den letzten Schulhäuptern und Vorstehern der Platonischen
Akademie in Athen. In ihren Werken kommt eine Synthese des platonischen und
aristotelischen Philosophierens zum Ausdruck. Ihre Kommentare zu beiden Klassikern bilden gewissermaßen das Vermächtnis der Antike an die mittelalterliche
und moderne Welt.
Ein Schlüsseldokument neuplatonischer Wissenschaftslehre ist die Einleitung
zum aristotelischen Organon des Porphyrios, der wie gesagt Schüler des Plotin
war. Er hat nicht nur Plotins Schriften geordnet und herausgegeben, sondern sich
auch um eine harmonisierende Interpretation des platonischen und aristotelischen
Werkes bemühte. Hier wird die aristotelische Begriffslehre in der nachmals so
berühmten Gestalt des „porphyrianischen Baums“ – umgedreht ergibt sich die
„Begriffspyramide” – vorgeführt und ontologisch hypostasiert. Die wesentliche
„pyramidale“ Formulierung der „Einleitung“ (Isagogé lautet: „Substanz ist auch selbst Gattung; unter sie fällt aber Körper, unter Körper beseelter
Körper, worunter Sinneswesen fällt; unter Sinneswesen aber vernünftiges Sinnenwesen, worunter Mensch fällt; unter Mensch aber fällt Sokrates, Plato und die
einzelnen Menschen.” 140
Nach Porphyrios ergeben sich entsprechende Stammbäume bzw. Pyramiden der
Begriffe für alle zehn Kategorien der aristotelischen Kategorienlehre. Wobei die
Kategorien selbst – er hat das Beispiel nur für die Substanzkategorie ausgearbeitet
– die obersten Spitzenbegriffe darstellen. Diese Stammbäume stehen unverbunden
nebeneinander: „Bei den Genealogien führt man den Ursprung in der Regel auf
einen, sagen wir, den Zeus zurück. Bei den Genera und Species ist das anders“
(Porphyrios, Einleitung, Kap. 2, 2 b; a.a. O S. 16)
Damit wird jedoch eher ein Problem signalisiert, das den Neuplatonismus und
nachmals die scholastische mittelalterliche Philosophie zentral beschäftigte: die
Frage nach der verbindenden Spitze der Kategorien selber: die Frage nach dem
höchsten Sein, dem Einen, dem Unsagbaren – Unaussprechlichen, dem Göttlichen. Dies wurde zum Problem der „Transzendentalienlehre“.
Porphyrios entlastet sich von der Behandlung mit der Formulierung:
140
Porphyrios, Einleitung in die Kategorien, Kap. 2, 2 a. In: Aristoteles, Kategorien u. Porphyrius, Einleitung in die Kategorien, hgg. u. übers. von Eug. Rolfes (Phil. Bibliothek Meiner Band 8/9), 2. Aufl. Hamburg 1958 Nachdr. 1968, S. 15.
309
„Was bei den Gattungen und Arten die Frage angeht, ob sie etwas Wirkliches sind oder
nur auf unseren Vorstellungen beruhen, und ob sie, wenn Wirkliches, körperlich oder unkörperlich sind, endlich ob sie getrennt für sich oder in und an dem Sinnlichen auftreten,
so lehne ich es ab, hiervon zu reden, da eine solche Untersuchung sehr tief geht und eine
umfangreichere Erörterung fordert als die hier angestellt werden kann” (Porphyrios, Einleitung Kap. 1, 1 a; a. a. O. S. 11).
In der Tat beschreibt er hiermit zutreffend die verschiedenen Positionen, die man
diesem Problem gegenüber einnehmen konnte, und die auch später im scholastischen Universalienstreit weiter und genauer ausformuliert worden sind. Sie sind
auch in der modernen Ontologie die grundlegenden Deutungsmuster der Realität
geblieben.
Daß er in der Sache selber keineswegs neutral blieb, sondern eben den neuplatonischen „Ideenrealismus” vertrat, zeigt sich an späteren Ausführungen der Isagoge:
„Die Akzidentien (d. h. die nicht substanziellen Kategorien und alle aus ihnen abgeleiteten Begriffe) subsistieren ursprünglich in den Individuen; die Gattungen und Arten sind
aber von Natur früher als die individuellen Substanzen” (Porphysios, Einleitung Kap.10,
5 a; a. a. O. S. 28).
Dies „von Natur früher“ (ein aristotelischer Ausdruck) aber verweist auf die „ontologisch-archelogische” Vorrangstellung der allgemeinen Begriffe und Sinngebilde bzw. der platonischen Ideen gegenüber den sinnlich erfahrenen Individuen
und Einzelheiten.
Diese allgemeinen Begriffe hatte Platon als die Urbilder der geschaffenen Welt
erklärt, auf die hinblickend der Demiurg den Kosmos gestaltet. Solchen platonischen Mythos in wissenschaftlicher und logischer Sprache zu rekonstruieren,
bildete die Aufgabe der neuplatonischen Geister- und Geistesontologie. Und wie
die Neuplatoniker die „Mythen” Platons selber als Herausforderung zu einer rationalen Interpretation nehmen, so auch die mannigfaltigen mythologischen Schöpfungsberichte der positiven Religionen des Mittelmeerraumes.
Religion wurde bei ihnen durch eine wissenschaftliche „Theologie“ unterbaut.
In ihr wurden die vorsokratischen Archai: der herakliteische Logos, der anaxagorische Nous, die pythagoräischen Zahlen, das parmenideische Sein und Eine,
das gorgianische Nichts, erst recht der aristotelische erste Beweger und das letzte
Ziel oder die stoische Ananke an die Stelle gesetzt, die Platon seinerseits durch
die Idee des Guten bezeichnet hatte.
Es war der Lehrer des Porphyrios, nämlich Plotin, der alle diese Ideen und
Mythen in einer hierarchischen Ontologie vereinigte. Auf sie hinblickend, wie
Platon selbst vom weltenbauenden Demurgen sagte, hat Porphyrios ihre logische
Struktur herausgearbeitet und danach auch Plotins Schriften als „Enneaden“ geordnet und ediert.141
141
Plotin, Enneaden, 5 Bände, hgg. u. übers. von R. Harder, ( Phil. Bibl. Meiner), Hamburg 1956 u. ö.
310
In Plotins ontologischer Pyramide steht an der „archelogischen“ Spitze das
schlechthin Eine, welches zugleich auch das Gute und Göttliche genannt wird.
Aus ihm „strahlt“ wie von der Sonne herab der Nous, die Vernunft, die sich als
Objekt zugleich alles Gedachte (Noumenon) gegenüber stellt und so das reine
Sein (Ousia) bildet. Und aus beidem strahlt wiederum ab die Weltseele (Psyché).
Nous und Psyché sind die beiden von Späteren als „Emanationen“ (Ausflüsse)
bezeichneten geistigen Instanzen. Zusammen mit ihrem Ursprung im Einen und
Guten bilden sie die „geistige Welt“ (kosmos noetos óó, mundus intelligibilis).
Die Weltseele aber teilt sich dann in die einzelnen Seelen der Lebewesen und
vor allem der Menschen, die sich in den sinnlich wahrnehmbaren Gestalten „verkörpern“. Verkörperung aber beruht, wie in aristotelischer Terminologie gesagt
wird, auf der Verbindung mit der Materie. Und diese verdünnt sich gleichsam
immer weiter ins nicht mehr sinnlich Wahrnehmbare, was dann auch hier Nichts
(Me on μὴ ὄν) genannt wird. Dieser beseelte Teil bildet die „sinnliche Welt“ (kosmos aisthetos, óἰó mundus sensibilis), wie sie im platonischen
Timaios und in den Naturlehren des Aristoteles und der Stoiker geschildert worden war.
Die Bedeutung dieser plotinischen hierarchischen Ontologie kann kaum hoch
genug veranschlagt werden. Sie hat die Unterscheidung von Geistes- bzw. Sinnwelt und materieller Natur gleichsam für alle späteren Zeiten zementiert. Für alle
Theologien des vorderen Orients und des Abendlandes bildete sie den Hintergrund, auf welchem sich weitere Ausgestaltungen der hierarchischen Stufen im
Bereich des Kosmos noetos diskutieren ließen. Wesentliche Formulierungen
Plotins gingen in den Text des „Pseudo-Dionysios Areopagita“ ein, den die christliche Kirche als Vermächtnis des Athener Freundes des Apostel Paulus ausgab,
und der noch heute dogmatisch ihrer Lehre zugunde legt.
Proklos, der als Rektor der Platonischen Akademie auch den Beinamen „Diadochos“ führte, hat die plotinische ontologische Pyramide durch viele Zwischenstufen erweitert und den platonischen Teilnahme-Zusammenhang (Methexis
έ, participatio) der einzelnen Stufen „dynamisiert“. Sie ist uns in seinem
Buch „Stoicheiosis theologiké“ (ῖή Institutio Theologica)
erhalten geblieben.142 Es war nicht nur im Abendland, sondern auch bei den Arabern verbreitet.
Die Arché ist hier das Eine-selbst (autohen ὐέ), das höchste Gute als der
höchste und unaussprechliche Gott. Aus ihm gehen in die nächste Stufe Vielheiten
von Einheiten (Henaden) ein, mit denen Proklos die Götter der verschiedenen
Religionen und der griechischen Mythologie erfaßt. Erst die dritte Stufe ist der
Bereich der Vernunft und des Seins (Nous und Ousia), der sich „triadisch“ in
denkende (noeroi, intellektuelle) und gedachte (noetoi, intelligible) Geister und
142
Proklos, The Elements of Theology, griech.-engl. hgg. von E. R. Dodds, 2. Aufl. Oxford 1963. Sein Werk „In Platonis
Theologiam libri VI“ ist ebenfalls erhalten geblieben und zusammen mit der Institutio Theologica griech-lat. von A. Portus
in Hamburg 1618 herausgegeben worden, Nachdr. Frankfurt a. M. 1960.
311
Sinngestalten und ihre Verschmelzung zum zugleich denkend-Gedachten (noetos
kai noeros) gliedert. Erst daran schließt sich die Stufe des Seelischen (Psyché) und
Beseelten der Lebewesen und der materiellen Natur (Physis) an, für deren
Einteilung Proklos neben der Triade auch die Hebdomade (= Siebener-Einheit)
benutzt.
Jede obere Stufe bleibt, was sie ist (Moné ή, Verbleiben), geht aber auch aus
sich heraus und in die nächst untere, diese erzeugend, über (prodromos ó), wo sie dann zur oberen zurückgewendet (epistrophé ἐή) verbleibt. Dies ist die neuplatonisch-kausale Interpretation der Schöpfung als Emanation (Herausfließen, „beeinflussen“) aller Dinge aus der Arché. Das Obere ist
jeweils Ursache des Niederen und bleibt als Wesen in der Wirkung enthalten.
Alles Bewirkte aber kann nur durch Rückbeziehung auf die „höhere“ Ursache
Bestand haben. Das ist die Grundlage für die „creatio continua“, die fortwährende
Schöpfung und Erhaltung der Welt.
Aber zugleich wird die Epistrophe, die „Umwendung“ auch von höchster
ethischer Relevanz. Denn so wie der Prodromos eine Abwendung vom Göttlichen
und Hinwendung zum Profanen anzeigt - in christlicher Theologie bedeutet das
Sündhaftigkeit – so die Epistrophé das Streben und die Hinwendung zum Ursprung, zum Göttlichen selbst, die platonische Theiosis. Und dies wird nicht nur
im Christentum, sondern in allen Theologien als der Weg des Heils und der Erlösung von der Einbindung in die materielle Welt gedeutet.
Der ontologische Zusammenhang entspricht dem pyramidal-logischen des Porphyrios. Das Obere ist das jeweils Allgemeinere. Es enthält schon alle Wesensmerkmale aller unter seinen Begriff fallenden Arten und Einzelwesen, in denen
sie als „generische“ Merkmale bleiben. Die Emanation wird logisch als Deduktion
(„Herabführen“, prodromos) des Unteren gedacht. Die in den jeweils unteren
Stufen und Rängen hinzukommenden spezifischen Merkmale bezeichnen den
Abstand (aristotelische Steresis) vom nächst höheren Allgemeinbegriff.
Daß Proklos das aristotelische Organon und die Einleitung des Porphyrios
ebenso gut kannte, wie er überhaupt in allen Lehren der vorangegangenen griechischen Wissenschaften und besonders der Mathematik versiert war, das zeigt sich
in seinem Kommentar (nur zum ersten Buch) der „Elemente“ des Euklid, wo er
vielfach auf ihn verweist.143 Die Unterscheidung des Euklid von geometrischen
Axiomen, Postulaten und Definitionen führt Proklos auf Aristoteles zurück. Ersichtlich sind sie als „Prinzipien“ ebenso unableitbar hinzunehmen wie in der
Theologie die Arché des Auto-Hen und die vielfältigen Henaden. Für diee
Mathematik aber sind sie die Prinzipien für die Ableitung der weiteren Theoreme
und Probleme, die das Gesamt des geometrischen Wissens und Konstruierens
ausmachen.
143
L. Schoenberger und M. Steck, Proklos, Kommentar zum ersten Buch von Euklids „Elementen“, Halle 1945; engl.
Ausgabe hgg. von G. R. Morrow, Princeton, N. J. 1970.
312
Es ist kein Rückfall in homerische und hesiodische Mythologie, sondern gerade
der Durchgang durch die ganze zur Verfügung stehende gelehrte und aufgeklärte
Bildung der antiken Welt, wenn die Neuplatoniker dem Gotte nun in erster Linie
diejenigen Züge liehen, die sie an sich selber und in ihrer Seele zu finden glaubten.
So wie die sinnlichen Dinge endliche Symbole für die ewigen und unveränderlichen Ideen waren, so waren ihnen ihre seelischen Kräfte und Vermögen Symbole für den ewigen und alles erschaffenden Gott. So wie der Mensch in der
Anamnesis, der Wiedererinnerung, sich seiner Teilhabe an den Ideen versichert,
so erscheint nunmehr der göttliche Geist als der Ort, an dem sich die Ideen vor
aller Schöpfung befinden. Erkenntnis wird selber Teilhabe an diesem göttlichen
Geist, und Wissenschaft insgesamt wird zu einem wahren „Gottesdienst“ der Homoiosis theô.
Die christliche Kirche hat diese neuplatonische Lehre in ihre „Theologie“ übernommen, sie aber auch als „Gnosis“ als „häretisch“ denunziert. In der Tat ist sie
aber nur die rationale Konsequenz der ganzen griechischen Entwicklung, den
ersten und letzten Grund des Seins begrifflich und wissenschaftlich zu erfassen.
Und dies konnte, wie schon Aristoteles in seiner ersten Philosophie sagte, nur in
„Theologie“ enden.
Die Neuplatoniker haben dadurch dem Abendland die philosophische Theologie erschaffen, in welcher religiöse Überlieferung und Volksglauben mit den
höchsten wissenschaftlichen Fragestellungen der Philosophie verschmolzen sind.
Daß sie sich als eigene Wissenschaft neben der stoischen Naturrechts-Jurisprudenz im mittelalterlichen und neuzeitlichen Universitätssystem etablieren konnte,
hat diese Theologie nicht zuletzt ihrer griechisch philosophischen Grundlage zu
verdanken, die auch die Gebildeten unter ihren Verächtern auf allen Wegen
weltlicher Bildung immer wieder zu ihr zurückführte.
Abgesehen davon, daß durch das Wirken der Neuplatoniker Theologie als philosophische Erst-Prinzipien-Ontologie bzw. Metaphysik selber ein Wissenschaftsparadigma ersten Ranges in der abendländischen Wissenschaft wurde, hatte die
damit verbundene Sinn-Hypostasierung auch unmittelbare Folgen für den Ausbau
des Wissenschaftssystems. Selber eine Geister- und Geisteswissenschaft, wurde
die neuplatonische Philosophie auch die geeignete Grundlagentheorie des sich in
den alten Kulturen ausbreitenden gelehrten Umgangs mit Literaturen und besonders mythologischen und religiösen Textdokumenten.
Die Neuplatoniker entwickelten zuerst in großem Stil eine Hermeneutik, durch
welche auch noch den abstrusesten Texten und Überlieferungen derjenige Sinn
abzugewinnen war, den sie als platonisches Ideenreich oder als Inhalt des göttlichen Geistes voraussetzten. So trat ihnen neben die Natur als ein zweiter Bereich
sinnlich wahrnehmbarer Geistesoffenbarung die Kultur und die Geschichte, die
sie nunmehr nach den Signaturen des göttlichen Schöpfungsplanes befragten.
Exemplarisch für diese Vereinnahmung religiöser Textdokumente als Zeugnisse
für die Wahrheit der platonisch-neuplatonischen Geistlehre wurde das Werk des
313
Philon von Alexandrien (ca. 15 v. Chr. - ca. 50 n. Chr.). Er hat sie in seinen Interpretationen zum Pentateuch (5 Bücher Moses, die Thorah bzw. das „Gesetzbuch“
der Juden) vorgelegt. Ausgehend von der Voraussetzung, daß die griechische
Philosophie sich insgesamt von der jüdischen Religion herleite, sah er in der platonischen Lehre, aber auch in der stoischen Pneumalehre den eigentlichen spirituellen Gehalt der göttlichen Offenbarung in theologisch-wissenschaftlicher Gestalt
entwickelt. Seine Abhandlungen „Über die Unzerstörbarkeit des Weltalls“, „Über
die Vorsehung“, „Daß jeder Gerechte auch frei sei“ und „Alexander oder darüber,
daß auch die Tiere Vernunft besitzen“ zeugen zunächst für seine intensive Aneignung des griechischen Denkens in damals verbreiteter synkretistischer Manier.
Wichtiger und bahnbrechend auch für die spätere christliche Theologie wurde
seine Hermeneutik, die er seinen Pentateuchinterpretationen zugrunde legte.144
Ausgehend vom „Buchstaben des Textes“ (dem sogenannten Literalsinn), der ja
als wörtlich inspirierte göttliche Offenbarung gilt, geht es ihm in erster Linie um
das Verstehen des „mystischen“ bzw. eigentlich philosophischen Sinnes, den nur
der platonisch Gebildete zu erfassen imstande sein soll. Er ist mit der platonischen
Lehre (bzw. dem, was Philon darunter versteht) identisch. Um ihn zu erfassen,
muß man freilich über den Literalsinn hinausgehen und die in ihm liegenden Hinweise auf den mystischen Hintersinn der einzelnen Schriften als „Anspielungen“
bzw. als „Allegorien“ verstehen, wie das ja auch Platon selbst in seinen Gleichnissen und Bildern (vgl. dessen Höhlengleichnis, Sonnengleichnis, Liniengleichnis
aus dem „Staat“ und das „Wagenlenkergleichnis“ aus dem „Phaidon“) vorgeführt
hatte.
Philon hat damit die Grundlagen für die später in allen Theologien - aber auch
in der Jurisprudenz - immer weiter ausgebaute Lehre vom mehrfachen Schriftsinn
heiliger (aber darüber hinaus aller sogenannten dogmatischen) Schriften geliefert.
In die christliche Theologie ist sie als Lehre vom vierfachen Schriftsinn durch
Johannes Cassianus (360 – ca. 430 n. Chr.) eingegangen und später in einem
schönen Merkvers zusammengefaßt worden:
Litera gesta docet, quid credas allegoria,
moralis quid agas, quo tendas anagogia.
Die reinen Fakten aufzuzeigen, das ist dem Literalsinn eigen,
was dir zu glauben aufgetragen, läßt sich nur allegorisch sagen.
Zum Handeln dir die Ziele steckt moral„scher Sinn, darin versteckt,
Fürs letzte Ziel von allem Streben ist anagog„scher Sinn gegeben.
Ersichtlich zehren alle Geisteswissenschaften bis zum heutigen Tag von dieser
neuplatonischen Sinnvermutung, die hinter jedem planen und buchstäblichen Vordergrundsinn unendliche Dimensionen geheimen, metaphorischen Sinnes erschließen will und immer noch neu erschließt. Mag man sich in modernen auf144
Philon, Die Werke in deutscher Übersetzung, 6 Bände, hgg. von L. Cohn u. a., Breslau 1909 - 1938, ND Berlin 1962.
.- Vgl. K. Otto, Das Sprachverständnis bei Philo v. Alexandrien. Sprache als Mittel der Hermeneutik, Tübingen 1968.
314
geklärten Zeiten scheuen, diese Sinndimensionen als das Göttliche zu bezeichnen,
mag man lieber von Kultur, Geschichte, Tradition, objektivem oder objektiviertem Geist oder gar vom Unbewußten reden, aus dem die modernen Geisteswissenschaften so tiefen Sinn schöpfen, so sind sie doch nichts anderes als eine
große institutionalisierte Anamnesis geworden, durch die immer neue Generationen sich eines übergreifenden Hintersinnes der Welt und der Wirklichkeit zu
versichern suchen.
§ 24 Der wissenschaftstheoretische Ertrag der antiken Philosophie
Der Arché-Gedanke als Ursprung und Wesen. Der Objekt-Gedanke und die Transzendenz der Archai. Die Subjekt-Objektspaltung. Die wissenschaftliche Methodologie. Die Schulbildung und die Organisation der Metaphysiken. Das Gesetz der
Evidenzialisierung der Archai.
Daß die Griechen die Grundlagen der abendländischen Wissenschaft geschaffen
haben, ist ein abendländischer oder gar weltweiter Gemeinplatz. Eher ist umstritten, was diese Grundlagen ausmache und was demnach abendländische Wissenschaft sei. Wir möchten in wissenschaftstheoretischer Perspektive die folgenden
Momente nennen:
1. Der Arché-Gedanke. Mit ihm stilisieren die Vorsokratiker das Grundmuster
abendländischer Wissenschaft. Er wird gleichsam zur Matrix aller wissenschaftlichen Erklärungen. Die Verknüpfung eines Vorgegebenen, Phänomenalen, mit
anderem Phänomenalem oder einem „dahinter“ zu vermutendem und zu erschließendem Nicht-Phänomenalem wird zum Archetypos aller Kausalerklärung,
in der Einzelnes mit Einzelnem in notwendige Verbindung gebracht und die
Suche bzw. Auffindung des „passenden” Erklärungsmotivs zum Ziele aller Forschung werden kann.
Ersichtlich ist der Archégedanke selber die „wissenschaftliche” Formierung
uralt-menschlicher Erfahrung des Bewirkens und Erzeugens in Befehls- oder
Schaffensprozessen, die den Griechen in ihren anthropomorphen Götterbildern
mit eindeutiger Zurechenbarkeit und Ressortverantwortlichkeit zur mythologischen Denkform geworden war. Es macht ihnen Ehre, daß sie – in der Stoa –
den Arché-Gedanken schon so früh zum Universaldeterminismus verallgemeinerten und zugleich – im Epikureismus und in der Skepsis – seine totale Kritik
leisteten. Zwischen beiden Extremen bewegt sich auch heute noch abendländische
Erklärungsmethodologie der Wissenschaften.
2. Objekt und Transzendenz. Der Arché-Gedanke beinhaltet und setzt voraus
eine Bestimmung des Vorgegebenen, welches Ausgangspunkt für die Forschung
315
nach seinem Grunde, der Ursache sein kann. Die Griechen nannten es „Phänomen”. Im Phänomenbegriff haben wir das Grundmuster wissenschaftlicher Objektkonstitution. Die Sicherung bzw. „Rettung der Phänomene“ (sózein tà phainómena ῷàó) bleibt seitdem erstes Anliegen jeder Objektwissenschaft.
Bemühten sich die frühesten Vorsokratiker (Thales, Anaximenes), dann aber
auch Aristoteles, die Phänomene gemäß dem Arché-Gedanken untereinander in
eine notwendige Ordnung zu bringen – welcher Gedanke erst in der Neuzeit im
Sensualismus George Berkeleys und im Phänomenalismus eines Ernst Mach und
Richard Avenarius wieder aufgegriffen wird – so bezieht die vorherrschende Meinung seit Anaximander den Arché-Gedanken auf etwas „hinter den Erscheinungen” Stehendes, was selbst nicht erscheint. Der Phänomenbegriff selbst bezeichnet eine „Doppelbödigkeit des Objekts”, nämlich von Erscheinung und Wesen,
Schein und (eigentlichem) Sein. Und dies Verhältnis von Vordergründigkeit und
Hintergrund wird selbst als Verhältnis von Wirkung und Ursache aufgefaßt.
In dieser Anwendung des Arché-Gedankens liegt die Erfindung der Transzendenz, des „Meta-“, wass seitdem für abendländische Wissenschaft in allen „hinterfragenden“ Forschungsstrategien maßgeblich geblieben ist. Für alle archélogische
„transzendentale”- das Vordergründige zum Hintergrund „überschreitende“ Forschung bleibt die platonische Ideenlehre und die aristotelische Meta-Physik
paradigmatisch. Der Transzendenz-Gedanke ist seither im Abendland selbst von
den kühnsten „Diesseitsforschern” nicht ernsthaft in Frage gestellt worden.
3. Die Subjekt-Objekt-Spaltung. Sie wird von den Vorsokratikern schon vor der
sokratischen „Wende zum Subjekt” auf Grund ihrer erkenntnistheoretischen
Überlegungen aufgerissen. Im Verfolg ihrer Arché-Forschungen stoßen sie auch
auf die Erkenntnisleistungen als Ursache für die bestimmte Objektivationsweise
der Erkenntnisgegenstände: einerseits der Sinneswahrnehmung als Ursache der
Phänomene, andererseits der „Denkkraft“ bzw. der Vernunft als Ursache des
Hinter-Grundes.
Das zeigt sich schon in der parmenideischen Zuordnung von Denken und Sein
(noeîn te kai eînai ῖìἶ), deren Verhältnis auf dem „Weg der Wahrheit” ermittelt und als „Identität“ (to auto òὐó) herausgestellt wird. Andererseits in der entsprechenden Zuordnung von Sinnlichkeit und Phänomen, die auf
dem „Weg des Irrtums und der Meinung” artikuliert wird.
Allerdings haben die Griechen in einer ersten Wende zum Subjekt das Subjekt
als Objekt behandelt. Dies war die große Leistung der Sophisten und insbesondere
des Protagoras, als sie den Menschen als „Arché“ entdeckten. Das führte schon
bei Platon zu einer Zwei-Welten-Lehre, nämlich der nachmals die abendländische
Ontologie bestimmenden Unterscheidung des mundus sensibilis (kosmos aisthetos
óἰó) und des mundus intelligibilis (kosmos noetos óó)
oder der materiell-phänomenalen und der ideell-geistigen Welt. Und diese Unter-
316
scheidung wird zur Grundlage der späteren Unterscheidung der Objekte von Natur- und Geisteswissenschaften.
Erst die augustinische „zweite Wende zum Subjekt” bringt einen gereinigteren
Begriff vom Subjekt zustande und arbeitet die Arché-Implikationen der Subjektivität für die Konstitution der weltlichen Objekte heraus. Hier bereitet sich die
Transformation der Subjekt-Objekt-Spaltung in ein Verhältnis von „Innenwelt“
und „Außenwelt“ vor.
4. Wissenschaftliche Methodologie. Seit Parmenides„ zwei „Wegen der Forschung” – den Wegen der Wahrheit und des Irrtums – bleibt die Wegmetapher
(hodos ὁó Weg) ein Leitbild abendländischer Reflexion über die Mittel, Instrumente und Ziele der Wissenschaft. Die prinzipielle Trennung von Weg und Ziel –
Methode und Gegenstand der Wissenschaft – wird schon in der aristotelischen
Logik erreicht, die in der aristotelischen Schule als „Organon” (methodische
Hilfsmittel) der Wissenschaft verselbständigt und somit von den eigentlichen
Wissenschaften und ihren Objekten abgegrenzt wird.
Aber wie beim Subjekt verwandeln die Griechen auch die Methode in ein
Objekt. Die Stoa rechnet die Logik als Grundmethodologie zu den Wissenschaften
selber. Der Neuplatonismus hypostasiert die Begriffsverhältnisse zum objektiven
Ideen- und Geisterreich. Wie beim Subjekt belasten sie dadurch die weitere Entwicklung mit einer folgenschweren Hypothek: dem Zirkel (oder Widerspruch) der
Reflexion. Methode und Subjekt sollen sich selbst „methodisch“ erklären: sie
unterscheiden sich von sich selbst und werden doch zugleich identifiziert. Dieser
Widerspruch wird in der abendländischen Reflexionsphilosophie zum Quellpunkt
endloser Logomachien.
Neben der Logik nimmt die Mathematik an diesem Schicksal teil. Die pythagoreisch-platonische Philosophie spricht ihr den Charakter einer Einzelwissenschaft von ontologisch vorgegebenen geometrischen Formen und Zahlen, Zahlenverhältnissen, Relationen, Harmonien und Seinsstrukturen zu. Aristoteles bestärkt
in seiner Wissenschaftsklassifikation diese Einschätzung, indem er die Mathematik als zweite „theoretische Wissenschaft“ gleich nach der Metaphysik einordnet.
Euklid scheint den grundsätzlich methodologischen Charakter der Mathematik
durchschaut zu haben. Jedenfalls stellt er die Geometrie als eine Konstruktionsmethode von sinnlichen Bildern, Körpern und Zahlenverhältnissen dar, die Arithmetik aber als den mathematischen Ideenbereich hinter den geometrischen Erscheinungen.
Unsere Analysen der „Logik der euklidischen Mathematik“ – die bei zunehmender Trennung von Logik und Mathematik und insbesondere durch die Abtrennung
der trivialen (logischen) und quadrivialien (mathematischen) Wissenschaften im
Kurrikulum der Freien Künste niemals ernsthaft von den Philosophen geleistet
wurde - legen nahe, daß es sich bei der euklidischen Mathematikkonzeption um
eine ausgearbeitete „dialektische Logik“ des Denkens in Widersprüchen handelt.
317
Trotzdem bleibt die Stellung der Mathematik zwischen Methodologie und objektbezogener Einzelwissenschaft schwankend und ist es noch jetzt.
Am weitesten sind die Stoiker darin gegangen, die Wissenschaften insgesamt als
„Methodiken” (via ac ratio) zur Erreichung nützlicher Lebensziele zu definieren.
Somit auch die Logik selber, die sie ja auch ins Wissenschaftssystem integrierten.
Wissenschaftstheoretisch knüpften sie dabei an den aristotelischen Techne-Begriff
(lat.: ars = Handwerk, Kunst und Wissenschaft) an. Darin folgten ihnen die „praktisch” gesinnten Römer weitgehend nach. Ihr Erbe wurde die scholastische „Artistenfakultät“, die die methodologischen Propädeutika für die „höheren” Fakultätswissenschaften bereitstellen sollte. Und sie hat auch als „philosophische Fakultät“ unter den anderen Fakultäten ersichtlich seither noch eine gewisse Attraktivität als hohe Schule für „Lebenskünstler“ bewahrt.
Zwischen den Extremen entfalten sich schon in der griechischen Antike einzelne
Methoden, oft nach ihren Erfindern oder bedeutendsten Benutzern genannt, die
bis heute in Gebrauch sind: Die herakliteische (und gorgianische) Dialektik, die
die Einheit der Gegensätze zu denken lehrt (oder es doch versucht), und die durch
Euklid in die Grundlagen der Mathematik gleichsam eingebaut wurde. Die zenonische Apagogik, die die Widerlegung von Theorien durch Aufweis ihrer paradoxalen Konsequenzen betreibt. Ihr verwandt die sokratische Aporetik, die den
Dogmatiker „elenktisch“ in die „Ausweglosigkeit” bzw. zur Verzweiflung bringt.
Sie will ihn „protreptisch“ für die Anwendung der sokratischen Maieutik (Geburtshelfermethode) vorbereiten, die (indem sie vorgeblich sein unbewußtes Wissen zum Vorschein bringt, in der Tat aber nur) logische Folgerungen aus zugestandenen Prämissen entwickelt. Die platonische „intellektuelle Anschauung”
(Ideenschau), die dem Philosophen das Kunststück zumutet und abfordert, mit
einem „geistigen Auge” übersinnliche Strukturen „wahrzunehmen”. Sie hat mit
dieser paradoxalen Forderung einer Anschauung des Unanschaulichen selbst eine
Grundlage für die „dialektische Logik“ geliefert. Die demokriteische Modellmethode der Erklärung des Unsichtbaren durch das Sichtbare und das platonische
Mythenerzählen kann man als Vorläufer der paradigmatischen oder ModellMethode anführen. Dann die aristotelische Empirik bzw. Historik, die später zur
historisch-empirisch-deskriptiven Methode stilisiert wurde, in der Gegenwart als
„phänomenologische” Methode der Deskription wieder aufgenommen wurde. Neben ihr die aristotelische „epistemische” bzw. „scientifische” Methode, eigentliche Theorie, die in Epagogé (Induktion) und Dihärese (Deduktion) Begriffsbildung durch Synthese und Analyse anderer Begriffe bzw. ihrer Merkmale lehrt.
Nicht zuletzt bei Aristoteles auch die rhetorisch-topische Methode der Argumentationsführung durch „schlagende” Argumente, die ad hoc plausibel erscheinen.
Die dogmatische Methode der „schulmäßigen” Gesamtdarstellung ganzer Wissenssysteme im Ausgang von als „evident” oder glaubensmäßig gesichert geltenden Letztbegründungen, die vor allem die Neuplatoniker, Stoiker, aber auch
Euklid praktizierten. Und zuletzt auch die skeptische Methode der Skeptiker, die
318
als „zetetische” (forschende) alle Dogmatik auflöst und sich für ständige Offenheit und Überprüfung aller Voraussetzungen und Gewißheiten bereithält.
Man ahnt hier schon den Schematismus, der die Bildung und Entstehung von
„methodischen“ Wissenschaften beherrscht: Vom „Trick” oder Kunstgriff, den ein
Philosoph oder eine Schule erfindet und vorzüglich verwendet, geht die Entwicklung zur allseitig verwendbaren Methode. Manche von ihnen erreichen in weiteren
Stilisierung den unanfechtbaren Status von Einzelwissenschaften, die dann ihrerseits ubiquitär in anderen Einzelwissenschaften einsetzbare Methodiken bilden. So
bildet sich das heraus, was man den Gegensatz von „X-ologien” (objektzugeordneten Einzelwissenschaften) und „Y-iken” (objektfreien Methodenwissenschaften) nennen könnte.
5. Die Schulbildung und die Organisation der Metaphysiken. Es ist erstaunlich,
daß die Philosophie mit den Vorsokratikern beim Schwersten angefangen hat, was
in der Philosophie zu leisten ist: der Gewinnung und Sicherung von Letzt- oder
Erstprinzipien, den Archai. An die Gründer schließen sich sogleich Schulen an,
die die Arché „exhaurieren”, indem sie alles, worauf der forschende Blick der
Griechen fiel, im Lichte ihres Schul-Prinzips erklärten. So entwickeln sie schulmäßig Begründungsmetaphysiken, lange ehe der Name dafür erfunden war.
Zwar gab es Tendenzen zur priesterlichen Esoterik, zur Geheimlehre, zur Abkapselung – wie bei den Orphikern, bei den Pythagoräern, den Gymnosophisten
aus Indien, auch bei den Ärzten, die im hippokratischen Eid zur Geheimhaltung
ihrer Kenntnisse verpflichtet wurden. Aber der agonal-öffentliche Geist der Griechen zerrte alles ans Licht der Kritik und öffentlichen Diskussion. Die Konfrontation der Grundstandpunkte und der aus ihnen entfalteten Schullehren erwies sich
als der Motor der Bewegung: Kritik und Apologetik reinigten die diffusen Weltanschauungen schon früh zu wissenschaftlich-logischen Systemen. Parmenideisches Einheitsdenken und demokriteischer Elementarismus, platonischer Idealismus und aristotelischer Realismus bilden das Fadenkreuz der Extreme, zwischen
denen auch heute noch die metaphysischen Standpunkte oszillieren. Nicht minder
sind epikureisches Freiheitsdenken und stoischer Universaldeterminismus Wegmarken für Grundentscheidungen geworden, zwischen denen skeptisch-zetetisches Denken einen mittleren Kurs der Wahrscheinlichkeit zu steuern versucht.
Hier läßt sich nun ebenfalls ein Gesetz andeuten, das den Evidenzcharakter der
Archai im Rahmen des griechischen Denkens – und später des abendländischen
Denkens – regiert. Wir möchten es das Gesetz der wechselseitigen Plausibilisierung der metaphysischen Axiome im Kontext der Schulbildungen nennen.
Ersichtlich bildet das, was die eine Schule als nicht hinterfragbare Arché an den
Anfang ihrer Welterklärung stellt, für andere Schulen gerade das Problem, das sie
durch Ableitung und Erklärung von ihrem eigenen jeweiligen Standpunkt, ihrer
Arché her zu lösen versuchen. Was sich den einen als das Evidente schlechthin
darstellt, ist es und kann es nur sein, weil es durch die Erklärungsarbeit der Kritiker so evident geworden ist. Mit anderen Worten und in logischer Sprache: Was
319
bei den einen die Spitze ihrer metaphysischen Begriffspyramide bildet, ist den
anderen ein abgeleiteter Begriff oder gar ein bloßes Faktum an der Basis ihrer
Gedanken- Pyramide.
Das setzt die Einheit des Diskursuniversums voraus, in dem die Griechen und
seither die abendländische Philosophie sich bewegten. Der Streit und die gegenseitige Kritik der Schulen hat dieses Universum nach allen Richtungen hin durchmessen, hat die Begriffe und Prinzipien isoliert und wieder in mannigfache neue
Verknüpfungen eingestellt, deren philosophiegeschichtliche Tradition sie der
heutigen Begründungsdiskussion in Einzelwissenschaften wie in der Metaphysik
selber noch immer als plausible Argumente, als metaphysische Topoi zur Verfügung stellt. Gewiß ist manches davon in der Patristik und Scholastik unter der
Schulherrschaft des Neuplatonismus und des Aristotelismus in den Hintergrund
getreten und vergessen worden. Aber es war die große Leistung der Renaissance,
sie „ad fontes“ wieder aufzusuchen und für einen neuen Diskurs aller antiken
Schulgesichtspunkte bereitzustellen.
320
B. Das Mittelalter: Patristische und scholastische Wissenschaftslehre
§ 25 Der ideengeschichtliche Kontext.
Der historische Lückenbüßer-Titel „Mittelalter“ bei Chr. Cellarius 1688. Ausbreitung des antiken
Erbes im Abendland und im vorderen Orient. Die Organisation der Forschung und Lehre. Die „höheren Fakultäten“ Theologie, Jurisprudenz und Medizin als praktische Berufsstudien. Die philosophische Fakultät d. h. die „Artisten“-Fakultät der sieben freien Künste als Propädeutikum. Die
„2. Wende zum Subjekt“ bei Augustinus.
Das von dem Hallenser Historiker Christoph Cellarius (Keller) im Jahre 1688
zwischen Antike und Moderne eingeschobene „mittlere Alter” hat in historischer
Hinsicht nichts von einem Lückenbüßer an sich. Denn die Zeit zwischen Völkerwanderung und „Wiedergeburt der Wissenschaften“ war schon längst als besondere Epoche dargestellt worden. Als „Kurz und bündig vorgestellte Universalgeschichte, eingeteilt in antikes, mittleres und neues Zeitalter, mit fortlaufenden Anmerkungen“ (Jena 1692) hat das „Mittelalter“ gemäß dem Vorschlag des seinerzeit sehr bekannten Lehrbuchverfassers Cellarius am meisten Anklang gefunden.145 Die Bezeichnung war für die Historiographie eine bald überall nachgeahmte Neuerung.
Es ist das Zeitalter der Ausbreitung einer christlichen Kultur und Zivilisation in
den nördlichen Gefilden des römischen Weltreiches, dessen ideologische Unterlage der Neuplatonismus geblieben ist. Neue Völker eigneten sich die Inhalte der
antiken Kultur und Zivilisation an und richteten sich in ihren noch bestehenden
Institutionen ein.
Die üblich gewordene Einschätzung der Verhältnisse, die bis heute gepflegt
wird, lautet: Die Philosophien der antiken Bildung rüsteten sich mit staatlicher
Macht und Waffen und traten zu Kreuzzügen gegeneinander an: Islamischer
Aristotelismus gegen neuplatonisches Christentum und umgekehrt bis zum Patt
waffenstarrender Weltmächte. Aber diese Einschätzung gehört zu den historischen
Mythen.
Was den sogenannten (lateinischen) Westen betrifft, ging es in internen Auseinandersetzungen von Gelehrten und Klerikern um die „reine Lehre” in mannigfaltigen Schismen, die die antike Ideenkonkurrenz im Abendland perpetuierten. In der
Perspektive der „abendländischen Philosophie“ und meist nur der römisch-lateinischen befangen, sind wir auf Grund jahrhundertelanger Vernachlässigung der
historisch-philologischen Aufarbeitung der alternativen Denkschulen des vorderen
Orients, der auch zum römischen Weltreich gehörte, auch heute noch nicht in der
Lage, die wirklichen Traditionen, die zur neuzeitlichen wissenschaftlich-techni145
Chr. Cellarius, Historia Antiqua, Zeitz 1685; Historia Medii Aevi, Zeitz 1688; beide zusammengefaßt und fortgeführt
als Historia universalis breviter ac perspicue exposita, in antiquam, et medii aevi, ac novam divisa cum notis perpetuis“,
Jena 1692. Die Fortführung erschien auch gesondert als Historia Nova, Halle 1696.
321
schen Zivilisation des Westens und der Kultur des nahen Ostens im „Hinterland“
von Byzanz führen, angemessen zu würdigen und ihre sämtlichen Früchte zu
genießen. Hier kann uns die hochscholastische Rezeption des durch den Islam in
eigentümlicher Ausprägung übernommenen Neuplatonismus durch viele islamische „Mystiker“ wie al-Ghazali und die Verschmelzung des Neuplatonismus mit
aristotelischen und stoischen Elementen bei den zu einseitig „Aristoteliker“ genannten Philosophen von al-Kindi bis al-Farabi und ibn-Rushd (Averroes) mitsamt ihrer ausgebreiteten positiven Wissenschaftlichkeit noch immer eine Lehre
sein.
Daß Aristoteles bei islamischen Theologen so großes Interesse gewann, dürfte u.
a. auch darauf beruhen, daß einige unter seinem Namen im arabischen Sprachraum verbreitete Texte von den Neuplatonikern stammen. Das lenkte die Aufmerksamkeit auch auf die übrigen Schriften des Aristoteles. Das Hauptdokument
war die „Theologie des Aristoteles“, welches ein Auszug aus den Büchern IV –
VI der „Enneaden“ Plotins ist. Es wurde um 840 aus dem Griechischen ins Arabische übersetzt, später auch vom Arabischen ins Lateinische. Es gelangte so in
die frühesten gedruckten Aristotelesausgaben.146 Ebenso gelangte unter dem Namen des Aristoteles ein ins Arabische übersetzter Auszug aus Proklos‟ „Institutio
theologica“ in die lateinischen Aristotelesausgaben. Es ist der „Liber de causis“.147
Jedenfalls dürfte der Missionserfolg des Islam unter der Flagge des „Aristotelismus“ sehr dazu beigetragen haben, daß auch die abendländischen Theologen
sich einem vertieften Aristotelesstudium nachhaltig zuwendeten.
In der Spätantike hatte der Neuplatonismus die Zwei-Welten-Lehre von der
diesseitigen sinnlich-phänomenalen und der jenseitigen übersinnlich-geistigen
Welt zu einer selbstverständlichen Denkform gemacht. Der stoische Mikro-Makrokosmos-Gedanke ließ den Menschen als Spiegelbild der ganzen Welt erscheinen. Mit seiner Leiblichkeit in die sinnliche Welt verflochten, sollte er in seinem seelisch-geistigen Wesen am Übersinnlichen partizipieren.
Auf dieser Grundlage wird in einer „zweiten Wende zum Subjekt” nach innen
gewandte Seelenforschung zugleich Erforschung der Struktur der geistigen transzendenten Welt. Psychologie und Bewußtseinsanalyse wird zugleich Erforschung
der transzendenten göttlichen Dimension. Alexandrinische Metaphern-Hermeneutik lehrt, ihre Resultate als Chiffren und Sinnbilder des Göttlichen zu deuten. Zugleich harmonisiert sie wissenschaftliche Einsicht mit den positiven Sagen religiöser heiliger Schriften. Arché-Forschung als Grundlagen- und Begründungsforschung nimmt die Gestalt von Theologie, von „Gotteswissenschaft“ an. Die
katholische Kirche und daneben die byzantinisch-orthodoxe Kirche etablieren sich
als wirkungsmächtige philosophische Institutionen zur Organisation metaphysi146
Carpentarius, Sapientissimi philosophi Aristotelis Stagiritae theologia sive mystica philosophia secundum Aegyptos, Paris
1572, neu hgg. v. Fr. Dieterici, Die sogenannte Theologie des Aristoteles aus dem Arabischen übers. und mit Anmerkungen
versehen, 1883.
147
O. Bardenhewer, Die pseudoaristotelische Schrift über das reine Gute, bekannt unter dem Namen liber de causis, arab./dt.
1882.
322
scher und positiv-einzelwissenschaftlicher Studien und zur praktischen Anwendung ihrer Resultate in der Seelenleitung und Menschenbildung.
Zu diesem Zweck organisieren die Kirchen im Abendland, aber auch die islamischen Herrscher in ihren „Medresen“ („Schulen“), nach den antiken Hochschul-Vorbildern auch die Ressourcen und die Methoden der Forschung und
Lehre. Zugleich mit dem Kanon der religiösen Quellen wird der Kanon der Klassiker und Autoritäten festgestellt und interpretierend adaptiert und gepflegt. Dieser Vorgang hat in der staatlichen Feststellung und interpretatorischen Pflege und
Anwendung der antiken Rechtsquellen – kulminierend in der Promulgation des
Corpus Juris Justiniani im 6. Jahrhundert – ein öffentliches Vorbild.
Die Methode verpflichtet zur Auswertung und Benutzung der in den Quellen
liegenden Kenntnisse zur Gewinnung von Problemlösungen und Entscheidungen
anstehender Fragen. Harmonisierung von Widersprüchen in den Quellen, Widerlegung und Abweisung unpassender Meinungen, kühne Überschreitung der Dogmatik in inno
Herunterladen