Prof. Dr. Kazimierz Rynkiewicz Die epistemische Koexistenz von Theorie und Wissen - aus wissenschaftstheoretischer Perspektive Vorlesung Ludwig-Maximilians-Universität München WS 2016/17 2 3 Vorlesung 8 (07.12.2016) 2.4. Theorie und Begriffe 2.5. Theorie und Statistik 2.6. Theorie und Realismus 2.6.1. Unterbestimmung der Theorie durch Erfahrung 3. Der systematisch-strukturelle Aufbau einer Theorie Theorie und Begriffe Dass vernünftige Theorien auch klare Begriffe erfordern, muss hier nicht speziell betont werden. Derartige Theorien sind aber für die Wissenschaft schlechthin relevant, in der es doch um rationales Denken geht. Indessen behauptet Heidegger einerseits in seiner Vorlesung unter dem Titel „Was heißt Denken?“, dass die Wissenschaft nicht denke. Die Wissenschaft kann gar nicht denken, und zwar zu ihrem Glück, d.h. zur Sicherung ihres eigenen festgelegten Ganges. Wenn die Wissenschaft sich selbst bedenken würde, so müsste sie ihr Forschungsstreben unterbrechen. Das aber darf sie nicht tun, wenn sie bei sich bleiben will. Andererseits spricht Heidegger in seinem Werk „Sein und Zeit“ über das Verstehen und die Auslegung. Jedwede Auslegung ist aber die Sache der Wissenschaft, in der Dinge der Welt begrifflich erschlossen werden. So lesen wir: „Das im Verstehen Erschlossene, das Verstandene ist immer schon so zugänglich, dass an ihm sein „als was“ ausdrücklich abgehoben werden kann. Das „Als“ macht die Struktur der Ausdrücklichkeit eines Verstandenen aus; es konstituiert die Auslegung. Der umsichtig-auslegende Umgang mit dem umweltlich Zuhandenen, der dieses als Tisch, Tür, Wagen, Brücke „sieht“, braucht das umsichtig Ausgelegte nicht notwendig auch schon in einer bestimmenden Aussage auseinander zu legen“ (SZ §32, 149). In diesem Zitat werden zwei Problemfelder angesprochen. Zum einen wird also die Relevanz der Begriffe hervorgehoben, die im Umgang mit dem in der Welt Vorhandenen (Tisch, Tür, Wagen usf.) entstehen. Zum anderen wird das Resultat des Verstehens genauer charakterisiert, und zwar im Hinblick auf dessen Erschlossenheit und Zugänglichkeit. Diese beiden Prädikate Heideggers, d.h. Erschlossenheit und Zugänglichkeit, kann man auch auf die 4 Wissenschaftstheorie problemlos beziehen, die offenbar zeigen will, dass Wissenschaftler nicht erst auf die Kritik von außen warten müssen, sondern auch zu einer gewichtigen Selbstkritik fähig sind. Die dahinter stehende Idee hat insbesondere Husserl mit seiner These „Phänomenologie als strenge Wissenschaft“ paradigmatisch ausgearbeitet. Der sichere Gang der Wissenschaft, wie ihn Kant für die Philosophie als dringlich erachtet hatte, war bislang nicht erreicht worden, behauptet Husserl. Darum muss die Philosophie als transzendentale Weltwissenschaft in gänzlich anderem Sinne als profane Wissenschaften verstanden werden; sie soll nicht nur deren Wissen anders und tiefer begründen, als es mit den eigenen Mitteln der Wissenschaften geschehen kann, sondern sie hat auch sich selbst eine Begründung zu geben und diese als Selbstbegründung kritisch zu rechtfertigen. Erst dadurch kann die Philosophie als Garant für ein letztes Wissen um die absolute Subjektivität gelten, in der die Quelle jedweder Objektivität liegt, d.h. sowohl die Quelle von Gegenständen der Bewusstseinserlebnisse aller Art als auch jedes auf diese Gegenstände bezogene Wissen, mithin die Quelle aller Wissenschaften. Wissenschaft bedeutet für Husserl vor allem ein unermüdliches Anfangen an den Ursprüngen allen Philosophierens, d.h. ein Aufheben unmittelbarer Intuition, die den letzten Sinn aller ursprünglichen Begriffe und aller Prinzipien liefert und damit das Fundament für philosophisches Denken überhaupt schafft. Durch die Einführung der „Philosophie als strenger Wissenschaft“ beabsichtigt Husserl einen „festen Boden“ in der Philosophie zu gewinnen. Epistemologisch formuliert geht es also darum, in der Philosophie eine Erkenntnis zu erzielen, die in keiner Weise angezweifelt werden kann, mithin in ihrer Geltung und Sicherheit „absolut“ ist. Diese Überlegungen Husserls können auch für die Wissenschaftstheorie (WT) wertvolle Dienste leisten, wenn man etwa bedenkt, dass es durchaus sinnvoll wäre, über die „WT als strenge Wissenschaft“ zu reden. Damit könnte man nicht nur die Aufgabe der WT genauer bestimmen, sondern auch deren methodisches Verfahren verbessern. Denn auf die Forderung nach der kritischen Selbstbegründung, die für die These Husserls entscheidend war, kann auch die WT nicht verzichten. Wenn wir aber die These „Wissenschaftstheorie als strenge Wissenschaft“ gelten lassen, so stellen wir schon eine Theorie auf, die aus methodischer Sicht zwei Bereiche umfasst: den Bereich der Begriffe und den des Denkens. Also: THEORIE Denken Begriffe 5 Nun könnte man sagen, jede Theorie verdanke sich dem rationalen Denken. Dieses setzt aber entsprechende Begriffe voraus, damit die zu erforschende Welt effizient angegangen werden kann. Ferner ergibt sich daraus, dass das Denken eine Art Verbindung zwischen einer Theorie und deren Begriffen darstellt. Eine weitere Konsequenz ist die Rede von begrifflichem Denken bzw. Erkennen, das nicht nur für epistemologische, sondern auch für wissenschaftstheoretische Aktivität von Subjekten grundlegend ist. Begriffe und somit begriffliches Denken bzw. Erkennen haben im epistemologischen Prozess eine wichtige Funktion zu erfüllen. Sie ergänzen nämlich das sinnliche Erkennen – mit der Folge, dass sich dem Erkenntnissubjekt Informationen über das sinnlich Gegebene erschließen. Wenn ich z.B. etwas sehe oder höre, so kann ich diesem Etwas aufgrund meines Vermögens zur Begriffsbildung eine bestimmte Form zuschreiben, d.h. ich kann sagen, ich sehe ein X. Das kann ich aber nur deshalb tun, weil ich vorab eine Menge von bestimmten Informationen aus dem Bereich der Begrifflichkeit (bzw. kantisch gesprochen „aus dem Reich der Begriffe“) erhalten habe. Dadurch entsteht dann eine Art Kausaltheorie, die das sinnliche Erkennen bedingt, und auf deren Leistungen auch die Wissenschaftstheorie dringend angewiesen ist. Und diese Theorie lautet: Begriffliches Erkennen verursacht das gänzliche Zustandekommen des sinnlichen Erkennens. Beides spielt sich also im Rahmen einer Theorie ab. Theorie und Statistik Aus der Verknüpfung von Theorie und Statistik resultiert eine wissenschaftliche Grundlage zur quantitativen Systematisierung von Dingen in der Welt. Es geschieht dank statistischen Theorien, die in vielen Wissenschaften (Natur- und Geisteswissenschaften) zum Einsatz kommen. Die quantitative Systematisierung erfolgt ferner im Kontext des Begriffs der Wahrscheinlichkeit, der als Garant des funktionellen Gleichgewichts im Verhältnis zwischen Statistik und Theorie angesehen werden kann. Daher haben wir Folgendes: Statistik Wahrscheinlichkeit Theorie 6 Statistik analysiert die Häufigkeitsverteilungen und ihre Anwendungen in den Wissenschaften. In einem konkreten System handelt es sich um die Verteilung eines Merkmals oder mehrerer Merkmale in einer „Population“ (d.h. Bereich) Ω. Eine Population ist eine Menge von Objekten, wobei jedes Objekt das Merkmal in einer verschiedenen Ausprägung trägt. Die Ausprägungen werden abstrakt als Elemente einer Menge M vorgestellt, d.h. als eine Menge von Zahlen. Nehmen wir ein Beispiel aus dem Genetikbereich: „Es gibt die Population der Menschen (in einem bestimmten Zeitraum) und das Merkmal „Augenfarbe“ mit den bekannten Ausprägungen: braun, blau, grün, grau. Jedes Element der Population hat genau eine Ausprägung des Merkmals, d.h. jeder Mensch hat eine bestimmte Augenfarbe. So haben wir folgende Funktion h : Ω → M, die jedem Objekt (jedem Menschen) genau eine Ausprägung (eine bestimmte Augenfarbe) zuordnet“. Mit anderen Worten: Statistik ist das Erfassen einzelner Ereignisse mit Hilfe von Zahlen, wobei in den Ereignissen zwei Arten von Phänomenen (gleichzeitig oder in zeitlicher Folge) auftreten. Der statistische Satz hat also folgende Struktur: „Aus den Ereignissen X, die Phänomene der Klasse A umfassen, gehören die Ereignisse Y zugleich zu der Klasse B“. Beispiel: „Unter 3856 Einwohnern eines Stadtteils sind 76 Hauseigentürmer“. Die statistische Aktivität beschränkt sich allerdings nicht auf die Bestimmung von Beobachtungssätzen und deren Zählungsvorgang. Vielmehr müssen die gesammelten Daten eine entsprechende Form erhalten, so dass die sichere Verwendung reduktiver Methoden möglich wird (z.B. die prozentuelle Bestimmung von Daten). Schließlich ist darauf zu achten, dass man oft nicht in der Lage ist, die ganze Population zu erfassen, sondern lediglich deren Fragmente. Es leuchtet also ein, dass die Verbindung zwischen Objekten und Häufigkeiten ihres Auftretens in der Statistik durch die Zahlen vermittelt wird. Häufigkeit wird so zu einer Eigenschaft von Mengen von Objekten. Nehmen wir noch folgendes Beispiel: „Wir haben eine Klasse mit 20 Kindern: 7 Kinder haben braune Augen, 6 Kinder blaue, 4 Kinder grüne und 3 Kinder graue. Dann behaupten wir, die Häufigkeit, dass irgendein Kind aus dieser Menge braune Augen habe, sei 7“. 7 Wie dieses Beispiel zeigt, kommt es in den statistischen Prozeduren zu Häufigkeitsverteilung. Die Häufigkeitsverteilung ist eine Funktion, die zu jeder Ausprägung a die „richtige“ Anzahl der Objekte zuordnet, die diese Ausprägung haben. Aus formaler Sicht ergibt sich daher Folgendes: f : M → IN, so dass f (a) = ‖ { o ϵ M / h (o) ‖ Mit anderen Worten: Die verschiedenen Anzahlen werden auf die Ausprägungen verteilt. Dabei ist zwischen einer „absoluten“ (AH) und einer „relativen“ Häufigkeitsverteilung (RH) zu unterscheiden. Wenn wir auf das obige Beispiel mit 20 Schulkindern zurückblicken, dann heißt das, die AH der Augenfarben sei durch die Zahlen 7 : 6 : 4 : 3 gegeben. Wollen wir dagegen diese Werte relativieren, indem wir sie durch die Anzahl der Population (= n) (in diesem Beispiel durch 20) dividieren, so erhalten wir die RH wie folgt: 7/20; 6/20; 4/20; 3/20. Die formale Struktur der relativen Häufigkeitsverteilung (RH) kann man dann folgendermaßen darstellen: für alle a ϵ M ist RH (a) = AH (a) / n Sollte der Begriff der Häufigkeitsverteilung zum Einsatz kommen, dann benötigen wir auch das Prinzip der Wahrscheinlichkeit. Alle statistischen Untersuchungen setzen dieses Prinzip oder seine konkrete Ausformulierung wie etwa Wahrscheinlichkeitstheorie voraus. Ferner bedeutet dies, dass statistische Analysen nur zu einem wahrscheinlichen, nicht aber zu einem absoluten Resultat führen können. Mit dem Begriff der Wahrscheinlichkeit können wir also die Begriffe der relativen und absoluten Häufigkeit operational definieren. Der einfachste Weg ist die Bezugnahme auf die Wahrscheinlichkeitstheorie (WST). Die WST ist ein Teil der Mathematik und bildet gemeinsam mit der mathematischen Statistik das mathematische Teilgebiet der Stochastik, die von der Beschreibung zufälliger Ereignisse und ihrer Modellierung handelt. Die Ereignisse der WST sind (als solche) exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig. In der WST geht man also konzeptionell von einem Zufallsvorgang oder Zufallsexperiment aus. Alle möglichen Ergebnisse dieses Zufallsvorgangs werden in der Ergebnismenge Ω zusammengefasst. Ein Ergebnis ist also ein Element der Ergebnismenge. Wenn ein bestimmtes Ergebnis eintritt, spricht man von einem Ereignis. Das Ereignis ist als Teilmenge von der Ergebnismenge Ω definiert. Umfasst ein Ereignis genau ein Element der Ergebnismenge, so handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten dagegen mehrere Ergebnisse. Um den Ereignissen 8 Wahrscheinlichkeiten zuordnen zu können, muss man sie in einem Mengensystem aufführen, das auch Ereignisraum Σ genannt wird. Der Ereignisraum ist daher eine Menge von Teilmengen von der Ergebnismenge Ω. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung P des Ereignisraums in das Intervall [0,1]. Eine solche Abbildung wird Wahrscheinlichkeitsmaß genannt und definiert als ein Maß P : Σ → [0,1] im Sinne der Maßtheorie P(Ω) = 1. Schließlich wird das Tripel (Ω, Σ, P) als Wahrscheinlichkeitsraum bezeichnet. Wenn wir jetzt den strukturellen Aufbau der WST mit einem Schema zusammenfassen wollen, dann haben wir Folgendes: Der strukturelle Aufbau der Wahrscheinlichkeitstheorie (WST) Begrifflich fundierte Elemente (1) Wahrscheinlichkeitsmaß (2) Wahrscheinlichkeitsraum Begrifflich fundierende Elemente (1) Zufallsvorgang (2) Ergebnis / Ergebnismenge Ω (3) Ereignis / Ereignisraum Σ (4) Abbildung P Für die Begründung der WT sind vor allem die sogenannten KolmogorowAxiome und Laplace-Experimente entscheidend. Die Kolmogorow-Axiome werden bei der Bestimmung des Wahrscheinlichkeitsmaßes verwendet. Dieses Maß muss demnach drei folgende Kolmogorow-Axiome erfüllen: * Axiom 1: Für jedes Ereignis A aus Σ ist die Wahrscheinlichkeit eine reelle Zahl zwischen 0 und 1: 0 ≤ P(A) ≤ 1; * Axiom 2: Das sichere Ereignis hat die Wahrscheinlichkeit 1: P(Ω) = 1. * Axiom 3: Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Inkompatible Ereignisse sind paarweise disjunkte Mengen A1, A2,……; es muss also gelten: P (A1 U A2 U…..) = Σ P(Ai). Diese Eigenschaft wird auch σ-Additivität genannt. Wenn wir diese drei Axiome jetzt auf ein Beispiel anwenden, z.B. auf das Werfen einer Münze, wobei die Ereignisse des Werfens „Zahl“ und „Adler“ sind, dann haben wir Folgendes: Die Ergebnismenge Ω = {Zahl, Adler}; als Ereignisraum kann die Potenzmenge II (Ω) gewählt werden, also Σ = {Ø, { }, { }, Ω}; und für das Wahrscheinlichkeitsmaß P steht aufgrund der Axiome fest: (1) P(Ø) = 0; (2) P({Zahl}) = 1 – P({Adler}); und (3) P(Ω) = 1. Wenn man dagegen annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d.h. mit der gleichen Wahrscheinlichkeit 9 auftreten, wie z.B. beim Werfen einer idealen Münze, wo Zahl und Adler jeweils die Wahrscheinlichkeit 0,5 besitzen, dann spricht man von einem Laplace-Experiment. Dieses Experiment zeigt, dass sich die Wahrscheinlichkeiten berechnen lassen: Wir nehmen also eine endliche Ergebnismenge Ω an, welche die Mächtigkeit |Ω| = n besitzt, d.h. sie hat n Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach P =1/n. Für die Ereignisse, die sich aber aus mehreren Elementarereignissen zusammensetzen, gilt die entsprechend vielfache Wahrscheinlichkeit: Wenn A ein Ereignis der Mächtigkeit |A| = m ist, so ist A die Vereinigung von m Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit P = 1/n, also ist P(A) = m · 1/n = m/n. Im Endeffekt erhält man den folgenden einfachen Zusammenhang: P(A) = |A| / |Ω| Im Laplace-Experiment gleicht also die Wahrscheinlichkeit eines Ereignisses der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ereignisse. Die Wahrscheinlichkeitstheorie (WST), deren Fundament mathematisch begründet ist, zeigt ihre eigentliche Wirkung vor allem bei der Bildung von statistischen Theorien, die sich aber auf verschiedene Wissensgebiete beziehen können, d.h. auf das Gebiet der Natur-, Sozial-, Geisteswissenschaften usf. Die WST „kontrolliert“ dabei den Verteilungsprozess von Zufallsvariablen. Angesichts dieser umfassenden Anwendung der WST ist zwischen reinen statistischen Theorien (RST) und statistischen Theorien (ST) zu differenzieren. Während die reinen statistischen Theorien lediglich ein statistisches Element enthalten, das aus dem Paar {(1) Wahrscheinlichkeitsraum (= Tripel) |Ω, Σ, P| und (2) Zufallsvariable ξ} besteht, können die statistischen Theorien hingegen außer einem statistischen Element noch andere Komponenten enthalten. Die statischen Theorien sind als Theorien, durch deren Hypothesen die Verteilung der Zufallsvariablen nicht genau festgelegt, sondern unter Bezug auf andere Modelkomponenten nur mehr oder weniger eingeschränkt wird. 10 Theorie und Realismus Wenn man die wissenschaftliche Plausibilität von Theorien behaupten möchte, so ist auch deren Verhältnis zum Realismus zu überprüfen. Denn wir benötigen Theorien mit realistischen Ansprüchen. Im Hinblick auf die moderne Debatte können wir dies allgemein so ausdrücken, es gehe um die Frage nach der Relation zwischen Realismus und Antirealismus. Aus Sicht der Wissenschaftstheorie können wir auch fragen, wie wissenschaftliche Theorien aufzufassen sind. Können sie realistisch gedeutet werden als möglicherweise wahre Beschreibungen realer Zusammenhänge, oder sind sie instrumentalistisch zu interpretieren als bloß nützliche Werkzeuge der Berechnung, Vorhersage und Manipulation? Zunächst müssen wir jedoch klarmachen, was Realismus sei? Der Realismus gibt uns eine positive Antwort auf die Frage „Ist die uns vertraute Wirklichkeit von unserem Denken und Erkennen unabhängig?“, die verschiedenen Formen des Antirealismus (vom Idealismus über den Konstruktivismus und Relativismus bis zum Verifikationismus) geben uns dagegen eine negative Antwort. Die These des Realismus lautet also folgendermaßen: „Die Wirklichkeit ist von unserem Denken unabhängig“. Die Realismusthese verbindet daher drei Begriffe: Wirklichkeit, Denken und (Un-)Abhängigkeit. Was die Wirklichkeit - im weitesten Sinne – anbelangt, so können wir sagen, wirklich ist alles, was es überhaupt gibt, alles was existiert. Wenn man aber genauer verfahren möchte, dann könnte man beim Differenzieren etwa folgende Prädikate ins Spiel bringen: Wahrnehmung, Erfahrung, Evidenz, Wahrheit, Ausdehnung, Ewigkeit usw. Die These „Man kann über die Wirklichkeit denkunabhängig nichts weiter sagen, als dass es sie gibt“ wird als „minimaler Realismus“ bezeichnet. Bei der zweiten Komponente des Realismus (d.h. dem Denken) handelt es sich – allgemein gesagt – um den Bereich des Geistigen oder Mentalen, das selbst auch ein Teil der Wirklichkeit ist. Dazu gehören vor allem bewusste und unbewusste geistige Vorgänge (wie Fühlen, Wahrnehmen, Begehren, Nachdenken usf.), geistige Zustände (wie das Haben von Überzeugungen, Wünschen, Zweifeln usf.), geistige Fähigkeiten (begriffliche und andere kognitive Fähigkeiten) sowie die sprachlichen Ausdrucksformen dieser geistigen Vorkommnisse. Schließlich weist der Begriff „(Un-) Abhängigkeit“ auf zwei Grundoptionen hin: Die Wirklichkeit kann vom Denken erstens in kausaler und zweitens in 11 begrifflicher Hinsicht entweder abhängig oder unabhängig sein. Versuchen wir dies genauer zu beschreiben: I. Kausale Abhängigkeit „Ein Ereignis A ist genau dann kausal abhängig von einem anderen Ereignis B, wenn B zu den Ursachen von A gehört“ * Kausale Denkabhängigkeit „Ein Ereignis A ist genau dann kausal denkabhängig, wenn ein mentales Vorkommnis M zu den Ursachen von A gehört, ohne dass M eine körperliche Handlung verursacht, die zu den Ursachen von A gehört“ II. Begriffliche Abhängigkeit „Eine Aussage >>dass p<< hängt genau dann in begrifflicher Hinsicht von der Aussage >>dass q<<, wenn daraus >>dass p<< folgt >>dass q<<, ohne dass diese Folgerung sich bereits aus der logischen Form der Aussagen p und q ergibt“ * Begriffliche Denkabhängigkeit „Eine Aussage >>dass p<< ist in begrifflicher Hinsicht denkabhängig, wenn p begrifflich von q abhängt und die Aussage >>dass q<<, eine (nicht-analytische) Aussage über mentale Vorkommnisse ist“ Will man also das Verhältnis zwischen Theorie und Realismus wissenschaftstheoretisch erläutern, sind vorab die Entitäten wie Wirklichkeit, Denken und Abhängigkeit und das Verhältnis zwischen ihnen zu klären. Dann entsteht eine Grundlage, auf der sämtliche Informationen, welche sich den obigen Entitäten verdanken, im Rahmen einer Theorie sinnvoll betrachtet werden können. Dabei handelt es sich in erster Linie um wissenschaftliche Theorien, die sich sowohl auf direkt beobachtbare als auch auf nicht direkt beobachtbare Entitäten beziehen können. Die Betrachtung wissenschaftlicher Theorien im Kontext des Realismus führt dazu, dass man von einem wissenschaftlichen Realismus (WR) reden kann. Der WR umfasst generell zwei folgende Thesen: (1) These I – die Begriffe wissenschaftlicher Theorie beziehen sich auf reale wirkliche Entitäten; und 12 (2) These II – die Geschichte der Wissenschaften ist als eine Annäherung an die Wahrheit zu verstehen. Aus wissenschaftstheoretischer Sicht können wir diese beiden Thesen jedoch weiter präzisieren. Dann gilt, dass sich der wissenschaftliche Realismus (scientific realism) (WR) auf die Gegenstände und Gesetze der Naturwissenschaften bezieht. Wie der Realismus im Allgemeinen wird auch der WR als Verknüpfung eines ontologischen und eines erkenntnistheoretischen Grundsatzes charakterisiert. * Der ontologische Grundsatz wäre dann: „Es gibt eine Wirklichkeit, die in ihrer Existenz und in ihren Strukturen nicht auf erkennende Systeme angewiesen ist“. Das bedeutet, dass die Realität nicht grundsätzlich anders aussehen würde, wenn es etwa den Menschen nicht gäbe. * Dagegen würde der erkenntnistheoretische Grundsatz lauten: „Diese Wirklichkeit ist prinzipiell erkennbar, obwohl auch nicht auszuschließen ist, dass Wesen mit unserer kognitiven Ausstattung manche Aspekte der Realität verborgen bleiben“. Damit wird also die Relevanz wissenschaftlicher Theorien für Erkenntnis hervorgehoben: Wissenschaftliche Theorien können sich sowohl auf direkt beobachtbare als auch auf nicht direkt beobachtbare Gegebenheiten beziehen und wahre Aussagen über sie formulieren. Im Kontext dieser beiden allgemeinen Grundsätze (G) können wir also den wissenschaftlichen Realismus (WR) genauer auffassen. Wir folgen hier Richard Boyd: WR/G1 – Theoretische Termini in naturwissenschaftlichen Theorien (d.h. nicht Beobachtungstermini) beanspruchen, sich auf etwas zu beziehen. Daher sind sie nicht bloß abkürzende Redeweisen für Beobachtungsmuster. WR/G2 – Die von naturwissenschaftlichen Theorien beschriebene Wirklichkeit ist weitgehend unabhängig von unserem Denken und unseren theoretischen Einstellungen. WR/G3 – Die Wahrheit naturwissenschaftlicher Theorien ist in vielen Fällen durch wissenschaftliche Belege bestätigt. WR/G4 – Die historische Entwicklung „reifer“ Wissenschaften besteht weitgehend in der schrittweisen Annäherung an die Wahrheit (sowohl über beobachtbare als auch über unbeobachtbare Phänomene). (Boyd, R., The Current Status of Scientic Realism, 1984, 41f) Der wissenschaftliche Realismus (WR) beinhaltet also vier Grundsätze G1, G2, G3 und G4. Während die Grundsätze G1 und G2 einen ontologischen Charakter haben, sind die Grundsätze G3 und G2 hingegen erkenntnistheoretisch. 13 * Der Grundsatz G1 betont das Sich-Beziehen theoretischer Termini auf etwas Reales. Es können direkt beobachtbare Entitäten sein (wie z.B. Bäume, Häuser, Menschen usf.), oder auch direkt nicht beobachtbare (wie etwa Elektronen). * All diese Entitäten, so behauptet der Grundsatz G2 einer naturwissenschaftlichen Theorie, sind vom Denken menschlicher Subjekte weitgehend unabhängig. * Dass dies tatsächlich der Fall ist, lässt sich auch in vielen Fällen wissenschaftlich belegen (vgl. Grundsatz G3). * Dabei wird allerdings nicht von der absoluten Wahrheit geredet, sondern lediglich von der Annäherung an die Wahrheit (vgl. Grundsatz G4). Das bedeutet, dass wissenschaftliche Theorien neben den wahren Bestandteilen (d.h. Sätzen) auch die falschen beinhalten (können). Wie diese Annäherung an die Wahrheit ganz konkret aussieht, können wir etwa bei Hilary Putnam und Michael Dummett beobachten. Während der Erstere für den internen Realismus plädiert, behauptet der Letztere den semantischen Realismus. Putnam unterscheidet zwischen dem metaphysischen Realismus (MR), nach dem die Welt eine von unserer Erkenntnis unabhängige Beschaffenheit besitzt, und dem internen Realismus (IR), der über den metaphysischen Realismus hinausgeht und zudem noch behauptet, dass die Gegenstände der Erkenntnis uns immer nur „intern“ (d.h. von unserer Perspektive abhängig) gegeben sind. Der IR stellt eine Art „Gratwanderung“ zwischen dem MR und dem Relativismus dar. Während der MR für uns grundsätzlich unerreichbar bleibt, behauptet der Relativismus hingegen, dass unsere Erkenntnis immer relativ in Bezug auf ein Begriffssystem sei, d.h. die Perspektive oder Sprache des Beobachters lasse sich aus dem Wirklichkeitsverständnis nicht ausschalten. Putnam wendet sich gegen die positivistische Trennung von Tatsachen und Werten: Es gibt keine Tatsachen ohne Werte, und es gibt keine Welt ohne Werte; diese sind aber objektiv. Wenn der Positivist oder Relativist für seine These argumentiert, so muss er schon objektive epistemische Werte voraussetzen, z.B. den der Richtigkeit. Alle Werte, einschließlich der kognitiven Werte, ohne die Wissenschaft nicht möglich ist, leiten ihre Autorität von der Idee der menschlichen Vernunft ab. Die Folge davon ist, dass Wahrheit nach dem IR als „idealisierte rationale Akzeptierbarkeit“ anzusehen ist. Jedwede Idealisierung besagt aber, dass die Bedingungen, unter denen die Behauptung eines Satzes der natürlichen Sprache gerechtfertigt ist, sich weder überblicken noch spezifizieren lassen. Deshalb ist eine definitive Rechtfertigung nicht möglich. 14 Dummett betont hingegen die Funktion semantischer Ausdrücke und vertritt die Auffassung, dass die eigentliche Kontroverse um den Realismus philosophisch nur dann klar formuliert werden kann, wenn man den Realismus als eine semantische These versteht: „Das, was vom Denken unabhängig sein soll, ist nicht durch ontologische Ausdrücke (wie etwa Wirklichkeit, Gegenstand usf.) charakterisiert, sondern durch semantische Ausdrücke, d.h. durch solche, die nicht direkt die Wirklichkeit betreffen, sondern die Beziehung zwischen Sprache bzw. Denken auf der einen und der Wirklichkeit auf der anderen Seite. Abschließend kann man feststellen, dass die gängigen wissenschaftlichen Theorien uns auf den Realismus festlegen. Der wissenschaftliche Realismus wäre dann so etwas wie die implizite Wissenschaftstheorie der Naturwissenschaften: „science´s philosophy of science“. Unterbestimmung der Theorie durch Erfahrung Nachdem wir den Begriff „Realismus“ im Kontext der wissenschaftlichen Theorie erläutert haben, wollen wir jetzt nach dem Verhältnis zwischen Theorie und Erfahrung fragen, wobei die Erfahrung als Bestandteil des Realismus anzusehen ist. Unser Vorhaben ist auch dadurch gerechtfertigt, dass die Behauptung, die Welt sei von unseren Theorien abhängig, zu den einflussreichsten Typen von antirealistischen Überlegungen gehört. Wie die Welt an sich ist, bleibt dagegen – kantisch gesprochen - unerkennbar. In diesem Kontext zeigt sich bereits die Relevanz der sogenannten „DuhemQuine-These“, die behauptet, dass weil die wissenschaftlichen Theorien durch die Erfahrung unterbestimmt sind, letztlich beliebige Theorien angesichts jeglicher Erfahrung aufrechterhalten werden können. Erklären wir diese These etwas genauer. Nach Quine gilt, dass unsere Aussagen über die Außenwelt nicht als einzelne Individuen, sondern als ein Kollektiv vor das Tribunal der sinnlichen Erfahrung treten. Quine plädiert also für das epistemische Modell des Holismus und betrachtet die Gesamtheit unseres alltäglichen, wissenschaftlichen, mathematischen und logischen Wissens als ein Netz oder Feld. Wissen ist durch seine Randbedingungen, d.h. durch die Erfahrung, so unterdeterminiert, dass wir breit auswählen können, welche Aussage neu 15 bewertet wird - angesichts einer beliebigen individuellen und dem System zuwiderlaufenden Erfahrung. Jede beliebige Aussage kann als wahr aufrechterhalten werden, abgesehen davon, was kommt – allerdings vorausgesetzt, dass wir nur anderweitig im System ausreichend drastische Anpassungen vornehmen. Quine stützt sich mit seiner These auf die Analyse von Pierre Duhem. Anhand verschiedener Beispiele aus der Physik hatte Duhem dagegen protestiert, dass eine physikalische Hypothese isoliert prüfbar sei. Der Eindruck einer isolierten Prüfbarkeit entsteht nach ihm vor allem dann, wenn ein falsches Vertrauen in die anderen benötigten Annahmen vorhanden ist, um eine Voraussage über eine beobachtbare Erscheinung abzuleiten: Wenn die erwartete Erscheinung nicht auftritt, dann wird nicht nur der einzige strittige Lehrsatz widerlegt, sondern auch das ganze theoretische Gerüst, von dem der Physiker experimentell Gebrauch gemacht hat. Daraus ergibt sich die These über die Unterbestimmtheit der Theorie durch Erfahrung. Bei der Unterbestimmtheit der Theorie durch Erfahrung handelt es sich also kurzum um Folgendes: Wenn Experimente unternommen werden, um eine wissenschaftliche Hypothese H zu testen, dann steht diese Hypothese H selten isoliert auf dem Prüfstand. Für eine Prognose P, welche Beobachtung zu erwarten ist, falls die Hypothese H zutrifft, wird noch von den bekannten Anfangsbedingungen A Gebrauch gemacht; die Anfangsbedingungen sind notwendig für die Ableitung von Aussagen über Sachverhalte oder Ereignisse aus Theorien. In die Prognosededuktion gehen also noch Annahmen ein, die den vorliegenden, konkreten Anwendungsfall der Hypothese spezifizieren oder auch weitere Annahmen, etwa über die verwendeten Messverfahren. Aus der Gesamtheit der Prämissen H und A folgt P. In symbolischer Schreibweise lautet dies so: H˄A→P Das Problem ist hier folgendes: Im Falle einer falschen Prognose, d.h. beim Nichteintreten von P (¬P ist wahr), besagt die Logik nur, dass in der Prämissenmenge mindestens ein Fehler steckt. Wenn ¬P wahr ist, ist H ˄ A falsch. Die Logik gibt aber keine Information darüber, welche Prämisse oder welche Kombination der Prämissen falsch ist. Verdeutlichen wir dies mit dem folgenden Beispiel: Hypothese H => „Zucker ist in Wasser löslich“ 16 Aussage A => „Dieser Gegenstand ist ein Zucker, und er wird in Wasser gegeben“. Prognose P (wird aus der Verknüpfung H ˄ A gefolgert) => „Dieser Gegenstand löst sich auf“. Nehmen wir jedoch an, die Prognose P erfüllt sich nicht, stattdessen wird ¬P beobachtet: „Der Gegenstand löst sich nicht auf“. Wenn sich so zuverlässig herausgestellt hat, dass ¬P wahr ist, dann muss H ˄ A falsch sein. Damit ist aber noch nichts darüber gesagt, wo der Fehler in der Prämissenmenge steckt. Diese Konstellation zeigt also ganz deutlich auf, dass im obigen Beispiel eine Unterbestimmung vorliegt: „Wir wissen nicht, wo der Fehler in der Prämissenmenge steckt, oder es wird nicht bestimmt, wo der Fehler in der Prämissenmenge steckt“. Der systematisch-strukturelle Aufbau einer Theorie Dass eine Theorie systematisch-strukturell aufgebaut ist, lässt sich keinesfalls in Frage stellen. Wollen wir etwas über den Aufbau einer Theorie schlechthin behaupten, dann können wir sagen, sie weise eine Struktur auf, die systematisch gegliedert ist. So wird ein tragfähiger Begründungszusammenhang ermöglicht, in dem verschiedenen Daten eine besondere Funktion zukommt. Erst auf dieser Grundlage können Hypothesen und Modelle gebildet werden, welche aber einen entsprechenden Approximationsapparat erfordern. Die richtige Anwendung des Approximationsapparats führt danach zur Formulierung des wissenschaftstheoretischen Resultats, d.h. damit wird der Status wissenschaftlicher Theorie genauer bestimmt. Solch eine Theorie kann schließlich in einem umfassenden Kontext betrachtet werden, den man etwa als Theorienetz, Forschungsprogramm oder Theorieevolution bezeichnen kann.