Vorlesung8.WS.2016-17 - Prof. Dr. Kazimierz Rynkiewicz

Werbung
Prof. Dr. Kazimierz Rynkiewicz
Die epistemische Koexistenz
von Theorie und Wissen
- aus wissenschaftstheoretischer Perspektive
Vorlesung
Ludwig-Maximilians-Universität München
WS 2016/17
2
3
Vorlesung 8
(07.12.2016)
2.4. Theorie und Begriffe
2.5. Theorie und Statistik
2.6. Theorie und Realismus
2.6.1. Unterbestimmung der Theorie durch Erfahrung
3. Der systematisch-strukturelle Aufbau einer Theorie
Theorie und Begriffe
Dass vernünftige Theorien auch klare Begriffe erfordern, muss hier nicht
speziell betont werden. Derartige Theorien sind aber für die Wissenschaft
schlechthin relevant, in der es doch um rationales Denken geht.
Indessen behauptet Heidegger einerseits in seiner Vorlesung unter dem Titel
„Was heißt Denken?“, dass die Wissenschaft nicht denke. Die Wissenschaft
kann gar nicht denken, und zwar zu ihrem Glück, d.h. zur Sicherung ihres
eigenen festgelegten Ganges. Wenn die Wissenschaft sich selbst bedenken
würde, so müsste sie ihr Forschungsstreben unterbrechen. Das aber darf sie nicht
tun, wenn sie bei sich bleiben will.
Andererseits spricht Heidegger in seinem Werk „Sein und Zeit“ über das
Verstehen und die Auslegung. Jedwede Auslegung ist aber die Sache der
Wissenschaft, in der Dinge der Welt begrifflich erschlossen werden. So lesen
wir:
„Das im Verstehen Erschlossene, das Verstandene ist immer schon so
zugänglich, dass an ihm sein „als was“ ausdrücklich abgehoben werden kann.
Das „Als“ macht die Struktur der Ausdrücklichkeit eines Verstandenen aus; es
konstituiert die Auslegung. Der umsichtig-auslegende Umgang mit dem
umweltlich Zuhandenen, der dieses als Tisch, Tür, Wagen, Brücke „sieht“,
braucht das umsichtig Ausgelegte nicht notwendig auch schon in einer
bestimmenden Aussage auseinander zu legen“ (SZ §32, 149).
In diesem Zitat werden zwei Problemfelder angesprochen. Zum einen wird also
die Relevanz der Begriffe hervorgehoben, die im Umgang mit dem in der Welt
Vorhandenen (Tisch, Tür, Wagen usf.) entstehen. Zum anderen wird das
Resultat des Verstehens genauer charakterisiert, und zwar im Hinblick auf
dessen Erschlossenheit und Zugänglichkeit. Diese beiden Prädikate Heideggers,
d.h. Erschlossenheit und Zugänglichkeit, kann man auch auf die
4
Wissenschaftstheorie problemlos beziehen, die offenbar zeigen will, dass
Wissenschaftler nicht erst auf die Kritik von außen warten müssen, sondern auch
zu einer gewichtigen Selbstkritik fähig sind. Die dahinter stehende Idee hat
insbesondere Husserl mit seiner These „Phänomenologie als strenge
Wissenschaft“ paradigmatisch ausgearbeitet.
Der sichere Gang der Wissenschaft, wie ihn Kant für die Philosophie als
dringlich erachtet hatte, war bislang nicht erreicht worden, behauptet Husserl.
Darum muss die Philosophie als transzendentale Weltwissenschaft in gänzlich
anderem Sinne als profane Wissenschaften verstanden werden; sie soll nicht nur
deren Wissen anders und tiefer begründen, als es mit den eigenen Mitteln der
Wissenschaften geschehen kann, sondern sie hat auch sich selbst eine
Begründung zu geben und diese als Selbstbegründung kritisch zu rechtfertigen.
Erst dadurch kann die Philosophie als Garant für ein letztes Wissen um die
absolute Subjektivität gelten, in der die Quelle jedweder Objektivität liegt, d.h.
sowohl die Quelle von Gegenständen der Bewusstseinserlebnisse aller Art als
auch jedes auf diese Gegenstände bezogene Wissen, mithin die Quelle aller
Wissenschaften. Wissenschaft bedeutet für Husserl vor allem ein unermüdliches
Anfangen an den Ursprüngen allen Philosophierens, d.h. ein Aufheben
unmittelbarer Intuition, die den letzten Sinn aller ursprünglichen Begriffe und
aller Prinzipien liefert und damit das Fundament für philosophisches Denken
überhaupt schafft. Durch die Einführung der „Philosophie als strenger
Wissenschaft“ beabsichtigt Husserl einen „festen Boden“ in der Philosophie zu
gewinnen. Epistemologisch formuliert geht es also darum, in der Philosophie
eine Erkenntnis zu erzielen, die in keiner Weise angezweifelt werden kann,
mithin in ihrer Geltung und Sicherheit „absolut“ ist.
Diese Überlegungen Husserls können auch für die Wissenschaftstheorie (WT)
wertvolle Dienste leisten, wenn man etwa bedenkt, dass es durchaus sinnvoll
wäre, über die „WT als strenge Wissenschaft“ zu reden.
Damit könnte man nicht nur die Aufgabe der WT genauer bestimmen, sondern
auch deren methodisches Verfahren verbessern. Denn auf die Forderung nach
der kritischen Selbstbegründung, die für die These Husserls entscheidend war,
kann auch die WT nicht verzichten. Wenn wir aber die These
„Wissenschaftstheorie als strenge Wissenschaft“ gelten lassen, so stellen wir
schon eine Theorie auf, die aus methodischer Sicht zwei Bereiche umfasst: den
Bereich der Begriffe und den des Denkens. Also:
THEORIE
Denken
Begriffe
5
Nun könnte man sagen, jede Theorie verdanke sich dem rationalen Denken.
Dieses setzt aber entsprechende Begriffe voraus, damit die zu erforschende Welt
effizient angegangen werden kann.
Ferner ergibt sich daraus, dass das Denken eine Art Verbindung zwischen einer
Theorie und deren Begriffen darstellt. Eine weitere Konsequenz ist die Rede von
begrifflichem Denken bzw. Erkennen, das nicht nur für epistemologische,
sondern auch für wissenschaftstheoretische Aktivität von Subjekten grundlegend
ist.
Begriffe und somit begriffliches Denken bzw. Erkennen haben im
epistemologischen Prozess eine wichtige Funktion zu erfüllen. Sie ergänzen
nämlich das sinnliche Erkennen – mit der Folge, dass sich dem
Erkenntnissubjekt Informationen über das sinnlich Gegebene erschließen. Wenn
ich z.B. etwas sehe oder höre, so kann ich diesem Etwas aufgrund meines
Vermögens zur Begriffsbildung eine bestimmte Form zuschreiben, d.h. ich kann
sagen, ich sehe ein X. Das kann ich aber nur deshalb tun, weil ich vorab eine
Menge von bestimmten Informationen aus dem Bereich der Begrifflichkeit
(bzw. kantisch gesprochen „aus dem Reich der Begriffe“) erhalten habe.
Dadurch entsteht dann eine Art Kausaltheorie, die das sinnliche Erkennen
bedingt, und auf deren Leistungen auch die Wissenschaftstheorie dringend
angewiesen ist.
Und diese Theorie lautet: Begriffliches Erkennen verursacht das gänzliche
Zustandekommen des sinnlichen Erkennens. Beides spielt sich also im Rahmen
einer Theorie ab.
Theorie und Statistik
Aus der Verknüpfung von Theorie und Statistik resultiert eine wissenschaftliche
Grundlage zur quantitativen Systematisierung von Dingen in der Welt. Es
geschieht dank statistischen Theorien, die in vielen Wissenschaften (Natur- und
Geisteswissenschaften) zum Einsatz kommen. Die quantitative Systematisierung
erfolgt ferner im Kontext des Begriffs der Wahrscheinlichkeit, der als Garant des
funktionellen Gleichgewichts im Verhältnis zwischen Statistik und Theorie
angesehen werden kann. Daher haben wir Folgendes:
Statistik
Wahrscheinlichkeit
Theorie
6
Statistik analysiert die Häufigkeitsverteilungen und ihre Anwendungen in den
Wissenschaften. In einem konkreten System handelt es sich um die Verteilung
eines Merkmals oder mehrerer Merkmale in einer „Population“ (d.h. Bereich)
Ω.
Eine Population ist eine Menge von Objekten, wobei jedes Objekt das Merkmal
in einer verschiedenen Ausprägung trägt. Die Ausprägungen werden abstrakt als
Elemente einer Menge M vorgestellt, d.h. als eine Menge von Zahlen.
Nehmen wir ein Beispiel aus dem Genetikbereich: „Es gibt die Population der
Menschen (in einem bestimmten Zeitraum) und das Merkmal „Augenfarbe“ mit
den bekannten Ausprägungen: braun, blau, grün, grau. Jedes Element der
Population hat genau eine Ausprägung des Merkmals, d.h. jeder Mensch hat
eine bestimmte Augenfarbe.
So haben wir folgende Funktion h : Ω → M, die jedem Objekt (jedem
Menschen) genau eine Ausprägung (eine bestimmte Augenfarbe) zuordnet“.
Mit anderen Worten: Statistik ist das Erfassen einzelner Ereignisse mit Hilfe
von Zahlen, wobei in den Ereignissen zwei Arten von Phänomenen (gleichzeitig
oder in zeitlicher Folge) auftreten. Der statistische Satz hat also folgende
Struktur:
„Aus den Ereignissen X, die Phänomene der Klasse A umfassen, gehören die
Ereignisse Y zugleich zu der Klasse B“.
Beispiel: „Unter 3856 Einwohnern eines Stadtteils sind 76 Hauseigentürmer“.
Die statistische Aktivität beschränkt sich allerdings nicht auf die Bestimmung
von Beobachtungssätzen und deren Zählungsvorgang. Vielmehr müssen die
gesammelten Daten eine entsprechende Form erhalten, so dass die sichere
Verwendung reduktiver Methoden möglich wird (z.B. die prozentuelle
Bestimmung von Daten). Schließlich ist darauf zu achten, dass man oft nicht in
der Lage ist, die ganze Population zu erfassen, sondern lediglich deren
Fragmente.
Es leuchtet also ein, dass die Verbindung zwischen Objekten und Häufigkeiten
ihres Auftretens in der Statistik durch die Zahlen vermittelt wird. Häufigkeit
wird so zu einer Eigenschaft von Mengen von Objekten.
Nehmen wir noch folgendes Beispiel: „Wir haben eine Klasse mit 20 Kindern: 7
Kinder haben braune Augen, 6 Kinder blaue, 4 Kinder grüne und 3 Kinder
graue. Dann behaupten wir, die Häufigkeit, dass irgendein Kind aus dieser
Menge braune Augen habe, sei 7“.
7
Wie dieses Beispiel zeigt, kommt es in den statistischen Prozeduren zu
Häufigkeitsverteilung. Die Häufigkeitsverteilung ist eine Funktion, die zu jeder
Ausprägung a die „richtige“ Anzahl der Objekte zuordnet, die diese Ausprägung
haben. Aus formaler Sicht ergibt sich daher Folgendes:
f : M → IN, so dass f (a) = ‖ { o ϵ M / h (o) ‖
Mit anderen Worten: Die verschiedenen Anzahlen werden auf die
Ausprägungen verteilt. Dabei ist zwischen einer „absoluten“ (AH) und einer
„relativen“ Häufigkeitsverteilung (RH) zu unterscheiden.
Wenn wir auf das obige Beispiel mit 20 Schulkindern zurückblicken, dann heißt
das, die AH der Augenfarben sei durch die Zahlen 7 : 6 : 4 : 3 gegeben. Wollen
wir dagegen diese Werte relativieren, indem wir sie durch die Anzahl der
Population (= n) (in diesem Beispiel durch 20) dividieren, so erhalten wir die
RH wie folgt: 7/20; 6/20; 4/20; 3/20.
Die formale Struktur der relativen Häufigkeitsverteilung (RH) kann man dann
folgendermaßen darstellen:
für alle a ϵ M ist RH (a) = AH (a) / n
Sollte der Begriff der Häufigkeitsverteilung zum Einsatz kommen, dann
benötigen wir auch das Prinzip der Wahrscheinlichkeit.
Alle statistischen Untersuchungen setzen dieses Prinzip oder seine konkrete
Ausformulierung wie etwa Wahrscheinlichkeitstheorie voraus. Ferner bedeutet
dies, dass statistische Analysen nur zu einem wahrscheinlichen, nicht aber zu
einem absoluten Resultat führen können.
Mit dem Begriff der Wahrscheinlichkeit können wir also die Begriffe der
relativen und absoluten Häufigkeit operational definieren. Der einfachste Weg
ist die Bezugnahme auf die Wahrscheinlichkeitstheorie (WST).
Die WST ist ein Teil der Mathematik und bildet gemeinsam mit der
mathematischen Statistik das mathematische Teilgebiet der Stochastik, die von
der Beschreibung zufälliger Ereignisse und ihrer Modellierung handelt. Die
Ereignisse der WST sind (als solche) exakt und vom jeweiligen Verständnis des
Wahrscheinlichkeitsbegriffs unabhängig.
In der WST geht man also konzeptionell von einem Zufallsvorgang oder
Zufallsexperiment aus. Alle möglichen Ergebnisse dieses Zufallsvorgangs
werden in der Ergebnismenge Ω zusammengefasst. Ein Ergebnis ist also ein
Element der Ergebnismenge. Wenn ein bestimmtes Ergebnis eintritt, spricht
man von einem Ereignis. Das Ereignis ist als Teilmenge von der Ergebnismenge
Ω definiert. Umfasst ein Ereignis genau ein Element der Ergebnismenge, so
handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse
enthalten
dagegen
mehrere
Ergebnisse.
Um
den
Ereignissen
8
Wahrscheinlichkeiten zuordnen zu können, muss man sie in einem
Mengensystem aufführen, das auch Ereignisraum Σ genannt wird. Der
Ereignisraum ist daher eine Menge von Teilmengen von der Ergebnismenge Ω.
Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung P des
Ereignisraums in das Intervall [0,1]. Eine solche Abbildung wird
Wahrscheinlichkeitsmaß genannt und definiert als ein Maß P : Σ → [0,1] im
Sinne der Maßtheorie P(Ω) = 1. Schließlich wird das Tripel (Ω, Σ, P) als
Wahrscheinlichkeitsraum bezeichnet. Wenn wir jetzt den strukturellen Aufbau
der WST mit einem Schema zusammenfassen wollen, dann haben wir
Folgendes:
Der strukturelle Aufbau der Wahrscheinlichkeitstheorie (WST)
Begrifflich fundierte Elemente
(1) Wahrscheinlichkeitsmaß
(2) Wahrscheinlichkeitsraum
Begrifflich fundierende Elemente
(1) Zufallsvorgang
(2) Ergebnis / Ergebnismenge Ω
(3) Ereignis / Ereignisraum Σ
(4) Abbildung P
Für die Begründung der WT sind vor allem die sogenannten KolmogorowAxiome und Laplace-Experimente entscheidend. Die Kolmogorow-Axiome
werden bei der Bestimmung des Wahrscheinlichkeitsmaßes verwendet. Dieses
Maß muss demnach drei folgende Kolmogorow-Axiome erfüllen:
* Axiom 1: Für jedes Ereignis A aus Σ ist die Wahrscheinlichkeit eine reelle
Zahl zwischen
0 und 1: 0 ≤ P(A) ≤ 1;
* Axiom 2: Das sichere Ereignis hat die Wahrscheinlichkeit 1: P(Ω) = 1.
* Axiom 3: Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler
inkompatibler Ereignisse entspricht der Summe der Wahrscheinlichkeiten der
einzelnen Ereignisse. Inkompatible Ereignisse sind paarweise disjunkte Mengen
A1, A2,……; es muss also gelten:
P (A1 U A2 U…..) = Σ P(Ai). Diese Eigenschaft wird auch σ-Additivität genannt.
Wenn wir diese drei Axiome jetzt auf ein Beispiel anwenden, z.B. auf das
Werfen einer Münze, wobei die Ereignisse des Werfens „Zahl“ und „Adler“
sind, dann haben wir Folgendes: Die Ergebnismenge Ω = {Zahl, Adler}; als
Ereignisraum kann die Potenzmenge II (Ω) gewählt werden, also Σ = {Ø, { }, {
}, Ω}; und für das Wahrscheinlichkeitsmaß P steht aufgrund der Axiome fest:
(1) P(Ø) = 0; (2) P({Zahl}) = 1 – P({Adler}); und (3) P(Ω) = 1.
Wenn man dagegen annimmt, dass nur endlich viele Elementarereignisse
möglich und alle gleichberechtigt sind, d.h. mit der gleichen Wahrscheinlichkeit
9
auftreten, wie z.B. beim Werfen einer idealen Münze, wo Zahl und Adler
jeweils die Wahrscheinlichkeit 0,5 besitzen, dann spricht man von einem
Laplace-Experiment.
Dieses Experiment zeigt, dass sich die Wahrscheinlichkeiten berechnen lassen:
Wir nehmen also eine endliche Ergebnismenge Ω an, welche die Mächtigkeit |Ω|
= n besitzt, d.h. sie hat n Elemente. Dann ist die Wahrscheinlichkeit jedes
Elementarereignisses einfach P =1/n. Für die Ereignisse, die sich aber aus
mehreren Elementarereignissen zusammensetzen, gilt die entsprechend
vielfache Wahrscheinlichkeit:
Wenn A ein Ereignis der Mächtigkeit |A| = m ist, so ist A die Vereinigung von
m Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit P = 1/n, also
ist P(A) = m · 1/n = m/n. Im Endeffekt erhält man den folgenden einfachen
Zusammenhang:
P(A) = |A| / |Ω|
Im Laplace-Experiment gleicht also die Wahrscheinlichkeit eines Ereignisses
der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl
der insgesamt möglichen Ereignisse.
Die Wahrscheinlichkeitstheorie (WST), deren Fundament mathematisch
begründet ist, zeigt ihre eigentliche Wirkung vor allem bei der Bildung von
statistischen Theorien, die sich aber auf verschiedene Wissensgebiete beziehen
können, d.h. auf das Gebiet der Natur-, Sozial-, Geisteswissenschaften usf. Die
WST „kontrolliert“ dabei den Verteilungsprozess von Zufallsvariablen.
Angesichts dieser umfassenden Anwendung der WST ist zwischen reinen
statistischen Theorien (RST) und statistischen Theorien (ST) zu differenzieren.
Während die reinen statistischen Theorien lediglich ein statistisches Element
enthalten, das aus dem Paar {(1) Wahrscheinlichkeitsraum (= Tripel) |Ω, Σ, P|
und (2) Zufallsvariable ξ} besteht, können die statistischen Theorien hingegen
außer einem statistischen Element noch andere Komponenten enthalten.
Die statischen Theorien sind als Theorien, durch deren Hypothesen die
Verteilung der Zufallsvariablen nicht genau festgelegt, sondern unter Bezug auf
andere Modelkomponenten nur mehr oder weniger eingeschränkt wird.
10
Theorie und Realismus
Wenn man die wissenschaftliche Plausibilität von Theorien behaupten möchte,
so ist auch deren Verhältnis zum Realismus zu überprüfen. Denn wir benötigen
Theorien mit realistischen Ansprüchen. Im Hinblick auf die moderne Debatte
können wir dies allgemein so ausdrücken, es gehe um die Frage nach der
Relation zwischen Realismus und Antirealismus.
Aus Sicht der Wissenschaftstheorie können wir auch fragen, wie
wissenschaftliche Theorien aufzufassen sind. Können sie realistisch gedeutet
werden als möglicherweise wahre Beschreibungen realer Zusammenhänge, oder
sind sie instrumentalistisch zu interpretieren als bloß nützliche Werkzeuge der
Berechnung, Vorhersage und Manipulation? Zunächst müssen wir jedoch
klarmachen, was Realismus sei?
Der Realismus gibt uns eine positive Antwort auf die Frage „Ist die uns
vertraute Wirklichkeit von unserem Denken und Erkennen unabhängig?“, die
verschiedenen Formen des Antirealismus (vom Idealismus über den
Konstruktivismus und Relativismus bis zum Verifikationismus) geben uns
dagegen eine negative Antwort.
Die These des Realismus lautet also folgendermaßen:
„Die Wirklichkeit ist von unserem Denken unabhängig“.
Die Realismusthese verbindet daher drei Begriffe: Wirklichkeit, Denken und
(Un-)Abhängigkeit.
Was die Wirklichkeit - im weitesten Sinne – anbelangt, so können wir sagen,
wirklich ist alles, was es überhaupt gibt, alles was existiert. Wenn man aber
genauer verfahren möchte, dann könnte man beim Differenzieren etwa folgende
Prädikate ins Spiel bringen: Wahrnehmung, Erfahrung, Evidenz, Wahrheit,
Ausdehnung, Ewigkeit usw. Die These „Man kann über die Wirklichkeit
denkunabhängig nichts weiter sagen, als dass es sie gibt“ wird als „minimaler
Realismus“ bezeichnet.
Bei der zweiten Komponente des Realismus (d.h. dem Denken) handelt es sich –
allgemein gesagt – um den Bereich des Geistigen oder Mentalen, das selbst auch
ein Teil der Wirklichkeit ist. Dazu gehören vor allem bewusste und unbewusste
geistige Vorgänge (wie Fühlen, Wahrnehmen, Begehren, Nachdenken usf.),
geistige Zustände (wie das Haben von Überzeugungen, Wünschen, Zweifeln
usf.), geistige Fähigkeiten (begriffliche und andere kognitive Fähigkeiten) sowie
die sprachlichen Ausdrucksformen dieser geistigen Vorkommnisse.
Schließlich weist der Begriff „(Un-) Abhängigkeit“ auf zwei Grundoptionen hin:
Die Wirklichkeit kann vom Denken erstens in kausaler und zweitens in
11
begrifflicher Hinsicht entweder abhängig oder unabhängig sein. Versuchen wir
dies genauer zu beschreiben:
I. Kausale Abhängigkeit
„Ein Ereignis A ist genau dann kausal abhängig von einem
anderen Ereignis B,
wenn B zu den Ursachen von A gehört“
* Kausale Denkabhängigkeit
„Ein Ereignis A ist genau dann kausal denkabhängig, wenn ein
mentales Vorkommnis M zu den Ursachen von A gehört,
ohne dass M eine körperliche Handlung verursacht, die zu den
Ursachen von A gehört“
II. Begriffliche Abhängigkeit
„Eine Aussage >>dass p<< hängt genau dann in begrifflicher
Hinsicht von der Aussage >>dass q<<, wenn daraus >>dass p<<
folgt >>dass q<<, ohne dass diese Folgerung sich bereits aus der
logischen Form der Aussagen p und q ergibt“
* Begriffliche Denkabhängigkeit
„Eine Aussage >>dass p<< ist in begrifflicher Hinsicht
denkabhängig,
wenn p begrifflich von q abhängt und die Aussage >>dass q<<,
eine (nicht-analytische) Aussage über mentale Vorkommnisse ist“
Will man also das Verhältnis zwischen Theorie und Realismus
wissenschaftstheoretisch erläutern, sind vorab die Entitäten wie Wirklichkeit,
Denken und Abhängigkeit und das Verhältnis zwischen ihnen zu klären.
Dann entsteht eine Grundlage, auf der sämtliche Informationen, welche sich den
obigen Entitäten verdanken, im Rahmen einer Theorie sinnvoll betrachtet
werden können. Dabei handelt es sich in erster Linie um wissenschaftliche
Theorien, die sich sowohl auf direkt beobachtbare als auch auf nicht direkt
beobachtbare Entitäten beziehen können.
Die Betrachtung wissenschaftlicher Theorien im Kontext des Realismus führt
dazu, dass man von einem wissenschaftlichen Realismus (WR) reden kann.
Der WR umfasst generell zwei folgende Thesen:
(1) These I – die Begriffe wissenschaftlicher Theorie beziehen sich auf reale
wirkliche Entitäten; und
12
(2) These II – die Geschichte der Wissenschaften ist als eine Annäherung an die
Wahrheit zu verstehen.
Aus wissenschaftstheoretischer Sicht können wir diese beiden Thesen jedoch
weiter präzisieren. Dann gilt, dass sich der wissenschaftliche Realismus
(scientific realism) (WR) auf die Gegenstände und Gesetze der
Naturwissenschaften bezieht.
Wie der Realismus im Allgemeinen wird auch der WR als Verknüpfung eines
ontologischen und eines erkenntnistheoretischen Grundsatzes charakterisiert.
* Der ontologische Grundsatz wäre dann: „Es gibt eine Wirklichkeit, die in ihrer
Existenz und in ihren Strukturen nicht auf erkennende Systeme angewiesen ist“.
Das bedeutet, dass die Realität nicht grundsätzlich anders aussehen würde, wenn
es etwa den Menschen nicht gäbe.
* Dagegen würde der erkenntnistheoretische Grundsatz lauten: „Diese
Wirklichkeit ist prinzipiell erkennbar, obwohl auch nicht auszuschließen ist,
dass Wesen mit unserer kognitiven Ausstattung manche Aspekte der Realität
verborgen bleiben“.
Damit wird also die Relevanz wissenschaftlicher Theorien für Erkenntnis
hervorgehoben: Wissenschaftliche Theorien können sich sowohl auf direkt
beobachtbare als auch auf nicht direkt beobachtbare Gegebenheiten beziehen
und wahre Aussagen über sie formulieren.
Im Kontext dieser beiden allgemeinen Grundsätze (G) können wir also den
wissenschaftlichen Realismus (WR) genauer auffassen. Wir folgen hier Richard
Boyd:
WR/G1 – Theoretische Termini in naturwissenschaftlichen Theorien (d.h. nicht
Beobachtungstermini) beanspruchen, sich auf etwas zu beziehen. Daher sind sie
nicht bloß abkürzende Redeweisen für Beobachtungsmuster.
WR/G2 – Die von naturwissenschaftlichen Theorien beschriebene Wirklichkeit
ist weitgehend unabhängig von unserem Denken und unseren theoretischen
Einstellungen.
WR/G3 – Die Wahrheit naturwissenschaftlicher Theorien ist in vielen Fällen
durch wissenschaftliche Belege bestätigt.
WR/G4 – Die historische Entwicklung „reifer“ Wissenschaften besteht
weitgehend in der schrittweisen Annäherung an die Wahrheit (sowohl über
beobachtbare als auch über unbeobachtbare Phänomene).
(Boyd, R., The Current Status of Scientic Realism, 1984, 41f)
Der wissenschaftliche Realismus (WR) beinhaltet also vier Grundsätze G1, G2,
G3 und G4. Während die Grundsätze G1 und G2 einen ontologischen Charakter
haben, sind die Grundsätze G3 und G2 hingegen erkenntnistheoretisch.
13
* Der Grundsatz G1 betont das Sich-Beziehen theoretischer Termini auf etwas
Reales. Es können direkt beobachtbare Entitäten sein (wie z.B. Bäume, Häuser,
Menschen usf.), oder auch direkt nicht beobachtbare (wie etwa Elektronen).
* All diese Entitäten, so behauptet der Grundsatz G2 einer
naturwissenschaftlichen Theorie, sind vom Denken menschlicher Subjekte
weitgehend unabhängig.
* Dass dies tatsächlich der Fall ist, lässt sich auch in vielen Fällen
wissenschaftlich belegen (vgl. Grundsatz G3).
* Dabei wird allerdings nicht von der absoluten Wahrheit geredet, sondern
lediglich von der Annäherung an die Wahrheit (vgl. Grundsatz G4). Das
bedeutet, dass wissenschaftliche Theorien neben den wahren Bestandteilen (d.h.
Sätzen) auch die falschen beinhalten (können).
Wie diese Annäherung an die Wahrheit ganz konkret aussieht, können wir etwa
bei Hilary Putnam und Michael Dummett beobachten. Während der Erstere für
den internen Realismus plädiert, behauptet der Letztere den semantischen
Realismus.
Putnam unterscheidet zwischen dem metaphysischen Realismus (MR), nach
dem die Welt eine von unserer Erkenntnis unabhängige Beschaffenheit besitzt,
und dem internen Realismus (IR), der über den metaphysischen Realismus
hinausgeht und zudem noch behauptet, dass die Gegenstände der Erkenntnis uns
immer nur „intern“ (d.h. von unserer Perspektive abhängig) gegeben sind.
Der IR stellt eine Art „Gratwanderung“ zwischen dem MR und dem
Relativismus dar. Während der MR für uns grundsätzlich unerreichbar bleibt,
behauptet der Relativismus hingegen, dass unsere Erkenntnis immer relativ in
Bezug auf ein Begriffssystem sei, d.h. die Perspektive oder Sprache des
Beobachters lasse sich aus dem Wirklichkeitsverständnis nicht ausschalten.
Putnam wendet sich gegen die positivistische Trennung von Tatsachen und
Werten: Es gibt keine Tatsachen ohne Werte, und es gibt keine Welt ohne
Werte; diese sind aber objektiv. Wenn der Positivist oder Relativist für seine
These argumentiert, so muss er schon objektive epistemische Werte
voraussetzen, z.B. den der Richtigkeit. Alle Werte, einschließlich der kognitiven
Werte, ohne die Wissenschaft nicht möglich ist, leiten ihre Autorität von der
Idee der menschlichen Vernunft ab. Die Folge davon ist, dass Wahrheit nach
dem IR als „idealisierte rationale Akzeptierbarkeit“ anzusehen ist. Jedwede
Idealisierung besagt aber, dass die Bedingungen, unter denen die Behauptung
eines Satzes der natürlichen Sprache gerechtfertigt ist, sich weder überblicken
noch spezifizieren lassen. Deshalb ist eine definitive Rechtfertigung nicht
möglich.
14
Dummett betont hingegen die Funktion semantischer Ausdrücke und vertritt die
Auffassung, dass die eigentliche Kontroverse um den Realismus philosophisch
nur dann klar formuliert werden kann, wenn man den Realismus als eine
semantische These versteht:
„Das, was vom Denken unabhängig sein soll, ist nicht durch ontologische
Ausdrücke (wie etwa Wirklichkeit, Gegenstand usf.) charakterisiert, sondern
durch semantische Ausdrücke, d.h. durch solche, die nicht direkt die
Wirklichkeit betreffen, sondern die Beziehung zwischen Sprache bzw. Denken
auf der einen und der Wirklichkeit auf der anderen Seite.
Abschließend kann man feststellen, dass die gängigen wissenschaftlichen
Theorien uns auf den Realismus festlegen. Der wissenschaftliche Realismus
wäre dann so etwas wie die implizite Wissenschaftstheorie der
Naturwissenschaften: „science´s philosophy of science“.
Unterbestimmung der Theorie durch Erfahrung
Nachdem wir den Begriff „Realismus“ im Kontext der wissenschaftlichen
Theorie erläutert haben, wollen wir jetzt nach dem Verhältnis zwischen Theorie
und Erfahrung fragen, wobei die Erfahrung als Bestandteil des Realismus
anzusehen ist.
Unser Vorhaben ist auch dadurch gerechtfertigt, dass die Behauptung, die Welt
sei von unseren Theorien abhängig, zu den einflussreichsten Typen von
antirealistischen Überlegungen gehört. Wie die Welt an sich ist, bleibt dagegen
– kantisch gesprochen - unerkennbar.
In diesem Kontext zeigt sich bereits die Relevanz der sogenannten „DuhemQuine-These“, die behauptet, dass weil die wissenschaftlichen Theorien durch
die Erfahrung unterbestimmt sind, letztlich beliebige Theorien angesichts
jeglicher Erfahrung aufrechterhalten werden können. Erklären wir diese These
etwas genauer.
Nach Quine gilt, dass unsere Aussagen über die Außenwelt nicht als einzelne
Individuen, sondern als ein Kollektiv vor das Tribunal der sinnlichen Erfahrung
treten. Quine plädiert also für das epistemische Modell des Holismus und
betrachtet die Gesamtheit unseres alltäglichen, wissenschaftlichen,
mathematischen und logischen Wissens als ein Netz oder Feld.
Wissen ist durch seine Randbedingungen, d.h. durch die Erfahrung, so
unterdeterminiert, dass wir breit auswählen können, welche Aussage neu
15
bewertet wird - angesichts einer beliebigen individuellen und dem System
zuwiderlaufenden Erfahrung.
Jede beliebige Aussage kann als wahr aufrechterhalten werden, abgesehen
davon, was kommt – allerdings vorausgesetzt, dass wir nur anderweitig im
System ausreichend drastische Anpassungen vornehmen. Quine stützt sich mit
seiner These auf die Analyse von Pierre Duhem.
Anhand verschiedener Beispiele aus der Physik hatte Duhem dagegen
protestiert, dass eine physikalische Hypothese isoliert prüfbar sei. Der Eindruck
einer isolierten Prüfbarkeit entsteht nach ihm vor allem dann, wenn ein falsches
Vertrauen in die anderen benötigten Annahmen vorhanden ist, um eine
Voraussage über eine beobachtbare Erscheinung abzuleiten: Wenn die erwartete
Erscheinung nicht auftritt, dann wird nicht nur der einzige strittige Lehrsatz
widerlegt, sondern auch das ganze theoretische Gerüst, von dem der Physiker
experimentell Gebrauch gemacht hat. Daraus ergibt sich die These über die
Unterbestimmtheit der Theorie durch Erfahrung.
Bei der Unterbestimmtheit der Theorie durch Erfahrung handelt es sich also
kurzum um Folgendes:
Wenn Experimente unternommen werden, um eine wissenschaftliche Hypothese
H zu testen, dann steht diese Hypothese H selten isoliert auf dem Prüfstand. Für
eine Prognose P, welche Beobachtung zu erwarten ist, falls die Hypothese H
zutrifft, wird noch von den bekannten Anfangsbedingungen A Gebrauch
gemacht; die Anfangsbedingungen sind notwendig für die Ableitung von
Aussagen über Sachverhalte oder Ereignisse aus Theorien.
In die Prognosededuktion gehen also noch Annahmen ein, die den vorliegenden,
konkreten Anwendungsfall der Hypothese spezifizieren oder auch weitere
Annahmen, etwa über die verwendeten Messverfahren. Aus der Gesamtheit der
Prämissen H und A folgt P.
In symbolischer Schreibweise lautet dies so:
H˄A→P
Das Problem ist hier folgendes: Im Falle einer falschen Prognose, d.h. beim
Nichteintreten von P (¬P ist wahr), besagt die Logik nur, dass in der
Prämissenmenge mindestens ein Fehler steckt. Wenn ¬P wahr ist, ist H ˄ A
falsch. Die Logik gibt aber keine Information darüber, welche Prämisse oder
welche Kombination der Prämissen falsch ist.
Verdeutlichen wir dies mit dem folgenden Beispiel:
Hypothese H => „Zucker ist in Wasser löslich“
16
Aussage A => „Dieser Gegenstand ist ein Zucker, und er wird in Wasser
gegeben“.
Prognose P (wird aus der Verknüpfung H ˄ A gefolgert) => „Dieser
Gegenstand löst sich auf“.
Nehmen wir jedoch an, die Prognose P erfüllt sich nicht, stattdessen wird ¬P
beobachtet: „Der Gegenstand löst sich nicht auf“. Wenn sich so zuverlässig
herausgestellt hat, dass ¬P wahr ist, dann muss H ˄ A falsch sein. Damit ist aber
noch nichts darüber gesagt, wo der Fehler in der Prämissenmenge steckt.
Diese Konstellation zeigt also ganz deutlich auf, dass im obigen Beispiel eine
Unterbestimmung vorliegt:
„Wir wissen nicht, wo der Fehler in der Prämissenmenge steckt, oder es wird
nicht bestimmt, wo der Fehler in der Prämissenmenge steckt“.
Der systematisch-strukturelle Aufbau einer Theorie
Dass eine Theorie systematisch-strukturell aufgebaut ist, lässt sich keinesfalls in
Frage stellen. Wollen wir etwas über den Aufbau einer Theorie schlechthin
behaupten, dann können wir sagen, sie weise eine Struktur auf, die systematisch
gegliedert ist. So wird ein tragfähiger Begründungszusammenhang ermöglicht,
in dem verschiedenen Daten eine besondere Funktion zukommt.
Erst auf dieser Grundlage können Hypothesen und Modelle gebildet werden,
welche aber einen entsprechenden Approximationsapparat erfordern. Die
richtige Anwendung des Approximationsapparats führt danach zur
Formulierung des wissenschaftstheoretischen Resultats, d.h. damit wird der
Status wissenschaftlicher Theorie genauer bestimmt. Solch eine Theorie kann
schließlich in einem umfassenden Kontext betrachtet werden, den man etwa als
Theorienetz, Forschungsprogramm oder Theorieevolution bezeichnen kann.
Herunterladen