Vorlesung5.WS.2016-17 - Prof. Dr. Kazimierz Rynkiewicz

Werbung
Prof. Dr. Kazimierz Rynkiewicz
Die epistemische Koexistenz
von Theorie und Wissen
- aus wissenschaftstheoretischer Perspektive
Vorlesung
Ludwig-Maximilians-Universität München
WS 2016/17
2
3
VORLESUNG 5
(16.11.16)
4.2. Die moderne Entstehungsphase der Wissenschaftstheorie
4.2.1. Die Ursprünge der Wissenschaftstheorie
4.2.1.1. Die positivistische Basis
4.2.1.2. Die moderne funktional-positivistische Ausgestaltung
4.2.2. Die Entfaltung der Wissenschaftstheorie
4.2.3. Die klassische Phase der Wissenschaftstheorie
Die Ursprünge der Wissenschaftstheorie
Die Anfänge der Wissenschaftstheorie (WT) haben ihre Wurzeln generell in der
Geschichte der Philosophie und der Wissenschaften. Als philosophische
Disziplin, deren eigenes Profil deutlich erkennbar war, konnte sich die WT erst
Ende des 19. und Anfang des 20. Jh. durchsetzen. Entscheidend war dabei nicht
zuletzt die positivistische Denkweise.
Die positivistische Basis
Beim „Positivismus“ handelt es sich um eine durchaus erfolgreiche Form der
theoretischen Begründung von Wissenschaft. Dieser Ausdruck stammt von dem
französischen Philosophen Auguste Comte (1798-1857) und hebt die empirische
Grundlage von Wissenschaft hervor.
In seinem Buch „Cours de la philosophie positive“ erteilt Comte eine klare
Absage an jede Form von „Metaphysik“, wobei er darunter alles versteht, was
nicht handfest empirisch nachweisbar ist. Nur das sollte gelten, was positiv
demonstrierbar ist und in Messwerten dokumentiert werden kann. Alles andere
ist Spekulation und hat mit Wissenschaft nichts zu tun.
Aus wissenschaftstheoretischer Sicht ist zu betonen, dass Comte ein
klassifizierendes, hierarchisches System der Wissenschaften sowohl aus
synchronischer als auch diachronischer Perspektive erstellt. Dieses System
ermöglicht ihm einerseits die strukturelle Erklärung der Entwicklung der
Wissenschaften, andererseits die Formulierung von Normen für eine
angemessene wissenschaftliche Methodik.
4
Eine weitere Entwicklung des Positivismus ist den englischen Empiristen zu
verdanken, vor allem John Stuart Mill (1806-1873). Im Gegensatz zu Comte
richtet sich sein Augenmerk nicht auf die Klassifizierung der Wissenschaften,
sondern auf die Begründung einer allgemeinen Methodologie der empirischen
Erkenntnis. In seinem Buch „System of Logic“ greift Mill die empiristische
Tradition der Erkenntnistheorie auf und bringt sie auf das Niveau des
wissenschaftlichen Zeitalters.
Weil die Wissenschaft als institutionalisierte Form der Erkenntnis eine
Einengung mit sich bringt, hat das auch für die Wissenschaftstheorie (WT)
Konsequenzen. Durch die starke Zentrierung auf Methoden als alleinigen Weg
zur Wahrheit wird etwa das „erkennende Subjekt“ aus dem Themenkreis der
WT ausgeschlossen.
Mill versucht also Logik und Methodik zu verbinden, bzw. Logik als Methodik
zu definieren. Nicht mehr transzendentallogische Begründungen werden
vorgenommen, sondern die Reduktion auf Verfahren, welche praktische
Erkenntnisse garantieren können.
Wollte man den von Comte begründeten und von Mill folgenschwer
entwickelten Positivismus genauer beschreiben, so dass auch seine
wissenschaftstheoretische Relevanz sichtbar wird, dann ist es erforderlich,
zwischen drei Grundauffassungen des Positivismus zu differenzieren:
(1) dem Empirismus – behauptet, dass alle Erkenntnis vollständig auf sinnliche
Empfindungen zurückführbar ist;
(2) dem Materialismus – lehnt alles ab, was nicht sinnlich-materiell ist. Die
Begriffe wie Geist, Vernunft, Gott usf. werden materialistisch aufgelöst und
gedeutet; und
(3) dem Szientismus – besagt, dass Wissenschaft nur die empirische
Einzelwissenschaft ist, vor allem aber die exakte Naturwissenschaft. Die
Philosophie hat nur die Resultate einzelwissenschaftlicher Forschung zu
erstellen. Damit wird also die Grundlage geschaffen, auf der die moderne
Wissenschaftstheorie ihre Gestalt gewinnt.
Die moderne funktional-positivistische Ausgestaltung
Diese positivistischen Anregungen gestalten sich im Kontext eines radikalen
Wandels in allen relevanten gesellschaftlichen Bereichen, den man als
„industrielle Revolution“ und „funktionale Differenzierung“ bezeichnet. Aus
wissenschaftstheoretischer Sicht ist vor allem der letztere Ausdruck bedeutsam,
dem oft auch der Status eines Prinzips verliehen wird.
5
Das Prinzip der funktionalen Differenzierung (PFD) setzt sich also im 19.
Jahrhundert durch, hat einen umfassenden Charakter und betrifft alle Bereiche
des gesellschaftlichen Lebens, mithin auch die Wissenschaft. Bis zu jenem
Zeitpunkt sind Gesellschaften vor allem dadurch gekennzeichnet, dass sie eine
Hierarchie und an deren Spitze ein einheitliches Zentrum besitzen, auf das alle
Teilbereiche ausgerichtet und an das sie gebunden sind. Darüber hinaus sind die
Teilbereiche nach traditionellen Kriterien organisiert, d.h. nicht
notwendigerweise thematisch sinnvoll gegliedert. Dabei ist alles ein und
demselben Ordnungsprinzip unterworfen.
Die Hierarchisierung und Zentralisierung kann zwar eine funktionierende
Ordnung herbeiführen, behindert aber zugleich die innere Entwicklung der
Themen.
Dank dem PFD wird es aber möglich, die einzelnen gesellschaftlichen
Teilbereiche von externer Kontrolle zu befreien, so dass sie auch ihre eigene
Logik entwickeln. So können weitgehend unabhängige Subsysteme entstehen,
die sich auf bestimmte Themen konzentrieren und deren Logik anpassen.
Eine weitere Folge ist die Arbeitsteilung und Nutzung von Technik und
Sozialorganisation. Damit wird ein wichtiger Schritt gemacht – in Richtung der
Professionalisierung, von dem auch die „Wissensproduktion“ betroffen ist.
Die Fächer wie Theologie und Philosophie, die an der Universität lange Zeit die
wichtigsten waren, verlieren ihre Vorherrschaft. Es kommt die Zeit von
empirischen Naturwissenschaften, die zu neuen Leitfächern der Universität
werden. Der empirische Forscher und Theoretiker wird zu einem neuen
„Bildungsideal“ des neuen (natur-)wissenschaftlichen Zeitalters.
Aus methodischer Sicht können wir diesen Wandel etwa am Beispiel von
Wilhelm von Humboldt (1767-1835) verfolgen, der sich für ein neues Modell
der Universität einsetzt.
Die neuzeitliche Universität soll nach Humboldt zum einen eine solche
Gemeinschaft von Dozenten und Studenten sein, in der die Forschung und Lehre
eine Einheit bilden. Zum anderen soll die Universität von den professional
geschulten Fachgelehrten betrieben werden.
6
Anders gesagt: Es handelt sich dabei um eine Art wissenschaftliche Revolution,
deren Folge die Verschiebung der Akzente von der in der Tradition fundierten
Forschung auf die in den Naturwissenschaften fundierte objektive Forschung ist.
Wie sehen aber die konkreten sachlichen Folgen der Anwendung des Prinzips
der funktionalen Differenzierung (PFD) aus?
Das klassische Beispiel ist hier der Psychologismus des 19. Jahrhunderts, dem
das PFD den Weg durchaus erleichtert, so dass auch seine philosophischen
Auswirkungen sichtbar werden. Die These des Psychologismus, die zurückführend auf Hume, J.St. Mill u.a. - von vielen Philosophen des 19.
Jahrhunderts vertreten war, lautet: „Die Logik fasst die Normen zusammen, die
für jedes richtige Denken gelten, so wie die Ingenieurkunst die Regeln darstellt,
die etwa für richtiges Bauen gelten. Während die Ingenieurkunst auf der Physik
beruht, so beruht die Logik auf der Psychologie“. Die Gesetze des Denkbaren
sind also ursprünglich Gesetze des Denkens und diese sind Formen des
gesunden psychischen Funktionierens. So wird
die empirische
Tatsachenwissenschaft der Psychologie zur Metatheorie der Logik.
Angesichts dieser Konstellation, die durch den radikalen und methodischsachlichen Wandel geprägt ist, war es nun erforderlich, zwischen der
traditionellen Erkenntnistheorie und den neusten Entwicklungen in den
empirischen Wissenschaften eine Brücke zu schlagen. Und diese Aufgabe sollte
eben die Wissenschaftstheorie übernehmen, deren methodologische Annahme
noch lautete: Die Induktion ist die Methode der Natur- und
Gesellschaftswissenschaften, die Deduktion hingegen ist die Methode der Logik
und der reinen Mathematik. Der Akzent fällt allerdings jetzt auf die Methode der
Induktion. Die praktische Folge ist auch an den Universitäten zu erkennen: Die
ersten Lehrstühle für die Wissenschaftstheorie werden gegründet, 1870 an der
Universität Zürich und 1895 an der Universität Wien.
Die Entfaltung der Wissenschaftstheorie
Mit der Einrichtung des Lehrstuhls für „Geschichte und Theorie der induktiven
Wissenschaften“ an der Universität Wien wurde 1895 die Basis für eine weitere
Entfaltung der Wissenschaftstheorie (WT) grundsätzlich vorbereitet. Dabei sind
vor allem Ernst Mach (1838-1916), einem der Pioniere der WT, große
Verdienste zu verdanken. Sein Denken war empiristisch-induktiv geprägt:
Wissenschaft ist eine Art Zusammenfassung des in der Erfahrung Gegebenen.
Jede Form der Metaphysik wird endgültig verworfen. Statt dessen erscheinen
die Thesen der formalen Logik, des logischen Positivismus bzw. Empirismus,
des Operationalismus u.ä.
7
Die Wissenschaftstheorie stellt generell in dieser Phase die logische und
semantische Analyse der Struktur wissenschaftlicher Theorien dar. Diese
Analyse weist einen komplexen Charakter auf.
Den Zugang können wir hier durch das Heranziehen historischer Perspektive
gewinnen, welche es vor allem mit dem französischen Milieu zu tun hat. In
Frankreich wird Wissenschaftsphilosophie oder Wissenschaftstheorie (WT) als
„épistemologie“ bezeichnet. Sie zielt auf die Analyse des Verfahrens der
Wissenschaft ab und betrachtet dabei deren historische Perspektive, anstatt eine
logisch-methodologische Analyse wissenschaftlicher Theorien durchzuführen.
Was das konkret bedeuten kann, zeigen wir am Beispiel von Gaston Bachelard
(1884-1962). Seine Hauptthese besteht in der Neuinterpretation des Geistes der
modernen Wissenschaft, insbesondere dessen experimentellen Aspekts: Die
neue experimentelle Methode müsse sich von dem gesunden Menschenverstand
radikal lösen. Denn die auf den ersten Blick vernünftigen Intuitionen und
Verallgemeinerungen des gesunden Menschenverstandes stellen immer ein
Hindernis im Entwicklungsprozess des wahren wissenschaftlichen Geistes dar.
Die sachlich-relevante Entfaltung der WT hat sich aber erst im Kontext der
sogenannten linguistischen Wende (linguistic turn) vollzogen. Diese
Entfaltungsphase, in der es schon ganz deutlich um die Begründung
wissenschaftlicher Erkenntnis geht, ist vor allem durch die formale Logik und
die Analyse der Sprache gekennzeichnet.
Es ist also die Zeitperiode der Entfaltung der Analytischen Philosophie. Alle
formalen Bemühungen laufen darauf hinaus, durch die Anwendung der neuen
Logik (insbesondere der Mengenlehre, Beweistheorie, Axiomatik) und der
neuen formalen Methoden eine ideale, wissenschaftliche Sprache zu
konstruieren, welche sämtliche Unklarheiten der Alltagssprache und der
bisherigen Wissenschaftssprache eliminieren kann. So werden unter anderem
die Überlegungen von Gottlob Frege, George Edward Moore und Bertrand
Russell herangezogen.
Denn Frege hat die moderne symbolische oder mathematische Logik und
moderne Semantik geschaffen. Seine Unterscheidung zwischen der Bedeutung
eines Wortes (=worauf sich das Wort bezieht) und dem Sinn eines Wortes (=wie
sich das Wort bezieht) beeinflusst auch die wissenschaftstheoretische Reflexion.
Frege tritt gegen die Tradition des Empirismus auf, wenn er behauptet, dass die
Logik nicht ein Teil der Psychologie sei. Denkgesetze sind also keine
psychologischen Gesetze. Wer das behauptet, der übersieht den Unterschied
zwischen der Wahrheit und dem Für-wahr-halten. Die Wahrheit ist aber
unabhängig davon, dass sie von jemandem anerkannt wird.
8
Dagegen ist für Moore eine Aussage dann wahr, wenn sie zum Weltbild des
gesunden Menschenverstandes gehört. Moore vertritt also die Philosophie des
Common Sense.
Schließlich plädiert Russell für ein Cartesianisches Methodenideal. Aus
unbezweifelbaren Gewissheiten soll die Welt mit Hilfe der Logik der „Principia
Mathematica“ konstruiert werden. So bemüht er sich eine Kunstsprache zu
entwickeln, mittels der Aussagen möglich sind, die von der Zweideutigkeit der
Alltagssprache befreit sind. Philosophie hat demnach die Aufgabe, die
Grundbegriffe der Wissenschaften zu klären. Wissenschaft ist das, was wir mehr
oder weniger wissen, während Philosophie das ist, was wir nicht wissen.
Auf die Notwendigkeit der Analyse der Sprache, die auch zur Entfaltung der
Wissenschaftstheorie (WT) in dieser Zeitperiode beiträgt, hat vor allem Ludwig
Wittgenstein in seinem „Tractatus logico-philosophicus“ hingewiesen. Da viele
philosophische
Probleme
nach
Wittgenstein
auf
systematischen
Missverständnissen der Sprache beruhen, lassen sie sich durch eine
entsprechende Analyse der Sprache beseitigen. So schreibt Wittgenstein:
„Die meisten Sätze und Fragen, welche über philosophische Dinge geschrieben
worden sind, sind nicht falsch, sondern unsinnig. Wir können daher die Fragen
dieser Art überhaupt nicht beantworten, sondern nur ihre Unsinnigkeit
feststellen […]“ (TLP 4.003). „Alle Philosophie ist „Sprachkritik“. […]
Russells Verdienst ist es, gezeigt zu haben, dass die scheinbare logische Form
des Satzes nicht seine Wirklichkeit sein muss“ (TLP 4.0031). „Der Zweck der
Philosophie ist die logische Klärung der Gedanken“ (TLP 4.12).
Der nächste wichtige Sprung im Entfaltungsprozess der WT verdankt sich dem
sogenannten Wiener Kreis. Für diese philosophische Bewegung ist vor allem der
Name des Physikers Moritz Schlick entscheidend, der als Nachfolger von Ernst
Mach auf dessen Lehrstuhl für Wissenschaftstheorie in Wien tätig war.
So gründete Schlick vorab 1928 den Ernst-Mach-Verein, wo viele
wissenschaftlich gebildete Philosophen und Fachwissenschaftler mit
philosophischen Interessen zusammen gekommen sind, um philosophische
Fragen in wissenschaftlichem Geist zu diskutieren. Dabei waren für Schlick vor
allem zwei Thesen bedeutsam:
(1) In jeder physikalischen Theorie ist immer zu unterscheiden, was der formalanalytische Apparat und was der jeweilige synthetische Inhalt sei, wobei der
letztere stets einen empirischen Charakter habe (gegen Kant heißt das:
analytisch = a priori, synthetisch = aposteriori);
(2) Bei den wissenschaftlichen Theorien gibt es eine eindeutige Einteilung in
analytisch-apriorische und synthetisch-empirische Elemente.
9
Im Jahre 1929 kommt es unter den Mitgliedern des Ernst-Mach-Vereins zur
Gründung des Wiener Kreises, der einerseits die Erneuerung der
Wissenschaftstheorie durch die Anwendung der formalen Logik erzielen wollte,
andererseits eine internationale Ausrichtung anstrebte. Das Ziel des Wiener
Kreises war es, eine ganz neue Weltkonzeption zu entwickeln, die von allen
metaphysischen Verwirrungen und Dogmatismus frei wäre. Außer Schlick
galten als Mitglieder des Kreises u.a. Otto Neurath, Hans Hahn, Hans
Reichenbach und Rudolf Carnap.
In der Tradition Wittgensteins unterscheidet Carnap zwischen Objektfragen und
logischen Fragen. Während sich die Objektfragen auf die Eigenschaften und
Beziehungen von Gegenständen beziehen, betreffen die logischen Fragen
hingegen die Begriffe und Sätze, wie sie zur Beschreibung der Gegenstände
herangezogen werden. Die Objektfragen werden exklusiv von der empirischen
Wissenschaft geklärt; alle sinnvollen philosophischen Fragen sind logische
Fragen.1
Bei Carnap handelt es sich also um den ersten systematischen Versuch der
mathematischen Modellierung der menschlichen Erkenntnis. So bemüht er sich
in seinem Buch „Der logische Aufbau der Welt“ um die Klärung der
Grundbegriffe der empirischen Erkenntnis.
Folglich entsteht ein großes Begriffsgebäude:
(1) das Fundament – wird von den Begriffen gebildet, die sich auf die
Sinneseindrücke eines Wahrnehmungssubjekts beziehen;
(2) die erste Etage – bilden die physikalischen Begriffe;
(3) die zweite Etage – entspricht den psychologischen (intersubjektiven)
Begriffen; und
(4) das Dach – stellen die Begriffe der Kulturwissenschaften dar.
Die Basis für diese Methode stellt zum einen die kritische Einstellung zur
Metaphysik dar, zum anderen das in der empirischen Erfahrung fundierte
Prinzip der Verifizierung der Bedeutung von Sätzen. Nur diejenigen Sätze, die
sich verifizieren lassen, dürfen als „sinnvoll“ angesehen werden. Die
Verifikation der Sätze wird durch deren Zurückführung auf die sogenannten
„Protokollsätze“ (d.h. Basis- oder Beobachtungssätze) durchgeführt, die auf
beobachtbare Wirklichkeit hinweisen. Verifikation besteht also in der
Überprüfung von Sätzen durch Rückführung auf Beobachtungen und
Experimente. Der Sinn eines Satzes besteht in der Methode seiner Verifikation.
Kann keine Methode der Verifikation angegeben werden, dann hat ein Satz
keinen Sinn. Sätze, die keinen empirischen Gehalt haben, sagen nichts über die
Wirklichkeit aus und sind einfach sinnlos. Derartige Sätze werden als
1
Vgl. Carnap, R. (1934), 203f.
10
„Scheinsätze“ bezeichnet, weil in ihnen entweder ein Begriff vorkommt, der
keine Bedeutung hat (z.B. „Gott“), oder Begriffe, die zwar eine Bedeutung
haben, die aber syntaxwidrig zusammengesetzt sind, so dass sie keinen Sinn
ergeben (z.B. „das Nichts nichtet“).
Mit dem Wiener Kreis waren im engen Kontakt und standen zum Teil durch
gemeinsam veranstaltete Kongresse unter dessen Einfluss viele andere
positivistisch-logische Zentren in Europa und Amerika, wie etwa die Berliner
Gesellschaft für empirische Philosophie und die Lemberger-Warschauer-Schule.
Die letztere zeichnete sich durch breit angelegte Forschungen in Philosophie,
Logik, Wissenschaftstheorie und Sprachanalytik aus. Ihre Mitlieder waren unter
anderem Jan Łukasiewicz, Stanisław Leśniewski und Alfred Tarski.
Vor allem die Arbeiten von Tarski, in denen er die (mittlerweile klassische)
Differenzierung zwischen Objekt- und Metasprache vorgeschlagen hatte, waren
für die Entfaltung der Wissenschaftstheorie (WT) in dieser Zeitperiode
bedeutsam.
In der Entfaltungsphase der WT lassen sich schließlich die ersten modernen
thermodynamischen Überlegungen erblicken. Sie werden mit dem Begriff
„Operationalismus“ zusammengeführt und weisen deutliche Merkmale einer
wissenschaftlichen Methode auf.
Selbst wenn diese Methode ähnlich wie die (auf den Basissätzen beruhende)
Methode des Wiener Kreises funktioniert, wurde sie jedoch von dem
amerikanischen Physiker Percy W. Bridgman (1882-1961) unabhängig
entwickelt. Mit seinem Werk „The Logic of Modern Physics“ versucht er die
These zu begründen, theoretische Begriffe seien auf der Grundlage
intersubjektiver kontrollierbarer Laborexperimente zu definieren.
Dazu sind aber entsprechende Operationen erforderlich, wie man dies etwa am
Begriff der Temperatur zeigen kann: Die Bedeutung des Begriffs „Temperatur“
wird reduziert auf die Handlungen, die wir mit Hilfe eines Thermometers
durchführen können. Der faktisch grundlegende Begriff ist aber der eines
Thermometers sowie der Handlungen, die wir mit ihm vollziehen können. Die
Temperatur stellt dagegen nur einen vom Thermometer abgeleiteten Begriff dar.
Stellen wir jetzt die entscheidenden Momente (M) der Entfaltungsphase der
Wissenschaftstheorie in einer Tabelle zusammen:
11
Historisches M
Logisch-empirisches M
Logischthermodynamisches M
Bachelard
Frege, Moore, Russell / Wittgenstein,
Carnap, Tarski
Bridgman
Die klassische Phase der Wissenschaftstheorie
In dieser Zeitperiode (1935-1970) hat sich die Wissenschaftstheorie (WT),
genannt auch Philosophy of Science, als eigenständige Disziplin etabliert. Zum
einen werden logisch-empirische Methoden der vorangehenden Phase
fortgesetzt, zum anderen werden sie aber zugleich von einer intensiven Kritik
begleitet. Seit den späten 1950er Jahren hat sich die WT zudem dem Thema der
Theoriendynamik, des Wandels des wissenschaftlichen Wissens geöffnet.
Dies erlangt aber seine Reife erst in der historizistischen Phase. Die WT zieht
also das experimentelle, nicht in Theorien kodierte wissenschaftliche Wissen
und überhaupt Wissenschaft als Praxis in Betracht, knüpft erneut zum Teil an
die traditionellen philosophischen Fragestellungen der Erkenntnistheorie,
Sprachphilosophie, Naturphilosophie und Metaphysik an. Für die klassische
Phase
sind
unter
anderem
folgende
Begriffe
charakteristisch:
Zweistufenkonzeption, Kritischer Rationalismus und wissenschaftliche
Erklärung.
Der logische Empirismus, der auf zwei fundamentalen Prinzipien (d.h. der
Verifizierbarkeit und dem Reduktionismus) beruhte, erwies sich bald als
problematisch. Dabei tauchte erneut das Problem der Induktion auf, auf das
schon Hume hingewiesen hatte: Induktive Schlüsse sind nicht imstande die
Wahrheit zu garantieren.
Aus einer Anzahl n positiver Fälle für eine allgemeine Hypothese kann man
nicht auf die Wahrheit der Hypothese für den Fall n + 1 schließen. Es kann also
nicht gelten: „Für jedes x, wenn x ein Schwan ist, dann ist x weiß“. Da induktive
Aussagen das Erfordernis der Allquantifizierung nicht erfüllen (können),
scheitert auch die logisch-empirische Verifikation. Das gleiche Schicksal trifft
die logisch-empirische Reduktion. Sie entlarvt ihre Inkompetenz angesichts der
sogenannten „dispositionalen Begriffe“, weil diese sich nicht auf
beobachtungsmäßige Begriffe reduzieren lassen. Wie kann etwa „Löslichkeit“
durch die Wahrnehmung von Zucker definiert werden?
12
In diesem Kontext wird nach neuen methodischen Lösungen gesucht. So
erscheint durch die Anregungen von Rudolf Carnap und Carl. G. Hempel (19051997) die Zweistufenkonzeption als eine gemäßigte Form des Empirismus. Sie
besagt, dass nicht mehr alle Begriffe einer wissenschaftlichen Theorie
unmittelbar an Beobachtungen anschließen.
Denn es gibt sowohl Beobachtungsbegriffe als auch theoretische Begriffe wie
etwa Elektron, elektromagnetisches Feld, Gen usf. Während die
Beobachtungsbegriffe unmittelbar mit empirischen Wahrnehmungen verknüpft
sind und über das Vorliegen eines Sachverhaltes entscheiden, werden die
theoretischen Begriffe hingegen durch die Prinzipien der zugehörigen Theorie
näher bestimmt und sind nur mittelbar mit Wahrnehmungen verbunden.
Die nur mittelbar an die Erfahrung gebundenen Begriffe werden also deshalb
zugelassen, weil man auf diese Weise Gesetze mit einem größeren
Anwendungsbereich formulieren kann. Wenn man die Begriffsbildung in den
Wissenschaften sehr eng mit Beobachtungsresultaten oder Messergebnissen
verknüpft, dann ist man gezwungen, für jede Messmethode (etwa) der
Temperatur oder Stromstärke einen eigenen Begriff anzunehmen. Selbst wenn
uns die theoretischen Begriffe sehr abstrakte Theorien zu bilden erlauben, gibt
es jedoch einige semantische und ontologische Unklarheiten. Wie ist die
Bedeutung von theoretischen Begriffen zu verstehen? Wie sind sie mit der
Erfahrung verbunden?
Die Schwierigkeiten, die im Kontext des Prinzips der Verifizierbarkeit
erscheinen, lassen sich durch die Einführung des Prinzips der Falsifizierbarkeit
lösen, so Karl Popper (1902-1994), der dem Wiener Kreis zwar nahe stand, war
aber zugleich ihm gegenüber kritisch. Die unter dem Zeichen der Falsifikation
stehende Zeitperiode der Wissenschaftstheorie (WT) wird auch „Kritischer
Rationalismus“ genannt.
So schlägt Popper folgendes Abgrenzungskriterium vor: Wissenschaftliche
Aussagen unterscheiden sich von nicht-wissenschaftlichen Aussagen nicht
dadurch, dass die ersteren sich empirisch verifizieren lassen, sondern dadurch,
dass sie immer zu ungewissen Hypothesen führen, d.h. zu den Aussagen, die
durch die Erfahrung widerlegt werden können. Mit anderen Worten: Theorien
werden gebildet, und dann wird gesagt, wann sie falsch sind.
Wenn wir sagen „Alle Schwäne sind weiß“, so ist das eine echte
wissenschaftliche Hypothese deshalb, weil sie zwar nicht verifizierbar, dafür
jedoch leicht falsifizierbar ist: Wir können etwa eines Tages einen schwarzen
Schwan entdecken“.
Dank dem Prinzip der Falsifizierbarkeit können wir nach Popper auch das
Problem der Induktion lösen: Bei der Induktion handelt es sich nicht um eine
Form gültiger Argumentation. Die einzig gültige Form der Argumentation ist
13
die Deduktion, so wie sie etwa in der Logik vorkommt. Das bedeutet, die
empirischen Wissenschaften sind zum einen deduktiv wie die Mathematik, zum
anderen aber auch falsifizierbar.
Poppers wissenschaftstheoretische Methode hat auch epistemische
Auswirkungen, die aber im Kontext seiner Drei-Welten-Lehre zu verstehen sind:
(1) Welt 1 – ist die physikalische Welt, zu der auch die Natur gehört;
(2) Welt 2 – ist das Bewusstsein des Menschen, entstanden im Prozess der
Evolution als Modus der Anpassung an die Welt 1; und
(3) Welt 3 – ist das Reich der Gedanken, die sich Menschen über ihre
Wirklichkeit (die Welten 1 und 2) machen, und enthält sprachliche Symbole.
Die methodische Relevanz kommt also der Welt 3.
Da die auf dem Prinzip der Falsifizierbarkeit aufgebaute Methode Poppers
jedoch ein völlig verformtes Bild der realen Verfahrensweise der empirischen
Wissenschaften darstellte, war es notwendig, sie durch andere Begriffe
methodisch zu ergänzen. Zu diesem Gedanken kommt schon Popper selbst und
führt
in
seiner
Schrift
„Objective
Knowledge“
den
Begriff
„Wahrheitsähnlichkeit“ ein: Man kann niemals sicher sein, dass eine
wissenschaftliche Hypothese wahr ist, sondern lediglich wahrheitsähnlich. Als
solche kann man sie dann in die wissenschaftlichen Disziplinen integrieren.
Übereinstimmend mit der Kritik Poppers, dass die induktive Argumentation
nicht imstande sei, absolut sichere Schlüsse zu garantieren, bemüht sich
hingegen der spätere Carnap eine „induktive Logik“ zu entwickeln, die das
induktive Verfahren nicht ganz abwertet, sondern mit dem Begriff
„Wahrscheinlichkeit“ verbindet. So hat die induktive Argumentation einen
probabilistischen Charakter, und der Begriff der Wahrscheinlichkeit ist von der
Wissenschaftstheorie (WT) zu klären.
Für die klassische Phase der WT ist auch das DN-Modell (=deduktivnomologisches Modell) der wissenschaftlichen Erklärung von Carl Gustav
Hempel und Robert Oppenheim charakteristisch.
Es wird davon ausgegangen, dass alle wissenschaftlichen Erklärungen eine
einheitliche Struktur besitzen. Dabei sind zwei Elemente entscheidend:
(1) Das Explanandum (E) – ist die Beschreibung des Sachverhalts, der erklärt
werden soll; und
(2) das Explanans – besteht aus zumindest einem allgemeinen Gesetz (G) (bzw.
einer Theorie) und den Beschreibungen der Antezendenzbedingungen (A1, A2,
14
An) (d.h. Anfangs- bzw. Anwendungsbedingungen) dieses Gesetzes. Das
Explanans muss zudem (empirisch) gut bestätigt und wahr sein.
So ergibt sich daraus z.B. folgende konkrete Konstellation:
G: Wenn Metalle erhitzt werden, dehnen sie sich aus.
A1: Kupfer ist ein Metall.
A2: Dieses Stück Kupfer wird erhitzt.
E: Dieses Stück Kupfer dehnt sich aus.
Als Hempel 1960 klar wurde, dass nicht alle wissenschaftlichen Erklärungen
eine deduktiv-nomologische Form haben, weil in vielen Fällen die streng
allgemeinen Gesetze (noch!) nicht bekannt sind, die eventuell als Prämissen
gelten könnten, schlug er das IS-Modell (= induktiv-statistisches Modell) der
wissenschaftlichen Erklärung vor, das auf dem Prinzip der Wahrscheinlichkeit
beruht.
Dieses Modell sieht also vor, dass in einer Erklärung die Prämissen aus
statistischen Gesetzen bestehen können, die es uns erlauben, zusätzlich zu den
besonderen Bedingungen das Explanandum mit großer Wahrscheinlichkeit
durch Induktion zu folgern.
Das Modell der wissenschaftlichen Erklärung bringt jedoch einige ernsthafte
Probleme mit sich, die vor allem mit der Natur des Gesetzes verbunden sind:
Die Gesetze sollen wahr und gut bestätigt sein.
(1) Lawlikeness-Problem (Problem der Gesetzesartigkeit) – es geht darum, die
formalen Kriterien zu bestimmen, welche eine beliebige Aussage erfüllen muss,
um unabhängig von der Frage der Wahrheit als Gesetz betrachtet zu werden.
So werden folgende Kriterien (K) diskutiert:
(a) K der allquantifizierten Konditionalaussage – ein Gesetz muss stets die
logische Form einer verallgemeinerten Konditionalaussage haben, z.B. „Alle
Schwäne sind weiß“. Also:
Ɐx(Px→Qx),
wobei gilt: Ɐ = Allquantor, P = Schwan sein, Q = weiß;
(b) K der Nichtspezialität – ein Gesetz darf sich weder auf die Eigennamen (z.B.
John) noch auf die bestimmte raum-zeitliche Bereiche (z.B. Marienplatz in
München) beziehen;
(c) K der Kausalität – ist auch nicht ganz überzeugend; und
15
(2) Problem der Bestätigung – ergibt sich aus der Tatsache, dass wir keine
absolute Garantie haben können, dass eine allgemeine Aussage (z.B. „Alle
Schwäne sind weiß“) wahr ist. Wir können nur eine gute Bestätigung haben,
weil alle Schwäne, die wir bis jetzt gesehen haben, sind weiß.
Indes behauptet Nelson Goodman, die Bestätigungsrelation zwischen den
positiven Instanzen und dem allgemeinen Gesetz führe generell nicht zu einer
eindeutigen Auswahl des in Frage stehenden Gesetzes. Denn es werden immer
andere allgemeine Aussagen geben, die niemand intuitiv als ernsthafte Gesetze
akzeptieren würde, die aber gleichfalls durch dieselben positiven Instanzen
bestätigt werden, z.B. „Alle Schwäne sind rot“.
Herunterladen