Prof. Dr. Kazimierz Rynkiewicz Die epistemische Koexistenz von Theorie und Wissen - aus wissenschaftstheoretischer Perspektive Vorlesung Ludwig-Maximilians-Universität München WS 2016/17 2 3 VORLESUNG 5 (16.11.16) 4.2. Die moderne Entstehungsphase der Wissenschaftstheorie 4.2.1. Die Ursprünge der Wissenschaftstheorie 4.2.1.1. Die positivistische Basis 4.2.1.2. Die moderne funktional-positivistische Ausgestaltung 4.2.2. Die Entfaltung der Wissenschaftstheorie 4.2.3. Die klassische Phase der Wissenschaftstheorie Die Ursprünge der Wissenschaftstheorie Die Anfänge der Wissenschaftstheorie (WT) haben ihre Wurzeln generell in der Geschichte der Philosophie und der Wissenschaften. Als philosophische Disziplin, deren eigenes Profil deutlich erkennbar war, konnte sich die WT erst Ende des 19. und Anfang des 20. Jh. durchsetzen. Entscheidend war dabei nicht zuletzt die positivistische Denkweise. Die positivistische Basis Beim „Positivismus“ handelt es sich um eine durchaus erfolgreiche Form der theoretischen Begründung von Wissenschaft. Dieser Ausdruck stammt von dem französischen Philosophen Auguste Comte (1798-1857) und hebt die empirische Grundlage von Wissenschaft hervor. In seinem Buch „Cours de la philosophie positive“ erteilt Comte eine klare Absage an jede Form von „Metaphysik“, wobei er darunter alles versteht, was nicht handfest empirisch nachweisbar ist. Nur das sollte gelten, was positiv demonstrierbar ist und in Messwerten dokumentiert werden kann. Alles andere ist Spekulation und hat mit Wissenschaft nichts zu tun. Aus wissenschaftstheoretischer Sicht ist zu betonen, dass Comte ein klassifizierendes, hierarchisches System der Wissenschaften sowohl aus synchronischer als auch diachronischer Perspektive erstellt. Dieses System ermöglicht ihm einerseits die strukturelle Erklärung der Entwicklung der Wissenschaften, andererseits die Formulierung von Normen für eine angemessene wissenschaftliche Methodik. 4 Eine weitere Entwicklung des Positivismus ist den englischen Empiristen zu verdanken, vor allem John Stuart Mill (1806-1873). Im Gegensatz zu Comte richtet sich sein Augenmerk nicht auf die Klassifizierung der Wissenschaften, sondern auf die Begründung einer allgemeinen Methodologie der empirischen Erkenntnis. In seinem Buch „System of Logic“ greift Mill die empiristische Tradition der Erkenntnistheorie auf und bringt sie auf das Niveau des wissenschaftlichen Zeitalters. Weil die Wissenschaft als institutionalisierte Form der Erkenntnis eine Einengung mit sich bringt, hat das auch für die Wissenschaftstheorie (WT) Konsequenzen. Durch die starke Zentrierung auf Methoden als alleinigen Weg zur Wahrheit wird etwa das „erkennende Subjekt“ aus dem Themenkreis der WT ausgeschlossen. Mill versucht also Logik und Methodik zu verbinden, bzw. Logik als Methodik zu definieren. Nicht mehr transzendentallogische Begründungen werden vorgenommen, sondern die Reduktion auf Verfahren, welche praktische Erkenntnisse garantieren können. Wollte man den von Comte begründeten und von Mill folgenschwer entwickelten Positivismus genauer beschreiben, so dass auch seine wissenschaftstheoretische Relevanz sichtbar wird, dann ist es erforderlich, zwischen drei Grundauffassungen des Positivismus zu differenzieren: (1) dem Empirismus – behauptet, dass alle Erkenntnis vollständig auf sinnliche Empfindungen zurückführbar ist; (2) dem Materialismus – lehnt alles ab, was nicht sinnlich-materiell ist. Die Begriffe wie Geist, Vernunft, Gott usf. werden materialistisch aufgelöst und gedeutet; und (3) dem Szientismus – besagt, dass Wissenschaft nur die empirische Einzelwissenschaft ist, vor allem aber die exakte Naturwissenschaft. Die Philosophie hat nur die Resultate einzelwissenschaftlicher Forschung zu erstellen. Damit wird also die Grundlage geschaffen, auf der die moderne Wissenschaftstheorie ihre Gestalt gewinnt. Die moderne funktional-positivistische Ausgestaltung Diese positivistischen Anregungen gestalten sich im Kontext eines radikalen Wandels in allen relevanten gesellschaftlichen Bereichen, den man als „industrielle Revolution“ und „funktionale Differenzierung“ bezeichnet. Aus wissenschaftstheoretischer Sicht ist vor allem der letztere Ausdruck bedeutsam, dem oft auch der Status eines Prinzips verliehen wird. 5 Das Prinzip der funktionalen Differenzierung (PFD) setzt sich also im 19. Jahrhundert durch, hat einen umfassenden Charakter und betrifft alle Bereiche des gesellschaftlichen Lebens, mithin auch die Wissenschaft. Bis zu jenem Zeitpunkt sind Gesellschaften vor allem dadurch gekennzeichnet, dass sie eine Hierarchie und an deren Spitze ein einheitliches Zentrum besitzen, auf das alle Teilbereiche ausgerichtet und an das sie gebunden sind. Darüber hinaus sind die Teilbereiche nach traditionellen Kriterien organisiert, d.h. nicht notwendigerweise thematisch sinnvoll gegliedert. Dabei ist alles ein und demselben Ordnungsprinzip unterworfen. Die Hierarchisierung und Zentralisierung kann zwar eine funktionierende Ordnung herbeiführen, behindert aber zugleich die innere Entwicklung der Themen. Dank dem PFD wird es aber möglich, die einzelnen gesellschaftlichen Teilbereiche von externer Kontrolle zu befreien, so dass sie auch ihre eigene Logik entwickeln. So können weitgehend unabhängige Subsysteme entstehen, die sich auf bestimmte Themen konzentrieren und deren Logik anpassen. Eine weitere Folge ist die Arbeitsteilung und Nutzung von Technik und Sozialorganisation. Damit wird ein wichtiger Schritt gemacht – in Richtung der Professionalisierung, von dem auch die „Wissensproduktion“ betroffen ist. Die Fächer wie Theologie und Philosophie, die an der Universität lange Zeit die wichtigsten waren, verlieren ihre Vorherrschaft. Es kommt die Zeit von empirischen Naturwissenschaften, die zu neuen Leitfächern der Universität werden. Der empirische Forscher und Theoretiker wird zu einem neuen „Bildungsideal“ des neuen (natur-)wissenschaftlichen Zeitalters. Aus methodischer Sicht können wir diesen Wandel etwa am Beispiel von Wilhelm von Humboldt (1767-1835) verfolgen, der sich für ein neues Modell der Universität einsetzt. Die neuzeitliche Universität soll nach Humboldt zum einen eine solche Gemeinschaft von Dozenten und Studenten sein, in der die Forschung und Lehre eine Einheit bilden. Zum anderen soll die Universität von den professional geschulten Fachgelehrten betrieben werden. 6 Anders gesagt: Es handelt sich dabei um eine Art wissenschaftliche Revolution, deren Folge die Verschiebung der Akzente von der in der Tradition fundierten Forschung auf die in den Naturwissenschaften fundierte objektive Forschung ist. Wie sehen aber die konkreten sachlichen Folgen der Anwendung des Prinzips der funktionalen Differenzierung (PFD) aus? Das klassische Beispiel ist hier der Psychologismus des 19. Jahrhunderts, dem das PFD den Weg durchaus erleichtert, so dass auch seine philosophischen Auswirkungen sichtbar werden. Die These des Psychologismus, die zurückführend auf Hume, J.St. Mill u.a. - von vielen Philosophen des 19. Jahrhunderts vertreten war, lautet: „Die Logik fasst die Normen zusammen, die für jedes richtige Denken gelten, so wie die Ingenieurkunst die Regeln darstellt, die etwa für richtiges Bauen gelten. Während die Ingenieurkunst auf der Physik beruht, so beruht die Logik auf der Psychologie“. Die Gesetze des Denkbaren sind also ursprünglich Gesetze des Denkens und diese sind Formen des gesunden psychischen Funktionierens. So wird die empirische Tatsachenwissenschaft der Psychologie zur Metatheorie der Logik. Angesichts dieser Konstellation, die durch den radikalen und methodischsachlichen Wandel geprägt ist, war es nun erforderlich, zwischen der traditionellen Erkenntnistheorie und den neusten Entwicklungen in den empirischen Wissenschaften eine Brücke zu schlagen. Und diese Aufgabe sollte eben die Wissenschaftstheorie übernehmen, deren methodologische Annahme noch lautete: Die Induktion ist die Methode der Natur- und Gesellschaftswissenschaften, die Deduktion hingegen ist die Methode der Logik und der reinen Mathematik. Der Akzent fällt allerdings jetzt auf die Methode der Induktion. Die praktische Folge ist auch an den Universitäten zu erkennen: Die ersten Lehrstühle für die Wissenschaftstheorie werden gegründet, 1870 an der Universität Zürich und 1895 an der Universität Wien. Die Entfaltung der Wissenschaftstheorie Mit der Einrichtung des Lehrstuhls für „Geschichte und Theorie der induktiven Wissenschaften“ an der Universität Wien wurde 1895 die Basis für eine weitere Entfaltung der Wissenschaftstheorie (WT) grundsätzlich vorbereitet. Dabei sind vor allem Ernst Mach (1838-1916), einem der Pioniere der WT, große Verdienste zu verdanken. Sein Denken war empiristisch-induktiv geprägt: Wissenschaft ist eine Art Zusammenfassung des in der Erfahrung Gegebenen. Jede Form der Metaphysik wird endgültig verworfen. Statt dessen erscheinen die Thesen der formalen Logik, des logischen Positivismus bzw. Empirismus, des Operationalismus u.ä. 7 Die Wissenschaftstheorie stellt generell in dieser Phase die logische und semantische Analyse der Struktur wissenschaftlicher Theorien dar. Diese Analyse weist einen komplexen Charakter auf. Den Zugang können wir hier durch das Heranziehen historischer Perspektive gewinnen, welche es vor allem mit dem französischen Milieu zu tun hat. In Frankreich wird Wissenschaftsphilosophie oder Wissenschaftstheorie (WT) als „épistemologie“ bezeichnet. Sie zielt auf die Analyse des Verfahrens der Wissenschaft ab und betrachtet dabei deren historische Perspektive, anstatt eine logisch-methodologische Analyse wissenschaftlicher Theorien durchzuführen. Was das konkret bedeuten kann, zeigen wir am Beispiel von Gaston Bachelard (1884-1962). Seine Hauptthese besteht in der Neuinterpretation des Geistes der modernen Wissenschaft, insbesondere dessen experimentellen Aspekts: Die neue experimentelle Methode müsse sich von dem gesunden Menschenverstand radikal lösen. Denn die auf den ersten Blick vernünftigen Intuitionen und Verallgemeinerungen des gesunden Menschenverstandes stellen immer ein Hindernis im Entwicklungsprozess des wahren wissenschaftlichen Geistes dar. Die sachlich-relevante Entfaltung der WT hat sich aber erst im Kontext der sogenannten linguistischen Wende (linguistic turn) vollzogen. Diese Entfaltungsphase, in der es schon ganz deutlich um die Begründung wissenschaftlicher Erkenntnis geht, ist vor allem durch die formale Logik und die Analyse der Sprache gekennzeichnet. Es ist also die Zeitperiode der Entfaltung der Analytischen Philosophie. Alle formalen Bemühungen laufen darauf hinaus, durch die Anwendung der neuen Logik (insbesondere der Mengenlehre, Beweistheorie, Axiomatik) und der neuen formalen Methoden eine ideale, wissenschaftliche Sprache zu konstruieren, welche sämtliche Unklarheiten der Alltagssprache und der bisherigen Wissenschaftssprache eliminieren kann. So werden unter anderem die Überlegungen von Gottlob Frege, George Edward Moore und Bertrand Russell herangezogen. Denn Frege hat die moderne symbolische oder mathematische Logik und moderne Semantik geschaffen. Seine Unterscheidung zwischen der Bedeutung eines Wortes (=worauf sich das Wort bezieht) und dem Sinn eines Wortes (=wie sich das Wort bezieht) beeinflusst auch die wissenschaftstheoretische Reflexion. Frege tritt gegen die Tradition des Empirismus auf, wenn er behauptet, dass die Logik nicht ein Teil der Psychologie sei. Denkgesetze sind also keine psychologischen Gesetze. Wer das behauptet, der übersieht den Unterschied zwischen der Wahrheit und dem Für-wahr-halten. Die Wahrheit ist aber unabhängig davon, dass sie von jemandem anerkannt wird. 8 Dagegen ist für Moore eine Aussage dann wahr, wenn sie zum Weltbild des gesunden Menschenverstandes gehört. Moore vertritt also die Philosophie des Common Sense. Schließlich plädiert Russell für ein Cartesianisches Methodenideal. Aus unbezweifelbaren Gewissheiten soll die Welt mit Hilfe der Logik der „Principia Mathematica“ konstruiert werden. So bemüht er sich eine Kunstsprache zu entwickeln, mittels der Aussagen möglich sind, die von der Zweideutigkeit der Alltagssprache befreit sind. Philosophie hat demnach die Aufgabe, die Grundbegriffe der Wissenschaften zu klären. Wissenschaft ist das, was wir mehr oder weniger wissen, während Philosophie das ist, was wir nicht wissen. Auf die Notwendigkeit der Analyse der Sprache, die auch zur Entfaltung der Wissenschaftstheorie (WT) in dieser Zeitperiode beiträgt, hat vor allem Ludwig Wittgenstein in seinem „Tractatus logico-philosophicus“ hingewiesen. Da viele philosophische Probleme nach Wittgenstein auf systematischen Missverständnissen der Sprache beruhen, lassen sie sich durch eine entsprechende Analyse der Sprache beseitigen. So schreibt Wittgenstein: „Die meisten Sätze und Fragen, welche über philosophische Dinge geschrieben worden sind, sind nicht falsch, sondern unsinnig. Wir können daher die Fragen dieser Art überhaupt nicht beantworten, sondern nur ihre Unsinnigkeit feststellen […]“ (TLP 4.003). „Alle Philosophie ist „Sprachkritik“. […] Russells Verdienst ist es, gezeigt zu haben, dass die scheinbare logische Form des Satzes nicht seine Wirklichkeit sein muss“ (TLP 4.0031). „Der Zweck der Philosophie ist die logische Klärung der Gedanken“ (TLP 4.12). Der nächste wichtige Sprung im Entfaltungsprozess der WT verdankt sich dem sogenannten Wiener Kreis. Für diese philosophische Bewegung ist vor allem der Name des Physikers Moritz Schlick entscheidend, der als Nachfolger von Ernst Mach auf dessen Lehrstuhl für Wissenschaftstheorie in Wien tätig war. So gründete Schlick vorab 1928 den Ernst-Mach-Verein, wo viele wissenschaftlich gebildete Philosophen und Fachwissenschaftler mit philosophischen Interessen zusammen gekommen sind, um philosophische Fragen in wissenschaftlichem Geist zu diskutieren. Dabei waren für Schlick vor allem zwei Thesen bedeutsam: (1) In jeder physikalischen Theorie ist immer zu unterscheiden, was der formalanalytische Apparat und was der jeweilige synthetische Inhalt sei, wobei der letztere stets einen empirischen Charakter habe (gegen Kant heißt das: analytisch = a priori, synthetisch = aposteriori); (2) Bei den wissenschaftlichen Theorien gibt es eine eindeutige Einteilung in analytisch-apriorische und synthetisch-empirische Elemente. 9 Im Jahre 1929 kommt es unter den Mitgliedern des Ernst-Mach-Vereins zur Gründung des Wiener Kreises, der einerseits die Erneuerung der Wissenschaftstheorie durch die Anwendung der formalen Logik erzielen wollte, andererseits eine internationale Ausrichtung anstrebte. Das Ziel des Wiener Kreises war es, eine ganz neue Weltkonzeption zu entwickeln, die von allen metaphysischen Verwirrungen und Dogmatismus frei wäre. Außer Schlick galten als Mitglieder des Kreises u.a. Otto Neurath, Hans Hahn, Hans Reichenbach und Rudolf Carnap. In der Tradition Wittgensteins unterscheidet Carnap zwischen Objektfragen und logischen Fragen. Während sich die Objektfragen auf die Eigenschaften und Beziehungen von Gegenständen beziehen, betreffen die logischen Fragen hingegen die Begriffe und Sätze, wie sie zur Beschreibung der Gegenstände herangezogen werden. Die Objektfragen werden exklusiv von der empirischen Wissenschaft geklärt; alle sinnvollen philosophischen Fragen sind logische Fragen.1 Bei Carnap handelt es sich also um den ersten systematischen Versuch der mathematischen Modellierung der menschlichen Erkenntnis. So bemüht er sich in seinem Buch „Der logische Aufbau der Welt“ um die Klärung der Grundbegriffe der empirischen Erkenntnis. Folglich entsteht ein großes Begriffsgebäude: (1) das Fundament – wird von den Begriffen gebildet, die sich auf die Sinneseindrücke eines Wahrnehmungssubjekts beziehen; (2) die erste Etage – bilden die physikalischen Begriffe; (3) die zweite Etage – entspricht den psychologischen (intersubjektiven) Begriffen; und (4) das Dach – stellen die Begriffe der Kulturwissenschaften dar. Die Basis für diese Methode stellt zum einen die kritische Einstellung zur Metaphysik dar, zum anderen das in der empirischen Erfahrung fundierte Prinzip der Verifizierung der Bedeutung von Sätzen. Nur diejenigen Sätze, die sich verifizieren lassen, dürfen als „sinnvoll“ angesehen werden. Die Verifikation der Sätze wird durch deren Zurückführung auf die sogenannten „Protokollsätze“ (d.h. Basis- oder Beobachtungssätze) durchgeführt, die auf beobachtbare Wirklichkeit hinweisen. Verifikation besteht also in der Überprüfung von Sätzen durch Rückführung auf Beobachtungen und Experimente. Der Sinn eines Satzes besteht in der Methode seiner Verifikation. Kann keine Methode der Verifikation angegeben werden, dann hat ein Satz keinen Sinn. Sätze, die keinen empirischen Gehalt haben, sagen nichts über die Wirklichkeit aus und sind einfach sinnlos. Derartige Sätze werden als 1 Vgl. Carnap, R. (1934), 203f. 10 „Scheinsätze“ bezeichnet, weil in ihnen entweder ein Begriff vorkommt, der keine Bedeutung hat (z.B. „Gott“), oder Begriffe, die zwar eine Bedeutung haben, die aber syntaxwidrig zusammengesetzt sind, so dass sie keinen Sinn ergeben (z.B. „das Nichts nichtet“). Mit dem Wiener Kreis waren im engen Kontakt und standen zum Teil durch gemeinsam veranstaltete Kongresse unter dessen Einfluss viele andere positivistisch-logische Zentren in Europa und Amerika, wie etwa die Berliner Gesellschaft für empirische Philosophie und die Lemberger-Warschauer-Schule. Die letztere zeichnete sich durch breit angelegte Forschungen in Philosophie, Logik, Wissenschaftstheorie und Sprachanalytik aus. Ihre Mitlieder waren unter anderem Jan Łukasiewicz, Stanisław Leśniewski und Alfred Tarski. Vor allem die Arbeiten von Tarski, in denen er die (mittlerweile klassische) Differenzierung zwischen Objekt- und Metasprache vorgeschlagen hatte, waren für die Entfaltung der Wissenschaftstheorie (WT) in dieser Zeitperiode bedeutsam. In der Entfaltungsphase der WT lassen sich schließlich die ersten modernen thermodynamischen Überlegungen erblicken. Sie werden mit dem Begriff „Operationalismus“ zusammengeführt und weisen deutliche Merkmale einer wissenschaftlichen Methode auf. Selbst wenn diese Methode ähnlich wie die (auf den Basissätzen beruhende) Methode des Wiener Kreises funktioniert, wurde sie jedoch von dem amerikanischen Physiker Percy W. Bridgman (1882-1961) unabhängig entwickelt. Mit seinem Werk „The Logic of Modern Physics“ versucht er die These zu begründen, theoretische Begriffe seien auf der Grundlage intersubjektiver kontrollierbarer Laborexperimente zu definieren. Dazu sind aber entsprechende Operationen erforderlich, wie man dies etwa am Begriff der Temperatur zeigen kann: Die Bedeutung des Begriffs „Temperatur“ wird reduziert auf die Handlungen, die wir mit Hilfe eines Thermometers durchführen können. Der faktisch grundlegende Begriff ist aber der eines Thermometers sowie der Handlungen, die wir mit ihm vollziehen können. Die Temperatur stellt dagegen nur einen vom Thermometer abgeleiteten Begriff dar. Stellen wir jetzt die entscheidenden Momente (M) der Entfaltungsphase der Wissenschaftstheorie in einer Tabelle zusammen: 11 Historisches M Logisch-empirisches M Logischthermodynamisches M Bachelard Frege, Moore, Russell / Wittgenstein, Carnap, Tarski Bridgman Die klassische Phase der Wissenschaftstheorie In dieser Zeitperiode (1935-1970) hat sich die Wissenschaftstheorie (WT), genannt auch Philosophy of Science, als eigenständige Disziplin etabliert. Zum einen werden logisch-empirische Methoden der vorangehenden Phase fortgesetzt, zum anderen werden sie aber zugleich von einer intensiven Kritik begleitet. Seit den späten 1950er Jahren hat sich die WT zudem dem Thema der Theoriendynamik, des Wandels des wissenschaftlichen Wissens geöffnet. Dies erlangt aber seine Reife erst in der historizistischen Phase. Die WT zieht also das experimentelle, nicht in Theorien kodierte wissenschaftliche Wissen und überhaupt Wissenschaft als Praxis in Betracht, knüpft erneut zum Teil an die traditionellen philosophischen Fragestellungen der Erkenntnistheorie, Sprachphilosophie, Naturphilosophie und Metaphysik an. Für die klassische Phase sind unter anderem folgende Begriffe charakteristisch: Zweistufenkonzeption, Kritischer Rationalismus und wissenschaftliche Erklärung. Der logische Empirismus, der auf zwei fundamentalen Prinzipien (d.h. der Verifizierbarkeit und dem Reduktionismus) beruhte, erwies sich bald als problematisch. Dabei tauchte erneut das Problem der Induktion auf, auf das schon Hume hingewiesen hatte: Induktive Schlüsse sind nicht imstande die Wahrheit zu garantieren. Aus einer Anzahl n positiver Fälle für eine allgemeine Hypothese kann man nicht auf die Wahrheit der Hypothese für den Fall n + 1 schließen. Es kann also nicht gelten: „Für jedes x, wenn x ein Schwan ist, dann ist x weiß“. Da induktive Aussagen das Erfordernis der Allquantifizierung nicht erfüllen (können), scheitert auch die logisch-empirische Verifikation. Das gleiche Schicksal trifft die logisch-empirische Reduktion. Sie entlarvt ihre Inkompetenz angesichts der sogenannten „dispositionalen Begriffe“, weil diese sich nicht auf beobachtungsmäßige Begriffe reduzieren lassen. Wie kann etwa „Löslichkeit“ durch die Wahrnehmung von Zucker definiert werden? 12 In diesem Kontext wird nach neuen methodischen Lösungen gesucht. So erscheint durch die Anregungen von Rudolf Carnap und Carl. G. Hempel (19051997) die Zweistufenkonzeption als eine gemäßigte Form des Empirismus. Sie besagt, dass nicht mehr alle Begriffe einer wissenschaftlichen Theorie unmittelbar an Beobachtungen anschließen. Denn es gibt sowohl Beobachtungsbegriffe als auch theoretische Begriffe wie etwa Elektron, elektromagnetisches Feld, Gen usf. Während die Beobachtungsbegriffe unmittelbar mit empirischen Wahrnehmungen verknüpft sind und über das Vorliegen eines Sachverhaltes entscheiden, werden die theoretischen Begriffe hingegen durch die Prinzipien der zugehörigen Theorie näher bestimmt und sind nur mittelbar mit Wahrnehmungen verbunden. Die nur mittelbar an die Erfahrung gebundenen Begriffe werden also deshalb zugelassen, weil man auf diese Weise Gesetze mit einem größeren Anwendungsbereich formulieren kann. Wenn man die Begriffsbildung in den Wissenschaften sehr eng mit Beobachtungsresultaten oder Messergebnissen verknüpft, dann ist man gezwungen, für jede Messmethode (etwa) der Temperatur oder Stromstärke einen eigenen Begriff anzunehmen. Selbst wenn uns die theoretischen Begriffe sehr abstrakte Theorien zu bilden erlauben, gibt es jedoch einige semantische und ontologische Unklarheiten. Wie ist die Bedeutung von theoretischen Begriffen zu verstehen? Wie sind sie mit der Erfahrung verbunden? Die Schwierigkeiten, die im Kontext des Prinzips der Verifizierbarkeit erscheinen, lassen sich durch die Einführung des Prinzips der Falsifizierbarkeit lösen, so Karl Popper (1902-1994), der dem Wiener Kreis zwar nahe stand, war aber zugleich ihm gegenüber kritisch. Die unter dem Zeichen der Falsifikation stehende Zeitperiode der Wissenschaftstheorie (WT) wird auch „Kritischer Rationalismus“ genannt. So schlägt Popper folgendes Abgrenzungskriterium vor: Wissenschaftliche Aussagen unterscheiden sich von nicht-wissenschaftlichen Aussagen nicht dadurch, dass die ersteren sich empirisch verifizieren lassen, sondern dadurch, dass sie immer zu ungewissen Hypothesen führen, d.h. zu den Aussagen, die durch die Erfahrung widerlegt werden können. Mit anderen Worten: Theorien werden gebildet, und dann wird gesagt, wann sie falsch sind. Wenn wir sagen „Alle Schwäne sind weiß“, so ist das eine echte wissenschaftliche Hypothese deshalb, weil sie zwar nicht verifizierbar, dafür jedoch leicht falsifizierbar ist: Wir können etwa eines Tages einen schwarzen Schwan entdecken“. Dank dem Prinzip der Falsifizierbarkeit können wir nach Popper auch das Problem der Induktion lösen: Bei der Induktion handelt es sich nicht um eine Form gültiger Argumentation. Die einzig gültige Form der Argumentation ist 13 die Deduktion, so wie sie etwa in der Logik vorkommt. Das bedeutet, die empirischen Wissenschaften sind zum einen deduktiv wie die Mathematik, zum anderen aber auch falsifizierbar. Poppers wissenschaftstheoretische Methode hat auch epistemische Auswirkungen, die aber im Kontext seiner Drei-Welten-Lehre zu verstehen sind: (1) Welt 1 – ist die physikalische Welt, zu der auch die Natur gehört; (2) Welt 2 – ist das Bewusstsein des Menschen, entstanden im Prozess der Evolution als Modus der Anpassung an die Welt 1; und (3) Welt 3 – ist das Reich der Gedanken, die sich Menschen über ihre Wirklichkeit (die Welten 1 und 2) machen, und enthält sprachliche Symbole. Die methodische Relevanz kommt also der Welt 3. Da die auf dem Prinzip der Falsifizierbarkeit aufgebaute Methode Poppers jedoch ein völlig verformtes Bild der realen Verfahrensweise der empirischen Wissenschaften darstellte, war es notwendig, sie durch andere Begriffe methodisch zu ergänzen. Zu diesem Gedanken kommt schon Popper selbst und führt in seiner Schrift „Objective Knowledge“ den Begriff „Wahrheitsähnlichkeit“ ein: Man kann niemals sicher sein, dass eine wissenschaftliche Hypothese wahr ist, sondern lediglich wahrheitsähnlich. Als solche kann man sie dann in die wissenschaftlichen Disziplinen integrieren. Übereinstimmend mit der Kritik Poppers, dass die induktive Argumentation nicht imstande sei, absolut sichere Schlüsse zu garantieren, bemüht sich hingegen der spätere Carnap eine „induktive Logik“ zu entwickeln, die das induktive Verfahren nicht ganz abwertet, sondern mit dem Begriff „Wahrscheinlichkeit“ verbindet. So hat die induktive Argumentation einen probabilistischen Charakter, und der Begriff der Wahrscheinlichkeit ist von der Wissenschaftstheorie (WT) zu klären. Für die klassische Phase der WT ist auch das DN-Modell (=deduktivnomologisches Modell) der wissenschaftlichen Erklärung von Carl Gustav Hempel und Robert Oppenheim charakteristisch. Es wird davon ausgegangen, dass alle wissenschaftlichen Erklärungen eine einheitliche Struktur besitzen. Dabei sind zwei Elemente entscheidend: (1) Das Explanandum (E) – ist die Beschreibung des Sachverhalts, der erklärt werden soll; und (2) das Explanans – besteht aus zumindest einem allgemeinen Gesetz (G) (bzw. einer Theorie) und den Beschreibungen der Antezendenzbedingungen (A1, A2, 14 An) (d.h. Anfangs- bzw. Anwendungsbedingungen) dieses Gesetzes. Das Explanans muss zudem (empirisch) gut bestätigt und wahr sein. So ergibt sich daraus z.B. folgende konkrete Konstellation: G: Wenn Metalle erhitzt werden, dehnen sie sich aus. A1: Kupfer ist ein Metall. A2: Dieses Stück Kupfer wird erhitzt. E: Dieses Stück Kupfer dehnt sich aus. Als Hempel 1960 klar wurde, dass nicht alle wissenschaftlichen Erklärungen eine deduktiv-nomologische Form haben, weil in vielen Fällen die streng allgemeinen Gesetze (noch!) nicht bekannt sind, die eventuell als Prämissen gelten könnten, schlug er das IS-Modell (= induktiv-statistisches Modell) der wissenschaftlichen Erklärung vor, das auf dem Prinzip der Wahrscheinlichkeit beruht. Dieses Modell sieht also vor, dass in einer Erklärung die Prämissen aus statistischen Gesetzen bestehen können, die es uns erlauben, zusätzlich zu den besonderen Bedingungen das Explanandum mit großer Wahrscheinlichkeit durch Induktion zu folgern. Das Modell der wissenschaftlichen Erklärung bringt jedoch einige ernsthafte Probleme mit sich, die vor allem mit der Natur des Gesetzes verbunden sind: Die Gesetze sollen wahr und gut bestätigt sein. (1) Lawlikeness-Problem (Problem der Gesetzesartigkeit) – es geht darum, die formalen Kriterien zu bestimmen, welche eine beliebige Aussage erfüllen muss, um unabhängig von der Frage der Wahrheit als Gesetz betrachtet zu werden. So werden folgende Kriterien (K) diskutiert: (a) K der allquantifizierten Konditionalaussage – ein Gesetz muss stets die logische Form einer verallgemeinerten Konditionalaussage haben, z.B. „Alle Schwäne sind weiß“. Also: Ɐx(Px→Qx), wobei gilt: Ɐ = Allquantor, P = Schwan sein, Q = weiß; (b) K der Nichtspezialität – ein Gesetz darf sich weder auf die Eigennamen (z.B. John) noch auf die bestimmte raum-zeitliche Bereiche (z.B. Marienplatz in München) beziehen; (c) K der Kausalität – ist auch nicht ganz überzeugend; und 15 (2) Problem der Bestätigung – ergibt sich aus der Tatsache, dass wir keine absolute Garantie haben können, dass eine allgemeine Aussage (z.B. „Alle Schwäne sind weiß“) wahr ist. Wir können nur eine gute Bestätigung haben, weil alle Schwäne, die wir bis jetzt gesehen haben, sind weiß. Indes behauptet Nelson Goodman, die Bestätigungsrelation zwischen den positiven Instanzen und dem allgemeinen Gesetz führe generell nicht zu einer eindeutigen Auswahl des in Frage stehenden Gesetzes. Denn es werden immer andere allgemeine Aussagen geben, die niemand intuitiv als ernsthafte Gesetze akzeptieren würde, die aber gleichfalls durch dieselben positiven Instanzen bestätigt werden, z.B. „Alle Schwäne sind rot“.