statistik for runaways – Skript zur VD – Prüfung 2. 1 Hager SS 2000 Wissenschaftstheoretische Grundlagen Zusammenfassung „Westermann“ Im Folgenden soll das Kapitel „Wissenschaftstheoretische Grundlagen der experimentellen Psychologie“ im Lüer (beschränkt auf die oben angegebenen Seiten) zusammengefasst werden. INHALT: 2.1 EINLEITUNG ........................................................................................................................................ 1 2.2 DER LOGISCHE EMPIRISMUS (CARNAP) ............................................................................................... 4 2.3 DER KRITISCHE RATIONALISMUS (POPPER) ........................................................................................ 6 2.4 DIE NORMALWISSENSCHAFTLICHEN UND REVOLUTIONÄREN FORSCHUNGSEPISODEN (KUHN) ............ 9 2.5 DIE METHODOLOGIE WISSENSCHAFTLICHER FORSCHUNGSPROGRAMME (LAKATOS) ...................... 10 2.6 ZUSAMMENFÜHRUNG ........................................................................................................................ 13 2.1 Einleitung Zunächst wird eine Abgrenzung zur naiven Psychologie aufgebaut. Was unterscheidet die naive alltags Wissenschaft „Psychologie“ von einer universitären Wissenschaft. Um diese Frage zu beantworten stellt Westermann drei neue Fragen: - Was ist eine Wissenschaft? - Wodurch zeichnet sich eine wissenschaftliche Erkenntnis aus? - Was unterscheidet eine nicht-wissenschaftliche von einer wissenschaftlichen Psychologie? Die Antwort, fragt man führende Psychologen, ist meist: Die Art des Wissens und vor allem aber die Methoden, die zu einem solchen Wissen führen. (vgl. Taxel 1974) So ist eine typische Methode die Beobachtung, insbesondere das Experiment, welches durch kontrollierte und systematisch variierte Bedingungen zu wissenschaftlichen Erkenntnissen gelangt. Dieses Wissen wird dann über Hypothesen in Modelle oder Theorien überführt, die dann einen deutlichen Unterschied zur nicht wissenschaftlichen Erkenntnisbereichen darstellen. Die Modelle und Theorien der Wissenschaft sind in einem höchst möglichen Grad verallgemeinert, sachlich und formalisiert. Gerade wegen dieser Art der Darstellung von Erkenntnis, vor allem aber wegen den „objektiven“ Methoden wird dieser Art von Wissen mehr Vertrauen entgegengebracht, als dem nicht wissenschaftlichen Wissen. Was nun aber eigentlich Theorien, Hypothesen etc. sind, warum die wissenschaftliche Erkenntnis besser bewertet wird und wie und wann Erkenntnis als solche bestehen darf, damit befasst sich die Wissenschaftstheorie. Diese ist der Philosophie zugeordnet und geht u.a. zurück auf Kant. Sie kann als eine Art Metatheorie bezeichnet werden, die über Zweigen wie der Psychologie anzusiedeln sind. Sehr grob lassen sich die Ströme der Wissenschaftstheorie in vier Hauptrichtungen unterteilen, die man in einem zweidimensionalen Koordinatensystem darstellen kann: statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Die Gegensatzpaare dieses Systems sind: a (a) Realismus vs. (b) Idealismus (c) Empirismus vs. (d) Rationalismus d c b Zu a: Realistische Erkenntnistheorien nehmen an, dass es eine von uns unabhängige Wirklichkeit gibt, die wir wahrnehmen aber auch durch Denken erkennen können. Zu b: Idealistische Theorien nehmen dagegen an, dass es auch eine geistige Wirklichkeit geben kann. Sie leugnen, dass eine von uns unabhängige Wirklichkeit erkennbar ist oder dass es eine solche überhaupt gibt. Zu c: Die empirischen Erkenntnistheorien sehen die alleinige oder wichtigste Quelle menschlicher Erkenntnis in der sinnlichen Wahrnehmung. Zu d: Rationalisten sehen demgegenüber die Quelle aller Erkenntnis in der Vernunft und dem Verstand begründet und nicht in der sinnlichen Erfahrung. Eine besondere Rolle nehmen dabei die sog. Skeptiker ein. Diese leugnen, wenn nicht Erkenntnismöglichkeiten überhaupt, dann zumindest auf bestimmten Gebieten. Aus der Erkenntnistheorie entwuchs dann die sog. Wissenschaftstheorie. Diese wurde anfangs durch empirische Ansätze dominiert, wobei der logische Empirismus (vgl. Wiener Kreis) eine besondere Rolle eingenommen hat. Diese Vorherrschaft wurde dann vom kritischen Rationalismus abgelöst. Je nach erkenntnistheoretischer Grundlage wird dann die Rolle wissenschaftlicher Theorien gesehen: (a) Realisten würden in einer Theorie zumindest den Versuch sehen, einen Teil der Wirklichkeit abzubilden. (b) Idealisten bewerten den Wert einer Theorie eher nach dem Nutzen den sie bringt, indem sie als Möglichkeit zur Ableitung von Vorhersagen und praktischen Handlungsanweisungen dient. (c) Der Empirist fasst in einer Theorie lediglich die Erkenntnisse zusammen, die ihm ein Experiment oder eine Beobachtung erbracht haben. Diese Erfahrungen sollten dabei möglichst zuverlässig erworben sein. (d) Der Rationalist stellt eher die Entstehung von Experimenten in den Vordergrund, indem er davon ausgeht, dass einer Beobachtung stets eine Theorie 2 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 vorausgeht. Also die Erkenntnis, die auf Grund von Experimenten machen, sei letztlich auf Theorien und Hypothesen rückführbar, die rational entstanden sind. Diese dargestellten Richtungen stellen also zunächst nichts weiter da, als Theorien über Theorien. Zusammenfassend kann man also die Wissenschaftstheorie auch als Metatheorie bzw. deren Richtungen als Metatheorien darstellen. Genauso gibt es aber auch Theorien über Methoden, die man analog als MetaMethodenlehre oder Methodologie bezeichnet. In den meisten Ansätzen der Wissenschaftstheorie finden wir eine Dominanz einer dieser beiden Richtungen vor. So legt der logische Empirismus bzw. die aus ihm hervorgegangene analytische Wissenschaftstheorie besonderen Wert auf metatheoretische Fragen und deren Verbindung mit der Empirie. Der kritische Rationalismus (Popper) hingegen setzt den Schwerpunkt eher auf methodologische Fragen, wie z.b. Theorien aufstellen, prüfen und ändern kann. Ein weiteres Unterscheidungsmerkmal liegt darin, dass einige Ansätze eher normativ und apriorisch vorgehen und andere dagegen quasi- empirisch (Lakatos). Zur Erinnerung: - a priori: aus der Vernunft abgeleitet. Logische Schlussfolgerung. - A posteriori: Von dem Erfahrenden, Beobachteten abgeleitet. Die aprioristischen Ansätze verlangen also von der Wissenschaftstheorie, dass sie adäquate Vorgehensweisen und Regeln ableitet, nach denen sich die tatsächliche Wissenschaft richten kann. Dieser Aspekt ist gerade bei Popper und Carnap stark ausgeprägt. Das Problem zeigt sich allerdings darin, dass Adäquatheit oder Inadäquatheit nicht logisch ableiten lässt. Man ist also darauf angewiesen Inadäquatheit zu bestimmen, indem man Theorien an der tatsächlichen Wissenschaft misst. Daraufhin kann dann die Theorie als zu eng oder zu weit beschrieben werden. Letztlich ist also dann die tatsächliche Wissenschaft eine Art Schiedsrichter über wissenschaftliche Theorien. Dieser Art der Bewertung von Wissenschaftstheorie ist dann aber quasi- empirisch. Lakatos will so zeigen, dass alle aprioristischen „Gesetze“ im Schiedsspruch der tatsächlichen Wissenschaft abgelehnt werden müssten. Kuhn bietet daher eine Alternative an, in der er auf jegliche Arten normativen Vorgehens uns logischer Analysen verzichtet. Dies führt allerdings zu erheblichen Schwierigkeiten, wie später gezeigt werden wird. Kuhns und auch Lakatos quasiempirische Betrachtungsweise wurde durch J. Sneed weiter geführt, der eine strukturalistische Theorienkonzeption vorgeschlagen hat. Diese erlaubt sowohl diese quasiempirische Ansätze, genügt dabei aber den strengen Anforderungen analytischer Wissenschaftstheoretiker, die diese an die logische Konsistenz von Theorien haben. Dabei liegt der Bezug wohl eher auf der von Popper vorgeschlagenen logischen Konsistenz. Häufig taucht der Begriff der Rekonstruktion auf, womit die Rekonstruktion einer Theorie aus der tatsächlichen Wissenschaft gemeint ist. Diese Vorgehensweise soll mehr Klarheit verschaffen, wo sich Lücken und Probleme einer Theorie auftun und soll vor allem zeigen, dass Wissenschaftstheorie nicht dazu da ist Regeln und Verbote aufzustellen, sondern allenfalls korrigierenden Einfluss haben sollte. 3 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Dies ist als entscheidender Beitrag anzusehen, den Westermannn in die Wissenschaftstheorie, insbesondere zum Strukturalismus, eingebracht hat. Dies wird auch als wechselseitiger Rückkopplungsprozess bezeichnet, der zwischen Metatheorie und Substanz entstehen soll. Westmeyer betont in diesem Zusammenhang, dass ein empirischer Befund niemals abgelehnt werden darf, nur weil er nicht in einer wissenschaftstheoretischen Konzeption rekonstruiert werden kann. (So auch Popper: wenn Empirie der Theorie wiederspricht, dann eher an der Theorie zweifeln. Falsifizierung) 2.2 Der logische Empirismus (Carnap) Die Grundüberzeugung empiristischer Wissenschaft liegt in der Annahme, dass alle wissenschaftlichen Aussagen, entweder analytisch oder synthetisch sind. Analytische Urteile oder Aussagen basieren rein auf logischen Ableitungen und sind daher gegenüber jeder Erfahrung oder Beobachtung immun. Synthetische Urteile sind demgegenüber sind nur aus der Beobachtung abgeleitet und lassen sich nur durch diese bestätigen. Dieses Prinzip wird auch verifizieren genannt. Verifiziert ist eine Aussage, wenn sie sich aus einer oder mehreren Beobachtungen (oder Protokollsätzen) ableiten lässt. Protokollsätze sind Sätze über direkt Beobachtbares, welche von theoretischen Annahmen völlig frei sind. Die Wahrheit dieser Sätze soll eindeutig und mit Gewissheit erkennbar sein. Da solche Protokollsätze fehlerfrei und unbeeinflusst das Gegebene wiedergeben sollen, kann man den logischen Empirismus auch als Positivismus verstehen. Somit sind im logischen Empirismus Experimente und Beobachtungen die Basis jeder Wissenschaft, da sie Ergebnisse im Sinne von Protokollsätzen wiedergeben bzw. liefern sollen. Da es aber nicht genügt nur zu beobachten, müssen aus diesen Beobachtungen auch schlussfolgernd auch allgemeine Gesetze formuliert werden. Somit geht nach Carnap der Wissenschaftler induktiv vor. Er schließt vom individuellen (speziellen) Einzelfall auf das Allgemeine: Induktionsprinzip (vgl. hierzu Popper, der sagt, dass ein solches Vorgehen böse böse ist, da es logisch nicht zu rechtfertigen sei. Nach Popper führen alle induktiv gezogenen Schlüsse und Gesetzmäßigkeiten zu Widersprüchen oder in eine endlose Kette von Begründungen (auch infiniter Regress genannt). Popper hält also nur eine deduktive Vorgehensweise für angemessen.) Carnap gesteht ein, dass sich die induktivistische Vorgehensweise nicht logisch ableiten lässt, und dass Entwicklungen von Beobachtungen immer auf theoretischen Überlegungen basieren. Außerdem würden Theorien stets danach bewertet werden, ob sie sich in der Empirie bewähren. Trotzdem hat Carnap versucht ein Model der induktiven Logik aufzustellen, wie also ein rationaler Mensch von einer Beobachtung zu allgemeinen Sätzen, Theorien oder Hypothesen gelangen kann. Diese Bemühungen haben jedoch nie zu einem praktikablen Ergebnis geführt. Lakatos meinte hierzu, dass genau aus diesem Grunde nur Provinzialisten und Ungebildete die induktivistische Theoriekonzeption anwenden würden. Auch nett. 4 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Das bislang aufgezeigte Bild könnte die Vermutung nahe legen, dass der logische Empirismus seinen Schwerpunkt in der Methodologie sieht. Viel mehr ist dieser Ansatz allerdings an dem Aufbau wissenschaftlicher Theorien selbst interessiert. Die dadurch entstandene Metatheorie hatte so nachhaltigen Einfluss, dass sie u.a. von Hempel als Standartkonzeption bezeichnet wurde. Diese Art der Konzeption ist in drei wesentliche Schritte aufgeteilt: 1. Eine Theorie muss in einer normativen Form, der Aussagen und Prädikatenlogik zusammengefasst werden. 2. Die mit diesen logischen Thermen verknüpften Begriffe gliedern sich in theoretische Begriffe und Beobachtungsbegriffe. 3. Die Theoretischen Begriffe müssen vollständig auf die Beobachtungsbegriffe zurückgeführt werden können. Pro & Contra Gerade die geforderte totale Axiomatisierung der Theorien führte zu einer ausgiebigen Diskussion über Vor- und Nachteile. Zusammenfassend sollen diese kurz dargestellt werden. Der Große Vorteil einer möglichst starken Axiomatisierung liegt in der Abgrenzung der Theorie in ihrer Anzahl an Axiomen, die Annahmen werden einfach deutlicher, da sie eindeutig miteinander verbunden sind und die Bedeutung der Verknüpfungen ist eindeutig festgelegt. Die große Kritik an diesen Vorstellung ist, dass sie rein theoretisch seien, da in der tatsächlichen Wissenschaft oft nicht eindeutig ist, ob bestimmte Beobachtungen in eindeutige einzelne Axiome ableitbar sind. Oft gibt es verschiedene (gleich – logische) Möglichkeiten und damit auch mehrere zur Bildung von Axiomen. Damit wäre eine Eindeutigkeit nicht mehr gegeben. Die Grundbegriffe der Axiome könnten nur selten explizit erläutert werden, und damit blieben sie undefiniert. Eine wirkliche Entsprechung der Forderung nach Axiomatisierung sei eigentlich nur bei trivialen Zusammenhängen denkbar. Eine gute Möglichkeit konnte gezeigt werden, als man dieser Form der Axiomatisierung auf informelle und Mengentheoretische Weise durchführte. Besonders abzulehnen ist allerdings die Forderung nach dem Zusammenhang der Begrifflichkeiten. (Theoretische Begriffe sind ableitbar aus Beobachtungsbegriffen). Vgl. Beispiel Intelligenz. Es wird gezeigt, dass es eine Menge von Objekten gibt, die nicht direkt beobachtbar sind. Daher forderte Carnap lediglich Rdeuktionssätze, wenn sog. Dispositionsprädikate (wie Intelligenz), als Zuordnungsregeln. Für die Intelligenz bedeutet dies, dass nicht Intelligenz dasselbe ist, was eine Intelligenztest ausspuckt, sondern dass das was er ausspuckt gleich der Intelligenz sein soll. Somit ist Intelligenz nur noch dann definiert, wenn ein Test durchgeführt wurde. Dies ist eine große Einschränkung demgegenüber, was der logische Empirismus eigentlich fordert. Probleme: - Der Begriff ist nur noch partiell definiert - Die Definition ist stark determiniert. Sie hängt also von gewissen Grenzen oder empirischen Ergebnissen ab - Gerade in der Psychologie lässt man mehrere Methoden, zur Messung einer theoretischen Eigenschaft zu. 5 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Daraus lässt sich ableiten, dass es immer mehrere Reduktionssätze für eine theoretisches Merkmal geben kann. (Starker Verlust der Eindeutigkeit). Aber auch diese Erweiterung ist fragwürdig, da Forscher nicht automatisch ein Merkmal einer Person zusprechen wird, nur weil ein Reduktionssatz zutrifft. Somit liegt hier eine starke Inkonsistenz vor. Dieser kann man eigentlich nur begegnen, wenn man nicht deterministisch vorgeht, sondern Reduktionssätze als Wahrscheinlichkeitsaussagen interpretiert. Andererseits müsste man bereit sein die Zusammensetzung auf Grund der empirischen Ergebnissen zu revidieren. Insgesamt müsste in allen Fällen von den Forderungen Abstand genommen werden, dass Theoretisches durch Zuordnungsregeln eindeutig und vom Empirischen unabhängig ist. Ein zweites Problem liegt in der sog. Zweisprachenkonzeption. Carnap gibt eine einheitliche Wissenschaftssprache auf und unterscheidet zwischen theoretischer Sprache (LT) und Beobachtungssprache (Lo). Damit will er die beiden Ebenen, die man sich auch als zwei übereinanderliegende Netze Vorstellen kann, getrennt betrachten. Oben liegt ein Netz der Theorie, deren Knoten Grundbegriffe (oder definierte Begriffe) und Fäden Axiome darstellen (oder abgeleitete Aussagen) darstellen. Das untere Netz stellt nun die empirische Ebene dar, deren Knoten Variablen und Fäden Zusammenhänge zeigen. Durch die Zuordnungsregeln sollen nun vertikale Verbindungen zwischen beiden Ebenen geschaffen werden. Sollen mit diesem Konzept allerdings direkt beobachtbare Objekte abgegrenzt werden, so scheint dies kaum möglich. Vielmehr bewegen wir hier stets auf einem Kontinuum von direkt bis indirekt beobachtbar. 2.3 Der Kritische Rationalismus (Popper) Popper schließt unmittelbar an die Idee der Verifikation an, indem er sie ablehnt. Dies begründet er damit, dass er keine der beiden Vorraussetzungen für gegeben hält, die solche Schlüsse erfordern: 1. Die Beobachtungsbasis müsste theorieunabhängig sein. 2. Verifikation setzen eine Rechtfertigung zum induktiven Schluss voraus. Nach Popper ist vielmehr das Gegenteil der Verifikation der richtige Weg, sondern die Falsifizierbarkeit einer Aussage das entscheidende Kriterium, ob sie eine sinnvolle Aussage empirischer Wissenschaft ist. D.h., dass Aussagen und Theorien der empirischen Wissenschaft an der Erfahrung scheitern können müssen. Es stellt sich die Frage, wie man aus einem Satz über eine Erfahrung ‚B’ einen Schluss bzgl. einer Theorie ‚H’ ziehen kann. Popper beantwortet dies unter Verwendung der Schlussregel modus tollens der Aussagenlogik. Hieraus geht hervor, dass wenn aus ein B ein nicht H hervorgeht, dann gilt auch umgekehrtes: B H H B Poppers gesamte Wissenschaftsmethodologie beruht auf diesem Prinzip der Falsifizierbarkeit. So sollen also Theorien und Hypothesen das Eintreten bestimmter 6 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Beobachtungen verbieten. Tun sie dies nicht, so passt die Theorie nicht zu den gefundenen Daten. Dabei möchte er methodologische Regeln aufzeigen, die die empirische Wissenschaft leiten sollen. Dabei unterscheidet Popper nicht zwischen Begriffen der Theorie und der Hypothese, sondern er verlangt, dass alle Sätze, Aussagen etc. die Form von unbegrenzten Allsätzen haben. Durch diese Unbegrenztheit (von Raum Zeit) beziehen sich diese Allsätze auf eine unbegrenzte Menge von Einzelfällen. Sie sind somit lediglich Falsifizierbar und nicht verifizierbar. Daher kann wissenschaftliche Forschung nicht das Ziel haben, die Wahrheit von Aussagen zu beweisen. Rationalität bedeutet daher für Popper die kritische Überprüfung von Hypothesen und Theorien, worin er auch den Sinn von Experimenten sieht. (vgl. Carnap, der den Sinn von Exp. darin sieht, Protokollsätze zu liefern, die verallgemeinert werden) Popper betont, dass theoriefreie Beobachtung nicht möglich ist. Daher haben alle Daten eine theoretische Grundlage und sind nur mit einer solchen sinnvoll interpretierbar. Somit kommt den Theorien und nicht den Daten ein gewisses Primat zu: deduktivistisch. Somit sollte die Bezeichnung „kritischer Rationalismus“ nun deutlich sein: rational, da man von einer Theorie ausgeht, dann Daten erhebt, die dann für oder gegen die Theorie sprechen. Kritisch, da es nicht das Anliegen ist die Wahrheit zu finden, sondern Theorien zu stützen, aber nie endgültig zu beweisen. Theorien und Hypothesen bleiben Vermutungen über die Wirklichkeit, die es gilt immer wieder zu prüfen. Bestätigen sich nun abgeleitete Hypothesen bei ihrer empirischen Überprüfung, so können wir verifizieren. D.h. wir behalten diese Theorie so lange bei, wie wir keine negativen Befunde haben. Bei negativen Ergebnissen ist die Hypothese und damit auch die Theorie aus der sie deduziert wurde falsifiziert. Da sich eine Theorie, die zunächst angenommen wird, immer auch noch verworfen werden kann, sobald negative Befunde gemacht werden, sprechen wir auch davon, dass sich eine Theorie, solange sie zu positiven Ergebnissen führt, bewährt. Der Zusammenhang von Verifikation und Falsifikation ist allerdings als asymmetrisch zu betrachten. Wenn sich eine Theorie bestätigt, dann können die Daten verifiziert werden, die Theorie hat sich aber lediglich bewährt. Ein negativer Befund führt dagegen zur Falsifikation der Daten und auch der Theorie. Genauso wenig, wie die absolute Richtigkeit einer Theorie nachgewiesen werden kann, ebenso wenig können wir die Falschheit zeigen. Es liegt immer in der Hand des Forschers, was er mit einer falsifizierten Theorie macht. Meist bietet es sich an sie zu modellieren. Man sieht, dass sich Poppers Wissenschaftsverständnis als Vorschlag an Wissenschaftler richtet. Seine Regeln sind Leitlinien, also stark konventionalistisch. Die wichtigsten Aspekte: Basissätze. Dies sind Aussagen über Zusammenhänge von Theorie und Beobachtung. So liegt dem modus tollens der folgende Basissatz zu Grunde: B bedeutet, dass zu einem Zeitpunkt t ein Ereignis x gibt. Entsprechendes gilt dann für das Gegenereignis B. Dies lässt sich aus einer Hypothese/Theorie ableiten. Diese Basissätze sind dann allgemein anerkannt, obwohl sie weiterhin hypothetischen Charakter. Da solche Basissätze nur selten zu finde sind, werden Hypothesen oft probabilistisch formuliert. D.h. es wird kein deterministischer Zusammenhang formuliert, sondern dass die Wahrscheinlichkeit eines Ereignisses B hoch ist, wenn ein anderes A ebenfalls besteht. Dabei bleibt sogar der Wert von B meist offen. Deshalb verbieten 7 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 probabilistische Aussagen keine Beobachtung und sind daher strenggenommen nicht falsifizierbar. Popper spricht daher von praktischer Falsifizierung. Daher entstand die Konvention, dass wenn mehrere Beobachtungen in einen bestimmten Wahrscheinlichkeitsbereich (Signifikanzniveau) fallen, zur Ablehnung einer Theorie führen können. Da aber auch deterministische Aussagen oftmals nicht ausreichen, um Ereignisse vorherzusagen, müssen oftmals Zusatzannahmen gemacht werden. Somit ergänzt sich der Satz aus H folgt B zu: aus (HZ) folgt B. Solche Zusatzannahmen sind dabei nicht als Zuordnungsregeln wie bei Carnap zu verstehen, sondern viel mehr als Hilfshypothesen. In Z enthalten, sind sämtliche Annahmen, die wir vor oder während einer Beobachtung machen. Entsprechend der Aussagenlogik können wir auch folgende Beziehung annehmen: Aus B folgt (HZ). Popper wehrt sich allerdings dagegen, dass dies auch gleichbedeutend mit: aus B folgt (H B). Dann könnten negative Befunde stets auf die Falschheit der Zusatzannahmen zurückgeführt werden. Deshalb schlägt Popper vor, sämtliche Zusatzannahmen, die gemacht werden, per Konvention als unproblematisch hinzunehmen. Dabei muss beachtet werden, dass diese Konvention sehr streng ist, da es oft auch Sinn machen kann, an den Zusatzannahmen zu zweifeln, als sofort die Theorie zu verwerfen, da so schnell auch richtige Erkenntnisse falsifiziert werden können. Daher betonen spätere kritische Rationalisten und auch Popper selber, dass eine Theorie nur dann ersetzt wird, wenn eine bessere aufgestellt werden kann. Eine solche „bessere“ Theorie erhalten wir, wenn folgende Bedingungen erfüllt sind: 1. Die neue erfüllt alle Fakten, die auch die alte erfüllt hat. 2. Die neue steht mit den widersprechenden Basissätzen der alten, zumindest mit einigen, im Einklang. 3. Die neue erlaubt neue Ableitungen von Hypothesen, die streng geprüft werden können. 4. Diese müssen sich bewähren. Die ersten drei Bedingungen fassen den höheren empirischen Gehalt einer neuen Theorie zusammen, den sie haben sollte. Dieser meint vor allem, dass es mehr widersprechende Basissätze geben muss, die zu einer Falsifizierung führen können. Denn je mehr es davon gibt, desto sicherer kann es eingestuft werden, wenn sie sich bewährt. Weiter meint der empirische Gehalt, dass es mehr prüfbare Hypothesen gibt, die eine neue Theorie liefert und sie damit präziser ist. Je „besser“ eine Theorie ist, desto höher sollte auch ihr Falsifikationsrisiko sein, dem wir sie aussetzen. Es kann aber nicht das Ziel der Wissenschaft sein Theorien mit möglichst hohem Falsifikationsrisiko zu finden. Vielmehr sollte man auch faire Bewährungschancen gebe, was jedoch bei Popper vernachlässigt wird. Hier geht es eher darum, dass je größer die Strenge ist, unter der einer Beobachtung steht, desto höher ist der Grad der Bewährung einzustufen. Dies sollte man aber nicht damit verwechseln, wie wahrscheinlich deren Richtigkeit ist. Unter Strenge versteht Popper die Höhe des empirischen Gehaltes. Umgangssprachlich bedeutet dies, dass es die Hypothese mit zunehmender Strenge schwerer hat sich zu bewähren. Den Begriff der Wahrheit bringt Popper unter der Idee einer Wahrheitsnähe ins Spiel. Nicht wie bei einem tautologischen Schluss durch logische Gewissheit ergibt sich Wahrheit, sondern je höher der empirische Gehalt einer Theorie ist, die sich bewährt hat, desto wahrheitsnäher ist sie. 8 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Popper vertritt also eine sehr realistische (es gibt eine Wahrheit, die wir erkennen können) und erkenntnistheoretische Grundposition. Diese ist kritisch, da er zunächst alle Versuche, diese echte und unabhängige Wirklichkeit zu beschreiben, als falsch und unvollständig ansieht. 2.4 Die normalwissenschaftlichen und revolutionären Forschungsepisoden (Kuhn) Kuhn setzt im Gegensatz zu den bisher kenngelernten Ansätzen nicht auf eine logische Ableitung von Theorien. Bei ihm stehen viel mehr die Begriffe der wissenschaftlichen Gemeinschaft und des Paradigmas im Vordergrund. Er behauptet, dass jede wissenschaftliche Analyse mit einer soziologischen Identifikation und der wissenschaftlichen Gemeinschaft beginnen müsste. Dadurch würden sich dann die Kriterien ergeben, die in der jeweiligen Gemeinschaft zur Theoriekonzeption angewandt werden. Um eine solche wissenschaftliche Gemeinschaft zu identifizieren nennt Kuhn drei wichtige Kriterien: 1) zwischen den Mitgliedern einer solchen Gemeinschaft muss eine sehr professionelle und vor allem vollständige Kommunikation herrschen 2) die Mitglieder müssen sich in ihren Urteilen einstimmig sein. 3) Die Ausbildung der Mitglieder muss über gemeinsame Elemente erfolgen. Um die im dritten Punkt angesprochenen Gemeinsamkeiten zu verbinden führt Kuhn den Begriff des Paradigmas ein, dessen allgemeine Bedeutung ein „einheitliches wissenschaftliches Weltbild“ ist. Kuhn differenziert das allgemeine Paradigma (disziplinäres System) von einem speziellen Paradigma. Im allgemeinen stecken Grundüberzeugungen, Gesetze, Modelle, normen und Werte etc. die von den Mitgliedern als allgemeingültig anerkannt sind. Diese Paradigmen haben eine wichtige Funktion auch im Sinne der Ausbildung neuer Mitglieder. So erhalten alle den gleichen Kenntnisstand über die Gemeinschaft und forschen in gleicher Weise. Diese starke Ablehnung normativer Vorgehensweisen soll in erster Linie dazu führen, dass der Forscher stets bemüht ist neue bessere Theorien zu suchen, da er nie genau weiß, ob sein Versuch die Wirklichkeit zu beschreiben richtig ist. Denn auch Kuhn sieht das Problem, dass jede Wissenschaft oder wissenschaftliche Gemeinschaft versucht die Wirklichkeit in der Enge der gelieferten Begriffsschubladen zu beschreiben. Gerade weil ein Forscher nicht an Theorien, sondern nur an sein Paradigma gebunden sei, muss er den Ausschnitt der Wirklichkeit mit äußerster Präzision betrachten. Trifft er dabei auf sog. Anomalien, die nach Popper zur Zurückweisung der Theorie führen, sollte dies nicht zur Ablehnung des Paradigmas führen. Wenn eine Anomalie auftaucht, so liegt dies nicht an einem falschen Paradigma, welches ihn schließlich überhaupt dorfhingebracht hat, sondern diskreditiere den Wissenschaftler. Diese Ansicht ist gerade der Popperschen Sicht entgegengesetzt. Kuhn unterstreicht dies indem er sagt: „es ist ein schlechter Zimmermann, der seinem Werkzeug die Schuld gibt.“ Wenn der Wissenschaftler auf eine Anomalie trifft, die Anerkannt ist, so hat er seine Paradigmentheorie so abzuändern, dass diese trotzdem zu erklären ist. Bleibt aber 9 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 auch dann diese Anomalie bestehen und ist nicht mit den Paradigmen in Einklang zu bringen, so kann dies zu einer Phase der außerordentlichen Wissenschaft führen, in der sich widersprechende Paradigmen nebeneinander existieren. Sollte auch so nicht über die Zeit eine Lösung im Sinne der alten Paradigmen gefunden werden, so kann es zur wissenschaftliche Revolution kommen. Dies bedeutet, dass ein altes durch ein neues Paradigma ersetzt werden muss. Eine solche Revolution ist nicht das gleich wie die bloße Veränderung eines Paradigmas. Wird ein Paradigma verändert, so bleibt die Wissenschaft an sich die gleiche. Nach einer Revolution hat sich alles geändert. Die Methoden, die Gesetze, Grundannahmen etc. Vertreter unterschiedlicher Paradigmen hält Kuhn nicht für total unverträglich, sondern vergleichbar wie die Übersetzung zweier Sprachen. Eine totale Übersetzung gibt es nicht. Im Gegensatz zu Popper sieht er aber in der Weiterentwicklung nicht eine fortschreitende Näherung an die Wahrheit, sondern eher eine Entfernung vom Primitiven (vgl. Darwin). Dabei wird die Theorie genauer, spezieller oder kann korrektere Problemlösungen bieten. Sehr schön ist der Gedanke, dass nicht Theorien oder Paradigmen rein logisch oder analytisch abgeleitet werden. Oft entstünden und vor allem bestünden einige, weil es eine Masse gibt, die eben diese behaupte. Er führt hier also die Wirkung von Überredung und Massenpropaganda an. Die Übehrschrift sollte nun auch deutlich sein. Die normalwissenschaftliche Episode ist diejenige in der die Paradigmen nicht durch hartnäckige Anomalien gestört werden und die revolutionären eben die, in der eine wissenschaftliche Gemeinschaft sich umkrempelt und ganz neu wird. 2.5 Die Methodologie wissenschaftlicher Forschungsprogramme (Lakatos) Der Ansatz von Lakatos kann als Versuch angesehen werden, die Falsifikationstheorie von Popper mit dem Paradigmenkonzept von Kuhn unter einen Hut zu bringen. Lakatos sieht in der Falsifikationsidee einen sehr fruchtbaren Ansatz, hält aber die sehr extreme Haltung Poppers, dass nicht nur falsifiziert wird, wenn eine bessere Theorie in Aussicht steht, sondern es auch sein kann, dass eine Theorie ganz verworfen wird, für naiv. Lakatos sagt, dass es nur Sinn macht zu falsifizieren, wenn eine neue bessere Theorie in Aussicht steht. Lakatos betrachtet nicht einzelne Theorien, sondern Reihen von Theorien, die in Folge von Theorien entstehen. Der entscheidende Unterschied zu Popper ist, dass sich der Kern dieser Theorien nicht ändert, sondern die verwendeten Hilfshypothesen, die von mal zu mal variiert werden, um sie den Anomalien anzupassen. Eine so entstandene Theorienreihe nennt Lakatos progressiv, wenn jede Theorie einen Überfluss an empirischen Gehalt gegenüber dem Vorläufer inne hat, der sich auch bewährt. Dies ist noch relativ identisch zu Popper, allerdings erkennt Lakatos auch Theoriereihen an, deren Elemente keinen höheren empirischen Gehalt haben, oder einen der sich nicht bewährt hat. Diese nennt er dann degenerativ. 10 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Bei Popper werden „erwünschte Katastrophen“ (Falsifikation) im wissenschaftlichen Prozess erwartet. Lakatos spricht da von Forschungsprogrammen, die entstehen und nichts weiter sind als die bereits erwähnten Theoriereihen. Dabei unterscheidet er zwei Arten von methodologischen Regeln eines solchen Programms. Die einen beschreiben einen Weg den man abbrechen oder vermeiden sollte (negative Heuristik) und der andere eben den dem man folgen (positive Heuristik) sollte. Zur Beschreibung eines Forschungsprogramms ist vor allem die negative Heuristik. Sie spezifiziert einen sog. harten Kern einer Theorie, von dem nicht abgewichen wird, da er als unwiderlegbar beschlossen wurde und von daher vom Falsifikationsrisiko ausgenommen wird. Um diesen Kern herum liegen die Hilfshypothesen, die dann zu Teilen oder gar gänzlich ausgetauscht werden, um der Anomalie zu entgegnen. In einem Forschungsprogramm enthalten sind also Theorien die in aufsteigender Folge an empirischen Gehalt gewinnen. Dabei ist es nicht entscheidend, dass sich alle neuen Hilfshypothesen bewähren, solange ein Minimum an Zuwachs empirischen Gehalts gewährleistet ist. Der deutlichste Unterschied zu Popper ist damit deutlich. Popper weißt in der Regel die Theorie (den harten Kern) bei einem negativen Befund zurück und Lakatos falsifiziert die Hilfshypothesen. Der Verbund zu Kuhn mag darin bestehen, dass der hier dargestellte harte Kern eine Entsprechung zu den bei Kuhn verwendeten Paradigmen darstellt. Die positive Heuristik des Forschungsprogramms ist wesentlich weniger beschrieben. Es enthält im Prinzip eine metaphysische Idee darüber, in welche Richtung sich eine Theorienreihe entwickelt werden sollte, vor allem betont ist dabei, wie sich der falsifizierbare Teil der Hilfshypothesen gestalten sollte. Auch wenn ein solches Forschungsprogramm der positiven Heuristik entspricht, muss eine nicht progressive Entwicklung zu einer Ablehnung führen. Dies geschieht erst dann, wenn ein konkurrierendes Programm mit höherem explanatorischen – also höheren Erklärenden – Gehalt vorhanden ist. Aber auch diese Annahme kann nicht ohne Einschränkungen hingenommen werden, denn was wäre eine tolle Theorie, ohne Regeln, die Regel hat, die sich wiedersprechen. Aus innovativen Gründen kann auch ein degeneratives Programm aufrechterhalten werden, genauso wie ein solches ein „Comeback“ erleben kann, wenn man nach gewisser Zeit doch noch einen Schutzgürtel aus Hilfstheorien findet, der zu einer progressiven Entwicklung führt. Aus diesem kleinen Wirrwarr sollte hervorgehen, dass Lakatos der Ansicht ist, dass nicht ein oder wenige Experimente in der Lage sind eine Theorie zu wiederlegen. Somit kann es Entscheidungsexperimente im Lakatos’schen Sinne nicht geben. Ein Forschungsprogramm wird also erst dann abgelehnt, wenn trotz starker Bemühungen das Programm nicht progressiv gestaltet werden kann. Somit kann das Programm auch Zeiten der Degeneration haben, wenn eine Besserung in Aussicht steht. Hier wird wieder der deutliche Zusammenhang zu Kuhn deutlich. Er spricht von einer Zeit der normalen Wissenschaft (progressiv), einer Zeit der außerordentlichen Wissenschaft (degenerativ), die in eine revolutionäre Wissenschaft (Ablehnung eines Forschungsprogramms) münden kann. Lakatos bietet allerdings keine Methoden an, eine solche degenerative Entwicklung abzuwägen. Eine solche sei nur retrospektiv zu betrachten, also im nachhinein. Er bezieht sich oft in seinen Begründungen auf die Entwicklungen Physikalischer Gesetze, die oft über falsche Annahmen zu einer endgültig richtigen Gesetzmäßigkeit geführt hätten. Ein degenerierender Weg eines Forschungsprogramms zeige sich, wenn Veränderungen in den Hilfshypothesen nur noch dazu dienen, mit Anomalien fertig zu werden, dagegen aber keinen Fortschritt gegenüber der alten Hilfstheorien (empirischer Gehalt) bieten. Dabei wird, nicht von 11 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 Lakatos, aber von Hermann betont, dass die Psychologie nicht als Aneinanderreihung von Forschungsprogrammen zu verstehen ist, sondern vielmehr als Flechtwerk. Danke Hermann. Die auf J. Sneed zurückgehende strukturalistische Konzeption ist als notwendige Präzisierung und Ergänzung aufzufassen. 12 statistik for runaways – Skript zur VD – Prüfung Hager SS 2000 2.6 Zusammenführung Logischer Empirismus (Carnap) - aus Beobachtungen lassen sich Theorien etc. logisch ableiten - Verifizieren! - Induktivistisch, da die Basis in den Beobachtungen liegt - Theorien müssen entsprechend der Aussagen und Prädikatenlogik axiomatisiert werden - Formalsprachlich: Beobachtungsbegriffe und (auf erstes zurückgehende) Theoretische Begriffe - Axiomatisierung - Zweisprachenkonzeption - Standardtheorienkonzeption des logischen Empirismus Kritischer Rationalismus (Popper) - Falsifikationsmethodologie - Modus tollens: B H H B - Unbegrenzte Allsätze - Keine Wahrheit beweisen, sondern Theorie kritisch prüfen - Theorien und Hypothesen bleiben Vermutungen, egal wie gut sie durch empirische Befunde gestützt werden - Deduktivistisch - Theorien können sich nur bewähren. - Konventionalistisch (man bewegt sich auf vereinbarten Bahnen) - Deterministische Aussagen sind selten, probabilistische dagegen häufig und auch zulässig - Falsifizierung nur, wenn bessere Theorie in Aussicht, die einen höheren empirischen Gehalt hat. - Je höher der empirische Gehalt, desto größer die Strenge der Prüfung - Unsere Theorien, egal wie wahrheitsnah wir sie diese einstufen, bleiben immer Vermutungen. - Kritische, realistische und erkenntnistheoretische Grundposition. Wissenschaftstheoretische Konzeption (Kuhn) - Paradigmenkonzept - Wiss. Gemeinschaft - Normalwissenschaftliche Zeit und Zeit der Revolution - Falsifikation ist falsch, negative Befunde sind eher auf die Unfähigkeit des Forschers zurückzuführen - Möglichst wenig normative und aprioristische Vorgehensweise - Da wenig Vorschriften, viel Raum und auch Druck auf den Forsche, sich selbst zu schulen - Aspekt der Überredung. Eine Theorie wird nicht nur auf Grund analytischer und formaler Gründe angenommen, sondern auch wenn sie allgemein als wünschenswert oder richtig akzeptiert wurde. 13 statistik for runaways – Skript zur VD – Prüfung - Hager SS 2000 Eine verbesserte Theorie bzw. Paradigma nähert nicht die Wahrheit an, sondern entfernt sich vom primitiven. (Darwin) Allgemeines und spezielles Paradigma Methodologie wissenschaftlicher Programme (Lakatos) - Methodologie - Es gibt keine Falsifikation vor dem Auftauchen einer besseren Theorie - Theorienreihe, mit je besseren Hilfshypothesen - Unterscheidung von degenerativen und progressiven Theoriereihen - Solche Theoriereihen bezeichnet er als Forschungsprogramme - Forschungsprogramme haben negative und positive Heuristiken (methodische Regeln) - Negativ: harter Kern (nicht falsifizierbar), Hilfshypothesen (falsifizierbar) o Hauptunterschied zu Popper: die Hilfshypothesen werden angepasst, nicht die Theorie o Zu Kuhn: An Paradigmen wird festgehalten - Positiv: metaphysische Idee über die anzustrebenden Richtung, die ein progressives Programm haben sollte o Wird nur abgewiesen, wenn konkurrierendes Programm, mit höherem explanatorischen Gehalt vorhanden o Auch nur, wenn lange keine neuen Hilfshypothesen gefunden werden o Comeback möglich - Keine Entscheidungsexperimente möglich - Degenerativer Verlauf kann nur retrospektiv beurteilt werden - Die Wahrheit kann auch über Falsches gefunden werden 14