wiss_theo-skript-vorlesung-sehr gut

Werbung
statistik for runaways – Skript zur VD – Prüfung
2.
1
Hager SS 2000
Wissenschaftstheoretische Grundlagen
Zusammenfassung „Westermann“
Im Folgenden soll das Kapitel „Wissenschaftstheoretische Grundlagen der
experimentellen Psychologie“ im Lüer (beschränkt auf die oben angegebenen
Seiten) zusammengefasst werden.
INHALT:
2.1 EINLEITUNG ........................................................................................................................................ 1
2.2 DER LOGISCHE EMPIRISMUS (CARNAP) ............................................................................................... 4
2.3 DER KRITISCHE RATIONALISMUS (POPPER) ........................................................................................ 6
2.4 DIE NORMALWISSENSCHAFTLICHEN UND REVOLUTIONÄREN FORSCHUNGSEPISODEN (KUHN) ............ 9
2.5 DIE METHODOLOGIE WISSENSCHAFTLICHER FORSCHUNGSPROGRAMME (LAKATOS) ...................... 10
2.6 ZUSAMMENFÜHRUNG ........................................................................................................................ 13
2.1
Einleitung
Zunächst wird eine Abgrenzung zur naiven Psychologie aufgebaut. Was
unterscheidet die naive alltags Wissenschaft „Psychologie“ von einer universitären
Wissenschaft. Um diese Frage zu beantworten stellt Westermann drei neue Fragen:
- Was ist eine Wissenschaft?
- Wodurch zeichnet sich eine wissenschaftliche Erkenntnis aus?
- Was unterscheidet eine nicht-wissenschaftliche von einer wissenschaftlichen
Psychologie?
Die Antwort, fragt man führende Psychologen, ist meist: Die Art des Wissens und vor
allem aber die Methoden, die zu einem solchen Wissen führen. (vgl. Taxel 1974)
So ist eine typische Methode die Beobachtung, insbesondere das Experiment,
welches durch kontrollierte und systematisch variierte Bedingungen zu
wissenschaftlichen Erkenntnissen gelangt. Dieses Wissen wird dann über
Hypothesen in Modelle oder Theorien überführt, die dann einen deutlichen
Unterschied zur nicht wissenschaftlichen Erkenntnisbereichen darstellen. Die
Modelle und Theorien der Wissenschaft sind in einem höchst möglichen Grad
verallgemeinert, sachlich und formalisiert.
Gerade wegen dieser Art der Darstellung von Erkenntnis, vor allem aber wegen den
„objektiven“ Methoden wird dieser Art von Wissen mehr Vertrauen
entgegengebracht, als dem nicht wissenschaftlichen Wissen.
Was nun aber eigentlich Theorien, Hypothesen etc. sind, warum die
wissenschaftliche Erkenntnis besser bewertet wird und wie und wann Erkenntnis als
solche bestehen darf, damit befasst sich die Wissenschaftstheorie. Diese ist der
Philosophie zugeordnet und geht u.a. zurück auf Kant. Sie kann als eine Art
Metatheorie bezeichnet werden, die über Zweigen wie der Psychologie anzusiedeln
sind.
Sehr grob lassen sich die Ströme der Wissenschaftstheorie in vier Hauptrichtungen
unterteilen, die man in einem zweidimensionalen Koordinatensystem darstellen kann:
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Die Gegensatzpaare dieses Systems sind:
a
(a) Realismus vs. (b) Idealismus
(c) Empirismus vs. (d) Rationalismus
d
c
b
Zu a:
Realistische Erkenntnistheorien nehmen an, dass es eine von uns unabhängige
Wirklichkeit gibt, die wir wahrnehmen aber auch durch Denken erkennen können.
Zu b:
Idealistische Theorien nehmen dagegen an, dass es auch eine geistige Wirklichkeit
geben kann. Sie leugnen, dass eine von uns unabhängige Wirklichkeit erkennbar ist
oder dass es eine solche überhaupt gibt.
Zu c:
Die empirischen Erkenntnistheorien sehen die alleinige oder wichtigste Quelle
menschlicher Erkenntnis in der sinnlichen Wahrnehmung.
Zu d:
Rationalisten sehen demgegenüber die Quelle aller Erkenntnis in der Vernunft und
dem Verstand begründet und nicht in der sinnlichen Erfahrung.
Eine besondere Rolle nehmen dabei die sog. Skeptiker ein. Diese leugnen, wenn
nicht Erkenntnismöglichkeiten überhaupt, dann zumindest auf bestimmten Gebieten.
Aus der Erkenntnistheorie entwuchs dann die sog. Wissenschaftstheorie. Diese
wurde anfangs durch empirische Ansätze dominiert, wobei der logische
Empirismus (vgl. Wiener Kreis) eine besondere Rolle eingenommen hat. Diese
Vorherrschaft wurde dann vom kritischen Rationalismus abgelöst. Je nach
erkenntnistheoretischer Grundlage wird dann die Rolle wissenschaftlicher Theorien
gesehen:
(a) Realisten würden in einer Theorie zumindest den Versuch sehen, einen Teil der
Wirklichkeit abzubilden.
(b) Idealisten bewerten den Wert einer Theorie eher nach dem Nutzen den sie
bringt, indem sie als Möglichkeit zur Ableitung von Vorhersagen und praktischen
Handlungsanweisungen dient.
(c) Der Empirist fasst in einer Theorie lediglich die Erkenntnisse zusammen, die ihm
ein Experiment oder eine Beobachtung erbracht haben. Diese Erfahrungen
sollten dabei möglichst zuverlässig erworben sein.
(d) Der Rationalist stellt eher die Entstehung von Experimenten in den Vordergrund,
indem er davon ausgeht, dass einer Beobachtung stets eine Theorie
2
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
vorausgeht. Also die Erkenntnis, die auf Grund von Experimenten machen, sei
letztlich auf Theorien und Hypothesen rückführbar, die rational entstanden sind.
Diese dargestellten Richtungen stellen also zunächst nichts weiter da, als Theorien
über Theorien. Zusammenfassend kann man also die Wissenschaftstheorie auch als
Metatheorie bzw. deren Richtungen als Metatheorien darstellen.
Genauso gibt es aber auch Theorien über Methoden, die man analog als MetaMethodenlehre oder Methodologie bezeichnet.
In den meisten Ansätzen der Wissenschaftstheorie finden wir eine Dominanz einer
dieser beiden Richtungen vor. So legt der logische Empirismus bzw. die aus ihm
hervorgegangene analytische Wissenschaftstheorie besonderen Wert auf
metatheoretische Fragen und deren Verbindung mit der Empirie.
Der kritische Rationalismus (Popper) hingegen setzt den Schwerpunkt eher auf
methodologische Fragen, wie z.b. Theorien aufstellen, prüfen und ändern kann.
Ein weiteres Unterscheidungsmerkmal liegt darin, dass einige Ansätze eher normativ
und apriorisch vorgehen und andere dagegen quasi- empirisch (Lakatos).
Zur Erinnerung:
- a priori: aus der Vernunft abgeleitet. Logische Schlussfolgerung.
- A posteriori: Von dem Erfahrenden, Beobachteten abgeleitet.
Die aprioristischen Ansätze verlangen also von der Wissenschaftstheorie, dass sie
adäquate Vorgehensweisen und Regeln ableitet, nach denen sich die tatsächliche
Wissenschaft richten kann. Dieser Aspekt ist gerade bei Popper und Carnap stark
ausgeprägt. Das Problem zeigt sich allerdings darin, dass Adäquatheit oder
Inadäquatheit nicht logisch ableiten lässt. Man ist also darauf angewiesen
Inadäquatheit zu bestimmen, indem man Theorien an der tatsächlichen Wissenschaft
misst. Daraufhin kann dann die Theorie als zu eng oder zu weit beschrieben werden.
Letztlich ist also dann die tatsächliche Wissenschaft eine Art Schiedsrichter über
wissenschaftliche Theorien. Dieser Art der Bewertung von Wissenschaftstheorie ist
dann aber quasi- empirisch.
Lakatos will so zeigen, dass alle aprioristischen „Gesetze“ im Schiedsspruch der
tatsächlichen Wissenschaft abgelehnt werden müssten.
Kuhn bietet daher eine Alternative an, in der er auf jegliche Arten normativen
Vorgehens uns logischer Analysen verzichtet. Dies führt allerdings zu erheblichen
Schwierigkeiten, wie später gezeigt werden wird.
Kuhns und auch Lakatos quasiempirische Betrachtungsweise wurde durch J. Sneed
weiter geführt, der eine strukturalistische Theorienkonzeption vorgeschlagen hat.
Diese erlaubt sowohl diese quasiempirische Ansätze, genügt dabei aber den
strengen Anforderungen analytischer Wissenschaftstheoretiker, die diese an die
logische Konsistenz von Theorien haben. Dabei liegt der Bezug wohl eher auf der
von Popper vorgeschlagenen logischen Konsistenz.
Häufig taucht der Begriff der Rekonstruktion auf, womit die Rekonstruktion einer
Theorie aus der tatsächlichen Wissenschaft gemeint ist. Diese Vorgehensweise soll
mehr Klarheit verschaffen, wo sich Lücken und Probleme einer Theorie auftun und
soll vor allem zeigen, dass Wissenschaftstheorie nicht dazu da ist Regeln und
Verbote aufzustellen, sondern allenfalls korrigierenden Einfluss haben sollte.
3
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Dies ist als entscheidender Beitrag anzusehen, den Westermannn in die
Wissenschaftstheorie, insbesondere zum Strukturalismus, eingebracht hat. Dies wird
auch als wechselseitiger Rückkopplungsprozess bezeichnet, der zwischen
Metatheorie und Substanz entstehen soll.
Westmeyer betont in diesem Zusammenhang, dass ein empirischer Befund niemals
abgelehnt werden darf, nur weil er nicht in einer wissenschaftstheoretischen
Konzeption rekonstruiert werden kann. (So auch Popper: wenn Empirie der Theorie
wiederspricht, dann eher an der Theorie zweifeln. Falsifizierung)
2.2 Der logische Empirismus (Carnap)
Die Grundüberzeugung empiristischer Wissenschaft liegt in der Annahme, dass alle
wissenschaftlichen Aussagen, entweder analytisch oder synthetisch sind.
Analytische Urteile oder Aussagen basieren rein auf logischen Ableitungen und sind
daher gegenüber jeder Erfahrung oder Beobachtung immun. Synthetische Urteile
sind demgegenüber sind nur aus der Beobachtung abgeleitet und lassen sich nur
durch diese bestätigen. Dieses Prinzip wird auch verifizieren genannt. Verifiziert ist
eine Aussage, wenn sie sich aus einer oder mehreren Beobachtungen (oder
Protokollsätzen) ableiten lässt. Protokollsätze sind Sätze über direkt Beobachtbares,
welche von theoretischen Annahmen völlig frei sind. Die Wahrheit dieser Sätze soll
eindeutig und mit Gewissheit erkennbar sein.
Da solche Protokollsätze fehlerfrei und unbeeinflusst das Gegebene wiedergeben
sollen, kann man den logischen Empirismus auch als Positivismus verstehen.
Somit sind im logischen Empirismus Experimente und Beobachtungen die Basis
jeder Wissenschaft, da sie Ergebnisse im Sinne von Protokollsätzen wiedergeben
bzw. liefern sollen.
Da es aber nicht genügt nur zu beobachten, müssen aus diesen Beobachtungen
auch schlussfolgernd auch allgemeine Gesetze formuliert werden. Somit geht nach
Carnap der Wissenschaftler induktiv vor. Er schließt vom individuellen (speziellen)
Einzelfall auf das Allgemeine: Induktionsprinzip
(vgl. hierzu Popper, der sagt, dass ein solches Vorgehen böse böse ist, da es logisch
nicht zu rechtfertigen sei. Nach Popper führen alle induktiv gezogenen Schlüsse und
Gesetzmäßigkeiten zu Widersprüchen oder in eine endlose Kette von Begründungen
(auch infiniter Regress genannt). Popper hält also nur eine deduktive
Vorgehensweise für angemessen.)
Carnap gesteht ein, dass sich die induktivistische Vorgehensweise nicht logisch
ableiten lässt, und dass Entwicklungen von Beobachtungen immer auf theoretischen
Überlegungen basieren. Außerdem würden Theorien stets danach bewertet werden,
ob sie sich in der Empirie bewähren.
Trotzdem hat Carnap versucht ein Model der induktiven Logik aufzustellen, wie also
ein rationaler Mensch von einer Beobachtung zu allgemeinen Sätzen, Theorien oder
Hypothesen gelangen kann. Diese Bemühungen haben jedoch nie zu einem
praktikablen Ergebnis geführt.
Lakatos meinte hierzu, dass genau aus diesem Grunde nur Provinzialisten und
Ungebildete die induktivistische Theoriekonzeption anwenden würden. Auch nett.
4
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Das bislang aufgezeigte Bild könnte die Vermutung nahe legen, dass der logische
Empirismus seinen Schwerpunkt in der Methodologie sieht. Viel mehr ist dieser
Ansatz allerdings an dem Aufbau wissenschaftlicher Theorien selbst interessiert.
Die dadurch entstandene Metatheorie hatte so nachhaltigen Einfluss, dass sie u.a.
von Hempel als Standartkonzeption bezeichnet wurde. Diese Art der Konzeption ist
in drei wesentliche Schritte aufgeteilt:
1. Eine Theorie muss in einer normativen Form, der Aussagen und
Prädikatenlogik zusammengefasst werden.
2. Die mit diesen logischen Thermen verknüpften Begriffe gliedern sich in
theoretische Begriffe und Beobachtungsbegriffe.
3. Die Theoretischen Begriffe müssen vollständig auf die Beobachtungsbegriffe
zurückgeführt werden können.
Pro & Contra
Gerade die geforderte totale Axiomatisierung der Theorien führte zu einer
ausgiebigen Diskussion über Vor- und Nachteile. Zusammenfassend sollen diese
kurz dargestellt werden. Der Große Vorteil einer möglichst starken Axiomatisierung
liegt in der Abgrenzung der Theorie in ihrer Anzahl an Axiomen, die Annahmen
werden einfach deutlicher, da sie eindeutig miteinander verbunden sind und die
Bedeutung der Verknüpfungen ist eindeutig festgelegt.
Die große Kritik an diesen Vorstellung ist, dass sie rein theoretisch seien, da in der
tatsächlichen Wissenschaft oft nicht eindeutig ist, ob bestimmte Beobachtungen in
eindeutige einzelne Axiome ableitbar sind. Oft gibt es verschiedene (gleich –
logische) Möglichkeiten und damit auch mehrere zur Bildung von Axiomen. Damit
wäre eine Eindeutigkeit nicht mehr gegeben. Die Grundbegriffe der Axiome könnten
nur selten explizit erläutert werden, und damit blieben sie undefiniert. Eine wirkliche
Entsprechung der Forderung nach Axiomatisierung sei eigentlich nur bei trivialen
Zusammenhängen denkbar.
Eine gute Möglichkeit konnte gezeigt werden, als man dieser Form der
Axiomatisierung auf informelle und Mengentheoretische Weise durchführte.
Besonders abzulehnen ist allerdings die Forderung nach dem Zusammenhang der
Begrifflichkeiten. (Theoretische Begriffe sind ableitbar aus Beobachtungsbegriffen).
Vgl. Beispiel Intelligenz. Es wird gezeigt, dass es eine Menge von Objekten gibt, die
nicht direkt beobachtbar sind. Daher forderte Carnap lediglich Rdeuktionssätze,
wenn sog. Dispositionsprädikate (wie Intelligenz), als Zuordnungsregeln. Für die
Intelligenz bedeutet dies, dass nicht Intelligenz dasselbe ist, was eine Intelligenztest
ausspuckt, sondern dass das was er ausspuckt gleich der Intelligenz sein soll. Somit
ist Intelligenz nur noch dann definiert, wenn ein Test durchgeführt wurde. Dies ist
eine große Einschränkung demgegenüber, was der logische Empirismus eigentlich
fordert.
Probleme:
- Der Begriff ist nur noch partiell definiert
- Die Definition ist stark determiniert. Sie hängt also von gewissen Grenzen
oder empirischen Ergebnissen ab
- Gerade in der Psychologie lässt man mehrere Methoden, zur Messung einer
theoretischen Eigenschaft zu.
5
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Daraus lässt sich ableiten, dass es immer mehrere Reduktionssätze für eine
theoretisches Merkmal geben kann. (Starker Verlust der Eindeutigkeit).
Aber auch diese Erweiterung ist fragwürdig, da Forscher nicht automatisch ein
Merkmal einer Person zusprechen wird, nur weil ein Reduktionssatz zutrifft. Somit
liegt hier eine starke Inkonsistenz vor. Dieser kann man eigentlich nur begegnen,
wenn man nicht deterministisch vorgeht, sondern Reduktionssätze als
Wahrscheinlichkeitsaussagen interpretiert. Andererseits müsste man bereit sein die
Zusammensetzung auf Grund der empirischen Ergebnissen zu revidieren.
Insgesamt müsste in allen Fällen von den Forderungen Abstand genommen werden,
dass Theoretisches durch Zuordnungsregeln eindeutig und vom Empirischen
unabhängig ist.
Ein zweites Problem liegt in der sog. Zweisprachenkonzeption. Carnap gibt eine
einheitliche Wissenschaftssprache auf und unterscheidet zwischen theoretischer
Sprache (LT) und Beobachtungssprache (Lo). Damit will er die beiden Ebenen, die
man sich auch als zwei übereinanderliegende Netze Vorstellen kann, getrennt
betrachten. Oben liegt ein Netz der Theorie, deren Knoten Grundbegriffe (oder
definierte Begriffe) und Fäden Axiome darstellen (oder abgeleitete Aussagen)
darstellen. Das untere Netz stellt nun die empirische Ebene dar, deren Knoten
Variablen und Fäden Zusammenhänge zeigen. Durch die Zuordnungsregeln sollen
nun vertikale Verbindungen zwischen beiden Ebenen geschaffen werden.
Sollen mit diesem Konzept allerdings direkt beobachtbare Objekte abgegrenzt
werden, so scheint dies kaum möglich. Vielmehr bewegen wir hier stets auf einem
Kontinuum von direkt bis indirekt beobachtbar.
2.3 Der Kritische Rationalismus (Popper)
Popper schließt unmittelbar an die Idee der Verifikation an, indem er sie ablehnt.
Dies begründet er damit, dass er keine der beiden Vorraussetzungen für gegeben
hält, die solche Schlüsse erfordern:
1. Die Beobachtungsbasis müsste theorieunabhängig sein.
2. Verifikation setzen eine Rechtfertigung zum induktiven Schluss voraus.
Nach Popper ist vielmehr das Gegenteil der Verifikation der richtige Weg, sondern
die Falsifizierbarkeit einer Aussage das entscheidende Kriterium, ob sie eine
sinnvolle Aussage empirischer Wissenschaft ist.
D.h., dass Aussagen und Theorien der empirischen Wissenschaft an der Erfahrung
scheitern können müssen. Es stellt sich die Frage, wie man aus einem Satz über
eine Erfahrung ‚B’ einen Schluss bzgl. einer Theorie ‚H’ ziehen kann. Popper
beantwortet dies unter Verwendung der Schlussregel modus tollens der
Aussagenlogik. Hieraus geht hervor, dass wenn aus ein B ein nicht H hervorgeht,
dann gilt auch umgekehrtes:
B  H  H  B
Poppers gesamte Wissenschaftsmethodologie beruht auf diesem Prinzip der
Falsifizierbarkeit. So sollen also Theorien und Hypothesen das Eintreten bestimmter
6
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Beobachtungen verbieten. Tun sie dies nicht, so passt die Theorie nicht zu den
gefundenen Daten. Dabei möchte er methodologische Regeln aufzeigen, die die
empirische Wissenschaft leiten sollen. Dabei unterscheidet Popper nicht zwischen
Begriffen der Theorie und der Hypothese, sondern er verlangt, dass alle Sätze,
Aussagen etc. die Form von unbegrenzten Allsätzen haben.
Durch diese Unbegrenztheit (von Raum Zeit) beziehen sich diese Allsätze auf eine
unbegrenzte Menge von Einzelfällen. Sie sind somit lediglich Falsifizierbar und nicht
verifizierbar. Daher kann wissenschaftliche Forschung nicht das Ziel haben, die
Wahrheit von Aussagen zu beweisen. Rationalität bedeutet daher für Popper die
kritische Überprüfung von Hypothesen und Theorien, worin er auch den Sinn von
Experimenten sieht. (vgl. Carnap, der den Sinn von Exp. darin sieht, Protokollsätze
zu liefern, die verallgemeinert werden)
Popper betont, dass theoriefreie Beobachtung nicht möglich ist. Daher haben alle
Daten eine theoretische Grundlage und sind nur mit einer solchen sinnvoll
interpretierbar. Somit kommt den Theorien und nicht den Daten ein gewisses Primat
zu: deduktivistisch.
Somit sollte die Bezeichnung „kritischer Rationalismus“ nun deutlich sein: rational, da
man von einer Theorie ausgeht, dann Daten erhebt, die dann für oder gegen die
Theorie sprechen. Kritisch, da es nicht das Anliegen ist die Wahrheit zu finden,
sondern Theorien zu stützen, aber nie endgültig zu beweisen. Theorien und
Hypothesen bleiben Vermutungen über die Wirklichkeit, die es gilt immer wieder zu
prüfen.
Bestätigen sich nun abgeleitete Hypothesen bei ihrer empirischen Überprüfung, so
können wir verifizieren. D.h. wir behalten diese Theorie so lange bei, wie wir keine
negativen Befunde haben. Bei negativen Ergebnissen ist die Hypothese und damit
auch die Theorie aus der sie deduziert wurde falsifiziert. Da sich eine Theorie, die
zunächst angenommen wird, immer auch noch verworfen werden kann, sobald
negative Befunde gemacht werden, sprechen wir auch davon, dass sich eine
Theorie, solange sie zu positiven Ergebnissen führt, bewährt.
Der Zusammenhang von Verifikation und Falsifikation ist allerdings als
asymmetrisch zu betrachten. Wenn sich eine Theorie bestätigt, dann können die
Daten verifiziert werden, die Theorie hat sich aber lediglich bewährt. Ein negativer
Befund führt dagegen zur Falsifikation der Daten und auch der Theorie.
Genauso wenig, wie die absolute Richtigkeit einer Theorie nachgewiesen werden
kann, ebenso wenig können wir die Falschheit zeigen. Es liegt immer in der Hand
des Forschers, was er mit einer falsifizierten Theorie macht. Meist bietet es sich an
sie zu modellieren.
Man sieht, dass sich Poppers Wissenschaftsverständnis als Vorschlag an
Wissenschaftler richtet. Seine Regeln sind Leitlinien, also stark konventionalistisch.
Die wichtigsten Aspekte:
Basissätze. Dies sind Aussagen über Zusammenhänge von Theorie und
Beobachtung. So liegt dem modus tollens der folgende Basissatz zu Grunde: B
bedeutet, dass zu einem Zeitpunkt t ein Ereignis x gibt. Entsprechendes gilt dann für
das Gegenereignis B. Dies lässt sich aus einer Hypothese/Theorie ableiten. Diese
Basissätze sind dann allgemein anerkannt, obwohl sie weiterhin hypothetischen
Charakter.
Da solche Basissätze nur selten zu finde sind, werden Hypothesen oft probabilistisch
formuliert. D.h. es wird kein deterministischer Zusammenhang formuliert, sondern
dass die Wahrscheinlichkeit eines Ereignisses B hoch ist, wenn ein anderes A
ebenfalls besteht. Dabei bleibt sogar der Wert von B meist offen. Deshalb verbieten
7
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
probabilistische Aussagen keine Beobachtung und sind daher strenggenommen
nicht falsifizierbar. Popper spricht daher von praktischer Falsifizierung. Daher
entstand die Konvention, dass wenn mehrere Beobachtungen in einen bestimmten
Wahrscheinlichkeitsbereich (Signifikanzniveau) fallen, zur Ablehnung einer Theorie
führen können.
Da aber auch deterministische Aussagen oftmals nicht ausreichen, um Ereignisse
vorherzusagen, müssen oftmals Zusatzannahmen gemacht werden. Somit ergänzt
sich der Satz aus H folgt B zu: aus (HZ) folgt B.
Solche Zusatzannahmen sind dabei nicht als Zuordnungsregeln wie bei Carnap zu
verstehen, sondern viel mehr als Hilfshypothesen. In Z enthalten, sind sämtliche
Annahmen, die wir vor oder während einer Beobachtung machen.
Entsprechend der Aussagenlogik können wir auch folgende Beziehung annehmen:
Aus B folgt  (HZ). Popper wehrt sich allerdings dagegen, dass dies auch
gleichbedeutend mit: aus B folgt (H  B). Dann könnten negative Befunde stets
auf die Falschheit der Zusatzannahmen zurückgeführt werden. Deshalb schlägt
Popper vor, sämtliche Zusatzannahmen, die gemacht werden, per Konvention als
unproblematisch hinzunehmen.
Dabei muss beachtet werden, dass diese Konvention sehr streng ist, da es oft auch
Sinn machen kann, an den Zusatzannahmen zu zweifeln, als sofort die Theorie zu
verwerfen, da so schnell auch richtige Erkenntnisse falsifiziert werden können. Daher
betonen spätere kritische Rationalisten und auch Popper selber, dass eine Theorie
nur dann ersetzt wird, wenn eine bessere aufgestellt werden kann.
Eine solche „bessere“ Theorie erhalten wir, wenn folgende Bedingungen erfüllt sind:
1. Die neue erfüllt alle Fakten, die auch die alte erfüllt hat.
2. Die neue steht mit den widersprechenden Basissätzen der alten, zumindest
mit einigen, im Einklang.
3. Die neue erlaubt neue Ableitungen von Hypothesen, die streng geprüft
werden können.
4. Diese müssen sich bewähren.
Die ersten drei Bedingungen fassen den höheren empirischen Gehalt einer neuen
Theorie zusammen, den sie haben sollte. Dieser meint vor allem, dass es mehr
widersprechende Basissätze geben muss, die zu einer Falsifizierung führen können.
Denn je mehr es davon gibt, desto sicherer kann es eingestuft werden, wenn sie sich
bewährt. Weiter meint der empirische Gehalt, dass es mehr prüfbare Hypothesen
gibt, die eine neue Theorie liefert und sie damit präziser ist.
Je „besser“ eine Theorie ist, desto höher sollte auch ihr Falsifikationsrisiko sein, dem
wir sie aussetzen. Es kann aber nicht das Ziel der Wissenschaft sein Theorien mit
möglichst hohem Falsifikationsrisiko zu finden. Vielmehr sollte man auch faire
Bewährungschancen gebe, was jedoch bei Popper vernachlässigt wird. Hier geht es
eher darum, dass je größer die Strenge ist, unter der einer Beobachtung steht, desto
höher ist der Grad der Bewährung einzustufen. Dies sollte man aber nicht damit
verwechseln, wie wahrscheinlich deren Richtigkeit ist.
Unter Strenge versteht Popper die Höhe des empirischen Gehaltes.
Umgangssprachlich bedeutet dies, dass es die Hypothese mit zunehmender Strenge
schwerer hat sich zu bewähren.
Den Begriff der Wahrheit bringt Popper unter der Idee einer Wahrheitsnähe ins
Spiel. Nicht wie bei einem tautologischen Schluss durch logische Gewissheit ergibt
sich Wahrheit, sondern je höher der empirische Gehalt einer Theorie ist, die sich
bewährt hat, desto wahrheitsnäher ist sie.
8
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Popper vertritt also eine sehr realistische (es gibt eine Wahrheit, die wir erkennen
können) und erkenntnistheoretische Grundposition. Diese ist kritisch, da er
zunächst alle Versuche, diese echte und unabhängige Wirklichkeit zu beschreiben,
als falsch und unvollständig ansieht.
2.4 Die normalwissenschaftlichen und revolutionären
Forschungsepisoden (Kuhn)
Kuhn setzt im Gegensatz zu den bisher kenngelernten Ansätzen nicht auf eine
logische Ableitung von Theorien. Bei ihm stehen viel mehr die Begriffe der
wissenschaftlichen Gemeinschaft und des Paradigmas im Vordergrund.
Er behauptet, dass jede wissenschaftliche Analyse mit einer soziologischen
Identifikation und der wissenschaftlichen Gemeinschaft beginnen müsste. Dadurch
würden sich dann die Kriterien ergeben, die in der jeweiligen Gemeinschaft zur
Theoriekonzeption angewandt werden.
Um eine solche wissenschaftliche Gemeinschaft zu identifizieren nennt Kuhn drei
wichtige Kriterien:
1) zwischen den Mitgliedern einer solchen Gemeinschaft muss eine sehr
professionelle und vor allem vollständige Kommunikation herrschen
2) die Mitglieder müssen sich in ihren Urteilen einstimmig sein.
3) Die Ausbildung der Mitglieder muss über gemeinsame Elemente erfolgen.
Um die im dritten Punkt angesprochenen Gemeinsamkeiten zu verbinden führt Kuhn
den Begriff des Paradigmas ein, dessen allgemeine Bedeutung ein „einheitliches
wissenschaftliches Weltbild“ ist. Kuhn differenziert das allgemeine Paradigma
(disziplinäres System) von einem speziellen Paradigma.
Im allgemeinen stecken Grundüberzeugungen, Gesetze, Modelle, normen und Werte
etc. die von den Mitgliedern als allgemeingültig anerkannt sind.
Diese Paradigmen haben eine wichtige Funktion auch im Sinne der Ausbildung
neuer Mitglieder. So erhalten alle den gleichen Kenntnisstand über die Gemeinschaft
und forschen in gleicher Weise. Diese starke Ablehnung normativer
Vorgehensweisen soll in erster Linie dazu führen, dass der Forscher stets bemüht ist
neue bessere Theorien zu suchen, da er nie genau weiß, ob sein Versuch die
Wirklichkeit zu beschreiben richtig ist. Denn auch Kuhn sieht das Problem, dass jede
Wissenschaft oder wissenschaftliche Gemeinschaft versucht die Wirklichkeit in der
Enge der gelieferten Begriffsschubladen zu beschreiben.
Gerade weil ein Forscher nicht an Theorien, sondern nur an sein Paradigma
gebunden sei, muss er den Ausschnitt der Wirklichkeit mit äußerster Präzision
betrachten.
Trifft er dabei auf sog. Anomalien, die nach Popper zur Zurückweisung der Theorie
führen, sollte dies nicht zur Ablehnung des Paradigmas führen. Wenn eine Anomalie
auftaucht, so liegt dies nicht an einem falschen Paradigma, welches ihn schließlich
überhaupt dorfhingebracht hat, sondern diskreditiere den Wissenschaftler. Diese
Ansicht ist gerade der Popperschen Sicht entgegengesetzt. Kuhn unterstreicht dies
indem er sagt: „es ist ein schlechter Zimmermann, der seinem Werkzeug die Schuld
gibt.“
Wenn der Wissenschaftler auf eine Anomalie trifft, die Anerkannt ist, so hat er seine
Paradigmentheorie so abzuändern, dass diese trotzdem zu erklären ist. Bleibt aber
9
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
auch dann diese Anomalie bestehen und ist nicht mit den Paradigmen in Einklang zu
bringen, so kann dies zu einer Phase der außerordentlichen Wissenschaft führen,
in der sich widersprechende Paradigmen nebeneinander existieren. Sollte auch so
nicht über die Zeit eine Lösung im Sinne der alten Paradigmen gefunden werden, so
kann es zur wissenschaftliche Revolution kommen. Dies bedeutet, dass ein altes
durch ein neues Paradigma ersetzt werden muss. Eine solche Revolution ist nicht
das gleich wie die bloße Veränderung eines Paradigmas. Wird ein Paradigma
verändert, so bleibt die Wissenschaft an sich die gleiche. Nach einer Revolution hat
sich alles geändert. Die Methoden, die Gesetze, Grundannahmen etc.
Vertreter unterschiedlicher Paradigmen hält Kuhn nicht für total unverträglich,
sondern vergleichbar wie die Übersetzung zweier Sprachen. Eine totale Übersetzung
gibt es nicht. Im Gegensatz zu Popper sieht er aber in der Weiterentwicklung
nicht eine fortschreitende Näherung an die Wahrheit, sondern eher eine
Entfernung vom Primitiven (vgl. Darwin). Dabei wird die Theorie genauer,
spezieller oder kann korrektere Problemlösungen bieten.
Sehr schön ist der Gedanke, dass nicht Theorien oder Paradigmen rein logisch oder
analytisch abgeleitet werden. Oft entstünden und vor allem bestünden einige, weil es
eine Masse gibt, die eben diese behaupte. Er führt hier also die Wirkung von
Überredung und Massenpropaganda an.
Die Übehrschrift sollte nun auch deutlich sein. Die normalwissenschaftliche Episode
ist diejenige in der die Paradigmen nicht durch hartnäckige Anomalien gestört
werden und die revolutionären eben die, in der eine wissenschaftliche Gemeinschaft
sich umkrempelt und ganz neu wird.
2.5 Die Methodologie wissenschaftlicher Forschungsprogramme
(Lakatos)
Der Ansatz von Lakatos kann als Versuch angesehen werden, die
Falsifikationstheorie von Popper mit dem Paradigmenkonzept von Kuhn unter einen
Hut zu bringen.
Lakatos sieht in der Falsifikationsidee einen sehr fruchtbaren Ansatz, hält aber die
sehr extreme Haltung Poppers, dass nicht nur falsifiziert wird, wenn eine bessere
Theorie in Aussicht steht, sondern es auch sein kann, dass eine Theorie ganz
verworfen wird, für naiv.
Lakatos sagt, dass es nur Sinn macht zu falsifizieren, wenn eine neue bessere
Theorie in Aussicht steht.
Lakatos betrachtet nicht einzelne Theorien, sondern Reihen von Theorien, die in
Folge von Theorien entstehen. Der entscheidende Unterschied zu Popper ist, dass
sich der Kern dieser Theorien nicht ändert, sondern die verwendeten
Hilfshypothesen, die von mal zu mal variiert werden, um sie den Anomalien
anzupassen.
Eine so entstandene Theorienreihe nennt Lakatos progressiv, wenn jede Theorie
einen Überfluss an empirischen Gehalt gegenüber dem Vorläufer inne hat, der sich
auch bewährt. Dies ist noch relativ identisch zu Popper, allerdings erkennt Lakatos
auch Theoriereihen an, deren Elemente keinen höheren empirischen Gehalt haben,
oder einen der sich nicht bewährt hat. Diese nennt er dann degenerativ.
10
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Bei Popper werden „erwünschte Katastrophen“ (Falsifikation) im wissenschaftlichen
Prozess erwartet. Lakatos spricht da von Forschungsprogrammen, die entstehen
und nichts weiter sind als die bereits erwähnten Theoriereihen. Dabei unterscheidet
er zwei Arten von methodologischen Regeln eines solchen Programms. Die einen
beschreiben einen Weg den man abbrechen oder vermeiden sollte (negative
Heuristik) und der andere eben den dem man folgen (positive Heuristik) sollte. Zur
Beschreibung eines Forschungsprogramms ist vor allem die negative Heuristik. Sie
spezifiziert einen sog. harten Kern einer Theorie, von dem nicht abgewichen wird,
da er als unwiderlegbar beschlossen wurde und von daher vom Falsifikationsrisiko
ausgenommen wird. Um diesen Kern herum liegen die Hilfshypothesen, die dann
zu Teilen oder gar gänzlich ausgetauscht werden, um der Anomalie zu entgegnen.
In einem Forschungsprogramm enthalten sind also Theorien die in aufsteigender
Folge an empirischen Gehalt gewinnen. Dabei ist es nicht entscheidend, dass sich
alle neuen Hilfshypothesen bewähren, solange ein Minimum an Zuwachs
empirischen Gehalts gewährleistet ist.
Der deutlichste Unterschied zu Popper ist damit deutlich. Popper weißt in der Regel
die Theorie (den harten Kern) bei einem negativen Befund zurück und Lakatos
falsifiziert die Hilfshypothesen. Der Verbund zu Kuhn mag darin bestehen, dass der
hier dargestellte harte Kern eine Entsprechung zu den bei Kuhn verwendeten
Paradigmen darstellt.
Die positive Heuristik des Forschungsprogramms ist wesentlich weniger beschrieben.
Es enthält im Prinzip eine metaphysische Idee darüber, in welche Richtung sich eine
Theorienreihe entwickelt werden sollte, vor allem betont ist dabei, wie sich der
falsifizierbare Teil der Hilfshypothesen gestalten sollte.
Auch wenn ein solches Forschungsprogramm der positiven Heuristik entspricht,
muss eine nicht progressive Entwicklung zu einer Ablehnung führen. Dies geschieht
erst dann, wenn ein konkurrierendes Programm mit höherem explanatorischen – also
höheren Erklärenden – Gehalt vorhanden ist. Aber auch diese Annahme kann nicht
ohne Einschränkungen hingenommen werden, denn was wäre eine tolle Theorie,
ohne Regeln, die Regel hat, die sich wiedersprechen. Aus innovativen Gründen kann
auch ein degeneratives Programm aufrechterhalten werden, genauso wie ein
solches ein „Comeback“ erleben kann, wenn man nach gewisser Zeit doch noch
einen Schutzgürtel aus Hilfstheorien findet, der zu einer progressiven Entwicklung
führt.
Aus diesem kleinen Wirrwarr sollte hervorgehen, dass Lakatos der Ansicht ist, dass
nicht ein oder wenige Experimente in der Lage sind eine Theorie zu wiederlegen.
Somit kann es Entscheidungsexperimente im Lakatos’schen Sinne nicht geben. Ein
Forschungsprogramm wird also erst dann abgelehnt, wenn trotz starker
Bemühungen das Programm nicht progressiv gestaltet werden kann. Somit kann das
Programm auch Zeiten der Degeneration haben, wenn eine Besserung in Aussicht
steht. Hier wird wieder der deutliche Zusammenhang zu Kuhn deutlich. Er spricht von
einer Zeit der normalen Wissenschaft (progressiv), einer Zeit der außerordentlichen
Wissenschaft (degenerativ), die in eine revolutionäre Wissenschaft (Ablehnung eines
Forschungsprogramms) münden kann. Lakatos bietet allerdings keine Methoden an,
eine solche degenerative Entwicklung abzuwägen. Eine solche sei nur retrospektiv
zu betrachten, also im nachhinein. Er bezieht sich oft in seinen Begründungen auf
die Entwicklungen Physikalischer Gesetze, die oft über falsche Annahmen zu einer
endgültig richtigen Gesetzmäßigkeit geführt hätten. Ein degenerierender Weg eines
Forschungsprogramms zeige sich, wenn Veränderungen in den Hilfshypothesen nur
noch dazu dienen, mit Anomalien fertig zu werden, dagegen aber keinen Fortschritt
gegenüber der alten Hilfstheorien (empirischer Gehalt) bieten. Dabei wird, nicht von
11
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
Lakatos, aber von Hermann betont, dass die Psychologie nicht als
Aneinanderreihung von Forschungsprogrammen zu verstehen ist, sondern vielmehr
als Flechtwerk. Danke Hermann. Die auf J. Sneed zurückgehende strukturalistische
Konzeption ist als notwendige Präzisierung und Ergänzung aufzufassen.
12
statistik for runaways – Skript zur VD – Prüfung
Hager SS 2000
2.6 Zusammenführung
Logischer Empirismus (Carnap)
- aus Beobachtungen lassen sich Theorien etc. logisch ableiten
- Verifizieren!
- Induktivistisch, da die Basis in den Beobachtungen liegt
- Theorien müssen entsprechend der Aussagen und Prädikatenlogik
axiomatisiert werden
- Formalsprachlich: Beobachtungsbegriffe und (auf erstes zurückgehende)
Theoretische Begriffe
- Axiomatisierung
- Zweisprachenkonzeption
- Standardtheorienkonzeption des logischen Empirismus
Kritischer Rationalismus (Popper)
- Falsifikationsmethodologie
- Modus tollens: B  H  H  B
- Unbegrenzte Allsätze
- Keine Wahrheit beweisen, sondern Theorie kritisch prüfen
- Theorien und Hypothesen bleiben Vermutungen, egal wie gut sie durch
empirische Befunde gestützt werden
- Deduktivistisch
- Theorien können sich nur bewähren.
- Konventionalistisch (man bewegt sich auf vereinbarten Bahnen)
- Deterministische Aussagen sind selten, probabilistische dagegen häufig und
auch zulässig
- Falsifizierung nur, wenn bessere Theorie in Aussicht, die einen höheren
empirischen Gehalt hat.
- Je höher der empirische Gehalt, desto größer die Strenge der Prüfung
- Unsere Theorien, egal wie wahrheitsnah wir sie diese einstufen, bleiben
immer Vermutungen.
- Kritische, realistische und erkenntnistheoretische Grundposition.
Wissenschaftstheoretische Konzeption (Kuhn)
- Paradigmenkonzept
- Wiss. Gemeinschaft
- Normalwissenschaftliche Zeit und Zeit der Revolution
- Falsifikation ist falsch, negative Befunde sind eher auf die Unfähigkeit des
Forschers zurückzuführen
- Möglichst wenig normative und aprioristische Vorgehensweise
- Da wenig Vorschriften, viel Raum und auch Druck auf den Forsche, sich selbst
zu schulen
- Aspekt der Überredung. Eine Theorie wird nicht nur auf Grund analytischer
und formaler Gründe angenommen, sondern auch wenn sie allgemein als
wünschenswert oder richtig akzeptiert wurde.
13
statistik for runaways – Skript zur VD – Prüfung
-
Hager SS 2000
Eine verbesserte Theorie bzw. Paradigma nähert nicht die Wahrheit an,
sondern entfernt sich vom primitiven. (Darwin)
Allgemeines und spezielles Paradigma
Methodologie wissenschaftlicher Programme (Lakatos)
- Methodologie
- Es gibt keine Falsifikation vor dem Auftauchen einer besseren Theorie
- Theorienreihe, mit je besseren Hilfshypothesen
- Unterscheidung von degenerativen und progressiven Theoriereihen
- Solche Theoriereihen bezeichnet er als Forschungsprogramme
- Forschungsprogramme haben negative und positive Heuristiken (methodische
Regeln)
- Negativ: harter Kern (nicht falsifizierbar), Hilfshypothesen (falsifizierbar)
o Hauptunterschied zu Popper: die Hilfshypothesen werden angepasst,
nicht die Theorie
o Zu Kuhn: An Paradigmen wird festgehalten
- Positiv: metaphysische Idee über die anzustrebenden Richtung, die ein
progressives Programm haben sollte
o Wird nur abgewiesen, wenn konkurrierendes Programm, mit höherem
explanatorischen Gehalt vorhanden
o Auch nur, wenn lange keine neuen Hilfshypothesen gefunden werden
o Comeback möglich
- Keine Entscheidungsexperimente möglich
- Degenerativer Verlauf kann nur retrospektiv beurteilt werden
- Die Wahrheit kann auch über Falsches gefunden werden
14
Herunterladen