Paradigmen der Psychologie Kap8_9

Werbung
Günter Sämmer: Paradigmen der Psychologie
8.
- 263 -
Kapitel 8: Kognitivismus
Kapitel
Das Paradigma des Kognitivismus
Bis in die 50er Jahre des 20. Jahrhunderts dominieren behavioristische Modelle des reizkontrollierten
Verhaltens (vgl. Kapitel 6) die Forschungsprogramme der akademischen Psychologie. „Kognitive”
Ansätze, die mentale Prozesse beschreiben und erforschen, führen zu dieser Zeit eher ein Schattendasein.
Ihre mächtigen behavioristischen Kritiker werfen ihnen vor, sich „metaphysischer” und „mentalistischer”
Konstrukte zu bedienen und dabei „subjektivistische” Forschungsmethoden zu verwenden. Mit Kognitionen
befassen sich damals vor allem ganzheitspsychologische Forschungsprogramme (z.B. LEWIN, FESTINGER,
HEIDER, BRUNER, PIAGET ; vgl. dazu Kapitel 5), aber auch einige „kognitive” Forschungsansätze, die auf
behavioristischem Hintergrund operieren (z.B. TOLMAN, BANDURA oder GANGÉ; vgl. dazu Kapitel 6).
In den 50er Jahren bereiten dann einige wichtige Neuerungen auf dem Gebiet der Naturwissenschaften
in der Psychologie den Boden für eine „kognitive Wende” (zur Bezeichnung vgl. WEINER, 1976; Orig
1972).
• Norbert WIENERs Arbeiten über maschinelle Steuerungssysteme, deren Grundprinzipien schon bald
einen neuen Wissenschaftszweig begründen, die Kybernetik (vgl. WIENER, 1963; Orig. 1948),
• SHANNONs Informationstheorie, die sich mit den mathematischen Aspekten der Informationsübermittlung befaßt (vgl. SHANNON, 1948) und
• VON NEUMEIERS, SIMON s und NEWELLs Arbeiten über datenverarbeitende Maschinen und die darin
als „künstliche Intelligenz” beschriebenen Simulationen kognitiver Prozesse (vgl. dazu: NEWELL &
SIMON , 1976).
In diesen drei Ansätzen werden mathematische oder technische Modelle erarbeitet, die zwei für
Psychologen wesentliche Eigenschaften haben: Sie zeigen nämlich,
• daß mentale Prozesse wie Wissen, Erkennen, Denken prinzipiell in informationsspeichernden und verarbeitenden technischen Systemen simulierbar sind, und
• daß es in diesem Zusammenhang sinnvoll sein kann, auch Maschinen wie handelnden Menschen
Intentionen zuzuschreiben (z.B. als „Stellgrößen” in rückgekoppelten Regelsystemen).
Menschliches Denken und Erkennen sowie intentionales Handeln sind also zum ersten Mal naturwissenschaftlich konzipierbar und erforschbar, und dies macht sie auch für streng empirisch ausgerichtete
Psychologen wieder interessant.
Die „Kognitive Wende” in der Psychologie besteht somit darin, daß eine Vielzahl „mentalistischer“
Phänomene als „Informationsverarbeitungsprozesse” interpretiert und mit objektiven Methoden
erforscht werden können: Wahrnehmung und Denken, aber auch Emotion, Motivation und intentionales
Handeln.
Dabei wird es üblich, psychologische Forschung und Theoriebildung nach dem „Informationsverarbeitungsansatz” auf verschiedenen Ebenen der Konzeptbildung zu betreiben (vgl. HERMANN, 1982):
• Manche Forscher versuchen, in strengen „Computermetaphern” menschliches Erleben und Verhalten
als Vorgänge in einem informationsverarbeitenden kybernetisch-technischen System zu beschreiben und verwenden dabei die Terminologie der Datenverarbeitung („Input”, „Speicher”, „Rückkopplung”).
• Andere verwenden in liberalisierter Form zur Beschreibung von Informationsverarbeitungsprozessen
eher psychologische Konzepte mit Begriffen wie „Wahrnehmung”, „Gedächtnis”, „Handlungssteuerung”.
All diese psychologischen Forschungsprogramme, die psychische Phänomene als „Informationsverarbeitung” rekonstruieren, sollen im folgenden unter das Paradigma des Kognitivismus subsumiert
werden.
Günter Sämmer: Paradigmen der Psychologie
- 264 -
Kapitel 8: Kognitivismus
Auf eine in diesem Kontext wichtige Unterscheidung muß noch hingewiesen werden: Manche Autoren
verwenden den Begriff „Kognitive Psychologie” für alle Forschungsprogramme, die sich mit kognitiven
Prozessen befassen. Dies ist aber eine Obermenge der hier „kognitivistisch” genannten Ansätze, denn
auch ganzheitspsychologische, psychobiologische, tiefenpsychologische, ja sogar behavioristische
Forschungsprogramme können Kognitionen zum Gegenstand haben (vgl. die obigen Kapitel 4 bis 7). Und
auch die Annahme, die heutige (kognitivistische) Psychologie habe einige der älteren Ansätze längst
subsumiert (vgl. z.B. ANDERSON, 1989), muß hier zurückgewiesen werden. Die meisten der älteren
kognitiven Forschungsprogramme enthalten nämlich Kernannahmen, die mit dem Informationsverarbeitungsansatz nicht kompatibel sind: Zum Beispiel geht die Emergenzannahme der Ganzheitspsychologie (vgl. Kapitel 5) eben nicht davon aus, daß Kognitionen Ergebnisse aktiver, selbst-”gesteuerter” und zielgerichteter Prozesse sind. Und aus behavioristischer Sicht sind Kognitionen keine selbsttätigen Prozesse sondern Formen „innerer”, reizgesteuerter Reaktionen (vgl. Kapitel 6). (Daß ihre
Subsumierbarkeit dennoch so häufig behauptet wird, liegt möglicherweise daran, daß hierdurch die
„Herrschaftsansprüche” eines neuen wissenschaftlichen Paradigmas unterstrichen werden sollen.)
Spätestens seit den 80er Jahren ist nach übereinstimmender Auffassung verschiedener Autoren der
„Informationsverarbeitungsansatz”, also der Kognitivismus im oben definierten Sinne, zum vorherrschenden psychologischen Paradigma in der akademischen Psychologie geworden (vgl. z.B. ULICH, 1989;
MANDL & SPADA, 1988; ZIMBARDO, 1992; GRAB I T Z & HAMMERL, 1995). Seine Fortentwicklung ist
naturgemäß offen, so daß die hier versuchte Skizze vorläufig bleiben muß.
8.1
Die Gründungssituation des Kognitivismus
8.1.1 „Blinde Flecke” des Behaviorismus
Ende der 40er, Anfang der 50er Jahre des 20. Jahrhunderts strebt der Einfluß des Behaviorismus
innerhalb der Psychologie seinem Höhepunkt zu. Sein Sprachspiel ist nun so beherrschend, daß von einem
wissenschaftlich arbeitenden Psychologen selbstverständlich erwartet wird, daß er Sprache mit „verbal
behavior” übersetzt; und selbst solche Arbeiten, die später einmal das behavioristische Denken revolutionieren werden, weil sie die empirischen Grundlagen einer kognitiven Filtertheorie der Wahrnehmung
enthalten, werden noch überschrieben mit: „Successive responses to simultaneous stimuli” (vgl.
BROADBENT, 1956)
Dabei nähert sich der Behaviorismus immer mehr einer krisenhaften Situation: Der empiristische
Assoziationismus in der behavioristischen Psychologie hatte in seiner Rigorosität längst zu einer Überbetonung des reaktiven Verhaltens und damit zu einer Vernachlässigung der Eigenaktivitäten und der internen
Repräsentationen von Wirklic hkeit durch das Individuum geführt (vgl. z.B. MANDL & SPADA, 1988).
„Mentalistische” Konzepte wie konstruktive Gedächtnisprozesse oder produktives Denken waren aus
dem Blickfeld der Psychologen verschwunden. Und selbst der kognitive Behaviorismus T OLMANs
konzipierte „Kognitive Landkarten” innerhalb des Reiz-Reaktions-Schemas als rein reaktive Abbilder der
Wirklichkeit (vgl. Kapitel 6).
Immer mehr, meist junge Forscher beginnen nun, die restriktiven Wirkungen des behavioristischen
Sprachspiels und der behavioristischen Konzepte wahrzunehmen und zu beklagen.
Ein interessantes Beispiel hierfür ist NEISSSER s Bericht über eines seiner frühen Experimente (vgl.
NEISSER, 1954). In diesem Experiment ging es um die Frage, welche vorausgehenden „sets” die Wahrnehmung von tachistoskopisch dargebotenen Wörtern in welcher Weise verändern können. In behavioristischer Manier hatte er „Wahrnehmung” über offenes Verhalten operationalisiert, und, wie üblich,
hierfür das nachfolgende verbale Wiedergabeverhalten der Versuchspersonen gewählt. NEISSER stieß
dabei auf ein Phänomen, das in solchen Experimenten damals häufig vorkam: Manche Versuchspersonen
äußern nach dem Experiment, einen bestimmten Stimulus zwar wahrgenommen, jedoch nicht laut
Günter Sämmer: Paradigmen der Psychologie
- 265 -
Kapitel 8: Kognitivismus
vorgelesen zu haben, andere sagen, sie hätten nichts gesehen und einfach geraten. Für Behavioristen gibt
es hier kein Problem: Sie sehen „Wahrnehmung” und „Wiedergabe” als (operational) identisch an, und
im übrigen werden die Zweifel der Versuchspersonen durch das Versuchsdesign eliminiert, indem diese
wenig oder gar keine Gelegenheit zur Artikulation ihrer (für einen Behavioristen methodisch schließlich
völlig irrelevanten!) „Introspektionen” bekommen. Dem jungen Forscher NEISSER aber gelingt eine solche
„konventionalistische Wendung” (POPPER, 1984, Orig. 1935) zur Rettung behavioristischer Konzepte nur
schwer; und 20 Jahre später, nach der „kognitiven Wende”, formuliert NEISSER die Gründe für seine
intuitiven Widerstände so:
„Der Hauptgrund, kognitive Prozesse zu studieren, hat sich als genauso klar herausgestellt wie der Grund für das Studium aller
Dinge: weil es sie gibt. (...) Kognitive Prozesse existieren mit Sicherheit, und deswegen kann es kaum unwissenschaftlich sein,
sie zu erforschen.” (NEISSER, 1974; S. 21)
Die „blinden Flecke” des Behaviorismus sind es, auf die eine wachsende Zahl von Psychologen nun
immer häufiger hinweist, und ihr wirksamstes Mittel, die Aufmerksamkeit auf kognitive Prozesse zu
lenken, ist die ständig wiederholte, der Alltagserfahrung entnommene einfache Existenzbehauptung des
jungen NEISSER: „Weil es sie gibt”.
8.1.2 „Mentale Prozesse” in Maschinen - Die Entstehung der Informationstechnologie als Legitimationsbasis
Nun behaupten bekanntlich Tiefenpsychologen auch unausgesetzt die Existenz des Unbewußten und
Ganzheitspsychologen werden nicht müde, in den verschiedenen Variationen dem „Ganzen” fundamental
andere Eigenschaften zuzuschreiben als den „Teilen” (vgl. Kapitel 5). Solche Behauptungen allein haben
denn auch den Mainstream der akademischen Psychologie noch selten in seiner Grundrichtung beeinflußt.
In der Nachkriegszeit kommt nun aber eine mächtige revolutionäre Entwicklung hinzu, die nur teilweise
unter Beteiligung von Psychologen verläuft: das Aufstreben der Kybernetik und der Computerwissenschaften.
(1)
Kybernetische Rückkopplungsprozesse: Finalität in Automaten
Während des zweiten Weltkrieges hatten Norbert WIENER und andere an Feuerleitsystemen gearbeitet,
die in der Lage waren, automatisch bewegliche Ziele zu verfolgen, dabei die Richtung des anfliegenden
Projektils zu verändern, um dieses dann durch mehrfache Kurskorrektur ins Ziel zu bringen. ROSEN B L U T H , WIENER und BIGELOW (1943) hatten schon früh auch die philosophische Bedeutung solc her
„Rückkopplungsprozesse” erkannt und festgestellt, daß hier ein Phänomen vorliegt, das durchaus mit
dem zu vergleichen ist, was man in der lebendigen Natur bisher mit Begriffen wie Absicht oder Plan
bezeichnet hatte. Vor allem aber gehörten sie zu den ersten, die zeigen konnten, daß die Abstraktion der
Vorgänge in solchen künstlichen, rückgekoppelten Steuerungssystemen auf fundamentale Prozesse führt,
die in der gesamten Natur und insbesondere in den Nervensystemen aller Lebewesen bis hin zum
Menschen aufgefunden werden können. 1948 faßte Norbert WIENER diese Erkenntnisse in seinem
berühmten Werk zusammen: Kybernetik: Regelung und Nachrichtenübertragung in Lebewesen und
Maschine. (vgl. WIENER, 1963, Original 1948)
Wenn nun also Ingenieure von Maschinen behaupten, daß sie (im doppelten Sinne!) „Ziele verfolgen”
können, ohne dabei irgendwelche teleologischen und metaphysischen Hintergrundannahmen zu bemühen,
so wird auch streng naturwissenschaftlich ausgerichteten Psychologen bald die Annahme einer „causa
finalis” für das Verhalten von Lebewesen möglich. Aus dem behavioristischen Konzept des weitgehend
von außen verursachten reaktiven „Verhaltens” wird bald das Konzept einer zielgerichteten, autonomen
individuellen „Handlung”.
Günter Sämmer: Paradigmen der Psychologie
(2)
- 266 -
Kapitel 8: Kognitivismus
Programmgesteuerte theoretische Maschinen
Gleichzeitig und in enger Verbindung mit der Kybernetik, der Theorie der Steuerungs- und Regelungsprozesse, entstehen die grundlegenden Theorien der Datenverarbeitung:
Schon 1936 hatte Allan T URING ein mathematisches Modell entworfen, später „Turingmaschine”
genannt, das in der Lage war, durch eine „programmgesteuerte” endliche Abfolge einfacher binärer
Richtig-Falsch-Entscheidungen einen mathematischen Satz zu beweisen. Es zeigt sich sehr bald, daß die
Funktionsweise von Turingmaschinen nicht davon abhängt, wie die Maschine physikalisch realisiert wird,
ob also z.B. die Operationsanweisungen (also das „Programm”) auf einem Papierstreifen oder einem
Magnetband festgehalten werden. So wird die Turingmaschine zum (ideellen) Prototyp eines Computers,
und die ersten „Informatiker” wie John VON NEUMANN, Herbert SIMON und Allan NEWELL, Marvin
MINSKY und John MCCARTHY leiten daraus ihre grundlegenden Ideen ab, die bald in die Entwicklung
realer programmgesteuerter elektronischer Datenverarbeitungsmaschinen mündet.
(3)
Informationstheorie
Parallel zur Entwicklung des Computers und eng mit dieser verknüpft, entsteht im Bereich der Nachrichtentechnik die dritte Säule der moderenen Informationstechnik, die Informationstheorie. Claude
SHANNON entwirft (z.T. in Zusammenarbeit mit WIENER) eine quantitative mathematische Konzeption
der „Information”, die als Maß für die Reduktion von Unbestimmtheit aufgefaßt wird (vgl. SHANNON,
1948):
Grundeinheit für Information ist das Bit, die Anzahl der Elementarentscheidungen, die nötig ist, um in
den Besitz der vollständigen Information über einen Zustand zu gelangen.
Eine Elementarentscheidung in Form eines „Ja” oder „Nein” enthält genau ein Bit Information. Komplexere Formen von Information lassen sich stets in Elementarentscheidungen zerlegen.
Ein Beispiel: Die Information, auf welchem der 64 Felder eines Schachbretts der schwarze König steht,
kann durch sechs elementare Ja-Nein-Entscheidungen mitgeteilt werden: etwa durch sukzessives
Abfragen: Linke Hälfte des Schachbretts? Obere Hälfte? ... . Genau 6 solcher Elementarentscheidungen
sind nötig, um jedes beliebige von 64 ( = 26) Feldern zu erreichen. Somit enthält der Satz „Der König steht
auf B4” eine Informationsmenge von 6 Bit. Da 26 = 64 ist, berechnet sich die Zahl der Bit als 6 = log264.
Entsprechend enthält ein einzelner Buchstabe eines 26-buchstabigen Alphabets einen Informationsgehalt
von log226 = 4,7 Bit (da 24,7 = 26 ist).
Information ist unabhängig von ihrem physikalischen Träger und kann in jedem beliebigen geeigneten
physikalischen, chemischen oder auch organischen Medium in identischer Weise ohne „Identitätseinbußen” existieren. Damit wird klar: Informationsverarbeitungsprozesse können strukturell so beschrieben
werden, daß sie sowohl in lebendigen als auch in künstlichen „Umgebungen” identisch ablaufen. Zwischen dem menschlichen Gehirn und einer künstlichen Maschine besteht in dieser Hinsicht kein qualitativer Unterschied.
(4)
Technische Modelle mentaler Prozesse
In den 50er Jahren beginnen dann tatsächlich reale Automaten mit digitalen Repräsentationen der
Außenwelt zu operieren. Alles, was in Informationseinheiten digitalisierbar ist, läßt sich auch in einem
„Computer” darstellen und weiterverarbeiten. Auf diese Weise entsteht ein mächtiges technisches
Modell mentaler Prozesse, das zum Paradigma einer neuen und zum Behaviorismus alternativen Form
der Psychologie wird.
Die bislang in der Psychologie nur äußerst vage und unbestimmt, weil ausschließlich introspektiv behandelbaren Konzepte von „Absicht”, „Wille” und „Vorstellung” erhalten eine neue, naturwissen-
Günter Sämmer: Paradigmen der Psychologie
- 267 -
Kapitel 8: Kognitivismus
schaftlich legitimierte Fassung. Die Existenzbehauptung mentaler Prozesse gewinnt entscheidend an
Seriosität und Durchschlagskraft, der strenge Behaviorismus gerät zunehmend in die Defensive.
8.1.3 Die „Kognitive Wende”: Eine neue scientific community formiert sich
Auf mehreren wissenschaftlichen Symposien treffen sich seit Ende der 40er Jahre immer wieder
Psychologen mit Informationswissenschaftlern, um die Implikationen dieser neuen Erkenntnisse für die
Psychologie zu diskutieren. Schon 1948, auf dem Hixon-Symposium am California Institute of Technology, hatte der WATSON-Schüler Carl LASHLEY in einem aufsehenerregenden Vortrag darauf hingewiesen, daß so komplexe Verhaltensweisen wie Sprache oder Violinespielen, kaum, wie bei den zeitgenössischen Behavioristen und Neurophysiologen üblich, mit Hilfe einfacher Assoziationsketten zu erklären sind
(vgl. dazu die Darstellung in GARDNER, 1992). Zum Beispiel beim Abspielen einer schnellen Tonsequenz,
so LASHLEY, bleibe dem Nervensystem einfach keine Zeit, auf die innere Rückmeldung des ersten Tones
zu warten, bis der zweite innerhalb einer Assoziationskette als „response” gebildet werden kann. Dazu
sei (die inzwischen nachweisbare) Übertragungsgeschwindigkeit des Nervensystems zu gering. Erklärbar
sei eine solche Leistung nur, wenn dem Organismus eine hierarchische Organisation der Steuerung
unterstellt werde, in der großräumigere Ziele des Verhaltens festgehalten sind.
Zum Meilenstein für die Entwicklung des Kognitivismus wird das Symposium on Information Theory,
das vom 10. - 12. September 1956 am MIT stattfindet. Neben N EWELL und SIMON , die ihre
„Logiktheorie-Maschine” vorstellen, die erste „reale” Turingmaschine, die einen mathematischen Beweis
führt, tragen George MILLER und Noam CHOMSKY vor:
George MILLER berichtet von seiner wahrnehmungs- und gedächtnistheoretischen Arbeit über die
„Magical Number Seven” (vgl. MILLER, 1956; vgl. auch unten, Abschnitt 8.2.1). In einer Synopse
verschiedener Untersuchungen kann MILLER zeigen, daß die Kanalkapazität des menschlichen Informationsverarbeitungssystems auf etwa sieben Informationsblöcke („chunks”) begrenzt ist. MILLER versucht
mit seinem Aufsatz, der in Termen der Informationstheorie formuliert ist, zum ersten Mal eine konsequente Anwendung des Informationsbegriffs, der Informationsübertragung und -speicherung auf das menschliche Wahrnehmen und Denken und eröffnet damit das informationstheoretische Sprachspiel in der
Psychologie.
Noam CHOMSKY erläutert die Grundideen seiner Transformationsgrammatik (vgl. CHOMSKY, 1956;
1973, Orig. 1957). Er orientiert sich dabei an der grundlegenden Modellvorstellung einer mathematisc hen
virtuellen „Maschine”, wie sie z.B. in den Theorien von TURING oder MARKOW vorgestellt worden
waren. Sprache wird hier generiert in einem algorithmischen Prozeß, nach einem hierarchisch aufgebauten, formalen Regelwerk, dessen drei Hauptebenen (Phrasen-Struktur-, Transformations- und Morphophonemik-Regeln) systematisch durchlaufen werden müssen, bis ein grammatisch richtiger Satz ausgesprochen werden kann. CHOMSKYs Bedeutung liegt darin, zum ersten Mal für eine komplexe menschliche
Fähigkeit wie die Spracherzeugung einen hierarchisch organisierten Algorithmus gefunden zu haben.
Seine linguistische Theorie wird so zum Vorbild für eine erste kognitivistische Handlungstheorie.
Damit deutet sich an, daß eine große Zahl mentaler Prozesse prinzipiell in Termen der Informationsverarbeitung erfaßbar und mit einschlägigen empirischen Methoden erforschbar ist. So werden mit der Zeit
diejenigen „kognitiven” Forschungsprogramme wieder „hoffähig”, die neben dem Behaviorismus bislang
ein Außenseiterdasein fristeten, z.B.:
• HEIDERs frühe Attributionstheorie, die annimmt, daß Menschen bestimmten sozialen Ereignissen
(interne oder externe) Ursachen zuschreiben, woraus sich unterschiedliche Handlungstendenzen ergeben
(vgl. HEIDER, 1944; 1977, Orig. 1958);
• FESTINGERs Theorie der Kognitiven Dissonanz, das sic h mit dem Schicksal widerstreitender
Kognitionen befaßt (FESTINGER, 1957);
Günter Sämmer: Paradigmen der Psychologie
- 268 -
Kapitel 8: Kognitivismus
• BRUNER, POSTMAN u.a. Beiträge zu einer Theorie der sozialen Wahrnehmung („New Look in
Perception”), die die Wirkung personaler, sozialer und motivationaler Faktoren auf den Wahrnehmungsprozeß beschreibt (vgl. z.B. im Überblick bei: GRAUMANN , 1956);
• BRUNERs denktheoretischer Ansatz, der verschiedene Strategien der Kategorienbildung postuliert
(vgl. BRUNER, GOODNOW & AUSTIN, 1956);
• AUSUBELs und GAGNÉs pädagogisch-psychologische Ansätzes des Wissens und Denkens (vgl.
AUSUBEL, 1960; GAGÉ, 1973).
8.2
Die ersten kognitivistischen Forschungsprogramme: Modelle menschlicher Informationsverarbeitung
Die anfängliche Dynamik des neuen Paradigmas hängt in den späten 50er und frühen 60er Jahren
entscheidend davon ab, ob es gelingt, die noch sehr pauschalen Kernannahmen, die psychische Prozesse
mit Informationsverarbeitungsprozessen identifizieren, durch elaborierte und empirisch fundierte psychologische Modelle zu ersetzen.
Am Beispiel der wegweisenden Arb e i t MILLERs (1956), des ersten elaborierten Wahrnehmungs- und
Gedächtnismodells von BROADBENT (1987, Orig. 1958) sowie des ersten programmatischen Entwurfs
eines kognitivistischen Handlungsmodells von MILLER, GALANTER und PRIBRAM (1991, Orig. 1960) soll
nun versucht werden, Einblick zu gewinnen in das inhaltliche wie auch in das methodologische Vorgehen
der frühen Kognitivisten.
8.2.1 „Kanalkapazitäten” menschlicher Informationsverarbeitung
In seinem Vortrag auf dem Symposium on Information 1956 gibt MILLER einen Überblic k über eine
größere Zahl von Einzeluntersuchungen zum „absoluten Schätzurteil” (absolute judgement), die in den
vorangegangenen 10 Jahren von mehreren Forschern durchgeführt worden waren. Seine Leistung besteht
darin, die heuristische Fruchtbarkeit einer konsequenten informationstheoretischen Interpretation zu
demonstrierten, die es ermöglicht, verschiedenartige Meßergebnisse für verschiedenartige Sinnesreize so
zusammenzufassen, daß neue, grundlegende Gesetzmäßigkeiten erkennbar werden:
(1)
POLLACK hatte 1952 seinen Versuchspersonen verschieden hohe Töne vorgespielt. Bei erneuter
Darbietung dieser Töne sollten die Versuchspersonen diese dann wiedererkennen und richtig zuordnen.
Pollack begann zunächst mit nur zwei unterschiedlichen Tönen, bei deren Zuordnung die Versuchspersonen keine Fehler machten. Steigerte er dann aber die Zahl der zu unterscheidenden und zuzuordnenden Töne, so traten ab 5 die ersten Fehler auf, die Versuchspersonen begannen, die Tonzuordnungen zu
verwechseln (vgl. POLLACK, 1952).
(2)
BEEBE-CENTER, ROGERS und O'CONNELL (1955) ließen ihre Versuchspersonen die Salzkonzentration in verschiedenen Lösungen geschmacklich bestimmen und zuordnen.
(3)
Bei HAKE und GARNER (1951) sollten Versuchspersonen die Positionen von Punkten auf einer
geraden Linie reproduzieren, die in verschiedene Intervalle eingeteilt war.
Solc he und weitere Untersuchungen systematisiert MILLER nun informationstheoretisch in folgender
Weise:
Die Anzahl der Möglichkeiten, einen Schätzfehler zu machen, z.B. in POLLACKs Untersuchung entspricht
dies der Anzahl der zuzuordnenden Töne, ist ein Maß für die eingehende Information (Input Information): Zwei Töne enthalten log2 2 = 1 Bit (bei der Auswahl „Eins aus Zwei” gibt es genau eine Fehlermöglichkeit), drei Töne enthalten log 2 3 = 1,58 Bit, vier Töne log2 4 = 2 Bit Information, usw.. An der
jeweiligen Schätzleistung (Zahl der richtigen Schätzungen) kann dann die Informationsmenge abgelesen
werden, die vom „Kommunikationskanal” übertragen wurde (transmitted information). Auch sie wird
entsprechend in Bit umgerechnet.
Günter Sämmer: Paradigmen der Psychologie
- 269 -
Kapitel 8: Kognitivismus
Abb. 8.1: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Tonhöhen: Ergebnisse des Experiments von
POLLACK in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85)
Abb. 8.2: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Salzkonzentrationen: Ergebnisse des Experiments
von BEEBE-CENTER, ROGERS und O'CONNELL in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85)
Abb. 8.3: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Punkte auf einer Linie: Ergebnisse des Experiments
von HAKE und GARNER in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85)
Ein Vergleich verschiedener Experimente für verschiedene Sinnesleistungen zeigt nun, daß dort immer
wieder die gleichen Muster auftreten (vgl. Abb. 8.1 - 8.3):
Wird die einfließende Information sukzessive erhöht (hier durch Zunahme der Wahlalternativen), so
erhöht sich zunächst auch die übertragene Information (in den Schätzergebnissen). Dies gelingt aber nur
bis zu einer bestimmten einfließenden Informationsmenge, dann nimmt die übertragene Information nicht
weiter zu, die (maximale) Kanalkapazität (chanel capacity) ist erreicht.
MILLER vergleicht nun auf diese Weise die Kapazitäten verschiedener Kanäle für verschiedene Sinnesinformationen und kommt zu dem Schluß, daß diese über alle Sinnesorgane hinweg im Mittel bei 2,6 Bit
liegen und nur mit einer Standardabweichung von 0,6 Bit schwanken. Dies entspricht einer mittleren
fehlerfreien Übertragung von etwa 6,5 alternativen Kategorien mit einer Schwankung von 1,5. Die „magische Zahl Sieben”, die in vielen Kulturen eine so große Rolle spielt, zeigt sich damit als eine Grundkonstante menschlicher Informationsverarbeitung, nämlich als mittlere Kanalkapazität des Menschen.
Günter Sämmer: Paradigmen der Psychologie
- 270 -
Kapitel 8: Kognitivismus
Nun bedeutet dies aber nicht, daß das menschliche Informationsverarbeitungssystem nur um die sieben
Bit Informationsmenge gleichzeitig aufnehmen und verarbeiten kann. Die oben skizzierten Experimente
haben nämlich gemeinsam, daß sie alle eindimensionale Stimuli verwenden: Tonhöhe, Salzkonzentration,
Anzahl. Damit enthält jede einzelne Zuordnung (Schätzalternative) immer dieselbe Informationsmenge
wie alle anderen.
Was geschieht aber, wenn man Informationen „packt”, also zu Items, in MILLERs Sprechweise zu
„chunks” zusammenfaßt? Dazu werden Versuchspersonen nicht „Einzelereignisse” (wie einzelne Töne
mit diskreten Tonhöhen) dargeboten, sondern „Informationsblöcke” wie dezimale Ziffern, Buchstaben,
einsilbige Wörter usw. Jede dezimale Ziffer enthält z.B. log2 10 = 3,3 Bit an Information, ein Buchstabe
eines 26-buchstabigen Alphabets log2 26 = 4,7 Bit. POLLACK (1953) hatte nun gezeigt, daß auch hier nur
eine begrenzte Zahl von Items (chunks) behalten wird, allerdings ist dies beinahe unabhängig von der
Information, die jedes einzelne Item trägt. Die aufgenommene Gesamtinformation steigt an, wenn die
Information pro Item ansteigt (vgl Abb. 8.4):
Abb. 8.4: Ergebnis der Untersuchung von POLLACK (1953): Behaltene Informationsmenge bei steigender Informationsdichte pro
Chunk (nach M ILLER, 1956; S. 92).
Chunks entstehen aber durch Gruppierung von Einzelinformationen, und damit wird deutlich, daß bei
der Informationsaufnahme die aktive Organisation und Gruppierung des Input, also die Rekodierung
der einlaufenden Information zu „übersichtlichen” chunks eine wesentliche Rolle für die Leistungsfähigkeit des Informationsverarbeitungssystems spielt. Die Welt der Informationen erschließt sich so als eine
hierarchische kognitive Struktur von Gruppierungen immer höherer Komplexität und Informationsdichte, die, wie die obigen Experimente zeigen, prinzipiell informationstheoretisch quantifizierbar sind.
8.2.2 Wahrnehmung, Aufmerksamkeit und Erkennen als Informationsverarbeitung: Das BROADBENTsche Filtermodell
Im Jahre 1958 veröffentlicht BROADBENT das erste Modell, das die Aufmerksamkeitssteuerung bei der
Wahrnehmung durch ein Blockdiagramm als „Informationsfluß” (information-flow) beschreibt. Er
synthetisiert damit eine ganze Reihe von vorangegangenen Untersuchungen zu einem einheitlichen
„Filter-Modell”, einer, wie später gesagt wird, „Theorie mittlerer Reichweite”; hier zwei Beispiele
solcher Experimente:
• In einem der typischen Experimente zum „begleitenden Nachsprechen” spielte CHERRY (1953) seinen
Versuchspersonen über die Muschel eines Kopfhörers einen Text vor, den diese nachzusprechen hatten.
In die andere Hörermuschel wurde gleichzeitig ein anderer Text gesprochen, und es wurde untersucht,
welche Eigenschaften dieser zweiten Mitteilung die Versuchspersonen registrieren konnten. Hier, wie
auch in mehreren Folgeuntersuchungen, zeigte sich, daß die Versuchspersonen zwar kaum etwas über
den Inhalt des hinzu gesprochenen Textes aussagen konnten, dafür aber seine Lokalisation, Intensität
und die Stimmqualität (z.B. Männer- oder Frauenstimme) registrieren konnten.
Günter Sämmer: Paradigmen der Psychologie
- 271 -
Kapitel 8: Kognitivismus
• BROADBENT selber hatte mit einem ähnlichen Versuchsaufbau experimentiert. Hier wurden den Vpn
zwei Ziffernreihen gleichzeitig in beide Ohren gesprochen, und zwar mit einer Sprechgeschwindigkeit von
zwei Ziffern pro Sekunde; z.B. 7-2-3 in das linke Ohr, 9-4-5 in das rechte. Beim Wiedergeben des
Gehörten trat dann ein überraschender Reihungseffekt auf: Die Vpn sagten stets zuerst die komplette
Reihe einer Seite und danach die komplette Reihe der anderen, also 7-2-3 dann 9-4-5 oder: 9-4-5 dann 72-3. Fast nie war die wiedergegebene Ziffernreihenfolge eine Mischung beider Seiten. Verlangsamte man
nun die Einsprechgeschwindigkeit für beide Ziffernreihen auf eine Ziffer pro zwei Sekunden, dann ging
der Reihungseffekt verloren, und die Vpn begannen, bei der Wiedergabe die Ziffernreihen verschiedener
Seiten zu mischen (vgl. BROADBENT, 1954).
Abb. 8.5: BROADBENT s „Informationsfluß-Modell” der Aufmerksamkeit (BROADBENT , 1987, Orig. 1958; S. 299)
Mit seinem Informationsfluß-Modell (vgl. Abb. 8.5) beschreibt und erklärt BROADBENT (1987, Orig.
1958) diese experimentell ermittelten Zusammenhänge wie folgt:
a) Selektion, Filterung, Sequenzierung
Die betrachteten Experimente weisen zunächst darauf hin, daß nicht alle Informationen, die an die
Sinnesorgane („senses”) gelangen auch gleichzeitig zur Verarbeitung kommen. In BROADBENTs
Experiment werden die gleichzeitig einlaufenden Informationen mehrerer „Kanäle” (jeder der kurzen
Pfeile im „Eingangsbereich” des Diagramms wird als ein Informationskanal interpretiert) in eine Reihenfolge gebracht und dann erst wiedergegeben. Damit dies möglich wird, müssen sie zunächst in einem
„buffer” („Short-term-store”) zwischengespeichert werden, denn sonst ginge zumindest der zweite
Informationsblock der Wiedergabesequenz verloren. Eine solche „Pufferung” ist allerdings nur für ein bis
zwei Sekunden wirksam, denn, wie BROADBENTs Experiment zeigt, gelingt bei verlängerter Eingabezeit
(alle zwei Sekunden eine Ziffer) eine solche Sequenzierung nicht mehr, der Zwischenspeicher ist
inzwischen offenbar gelöscht.
Bei CHERRY wird von dem Text, dem die Aufmerksamkeit nicht zugewandt ist, kaum etwas weiterverarbeitet. Es findet somit also eine Selektion von Informationen statt, und diese wird, so die Modellvorstellung, von einem Filter („selective filter”) geleistet. Dieser Filter reagiert aber nur auf ganz bestimmte
Eigenschaften des eingehenden Sinnesmaterials: physikalische Intensität, räumliche Position und verschiedene qualitative Merkmale. Sinnesreize, die bestimmte solcher Merkmale besitzen, werden in den
Kommunikationskanal durchgelassen, alle anderen werden unterdrückt.
b) Erfahrungseinflüsse
Bis hierhin ist innerhalb des oben vorgestellten Modells nur von „einlaufender Information” die Rede, d.h.
es wurden nur Informationsflüsse betrachtet, die „von außen nach innen” verlaufen. Auf zwei Arten trägt
aber auch bereits vorhandene, also gespeicherte Information zum Verarbeitung neuer Informationen bei:
Einmal können Informationen, die bereits den Kommunikationskanal passiert haben, sofort an den
selektiven Filter zurückgegeben werden (oberer rücklaufender Pfeil 1 in Abb. 8.5) und sorgen z.B. so
dafür, daß der Filter für diese Art von Informationen offen bleibt. Dies ist z.B. der Fall, wenn die
Aufmerksamkeit auf ein bestimmtes Ereignis „geheftet” wird oder beim „erhaltenden Wiederholen”. Zum
anderen ist das Informationsverarbeitungssystem aber auch in der Lage, zwischen verschiedenen
Informationen, die nacheinander den Informationskanal passiert haben, eine Verbindung herzustellen und
diese als „bedingte Wahrscheinlichkeiten” zu speichern. Dafür steht ein weiterer Speicher zur Verfügung,
der „Store of conditioned probability of past events”. (Eine Bezeichnung, die wohl auf BROADBENTs
Günter Sämmer: Paradigmen der Psychologie
- 272 -
Kapitel 8: Kognitivismus
Anspruch hinweist, mit diesem Modell auch klassische und operante Konditionierungsprozesse zu
erfassen und als besondere Form der Informationsverarbeitung zu interpretieren!) Kommt also eine
Information über einen der Kanäle in den selektiven Speicher, die früher schon einmal zusammen mit
einer anderen Information „durchgelassen” wurde, so erhält sie eine höhere Priorität (unterer rücklaufender Pfeil 2 in Abb. 8.5). Damit ist sichergestellt, daß Erfahrungen die Funktion des Wahrnehmungsfilters beeinflussen können.
8.2.3 Pläne und Strukturen des Verhaltens: ein kybernetisches Handlungsmodell
Im Sommer 1959 treffen sich an der Stanford Universität in Palo Alto, Kalifornien, drei Psychologen, um
eine Bestandsaufnahme und Synthese der bisherigen Entwicklung des informationstheoretischen kognitionspsychologischen Ansatzes zu versuchen: George A. MILLER, Eugene G ALANTER und Karl
PRIBRAM . Alle drei besitzen ausgezeichnete Kontakte zur „Computerszene” um NEWELL, SHAW und
SIMON und kennen deren neueste Entwicklungen. Aus der Zusammenarbeit der Drei entsteht eines der
richtungweisenden Werke der kognitivistischen Psychologie: „Plans and the Structure of Behavior”
(deutsch: Strategien des Handelns: Pläne und Strukturen des Verhaltens) (MILLER, GALANTER &
PRIBRAM , 1991, Orig. 1960).
Dieses Buch ist einerseits die erste programmatische Schrift, die eine systematische Abrechnung mit
dem „gegnerischen Lager” (a.a.O.; S. 18) der Behavioristen versucht, andererseits legt es die konzeptionellen Grundlagen sowohl für eine empirisch ausgerichtete kognitivistische Handlungstheorie und
-forschung als auch für viele kognitivistische Konstrukte wie „Selbstbild und Selbstkonzept”, „Einstellung”
oder „Motiv”, die schon wenig später zu großen Forschungsprogrammen führen werden.
(1)
Angriffe auf den Behaviorismus
a) Die neue Programmatik: Wissen und aktives Handeln statt reaktives Verhalten
„Wenn ich an meinem Schreibtisch sitze, weiß ich, wo ich bin. ... Auch wenn ich nicht hinblicke, weiß ich, daß hinter meinem
Rücken ein Fenster ist und dahinter der Campus ... ; weiter zurück liegen die Küstenhügel und dahinter der Pazifik.” (M ILLER,
GALANTER & PRIBRAM, 1991, Orig. 1960; S. 11)
Mit dieser programmatischen Erinnerung an eine von den Behavioristen konzeptuell nicht erfaßbare
subjektive menschliche Elementarerfahrung beginnen MILLER, GALANTER und PRIBRAM ihr Buch. Sie
beschließen in informationstheoretischer Manier, endlich „zwischen den Reiz und die Reaktion etwas
Weisheit einzuschieben” (a.a.O.; S. 12).
Aber sie gehen noch einen Schritt weiter: Nach ihrer Ansicht haben die „kognitiven Wissenschaftler” sich
zwar bisher ausführlich mit Wahrnehmung, Aufmerksamkeit und Informationsverarbeitung beschäftigt,
der Handlungs- und Verhaltensaspekt ist dabei jedoch weitgehend unberücksichtigt geblieben: „ ... die
kognitiven Wissenschaftler ... beschrieben uns einen Organismus, der im Drama des Lebens mehr die
Rolle eines Zuschauers als eines Teilnehmers hat.” (a.a.O.; S. 12) Nun ist gerade dieser bisher gemiedene Bereich des Verhaltens zu jener Zeit ohne Zweifel die Domäne der behavioristischen Psychologen,
und genau auf deren Kernannahmen zielen die ersten Argumente des Buches.
b) Kritik am Modell des Reflexbogens
Der für die gesamte behavioristische Theoriebildung grundlegende physiologische Begriff des Reflexbogens aus Reiz - Rezeptor - afferente Nerven - Nervenfasern - efferente Nerven - Effektor - Reaktion
müsse, so MILLER, GALANTER und PRIBRAM , als ein Mythos angesehen werden, und, wohl in Anspielung
auf SKINNERs Formulierungen (vgl. auch oben, Kapitel 6) erklären sie: „Einen Behavioristen, der
behauptet, der Reflex sei eine Tatsache, kann man ignorieren” (a.a.O.; S. 29/30) Schließlich habe
SHERRINGTO N schon 1906 darauf hingewiesen, daß der einfache Reflex lediglich eine „nützliche
Fiktion” sei, nützlich zur Erklärung von Vorgängen an Rückenmarkspräparaten.
Günter Sämmer: Paradigmen der Psychologie
- 273 -
Kapitel 8: Kognitivismus
c) Die Konstruktivistische Grundposition
Die große Sympathie, die man für SHERINGTONs Formulierung von einer Theorie als „nützlicher Fiktion“
empfindet, deutet darauf hin, daß man sich im „neuen Paradigma” nicht nur in einer anderen Gegenstandswelt bewegt, man scheint auch gewillt, die dem Empirismus nahestehenden wissenschafts- und
erkenntnistheoretischen Grundanschauungen der Behavioristen durch ein alternatives Denken zu
„dekonstruieren”:
Während Behavioristen wie SKINNER gewohnt sind, von „Beobachtungen” und den dabei registrierten
„Tatsachen” zu sprechen, beginnen MILLER, GALANTER und P RIBRAM auf wissenschaftstheoretischer
Ebene das für den Kognitivismus der Zukunft typische konstruktivistisches Sprachspiel: Sie „nehmen
an” und machen hypothetisch und modellhaft „Vorschläge”: „Nicht mehr den Reflex, sondern den
Rückkopplungskreis wollen wir als Grundelement des Verhaltens ansehen” (a.a.O.; S. 34); und sie
rekurrieren auf die pragmatischen Aspekte der „Nützlichkeit” statt auf die Wahrheit von Theorien: „Es
gibt durchaus Gründe zu der Annahme, daß die Brauchbarkeit der Reflexeinheit weitgehend überschätzt
wurde” (a.a.O.; S. 30).
d) Spontane Aktivitäten des Nervensystems in Rückkopplungsprozessen
Auf der inhaltlichen Ebene argumentieren MILLER, GALANTER und PRIBRAM gegen eine der zentralen
behavioristischen Modellvorstellung: Das Modell des Reflexbogens sei nämlich inzwischen gänzlich
inadäquat, also zur Erklärung neuer physiologischer Erkenntnisse kaum noch brauchbar, denn
• jedes Nerven- und Rezeptorgewebe sei nicht nur reaktiv, sondern auch spontan aktiv;
• die nervöse Weiterleitung von Erregungen sei keine einfache elektrische Übertragung, sondern beruhe
auf dem Vorhandensein strukturierter „Signalbilder”, die auf Neuronenebene „erkannt” und ausgewertet
werden müssen;
• die Aktivierung von Effektoren (zur Erzeugung einer muskulären Reaktion) erfolge immer erst nach
Prüfung des vorliegenden Erregungspotentials; kurz:
• Effektoren und damit die muskulären Reaktionen setzen sich erst in Gang aufgrund komplexer
rückgekoppelter informationsverarbeitender Prozesse auf neuronaler Ebene (und nicht aufgrund der
einfachen linearen „Weiterleitung” von Nervenimpulsen vom Anfang eines Reflexbogens bis zu seinem
Ende).
(vgl. a.a.O.; S. 31ff)
(2)
Die TOTE-Einheit als kybernetisches Gegenmodell
a) Die neue Elementareinheit: TOTE
MILLER, GALANTER und PRIBRAM schlagen deshalb vor, die (behavioristische) Grundeinheit des
Verhaltens, den Reflexbogen, zu ersetzen durch eine kybernetische Steuerungseinheit, die TOTEEinheit (vgl. Abb. 8.6):
Abb. 8.6: Die TOTE-Einheit, bestehend aus dem kybernetischen Regelkreis: Prüfphase (Test) - Handlungsphase
(Operate) - Prüfphase (Test) - Ende der Handlung (Exit) (aus: M ILLER, GALANTER & PRIBRAM (1991; ORIG. 1960;
S. 34)
Günter Sämmer: Paradigmen der Psychologie
- 274 -
Kapitel 8: Kognitivismus
Sowohl auf der Ebene des Nervensystems als auch im Bereich makroskopischer Handlungen sollen die
Grundelemente des Verhaltens folgendermaßen interpretiert werden:
Ein Individuum oder auch ein Teilbereich seines Nervensystem gerät in eine Situation, in der es eine
Inkongruenz zwischen dem vorliegenden Ist-Zustand und einem Soll-Zustand feststellt (Prüfphase - Test).
Es führt nun eine geeignete Veränderung durch (Operate - Handlungsphase) und kontrolliert in einem
erneuten Test, ob nun der Sollzustand erreicht ist. Diese „Schleife” wird solange durchlaufen, bis dies
endlich der Fall ist, dann kommt die Handlung zum Stillstand (Exit).
b) Die hierarchische Struktur der Informationsverarbeitung
MILLER, GALANTER und PRIBRAM stellen sich nun vor, daß das gesamte Verhalten bzw. Handeln des
Menschen auf diese Weise hierarchisch aus („molekularen”) neuronalen Prozessen abgeleitet werden
kann.
Abb. 8.7: Der hierarchische Plan für das Nageleinschlagen
(M ILLER, GALANTER & PRIBRAM, 1991; Orig. 1960; S. 42)
Umgekehrt kann auch jegliches makroskopische („molare”) Verhalten als TOTE-Einheit interpretiert und
in beliebig kleine Untereinheiten „kleingearbeitet” werden. (Ein Modell, das GARDNER (1992) als „Flirt mit
dem Reduktionismus” bezeichnet, und das die Kognitivisten in dieser Grundidee mit den Behavioristen
verbindet.)
An einem Alltagsbeispiel wird dies illustriert (vgl. Abb. 8.7): Der Gesamtvorgang des „Nageleinschlagens” (obere Hierarchiestufe) besteht aus der Prüfung des Nagels (ob er noch hervorschaut) und dem
Hämmern als Handlungseinheit, welches solange fortgesetzt wird, wie die Prüfung Inkongruenz anzeigt.
Der Vorgang des Hämmerns wiederum ist in (mindestens) zwei weitere TOTE-Einheiten der zweiten
Hierarchiestufe zerlegt: „Anheben des Hammers” und „Zuschlagen”. Und auch diese ließen sich in
weitere Teileinheiten zerlegen (dritte Hierarchiestufe), z.B.: „Anheben” in „Muskeln von Arm und Hand
anspannen” (solange der Hammer ganz unten ist) und: „Muskeln von Arm und Hand entspannen” (sobald
der Hammer den Scheitelpunkt erreicht).
8.2.4 Grundelemente des kognitivistischen Sprachspiels
(1)
Die Äquivalenzthese: Psychische Prozesse als Phänomene der Informationsverarbeitung
Der neue informationstheoretisch-kybernetische Ansatz ermöglicht es (endlich), mentale Prozesse auf
dem Hintergrund naturwissenschaftlicher Modellbildung zu untersuchen. Solange man in der Theoriebildung (im weitesten Sinne) in Termen der Informationsverarbeitung spricht, solange bewegt man sich
auf festem, nicht-subjektivistischem und nicht-metaphysischem Boden.
Günter Sämmer: Paradigmen der Psychologie
- 275 -
Kapitel 8: Kognitivismus
Das grundlegende Bild vom Menschen ist das eines aktiven, durch Wahrnehmung, Denken, Planung
und Handlung selbstregulierten Informationsverarbeitungssystems. Alle psychischen Prozesse (auch
Gefühle, Werturteile und Motive) lassen sich aus der Perspektive der Informationsverarbeitung interpretieren. Kognitionen können betrachtet werden als eine Art „inneren Rechnens” mit repräsentierenden
Symbolen („Symbol-System-Postulat” und „Äquivalenzthese”) (vgl. Newell & Simon, 1976 bzw. Fodor
& Pylyshyn, 1988).
(2)
Aus Wahrnehmung, Gedächtnis, Denken wird „Informationsverarbeitung”
a) Repräsentationen
Analog zum Computer ist das menschliche Gehirn in der Lage, Wissen aufzunehmen, zu organisieren und
zu speichern. Es bedient sich dabei „mentaler Repräsentationen”, also Abbildungen (nicht im Sinne der
bildlichen, analogen Ähnlichkeit, sondern im Sinne mathematischer Zuordnung) von Gegebenheiten im
Nervensystem. Dabei kann es sich sowohl um beobachtbare Sachverhalte der Außenwelt handeln, als
auch um überindividuelle Gebilde, historisch-kulturelle Makrophänomene wie „die Sprache”, „das Recht”
oder „die Wissenschaft”. Besonders wichtig ist aber auch die Repräsentation mentaler Sachverhalte
selber: das Wissen um das eigene Wissen, die Disponibilität von Steuerungsfunktionen („Ich könnte nun
dies tun oder dies ... „) usw. (vgl. HERRMANN, 1989).
b) Organisiertes Wissen
In den Speicher- und Filtermodellen sind die Speicherinhalte als organisiertes „Wissen” interpretierbar.
Innerhalb einer TOTE-Einheit benötigen sowohl die Prüfeinheit als auch die Handlungseinheit Informationen, die das Individuum gespeichert bereithalten muß: Für die Prüfung sind sowohl Wahrnehmungsstrukturen (Schemata) als auch Prüfmaßstäbe und -normen erforderlich, für den Handlungsteil müssen
ganze Ablaufalgorithmen gespeichert sein. Insgesamt erfordert der erfolgreiche Ablauf einer TOTEEinheit „Wissen”, also ein „Bild” der Welt.
NEISSER (1974, Original 1967) nimmt im ersten Lehrbuch der „Kognitiven Psychologie“ eine entsprechende Neudefinition für den Begriff der Kognition vor:
„In der hier benutzten Bedeutung meint der Begriff Kognition all jene Prozesse, durch die der sensorische Input umgesetzt,
reduziert, weiter verarbeitet, gespeichert, wieder hervorgeholt und schließlich benutzt wird. Er meint diese Prozesse auch dann,
wenn sie ohne das Vorhandensein entsprechender Stimulation verlaufen wie bei Vorstellungen und Halluzinationen. Begriffe wie
Empfindung, Wahrnehmung, Vorstellung, Behalten, Erinnerung, Problemlösen und Denken nebst vielen anderen beziehen sich
auf hypothetische Stadien oder Aspekte der Kognition. (a.a.O.; S. 19)
(3)
Aus reaktivem Verhalten wird intentionales „Handeln”
Die Erfindung intelligenter teleologischer Maschinen hat nun die Experimentalpsychologen davon
überzeugt, „daß in Begriffen wie 'Ziel', 'Absicht ', 'Erwartung', 'Entelechie ' nicht etwas Okkultes
eingeschlossen ist”. (MILLER, GALANTER & PRIBRAM , 1991, Orig. 1960; S. 49): Verhalten kann nämlich
nun beschrieben werden als eine hierarchisch strukturierte Folge von Instruktionen, die ein Organismus
in einer festgelegten Reihenfolge ausführt. Diese Instruktionenfolge entspricht beim Computer dem
Programm, das die einzelnen Prozesse des Vergleichs und der Veränderung von Daten steuert. Wie jedes
Computerprogramm auf ein Ziel ausgerichtet ist, nach dessen Erreichen es „abgelaufen” ist, so ist auch
das menschliche Verhalten zielorientiert, und man kann, ohne animistische Konzepte zu benutzen und
ohne zu „anthropomophisieren” sagen, dem nach TOTE-Einheiten organisierten Verhalten liege ein
zielgerichteter Ablaufplan zugrunde. Die Begriffe „Plan”, „Absicht”, „Vorsatz” und „Intention”
bezeichnen damit lediglich besondere Aspekte solcher Steuerungsfunktionen.
Um die nach ihrer Ansicht im Begriff des Handelns mitschwingenden metaphysischen und subjektivistischen Aspekte zu eliminieren, hatten Behavioristen sich angewöhnt, in bezug auf individuelle Aktivitäten
grundsätzlich nur noch von „Verhalten” zu sprechen. Nun ist aber Intentionalität wieder wissenschaftlich
Günter Sämmer: Paradigmen der Psychologie
- 276 -
Kapitel 8: Kognitivismus
„salonfähig” geworden. Und so ist es auch erlaubt - und wird von späteren Autoren gar gefordert (vgl.
V. CRANACH u.a., 1980) - von Handlungen zu sprechen, um intendierte Aktivitäten von reaktiven
Aktivitäten, also von „Verhalten” im behavioristischen Sinne zu unterscheiden.
(4)
Motivation als grundlegende „Systemeigenschaft”
Eine Neukonzeptualisierung des Motivationsbegriffes geschieht dadurch, daß angenommen wird, der sei
Mensch ein homöostatisches, „Inkongruenz-empfindliches” System, mit dem Ziel, sich durch seine
Handlungen inneren und äußeren Bedingungen anzupassen. Dazu MILLER, GALANTER und PRIBRAM
(1991, Orig. 1960; S. 65):
„Die allem zugrunde liegende Banalität ist natürlich die, daß ein biologischer Apparat, wenn er einmal angelaufen ist, Tag und
Nacht weiterläuft, bis er stirbt. Der dynamische 'Motor ', der unser Verhalten ... vorantreibt, ist weder in unseren Absichten noch
in unseren Plänen oder in unseren Entscheidungen lokalisiert, sondern in der Natur des Lebens selbst.” und: „Pläne werden
ausgeführt, weil die Menschen leben.” (a.a.O.; S. 63)
Die Beseitigung von Inkongruenzen ist damit nicht Folge zeitweiliger, z.B. triebbedingter Mangelzustände,
sondern sie ist ein selbstverständlicher, niemals endender Prozeß; die Beseitigung von Inkongruenzen ist
Ausdruck des Lebens selber.
Auch hier spielt natürlich die Informationsverarbeitung eine zentrale Rolle, z.B.: die Vorwegnahme von
Folgen, die Einschätzung von Erfolgsaussichten und eigenen Fähigkeiten, das Wissen um soziale Maßstäbe, das Abwägen von Wahrscheinlichkeiten.
(5)
Zwei Ebenen des kognitivistischen Sprachspiels
Das kognitivistische Sprachspiel bewegt sich zwar am Anfang vor allem auf einer rein „molekularen”
Ebene um streng quantitativ-mathematische Terme der Informationstheorie wie „Bit”, „Kanalkapazität”
oder „Redundanz”. Es wird aber schon bald liberalisiert und um „molare” psychologische Begriffe
erweitert, z.B. „selbstbezogene Informationen”, „Einstellungen” oder „Attributionen”. So wird in den
folgenden Jahren auf dem Hintergrund der oben skizzierten Grundmodelle der Informationsaufnahme und
-speicherung sowie der aktiven Handlungsregulation eine große Zahl von alten, unter behavioristischer
Vorherrschaft bisher „verpönten” psychologischen Begriffen uminterpretiert und damit neu konzeptuiert.
Insgesamt lassen sich bis heute zwei Ebenen des kognitivistischen Sprachspiels unterscheiden, die bei
der Formulierung konkreter Theorien allerdings nicht immer sauber voneinander getrennt werden
(„Akteur-System-Kontamination”) (vgl. HERRMANN, 1982):
• Die Ebene der Systeminterpretation: Psychische Phänomene werden als Vorgänge in einem symbolund informationsverarbeitenden System interpretiert (z.B.: „Input”, „Output”, „Speicher”, „Sollwert”,
„Regelkreis”).
• Die Ebene der Handlungsinterpretation: Psychische Phänomene werden als innere oder äußere
Aktionen von autonomen Handlungssubjekten interpretiert (z.B.: „Interpretation”, „Zielsetzung”, „Erfahrung”, „Handlung”).
In beiden Fällen handelt es sich, so HERRMANN, um zwei verschiedene Modelle desselben Originals,
denen gemeinsame kognitivistische Kernannahmen zugrunde liegen, so daß beide Modelle kompatibel
sind. (Das unten vorgestellte „paradigmatische Subsumptionsmodell” des Kognitivismus kann als ein
möglicher Annahmekern angesehen werden, der diese Kompatibilität herstellt).
Seit Ende der 50er Jahre entsteht so in der Psychologie eine wachsende Tendenz, psychische Phänomene
bevorzugt durch kognitive Variable zu erklären und vorherzusagen (vgl. ULICH, 1989; S. 103). Diese führt
immer mehr dazu, daß die gesamte Psychologie neudefiniert wird als die Untersuchung von Kognition
(vgl. KESSEN , 1981); und Mitte der 90er Jahre stellen GRABITZ und HAMMERL fest: „Kognition, das
schwächliche Kind der 50er Jahre, ist zu einem unersättlichen Giganten geworden.” (GRABITZ &
HAMMERL, 1995; S. 304)
Günter Sämmer: Paradigmen der Psychologie
8.3
- 277 -
Kapitel 8: Kognitivismus
Kognitivistische Forschungsprogramme der Allgemeinen Psychologie
Aufbauend auf den oben beschriebenen Grundprinzipien, den ersten initialen Arbeiten, sollen nun
exemplarisch zwei kognitivistische Forschungsprogramme vorgestellt werden, die in der Regel der
Allgemeinen Psychologie zugerechnet werden.
Es handelt sich einerseits um die Weiterentwicklung der „typisch kognitivistischen” Wahrnehmungs- und
Gedächtnispsychologie, andererseits um ein Forschungsprogramm, das exemplarisch zeigt, wie sich die
kognitivistische Forschung und Konzeptbildung in Bereiche ausbreitet, die bisher kaum als „kognitiv”
angesehen wurden: die Emotionsforschung.
8.3.1 Wahrnehmung - Aufmerksamkeit - Gedächtnis in Informationsfluß-Modellen
Natürlich stehen die grundlegenden Prozesse der Informationsaufnahme zunächst im Zentrum der
Forschung nach dem neuen „Informationsverarbeitungsansatz”. Das von BROADBENT vorgelegte
Informationsfluß- und Filter-Modell (vgl. BROADBENT, 1958; s.o. Abschnitt 8.2.2) wird zum Prototyp
immer weiter elaborierter Modelle, die immer mehr empirische Arbeiten integrieren. Die wichtigsten
Schritte dieser Entwicklung bis in die frühen 70er Jahre sollen nun skizziert werden.
T REISMANNs Filter-Amplituden-Theorie
Nach der Veröffentlichung von BROADBENTs Filtermodell tauchen sehr bald Zweifel an seiner Stimmigkeit auf. Kristallisationspunkt der Kritik sind Experimente, die zeigen, daß die Selektion von Informationen
aus unberücksichtigten Kanälen keineswegs als ein „Ausschalten” oder „Unterdrücken” zu interpretieren
ist:
• So hatte z.B. MORRAY (1959) bei Experimenten des „begleitenden Nachsprechens” gefunden, daß mit
dem „unterdrückten” Ohr doch Informationen aufgenommen werden, z.B. wenn der dort gesprochene
Text den Namen der Versuchsperson enthält („Cocktailparty- Phänomen”).
• T REISMAN (1960) hatte, ebenfalls beim begleitenden Nachsprechen festgestellt, daß Versuchspersonen beginnen, den nachzusprechenden mit dem anderen Text zu kreuzen, wenn beide Texte sich in
Bedeutungseinheiten überschneiden. So machten die Vpn aus
Text 1 (nachzusprechen):
Sitting at a mahagony / three possibilities
Text 2 (gleichzeitig in anderes Ohr eingespielt):
Let us look at these / table with her head
den tatsächlich nachgesprochenen Text:
Sitting at a mahagony table...
Beide Experimente zeigen, daß der zu vernachlässigende Text offensichtlich dennoch registriert und sogar
inhaltlich ausgewertet wird.
T REISMANN interpretiert dies nun dahingehend, daß der BROADBENTsche Filter die jeweiligen Kanäle
nicht „abschaltet”, sondern nur in ihrer Intensität (Amplitude) herabsetzt, so daß Teile der von ihnen
transportierten Informationen noch auswertbar bleiben.
(1)
NEISSERs konstruktive Theorie der Aufmerksamkeit: das Modell der „Analyse durch Synthese”
NEISSER (1974, Orig. 1967) hält dem nun entgegen, daß die nicht beachteten Informationen (auf der
Cocktailparty das Hintergrundgespräch - beim begleiteten Nachsprechen der Text auf dem unbeachteten
Ohr) keineswegs leiser erscheinen. Vor allem aber seien es keine physikalischen, sondern vorrangig
inhaltliche Kriterien, aufgrund derer sich eine unbeachtete Quelle in den Vordergrund schiebt.
Günter Sämmer: Paradigmen der Psychologie
- 278 -
Kapitel 8: Kognitivismus
Aus diesem Grund schlägt NEISSER ein zweistufiges Modell vor, dessen erste Stufe etwa dem
BROADBENT-TREISMANNschen Filtermodell entspricht, das auf einer zweiten Stufe aber wesentliche
konstruktiv-synthetische Prozesse vollzieht, die zu einer inhaltlichen Erschließung des Wahrgenommenen führen:
Das Prinzip der Analyse durch Synthese übernimmt NEISSER von den Computerwissenschaftlern um
EDEN u.a. (vgl. z.B. EDEN & HALLE , 1961), die es in einem Programm zur maschinellen Handschrifterkennung verwendet hatten:
Da eine reine Strukturanalyse der Linienführung bei handschriftlichen Buchstaben nicht zum Ziel führte,
entwickelten EDEN u.a. eine Analysemethode, die mehrere synthetisierende Arbeitsschritte enthielt. So
werden vom Computer mögliche Buchstaben, typische Silben bis hin zu ganzen Wörtern als „Hypothesen”
gespeichert, die beim Erkennungsprozeß mit den vorgefundenen Strukturen verglichen werden können.
Abb. 8.8: Mustererkennung als analytischer und synthetischer Prozeß (Grafik aus ANDERSON (1989; S. 68)
Trifft das Programm auf einen unidentifizierbaren Buchstaben, wie etwa die jeweils mittleren Buchstaben
in Abb. 8.8, so führt offensichtlich eine Strukturanalyse der Details des Einzelbuchstabens nicht weiter,
da das „A” des ersten Wortes dieselbe Struktur besitzt wie das „H” des zweiten. In dieser Situation
schaltet das Programm dann einen Syntheseprozeß ein: Es faßt mehrere Elemente des Kontextes
versuchsweise zu einer Silbe oder zu einem ganzen Wort zusammen und sucht in seinem Speicher nach
passenden Vorgaben („Hypothesenprüfung”). In Abb. 8.8 würde so „DAS” als sinnvolle Hypothese
bestätigt, während DHS oder DRS als eine im Deutschen nicht vorkommende Silbe verworfen würde.
Der mittlere Buchstabe des ersten Wortes wäre damit als „A” identifiziert. Dagegen würde die Kontextanalyse und die entsprechende Hypothesenprüfung den strukturell identischen mittleren Buchstaben des
zweiten Wortes als „H” erkennen, weil „OHR” ein sinnvolles Wort ergibt, OAR (im Deutschen) dagegen
nicht.
An diesen Algorithmus der maschinellen Buchstaben- und Mustererkennung lehnt NEISSER nun sein
Modell der Analyse durch Synthese an (vgl. NEISSER, 1974, Orig. 1967):
Eine durch die Sinnesorgane einlaufende Reizkonstellation wird in zwei aufeinanderfolgenden Schritten
analysiert und entschlüsselt:
1. Präattentive Prozesse: In einem ersten, recht groben passiven Analysemechanismus werden die
Reize zu Einheiten gegliedert und als Strukturen von anderen abgetrennt. Bei akkustischen Reizen werden
z.B. Lokalisationen vorgenommen, und die Töne werden nach Intensität oder Qualität eingestuft. Optische
Reize werden z.B. nach räumlichen, farblichen oder Helligkeitsmerkmalen geordnet. In Abb. 8.8 würde
auf diese Weise der Gesamtreiz zunächst in noch unidentifizierte Strukturen wie „Einzelbuchstaben” oder
„Wörter” zerlegt. Bis hierher entspricht das Modell der BROADBENT-TREISMANNschen Filtertheorie.
2. Analyse durch Synthese: Das kognitive System nimmt sich nun in einem zweiten Schritt einzelne
Strukturteile aus der ersten Stufe vor und versucht, in einem konstruktiven Prozeß Hypothesen zu
synthetisieren und zu prüfen. „Sinnvolle” Interpretationen sind dann solche, zu denen sich auf dem
Hintergrund bisheriger Erfahrungen Hypothesen finden und bestätigen lassen. Dieser Prozeß, so NEISSER,
ist der eigentliche Mechanismus der Aufmerksamkeit. Informationen aus dem ersten Analyseschritt, die
in der Analyse durch Synthese keine sinnvolle Interpretation erfahren können, gehen endgültig verloren.
(2)
Die Zwei-Komponenten-Theorie des Gedächtnisses und der Aufmerksamkeit
a) Das Experiment von SPERLING
SPERLING (1960) bietet seinen Versuchspersonen tachistoskopisch (z.B. 1/20 Sekunde) Buchstabenkonstellationen wie die folgende dar:
Günter Sämmer: Paradigmen der Psychologie
- 279 -
Kapitel 8: Kognitivismus
D
J
B
X
H
G
C
L
Y
Abb. 8.9: Reizvorlage im Experiment von SPERLING (1960)
Die Vpn sollen jeweils vers uchen, möglichst viele der gesehenen Buchstaben wiederzugeben. Das
Ergebnis ist eine durchschnittliche Reproduktionsleistung von vier Buchstaben.
Dann jedoch kommt es zu einer entscheidenden Veränderung der Demonstrationsbedingungen: Unmittelbar nach dem Verlöschen der Buchstaben wird ein akustisches Signal gegeben, das die Buchstabenreihe kennzeichnet, die reproduziert werden soll: ein hoher Ton für die obere Reihe, ein mittel
hoher für die mittlere, ein tiefer für die untere. Es zeigt sich nun, daß fast alle Vpn die jeweils angezeigte
Reihe vollständig reproduzieren können, egal, welche Reihe gekennzeichnet wurde.
Dies erklärt Sperling damit, daß die einlaufende Information zunächst beinahe vollständig in einem
„sensorischen Speicher” festgehalten werden muß. Dieser Speicher ist allerdings äußerst empfindlich
gegen Störungen und wird auch sehr schnell wieder gelöscht: Verzögert sich das Signal zur Kennzeichnung der wiederzugebenden Buchstabenreihe, so werden immer weniger Buchstaben korrekt
reproduziert. Nach etwa einer Sekunde ist die Behaltensleistung dann nicht mehr besser als im Ausgangsversuch ohne Signal (vgl. Abb. 8.10).
Abb. 8.10: Behaltensleistung in Abhängigkeit von der
Verzögerung des Signals im Experiment von SPERLING
(Z IMBARDO, 1992; S. 272)
b) BOUSFIELD und COHENS Gedächtnisexperiment zum „Clustering”
In den von MILLER (1956) systematisierten Untersuchungen behielten die Versuchspersonen die
berühmten „7 plus oder minus 2” Informationsblöcke nur einige Sekunden lang. Wie ist es nun möglich,
mehr Informationen länger im Gedächtnis zu behalten? Einen möglichen Mechanismus beschreiben
BOUSFIELD und COHEN (1955):
Sie lassen ihre Versuchspersonen eine ungeordnete Menge verschiedener Begriffe lernen, und es zeigt
sich, daß mehr Begriffe deutlich länger behalten werden, wenn sie nach Kategorien geordnet sind, bzw.
Günter Sämmer: Paradigmen der Psychologie
- 280 -
Kapitel 8: Kognitivismus
von den Versuchspersonen beim Lernen geordnet werden (clustering), als wenn sie in der gegebenen
zufälligen Reihenfolge gelernt werden.
Der Prozeß des hierarchischen Strukturierens bei der Informationsaufnahme ist ein Beispiel dafür, wie
Informationen durch eine „Weiterverarbeitung” auf einer höheren Ebene langfristiger gespeichert werden
können.
Solche und viele weitere Gedächtnisexperimente führen dazu, daß die kognitivistischen Modellvorstellungen des Gedächtnisses, der Wahrnehmung und der Aufmerksamkeit immer weiter elaboriert werden.
Eine weitere wichtige Station in der Evolution solcher Modelle bildet die Zwei-Komponenten-Theorie von
ATKINSON und SHIFFRIN (1968). Sie veröffentlichen ihr Modell unter einem Titel, der sowohl das
kognitivistische Programm als auch dessen hypothetische Methode verrät: Human memory: A proposed
system and its control processes. Dazu kommen die Arbeiten und Modellvorschläge T ULVINGs
bezüglich des Langzeitgedächtnisses (vgl. TULVING, 1972).
Beide Modellerweiterungen sind in dem Flußdiagramm Abb. 8.11 enthalten, das auf ZIMBARDO (1992)
zurückgeht.
Kernbestandteile des Modells sind drei Gedächtnisbereiche: das sensorische Register, das Kurzzeitgedächtnis (KZG) und das Langzeitgedächtnis (LZG), auf deren Inhalte unterschiedliche Informationsverarbeitungsprozesse angewendet werden, und zwischen denen Informationen ausgetauscht werden. Seine
Funktion kann man sich in folgender Weise vorstellen:
1. Sensorisches Register: Es speichert sehr kurz (für ca. 0,5 - 2 Sekunden) unkodiert weitgehend alle
Sinnesdaten (SPERLING, 1960) und übergibt diese einem Filter, der
• nach bestimmten Merkmalen selektiert (CHERRY 1953, BROADBENT, 1954, TREISMANN, 1960)
• eine erste Mustererkennung vornimmt im Sinne „präattentiver Prozesse” (vgl. NEISSER, 1974; Orig.
1967) und
• eine Informationsbündelung durchführt im Sinne des „chunking” (MILLER, 1957).
In dieser Weise vorverarbeitet, gelangen die Informationen in einen Kurzzeitspeicher.
Abb. 8.11: Flußdiagramm eines hypothetischen Gedächtnissystems - Stand: frühe 70er Jahre (nach
Z IMBARDO, 1992)
2. Kurzzeitgedächtnis: Hier können für ca. 20 Sekunden 7±2 Chunks (MILLER, 1957) zwischengespeichert werden. Informationen sind nun aufgrund der ersten Vorkodierung akustisch, visuell oder semantisch repräsentiert. Das KZG hat die Form eines 7-stelligen Registers, das sukzessive gelöscht wird, wenn
neue Informationen „hineindrängen” (ATKINSON & SHIFFRIN, 1968). Eine Löschung kann aber auch
aufgrund von Interferenzen oder allein durch Verstreichen von Zeit geschehen. Inhalte des KZG bleiben
erhalten, wenn einer der beiden folgenden Prozesse stattfindet:
• Einfaches „erhaltendes Wiederholen”, z.B. sich selber immer wieder „vorsagen”, führt die Informationen wieder in das KZG zurück (BROADBENT, 1958); oder
Günter Sämmer: Paradigmen der Psychologie
•
- 281 -
Kapitel 8: Kognitivismus
„Elaborieren”, z.B. durch Neuordnung, Kategorisierung, Anbinden an vorhandene Informationen, führt
Inhalte des KZG über in den Langzeitspeicher (LZG) (BOUSFIELD & COHEN , 1955).
3. Langzeitgedächtnis: Die Speicherung im LZG geschieht aufgrund hoher Grade von Vernetzung, wenn
Informationen gut elaboriert und als bedeutungstragend identifiziert sind. „Bedeutung” entsteht als „top
down”-Prozeß durch Anbinden an schon vorhandene Inhalte des LZG. Die Inhalte dieses Speichers von
beinahe unbegrenzter Kapazität und beinahe unbegrenzter Haltbarkeit sind hoch strukturiert, z.B. in Form
„semantischer Netzwerke”. Als Repräsentationsformen werden hier, ähnlich der Unterscheidung nach
„Programmen” und „Daten” beim Computer, zwei verschiedene Grundtypen angenommen: „prozedurales” und „deklaratives” Wissen (vgl. TULVING, 1972). Prozedurale Informationen beziehen sich auf
Fertigkeiten und Handlungen, deklarative Informationen auf „Inhalte”. Beim deklarativen Wissen
unterscheidet T ULVING noch einmal die „semantischen” Gedächtnisinhalte, also das symbolisch repräsentierte Wissen um Kategorien und Begriffsbedeutungen und das „episodische“ Wissen um autobiographische Informationen und raum-zeitliche und kontextbezogene Ereignisse.
Auch im LZG kommt „Vergessen” vor, z.B. aufgrund von unangemessener Kodierung, Interferenzen
oder motivationaler Einflüsse („motiviertes Vergessen”).
8.3.2 Emotion und Kognition: Ansätze zu einer kognitivistischen Emotionstheorie
Entsprechend ihrem Programm betrachten kognitivistische Psychologen auch im Bereich menschlicher
Emotionen vor allem die Informationsverarbeitungsprozesse, die diesen zugrunde liegen. Die erste
einflußreiche Arbeit, die Hinweise liefert auf die zentrale Rolle der Kognitionen bei der Entstehung von
Emotionen, ist das Experiment von SCHACHTER und SINGER mit seinen theoretischen Implikationen (vgl.
SCHACHTER & SINGER, 1962):
Das Experiment von SCHACHTER und SINGER:
Allen Versuchspersonen wird in der Ausschreibung für das Experiment mitgeteilt, es handele sich um
eine Untersuchung des Einflusses, den das Vitaminpräparat „Suproxin” auf das Sehvermögen habe. In
Wirklichkeit wird zum Beginn des Experiments den Vpn Epinephrin gespritzt, ein Adrenalin-ähnliches
Präparat, das Symptome wie Herzklopfen, Zittern, Erröten und beschleunigtes Atmen auslöst; nur eine
Kontrollgruppe erhält als Placebo eine Salzlösung injiziert.
Durch unterschiedliche Vorinformationen über die Wirkung des injizierten Präparates werden nun drei
Versuchsgruppen gebildet, die bezüglich der Wirkung des Präparats unterschiedliche Erwartungen und
Erklärungen haben werden: Eine Gruppe wird wahrheitsgemäß über die tatsächlichen Nebenwirkungen
informiert, einer zweiten wird, ebenso wie der Placebo-Gruppe, gesagt, das Präparat sei harmlos und
habe keine Nebeneffekte, und eine dritte Gruppe erhält die falsche Information, das Präparat rufe Jucken
oder Kopfschmerzen hervor.
Alle Gruppen werden dann folgenden Situationen ausgesetzt: Unter dem Vorwand, auf das „Experiment”
(zum Sehvermögen) zu warten, werden die Vpn in einen Nebenraum gebeten. In diesem befindet sich
eine Person (ein Mitarbeiter der Versuchsleiter), die bestimmte emotionale Verhaltensweisen zeigt: Bei
einem Teil der Vpn ist die Person fröhlich und witzig, sie wirft mit Papierkügelchen und läßt Papierflugzeuge fliegen, bei den anderen zeigt sich die Person wütend, macht ärgerliche Äußerungen über die
Versuchsleiter und schimpft.
Alle Versuchspersonen werden von mehreren Beobachtern durch einen Einwegspiegel beobachtet,
außerdem beantworten sie nachher einen Fragebogen über ihre Stimmungslage während des Experiments.
Günter Sämmer: Paradigmen der Psychologie
- 282 -
Kapitel 8: Kognitivismus
Vorinformationen der Versuchspersonen:
Komplize
des Vl war:
richtige Nebenwirkun- keine Nebenwirkungen falsche Nebenwirkungen
gen
(1)
(2)
(3)
keine Nebenw. (PlaceboGruppe)
(4)
wütend
kein Einfluß
Vp wütend
Vp wütend
Vp etwas wütend
fröhlich
kein Einfluß
Vp fröhlich
Vp fröhlich
Vp etwas fröhlich
Tab. 8.1: Schematische Darstellung der Ergebnisse im Experiment von SCHACHTER und SINGER (1962)
Interpretation der Ergebnisse: Geht man davon aus, daß alle Vpn, die Epinephrin erhalten hatten (also
die Gruppen 1 bis 3), in der Experimentalsituation auch die entsprechenden Nebenwirkungen verspürt
haben, so hatte nur Gruppe 1 eine brauchbare Erklärung für diese Symptome. Die Gruppen 2 und 3
hingegen mußten sich für ihre unspezifischen physiologischen Erregungsreaktionen Erklärungen suchen.
Sie nahmen die Informationen hierfür aus dem situativen Kontext und interpretierten ihren Zustand durch
Vergleich mit der anderen Person (dem Komplizen) als „wütend” oder „fröhlich”.
Bis auf die Ergebnisse der Placebo-Gruppe (die an dieser Stelle nicht weiter diskutiert werden können)
bestätigt das Experiment folgende theoretische Annahmen:
Die Kernaussagen von SCHACHTERs Emotionstheorie
• Befindet sich ein Individuum in einem unerklärten physiologischen Erregungszustand, so etikettiert es
diesen Zustand entsprechend der ihm zur Verfügung stehenden Kognitionen.
• Hat das Individuum hingegen eine plausible Erklärung, so entsteht keine Etikettierung.
Insgesamt gilt also:
• Die subjektive Empfindung einer Emotion ist das Resultat der Integration von Informationen aus zwei
verschiedenen Quellen:
1. physiologischer Erregung und
2. kognitiver Prozesse (wie der Interpretation externer Reize und situativer Gegebenheiten).
Beides sind notwendige Bedingungen.
Während SCHACHTER noch annimmt, physiologische Erregung sei neben Kognitionen für das Zustandekommen von Emotionen konstitutiv, geht sein Schüler VALINS (1966) in der Bewertung der kognitiven
Prozesse noch einen Schritt weiter:
Das Experiment von VALINS:
VALINS zeigt seinen männlichen Vpn Dias von attraktiven Aktmodellen, wobei er vorgibt, ihnen über
Kopfhörer ihren eigenen Herzschlag einzuspielen. Dazu wird den Vpn ein Mikrophon an die Brust
geheftet, das allerdings nicht in Funktion gesetzt wird. Über Kopfhörer wird ihnen dann ein Herzschlag
vom Tonband vorgespielt, dessen Frequenz gezielt manipuliert werden kann.
Bei verschiedenen, per Zufall ausgewählten Photos läßt VALINS den Vpn nun einen Herzschlag einspielen, dessen Frequenz nach oben manipuliert ist. Danach sollen die Vpn noch einmal alle Photos
durchsehen und angeben, welche ihnen am besten gefallen hatten.
Ergebnis: Die Vpn wählen vornehmlich solche Photos, bei denen der ihnen vorgespielte Herzschlag
erhöht war.
Interpretation: Nach VALINS' Auffassung ist eine tatsächliche physiologische Reaktion für das Zustandekommen einer Emotion nicht erforderlich. Es genügt völlig, wenn die Kognition einer solchen
Reaktion als „scheinbare” Rückmeldung vorliegt. Die entstandene Emotion ist ein alleiniges Produkt von
verschiedenen Kognitionen.
Sowohl das Ausgangsexperiment von SCHACHTER und SINGER als auch das von VALINS führen zu einer
großen Zahl von Folgeuntersuchungen, alle mit dem Ziel, die Rolle der Kognitionen bei der Entstehung
Günter Sämmer: Paradigmen der Psychologie
- 283 -
Kapitel 8: Kognitivismus
von Emotionen zu klären. Dabei entstehen so einflußreiche Theorien wie die von LAZARUS (1984), in der
angenommen wird, daß die Entstehung von Emotionen abhängig ist von der kognitiven Bewertung
bestimmter Person-Umwelt-Bezüge. Der Titel von LAZARUS' Aufsatz aus der Mitte der 80er Jahre zeigt
die Bedeutung an, die man inzwischen bereit ist, auf dem Gebiet der Emotionspsychologie den Kognitionen einzuräumen: On the primacy of cognition (vgl. LAZARUS, 1984).
8.4
Einige kognitivistische Forschungsprogramme der Sozialpsychologie
8.4.1 Sozialpsychologie aus kognitivistischer Perspektive
Auch der Problembereich der Sozialpsychologie wird unter kognitivistischer Perspektive neu rekonstruiert,
so daß unter den neuen paradigmatischen Kernannahmen von Anfang an gilt, was GRAUMANN zu Beginn
der 90er Jahre in einem Lehrbuch der Sozialpsychologie so formuliert:
„Das (beobachtbare) soziale Verhalten ist heute von geringerem Interesse als dessen kognitive Repräsentation, die dem Verhalten
vorausgeht (zum Beispiel als Planung), es begleitet (zum Beispiel als Kontrolle), oder ihm folgt (zum Beispiel als Erinnerung).”
(GRAUMANN, 1992; S.17)
Sozialpsychologie wird nun im wesentlichen aufgefaßt als soziale Informationsverarbeitung („social
cognition”), und diese kann in dreierlei Weise als sozial gekennzeic hnet werden (vgl. LEYENS & CODOL,
1992):
• Soziale Kognition kann aufgrund sozialer Interaktion entstehen, und kulturelle wie soziale Faktoren
können auf die Prozesse der Informationsverarbeitung einwirken.
• Soziale Kognition kann sich auf soziale Objekte beziehen: auf die eigene Person, auf andere
Personen, auf imaginäre Personen oder auf Gruppen.
• Soziale Kognition kann auch sozial geteilt sein; d.h. bestimmte mentale Rekonstruktionen der sozialen
Lebenswelt unterliegen normativen und vereinheitlichenden sozialen Einflüssen. Religiöse Auffassungen,
politische und soziale Ideologien, die Konzepte von Liebe und Tod, Gut und Böse bis hin zum „gesunden
Menschenverstand” sind zu einem wesentlichen Teil innerhalb sozialer Kontexte definiert.
Kognitivistische Sozialpsychologen beschäftigen sich infolge dessen bevorzugt mit Meinungen, Einstellungen, Stereotypen, Bewertungen, Attributionen und der Wirkung von Informationen auf persönliche
Überzeugungen. Sie untersuchen die kognitiven Hintergründe und Bedingungen sozialen Handelns wie
der Aggression, des prosozialen Verhaltens oder der Konfliktbewältigung. Und sie interessieren sich für
die Folgen des Informationsaustauschs zwischen einzelnen Gruppenmitgliedern (z. B. bei Konformitätsund Entscheidungsprozessen) oder zwischen Gruppen (Intergruppenbeziehungen).
Die Attributionsforschung und die Einstellungsforschung sind Beispiele großer und traditionsreicher
sozialpsychologischer Forschungsprogramme. An ihnen soll nun demonstriert werden, wie Kognitivisten
soziale Phänomene rekonstruieren und empirisch erforschen.
8.4.2 Grundzüge der Attributionsforschung
Um das eigene Verhalten und das ihrer Mitmenschen zu verstehen, vorherzusagen und kontrollieren zu
können, verwenden Menschen unterschiedliche Erklärungsmuster, kognitive Schemata. Kognitive
Schemata sind generalisierte Muster von Zusammenhängen zwischen Merkmalen und Eigenschaften z.B.
unserer (sozialen) Umwelt oder auch unserer Person. Ein wesentliches Grundmuster, das sich auf
soziales Verhalten bezieht, ist die Art und Weise, wie ein Individuum bestimmten sozialen Ereignissen
Ursachen zuschreibt, die Kausalattribution von Verhalten.
Günter Sämmer: Paradigmen der Psychologie
(1)
- 284 -
Kapitel 8: Kognitivismus
Die frühen attributionstheoretischen Arbeiten HEIDERs
Die Grundlagen für die spätere Attributionsforschung hatte Fritz HEIDER schon 1944 gelegt, als er
zusammen mit Marianne SIMMEL u.a. die folgende Untersuchung durchführte (vgl. HEIDER & SIMMEL,
1944):
In einem Trickfilm wurden den Versuchspersonen verschiedene geometrische Figuren gezeigt: ein großes
Dreieck (T), ein kleines (t) und ein kleiner Kreis (c), die sich in unterschiedlichen Bewegungsmustern
zueinander bewegten. Ein weiterer Bestandteil der Figur war ein Rechteck, bei dem sich ein Segment wie
eine Tür öffnen und schließen konnte (vgl. Abb. 8.12). Die Vpn sollten nun aufschreiben, was in dem Film
„geschah”.
Abb. 8.12: Anordnung geometrischer Figuren aus einem der Trickfilme in der Untersuchung von HEIDER & SIMMEL
(1944)
Die Vpn benutzten nun bei ihren Bewegungsbeschreibungen der geometrischen Figuren durchweg
anthropomorphe Formulierungen wie: „t verfolgt T”, „c bleibt unbeeindruckt”, „t möchte T schlagen”, „T
will sich in Sicherheit bringen”.
HEIDER schließt hieraus:
• Die im Trickfilm beobachteten Bewegungen geometrischer Figuren werden als Handlungen von
Menschen interpretiert und beschrieben.
• Als seien es Personen, werden ihnen Absichten, Motive und Bedürfnisse zugeschrieben.
• Diese werden aufgrund der Beobachtung kausal miteinander verknüpft.
Insgesamt sind nach HEIDER also Personen „Prototypen von Ursprüngen”, so daß eine Zuschreibung
eines Ereignisses auf eine Person und deren Motive eine der grundlegenden kausalen Organisationen
darstellt. HEIDER nimmt weiterhin an, daß außer diesen personenspezifischen „internalen” Ursachen
auch situationsspezifische „externale” Ursachen zur Erklärung von sozialem Verhalten herangezogen
werden. Ein Beobachter, der sich ein soziales Verhalten erklären möchte, muß demnach entscheiden, ob
dieses Verhalten auf internalen Fähigkeiten, Intentionen, also den Dispositionen der Person beruht, oder
auf äußeren, externalen Gegebenheiten der Situation.
HEIDER faßt seine Erkenntnisse und theoretischen Überlegungen 1958 in einer Monographie zusammen:
The psychology of personal relations (deutsch: Psychologie der interpersonalen Beziehungen; (vgl.
HEIDER, 1977, Orig. 1958), die zur Grundlage der weiteren Attributionsforschung wird.
(2)
KELLEYs Attributionstheorie
Harold KELLEY unterzieht die Ansätze HEIDERs zur Kausalattribution einer genaueren Analyse (vgl. z.B.
KELLEY, 1973) und kommt zu dem Schluß, daß es drei Klassen von Ursachen gibt, die in vielen
Situationen für die Erklärung von sozialen Ereignissen (Effekten) in Frage kommen:
• die stabilen Merkmale der Person, also ihre dispositionellen Eigenschaften,
• die Entität, also die stabilen Merkmale der Gegebenheit, auf die sich die zu erklärende Handlung
bezieht
Günter Sämmer: Paradigmen der Psychologie
- 285 -
Kapitel 8: Kognitivismus
•
und die Zeit, in der sich die „besonderen Umstände” sowohl innerhalb der Person als auch in bezug
auf die äußeren Gegebenheiten der Situation ändern können.
Kann also z.B. ein Schüler eine Mathematikaufgabe nicht lösen, so kann er die Ursachen dafür grundsätzlich in seiner Person sehen (z.B. fehlende Begabung), in den Entitäten (z.B. der Schwierigkeit der
Aufgabe) oder in zeitbedingten besonderen Umständen (z.B. schlecht geschlafen).
Wie gehen nun aber Personen bei der Kausalattribution vor? KELLEY geht davon aus, daß der Alltagsmensch sich hier auf einer wenig bewußten und intuitiven Ebene prinzipiell derselben Verfahren bedient,
wie es Wissenschaftler tun: Er variiert auf dem Hintergrund seiner Erfahrungen systematisch die
einzelnen Möglichkeiten und zieht daraus seine Schlüsse. In Anlehnung an ein gängiges varianzanalytisches Verfahren (ANOVA) formuliert KELLEY diese Strategie als „Kovarianzprinzip”: Ein Effekt wird
derjenigen seiner Ursachen zugeschrieben, mit der er über die Zeit hinweg kovariiert.” (KELLEY, 1973;
S. 108)
Analog zu den drei Ursachenklassen gibt es drei Informationsarten, die in Rechnung gestellt werden
müssen:
Konsensus: Wieweit variiert ein Ereignis bzw. ein Effekt über mehrere Personen? (Können andere
Schüler die Aufgabe auch nicht lösen?)
Konsistenz: Wieweit variiert ein Effekt bei derselben Person über mehrere Entitäten? (Kann der Schüler
andere Mathematikaufgaben auch nicht lösen?)
Distinktheit: Wieweit variiert ein Effekt bei derselben Person über mehrere Zeitpunkte? (Kann der
Schüler diese Mathematikaufgaben zu anderen Zeitpunkten auch nicht lösen?)
Aus der Zusammenschau und „Verrechnung” dieser drei Informationsarten ergibt sich nun die jeweilige
Attribution: Tritt ein Ereignis z.B. nur bei dieser Person (Konsensus niedrig) über alle Entitäten hinweg
(Distinktheit niedrig) zu allen Zeitpunkten auf (Konsistenz hoch), so kann „es” nur an der Person liegen.
Es wird eine Attribution auf die Person vorgenommen. KELLEY illustriert diese Konstellation analog zu
varianzanalytischen Modellen, wie in Abb. 8.13 dargestellt.
Abb. 8.13: Das Datenmuster „Konsensus niedrig” - ”Distinktheit niedrig” - „Konsistenz hoch” führt zur Attribution auf
die Person. (nach KELLEY, 1973; S.110)
(3)
Attributions-”Fehler”
KELLEYs Modell beschreibt eher normativ die Attributionen einer vollständig rationalen Person, die sich
überdies im Besitz vollständiger Informationen als Entscheidungsgrundlage befindet. In der Regel sind
aber beide Voraussetzungen nicht erfüllt: Personen kennen nicht alle Variablen und müssen doch
entscheiden, und sie neigen zu ganz bestimmten Attributionsvorlieben individueller und systematischer
Herkunft.
Günter Sämmer: Paradigmen der Psychologie
- 286 -
Kapitel 8: Kognitivismus
a) Der „fundamentale Attributionsfehler”
SNYDER und J ONES (1974) bitten alle in einem Raum anwesenden Versuchspersonen, Aufsätze zu
schreiben mit Stellungnahmen zu verschiedenen, konträr zu diskutierenden politischen Themen, z.B. zur
Verstaatlichung des Gesundheitswesens. Jede Vp bekommt dabei allerdings vorgegeben, welchen
Standpunkt (pro oder kontra) sie einnehmen soll, und als Hilfe erhält sie auch einige Standardargumente,
auf die sie zurückgreifen kann, wenn sie will.
Danach werden alle Aufsätze eingesammelt, gemischt und wieder so verteilt, daß jede Vp den Aufsatz
einer anderen Vp vorgelegt bekommt. Die Vpn sollen nun beurteilen, inwieweit der ihnen vorliegende
Aufsatz die tatsächliche Meinung des jeweiligen Autors widerspiegelt.
Es zeigt sich, daß von den meisten Aufsätzen angenommen wird, der Autor sei auch dieser Meinung,
obwohl alle Vpn erlebt haben, daß sie, laut Instruktion, gar keine Wahlfreiheit hatten.
In verschiedenen Experimenten bestätigt sich dieser Effekt: Personen neigen generell eher zu Personenattributionen als zu Situationsattributionen, eine Tendenz, die ROSS (1977) in einem Sammelreferat den
„fundamentalen Attributionsfehler” nennt.
In kognitionspsychologisch typischer Weise werden zwei Ursachenbündel für diese Asymmetrie der
Attribution angegeben (vgl. z.B. HEWSTONE & ANTAKI, 1992):
• Zur Verfügung stehende Information: Das Verhalten einer Person fällt eher ins Auge als die
Gegebenheiten einer Situation, die Person ist „salient”, so daß, wie schon HEIDER (1944, 1958) betonte,
Person und Handlung eine stärkere „kausale Einheit” bilden als Situation und Handlung. Damit sind
personen- und verhaltensbezogene Ursachen eher verfügbar.
• Soziale Repräsentationen und Konstrukte: In Gesellschaften, in denen der Individualismus gefördert
wird, ist die Tendenz zu internen Attributionen eine soziale Norm, deren Einhalten vorteilhaft beurteilt
wird. Diese Norm ist in den sozialen Repräsentationen und Konstrukten niedergelegt und spiegelt sich
nicht zuletzt in der gemeinsamen Sprache wider, die für die Beschreibung von Personen deutlich mehr
Attribute bereithält als für die Beschreibung von Situationen.
b) Attributionsunterschiede bei Akteuren und Beobachtern
Treten Attributionen in einem sozialen Kontext auf, in dem mindestens eine Person als aktiv agierend,
eine andere aber als Beobachter dieser aktiven Person angesehen werden kann, so machen JONES und
NISBETT (1972) die Voraussage, daß der Akteur die Ursachen für sein Verhalten eher der äußeren
Situation zuschreibt, während der Beobachter eher dispositional attribuiert, also die Ursachen des
Akteur-Verhaltens eher in dessen personellen Dispositionen sieht.
Dieses Phänomen wird in einer größeren Zahl von Untersuchungen beobachtet (vgl. z.B. das Sammelreferat von D. WATSON, 1982), und es werden dafür zwei unterschiedliche Klassen von Gründen angeführt
(vgl. dazu auch MEYER & FÖRSTERLING, 1993):
• Unterschiedlicher Informationsstand von Akteur und Beobachter
- Der Akteur kann sein eigenes Verhalten in einer Situation besser mit seinem eigenen früheren
Verhalten vergleichen und stellt damit meist einen niedrigeren Konsensus und eine höhere Distinktheit fest, was zu einer Bevorzugung von Situationsattributionen führt. Der Beobachter kann dies nicht
und unterstellt deshalb eher niedrige Distinktheit.
- Der Beobachter lenkt seine Aufmerksamkeit während seiner Beobachtung eher auf den Akteur,
der schließlich im Mittelpunkt der Aktion steht. Dagegen nimmt der Akteur während seiner Aktion
weniger sich selbst wahr als die Gegebenheiten in seiner Umgebung.
• Motivationale Faktoren
- Kontrollmotivation: Das Verhalten anderer Personen läßt sich leichter kontrollieren und beeinflussen, wenn angenommen wird, es resultiere aus dispositionellen Eigenschaften dieser Person.
- Selbstwertdienlichkeit: Sobald er Fehler macht, ist es für den Akteur selbstwertdienlicher, die
Ursachen dafür in der Situation zu suchen und sie nicht seiner Person zuzuschreiben. Dagegen hat der
Beobachter kein „Interesse” daran, die „Schuld” in den Umständen zu suchen.
Günter Sämmer: Paradigmen der Psychologie
- 287 -
Kapitel 8: Kognitivismus
8.4.3 Grundzüge der Einstellungsforschung
(1)
Die Neufassung des Einstellungsbegriffs
Seit es in der behavioristischen Psychologie erlaubt war, von „intervenierenden Variablen” zu sprechen,
wurde in Forschung und Theoriebildung ein Konstrukt immer bedeutender, das beim Menschen als
wesentliche Determinante seines Verhaltens angesehen wurde: die Einstellung. Aus behavioristischer
Perspektive hatten ROSENBERG und HOVLAND (1960) Einstellungen als „Prädisposition“ definiert,
bestimmte Klassen von Stimuli mit bestimmten Klassen von Verhaltensweisen zu beantworten, wobei die
intervenierende Variable Einstellung in drei Komponenten zerfiel: Affekte, Kognitionen und Verhalten.
Ende der 70er, Anfang der 80er Jahre kommt es jedoch zu einer Revision des Einstellungskonzepts.
Einstellungen interessieren nun vor allem als Konstrukte, die dem Verhalten vorausgehen und die, wie
sich gezeigt hat, nicht immer mit diesem kohärent sein müssen (vgl. WICKER, 1969). In der kognitivistischen Neufassung des Einstellungskonstrukts wird nun der „Informationsverarbeitungsanteil” vom
„Verhaltensanteil” getrennt. Da man inzwischen gewöhnt ist, auch Affekte und deren „Verarbeitung“
kognitiv zu fassen, definieren PETTY und CACCIOPPO (1981) analog zu FISHBEIN und AJZEN (1975) ein
eindimensionales Konstrukt: Einstellung ist die verallgemeinerte, dauerhafte, positive oder negative
Bewertung einer Person, eines Objekts oder einer Zielsetzung.
Weiter differenziert ist die kognitive Komponente der (Gesamt-)Einstellung einer Person gegenüber einem
Objekt zusammengesetzt aus den Bewertungen einzelner Eigenschaften, die diesem Objekt zugeschrieben
werden. Dazu kommt die Erwartung, also die subjektiv wahrgenommene Wahrscheinlichkeit, mit der das
Objekt diese Eigenschaft auch besitzt. Insgesamt folgt daraus das Erwartungs-Wert-Modell der
Einstellung (vgl. FISHBEIN, 1967):
(1)
Ein Objekt habe n Eigenschaften; bi ist die Wahrscheinlichkeit, mit der das Vorkommen der i-ten
Eigenschaft angenommen wird, ei die Bewertung der i-ten Eigenschaft; die Einstellung gegenüber dem
Objekt E O ergibt sich dann als gewichtete Summe der Einzelkomponenten (vgl. Formel (1)).
(2)
Messung von Einstellungen
Entsprechend der kognitivistischen Fassung des Einstellungskonstrukts werden Einstellungen empirisch
erfaßt durch Abfrage von Kognitionen der Versuchspersonen. Zwei „Papier-und-Bleistift”-Verfahren
werden besonders beliebt:
• Das semantische Differential: Es geht zurück auf OSGOOD, SUCI und T ANNENBAUM (1957), die
zeigen konnten, daß es drei (faktorenanalytische) Hauptdimensionen gibt, nach denen Konzepte bewertet
werden: Bewertung (evaluation), Aktivität (activity) und Kraft (power). Die Adjektivpole für die Dimension Bewertung werden in der Regel zur Einstellungsmessung verwendet: gut / schlecht; angenehm /
unangenehm; wertvoll / wertlos; sauber / schmutzig; freundlich / unfreundlich. Die Vpn sollen hier
bezüglich eines Einstellungsobjekts jeweils einschätzen, ob sie diesem die jeweils positive oder negative
Eigenschaft zuschreiben.
• Die Likert-Skala: In Anlehnung an LIKERT (1932) besteht eine solche Skala aus Items, die bezüglich
eines Objekts verschiedene eindeutig positive oder negative Aussagen machen. Auf einer mehrstufigen
Rating-Skala kann man diesen zustimmen oder sie ablehnen.
Beide Meßverfahren erfassen die affektiven Anteile von Einstellungen, oder, genau genommen, deren
kognitive Repräsentationen. Dadurch sind sie natürlich anfällig gegen Manipulationen durch die
Versuchspersonen und setzen deren Bereitschaft zur offenen Auskunft voraus. Um solche Einflüsse zu
Günter Sämmer: Paradigmen der Psychologie
- 288 -
Kapitel 8: Kognitivismus
kontrollieren, werden Einstellungsmessungen manchmal ergänzt durch die Erfassung von physiologischen Daten, die ebenfalls Auskunft geben können über affektive Prozesse, z.B. durch Messung der
psychogalvanischen Hautreaktion, der Pupillenreaktion oder durch Aufzeichnung eines Elektromyogramms der Gesichtsmuskeln.
Allerdings wird die Validität solcher Verfahren, nicht selten angezweifelt. STAHLBERG und FREY
formulieren diese Zweifel unter Rückgriff auf die Kernannahmen kognitivistischer Psychologie so:
„Verhalten [kann] nicht zwangsläufig als eine Komponente des Einstellungskonzepts betrachtet werden; (...) es ist daher fraglich,
ob Verhaltensindikatoren zu einer Charakterisierung von Einstellungen herangezogen werden sollten oder ob Einstellungen nur
als affektive, durch die Selbstbeschreibung zu erfassende Reaktionen auf ein Einstellungsobjekt verstanden werden können.”
(STAHLBERG & FREY 1992; S. 155)
(3)
Das Elaboration-Likelihood-Modell: ein exemplarisches Forschungsprogramm
Große Teile der Einstellungsforschung befassen sich mit der Möglichkeit, Einstellungen mehr oder
weniger systematisch zu beeinflussen (zur Übersicht vgl. z.B.: STROEBE & J ONAS, 1992). Eines der
neueren Modelle hierzu ist das „Elaboration-Likelihood-Modell” von PETTY und CACIOPPO (vgl. PETTY
& CACIOPPO, 1986):
Zur Veränderung von Einstellungen muß ein informationsverarbeitender Prozeß initiiert werden, der sich
auf die entscheidenden kognitiven und affektiven Bestandteile der Einstellung bezieht. Grundsätzlich
lassen sich zwei Wege kognitiver Verarbeitung (als Pole eines Kontinuums) unterscheiden:
• der zentrale Weg der elaborierten, tiefen und gründlichen Würdigung und Verarbeitung von neuen
Informationen und Argumenten, also des inhaltsbezogenen Nachdenkens, sowie
• der periphere Weg, der eher in einer Verarbeitung oberflächlicher Aspekte einer Botschaft besteht,
also z.B. darin, ob die Botschaft von positiven Reizen begleitet wird.
Der Einstellungswandel durch eine Kommunikation hängt nun von zwei Faktoren ab:
• Von der „dominanten kognitiven Reaktion”, die durch die jeweilige Botschaft ausgelöst wird:
Positive Gedanken als Reaktion auf die Botschaft erhöhen die Wahrscheinlichkeit einer Einstellungsänderung, negative Reaktionen vermindern sie und führen u.U. zu einem entgegengesetzten Effekt
(„Boomerang-Effekt”).
• Von der „Elaboration der Botschaft”: ob also die Botschaft auf dem zentralen oder auf dem
peripheren Weg aufgenommen wird.
Einstellungsänderung: Löst also eine Botschaft bei motivierten und fähigen Rezipienten durch ihre
Argumentationsgüte positive Gedanken aus und gleichzeitig gesteigerte Elaboration (zentraler Weg), so
wird ihre Überredungswirkung erhöht. Löst sie dagegen unter sonst gleichen Bedingungen negative
Gedanken aus, weil die Argumentation schwach und oberflächlich ist, so wird sich die Überredungswirkung verringern. Andererseits wird eine schwache und vordergründige Argumentation eher wirken,
wenn sie auf dem peripheren Weg „rübergebracht” wird.
In einer für kognitivistische Theoriebildung typischen Weise besorgt das Elaboration-Likelihood-Modell
die theoretische Integration einer größeren Zahl teils älterer Einzeluntersuchungen; hier zwei Beispiele:
• PETTY, WELLS und BROCK (1976) hatten eine Untersuchung durchgeführt, in der sie ihren Vpn
mitteilten, es gehe darum, wieweit Menschen in der Lage seien, verschiedene Dinge gleichzeitig zu tun,
z.B. einer informativen Botschaft zu folgen und dabei eine Wahrnehmungsaufgabe zu lösen. Sie ließen
also akustische Botschaften vortragen, die, wie sie vorher geprüft hatten, den Einstellungen der Vpn
widersprachen (z.B. bei studentischen Vpn ein Plädoyer für die Erhöhung von Studiengebühren). Um die
„dominante kognitive Reaktion” zu manipulieren, wurden einmal (für Studenten) starke Argumente
verwendet (z.B. „Man könnte mit den Mehreinnahmen mehr Bücher für die Bibliothek kaufen”) und
Günter Sämmer: Paradigmen der Psychologie
- 289 -
Kapitel 8: Kognitivismus
einmal schwache (z.B. „Die Dozentengehälter könnten mit den Mehreinnahmen erhöht werden.”). Um
die Elaboration zu manipulieren, wurden zur Ablenkung unterschiedlich viele Reize pro Minute auf einen
Bildschirm projiziert. Am Ende wurde erhoben, inwieweit die Vpn nun mit den dargebotenen Botschaften
übereinstimmten.
Ergebnis: Bei geringer Ablenkung (also hoher Elaboration der gehörten Botschaft) war die einstellungsverändernde Wirkung starker Argumente am größten, die Zustimmung zu schwachen Argumenten am
geringsten. Bei wachsender Ablenkung (also fallender Elaboration) waren allerdings starke Argumente
dann nicht mehr wirksamer als schwache.
• In einem ähnlichen Versuchsdesign manipulierten BLESS, BOHNER, SCHWARZ und STRACK (1990)
statt der Aufmerksamkeit die Stimmung der Vpn, um eine geringere Elaboration der gehörten Botschaften
zu erreichen. Sie forderten sie dazu auf, sich an ein sehr angenehmes bzw. an ein sehr unangenehmes
Lebensereignis aus ihrer Vergangenheit zu erinnern. Tatsächlich zeigten gute Argumente weniger
Wirkung, wenn die Vpn in guter Stimmung waren. Waren sie hingegen in schlechter Stimmung, so führte
die Konfrontation mit starken Argumenten eher zu einem Einstellungswandel.
8.5
Persönlichkeitspsychologie aus kognitivistischer Sicht
8.5.1 „Persönlichkeit” aus kognitivistischer Sicht
In der Persönlichkeitspsychologie wurde schon früh die Notwendigkeit erkannt, kognitive Prozesse für die
Konzeption einer Persönlichkeitstheorie heranzuziehen. So sind z.B. viele der älteren großen Persönlichkeitstheorien, jede in unterschiedlicher Ausprägung, „kognitive” Theorien:
• die Persönlichkeits-Konstrukt-Theorie von George A. KELLY (vgl. KELLY, 1955),
• ROGERS Theorie des Selbst (vgl. z.B. ROGERS, 1961),
• die sozial-kognitive Persönlichkeitstheorie von BANDURA und MISCHEL (vgl. z.B. MISCHEL, 1971).
Eine konsequente Anwendung des Informationsverarbeitungsansatzes ist allerdings keine von ihnen. (Zur
theoretischen Klassifikation verschiedener Persönlichkeitstheorien vgl. z.B. PERVIN, 1993).
Gemäß ihrer Kernannahmen konzentrieren sich kognitivistische Persönlichkeitsforscher auf die persönlichkeitsspezifischen Prozesse der Informationsverarbeitung. Brennpunkt des Interesses ist der
informationsgesteuerte Umgang mit sich selbst, mit anderen Personen, mit sozialen Situationen und mit
wichtigen Lebensaufgaben. Jedes Individuum kann bezogen auf diese Bereiche Informationen aufnehmen, speichern und verarbeiten, und es kann sein Verhalten in diesen Bereichen auf dem Hintergrund
solcher Informationen steuern, um seine Ziele zu erreichen. Es konstruiert dazu selbst- und außenweltbezogen kognitive Kategorien und Schemata sowie generalisierte Erwartungen.
Zunächst gibt es eine Vielzahl verschiedener Einzelforschungen, die sich grob in zwei große Richtungen
einordnen lassen (vgl. PERVIN, 1993):
• Verarbeitung von Umgebungsinformationen (z.B. Konstrukte bezogen auf andere Menschen,
Situationen, Ereignisse)
• Verarbeitung von selbstbezogenen Informationen (z.B. interne Selbstmodelle, Selbstkonzept,
Selbstschemata)
Diese Ansätze bleiben längere Zeit relativ unverbunden, bis zu Beginn der 80er Jahre ein erstes größeres
persönlichkeitspsychologisches Modell entsteht: die Theorie der Selbst-Schemata. In ihrem einflußreichen
Aufsatz integriert Hazel MARKUS (1983) eine größere Zahl bis dahin theoretisch relativ isolierter
Einzelkonzepte zu einer zusammenhängenden Theorie.
Günter Sämmer: Paradigmen der Psychologie
- 290 -
Kapitel 8: Kognitivismus
8.5.2 Die Selbst-Schema-Theorie
Während Selbstkonzept-Theorien sich bislang darauf beschränkt hatten, die Gesetzmäßigkeiten beim
Erwerb und der Verarbeitung selbstbezogener Informationen zu erfassen (vgl. z.B. FILIPP, 1979),
entwickelt MARKUS (1983) ein erweitertes Modell, das die Wirkungen selbstbezogener kognitiver
Strukturen auch in bezug auf individuelle Zielsetzungen und die Aspekte der Handlungsregulierung
beschreibt. Das „dynamische Selbst” umfaßt damit das Wissen um eigene Vorlieben und Werte, um
Ziele und Motive sowie um die Regeln und Strategien, die das eigene Verhalten in dieser Hinsicht
regulieren. Kognitive Strukturen, die dies bewirken, werden „Selbst-Schemata” genannt.
(1)
Die vorausgehende Untersuchung von MARKUS
Ausgangspunkt für die Selbst-Schema-Theorie ist eine eigene Untersuchung, in der MARKUS gezeigt
hatte, daß Selbstkonzepte nicht nur „Sammelstellen” für selbstbezogene Informationen sind, sondern daß
sie im Prozeß der Informationsverarbeitung eine erhebliche Eigendynamik entwickeln können (vgl.
MARKUS, 1977):
Die Versuchspersonen sollten sich selbst zunächst auf verschiedenen Skalen (z.B. der GOUGH-HEILBRUNN Adjective Check List) in bezug auf verschiedene Eigenschaften einschätzen. Ausgewählt wurde
die Eigenschaft soziale Abhängigkeit, Anpassungsbereitschaft versus soziale Unabhängigkeit,
geringe Anpassung, und die Vpn wurden in drei Gruppen eingeteilt: zwei Extremgruppen mit hoher bzw.
niedriger Selbsteinschätzung bezüglich „Abhängigkeit” und eine dritte, neutrale („schemalose”) Gruppe.
Den Gruppen wurden vier Aufgaben gestellt:
1. Sie sollten eine Liste von Eigenschaftswörtern, die Abhängigkeit bzw. Unabhängigkeit beschrieben,
und die ihnen für jeweils zwei Sekunden projiziert wurden, daraufhin einschätzen, ob sie auf sie selber
zutreffen oder nicht. Geantwortet wurde mit einem Knopfdruck.
2. Sie sollten zu verschiedenen vorgegebenen Begriffen aus dieser Liste konkrete Verhaltensbeispiele
angeben.
3. Sie sollten vorhersagen, wie wahrscheinlich sie selber ein vorgegebenes Verhalten in Zukunft zeigen
werden.
4. Einige Wochen später sollten die Vpn einen fingierten „Test” durchführen, von dem behauptet wurde,
daß er sehr zuverlässig die „Suggestibilität”, also die Anfälligkeit der Person gegen suggestive Alltagseinflüsse messe. Die Vpn bekamen als „Auswertung” eine ausführliche Beschreibung „ihres” Meßergebnisses; allerdings erhielten die „Unabhängigen” die Mitteilung, daß sie sehr beeinflußbar (suggestibel)
seien, die „Abhängigen” erhielten die umgekehrte Information. Die Vpn sollten dann per Fragebogen
einschätzen, für wie zuverlässig sie den Suggestibilitätstest hielten.
Ergebnisse:
Zu Aufgabe 1: Die Vpn schätzten sich durchweg im Sinne ihres Selbst-Schemas ein, aber: die Reaktionszeiten für die Selbsteinschätzung waren bei Adjektiven, die der jeweiligen Selbsteinschätzung entsprachen,
jeweils kürzer als bei entgegengesetzten Adjektiven.
Zu Aufgabe 2: Zu Adjektiven, die der eigenen Selbstbeschreibung entsprachen, fanden die Vpn mehr
Verhaltensbeispiele als bei entgegengesetzten Adjektiven.
Zu Aufgabe 3: Die Vpn schätzten die Wahrscheinlichkeit, sich entsprechend ihrer Selbstbeschreibung zu
verhalten, höher ein als entsprechend des Gegenkonzepts.
Zu Aufgabe 4: Versuchspersonen, die „Testergebnisse” erhalten hatten, die ihrem Selbstschema
widersprachen, schätzten deren Zuverlässigkeit wesentlich geringer ein als Vpn ohne ein ausgeprägtes
Selbstschema (der Gruppe „Schemalose”).
MARKUS kommt nun zu den folgenden Schlüssen:
Das Selbst-Schema enthält nicht nur selbstbezogene Informationen, es steuert auch den gesamten Prozeß
der Informationsverarbeitung:
Günter Sämmer: Paradigmen der Psychologie
- 291 -
Kapitel 8: Kognitivismus
• Schema-konforme Informationen werden schneller verarbeitet (Aufgabe 1);
• sie werden „tiefer” verarbeitet (wecken mehr Assoziationen in bezug auf das Finden von Beispielen
(Aufgabe 2);
• Schema-konformes Verhalten wird von den Personen als für sie wahrscheinlicher eingeschätzt
(Aufgabe 3);
• Schema-widersprechende Informationen werden zurückgewiesen (Aufgabe 4).
(2)
Das Konzept der dynamischen Selbst-Schemata
Markus systematisiert und erweitert ihre theoretischen Annahmen in folgender Weise (vgl. MARKUS,
1983):
Strukturen selbstbezogenen Wissens
Selbst-Schemata sind zunächst Wissensstrukturen über das Selbst, die aus vergangenen Erfahrungen
resultieren und die Verarbeitung selbstrelevanter Informationen anleiten und organisieren. Das Individuum
wird gedacht als aktiver Konstrukteur von Verallgemeinerungen und Hypothesen über das Selbst
aufgrund von Ereignissen. (z.B. „Ich bin unabhängig”, „Ich arbeite gut mit anderen zusammen”, „Ich bin
schüchtern” ...) (vgl. a.a.O.; S. 547).
Selektions- und Interpretationsmuster für neue Informationen
Selbst-Schemata bilden einen Bezugsrahmen, innerhalb dessen das Individuum festlegt, welche Informationen selbstrelevant sind und welche nicht, so daß jede neue Information selektiert, interpretiert und
aufgenommen wird im Kontext des vorhandenen Selbst-Schemas.
Domänen persönlicher Verantwortlichkeit
Allerdings sind Selbst-Schemata nicht nur passive Verallgemeinerungen vergangener Vorgänge. Sie
ermöglichen auch eine bestimmte Art von Verhaltenskontrolle, denn sie definieren die Bereiche, über die
Individuen glauben, Kontrolle ausüben zu müssen, für die sie also glauben, selbst verantwortlich zu sein.
Das potentielle Selbst
Damit rückt der Aspekt der persönlichen Handlungsziele und der Handlungskontrolle in den Vordergrund.
Selbst-Schemata definieren auch, wie man sein möchte bzw. nicht sein möchte. Sie geben dabei in ihren
relevanten „Domänen” die Ziele für die Handlungsregulation vor: „Was möchte ich sein?, „Wie zu
werden, habe ich Angst?” und definieren so ein potentielles Selbst.
Da Menschen in vielen verschiedenen Kontexten ihres Lebens und in bezug auf unterschiedliche
Lebensaufgaben zum Teil sehr heterogene Ziele verfolgen, ist es sinnvoll, hier je nach Lebensbereich von
verschiedenen, ja einer ganzen Familie von potentiellen Selbsts zu sprechen: Das Berufs-Selbst, das
Familien-Selbst usw. .
Ein Beispiel: Viele Menschen sind schüchtern, und diese Information ist bei vielen auch Bestandteil ihres
selbstbezogenen Wissens (das „statische” Selbstkonzept nach herkömmlicher Lesart). Jedoch entwickeln
Menschen erst ein diesbezügliches „dynamisches” Selbst-Schema, wenn sie beginnen, sich in gewisser
Weise für ihre eigene Schüchternheit verantwortlich fühlen: Ihr Selbst-Schema der Schüchternheit läßt
sie dann aufmerksam werden auf relevante soziale Situationen (die z.B. Schüchternheit auslös en), und es
beinhaltet persönliche Handlungsstrategien und Zielsetzungen (z.B. Vermeidungsstrategien, aber auch
Verhaltenspläne zur Überwindung von Schüchternheit). In diesen spiegeln sich die Strukturen des
potentiellen Selbsts wider (z.B. nicht schüchtern sein zu wollen).
Günter Sämmer: Paradigmen der Psychologie
(3)
- 292 -
Kapitel 8: Kognitivismus
Die Integrationskraft des Ansatzes
Führen wir uns noch einmal die ursprünglichen Modelle des Informationsverarbeitungsansatzes vor Augen
(s.o., Abschnitt 8.2), so zeigt sich, daß der Ansatz von MARKUS die erste kognitivistische Persönlichkeitstheorie ist, die ein vollständiges Handlungsregulationsmodell im Sinne des TOTE-Modells von MILLER,
GALANTER und PRIBRAM (1960) darstellt. Während die Selbstkonzeptforschung bislang mit den Prozessen des Sammelns und Speicherns selbstbezogener Informationen befaßt war, erweitert die SelbstSchema-Theorie den Blick auf den Bereich des sozialen Handelns und die zugehörigen Handlungsziele.
Damit integriert diese Theorie die Teilprozesse der Aufnahme selbstbezogener Informationen mit den
Teilprozessen der Handlungsebene zu einer einheitlichen Theorie des Selbst. Den bislang ausgearbeiteten Teilkonzepten des Selbst kann in diesem Modell jeweils ein Ort zugewiesen werden (was an
dieser Stelle nur kurz angedeutet wird):
• das Konzept der selbstbezogenen Kognitionen (vgl. z.B. CANTOR, MISCHEL & SCHWARTZ, 1982),
• das Konzept der Selbstwahrnehmung (vgl. BEM , 1972),
•
das Konzept des Self-Monitoring und des Self-Managements, der Selbstüberwachung und Selbststeuerung (self-observation, self-control) (vgl. SNYDER, 1974),
•
das Konzept der Selbstaufmerksamkeit (self-awareness) (vgl. DUVAL & WICKLUND , 1972;
SCHEIER, 1976),
• das Konzept der sozialen Intelligenz (social intelligence) (vgl. CANTOR & KIEHLSTROM , 1987).
8.6
Kognitivistische Forschungsprogramme in der Entwicklungspsychologie
8.6.1 Entwicklungspsychologie aus der Sicht des Informationsverarbeitungsansatzes
Auch in der Entwicklungspsychologie gewinnen kognitivistische Forschungsprogramme erst in den 70er
Jahren an Bedeutung, und erst in den 80er Jahren wird der Informationsverarbeitungsansatz zum
dominierenden Prinzip entwicklungspsychologischer Forschung und Theoriebildung (vgl. SIEGLER, 1983).
Entwicklungspsychologische Forschung aus kognitivistischer Perspektive befaßt sich bis heute im
wesentlichen mit den Bereichen:
• Aufmerksamkeit und Gedächtnis: Formen der Repräsentation, Strategien des Gedächtnisses und der
Organisation von Wissen,
• Denken und Problemlösen: Problemlösungsstrategien, Produktionssysteme,
• Metakognition: Wissen über Gedächtnis- und Problemlösestrategien.
(vgl. P. MILLER, 1993; TRAUTNER, 1991)
Dabei werden die entwicklungsbedingten Veränderungen des informationsverarbeitenden Systems
untersucht, wobei sowohl quantitative Veränderungen (z.B. in der Gedächtnisleitung) als auch qualitative
Veränderungen (z.B. bei Encodierungs- oder Problemlöseprozessen) von Interesse sind.
In Fortsetzung der theoretischen Modelle aus der Allgemeinen Psychologie werden die kindlichen
Informationsverarbeitungssysteme als selbstreguliert angesehen; d.h. sie nehmen Informationen auf und
verarbeiten diese. Darüber hinaus können sie aber in aktiver, selbstgesteuerter Interaktion mit der
Umwelt ihre eigene Struktur verändern.
Dieses Modell eines selbst modifizierenden Informationsverarbeitungssystems wird, wie in den
Gründungstagen des kognitivistischen Paradigmas, als Analogie den Computerwissenschaften entliehen,
wo seit Mitte der 70er Jahre Forschungen zur Künstlichen Intelligenz eine immer wichtigere Rolle
spielen. Einige Projekte zur Künstlichen Intelligenz befassen sich nämlich simulativ mit der Fähigkeit von
Computerprogrammen, sich selber und damit ihre eigene Funktionsfähigkeit zu modifizieren. Somit wird
es kognitivistischen Entwicklungspsychologen möglich, Entwicklung nicht nur als Akkumulation von
Informationen zu konzipieren, sondern als selbstgesteuerte, strukturelle Veränderung des Informa-
Günter Sämmer: Paradigmen der Psychologie
- 293 -
Kapitel 8: Kognitivismus
tionsverarbeitungssystems, das auch in der Lage ist, seine eigenen Verarbeitungsprozesse und Strategien aktiv den Entwicklungserfordernissen anzupassen (vgl. dazu z.B. SIEGLER, 1989).
8.6.2 Forschungsprogramme zur Entwicklung der Gedächtnisfunktionen
(1)
Über Gedächtnisstrategien
Mit einem der ersten kognitivistischen Forschungsprogramme zur Entwicklungspsychologie beginnen in
den 60er Jahren FLAVELL und Mitarbeiter:
Auf dem Hintergrund bestehender Gedächtnis- und Informationsfluß-Modelle untersuchen sie, ob es
Unterschiede zwischen jüngeren und älteren Kindern bei der Nutzung des Kurzzeitgedächtnisses gibt (vgl.
FLAVELL, BEACH & CHINSKY, 1966).
Vor 5- bis 10jährigen Kindern werden Bilder verschiedener Gegenstände ausgelegt, und sie sollen sich die
Reihenfolge merken, in der der Versuchsleiter auf einzelne Bilder zeigt. Danach werden die Bilder
verdeckt, und ein im Lippenlesen geübter Beobachter registriert alle erkennbaren Versuche des verbalen
Memorierens. Es zeigt sich, daß nur wenige 5jährige, aber über 50 % der 7jährigen und fast alle 10jährigen eine verbale Strategie des „Hersagens” verfolgen, wobei der Reproduktionserfolg umso höher
ausfällt, je intensiver eine solche eingesetzt wird.
Fordert man aber die 5jährigen auf, den jeweiligen Gegenstand auf dem Bild zu benennen, dann verbessert sich auch ihre Behaltensleistung deutlich. (KEENEY, CANNIZZO, & FLAVELL, 1967).
So sind also auch jüngere Kinder durchaus in der Lage, effektivere Gedächtnisstrategien einzusetzen. Sie
tun dies allerdings nicht spontan, sondern müssen diese Möglichkeit aus ihrer sozialen Umgebung lernen.
(2)
Über Metagedächtnis und Metakognitionen
Kinder sind nicht nur in der Lage, durch Aneignung immer effektiverer Gedächtnisstrategien ihre
kognitiven Leistungen zu steigern, sie lernen auch immer mehr, den Prozeß des Gedächtnisses und des
Denkens selber zu thematisieren. Diese Fähigkeit, eine intuitive Theorie aufzubauen über die Funktionsweise des eigenen kognitiven Systems, wird „Metakognition” genannt, und derjenige Teil, der sich auf
Gedächtnisfunktionen bezieht, heißt „Metagedächtnis” (vgl. z.B. FLAVELL, 1981; WELLMAN, 1985).
Die ersten Unterscheidungen zwischen mentalen Repräsentationen und Vorgängen in der wahrgenommenen Außenwelt lassen sich bereits bei 3jährigen durch eine Analyse von Sprechprotokollen nachweisen
(vgl. SHATZ , WELLMANN & SILBER, 1983). Darüber hinaus lernen Kinder zunehmend, über die Funktionsweise des Gedächtnisses Auskunft zu geben:
KREUZER, LEONARD und FLAVELL (1975) fragen z.B. Kinder, wie sie vorgehen, wenn sie eine Telefonnummer genannt bekommen, die sie anrufen sollen: würden sie gleich wählen oder können sie noch ein
Glas Wasser holen? 40 Prozent der Vorschulkinder, aber 75 Prozent der Fünftklässler würden zuerst
telefonieren und begründen dies mit der Flüchtigkeit des Gedächtnisses.
Schon 8jährige können über ihre Gedächtnisstrategien Aussagen wie diese machen:
„Sagen wir, die Telefonnummer ist 633-8854. Was ich dann tun würde - also wenn meine eigene Nummer 633 wäre, dann müßte
ich mir den Teil schon gar nicht mehr merken. Und dann würde ich mir überlegen, jetzt muß ich mir 88 merken. Ich bin acht Jahre
alt, also merke ich mir einfach zwei Mal, wie alt ich bin. Und dann sage ich, wie alt mein Bruder ist und wie alt er letzes Jahr war.
Und so würde ich mir normalerweise diese Telefonnummer merken.” (a.a.O.; S. 11; zitiert nach P. M ILLER, 1993)
Sowohl die Verbesserung von „Produktionsdefiziten” (FLAVELL, 1981) durch Aneignung neuer
Techniken (vgl. (1)) als auch die Aneignung von Metawissen (vgl. (2)) sind also Beispiele dafür, daß
Entwicklungsfortschritte auf der (qualitativen) Ebene der kognitiven Strategien durchaus durch Lernprozesse erreichbar sind. Das kognitive System scheint also tatsächlich durch Umweltinteraktion eine
Veränderung seiner eigenen Funktionsweise erreichen zu können. Und es stellt sich damit als durchaus
Günter Sämmer: Paradigmen der Psychologie
- 294 -
Kapitel 8: Kognitivismus
sinnvoll heraus, von Entwicklung als selbstgesteuerter struktureller Veränderung des Informationsverarbeitungssystems zu sprechen.
8.7
Kognitivistische Ansätze in der Angewandten Psychologie
In großen Teilen der Angewandten Psychologie sind heute Forschungsprogramme auf kognitivistischer
Basis installiert. Selbst ein grober Überblick über die Vielfalt dieser Ansätze wäre an dieser Stelle nicht
zu leisten. Deshalb müssen einige wenige Beispiele genügen, um einen Eindruck zu gewinnen, wie
Problemfelder der psychologischen Praxis kognitivistisch rekonstruiert werden.
8.7.1 Beispiele aus der Pädagogischen Psychologie: Attributionsstile und Leistungsprobleme
(1)
Beiträge der kognitivistischen Psychologie zu pädagogisch psychologischen Problembereichen
Wichtige kognitivistische Forschungsprogramme der Pädagogischen Psychologie wurden in den vergangenen zwei Jahrzehnten in den folgenden Bereichen etabliert (hier angelehnt an die Systematik von
HOFER, 1993):
• Psychologie des Wissenserwerbs, z.B.: Theorien des kognitiven Lernens, des Wissenserwerbs in
semantischen Netzwerken, Erwerb von Fertigkeiten in Produktionssystemen, Techniken des Problemlösens, metakognitive Fähigkeiten.
• Psychologie des Lerners, z.B.: Theorien des Lernerverhaltens aus handlungs- und attributionstheoretischer Perspektive; Erwartungen, Ursachenzuschreibung und Leistungsmotivation; leistungsbezogene Gefühle und Kognitionen.
• Psychologie des Erziehers, z.B.: handlungsleitende Kognitionen bei Eltern und Lehrern; Emotionen
und Erziehungsziele als Determinanten erzieherischen Handelns.
• Psychologie der erzieherischen Interaktion, z.B.: Regulation von Interaktion durch kognitive
Schemata; subjektive Theorien und ihr Einfluß auf die Schüler-Lehrer/Eltern-Interaktion.
• Psychologie des Lernens mit Medien, z.B.: Aufmerksamkeitssteuerung in Medien; Symbolsysteme
in Medien; Verarbeitungstiefe medial übermittelter Informationen.
Aus einem dieser Bereiche, aus dem Schwerpunkt „Psychologie des Lerners” sollen nun exemplarisch
einige Ergebnisse vorgestellt werden. Es handelt sich um die Zusammenhänge zwischen typischen
Attributionsstilen einerseits und der Leistungsmotivation und -bereitschaft andererseits.
(2)
Attribution und Motivation im Leistungsbereich
Seit Mitte der 70er Jahre führen WEINER und Mitarbeiter ein großes Forschungsprogramm durch, das
sich mit Motivationsproblemen im Leistungsbereic h befaßt (vgl. WEINER, 1979; 1985). Neu an diesem
Ansatz ist, daß er das klassische Konzept der Leistungsmotivation attributionstheoretisch untersucht.
Nach WEINER werden Erfolge oder Mißerfolge Ursachen zugeschrieben, die prinzipiell drei Dimensionen
zugeordnet werden können:
• Internalität vs. Externalität: die Ursache für Erfolg oder Mißerfolg wird in der eigenen Person oder
in der Außenwelt gesucht.
• Stabilität vs. Instabilität: die Ursache ist überdauernd und unveränderbar oder veränderbar und
flüchtig.
Günter Sämmer: Paradigmen der Psychologie
- 295 -
Kapitel 8: Kognitivismus
• Kontrollierbarkeit vs. Unkontrollierbarkeit: die Ursache ist von der Person beeinflußbar oder nicht.
Die typischen Ursachenzuschreibungen bei Leistungsversagen lassen sich diesen Dimensionen zuordnen,
z.B.: „Ich bin unbegabt” (intern, stabil, unkontrollierbar); „Ich war krank” (intern, instabil, unkontrollierbar); „Ich war unvorbereitet” (intern, instabil, kontrollierbar); „Diese Anforderung ist prinzipiell schwer”
(extern, stabil, unkontrollierbar); „Ich hatte Pech” (extern, instabil, unkontrollierbar).
WEINER und Mitarbeiter können nun durch eine Reihe von Untersuchungen zeigen (vgl. z.B. WEINER,
1985; 1986):
• Im Leistungsbereich ist die Art der Erfolgs- oder Mißerfolgsattribution relativ stabil und persönlichkeitsspezifisch.
• Die Art der Attribution von Erfolg und Mißerfolg beeinflußt nachhaltig die Erfolgs- bzw. Mißerfolgserwartung bei zukünftigen Leistungen. Zum Beispiel, wenn Personen ihre Erfolge stabilen, internen
Ursachen (z.B. Begabung) zuschreiben, dann erwarten sie in Zukunft weitere Erfolge, nicht jedoch, wenn
sie zur Erklärung von Erfolgen variable Faktoren verantwortlich machen (z.B. Anstrengung oder Glück).
• Unterschiedliche Formen der Attribution führen zu unterschiedlichen emotionalen Reaktionen
(leistungsbezogene Gefühle). Wird zum Beispiel Erfolg auf „Fähigkeit” und auf die eigene Persönlichkeit
attribuiert (also intern und stabil), so entsteht Selbstvertrauten und erhöhtes Selbstbewußtsein; wird
dagegen Mißerfolg auf „Unfähigkeit” oder andere feste Persönlichkeitseigenschaften attribuiert (also
intern, stabil und unkontrollierbar), so entsteht eher das Gefühl von Inkompetenz bis hin zu Resignation.
(3)
Die Beeinflußbarkeit von Attributionsstilen im Leistungsbereich
Wenn also Leistungszuversicht, Leistungsangst und Leistungsversagen eng mit den typischen Attributionen von Personen verknüpft sind, dann stellt sich die Frage, durch welche Einflüsse personentypische Attributionen zustandekommen, und wie sie sich durch systematische Interventionen ändern lassen.
a) Einflüsse von Lehrern auf Attributionsstil und Motivation von Schülern
In einer frühen Untersuchung hatte SCHERER (1972) gezeigt, daß Lehrer, die gute bzw. schlechte
Leistungen ihrer Schüler durchgehend mit hoher bzw. fehlender persönlicher Anstrengung der Schüler
erklären, ihre Klasse dazu bringen können, in derselben Weise zu attribuieren.
Es zeigt sich dann in weiteren Untersuchungen, daß Lehrer sehr unterschiedlich vorgehen, was die
Ursachenzuschreibung von Schülerleistungen betrifft (vgl. RHEINBERG, 1980; HOFER, 1986): z.B.
scheinen einige Lehrer für die Erfolge oder Mißerfolge ihrer Schüler eher stabile Merkmale (wie
Begabung, Intelligenz und Arbeitshaltung) verantwortlich zu machen, während andere stärker auf
variable Merkmale (etwa Interesse, leib-seelische Verfassung, häusliche Probleme) attribuieren.
Die Gründe für diese unterschiedlichen Ursachenzuschreibungen bei Lehrern werden in einer für
kognitivistische Forschungsprogramme typischen Weise in den Informationsverarbeitungsprozessen der
einzelnen Lehrer gesucht: Lehrer, die sich stark für die Leistungsunterschiede ihrer Schüler interessieren
und diese (z.B. in Notenlisten) verstärkt zur Kenntnis nehmen (soziale Bezugsnorm-Orientierung),
bemerken viel eher, daß einzelne Schüler dauerhaft schlechter als andere sind, und schließen so auf
zeitstabile Ursachen. Andere Lehrer achten eher auf die individuelle Entwicklung einzelner Schüler
(individuelle Bezugsnorm-Orientierung) und stellen weniger Vergleiche an. Sie attribuieren so mehr
auf veränderliche Faktoren.
Tatsächlich zeigt sich in mehreren Untersuchungen, daß Lehrer mit starker Orientierung an sozialen
Bezugsnormen und starkem Interesse an Leistungsvergleichen häufig auch sehr ungünstige Motivationseffekte auf leistungsschwächere Schüler haben, was deren Leistungszuversicht und die leistungsbegleitenden Emotionen angeht.
Günter Sämmer: Paradigmen der Psychologie
- 296 -
Kapitel 8: Kognitivismus
b) Möglichkeiten der „Reattribuierung”: Veränderung ungünstiger Attributionsstile bei Lernern
Besondere Leistungsprobleme haben, wie gesehen, Personen, die Mißerfolg stabil attribuieren, sei es auf
internale oder auch auf externale Ursachen. Zwei Untersuchungen zeigen exemplarisch, daß die
individuelle Art der Mißerfolgsattribution durchaus veränderbar ist:
DWECK (1975) läßt Schulpsychologen und Lehrer Schülerinnen und Schüler nach ihrer Hilflosigkeit im
Umgang mit Leistungsanforderungen einschätzen und wählt dann eine Extremgruppe (5 Mädchen und 7
Jungen) besonders hilfloser und demotivierter Kinder. Sie werden in zwei Gruppen eingeteilt und für 25
Tage unterschiedlich trainiert: Die erste Gruppe erhält ein „Erfolgstraining” anhand mathematischer
Probleme, bei denen die Versuchsleiterin dafür sorgt, daß sie diese zu 100 Prozent erfolgreich lösen
können. Die zweite Gruppe erhält ein „Attributionstraining”, ebenfalls mit mathematischen Aufgaben,
allerdings werden bei 20 Prozent der Aufgaben Mißerfolge induziert. Hat ein Schüler einen solchen
Mißerfolg, so formuliert die Versuchsleiterin eine internal-variable Attribution, z.B. „Hier hättest du durch
mehr Anstrengung erreicht, daß ...”
Tatsächlich nimmt nach Abschluß des Trainings die Anstrengungsbereitschaft der Gruppe mit Attributionstraining zu, die der Kontrollgruppe mit Erfolgstraining bleibt unverändert.
Eine andere Untersuchung führen WILSON und LINVILLE (1985) an Studenten im ersten Studienjahr
durch, deren Noten unter dem Durchschnitt liegen. Einer Gruppe von ihnen werden ausführliche Informationen darüber zugänglich gemacht, daß die Ursachen für anfängliche Mißerfolge an der Universität
instabil sind: Sie bekommen Statistiken über die Notenentwicklung anderer Studenten während mehrerer
Jahre, Videoaufzeichnungen von Interviews mit älteren Studenten, die angeben, daß sich ihre Leistung bei
anfänglichen Problemen im Laufe der Zeit gebessert hätte. Die Kontrollgruppe erhält Informationsmaterial und Videointerviews, die sich nicht auf eine Leistungsverbesserung beziehen.
Eine systematische Erhebung aller weiteren Studienleistungen beider Gruppen zeigt nun, daß sich die
Leistungen der Studenten aus Gruppe 1 signifikant gegenüber der Kontrollgruppe verbessern, und daß von
dieser Gruppe weniger Studenten die Hochschule verlassen. Die Autoren interpretieren dies dahingehend,
daß die Veränderung der Attribution des Studienmißerfolgs auf instabile Ursachen dazu führt, daß die
betreffenden Studenten ihr Studium mit weniger Angst und erhöhter Erfolgserwartung und damit
erfolgreicher fortgesetzt haben.
Diese und ähnliche Untersuchungen haben inzwischen zu einem Repertoire pädagogisch-psychologischer Interventionstechniken geführt, die alle eine Reattribuierung bei leistungsschwachen, demotivierten Schülern zum Ziel haben (vgl. FÖRSTERLING, 1986).
8.7.2 Werbepsychologie - eine Übersicht über kognitivistisch rekonstruierte Problembereiche
(1)
Beiträge kognitivistischer Forschungsprogramme zur Werbepsychologie
Die Affinität insbesondere sozialpsychologischer kognitivistischer Forschungsprogramme zur Markt- und
Werbepsychologie ist, so IRLE (1983), unverkennbar. Insbesondere in der Einstellungsforschung lesen sich
die Themen nicht selten wie Überschriften werbepsychologischer Grundlagenforschung: „Attitudes and
Persuasion”(PETTY & CACCIOPPO, 1981) oder „Distraction can enhance or reduce yielding to
propaganda” (PETTY, WELLS, & BROCK, 1976).
In seiner Übersichtsarbeit über die psychologischen Grundlagen der Werbepsychologie nennt MOSER
(1990) u.a. die folgenden Beiträge kognitivistischer Psychologie:
• Aufmerksamkeitssteuerung, z.B.: Nutzung unterschiedlicher Sinnesmodalitäten und Kanalkapazitäten
in Webespots und -anzeigen; Neuartigkeit und Komplexität - das Verhältnis von Kongruenz und Inkongruenz kognitiver Schemata.
Günter Sämmer: Paradigmen der Psychologie
- 297 -
Kapitel 8: Kognitivismus
• Lernen als Informationsaufnahme, z.B.: semantische, bildhafte, episodische und prozedurale Codierung
und Repräsentation im Langzeitgedächtnis.
• Einstellungen, ihre Handlungsrelevanz und Möglichkeiten ihrer Veränderung, z.B.: kognitive Dissonanz
nach Kaufentscheidungen; Tiefe der Verarbeitung und Methoden der Überzeugungsänderung.
• Soziale Prozesse, z.B.: soziale Beeinflussung; Konformität und Informationsverarbeitung; Informationseinfluß und normativer Einfluß, Majoritäten- und „Meinungsführer”-einfluß.
(2)
Steigerung von Gedächtnis- und Behaltensleistungen
a) Imagery: interaktive Illustration und Gedächtnis
Das Behalten kurzfristig dargebotener Informationen durch den Rezipienten ist für die Wirkung von
Werbung ein wesentlicher Faktor. Um dies zu optimieren, werden eine Reihe von Prinzipien der Werbepsychologie aus den klassischen Gedächtnismodellen von ATKINSON und SHIFFRIN oder T ULVING
abgeleitet, zum Beispiel:
Die unterschiedlichen Typen der Repräsentation von Informationen im Langzeitgedächtnis legen es nahe,
bei der Informationsübermittlung auch unterschiedliche Codierungsformen zu verwenden. So zeigt sich,
daß Informationen, die nicht nur verbal sondern auch bildhaft im Gedächtnis repräsentiert werden, besser
erinnert werden. Dies gilt auch für anschaulich bildhafte Wörter im Vergleich zu abstrakten (vgl.
BRANSFORD, 1979).
Besonders großen Einfluß auf die Gestaltung von Werbeanzeigen haben die gedächtnispsychologischen
Untersuchungen von LUTZ und LUTZ (1977) zur „interaktiven Verknüpfung” von Bild und Schrift
(„Imagery”): Eine solche Schrift-Bild-Interaktion liegt vor, wenn Bild und Schrift nicht assoziativ
nebeneinander gestellt werden, sondern inhaltlich aufeinander Bezug nehmen, also eine gemeinsame
Information codieren (vgl. Abb. 8.14).
Abb. 8.14: Beispiel für interaktive Illustration von Produkt und Marke (nach Lutz & Lutz, 1977; S. 474)
Günter Sämmer: Paradigmen der Psychologie
- 298 -
Kapitel 8: Kognitivismus
Abb. 8.15: Erinnerte Markennamen mit und ohne Illustration bei interaktiver und nicht interaktiver Darstellung (nach:
LUTZ & LUTZ, 1977)
Abb. 8.15 zeigt den von LUTZ und LUTZ gefundenen Zusammenhang zwischen der Darstellungsform und
der Erinnerungsleistung bei Markennamen: Markennamen werden besser behalten, wenn sie in Interaktion mit einer Illustration dargeboten werden; in Interaktion mit anderen Namen erhöht sich die
Behaltensleistung nicht.
Die Autoren der Imagery-Forschung erklären die Verbesserung der Gedächtnisleistung bei interaktiver
Darbietung damit, daß die Informationen im Langzeitgedächtnis auf zwei Ebenen, semantisch und bildlich
repräsentiert und damit löschungsresistenter und leichter wieder abrufbar werden.
b) Tiefe der Verarbeitung
Viele Werbefachleute versuchen, die Gedächtnisleistung für Werbeinformationen dadurch zu erhöhen,
daß sie die Verarbeitungstiefe der dem Rezipienten angebotenen Informationen intensivieren.
Ausgehend von CRAIK und LOCKHART s (1972) Untersuchungen zur Steigerung der Gedächtnisleistung
bei steigender Verarbeitungstiefe („processing-level”) zeigt SAEGERT (1978), daß Inhalte von Zeitungsanzeigen, die nur für einen kurzen Moment angesehen werden können (5 Sekunden), dann besser
behalten werden, wenn die Rezipienten aufgefordert werden, eine Frage auf semantischer Ebene zu
beantworten (z.B. „Haben Sie diese Marke schon einmal benutzt?”). Werden dagegen nur „oberflächliche” Fragen gestellt (z.B. „Welche Farbe hatte die Schrift?”), so ist die Gedächtnisleistung geringer.
Andere Untersuchungen gehen in ähnliche Richtung: Wird zu einer Werbeillustration das Dargestellte im
anschließenden Werbetext noch einmal benannt („framing”), so steigt die Behaltensleistung, da durch ein
zusätzliches Einschalten der semantischen Ebene die Verarbeitungstiefe zunimmt (vgl. EDELL & STAELIN,
1983).
(3)
Einstellungsänderung und Überzeugung durch Argumentationsstrategien in Anzeigen
Nach PETTY und CACCIOPPO (1986) sind für eine wirksame Überzeugungstrategie zwei Faktoren
ausschlaggebend: Die Güte der zur Überzeugung vorgebrachten Argumente und die gleichzeitige
Elaboration der Botschaft durch den Aufnehmenden (Weg der Verarbeitung): Gute Argumente wirken
überzeugungsändernd nur, wenn sie auf zentralem Weg, also elaboriert verarbeitet werden. Schwache
Argumente dagegen können nur etwas auf dem peripheren Weg bewirken.
Zur Manipulation des Involvements und der Elaboration von Informationen in Werbeanzeigen werden z.B.
folgende Möglichkeiten vorgeschlagen:
Günter Sämmer: Paradigmen der Psychologie
- 299 -
Kapitel 8: Kognitivismus
• Zweiseitige Argumentation: Wenn für das beworbene Produkt nicht nur befürwortende Argumente
vorgebracht werden, sondern auch (nicht ganz so starke) Gegenargumente, so ist die Überzeugungswirkung langfristig höher, im Vergleic h zu einer einseitigen Information, deren Wirkung anfangs stärker
ist, aber bald nachläßt (vgl. ETGAR & GOODWIN, 1982). Es wird angenommen, daß dieser Effekt
zustande kommt, einerseits weil zweiseitige Argumentation die Verarbeitungstiefe erhöht (zentraler
Weg), andererseits, weil die Gegenargumente den Rezipienten „impfen” gegen überraschende Kritik.
• Vorbilder und qualifizierte Minderheiten: Machen in Werbeanzeigen oder -spots einzelne Personen
oder Minderheiten mit hohem Sozialprestige positive Aussagen zu einem Produkt, so veranlaßt dies eher
zentrale Informationsverarbeitungsprozesse und trägt damit zu einer Einstellungsänderung bei (vgl. z.B.
NEMETH, 1986).
• Attraktive Modelle lassen den Rezipienten eher den peripheren Weg der Informationsverarbeitung
gehen und sind so geeignet, wenn das Involvement eher gering ist - und die Argumentationslage eher
schwach (vgl. z.B. KAHLE & HOMER, 1985).
8.8
Das Paradigma der kognitivistischen Psychologie: ein paradigmatisches Subsumptionsmodell kognitivistischer Forschungsprogramme
8.8.1 Das kognitivistische Subsumptionsmodell
(1)
Paradigmatische Basiseinheiten der kognitivistischen Psychologie: zentrale Begriffe und
Relationen
Informationsverarbeitung
Hauptgegenstände der kognitivistischen Psychologie sind die Informationsverarbeitungsprozesse von
Individuen. Kognitivisten nehmen an, daß Informationsverarbeitungsprozesse zentrale Bestandteile aller
Aktivitäten sind. Somit lassen sich alle psychischen Phänomene entweder als Prozesse oder als Produkte
von Informationsverarbeitung interpretieren.
Die Bestandteile, die Dynamik und die Funktion von Informationsverarbeitungsprozessen bilden die
wesentlichen Attribute des paradigmatischen Subsumptionsmodells. Im einzelnen sind dies:
Kognitive Repräsentationen
Alle lebenden Individuen sind in der Lage, Informationen zu speichern. Sie bilden dadurch kognitive
Repräsentationen von Gegebenheiten, Ereignissen und Zusammenhängen sowohl ihrer Außenwelt als
auch ihrer Innenwelt.
Kognitive Repräsentationen sind keine analogen Bilder, die in irgendeiner Weise Ähnlichkeit mit ihrem
Repräsentandum haben, sondern es sind gesetzmäßige Zuordnungen mentaler Prozesse zu „Originalen”,
die innerhalb und außerhalb des Subjekts liegen können.
Kognitive Prozesse
Kognitive Repräsentationen können durch informationsverarbeitende Prozesse in unterschiedlicher Weise
verändert oder verknüpft, gespeichert oder hervorgeholt werden. Sie sind autonom und können ohne
äußere Anstöße in Gang gesetzt werden.
Konstruktion organisierter kognitiver Schemata und Wissensstrukturen
Kognitive Prozesse organisieren einzelne kognitive Repräsentationen in einem aktiven Konstruktionsprozeß zu hierarchisch organisierten kognitiven Schemata bzw. Wissensstrukturen.
(2)
Paradigmatische Fundamentalgesetze der kognitivistischen Psychologie
Kognitive Prozesse und Verhalten
Alle äußeren Aktivitäten offenen Verhaltens wie auch alle inneren Aktivitäten des Individuums werden
durch kognitive Prozesse (Informationsverarbeitungsprozesse) hervorgerufen und beeinflußt.
Günter Sämmer: Paradigmen der Psychologie
- 300 -
Kapitel 8: Kognitivismus
Zielgerichtete Aktivitäten und Selbststeuerung
Alle inneren und äußeren Aktivitäten eines Individuums sind zielgerichtet und selbstgesteuert; d.h. das
Individuum kann aufgrund kognitiver Prozesse seine inneren und äußeren Aktivitäten selbsttätig so
steuern, daß es den als kognitive Strukturen gespeicherten Zielen dieser Aktivitäten näherkommt.
Solche aktiven Steuerungsprozesse können
• offenes Verhalten steuern (von einfachen Muskelkoordinationen bis hin zu Körperbewegungen), aber
auch innere Aktivitäten (z.B. die Wahrnehmung, das Denken oder das Problemlösen);
• sie können sich auf der makroskopischen Ebene (z.B. als Handlungen) oder auf der mikroskopischen Ebene (z.B. als Reizselektion bei der Aufmerksamkeitssteuerung) manifestieren;
• sie können dem Individuum bewußt sein, aber auch nicht bewußt und unbemerkt ablaufen.
(3)
Die paradigmatische Methodologie der kognitivistischen Psychologie
Kognitivistische Transformationsannahmen
Eine wesentliche Forderung an die Forschungsmethodik ist ihre möglichst hohe Objektivität und Reproduzierbarkeit. Es wird angenommen, daß auch innere Prozesse der Informationsverarbeitung
objektiven empirischen Methoden zugänglich sind. Dabei wird eine allzu große Rigorosität vermieden,
wenn diese droht - wie es im Behaviorismus nicht selten vorkam - den Gegenstandsbereich zu sehr zu
verengen. Bei einzelnen Methoden (wie z.B. bei introspektiven „Gedankenprotokollen”) wird manchmal
sogar auf eine strenge Objektivierbarkeit verzichtet, wenn sie durch objektive „flankierende” Verfahren
(z.B. Verhaltensanalyse) ergänzt werden können.
Zur Erfassung und Rekonstruktion kognitiver Prozesse werden häufig eingesetzt:
• standardisierte oder offene Befragungen
• direkte Verhaltensbeobachtungen und Verhaltensanalysen
• Analyse von Fehlern im offenen Verhalten
• Messung von Reaktionszeiten
• Aufzeichnung physiologischer Daten
Insgesamt sind sowohl Labor- als auch Feldexperimente und -untersuchungen möglich.
Theoriebildung und Sprachspiel
1. Theorien mittlerer Reichweite
Bis heute existiert keine „große” Rahmentheorie, auf die sich (wie z.B. bei den Konditionierungstheorien
der Behavioristen) weite Bereiche kognitivistischer Forschung und Theoriebildung beziehen können. Statt
dessen werden zur Bearbeitung bestimmter Problembereiche „Modelle (Theorien) mittlerer Reichweite” über die konkret zu problematisierenden Informationsverarbeitungsprozesse gebildet.
2. Konstruktivistische Kernannahmen
Kognitivistische theoretische Modelle sind keine „Schlußfolgerungen” aus empirischen Beobachtungen,
sondern hypothetische Konstrukte. Für sie gilt das Kriterium der pragmatischen Bewährung. Als
Indikatoren für die Bewährtheit eines Modells werden z.B. akzeptiert:
• seine Fähigkeit, alte oder neue empirische Befunde zu erklären; (Viele Theorien entstehen, wie oben
gezeigt, als theoretische Synthese aus einer Reihe von älteren Untersuchungsergebnissen.)
• seine Fähigkeit, ältere und bewährte Modelle zu umfassen und zu verallgemeinern;
• seine Fähigkeit, erfolgreiches theoriegeleitetes (psychologisch-technologisches) Handeln zu ermöglichen; (dies z.B. bei Konstrukten aus „Angewandten” Disziplinen, die in Grundlagendisziplinen
importiert werden).
3. Zwei Ebenen des kognitivistischen Sprachspiels
Innerhalb des kognitivistischen Sprachspiels lassen sich mindestens zwei Ebenen unterscheiden:
Günter Sämmer: Paradigmen der Psychologie
•
•
(4)
- 301 -
Kapitel 8: Kognitivismus
Die Ebene der Systeminterpretation: Hier werden Informationsverabeitungsprozesse in informationstheoretisch-kybernetisch-technischen Begriffen beschrieben wie „Input”, „Speicher”, Zuordnung
bzw. Transformation von Informationen”, „Rückkopplung und Steuerung”.
Die Ebene der Handlungsinterpretation: Auf dieser Ebene werden Informationsverarbeitungsprozesse in eher psychologischen Begriffen formuliert wie „Wahrnehmung”, „Gedächtnis”, „Einstellungsänderung” oder „Attribution”, „Handlungssteuerung”.
Das Menschenbild der kognitivistischen Psychologie
Autonomes Subjekt
Der Mensch wird angesehen als ein autonomes, Information verarbeitendes Subjekt.
Mentale Prozesse
Kernbestandteil aller psychischen Phänomene ist die Dynamik innerer mentaler, kognitiver Prozesse. Der
Mensch ist in der Lage, ein komplexes, zusammenhängendes Bild seiner Umwelt und seiner selbst,
sowohl seiner Eigenschaften als auch seiner Ziele und Fähigkeiten, zu konstruieren und mental zu
repräsentieren (Selbstbild). Alle mentalen Prozesse werden verstanden als aktive Formen der Informationsverabeitung.
Zielgerichtete, selbstgesteuerte Aktivitäten
Menschliche Aktivitäten sind stets ziegerichtet, wobei der Mensch seine Ziele kognitiv konstruiert und das
Erreichen dieser Ziele selbsttätig überwacht. Viele dieser Aktivitäten (meist auf makroskopischer Ebene)
sind bewußt geplant und kontrolliert (z.B. intentionales Handeln), andere (häufig auf der mikroskopischen
Ebene) verlaufen ohne bewußte Kontrolle (z.B. die elementaren Prozesse der Reizselektion- und verarbeitung), sind aber ebenfalls zielgerichtet und selbstgesteuert.
8.8.2 Die Forschungsprogramme der kognitivistischen Psychologie: Attributzuordnungen
Die Möglichkeit der Zuordnung der Attribute des Subsumptionsmodells soll an folgenden, oben dargestellten kognitivistischen Forschungsprogrammen demonstriert werden:
• Emotionsforschung
• Attributionsforschung
• Einstellungsforschung
• Selbstkonzept- bzw. Selbstschemaforschung
(1)
Attributzuordnungen für die Emotionsforschung
In SCHACHTERs Theorie sind Emotionen das Ergebnis von Informationsverarbeitungsprozessen. Sie
entstehen aus der Integration von Informationen (kognitive Prozesse), die zwei verschiedenen Quellen
entstammen: Einerseits sind es kognitive Repräsentationen physiologischer Erregungszustände,
anderseits die Ergebnisse von Interpretationsprozessen situativer Gegebenheiten auf dem Hintergrund von
Erfahrungen. Die „Etikettierung” unerklärter physiologischer Erregungszustände ist somit eine kognitive
Struktur, die aufgrund selbstgesteuerter kognitiver Aktivitäten zustande gekommen ist. Der Etikettierungsprozeß endet, wenn eine „plausible” Erklärung als emotionales Etikett gefunden ist (Ziel).
Emotionen werden insgesamt aufgefaßt als Synthese kognitiver Prozesse, die das Verhalten beeinflussen (z.B. als emotionales „Ausdrucksverhalten” in der Versuchssituation).
Günter Sämmer: Paradigmen der Psychologie
(2)
- 302 -
Kapitel 8: Kognitivismus
Attributzuordnungen für die Attributionsforschung
Der kognitive Prozeß, durch den eine Attribution zustande kommt, verknüpft zwei Arten kognitiver
Repräsentationen: das Repräsentat eines sozial bedeutsamen Ereignisses mit dem Repräsentat einer
Gegebenheit, die als „Ursache” dieses Ereignisses interpretiert wird. Ergebnis ist zunächst ein organisiertes kognitives Schema: eine Ursache-Wirkungs-Beziehung.
In KELLEYs Attributionstheorie werden zu diesem Zweck kognitive Repräsentationen von Entitäten,
zeitlichen Umständen und Personenmerkmalen gebildet und miteinander in eine logisch strukturierte
Kovarianz-Beziehung gebracht. Attributions-”Fehler” entstehen dadurc h, daß diese Entscheidungsgrundlage entweder unvollständig ist oder aufgrund von „fehlerhafter” Verarbeitung (z.B. Wahrnehmungsverzerrungen, Fehlschlüsse, Einflüsse motivationaler Steuerungsprozesse).
Die Attributionsbildung ist eine selbstgesteuerte, innere Aktivität, die das Ziel hat, alle vorhandenen
relevanten Repräsentate in einen möglichst kohärenten, widerspruchsfreien Gesamtzusammenhang zu
bringen.
Personenspezifische Attributionsstile entstehen durch ein Regelsystem (kognitives Schema) auf der
„Metaebene”, das Gesetzmäßigkeiten für die Bildung von Attributionen enthält und damit den Prozeß der
Attribuierung steuert.
(3)
Attributzuordnungen für die Einstellungsforschung
In PETTY & CACCIOPPOs bzw. FISHBEIN & AJZEN s kognitivistischer Interpretation sind Einstellungen
Ergebnisse kognitiver Prozesse: Sie entstehen aus den Verknüpfungen zweier Typen kognitiver
Repräsentationen, einer einfachen affektiven Bewertungskategorie (z.B. positiv oder negativ) mit den
Repräsentaten von Eigenschaften einer Person, eines Objekts oder persönlicher Zielsetzungen.
Ein konkretes, einfaches Modell für das Zustandekommen von Einstellungen ist das Erwartungs-WertModell: Es beschreibt eine mögliche Gesetzmäßigkeit der kognitiven Prozesse beim Zustandekommen
von Einstellungen gegenüber Gegebenheiten, die mehrere bewertbare Eigenschaften besitzen, wobei die
„Erwartungen” genannten Kognitionen mit den „Bewertungen” verrechnet werden. So entstehen
Einstellungen als Ergebnisse selbstgesteuerter zielgerichteter Aktivitäten, die in eine relativ einfache
kognitive Struktur münden.
Das Elaboration-Likelihood-Modell von PETTY und CACCIOPPO beschreibt Gesetzmäßigkeiten kognitiver
Prozesse bei der Veränderung von Einstellungen: Es stellt Zusammenhänge her zwischen der Qualität
kognitiver Prozesse (Grad der „Elaboration”) und der kognitiven Bewertung von Prozessen der Aufnahme
von Informationen, die zur Einstellungsänderung führen sollen („dominante kognitive Reaktion”). Und es
sagt voraus, unter welchen Bedingungen Einstellungsänderungen zustande kommen.
Alle am Zustandekommen oder der Veränderung von Einstellungen beteiligten Prozesse sind selbstgesteuert und zielen auf eine möglichst widerspruchsfreie, kohärente Integration aller beteiligten
Kognitionen. Einstellungen werden als handlungsrelevant (verhaltenssteuernd) angesehen, ohne allerdings
determinierend zu sein.
(4)
Attributzuordnungen für die Selbstkonzept- bzw. Selbstschemaforschung
Das von Hazel MARKUS postulierte „dynamische Selbst” besteht aus komplexen kognitiven Strukturen
(Selbstschemata), die kognitive Repräsentationen bzw. Teilstrukturen unterschiedlicher Bereiche
enthalten:
• selbstbezogene Informationen: das Wissen um die eigenen Eigenschaften und Fähigkeiten
• selbstbezogene Ziele: das Wissen um die eigenen Vorlieben, Werte, Motive und persönlichen Ziele
(„potentielles Selbst”)
Beide Bereiche des „dynamischen Selbst” entstehen in
selbstgesteuerten kognitiven Prozessen:
Selbstrelevante Informationen werden abstrahiert und zu komplexen Schemata organisiert. Sie selektieren
Günter Sämmer: Paradigmen der Psychologie
- 303 -
Kapitel 8: Kognitivismus
alle neuen Informationen und konstituieren Interpretationsmuster für deren Verarbeitung. Sie definieren
„Domänen persönlicher Verantwortlichkeit”, in denen das Individuum seine Ziele zu verwirklichen
trachtet, und dadurch in besonderer Weise bereit ist zu inneren (kognitiven) und äußeren (handlungsbezogenen) Aktivitäten.
Günter Sämmer: Paradigmen der Psychologie
- 304 -
Kapitel 8: Kognitivismus
Günter Sämmer: Paradigmen der Psychologie
9.
- 305 -
Kapitel 9: Möglichkeiten und Grenzen
Kapitel
Möglichkeiten und Grenzen des Paradigmenmodells der Psychologie
Nach dem Entwurf des Paradigmenmodells der Psychologie lohnt ein Rückblick auf die Zielsetzungen, die
?pragmatischen Entschlüsse“ (siehe Kapitel 1), die der Konstruktion des Modells zugrunde gelegen
haben:
(1)
Konstruiert werden sollte ein wissenschaftstheoretisch begründetes, plurales und unter Psychologen konsensfähiges Modell, das unter wissenschaftshistorischen und wissenschaftssoziologischen
Gesichtspunkten das Gesamtsystem der Psychologie möglichst umfassend strukturiert und für diesen
Strukturierungsprozeß klare Kriterien liefert.
(2)
In seiner didaktischen Funktion soll es einerseits dem Psychologie-Lernenden ein tieferes und
auch kritischeres Verständnis seines Faches ermöglichen, andererseits nicht forschenden Praktikern
die Anwendung technologischen wissenschaftlichen Wissens erleichtern.
(3)
Darüber hinaus soll das Modell berufsidentitätsstiftende Funktionen haben, indem es Psychologen dabei hilft, die aktuellen Forschungsprogramme unter alternativen Perspektiven kritisch zu betrachten
und in Relation zu anderen psychologischen Richtungen ihren eigenen wissenschaftlichen Standpunkt zu
bestimmen.
9.1
Das Paradigmenmodell der Psychologie:
Pluralität und Konsensfähigkeit
Wissenschaftstheoretische
Konstruktion,
9.1.1 Das Rekonstruktionsinstrument: Das Paradigmatische Rekonstruktionsmodell
Zur Rekonstruktion des Wissenschaftssystems der Psychologie wurde (in Kapitel 3) zunächst ein
Analyseinstrumentarium entworfen, das Paradigmatische Rekonstruktionsmodell. Es ist ein wissenschaftstheoretisch eklektizistisches Modell, das die fundamentale und sozialpsychologische Perspektive
von KUHNs Paradigmenansatz mit dem präzisen theorieanalytischen Instrumentarium des SNEED /STEG MÜLLERschen Strukturalismus verbindet. Die Kompatibilität beider Modelle wurde in Übereinstimmung
mit STEGMÜLLER (1989) ausführlich begründet und in der Anwendung demonstriert.
Grundlage und ?Objekte“ des Strukturierungsprozesses sind die wissenschaftlichen Forschungsprogramme der Psychologie, die in Anlehnung an HERRMANN (1992) in folgenden Komponenten
betrachtet werden:
Ein problematisierter Gegenstandsbereich wird vom sozialen System der miteinander zu diesem
Zweck kommunizierenden Forscher oder Praktiker bearbeitet. Sie bilden dafür konsensuelle methodologische und theoretische Annahmekerne, die so aufeinander bezogen sind, daß in einem konstruktiven
Kreisprozeß zur Prüfung theoretischer Annahmen empirische Modelle (?Methoden“) entwickelt, und
umgekehrt aus empirischen ?Befunden“ theoretische ?Schlüs se“ gezogen werden (Interdependenz von
Empirie-Theorie-Transformationen). Wesentlich zur Konstituierung eines wissenschaftlichen Forschungsprogramms sind dabei auch die nicht-expliziten Hintergrundannahmen, also Regeln des
gemeinsamen Sprachspiels oder negative Heuristiken, die selten bewußt ausformuliert werden, aber
dennoch das Forschungshandeln wie auch den emotionalen Zusammenhalt der Forschergruppe entscheidend beeinflussen.
Ein Paradigma in diesem Netzwerk wissenschaftlicher Forschungsprogramme ist nun eine Struktur,
die dadurch rekonstruiert werden kann, daß eine größere Zahl von Forschungsprogrammen aufgrund
bestimmter Ähnlichkeiten gebündelt wird. Dazu wird jeweils ein ?paradigmatisches Subsumptions-
Günter Sämmer: Paradigmen der Psychologie
- 306 -
Kapitel 9: Möglichkeiten und Grenzen
modell“ konstruiert, bestehend aus den Basiseinheiten (zentrale Begriffe, elementare Relationen), den
Fundamentalgesetzen (den Kernaussagen), der grundlegenden paradigmatischen Methodologie, dem
Paradigmen-typischen Sprachspiel sowie den paradigmatischen Menschenbildannahmen.
Analog zum Vorgehen in der Mathematik wird nun eine paradigmatische Struktur durch Konstruktion
von Zuordnungen gebildet: Verschiedene Forschungsprogramme werden einem gemeinsamen Paradigma subsumiert, indem ihre Kernannahmen den Attributen dieses Subsumptionsmodells zugeordnet
werden. Ist eine solche Zuordnung möglich, dann sagen wir, das betreffende Forschungsprogramm
?gehöre“ zu diesem Paradigma.
9.1.2 Rekonstruktionsergebnis: Das Paradigmenmodell der Psychologie
(1)
Grundsätze der Rekonstruktion
Das eigentliche Ergebnis der Rekonstruktion ist das Paradigmenmodell der Psychologie (vgl. Tab. 9.1).
Das dafür vorgeschlagene Instrument, das Rekonstruktionsmodell, führt aber keineswegs in deterministischer Weise zu eindeutigen Ergebnissen. Das Ausfüllen der verbleibenden konstruktiven Freiräume bei
der inhaltlichen Konkretisierung des Rekonstruktionsvorgangs kann deshalb dazu verwendet werden
sicherzustellen, daß die von diesem abstrakten Modell erzeugte Struktur auch unter Psychologen
konsensfähig ist; daß heißt, daß möglichst viele von ihnen ihre Wissenschaft in ähnlicher Weise
wahrnehmen.
Mit diesem Ziel wurde eine größere Zahl moderner Lehr- und Übersichtswerke (der 80er und 90er Jahre)
gesichtet (vgl. Kapitel 3). Es stellte sich heraus, daß unter Psychologen, die sich um eine Gesamtdarstellung der Psychologie oder einzelner ihrer Teildisziplinen bemühen, ähnliche Strukturwahrnehmungen
weit verbreitet sind: Psychoanalyse und Behaviorismus, biopsychologische und holistische Ansätze sowie
Kognitivismus werden immer wieder als grundlegende ?methodologische Hauptströmungen“, ?theoretische Ansätze“ oder auch ?Schulrichtungen“ der Psychologie bezeichnet, wobei im ersten Fall eher die
Forschungsmethoden, im zweiten die theoretische Modellbildung und im dritten die soziale Struktur der
Forschergemeinschaften zur Strukturierung des Wissenschaftssystems herangezogen werden; Kriterien
also, die alle konstitutive Bestandteile eines wissenschaftlichen Paradigmas im KUHNschen Sinne sind.
Sofern die durchgesehenen 24 Lehrbücher repräsentativ sind, hat das hier vorgelegte Paradigmenmodell
als Rekonstruktionsmodell der Psychologie gute Chancen auf Konsensfähigkeit unter Psychologen, und
zwar sowohl im Hinblick auf die verwendeten Strukturierungskriterien als auch auf die inhaltlichen
Ergebnisse der Rekonstruktion.
Unter Berücksichtigung dieser Ergebnisse wurden für die gegenwärtige Psychologie fünf grundlegende
Paradigmen postuliert und anschließend im Detail rekonstruiert:
•
•
•
•
•
Tiefenpsychologie
Ganzheitspsychologie
Behaviorismus
Psychobiologie
Kognitivismus
Das Paradigmenmodell der Psychologie beinhaltet, analog zum KUHNschen Paradigmenkonzept, zwei
grundlegende Perspektiven: Es zeigt einerseits die Psychologie des 20. Jahrhunderts als paradigmatische
Struktur ihrer Forschungsprogramme und gibt andererseits einen Einblick in die Dynamik ihrer
historischen Entwicklung.
Günter Sämmer: Paradigmen der Psychologie
- 307 -
Kapitel 9: Möglichkeiten und Grenzen
Tab. 9.1: Ergebnis der Rekonstruktion: Das Paradigmenmodell der Psychologie des 20. Jahrhunderts - Ein tabellarischer Überblick
Tabelle 9.1, Teil 1: Tiefenpsychologie, Ganzheitspsychologie, Behaviorismus
Tiefenpsychologie
Ganzheitspsychologie
Behaviorismus
paradigmatische Untersucht werden die Vorgänge im
Basiseinheiten: psychischen System: Es reguliert
Erleben und Verhalten, um die von
elementaren Antrieben gesetzten
zentrale
Ziele zu erreichen. Wesentliche VorBegriffe
gänge im psychischen System sind
und
unbewußte Prozesse.
elementare
Relationen
Untersucht werden psychische
Phänomene als Ganzheiten: Sie
bestehen aus Teilen (Unterganzheiten), die interdependent aufeinander einwirken.
Durch Interdependenz der Teile
entstehen Ganzheiten als prinzipiell neue emergente Phänome.
Untersuchungsgegenstand ist
das offeneVerhalten: Beobachtbare äußere Reaktionen
von Individuen auf äußere Reize.
Regulation und Adaption:
Das psychische System reguliert die
inneren Zustände im Hinblick auf
paradigmatische eine möglichst gute Anpassung an die
Fundamental- Außenwelt.
gesetze:
Selbstorganisation:
Jede Ganzheit entsteht ohne
äußere Verursachung "aus sich
selbst".
Reiz-Reaktions-Modell:
Äußere Reize und beobachtbares Verhalten eines Individuums sind gesetzmäßig miteinander verknüpft:
Zentrale
inhaltliche
Behauptungen
Genetisches Grundgesetz:
sukzessive Strukturbildung im Verlauf der ontogenetischen Entwicklung; daraus entsteht eine Persönlichkeits- bzw. Charakterstruktur.
"scientific
community":
Gründer und
wichtige Vertreter
Reiz6 (Organismus)6 Verhalten
Das Verhalten steht damit
„unter der Kontrolle“ der äußeren Reizsituation.
Konflikt und Verdrängung:
Konflikte zwischen den Antrieben
sowie inneren und äußeren Anforderungen können zu dauerhafter
Verdrängung und Hemmung von
Trieben führen.
Psychoanalytische Gesprächsparadigmatische situation: an klinischen Einzelfällen
Methodologie: systematisch auf unbewußte Prozesse rückschließen; Introspektion;
theorieorientierte Deutung (qualitativ
Untersuchungs- beschreibende hermeneutische Memethoden,
thode).
Forschungstechniken,
Strategien der Theoriebildung durch Vergleich von
Theoriebildung Einzelfallstudien.
Menschenbild
Dynamisches Gleichgewicht:
Ganzheiten streben stets einem
dynamischen Gleichgewichtszustand zu.
Lernprozesse:
Jede Reiz-Reaktions-Verbindung kann durch äußere Einflüsse dauerhaft verändert
werden.
Ganzheitliche Erfassung aller
Phänomene in möglichst realistischen Situationen; Beobachtung von „Phasenübergängen“.
Theoriebildung durch „ganzheitliches“ Sprachspiel
Strenge experimentelle Methodik:
objektive Kontrolle der untersuchten Variablen möglichst im
(Labor-) Experiment; Genauigkeit quantitativer Messung;
Reproduzierbarkeit aller empirischen Verfahren.
Theoriebildung durch Induktion.
Der Mensch reguliert z.T. durch
unbewußte Prozesse die Ansprüche
aus seinen inneren elementaren Antrieben und der Außenwelt.
Der Mensch steht als organismisches System in aktiver Auseinandersetzung mit der Umwelt.
Der Mensch steht unter der
Kontrolle von Reizen seiner
sozialen und physikalischen
Umwelt; Lernprozesse optimieren seine Anpassung.
FREUD (ab ca. 1900); ADLER, JUNG
WERTHEIMER (ab ca.1912);
KÖHLER, KOFFKA, LEWIN,
KRÜGER
WATSON (ab ca.1913) GUTHRIE, H ULL, SKINNER; T OLMAN
Günter Sämmer: Paradigmen der Psychologie
Tiefenpsychologie
Grundrichtungen:
1. Klassische Psychoanalyse (Freud
und Schüler)
Einige
2. soziale Richtungen (Adler, Horwichtige
ney, Fromm ...)
Forschungspro- 3. philosophische Richtungen (Jung,
gramme
Binswanger...)
- 308 -
Kapitel 9: Möglichkeiten und Grenzen
Ganzheitspsychologie
Grundrichtungen:
1. Berliner Schule (Wertheimer,
Köhler, Koffka, Lewin)
2. Leipziger Schule (Krueger,
Sander)
3. „Rekursive Systeme“
Sozialpsychologie: soz. Interaktion (Thibaut, Kelley)
Klinische Psychologie: psychoana- Pädagogische Psychologie:
lytische Therapie, Gruppentherapie "Lernen durch Einsicht" (Wert(Balint), psychosomatische Medizin heimer, Katona); „Situated Cognition“ (Clancey, Greeno)
Pädagogische Psychologie:
programmiertes Lernen,
Verhaltenssteuerung von Kindern (Skinner)
Tabelle 9.1, Teil 2: Psychobiologie, Kognitivismus
Psychobiologie
Kognitivismus
paradigmatische Untersucht wird das biologisch
Basiseinheiten: adaptive Verhalten, also autonome
Aktivitäten zur Sicherung des Überlebens und der Fortpflanzung. Verzentrale
halten unterliegt genetischen EinBegriffe
flüssen und ist hierarchisch orgaund
nisiert. Es ist immer sowohl von
elementare
innen als auch von außen bedingt.
Relationen
Untersucht werden Prozesse der
Informationsverarbeitung. Diese beruhen darauf, daß kognitive
Repräsentationen verschiedenen kognitiven Prozessen unterzogen werden. Aus solchen
Prozessen bilden sich organisierte
kognitive Schemata und Wissensstrukturen.
Anpassung und Reproduktion:
Jedes Verhalten hat Einfluß auf die
Anpassungs- und Reproduktionsparadigmatische fähigkeit eines Individuums.
Fundamentalgesetze:
Verhalten entwickelt sich phylogenetisch in evolutionären Prozessen.
Verhaltensrelevanz:
Kognitive Prozesse sind in der
Lage, Verhalten hervorzurufen.
inhaltliche
Behauptungen
Grundrichtungen:
1. Kontiguität (Guthrie)
2. Systematische Lerntheorie
(Hull)
3. Operantes Konditionieren
(Skinner)
4. Kognitiver Behaviorismus
(Tolman)
Sozialpsychologie: GruppenpsySozialpsychologie: Kleinchologie (Simmel, Alexander, Richter) gruppenphänomene (Lewin);
Transaktionsanalyse (Berne)
soz. Konvergenzphänomene
(Asch, Sherif, Milgram )
Entwicklungspsychologie: "Identität" (Erikson); "Deprivation" (Spitz) Entwicklungspsychologie:
Entwicklungs- Stufenmodelle
Persönlichkeitspsychologie: Di(Kroh, Werner); Entwicklung der
agnostik (Rorschach)
Intelligenz (Piaget)
Klinische Psychologie: Gestalttherapie (Perls), Gesprächstherapie (Rogers), Systemische (Familien-) Therapie (Watzlawick u.a.)
Zentrale
Behaviorismus
Reproduktive Fitneßmaximierung: Der Prozeß der natürlichen
Selektion führt zu einer stetigen Verbesserung der Anpassungsfunktion
jedes Verhaltens
Handlungsregulation:
Jedes Verhalten ist aktiv, zielgerichtet und plangesteuert.
Entwicklungspsychologie:
Erziehungsstile (Sears)
Persönlichkeitspsychologie:
sekundäre Motivsysteme
(Hull, Dollard & Miller)
Klinische Psychologie: Verhaltenstherapie, "systematische Desensibilisierung" (Wolpe), "token economy" (Skinner)
Günter Sämmer: Paradigmen der Psychologie
Psychobiologie
Verschiedene empirische Methoparadigmatische den: Ungestörte und künstliche
Methodologie: Beobachtungs- bzw. Experimentalsituationen; Wahrung des "funktionalen Bezuges" von Verhalten;
Untersuchungsmethoden,
Theoriebildung durch vergleichende
ForschungsMethode: systematischer Vergleich
techniken,
Strategien der verschiedener Arten oder Kulturen;
Theoriebildung spieltheoretische Modelle
Menschenbild
"scientific
community":
Gründer und
wichtige Vertreter
- 309 -
Kapitel 9: Möglichkeiten und Grenzen
Kognitivismus
Objektive empirische Verfahren:
Labor- und Feldexperimente, Befragungen; möglichst hohe Reproduzierbarkeit; aber auch Liberalisierung möglich, wenn sonst
Phänomene „verlorengehen“ würden.
Theoriebildung: Theorien
„mittlerer Reichweite“ als hypothetische Konstrukte - Theorien
haben Modellcharakter
Der Mensch ist ein aktiver biologischer Organismus, dessen Verhalten
fortpflanzungs- und erhaltungsrelevante adaptive Funktionen hat.
Der Mensch ist ein aktiver, informationsverarbeitender Organismus mit zielgerichteten, selbstgesteuerten Handlungen.
LORENZ, T INBERGEN (ab ca. 1935);
WILSON, HAMILTON, M AYNARD
SMITH
M ILLER, BROADBENT , PRIBRAM, G ALANTER (ab ca.1960)
Grundrichtungen:
1. Klassische Ethologie (Lorenz,
Tinbergen)
Einige
2. Soziobiologie (Wilson)
wichtige
3. Evolutionspsychologie (Tooby,
Forschungspro- Cosmides)
gramme
Sozialpsychologie: Aggression
(Eibl-Eibesfeld), soziale Rollen (Hinde); Zeichen, Signale, Sprache
(Frisch, Scherer, Wickler); "Soziobiologie" (Maynard Smith, Wilson);
sexuelle Partnerwahl (Buss)
Entwicklungspsychologie: Deprivation (Harlow); Bindungsverhalten
(Bowlby, Ainsworth); Kindheit
(Hassenstein)
Grundrichtungen:
1. Quantitative Systemmodelle
(„Computermodelle“) (BROADBENT , A NDERSON)
2. Kognitive Denk-, Handlungsund Problemlösemodelle (M ILLER, K ELLEY, SCHACHTER,
FLAVELL)
Sozialpsychologie: Attributionstheorien (HEIDER, KELLEY);
Emotionstheorie (SCHACHTER,
SINGER) Einstellungen (AJZEN,
FISHBEIN, PETTY, CACIOPPO)
Persönlichkeitspsychologie:
Selbstkonzept (Wicklund, Filipp); Selbst-Schema (Markus)
Entwicklungspsychologie: Metakognitionen (Flavell); Entw. d.
Leistungsmotivation (Heckhausen)
Pädagogische Psychologie:
Attribution und Leistung (Weiner); Produktionssysteme (Anderson)
Klinische Psychologie: Rational-emotive Therapie (Ellis);
Kognitive Therapie der Depression (Beck)
Günter Sämmer: Paradigmen der Psychologie
(2)
- 310 -
Kapitel 9: Möglichkeiten und Grenzen
Aspekte der wissenschaftshistorischen Entwicklungsdynamik
a) Paradigmen-Vorläufer außerhalb des ?mainstream“
Ein neues psychologisches Paradigma wird durch einzelne Forscher oder kleinere Forschergruppen gegründet, und zwar stets auf dem Hintergrund bereits bestehender einzelner Forschungsprogramme, die bis
dahin außerhalb des ?mainstream“ manchmal nur ein Nischendasein fristen; dies sind z.B.:
• Charcots Studien über Hysterie für FREUDS Tiefenpsychologie,
• Külpe, Meinong und EHRENFELS holistische Arbeiten für die Ganzheitspsychologie,
• Pawlows und THORNDIKEs lerntheoretische Ansätze für den Behaviorismus,
• Darwins Evolutionstheorie für die Psychobiologen,
• POLLACKS, HAKES oder GARNERS frühe Gedächtnisexperimente für den Kognitivismus.
b) Neudefinition des Gegenstandsbereichs und grundlegende Modellbildung
Die Gründer bündeln und selektieren einzelne Aspekte ihrer Vorgänger und kristallisieren daraus ein
griffiges Grundmodell, das dann weiter expliziert, elaboriert und empirisch fundiert wird. Ein solches neues
psychologisches Grundprinzip muß geeignet sein, durch eine fundamentale Neudefinition des Gegenstandsbereiches eine zur bestehenden Psychologie alternative Konzeption zu ermöglichen. Es legt
zunächst durch ?existenzkonstatierende Kernannahmen“ (vgl. HERRMANN, 1992) fest, was ein
?relevantes“ psychisches Phänomen ist, welche Klasse von Phänomenen also von nun an untersucht
werden soll. Für die verschiedenen Paradigmen der Psychologie lassen sich diese (hier in bewußter
Verkürzung und Komprimierung) wie folgt formulieren
• für die Tiefenpsychologie: Psychische Phänomene sind Funktionen eines psychischen Apparats
aufgrund unbewußter Prozesse;
• für die Ganzheitspsychologie: Psychische Phänomene sind Ganzheiten (?emergente Phänomene“)
des Erlebens und Verhaltens;
• für den Behaviorismus: Psychische Phänomene sind Verhaltensweisen, die von Reizen verursacht
werden;
• für die Psychobiologie: Psychische Phänomene sind evolutionsbedingte, adaptive Formen des
Erlebens und Verhaltens;
• für den Kognitivismus: Psychische Phänomene sind Formen der Informationsverarbeitung.
Anders als KUHN dies postuliert, werden solche paradigmatischen Kernannahmen in der Psychologie von
den Gründern häufig sehr früh in manifestartigen programmatischen Erklärungen formuliert und ?auf den
Punkt“ gebracht.
Die Grundmodelle gewinnen nun umso mehr an Dynamik, je mehr sie den zeitgenössischen Trend
?modernen Denkens“ treffen. So haben im 20. Jahrhundert naturwissenschaftliche Modelle die besten
Chancen; und zwar
• die Energiemodelle (der klassischen Physik des 19. Jahrhunderts) in der Tiefenpsychologie zu Beginn
des Jahrhunderts,
• das holistische Modell (der Philosophie, Biologie und Medizin der Jahrhundertwende) in der Ganzheitspsychologie der 20er Jahre,
• das Modell des Reflexbogens (aus der klassischen Physiologie des 19. Jahrhunderts) im Behaviorismus,
• das DARWINsche Evolutionsmodell der Entwicklung der Arten in der Psychobiologie,
• oder das kybernetische Steuerungs- und Informationsverarbeitungsmodell (der 50er Jahre) im
Kognitivismus.
Nicht selten gilt schon der Hinweis auf die naturwissenschaftliche Herkunft eines solchen Grundmodells
als besonderer Ausweis seiner Modernität und Wissenschaftlichkeit, aber auch als Legitimation, mit seiner
Hilfe ernstzunehmende psychologische Forschung betreiben zu können (wie im Falle des Behaviorismus
und des Kognitivismus).
Günter Sämmer: Paradigmen der Psychologie
- 311 -
Kapitel 9: Möglichkeiten und Grenzen
c) Positive und negative Heuristiken: Der Kampf mit den ?anderen“
Das neue paradigmatische Programm wird zunächst von kleinen Forschergruppen mit großer Energie
vorangetrieben, wobei für seine ?Durchschlagskraft“ nicht nur die positiven Heuristiken (das, was man
positiv annimmt) wichtig sind, sondern mindestens genauso die negativen Heuristiken, also alles das, was
man bei den ?anderen“ ablehnt.
Nicht selten werden scharfe Polemiken ausgetauscht zwischen den ?Neuen“ und den ?Etablierten“:
WERTHEIMER und WATSON polemisieren (aus verschiedenen Richtungen!) gegen WUNDT , WATSON
zusätzlich auch noch mit großer Heftigkeit gegen FREUD. LORENZ hält die behavioristische Tierpsychologie für absurd und MILLER, GALANTER und PRIBRAM plädieren gar dafür, einen reflexologisch und
erkenntnistheoretisch ?realistisch“ argumentierenden Behavioristen doch ?getrost zu ignorieren“. Man
?widerlegt“ durch Verunglimpfung (wie WERTHEIMER die ?Elementaristen“; s.o., 4.3.2.2), warnt ?besorgt“ seine Freunde (wie SKINNER Fred KELLER vor den ?psychoanalytisch gefährdeten“ HULLianern;
s.o., 4.4.4.2) oder man warnt (wie STERN u.a.) die gesamte Öffentlichkeit vor den ?Übergriffen“ der
Jugendpsychoanalyse (s.o., 4.2.3.2).
Die Auseinandersetzungen werden häufig äußerst emotional geführt, was einerseits die Aufmerksamkeit
der Fachöffentlichkeit sichert, andererseits zur gruppendynamischen Konsolidierung der scientific
community beiträgt. Schließlich geht es neben wissenschaftlichen auch um personelle und materielle
Fragen des institutionellen Einflusses, ohne den ein Paradigma kaum überlebt.
Manchmal ist die persönliche Identität der Forscher eng mit dem von ihnen vertretenen Paradigma
verknüpft: Psychoanalytiker ?leben“ natürlich die Psychoanalyse, wie ihre internen Auseinandersetzungen
zeigen, und der sonst so nüchterne SKINNER überschreibt seine Autobiographie gar mit ?The shaping of
a behaviorist“ (SKINNER, 1978).
In der Psychologie ist es besonders der Bereich der Forschungsmethoden, in dem erbitterte Auseinandersetzungen stattfinden. Die bevorzugten, angemessenen und erlaubten, kurz: die ?richtigen“ Forschungstechniken identifizieren ein Paradigma mindestens genauso wie die inhaltlich-theoretische
Modellbildung. Objektivierung vs. subjektives Verstehen, quantifizierende vs. qualitative Methoden,
kontrolliertes Experiment und Reproduzierbarkeit vs. offene Beobachtung in ?natürlichen Umgebungen“,
sind Gegensatzpaare um die interparadigmatisch gerungen wird und auf die die scientific community
innerparadigmatisch eingeschworen wird.
d) Die Ausbreitung verschiedener Paradigmen im Wissenschaftssystem der Psychologie
Die Paradigmen der Psychologie breiten sich im Wissenschaftssystem der Psychologie in sehr unterschiedlichen raum-zeitlichen, personellen und institutionellen Mustern aus. Während Ganzheitspsychologie,
Behaviorismus, Psychobiologie und Kognitivismus ihre institutionelle Basis vorwiegend in Instituten
wissenschaftlicher Hochschulen haben, wird die Tiefenpsychologie von Anfang an außerhalb des
akademischen Bereiches, in der klinischen Praxis entwickelt. So rivalisiert die akademische Psychologie
mit den Tiefenpsychologen auch eher um öffentlichen Einfluß und die Reputation der Psychologie als
wissenschaftliche Disziplin als um konkrete institutionelle Ressourcen.
Neue psychologische Paradigmen gewinnen den größten Einfluß immer zunächst in geographischer und
kultureller Nähe ihres Entstehens. Die Tiefenpsychologie breitet sich, von Österreich ausgehend, zunächst
im deutschen Sprachraum aus, bevor sie ins übrige Europa und in die USA gelangt. Zuerst in Deutschland
und dann in Kontinentaleuropa konzentrieren sich vor dem zweiten Weltkrieg die Ganzheitspsychologen,
während der Behaviorismus zur gleichen Zeit in den USA seine Domäne hat.
Von allen politischen Ereignissen des 20. Jahrhunderts hat wohl die nationalsozialistische Machtübernahme, zunächst in Deutschland, dann auch in Österreich, die gravierendsten und auch die verheerendsten Konsequenzen auf die Entwicklungsdynamik der psychologischen Paradigmen. Das gesamte Zentrum
ganzheitspsychologischer Forschung in Berlin wird bis Mitte der dreißiger Jahre zers chlagen und zur
Emigration gezwungen. Es folgt der Zwangsexodus der wichtigsten Psychoanalytiker. Die Übriggebliebenen versuchen sich zu arrangieren. Die einen halten still und füllen die ?Lücken“, andere biedern
sich gar bei den Machthabern an mit ?germanischer“ Psychologie (C.G. JUNG). Vor allem die Leipziger
Günter Sämmer: Paradigmen der Psychologie
- 312 -
Kapitel 9: Möglichkeiten und Grenzen
Ganzheitspsychologen und die jungen Vertreter der neuen ?Verhaltensforschung“ geraten (mal mehr, mal
weniger beabsichtigt) in gefährliche Nähe zu den Nationalsozialisten.
Dies hat erhebliche Konsequenzen für die Entwicklung nach dem zweiten Weltkrieg: In Deutschland
verliert die Ganzheitspsychologie ihre Dominanz, denn viele junge Psychologen beginnen, sich am
amerikanischen Behaviorismus zu orientieren. Andererseits kann die Etholgie in den USA kaum Fuß
fassen. In den 50er Jahren dominieren behavioristische Techniken viele psychologische Anwendungsbereiche von der Pädagogischen bis hin zur Klinischen Psychologie, und für kurze Zeit sieht es so aus, als
sei der Behaviorismus nun das Paradigma der Psychologie der gesamten westlichen Welt geworden.
Aber die ?Kognitive Wende“ der 60er Jahre vollzieht sich rasch und effektiv, ausgehend von den USA,
dem Kernland sowohl des Behaviorismus als auch der Kybernetik und der Informationstheorie. Und bis
Ende der 70er Jahre ist dann auch die Psychologie Zentraleuropas weitgehend kognitivistisch ?umgestellt“.
e) Psychologische Paradigmen herrschen nicht
Die Dominanz eines paradigmatischen Ansatzes im psychologischen Wissenschaftssystems erreicht
niemals jene Exklusivität, die KUHN in seinem ursprünglichen Entwurf einem wissenschaftlichen Paradigma zuschreibt (vgl. KUHN, 1989; Original 1962): Psychologische Paradigmen herrschen nicht! Noch
nie in der Geschichte der Psychologie ist es einem ihrer Ansätze gelungen, eine wirkliche Monopolstellung
zu erringen, was die gültige Auffassung von den psychischen Phänomenen und ihrer Erforschung angeht.
Es gibt zwar Zeiten, in denen eines von ihnen weiter verbreitet ist und von einflußreicheren Psychologen
betrieben wird, die ?Alternativen“ sind aber stets auch innerhalb des akademischen Systems präsent:
Auch zu Hochzeiten des Behaviorismus gab es stets sehr vitale Forschungsprogramme außerhalb dieses
mainstream: PIAGET in Genf, LEWINS ?Gruppenlaboratorien“, HEIDERs einflußreiche Balancetheorien
oder den ?new look in social perception“, LORENZ in Seewiesen, um nur einige Forschungsprogramme zu
nennen, die gänzlich ?unbehavioristisch“ sind und bereits den Keim eines Behaviorismus-Nachfolgers in
sich tragen.
Auch heute, wo viele die Herrschaft des Kognitivismus für ausgemachte Sache halten (vgl. z.B. MANDL
& SPADA, 1988; ULICH, 1989; GRABITZ & HAMMERL , 1995), gewinnen ganzheitspsychologische
Forschungsprogramme (z.B. in der Sozialpsychologie als systemische Gruppenpsychologie oder in der
Wissenspsychologie als ?social-cognition-Ansatz“) erheblich an Terrain zurück. Die großen Standesverbände der akademischen Psychologie beginnen, die Biologische Psychologie zu fördern, und mit der
?Evolutionspsychologie“ gelangt ein psychobiologischer Ansatz sowohl zu wissenschaftlicher Akzeptanz
als auch zu hoher Popularität.
Und natürlich ist da immer noch, wie seit 100 Jahren ?neben“ allen akademischen Linien: die Tiefenpsychologie! Ihr ?Niedergang und Ende“, von EYSENCK und vielen anderen postuliert und erhofft (vgl.
EYSENCK, 1985) ist bislang nicht eingetreten. Psychoanalytiker arbeiten an immer neuen, inzwischen
kybernetischen und systemtheoretischen aber stets tiefenpsychologischen Modellen (wie z.B. schon
STIERLIN, 1975), und sie besetzen weiterhin mit großem Erfolg den klinischen Bereich (einschließlich
klinischer Lehrstühle an medizinischen Fakultäten!).
9.2
Probleme bei der Paradigmen-Rekonstruktion:
verschiedenen Paradigmen
Forschungsprogramme
? zwischen“
Das Paradigmenmodell erschließt die großen strukturellen Linien im Wissenschaftssystem der Psychologie, indem es in Gestalt der Paradigmen fünf Grunddimensionen benennt, nach denen psychologische
Forschungsprogramme eingeordnet werden können. Eine solche Zuordnung gelingt umso leichter, je mehr
ein Forschungsprogramm inhaltlich, methodologisch und institutionell den ?Gründungsforschungsprogrammen“ eines Paradigmas verbunden ist.
Günter Sämmer: Paradigmen der Psychologie
- 313 -
Kapitel 9: Möglichkeiten und Grenzen
Die gesamte Landschaft der psychologischen Forschungsprogramme ist aber keineswegs so problemlos
in fünf Paradigmen ?einzuteilen“, wie dies die bisherigen Ausführungen suggerieren. Besonders problematisch ist die Subsumption unter ein Paradigma z.B. immer dann, wenn ein Forschungsprogramm
• in einer Übergangsphase von einem alten zu einem neu entstehenden Paradigma als historisches
Bindeglied fungiert, oder
• wenn es Kernannahmen aus unterschiedlichen Paradigmen verwendet.
Beide Problemfälle sollen nun an Beispielen erörtert werden.
9.2.1 Forschungsprogramme in Übergangsphasen
Vor dem Aufstieg eines neuen Paradigmas gibt es häufig Forschungsprogramme, die schon einzelne
Kernannahmen des neuen Paradigmas enthalten, ohne im eigentlichen Sinne dem neuen Paradigma
anzugehören. Es handelt sich sehr oft um Forschungsprogramme, die als ? Vorläufer“ gelten, weil sie
sowohl in methodischer als auch in theoretischer Hinsicht wichtige Vorarbeiten geleistet haben.
Soweit solche Forschungsprogramme einzelnen Paradigmen nur vorangehen (wie PAWLOW und T HORNDIKE dem Behaviorismus, KÜLPE und MEINONG der Ganzheitspsychologie), ohne einem anderen der
modernen Paradigmen anzugehören, tritt für das paradigmatische Rekonstruktionsmodell noch kein
Kategorisierungskonflikt auf. Es stellt sich dann lediglich die Frage, ob sie ?schon“ hinzugehören, oder
?noch nicht“. Problematisch wird es aber, wenn Forschungsprogramme in einer historischen Situation von
einem älteren Paradigma zu einem neuen Paradigma ?hinüberführen“, und dann auch noch so, daß die
von ihnen aufgeworfenen und bearbeiteten Problemstellungen zu zentralen Forschungsprogrammen des
neuen Paradigmas werden.
Am Beispiel einiger wichtiger Forschungsprogramme der 40er und 50er Jahre, die zu Vorläufern von z.T.
bis heute bestehenden kognitivistischen Forschungsprogrammen werden, soll dieses Problem erläutert
werden. Betrachten wir z.B.
•
•
•
•
HEIDERs frühe Theorie der Kausalattributionen (vgl. HEIDER, 1944)
FESTINGERs Theorie sozialer Vergleichsprozesse und der kognitiven Dissonanz (vgl. FESTINGER, 1954;
1957)
BRUNER s und POSTMANs ?Hypothesentheorie der Wahrnehmung“ (vgl. BRUNER, 1951; POSTMAN,
1951)
SCHACHTERs frühe Theorie des sozialen Anschlusses (?Theory of social affiliation“) (vgl. SCHACHTER, 1959)
All diese Forschungsprogramme basieren zunächst auf den ganzheitspsychologischen Kernannahmen
von HEIDERs Konsistenztheorie (vgl. hierzu: LILLI & FREY, 1993; MEYER & FÖRSTERLING, 1993; FREY
& GASKA, 1993): Sie nehmen an, daß Personen bestrebt sind, ihre Kognitionen (Denkprozesse, Wahrnehmungen der Außenwelt und des eigenen Verhaltens, Einstellungen und Urteile) in einem
widerspruchs- und spannungsfreien Zustand zu halten, also zu einer ?Guten Gestalt“ zu organisieren.
Etwaige Inkonsistenzen erzeugen einen emotionalen Spannungszustand, der eine starke Motivation zur
Harmonisierung der ?kognitiven Gesamtlage“ hervorruft. Die Vertreter dieser Theorien sind denn auch
entweder selber emigrierte Gestaltpsychologen (wie HEIDER) oder stehen diesen wissenschaftlich nahe,
wie die LEWIN-Schüler FESTINGER und SCHACHTER.
Soweit hier also emergente selbstorganisierende Prozesse angenommen werden, die auf ein dynamisches
Gleichgewicht zielen, sind diese Theorien ohne Zweifel ganzheitspsychologisch. Schwierig für die
paradigmatische Zuordnung und damit für die Funktionsfähigkeit des paradigmatischen Rekonstruktionsmodells wird die Lage aber, wenn man deren Fortentwicklung betrachtet. Hier kommt es in der Abfolge
von aufeinander aufbauenden und sic h aufeinander beziehenden Forschungsprogrammen sukzessive und
unmerklich zu einem Verlust ganzheitspsychologischer Kernannahmen und zu einem ?schleichenden
Übergang“ ins kognitivistische Lager. Vorgänge, die zumindest in diesem Bereich der Psychologie
keineswegs im KUHNschen Sinne ?revolutionär“ verlaufen:
Günter Sämmer: Paradigmen der Psychologie
- 314 -
Kapitel 9: Möglichkeiten und Grenzen
Der Prozeß der Bildung von Kausalattributionen wird von HEIDER (1944) zunächst als Gestaltbildungsprozeß aufgefaßt, der den entsprechenden WERTHEIMERschen Gesetzen unterliegt. Diese stiften nicht
nur die phänomenale Zusammengehörigkeit von Ereignissen, sondern konstituieren eine ?phänomenale
Verursachung“: ?Wenn zwei Ereignisse ähnlich sind oder nahe beieinanderliegen, dann wird wahrscheinlich das eine als Ursache für das andere wahrgenommen“ (HEIDER, 1944; S. 362). Dieser Vorgang
der Kausalattribution wird nun in der Folgezeit immer mehr informationstheoretisch ?elementarisiert“.
HEIDERs ?Differenzenmethode“ beginnt, die beteiligten Einzelinformationen zu ?digitalisieren“: ?Diejenige
Gegebenheit wird für einen Effekt als verantwortlich angesehen, die vorhanden ist, wenn der Effekt
vorhanden ist, und die nicht vorhanden ist, wenn der Effekt nicht vorhanden ist? (vgl. HEIDER, 1958;
S. 152). Auf diesem Hintergund formuliert KELLEY endlich sein varianzanalytisches Modell das ?Kovariationsprinzip“. Eine Ursachenzuschreibung ergibt sich nun als Ergebnis eines Verrechnungsprozesses, der verschiedene Klassen von Informationen über mögliche Ursachen eines Effekts (Personen, Zeitpunkte, Entitäten) zu verschiedenen Variationsmustern verknüpft (Konsensus, Distinktheit,
Konsistenz) (vgl. KELLEY, 1973).
Irgendwo zwischen HEIDERs ?Social perception and phenomenal causality“ (1944) und KELLEYs
?Processes of causal attribution“ (1973) ist das Ganzheitspostulat abhanden gekommen (was übrigens
auch die Titel der Arbeiten verraten!). Es ist dieser ?Flirt mit dem Reduktionismus“ (GARDNER, 1992), der
ganzheitspsychologische in kognitivistische Forschungsprogramme übergehen läßt; das Bestreben also,
wie die mathematische Informationstheorie es nahelegt, Prozesse informationstheoretisch zu zerlegen,
und einzelne Informationen möglichst quantitativ, zumindest aber kategorial zu klassifizieren. Diese Art
der Interpretation, die dem ?spontanen“ Entstehen von Ganzheiten die Verarbeitung von Einzelinformationen entgegensetzt, wird nun typisch für die kognitivistische Fortführung der Forschungsprogramme der Übergangsphase und somit für die Geburt des Kognitivismus aus dem Geiste der
Ganzheitspsychologie.
Damit wird deutlich, daß das schärfste Trennkriterium zwischen Ganzheitspsychologie und Kognitivismus
in der jeweiligen Grundauffassung von den zu untersuchenden Entitäten besteht: Während Kognitivisten
Erklärungen aus Teilprozessen heraus zulassen und anstreben, bleibt für Ganzheitspsychologen das
unreduzierbare ?Ganze etwas anderes als die Summe seiner Teile“ (vgl. WERTHEIMER, 1923). Die
Aufgabe des Ganzheitspostulats ist die ?Kognitive Wende“ der Gestaltpsychologen.
Fazit:
Das paradigmatische Rekonstruktionsmodell ist ein eher kategoriales Modell, das die Annahme enthält,
man könne ein Forschungsprogramm entweder einem Paradigma zuordnen (indem es gelingt, eine
Modellabbildung auf die Attribute des paradigmatischen Subsumptionsmodells zu finden) oder eben nicht.
Die historische Sequenz der Forschungsprogramme zur Kausalattribution zeigt nun, daß eine besonders
genaue Beachtung und sorgfältige Anwendung der Zuordnungskriterien insbesondere im Bereich der
Basiseinheiten bis an bestimmte Stellen einer solchen Sequenz noch eindeutige Zuordnungen erlaubt.
Dann aber folgen Übergangsmodelle wie HEIDER s Differenzenmethode, die das Rekonstruktionsmodell
in arge Schwierigkeiten bringen, weil sie in wichtigen Bereichen einerseits ?immer noch“ ganzheitlich,
andererseits aber ?auch schon“ kognitivistisch argumentieren.
9.2.2 ?Multiparadigmatische“ Forschungsprogramme
Ein weiteres Problem für das paradigmatische Rekonstruktionsmodell entsteht, sobald ein Forschungsprogramm sich aus den Kernannahmen verschiedener Paradigmen bedient. Solche Forschungsprogramme gibt es sowohl in der psychologischen Grundlagenforschung als auch bei den ?psychologischen
Technologien“; hier einige Beispiele:
• ADLERs ?Individualpsychologie“ (vgl. ADLER, 1974; Original 1930) ist ein tiefenpsychologisches
Forschungsprogramm mit zusätzlichen ganzheitspsychologischen Kernannahmen.
Günter Sämmer: Paradigmen der Psychologie
- 315 -
Kapitel 9: Möglichkeiten und Grenzen
Die ?Humanistischen“ Ansätze von ROGERS' ?Theorie des Selbst“ und PERLS' ?Gestalttherapie“ (vgl.
R OGERS, 1961; PERLS, 1976) sind ganzheitspsychologische Forschungsprogramme mit tiefenpsychologischen Kernannahmen.
• DOLLARD & MILLERs ?Sekundärtriebtheorie“ (vgl. DOLLARD & MILLER, 1950) entstammt einem
behavioristischen Forschungsprogramm erweitert um tiefenpsychologische Kernannahmen.
• Die Verfahren der modernen ?Kognitiven Verhaltenstherapie“ (vgl. z.B. MARGRAF & SCHNEIDER;
1990) beruhen auf kognitivistischen Forschungsprogrammen mit behavioristischen Kernannahmen.
• Die psychologische ?Theorie sozialer Systeme“ (vgl. z.B. WATZLAWICK u.a., 1969) gehört zu
ganzheitspsychologischen Forschungsprogrammen mit kognitivistisch-kybernetischen Kernannahmen.
Die Formulierung dieser Beispiele enthält bereits die Annahme, man könne diese Forschungsprogramme
wenigstens ?zur Hauptsache“ einem bestimmten Paradigma zuordnen und das ?andere“ Paradigma liefere
stets nur Zusatzannahmen. Die genannten paradigmatischen Zuordnungen sind schließlich in den Kapiteln
4 bis 8 auch tatsächlich gefunden worden, und sie zeigten sich kompatibel mit den in der Geschichte der
Psychologie üblichen: ?Natürlich“ wird der FREUD-Schüler ADLER schon immer als führender Tiefenpsychologe angesehen, ebenso sind die HU LL-Schüler DOLLARD und MILLER ?primär“ Behavioristen.
WATZLAWICK sieht sich selbst in der Tradition WERTHEIMERs, und ROGERs wie auch PERLS betonen
immer wieder ihre Nähe zur Berliner Gestaltpsychologie. Die Rekonstruktionen stehen also in schöner
Übereinstimmung mit den traditionellen Zuordnungen.
Und dennoch gibt es hier ein für das gesamte Rekonstruktionsmodell gewichtiges Problem: Die Rekonstruktion eines Forschungsprogramms mit der ?Absicht“, es einem bestimmten Paradigma zu subsumieren,
erzeugt eine gewisse Verzerrung bei seiner Darstellung: Die Selektion und Interpretation der Einzelheiten
wird nämlich stets im Hinblick auf diese eine paradigmatische Zuordnung vorgenommen. Die Elemente
des anderen Paradigmas, also seine ?Einflüsse“ werden weitgehend vernachlässigt. (So geschehen z.B.
in Kapitel 4, etwa bei der Darstellung von ADLERs System, dessen ganzheitspsychologische Annahmen
kaum Berücksichtigung fanden!) Das Rekonstruktionsergebnis entspricht also ganz der Rekonstruktionsabsicht und kommt damit in Verdacht, eine self-fulfilling prophecy zu sein.
Nun heißt dies dennoch nicht, daß Rekonstruktionsergebnisse völlig beliebig den Rekonstruktionsabsichten
ausgeliefert sind. Schon ein Blick auf die Forschungsmethoden zeigt nämlich: ADLER hat nicht experimentiert, ROGERS u n d PERLS haben nicht ?analysiert“, und niemals wären DOLLARD und MILLER mit
introspektiven klinischen Daten zufrieden gewesen! Wer die genannten Forschungsprogramme also
denjenigen Paradigmen zuordnen möchte, aus denen sie die Zusatzannahmen entnehmen, der muß sich
bei der Realisierung dieser Rekonstruktionsabsicht auf erhebliche Probleme gefaßt machen!
•
Fazit:
Man sollte insgesamt nicht vergessen - und dies ist eine unvermeidliche Eigenschaft des paradigmatischen
Rekonstruktionsmodells wie aller konstruktiven Modelle -, daß bei der Rekonstruktion deutlich ?hypothesengeleitete“ und natürlich auch motivierte Wahrnehmungen im Spiel sind, die durch Selektion und
Interpretation das gewünschte Ergebnis erzeugen. Und ?gewünscht“ ist auf dem Hintergrund der
allgemeinen Modellannahmen des KUHNschen Paradigmenmodells, daß Forschungsprogramme eine
möglichst eindeutige oder doch zumindest ?primäre“ paradigmatische Ausrichtung besitzen. Gewünscht
ist aber auch, daß ein möglichst einfaches, elegantes Gesamtmodell, das ?Paradigmenmodell der
Psychologie“, entsteht, in dem nicht schon bei Forschungsprogrammen (wie dem ADLERschen), die
traditionell als Gründungsforschungsprogramme eines Paradigmas angesehen werden, die ersten Zweifel
aufkommen, ob sie nicht doch einem ganz anderen Paradigma angehören.
9.3
Didaktische Funktionen des Paradigmenmodells der Psychologie
Der zweite Zielschwerpunkt bei den ?pragmatischen Entschlüssen“, die zur Bildung des Paradigmenmodells der Psychologie führten, betrifft die möglichen didaktischen Funktionen des Modells (vgl.
Kapitel 1).
Günter Sämmer: Paradigmen der Psychologie
- 316 -
Kapitel 9: Möglichkeiten und Grenzen
Psychologie-Lernende stehen häufig vor der Aufgabe, eine große Zahl verschiedener Theorien und
Forschungsprogramme sowie wissenschaftlich psychologischer Techniken aufzunehmen, zu behalten und
in Problemsituationen anzuwenden. Problemlösung kann hier z.B. bedeuten: eine theoretische Erklärung
finden, ein empirisches Verfahren entwickeln, eine bestimmte wissenschaftlich begründete Lösungshandlung durchführen.
Es sollen exemplarisch zwei Schwerpunkte herausgegriffen werden, um die möglichen didaktischen
Funktionen des Paradigmenmodells der Psychologie zu demonstrieren: den Erwerb systematischen
psychologischen Wissens und die Anwendung psychologischen Wissens in typischen nicht-forschenden Anwendungssituationen.
9.3.1 Funktionen des Paradigmenmodells beim Wissenserwerb
?Wissenserwerb“ wird in der neueren Wissenspsychologie konzipiert als Aufbau eines geordneten
mentalen Modells mit dem Ziel, ?seines Abrufs, seiner Anwendung beim Entscheiden, im Denken und
Handeln“ (vgl. MANDL & SPADA, 1988; S. 1).
Eine lange Forschungstradition auf diesem Gebiet zeigt, daß sowohl die Aneignung, als auch das Behalten
und die Anwendung von Wissen durch zwei miteinander interagierende Prozesse optimiert werden: durch
Strukturierung und durch Elaboration (vgl. z.B. ANDERSON, 1989; MANDL, FRIEDRICH & HRON, 1988;
WEINERT & WALDMANN, 1988).
Das Paradigmenmodell bietet für die Menge der Forschungsprogramme der Psychologie die Möglichkeit
einer hierarchischen Strukturierung an. An oberster Position einer solchen Hierarchie steht das
jeweilige Paradigma, während weiter unten immer kleinere Klassen immer ähnlicherer Forschungsprogramme angeordnet sind (vgl. Abb. 9.1):
Abb. 9.1: Beispiel einer hierarchische Ordnung verschiedener behavioristischer Forschungsprogramme
Ein solcher Zuordnungsprozeß verlangt den Lernenden eine Reihe von elaborierenden Einzelaktivitäten
ab. Die einzuordnenden Forschungsprogramme müssen auf ihre Basiselemente hin untersucht werden:
Wie werden die ?Gegenstände“ gesehen? Welche Grundeigenschaften haben die Begriffe und Relationen,
welche die Forschungsmethoden? Hier sind ?definitorische und charakteristische Merkmale“, ?Voraussetzungen und Bedingungen“ sowie ?übergeordnete Zusammenhänge“ herauszuarbeiten, wesentliche
Bestandteile also einer ?tieferen“ Elaboration (vgl. MANDL, FRIEDRICH & HRON , 1993). Wissensoptimierung geschieht hier durch ?Generalisation“ und ?Diskrimination“ (vgl. ANDERSON, 1989): Einerseits muß
nämlich zum Zwecke der Subsumierung die konkrete Modellbildung eines Forschungsprogramms auf die
des Paradigmas verallgemeinert werden (?... arbeitet ebenfalls nach dem S-R-Schema“). Andererseits
muß auf die konzeptuellen Unterschiede zwischen den verschiedenen Forschungsprogrammen abgehoben
werden (?... befaßt sich mit anderen Kontingenzen des Verhaltens als ...).
Damit wird deutlich: Die Zuordnung neu erlernter Forschungsprogramme zu den entsprechenden
Paradigmen und die damit verbundene vergleichende Analyse seiner paradigmatischen Grundeigenschaften erleichtert den Aufbau und die Festigung strukturierten psychologischen Wissens.
Günter Sämmer: Paradigmen der Psychologie
- 317 -
Kapitel 9: Möglichkeiten und Grenzen
9.3.2 Eine paradigmenorientierte Heuristik zur Anwendung psychologischen Wissens
(1)
Psychologische ?Anwendungs“- Tätigkeiten
Unter den Tätigkeiten, die als ?Anwendung“ psychologischen Wissens bezeichnet werden, unterscheidet
HERRMANN drei Hauptkategorien (vgl. HERRMANN, 1979):
1. nicht-forschende, technisch-praktische Tätigkeiten (z.B.: das Erstellen eines Webeplakats unter
Berücksichtigung psychologischer Erkenntnisse; die Entwicklung von Konfliktlösungsstrategien am
Arbeitsplatz)
2. psychologisch-technologische Innovations- und Forschungstätigkeit (z.B.: die Konstruktion eines
standardisierten Persönlichkeitsfragebogens; Entwicklung und empirische Validierung von Lerntechniken)
3. psychologisch-wissenschaftliche Innovations- und Forschungstätigkeit (z.B.: Durchführung eines
Experiments zur Gedächtnisforschung oder einer sozialpsychologischen Felduntersuchung)
Während sich die ?Anwender“ in (2) und (3) meist auf eine wohlgeordnete Forschungstradition mit häufig
eindeutiger paradigmatischer Ausrichtung bei der Problemdefinition und den Lösungsstrategien beziehen
können, stehen die nicht-forschenden, technisch-praktischen ?Anwender“ vor besonders gravierenden
Schwierigkeiten: Sie werden häufig mit äußerst komplexen, unstrukturierten praktischen Problemlagen
konfrontiert, die sie zunächst selektiv zu ordnen haben, bevor sie ihr psychologisches Wissen zur Anwendung bringen können. Dabei liefert die Wissenschaft zur effektiven Bewältigung praktischer Probleme
zwar exemplarische Interpretationsmuster (inhaltlich-technologisches Wissen) und wissenschaftlich
gesicherte Handlungsroutinen (operativ-technologisches Wissen) (vgl. BUNGE, 1967), dem einzelnen
Praktiker wird aber zusätzlic h eine besondere kreative Leistung abverlangt. Im einzelnen gehören zu
einer effektiven Problemlösung nämlich
• die Fähigkeit, verschiedene Wissensbestände aufeinander zu beziehen und miteinander zu verbinden,
• die Fähigkeit, die Komplexität des Handlungsfeldes so zu verringern, daß relevantes Hintergrundwissen auch einsetzbar wird,
• die Fähigkeit, das Problem im Lichte einer konkreten Theorie so umzuformulieren, daß es aus der
Theorie heraus rekonstruierbar wird.
(vgl. KRAPP & HEILAND, 1993)
Das Paradigmenmodell der Psychologie scheint nun in besonderer Weise geeignet, dem Praktiker in
Alltagssituationen sowohl inhaltlic h-technologisches als auch operativ-technologisches Wissen zu
erschließen. Eine mögliche paradigmenorientierte Heuristik soll im folgenden vorgestellt werden.
(2)
Paradigmenorientierte Anwendung technologischen psychologischen Wissens - Ein heuristisches
?Produktionssystem“
a) Problemlösung als Suchprozeß
Tritt in komplexen Alltagssituationen ein erklärungs- und/oder lösungsbedürftiges Problem auf, so kann
der zugehörige Problemlöseprozeß in Übereinstimmung mit ANDERSON (1989) als Suche in einem
?Problemraum“ beschrieben werden. Als wesentliche Heuristiken zur Erreichung des Zielzustandes
(einer an wissenschaftlichen Theorien orientierten ?Erklärung“ oder an wissenschaftlich-psychologischen
Techniken orientierten Lösungshandlung) können z.B. gelten:
• Auffinden geeigneter wissenschaftlicher Modelle (Theorien oder Techniken) aus dem Pool des
Hintergrundwissens (mit entsprechender Aufmerksamkeitssteuerung),
• Selektion der passenden Elemente (Modellattribute) der Problemsituation,
• Rekonstruktion der passenden konkreten Relationen und Bezüge innerhalb der Problemsituation sowie
• Interpretation und Konkretisierung der allgemeinen Implikationen des Modells in Bezug auf die
Situation.
Günter Sämmer: Paradigmen der Psychologie
- 318 -
Kapitel 9: Möglichkeiten und Grenzen
Geschieht dieser Suchprozeß unsystematisch, so kann es schnell zu Konfusionen kommen. ?Sieht“ z.B.
ein Lehrer, dessen Unterricht durch einen bestimmten Schüler häufig gestört wird, bei der Reflexion
dieses Sachverhalts spontan
1. gewisse ?auslösende Situationen“, in denen das Störverhalten auftritt, gleichzeitig
2. beim Schüler massive ?aggressive Impulse“ gepaart mit
3. ungeeigneten Einstellungen die Schule betreffend, die
4. immer wieder zu interaktiven Aufschaukelungprozessen zwischen ihm und dem Schüler führen,
so steht er endlich vor einem Konglomerat von Einzelaspekten, deren jeder auf eine andere Theorie mit
anderer paradigmatischer Herkunft verweist (hier: behavioristisch, tiefenpsychologisch, kognitivistisch,
und ganzheitspsychologisch).
Nun wird es ihm aufgrund der paradigmatischen Unverträglichkeit (?Inkommensurabilität“) seiner
Einzelbeobachtungen und Annahmen kaum noch gelingen, auch nur eine der möglichen Theorien zur
Erklärung anzuwenden. Folge ist möglicherweise die verbreitete ?Einsicht“, daß psychologische Theorien,
wenn es darauf ankommt, ?zu nichts nütze“ sind, und endlich der Entschluß, sich in Zukunft doch lieber
auf den ?gesunden Menschenverstand“, also auf seine Alltagstheorien zu verlassen. (vgl. hierzu
NOLTINGs These von den ?zwei Psychologien“ im Leben von jungen Psychologen; NOLTING, 1985)
b) Ein heuristisches paradigmenorientiertes ?Produktionssystem“
Es kommt nun entscheidend darauf an, den Zufallsprozeß bei der Hypothesenbildung zu systematisieren. Genau dies könnte aber mit Hilfe einer paradigmenorientierten Heuristik gelingen:
Würde sich der Lehrer zunächst für eine allgemeine paradigmatische Perspektive entscheiden, so
würden ihm die Basiselemente des Paradigmas einen klar definierten Bereich ?relevanter Aspekte“
liefern und dadurch eine Vorstrukturierung für die nachfolgende Suche nach einer konkreten Theorie.
Es kann nun angenommen werden, daß eine solche Vorstrukturierung den Suchprozeß wesentlich
erleichtert, denn einmal schränkt sie den Bereich der zu berücksichtigen Teil-Phänomene und -Prozesse
ein (Verkleinerung des Suchraumes), anderseits bildet sie auf einer höheren Ebene ein Suchmuster für
konkrete Theorien.
1. Wahl einer paradigmatischen Perspektive
Der Lehrer im obigen Beispiel müßte sich also zunächst festlegen, ob er eine tiefenpsychologische, eine
behavioristische, eine kognitivistische oder eine ganzheitspsychologische Deutung versuchen möchte.
(Wobei die individuelle ?Vorliebe“ für bestimmte paradigmatische Perspektiven sicherlich vom jeweiligen
Vorwissen eines Anwenders abhängt; aber ebenso von ausgesprochen subtilen motivationalen Faktoren:
Man bedenke, daß tiefenpsychologische Modelle im obigen Beispiel eher auf außerschulische Ursachen
verweisen, während z.B. systemische Theorien den Lehrer selber und sein eigenes Verhalten zum
Mitbestandteil des Problem machen!)
2. Vorstrukturierung durch paradigmatische Basiseinheiten
Hat sich der Lehrer also z.B. für ein kognitivistisches Vorgehen entschieden, so wäre sein ?Suchraum“
deutlich kleiner geworden, und er bräuchte sich lediglich mit kognitivistischen Basiselementen wie
?Kognitionen“ und ?Handlungsplänen“ zu beschäftigen, den paradigmatischen Antecedensbedingungen
des Kognitivismus: Welche Sachverhalte interpretiert der Schüler wie? Welche Schlüsse zieht der Lehrer
selber woraus? Welche Handlungsziele haben die Beteiligten?
3. Suche nach einer geeigneten Theorie
Diese Vorstruktur ?kanalisiert“ nun die Suche nach einer konkreten Theorie: Ist z.B. das störende
Verhalten des Schülers sinnvoll interpretierbar als Versuch, eine ?kognitive Dissonanz“ zu beseitigen (z.B.
Günter Sämmer: Paradigmen der Psychologie
- 319 -
Kapitel 9: Möglichkeiten und Grenzen
weil der Schüler von Mitschülern eine glaubwürdige Vorinformation über die ?Ungerechtigkeit“ des
Lehrers bekommen hat), oder kommt es zustande wegen unterschiedlicher ?Attributionen“ bei Lehrer und
Schüler (z.B.: der Schüler als Akteur attribuiert die Ursachen für sein störendes Verhalten external, der
Lehrer als Beobachter hingegen internal)?
4. Wahl geeigneter Handlungsroutinen
Mögliche Handlungsmuster zur Lösung des Problems ließen sich nun aus den entsprechenden Theorien
gewinnen (etwa in Bezug auf die Beseitigung kognitiver Dissonanzen oder die Veränderung von Attributionsmustern).
5. Alternativlösungen durch ?Paradigmenwechsel“
Gelingt die Lösung nicht, oder bleibt die Erklärung unbefriedigend, so bleibt dem ?Anwender“ die
Möglichkeit, durch ?Paradigmenwechsel“ zu gänzlich anderen, wirklich ?alternativen“ Erklärungs- und
Lösungsmustern zu gelangen!
Zusammengefaßt ist die paradigmenorientierte Heuristik wie folgt zu beschreiben:
Eine paradigmenorientierte Heuristik zur psychologischen Problemlösung in Alltagssituationen:
1. Entscheidung für eine paradigmatische Perspektive
2. Paradigmatische Vorstrukturierung: Wahrnehmen und Erkennen der paradigmatischen Basiseinheiten (zentrale psychische ?Gegenstände“ und elementare Relationen) in der konkreten Situation,
(Re-)Konstruktion der paradigmatischen ?Welt“
3. Theoriesuche: Auffinden von anwendbaren psychologischen Theorien innerhalb dieses Paradigmas
4. Erklärung: Konkretisierung der theoretischen Aussagen in Bezug auf die problematische Alltagssituation; theorieorientierte Rekonstruktion von Zusammenhängen der Alltagssituation
5. Lösung durch Heranziehen affiner Techniken
9.4
Schluß
Heute ist das Verhältnis der verschiedenen Paradigmen untereinander deutlich entkrampfter als noch vor
20 Jahren. Man akzeptiert durchaus die wissenschaftlichen Bemühungen und Erfolge der Konkurrenten.
Dies ist nicht zuletzt auf die ?postmoderne“ erkenntnis- und wissenschaftstheoretische Liberalisierung
zurückzuführen. Den nach Zahl und Einfluß immer noch dominierenden Kognitivisten ist es gelungen, ihre
wahrnehmungspsychologischen und konstruktivistischen Grundüberzeugungen auf die Rezeption des
eigenen Wissenschaftssystems anzuwenden. Wissenschaftliche Theorien und deren Kernannahmen
werden zunehmend als hypothetische Modelle aufgefaßt, deren heuristische Bedeutung wichtiger ist
als ein irgendwie gearteter Wahrheits- und Universalitätsanspruch. Obwohl es z.B. der Ganzheitspsychologie inzwischen gelungen ist, ihr immer schon von vielen als metaphysisch kritisiertes holistisches
Grundmodell durch das viel modernere (und auch modischere) Modell ?rekursiver chaotischer Systeme“
zu ersetzen (s.o., Kapitel 5), wird dies kaum zu einer ?Ablösung“ des informationstheoretischen Kognitivismus führen. Dessen heuristische Kraft scheint für bestimmte Problemstellungen (z.B. der
Sozialpsychologie oder der Sprachpsychologie) längst nicht erschöpft zu sein. Überhaupt scheint eine
solch pragmatische Einschätzung von wissenschaftlichen Ansätzen dafür zu sorgen, daß das Auf-
Günter Sämmer: Paradigmen der Psychologie
- 320 -
Kapitel 9: Möglichkeiten und Grenzen
kommen alternativer wissenschaftlicher Theorien und Modelle heute kein Anlaß mehr ist für Existenzängste unter Psychologen.
Die Pluralität des Wissenschaftssystems der Psychologie wird zunehmend akzeptiert, und diese Arbeit soll
einen Beitrag liefern, sich in einer solch vielfältigen wissenschaftlichen Landschaft besser zurechtzufinden.
Herunterladen