Günter Sämmer: Paradigmen der Psychologie 8. - 263 - Kapitel 8: Kognitivismus Kapitel Das Paradigma des Kognitivismus Bis in die 50er Jahre des 20. Jahrhunderts dominieren behavioristische Modelle des reizkontrollierten Verhaltens (vgl. Kapitel 6) die Forschungsprogramme der akademischen Psychologie. „Kognitive” Ansätze, die mentale Prozesse beschreiben und erforschen, führen zu dieser Zeit eher ein Schattendasein. Ihre mächtigen behavioristischen Kritiker werfen ihnen vor, sich „metaphysischer” und „mentalistischer” Konstrukte zu bedienen und dabei „subjektivistische” Forschungsmethoden zu verwenden. Mit Kognitionen befassen sich damals vor allem ganzheitspsychologische Forschungsprogramme (z.B. LEWIN, FESTINGER, HEIDER, BRUNER, PIAGET ; vgl. dazu Kapitel 5), aber auch einige „kognitive” Forschungsansätze, die auf behavioristischem Hintergrund operieren (z.B. TOLMAN, BANDURA oder GANGÉ; vgl. dazu Kapitel 6). In den 50er Jahren bereiten dann einige wichtige Neuerungen auf dem Gebiet der Naturwissenschaften in der Psychologie den Boden für eine „kognitive Wende” (zur Bezeichnung vgl. WEINER, 1976; Orig 1972). • Norbert WIENERs Arbeiten über maschinelle Steuerungssysteme, deren Grundprinzipien schon bald einen neuen Wissenschaftszweig begründen, die Kybernetik (vgl. WIENER, 1963; Orig. 1948), • SHANNONs Informationstheorie, die sich mit den mathematischen Aspekten der Informationsübermittlung befaßt (vgl. SHANNON, 1948) und • VON NEUMEIERS, SIMON s und NEWELLs Arbeiten über datenverarbeitende Maschinen und die darin als „künstliche Intelligenz” beschriebenen Simulationen kognitiver Prozesse (vgl. dazu: NEWELL & SIMON , 1976). In diesen drei Ansätzen werden mathematische oder technische Modelle erarbeitet, die zwei für Psychologen wesentliche Eigenschaften haben: Sie zeigen nämlich, • daß mentale Prozesse wie Wissen, Erkennen, Denken prinzipiell in informationsspeichernden und verarbeitenden technischen Systemen simulierbar sind, und • daß es in diesem Zusammenhang sinnvoll sein kann, auch Maschinen wie handelnden Menschen Intentionen zuzuschreiben (z.B. als „Stellgrößen” in rückgekoppelten Regelsystemen). Menschliches Denken und Erkennen sowie intentionales Handeln sind also zum ersten Mal naturwissenschaftlich konzipierbar und erforschbar, und dies macht sie auch für streng empirisch ausgerichtete Psychologen wieder interessant. Die „Kognitive Wende” in der Psychologie besteht somit darin, daß eine Vielzahl „mentalistischer“ Phänomene als „Informationsverarbeitungsprozesse” interpretiert und mit objektiven Methoden erforscht werden können: Wahrnehmung und Denken, aber auch Emotion, Motivation und intentionales Handeln. Dabei wird es üblich, psychologische Forschung und Theoriebildung nach dem „Informationsverarbeitungsansatz” auf verschiedenen Ebenen der Konzeptbildung zu betreiben (vgl. HERMANN, 1982): • Manche Forscher versuchen, in strengen „Computermetaphern” menschliches Erleben und Verhalten als Vorgänge in einem informationsverarbeitenden kybernetisch-technischen System zu beschreiben und verwenden dabei die Terminologie der Datenverarbeitung („Input”, „Speicher”, „Rückkopplung”). • Andere verwenden in liberalisierter Form zur Beschreibung von Informationsverarbeitungsprozessen eher psychologische Konzepte mit Begriffen wie „Wahrnehmung”, „Gedächtnis”, „Handlungssteuerung”. All diese psychologischen Forschungsprogramme, die psychische Phänomene als „Informationsverarbeitung” rekonstruieren, sollen im folgenden unter das Paradigma des Kognitivismus subsumiert werden. Günter Sämmer: Paradigmen der Psychologie - 264 - Kapitel 8: Kognitivismus Auf eine in diesem Kontext wichtige Unterscheidung muß noch hingewiesen werden: Manche Autoren verwenden den Begriff „Kognitive Psychologie” für alle Forschungsprogramme, die sich mit kognitiven Prozessen befassen. Dies ist aber eine Obermenge der hier „kognitivistisch” genannten Ansätze, denn auch ganzheitspsychologische, psychobiologische, tiefenpsychologische, ja sogar behavioristische Forschungsprogramme können Kognitionen zum Gegenstand haben (vgl. die obigen Kapitel 4 bis 7). Und auch die Annahme, die heutige (kognitivistische) Psychologie habe einige der älteren Ansätze längst subsumiert (vgl. z.B. ANDERSON, 1989), muß hier zurückgewiesen werden. Die meisten der älteren kognitiven Forschungsprogramme enthalten nämlich Kernannahmen, die mit dem Informationsverarbeitungsansatz nicht kompatibel sind: Zum Beispiel geht die Emergenzannahme der Ganzheitspsychologie (vgl. Kapitel 5) eben nicht davon aus, daß Kognitionen Ergebnisse aktiver, selbst-”gesteuerter” und zielgerichteter Prozesse sind. Und aus behavioristischer Sicht sind Kognitionen keine selbsttätigen Prozesse sondern Formen „innerer”, reizgesteuerter Reaktionen (vgl. Kapitel 6). (Daß ihre Subsumierbarkeit dennoch so häufig behauptet wird, liegt möglicherweise daran, daß hierdurch die „Herrschaftsansprüche” eines neuen wissenschaftlichen Paradigmas unterstrichen werden sollen.) Spätestens seit den 80er Jahren ist nach übereinstimmender Auffassung verschiedener Autoren der „Informationsverarbeitungsansatz”, also der Kognitivismus im oben definierten Sinne, zum vorherrschenden psychologischen Paradigma in der akademischen Psychologie geworden (vgl. z.B. ULICH, 1989; MANDL & SPADA, 1988; ZIMBARDO, 1992; GRAB I T Z & HAMMERL, 1995). Seine Fortentwicklung ist naturgemäß offen, so daß die hier versuchte Skizze vorläufig bleiben muß. 8.1 Die Gründungssituation des Kognitivismus 8.1.1 „Blinde Flecke” des Behaviorismus Ende der 40er, Anfang der 50er Jahre des 20. Jahrhunderts strebt der Einfluß des Behaviorismus innerhalb der Psychologie seinem Höhepunkt zu. Sein Sprachspiel ist nun so beherrschend, daß von einem wissenschaftlich arbeitenden Psychologen selbstverständlich erwartet wird, daß er Sprache mit „verbal behavior” übersetzt; und selbst solche Arbeiten, die später einmal das behavioristische Denken revolutionieren werden, weil sie die empirischen Grundlagen einer kognitiven Filtertheorie der Wahrnehmung enthalten, werden noch überschrieben mit: „Successive responses to simultaneous stimuli” (vgl. BROADBENT, 1956) Dabei nähert sich der Behaviorismus immer mehr einer krisenhaften Situation: Der empiristische Assoziationismus in der behavioristischen Psychologie hatte in seiner Rigorosität längst zu einer Überbetonung des reaktiven Verhaltens und damit zu einer Vernachlässigung der Eigenaktivitäten und der internen Repräsentationen von Wirklic hkeit durch das Individuum geführt (vgl. z.B. MANDL & SPADA, 1988). „Mentalistische” Konzepte wie konstruktive Gedächtnisprozesse oder produktives Denken waren aus dem Blickfeld der Psychologen verschwunden. Und selbst der kognitive Behaviorismus T OLMANs konzipierte „Kognitive Landkarten” innerhalb des Reiz-Reaktions-Schemas als rein reaktive Abbilder der Wirklichkeit (vgl. Kapitel 6). Immer mehr, meist junge Forscher beginnen nun, die restriktiven Wirkungen des behavioristischen Sprachspiels und der behavioristischen Konzepte wahrzunehmen und zu beklagen. Ein interessantes Beispiel hierfür ist NEISSSER s Bericht über eines seiner frühen Experimente (vgl. NEISSER, 1954). In diesem Experiment ging es um die Frage, welche vorausgehenden „sets” die Wahrnehmung von tachistoskopisch dargebotenen Wörtern in welcher Weise verändern können. In behavioristischer Manier hatte er „Wahrnehmung” über offenes Verhalten operationalisiert, und, wie üblich, hierfür das nachfolgende verbale Wiedergabeverhalten der Versuchspersonen gewählt. NEISSER stieß dabei auf ein Phänomen, das in solchen Experimenten damals häufig vorkam: Manche Versuchspersonen äußern nach dem Experiment, einen bestimmten Stimulus zwar wahrgenommen, jedoch nicht laut Günter Sämmer: Paradigmen der Psychologie - 265 - Kapitel 8: Kognitivismus vorgelesen zu haben, andere sagen, sie hätten nichts gesehen und einfach geraten. Für Behavioristen gibt es hier kein Problem: Sie sehen „Wahrnehmung” und „Wiedergabe” als (operational) identisch an, und im übrigen werden die Zweifel der Versuchspersonen durch das Versuchsdesign eliminiert, indem diese wenig oder gar keine Gelegenheit zur Artikulation ihrer (für einen Behavioristen methodisch schließlich völlig irrelevanten!) „Introspektionen” bekommen. Dem jungen Forscher NEISSER aber gelingt eine solche „konventionalistische Wendung” (POPPER, 1984, Orig. 1935) zur Rettung behavioristischer Konzepte nur schwer; und 20 Jahre später, nach der „kognitiven Wende”, formuliert NEISSER die Gründe für seine intuitiven Widerstände so: „Der Hauptgrund, kognitive Prozesse zu studieren, hat sich als genauso klar herausgestellt wie der Grund für das Studium aller Dinge: weil es sie gibt. (...) Kognitive Prozesse existieren mit Sicherheit, und deswegen kann es kaum unwissenschaftlich sein, sie zu erforschen.” (NEISSER, 1974; S. 21) Die „blinden Flecke” des Behaviorismus sind es, auf die eine wachsende Zahl von Psychologen nun immer häufiger hinweist, und ihr wirksamstes Mittel, die Aufmerksamkeit auf kognitive Prozesse zu lenken, ist die ständig wiederholte, der Alltagserfahrung entnommene einfache Existenzbehauptung des jungen NEISSER: „Weil es sie gibt”. 8.1.2 „Mentale Prozesse” in Maschinen - Die Entstehung der Informationstechnologie als Legitimationsbasis Nun behaupten bekanntlich Tiefenpsychologen auch unausgesetzt die Existenz des Unbewußten und Ganzheitspsychologen werden nicht müde, in den verschiedenen Variationen dem „Ganzen” fundamental andere Eigenschaften zuzuschreiben als den „Teilen” (vgl. Kapitel 5). Solche Behauptungen allein haben denn auch den Mainstream der akademischen Psychologie noch selten in seiner Grundrichtung beeinflußt. In der Nachkriegszeit kommt nun aber eine mächtige revolutionäre Entwicklung hinzu, die nur teilweise unter Beteiligung von Psychologen verläuft: das Aufstreben der Kybernetik und der Computerwissenschaften. (1) Kybernetische Rückkopplungsprozesse: Finalität in Automaten Während des zweiten Weltkrieges hatten Norbert WIENER und andere an Feuerleitsystemen gearbeitet, die in der Lage waren, automatisch bewegliche Ziele zu verfolgen, dabei die Richtung des anfliegenden Projektils zu verändern, um dieses dann durch mehrfache Kurskorrektur ins Ziel zu bringen. ROSEN B L U T H , WIENER und BIGELOW (1943) hatten schon früh auch die philosophische Bedeutung solc her „Rückkopplungsprozesse” erkannt und festgestellt, daß hier ein Phänomen vorliegt, das durchaus mit dem zu vergleichen ist, was man in der lebendigen Natur bisher mit Begriffen wie Absicht oder Plan bezeichnet hatte. Vor allem aber gehörten sie zu den ersten, die zeigen konnten, daß die Abstraktion der Vorgänge in solchen künstlichen, rückgekoppelten Steuerungssystemen auf fundamentale Prozesse führt, die in der gesamten Natur und insbesondere in den Nervensystemen aller Lebewesen bis hin zum Menschen aufgefunden werden können. 1948 faßte Norbert WIENER diese Erkenntnisse in seinem berühmten Werk zusammen: Kybernetik: Regelung und Nachrichtenübertragung in Lebewesen und Maschine. (vgl. WIENER, 1963, Original 1948) Wenn nun also Ingenieure von Maschinen behaupten, daß sie (im doppelten Sinne!) „Ziele verfolgen” können, ohne dabei irgendwelche teleologischen und metaphysischen Hintergrundannahmen zu bemühen, so wird auch streng naturwissenschaftlich ausgerichteten Psychologen bald die Annahme einer „causa finalis” für das Verhalten von Lebewesen möglich. Aus dem behavioristischen Konzept des weitgehend von außen verursachten reaktiven „Verhaltens” wird bald das Konzept einer zielgerichteten, autonomen individuellen „Handlung”. Günter Sämmer: Paradigmen der Psychologie (2) - 266 - Kapitel 8: Kognitivismus Programmgesteuerte theoretische Maschinen Gleichzeitig und in enger Verbindung mit der Kybernetik, der Theorie der Steuerungs- und Regelungsprozesse, entstehen die grundlegenden Theorien der Datenverarbeitung: Schon 1936 hatte Allan T URING ein mathematisches Modell entworfen, später „Turingmaschine” genannt, das in der Lage war, durch eine „programmgesteuerte” endliche Abfolge einfacher binärer Richtig-Falsch-Entscheidungen einen mathematischen Satz zu beweisen. Es zeigt sich sehr bald, daß die Funktionsweise von Turingmaschinen nicht davon abhängt, wie die Maschine physikalisch realisiert wird, ob also z.B. die Operationsanweisungen (also das „Programm”) auf einem Papierstreifen oder einem Magnetband festgehalten werden. So wird die Turingmaschine zum (ideellen) Prototyp eines Computers, und die ersten „Informatiker” wie John VON NEUMANN, Herbert SIMON und Allan NEWELL, Marvin MINSKY und John MCCARTHY leiten daraus ihre grundlegenden Ideen ab, die bald in die Entwicklung realer programmgesteuerter elektronischer Datenverarbeitungsmaschinen mündet. (3) Informationstheorie Parallel zur Entwicklung des Computers und eng mit dieser verknüpft, entsteht im Bereich der Nachrichtentechnik die dritte Säule der moderenen Informationstechnik, die Informationstheorie. Claude SHANNON entwirft (z.T. in Zusammenarbeit mit WIENER) eine quantitative mathematische Konzeption der „Information”, die als Maß für die Reduktion von Unbestimmtheit aufgefaßt wird (vgl. SHANNON, 1948): Grundeinheit für Information ist das Bit, die Anzahl der Elementarentscheidungen, die nötig ist, um in den Besitz der vollständigen Information über einen Zustand zu gelangen. Eine Elementarentscheidung in Form eines „Ja” oder „Nein” enthält genau ein Bit Information. Komplexere Formen von Information lassen sich stets in Elementarentscheidungen zerlegen. Ein Beispiel: Die Information, auf welchem der 64 Felder eines Schachbretts der schwarze König steht, kann durch sechs elementare Ja-Nein-Entscheidungen mitgeteilt werden: etwa durch sukzessives Abfragen: Linke Hälfte des Schachbretts? Obere Hälfte? ... . Genau 6 solcher Elementarentscheidungen sind nötig, um jedes beliebige von 64 ( = 26) Feldern zu erreichen. Somit enthält der Satz „Der König steht auf B4” eine Informationsmenge von 6 Bit. Da 26 = 64 ist, berechnet sich die Zahl der Bit als 6 = log264. Entsprechend enthält ein einzelner Buchstabe eines 26-buchstabigen Alphabets einen Informationsgehalt von log226 = 4,7 Bit (da 24,7 = 26 ist). Information ist unabhängig von ihrem physikalischen Träger und kann in jedem beliebigen geeigneten physikalischen, chemischen oder auch organischen Medium in identischer Weise ohne „Identitätseinbußen” existieren. Damit wird klar: Informationsverarbeitungsprozesse können strukturell so beschrieben werden, daß sie sowohl in lebendigen als auch in künstlichen „Umgebungen” identisch ablaufen. Zwischen dem menschlichen Gehirn und einer künstlichen Maschine besteht in dieser Hinsicht kein qualitativer Unterschied. (4) Technische Modelle mentaler Prozesse In den 50er Jahren beginnen dann tatsächlich reale Automaten mit digitalen Repräsentationen der Außenwelt zu operieren. Alles, was in Informationseinheiten digitalisierbar ist, läßt sich auch in einem „Computer” darstellen und weiterverarbeiten. Auf diese Weise entsteht ein mächtiges technisches Modell mentaler Prozesse, das zum Paradigma einer neuen und zum Behaviorismus alternativen Form der Psychologie wird. Die bislang in der Psychologie nur äußerst vage und unbestimmt, weil ausschließlich introspektiv behandelbaren Konzepte von „Absicht”, „Wille” und „Vorstellung” erhalten eine neue, naturwissen- Günter Sämmer: Paradigmen der Psychologie - 267 - Kapitel 8: Kognitivismus schaftlich legitimierte Fassung. Die Existenzbehauptung mentaler Prozesse gewinnt entscheidend an Seriosität und Durchschlagskraft, der strenge Behaviorismus gerät zunehmend in die Defensive. 8.1.3 Die „Kognitive Wende”: Eine neue scientific community formiert sich Auf mehreren wissenschaftlichen Symposien treffen sich seit Ende der 40er Jahre immer wieder Psychologen mit Informationswissenschaftlern, um die Implikationen dieser neuen Erkenntnisse für die Psychologie zu diskutieren. Schon 1948, auf dem Hixon-Symposium am California Institute of Technology, hatte der WATSON-Schüler Carl LASHLEY in einem aufsehenerregenden Vortrag darauf hingewiesen, daß so komplexe Verhaltensweisen wie Sprache oder Violinespielen, kaum, wie bei den zeitgenössischen Behavioristen und Neurophysiologen üblich, mit Hilfe einfacher Assoziationsketten zu erklären sind (vgl. dazu die Darstellung in GARDNER, 1992). Zum Beispiel beim Abspielen einer schnellen Tonsequenz, so LASHLEY, bleibe dem Nervensystem einfach keine Zeit, auf die innere Rückmeldung des ersten Tones zu warten, bis der zweite innerhalb einer Assoziationskette als „response” gebildet werden kann. Dazu sei (die inzwischen nachweisbare) Übertragungsgeschwindigkeit des Nervensystems zu gering. Erklärbar sei eine solche Leistung nur, wenn dem Organismus eine hierarchische Organisation der Steuerung unterstellt werde, in der großräumigere Ziele des Verhaltens festgehalten sind. Zum Meilenstein für die Entwicklung des Kognitivismus wird das Symposium on Information Theory, das vom 10. - 12. September 1956 am MIT stattfindet. Neben N EWELL und SIMON , die ihre „Logiktheorie-Maschine” vorstellen, die erste „reale” Turingmaschine, die einen mathematischen Beweis führt, tragen George MILLER und Noam CHOMSKY vor: George MILLER berichtet von seiner wahrnehmungs- und gedächtnistheoretischen Arbeit über die „Magical Number Seven” (vgl. MILLER, 1956; vgl. auch unten, Abschnitt 8.2.1). In einer Synopse verschiedener Untersuchungen kann MILLER zeigen, daß die Kanalkapazität des menschlichen Informationsverarbeitungssystems auf etwa sieben Informationsblöcke („chunks”) begrenzt ist. MILLER versucht mit seinem Aufsatz, der in Termen der Informationstheorie formuliert ist, zum ersten Mal eine konsequente Anwendung des Informationsbegriffs, der Informationsübertragung und -speicherung auf das menschliche Wahrnehmen und Denken und eröffnet damit das informationstheoretische Sprachspiel in der Psychologie. Noam CHOMSKY erläutert die Grundideen seiner Transformationsgrammatik (vgl. CHOMSKY, 1956; 1973, Orig. 1957). Er orientiert sich dabei an der grundlegenden Modellvorstellung einer mathematisc hen virtuellen „Maschine”, wie sie z.B. in den Theorien von TURING oder MARKOW vorgestellt worden waren. Sprache wird hier generiert in einem algorithmischen Prozeß, nach einem hierarchisch aufgebauten, formalen Regelwerk, dessen drei Hauptebenen (Phrasen-Struktur-, Transformations- und Morphophonemik-Regeln) systematisch durchlaufen werden müssen, bis ein grammatisch richtiger Satz ausgesprochen werden kann. CHOMSKYs Bedeutung liegt darin, zum ersten Mal für eine komplexe menschliche Fähigkeit wie die Spracherzeugung einen hierarchisch organisierten Algorithmus gefunden zu haben. Seine linguistische Theorie wird so zum Vorbild für eine erste kognitivistische Handlungstheorie. Damit deutet sich an, daß eine große Zahl mentaler Prozesse prinzipiell in Termen der Informationsverarbeitung erfaßbar und mit einschlägigen empirischen Methoden erforschbar ist. So werden mit der Zeit diejenigen „kognitiven” Forschungsprogramme wieder „hoffähig”, die neben dem Behaviorismus bislang ein Außenseiterdasein fristeten, z.B.: • HEIDERs frühe Attributionstheorie, die annimmt, daß Menschen bestimmten sozialen Ereignissen (interne oder externe) Ursachen zuschreiben, woraus sich unterschiedliche Handlungstendenzen ergeben (vgl. HEIDER, 1944; 1977, Orig. 1958); • FESTINGERs Theorie der Kognitiven Dissonanz, das sic h mit dem Schicksal widerstreitender Kognitionen befaßt (FESTINGER, 1957); Günter Sämmer: Paradigmen der Psychologie - 268 - Kapitel 8: Kognitivismus • BRUNER, POSTMAN u.a. Beiträge zu einer Theorie der sozialen Wahrnehmung („New Look in Perception”), die die Wirkung personaler, sozialer und motivationaler Faktoren auf den Wahrnehmungsprozeß beschreibt (vgl. z.B. im Überblick bei: GRAUMANN , 1956); • BRUNERs denktheoretischer Ansatz, der verschiedene Strategien der Kategorienbildung postuliert (vgl. BRUNER, GOODNOW & AUSTIN, 1956); • AUSUBELs und GAGNÉs pädagogisch-psychologische Ansätzes des Wissens und Denkens (vgl. AUSUBEL, 1960; GAGÉ, 1973). 8.2 Die ersten kognitivistischen Forschungsprogramme: Modelle menschlicher Informationsverarbeitung Die anfängliche Dynamik des neuen Paradigmas hängt in den späten 50er und frühen 60er Jahren entscheidend davon ab, ob es gelingt, die noch sehr pauschalen Kernannahmen, die psychische Prozesse mit Informationsverarbeitungsprozessen identifizieren, durch elaborierte und empirisch fundierte psychologische Modelle zu ersetzen. Am Beispiel der wegweisenden Arb e i t MILLERs (1956), des ersten elaborierten Wahrnehmungs- und Gedächtnismodells von BROADBENT (1987, Orig. 1958) sowie des ersten programmatischen Entwurfs eines kognitivistischen Handlungsmodells von MILLER, GALANTER und PRIBRAM (1991, Orig. 1960) soll nun versucht werden, Einblick zu gewinnen in das inhaltliche wie auch in das methodologische Vorgehen der frühen Kognitivisten. 8.2.1 „Kanalkapazitäten” menschlicher Informationsverarbeitung In seinem Vortrag auf dem Symposium on Information 1956 gibt MILLER einen Überblic k über eine größere Zahl von Einzeluntersuchungen zum „absoluten Schätzurteil” (absolute judgement), die in den vorangegangenen 10 Jahren von mehreren Forschern durchgeführt worden waren. Seine Leistung besteht darin, die heuristische Fruchtbarkeit einer konsequenten informationstheoretischen Interpretation zu demonstrierten, die es ermöglicht, verschiedenartige Meßergebnisse für verschiedenartige Sinnesreize so zusammenzufassen, daß neue, grundlegende Gesetzmäßigkeiten erkennbar werden: (1) POLLACK hatte 1952 seinen Versuchspersonen verschieden hohe Töne vorgespielt. Bei erneuter Darbietung dieser Töne sollten die Versuchspersonen diese dann wiedererkennen und richtig zuordnen. Pollack begann zunächst mit nur zwei unterschiedlichen Tönen, bei deren Zuordnung die Versuchspersonen keine Fehler machten. Steigerte er dann aber die Zahl der zu unterscheidenden und zuzuordnenden Töne, so traten ab 5 die ersten Fehler auf, die Versuchspersonen begannen, die Tonzuordnungen zu verwechseln (vgl. POLLACK, 1952). (2) BEEBE-CENTER, ROGERS und O'CONNELL (1955) ließen ihre Versuchspersonen die Salzkonzentration in verschiedenen Lösungen geschmacklich bestimmen und zuordnen. (3) Bei HAKE und GARNER (1951) sollten Versuchspersonen die Positionen von Punkten auf einer geraden Linie reproduzieren, die in verschiedene Intervalle eingeteilt war. Solc he und weitere Untersuchungen systematisiert MILLER nun informationstheoretisch in folgender Weise: Die Anzahl der Möglichkeiten, einen Schätzfehler zu machen, z.B. in POLLACKs Untersuchung entspricht dies der Anzahl der zuzuordnenden Töne, ist ein Maß für die eingehende Information (Input Information): Zwei Töne enthalten log2 2 = 1 Bit (bei der Auswahl „Eins aus Zwei” gibt es genau eine Fehlermöglichkeit), drei Töne enthalten log 2 3 = 1,58 Bit, vier Töne log2 4 = 2 Bit Information, usw.. An der jeweiligen Schätzleistung (Zahl der richtigen Schätzungen) kann dann die Informationsmenge abgelesen werden, die vom „Kommunikationskanal” übertragen wurde (transmitted information). Auch sie wird entsprechend in Bit umgerechnet. Günter Sämmer: Paradigmen der Psychologie - 269 - Kapitel 8: Kognitivismus Abb. 8.1: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Tonhöhen: Ergebnisse des Experiments von POLLACK in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85) Abb. 8.2: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Salzkonzentrationen: Ergebnisse des Experiments von BEEBE-CENTER, ROGERS und O'CONNELL in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85) Abb. 8.3: Kanalkapazität für das Wahrnehmen und Speichern verschiedener Punkte auf einer Linie: Ergebnisse des Experiments von HAKE und GARNER in informationstheoretischer Darstellung (nach M ILLER, 1956; S.83/85) Ein Vergleich verschiedener Experimente für verschiedene Sinnesleistungen zeigt nun, daß dort immer wieder die gleichen Muster auftreten (vgl. Abb. 8.1 - 8.3): Wird die einfließende Information sukzessive erhöht (hier durch Zunahme der Wahlalternativen), so erhöht sich zunächst auch die übertragene Information (in den Schätzergebnissen). Dies gelingt aber nur bis zu einer bestimmten einfließenden Informationsmenge, dann nimmt die übertragene Information nicht weiter zu, die (maximale) Kanalkapazität (chanel capacity) ist erreicht. MILLER vergleicht nun auf diese Weise die Kapazitäten verschiedener Kanäle für verschiedene Sinnesinformationen und kommt zu dem Schluß, daß diese über alle Sinnesorgane hinweg im Mittel bei 2,6 Bit liegen und nur mit einer Standardabweichung von 0,6 Bit schwanken. Dies entspricht einer mittleren fehlerfreien Übertragung von etwa 6,5 alternativen Kategorien mit einer Schwankung von 1,5. Die „magische Zahl Sieben”, die in vielen Kulturen eine so große Rolle spielt, zeigt sich damit als eine Grundkonstante menschlicher Informationsverarbeitung, nämlich als mittlere Kanalkapazität des Menschen. Günter Sämmer: Paradigmen der Psychologie - 270 - Kapitel 8: Kognitivismus Nun bedeutet dies aber nicht, daß das menschliche Informationsverarbeitungssystem nur um die sieben Bit Informationsmenge gleichzeitig aufnehmen und verarbeiten kann. Die oben skizzierten Experimente haben nämlich gemeinsam, daß sie alle eindimensionale Stimuli verwenden: Tonhöhe, Salzkonzentration, Anzahl. Damit enthält jede einzelne Zuordnung (Schätzalternative) immer dieselbe Informationsmenge wie alle anderen. Was geschieht aber, wenn man Informationen „packt”, also zu Items, in MILLERs Sprechweise zu „chunks” zusammenfaßt? Dazu werden Versuchspersonen nicht „Einzelereignisse” (wie einzelne Töne mit diskreten Tonhöhen) dargeboten, sondern „Informationsblöcke” wie dezimale Ziffern, Buchstaben, einsilbige Wörter usw. Jede dezimale Ziffer enthält z.B. log2 10 = 3,3 Bit an Information, ein Buchstabe eines 26-buchstabigen Alphabets log2 26 = 4,7 Bit. POLLACK (1953) hatte nun gezeigt, daß auch hier nur eine begrenzte Zahl von Items (chunks) behalten wird, allerdings ist dies beinahe unabhängig von der Information, die jedes einzelne Item trägt. Die aufgenommene Gesamtinformation steigt an, wenn die Information pro Item ansteigt (vgl Abb. 8.4): Abb. 8.4: Ergebnis der Untersuchung von POLLACK (1953): Behaltene Informationsmenge bei steigender Informationsdichte pro Chunk (nach M ILLER, 1956; S. 92). Chunks entstehen aber durch Gruppierung von Einzelinformationen, und damit wird deutlich, daß bei der Informationsaufnahme die aktive Organisation und Gruppierung des Input, also die Rekodierung der einlaufenden Information zu „übersichtlichen” chunks eine wesentliche Rolle für die Leistungsfähigkeit des Informationsverarbeitungssystems spielt. Die Welt der Informationen erschließt sich so als eine hierarchische kognitive Struktur von Gruppierungen immer höherer Komplexität und Informationsdichte, die, wie die obigen Experimente zeigen, prinzipiell informationstheoretisch quantifizierbar sind. 8.2.2 Wahrnehmung, Aufmerksamkeit und Erkennen als Informationsverarbeitung: Das BROADBENTsche Filtermodell Im Jahre 1958 veröffentlicht BROADBENT das erste Modell, das die Aufmerksamkeitssteuerung bei der Wahrnehmung durch ein Blockdiagramm als „Informationsfluß” (information-flow) beschreibt. Er synthetisiert damit eine ganze Reihe von vorangegangenen Untersuchungen zu einem einheitlichen „Filter-Modell”, einer, wie später gesagt wird, „Theorie mittlerer Reichweite”; hier zwei Beispiele solcher Experimente: • In einem der typischen Experimente zum „begleitenden Nachsprechen” spielte CHERRY (1953) seinen Versuchspersonen über die Muschel eines Kopfhörers einen Text vor, den diese nachzusprechen hatten. In die andere Hörermuschel wurde gleichzeitig ein anderer Text gesprochen, und es wurde untersucht, welche Eigenschaften dieser zweiten Mitteilung die Versuchspersonen registrieren konnten. Hier, wie auch in mehreren Folgeuntersuchungen, zeigte sich, daß die Versuchspersonen zwar kaum etwas über den Inhalt des hinzu gesprochenen Textes aussagen konnten, dafür aber seine Lokalisation, Intensität und die Stimmqualität (z.B. Männer- oder Frauenstimme) registrieren konnten. Günter Sämmer: Paradigmen der Psychologie - 271 - Kapitel 8: Kognitivismus • BROADBENT selber hatte mit einem ähnlichen Versuchsaufbau experimentiert. Hier wurden den Vpn zwei Ziffernreihen gleichzeitig in beide Ohren gesprochen, und zwar mit einer Sprechgeschwindigkeit von zwei Ziffern pro Sekunde; z.B. 7-2-3 in das linke Ohr, 9-4-5 in das rechte. Beim Wiedergeben des Gehörten trat dann ein überraschender Reihungseffekt auf: Die Vpn sagten stets zuerst die komplette Reihe einer Seite und danach die komplette Reihe der anderen, also 7-2-3 dann 9-4-5 oder: 9-4-5 dann 72-3. Fast nie war die wiedergegebene Ziffernreihenfolge eine Mischung beider Seiten. Verlangsamte man nun die Einsprechgeschwindigkeit für beide Ziffernreihen auf eine Ziffer pro zwei Sekunden, dann ging der Reihungseffekt verloren, und die Vpn begannen, bei der Wiedergabe die Ziffernreihen verschiedener Seiten zu mischen (vgl. BROADBENT, 1954). Abb. 8.5: BROADBENT s „Informationsfluß-Modell” der Aufmerksamkeit (BROADBENT , 1987, Orig. 1958; S. 299) Mit seinem Informationsfluß-Modell (vgl. Abb. 8.5) beschreibt und erklärt BROADBENT (1987, Orig. 1958) diese experimentell ermittelten Zusammenhänge wie folgt: a) Selektion, Filterung, Sequenzierung Die betrachteten Experimente weisen zunächst darauf hin, daß nicht alle Informationen, die an die Sinnesorgane („senses”) gelangen auch gleichzeitig zur Verarbeitung kommen. In BROADBENTs Experiment werden die gleichzeitig einlaufenden Informationen mehrerer „Kanäle” (jeder der kurzen Pfeile im „Eingangsbereich” des Diagramms wird als ein Informationskanal interpretiert) in eine Reihenfolge gebracht und dann erst wiedergegeben. Damit dies möglich wird, müssen sie zunächst in einem „buffer” („Short-term-store”) zwischengespeichert werden, denn sonst ginge zumindest der zweite Informationsblock der Wiedergabesequenz verloren. Eine solche „Pufferung” ist allerdings nur für ein bis zwei Sekunden wirksam, denn, wie BROADBENTs Experiment zeigt, gelingt bei verlängerter Eingabezeit (alle zwei Sekunden eine Ziffer) eine solche Sequenzierung nicht mehr, der Zwischenspeicher ist inzwischen offenbar gelöscht. Bei CHERRY wird von dem Text, dem die Aufmerksamkeit nicht zugewandt ist, kaum etwas weiterverarbeitet. Es findet somit also eine Selektion von Informationen statt, und diese wird, so die Modellvorstellung, von einem Filter („selective filter”) geleistet. Dieser Filter reagiert aber nur auf ganz bestimmte Eigenschaften des eingehenden Sinnesmaterials: physikalische Intensität, räumliche Position und verschiedene qualitative Merkmale. Sinnesreize, die bestimmte solcher Merkmale besitzen, werden in den Kommunikationskanal durchgelassen, alle anderen werden unterdrückt. b) Erfahrungseinflüsse Bis hierhin ist innerhalb des oben vorgestellten Modells nur von „einlaufender Information” die Rede, d.h. es wurden nur Informationsflüsse betrachtet, die „von außen nach innen” verlaufen. Auf zwei Arten trägt aber auch bereits vorhandene, also gespeicherte Information zum Verarbeitung neuer Informationen bei: Einmal können Informationen, die bereits den Kommunikationskanal passiert haben, sofort an den selektiven Filter zurückgegeben werden (oberer rücklaufender Pfeil 1 in Abb. 8.5) und sorgen z.B. so dafür, daß der Filter für diese Art von Informationen offen bleibt. Dies ist z.B. der Fall, wenn die Aufmerksamkeit auf ein bestimmtes Ereignis „geheftet” wird oder beim „erhaltenden Wiederholen”. Zum anderen ist das Informationsverarbeitungssystem aber auch in der Lage, zwischen verschiedenen Informationen, die nacheinander den Informationskanal passiert haben, eine Verbindung herzustellen und diese als „bedingte Wahrscheinlichkeiten” zu speichern. Dafür steht ein weiterer Speicher zur Verfügung, der „Store of conditioned probability of past events”. (Eine Bezeichnung, die wohl auf BROADBENTs Günter Sämmer: Paradigmen der Psychologie - 272 - Kapitel 8: Kognitivismus Anspruch hinweist, mit diesem Modell auch klassische und operante Konditionierungsprozesse zu erfassen und als besondere Form der Informationsverarbeitung zu interpretieren!) Kommt also eine Information über einen der Kanäle in den selektiven Speicher, die früher schon einmal zusammen mit einer anderen Information „durchgelassen” wurde, so erhält sie eine höhere Priorität (unterer rücklaufender Pfeil 2 in Abb. 8.5). Damit ist sichergestellt, daß Erfahrungen die Funktion des Wahrnehmungsfilters beeinflussen können. 8.2.3 Pläne und Strukturen des Verhaltens: ein kybernetisches Handlungsmodell Im Sommer 1959 treffen sich an der Stanford Universität in Palo Alto, Kalifornien, drei Psychologen, um eine Bestandsaufnahme und Synthese der bisherigen Entwicklung des informationstheoretischen kognitionspsychologischen Ansatzes zu versuchen: George A. MILLER, Eugene G ALANTER und Karl PRIBRAM . Alle drei besitzen ausgezeichnete Kontakte zur „Computerszene” um NEWELL, SHAW und SIMON und kennen deren neueste Entwicklungen. Aus der Zusammenarbeit der Drei entsteht eines der richtungweisenden Werke der kognitivistischen Psychologie: „Plans and the Structure of Behavior” (deutsch: Strategien des Handelns: Pläne und Strukturen des Verhaltens) (MILLER, GALANTER & PRIBRAM , 1991, Orig. 1960). Dieses Buch ist einerseits die erste programmatische Schrift, die eine systematische Abrechnung mit dem „gegnerischen Lager” (a.a.O.; S. 18) der Behavioristen versucht, andererseits legt es die konzeptionellen Grundlagen sowohl für eine empirisch ausgerichtete kognitivistische Handlungstheorie und -forschung als auch für viele kognitivistische Konstrukte wie „Selbstbild und Selbstkonzept”, „Einstellung” oder „Motiv”, die schon wenig später zu großen Forschungsprogrammen führen werden. (1) Angriffe auf den Behaviorismus a) Die neue Programmatik: Wissen und aktives Handeln statt reaktives Verhalten „Wenn ich an meinem Schreibtisch sitze, weiß ich, wo ich bin. ... Auch wenn ich nicht hinblicke, weiß ich, daß hinter meinem Rücken ein Fenster ist und dahinter der Campus ... ; weiter zurück liegen die Küstenhügel und dahinter der Pazifik.” (M ILLER, GALANTER & PRIBRAM, 1991, Orig. 1960; S. 11) Mit dieser programmatischen Erinnerung an eine von den Behavioristen konzeptuell nicht erfaßbare subjektive menschliche Elementarerfahrung beginnen MILLER, GALANTER und PRIBRAM ihr Buch. Sie beschließen in informationstheoretischer Manier, endlich „zwischen den Reiz und die Reaktion etwas Weisheit einzuschieben” (a.a.O.; S. 12). Aber sie gehen noch einen Schritt weiter: Nach ihrer Ansicht haben die „kognitiven Wissenschaftler” sich zwar bisher ausführlich mit Wahrnehmung, Aufmerksamkeit und Informationsverarbeitung beschäftigt, der Handlungs- und Verhaltensaspekt ist dabei jedoch weitgehend unberücksichtigt geblieben: „ ... die kognitiven Wissenschaftler ... beschrieben uns einen Organismus, der im Drama des Lebens mehr die Rolle eines Zuschauers als eines Teilnehmers hat.” (a.a.O.; S. 12) Nun ist gerade dieser bisher gemiedene Bereich des Verhaltens zu jener Zeit ohne Zweifel die Domäne der behavioristischen Psychologen, und genau auf deren Kernannahmen zielen die ersten Argumente des Buches. b) Kritik am Modell des Reflexbogens Der für die gesamte behavioristische Theoriebildung grundlegende physiologische Begriff des Reflexbogens aus Reiz - Rezeptor - afferente Nerven - Nervenfasern - efferente Nerven - Effektor - Reaktion müsse, so MILLER, GALANTER und PRIBRAM , als ein Mythos angesehen werden, und, wohl in Anspielung auf SKINNERs Formulierungen (vgl. auch oben, Kapitel 6) erklären sie: „Einen Behavioristen, der behauptet, der Reflex sei eine Tatsache, kann man ignorieren” (a.a.O.; S. 29/30) Schließlich habe SHERRINGTO N schon 1906 darauf hingewiesen, daß der einfache Reflex lediglich eine „nützliche Fiktion” sei, nützlich zur Erklärung von Vorgängen an Rückenmarkspräparaten. Günter Sämmer: Paradigmen der Psychologie - 273 - Kapitel 8: Kognitivismus c) Die Konstruktivistische Grundposition Die große Sympathie, die man für SHERINGTONs Formulierung von einer Theorie als „nützlicher Fiktion“ empfindet, deutet darauf hin, daß man sich im „neuen Paradigma” nicht nur in einer anderen Gegenstandswelt bewegt, man scheint auch gewillt, die dem Empirismus nahestehenden wissenschafts- und erkenntnistheoretischen Grundanschauungen der Behavioristen durch ein alternatives Denken zu „dekonstruieren”: Während Behavioristen wie SKINNER gewohnt sind, von „Beobachtungen” und den dabei registrierten „Tatsachen” zu sprechen, beginnen MILLER, GALANTER und P RIBRAM auf wissenschaftstheoretischer Ebene das für den Kognitivismus der Zukunft typische konstruktivistisches Sprachspiel: Sie „nehmen an” und machen hypothetisch und modellhaft „Vorschläge”: „Nicht mehr den Reflex, sondern den Rückkopplungskreis wollen wir als Grundelement des Verhaltens ansehen” (a.a.O.; S. 34); und sie rekurrieren auf die pragmatischen Aspekte der „Nützlichkeit” statt auf die Wahrheit von Theorien: „Es gibt durchaus Gründe zu der Annahme, daß die Brauchbarkeit der Reflexeinheit weitgehend überschätzt wurde” (a.a.O.; S. 30). d) Spontane Aktivitäten des Nervensystems in Rückkopplungsprozessen Auf der inhaltlichen Ebene argumentieren MILLER, GALANTER und PRIBRAM gegen eine der zentralen behavioristischen Modellvorstellung: Das Modell des Reflexbogens sei nämlich inzwischen gänzlich inadäquat, also zur Erklärung neuer physiologischer Erkenntnisse kaum noch brauchbar, denn • jedes Nerven- und Rezeptorgewebe sei nicht nur reaktiv, sondern auch spontan aktiv; • die nervöse Weiterleitung von Erregungen sei keine einfache elektrische Übertragung, sondern beruhe auf dem Vorhandensein strukturierter „Signalbilder”, die auf Neuronenebene „erkannt” und ausgewertet werden müssen; • die Aktivierung von Effektoren (zur Erzeugung einer muskulären Reaktion) erfolge immer erst nach Prüfung des vorliegenden Erregungspotentials; kurz: • Effektoren und damit die muskulären Reaktionen setzen sich erst in Gang aufgrund komplexer rückgekoppelter informationsverarbeitender Prozesse auf neuronaler Ebene (und nicht aufgrund der einfachen linearen „Weiterleitung” von Nervenimpulsen vom Anfang eines Reflexbogens bis zu seinem Ende). (vgl. a.a.O.; S. 31ff) (2) Die TOTE-Einheit als kybernetisches Gegenmodell a) Die neue Elementareinheit: TOTE MILLER, GALANTER und PRIBRAM schlagen deshalb vor, die (behavioristische) Grundeinheit des Verhaltens, den Reflexbogen, zu ersetzen durch eine kybernetische Steuerungseinheit, die TOTEEinheit (vgl. Abb. 8.6): Abb. 8.6: Die TOTE-Einheit, bestehend aus dem kybernetischen Regelkreis: Prüfphase (Test) - Handlungsphase (Operate) - Prüfphase (Test) - Ende der Handlung (Exit) (aus: M ILLER, GALANTER & PRIBRAM (1991; ORIG. 1960; S. 34) Günter Sämmer: Paradigmen der Psychologie - 274 - Kapitel 8: Kognitivismus Sowohl auf der Ebene des Nervensystems als auch im Bereich makroskopischer Handlungen sollen die Grundelemente des Verhaltens folgendermaßen interpretiert werden: Ein Individuum oder auch ein Teilbereich seines Nervensystem gerät in eine Situation, in der es eine Inkongruenz zwischen dem vorliegenden Ist-Zustand und einem Soll-Zustand feststellt (Prüfphase - Test). Es führt nun eine geeignete Veränderung durch (Operate - Handlungsphase) und kontrolliert in einem erneuten Test, ob nun der Sollzustand erreicht ist. Diese „Schleife” wird solange durchlaufen, bis dies endlich der Fall ist, dann kommt die Handlung zum Stillstand (Exit). b) Die hierarchische Struktur der Informationsverarbeitung MILLER, GALANTER und PRIBRAM stellen sich nun vor, daß das gesamte Verhalten bzw. Handeln des Menschen auf diese Weise hierarchisch aus („molekularen”) neuronalen Prozessen abgeleitet werden kann. Abb. 8.7: Der hierarchische Plan für das Nageleinschlagen (M ILLER, GALANTER & PRIBRAM, 1991; Orig. 1960; S. 42) Umgekehrt kann auch jegliches makroskopische („molare”) Verhalten als TOTE-Einheit interpretiert und in beliebig kleine Untereinheiten „kleingearbeitet” werden. (Ein Modell, das GARDNER (1992) als „Flirt mit dem Reduktionismus” bezeichnet, und das die Kognitivisten in dieser Grundidee mit den Behavioristen verbindet.) An einem Alltagsbeispiel wird dies illustriert (vgl. Abb. 8.7): Der Gesamtvorgang des „Nageleinschlagens” (obere Hierarchiestufe) besteht aus der Prüfung des Nagels (ob er noch hervorschaut) und dem Hämmern als Handlungseinheit, welches solange fortgesetzt wird, wie die Prüfung Inkongruenz anzeigt. Der Vorgang des Hämmerns wiederum ist in (mindestens) zwei weitere TOTE-Einheiten der zweiten Hierarchiestufe zerlegt: „Anheben des Hammers” und „Zuschlagen”. Und auch diese ließen sich in weitere Teileinheiten zerlegen (dritte Hierarchiestufe), z.B.: „Anheben” in „Muskeln von Arm und Hand anspannen” (solange der Hammer ganz unten ist) und: „Muskeln von Arm und Hand entspannen” (sobald der Hammer den Scheitelpunkt erreicht). 8.2.4 Grundelemente des kognitivistischen Sprachspiels (1) Die Äquivalenzthese: Psychische Prozesse als Phänomene der Informationsverarbeitung Der neue informationstheoretisch-kybernetische Ansatz ermöglicht es (endlich), mentale Prozesse auf dem Hintergrund naturwissenschaftlicher Modellbildung zu untersuchen. Solange man in der Theoriebildung (im weitesten Sinne) in Termen der Informationsverarbeitung spricht, solange bewegt man sich auf festem, nicht-subjektivistischem und nicht-metaphysischem Boden. Günter Sämmer: Paradigmen der Psychologie - 275 - Kapitel 8: Kognitivismus Das grundlegende Bild vom Menschen ist das eines aktiven, durch Wahrnehmung, Denken, Planung und Handlung selbstregulierten Informationsverarbeitungssystems. Alle psychischen Prozesse (auch Gefühle, Werturteile und Motive) lassen sich aus der Perspektive der Informationsverarbeitung interpretieren. Kognitionen können betrachtet werden als eine Art „inneren Rechnens” mit repräsentierenden Symbolen („Symbol-System-Postulat” und „Äquivalenzthese”) (vgl. Newell & Simon, 1976 bzw. Fodor & Pylyshyn, 1988). (2) Aus Wahrnehmung, Gedächtnis, Denken wird „Informationsverarbeitung” a) Repräsentationen Analog zum Computer ist das menschliche Gehirn in der Lage, Wissen aufzunehmen, zu organisieren und zu speichern. Es bedient sich dabei „mentaler Repräsentationen”, also Abbildungen (nicht im Sinne der bildlichen, analogen Ähnlichkeit, sondern im Sinne mathematischer Zuordnung) von Gegebenheiten im Nervensystem. Dabei kann es sich sowohl um beobachtbare Sachverhalte der Außenwelt handeln, als auch um überindividuelle Gebilde, historisch-kulturelle Makrophänomene wie „die Sprache”, „das Recht” oder „die Wissenschaft”. Besonders wichtig ist aber auch die Repräsentation mentaler Sachverhalte selber: das Wissen um das eigene Wissen, die Disponibilität von Steuerungsfunktionen („Ich könnte nun dies tun oder dies ... „) usw. (vgl. HERRMANN, 1989). b) Organisiertes Wissen In den Speicher- und Filtermodellen sind die Speicherinhalte als organisiertes „Wissen” interpretierbar. Innerhalb einer TOTE-Einheit benötigen sowohl die Prüfeinheit als auch die Handlungseinheit Informationen, die das Individuum gespeichert bereithalten muß: Für die Prüfung sind sowohl Wahrnehmungsstrukturen (Schemata) als auch Prüfmaßstäbe und -normen erforderlich, für den Handlungsteil müssen ganze Ablaufalgorithmen gespeichert sein. Insgesamt erfordert der erfolgreiche Ablauf einer TOTEEinheit „Wissen”, also ein „Bild” der Welt. NEISSER (1974, Original 1967) nimmt im ersten Lehrbuch der „Kognitiven Psychologie“ eine entsprechende Neudefinition für den Begriff der Kognition vor: „In der hier benutzten Bedeutung meint der Begriff Kognition all jene Prozesse, durch die der sensorische Input umgesetzt, reduziert, weiter verarbeitet, gespeichert, wieder hervorgeholt und schließlich benutzt wird. Er meint diese Prozesse auch dann, wenn sie ohne das Vorhandensein entsprechender Stimulation verlaufen wie bei Vorstellungen und Halluzinationen. Begriffe wie Empfindung, Wahrnehmung, Vorstellung, Behalten, Erinnerung, Problemlösen und Denken nebst vielen anderen beziehen sich auf hypothetische Stadien oder Aspekte der Kognition. (a.a.O.; S. 19) (3) Aus reaktivem Verhalten wird intentionales „Handeln” Die Erfindung intelligenter teleologischer Maschinen hat nun die Experimentalpsychologen davon überzeugt, „daß in Begriffen wie 'Ziel', 'Absicht ', 'Erwartung', 'Entelechie ' nicht etwas Okkultes eingeschlossen ist”. (MILLER, GALANTER & PRIBRAM , 1991, Orig. 1960; S. 49): Verhalten kann nämlich nun beschrieben werden als eine hierarchisch strukturierte Folge von Instruktionen, die ein Organismus in einer festgelegten Reihenfolge ausführt. Diese Instruktionenfolge entspricht beim Computer dem Programm, das die einzelnen Prozesse des Vergleichs und der Veränderung von Daten steuert. Wie jedes Computerprogramm auf ein Ziel ausgerichtet ist, nach dessen Erreichen es „abgelaufen” ist, so ist auch das menschliche Verhalten zielorientiert, und man kann, ohne animistische Konzepte zu benutzen und ohne zu „anthropomophisieren” sagen, dem nach TOTE-Einheiten organisierten Verhalten liege ein zielgerichteter Ablaufplan zugrunde. Die Begriffe „Plan”, „Absicht”, „Vorsatz” und „Intention” bezeichnen damit lediglich besondere Aspekte solcher Steuerungsfunktionen. Um die nach ihrer Ansicht im Begriff des Handelns mitschwingenden metaphysischen und subjektivistischen Aspekte zu eliminieren, hatten Behavioristen sich angewöhnt, in bezug auf individuelle Aktivitäten grundsätzlich nur noch von „Verhalten” zu sprechen. Nun ist aber Intentionalität wieder wissenschaftlich Günter Sämmer: Paradigmen der Psychologie - 276 - Kapitel 8: Kognitivismus „salonfähig” geworden. Und so ist es auch erlaubt - und wird von späteren Autoren gar gefordert (vgl. V. CRANACH u.a., 1980) - von Handlungen zu sprechen, um intendierte Aktivitäten von reaktiven Aktivitäten, also von „Verhalten” im behavioristischen Sinne zu unterscheiden. (4) Motivation als grundlegende „Systemeigenschaft” Eine Neukonzeptualisierung des Motivationsbegriffes geschieht dadurch, daß angenommen wird, der sei Mensch ein homöostatisches, „Inkongruenz-empfindliches” System, mit dem Ziel, sich durch seine Handlungen inneren und äußeren Bedingungen anzupassen. Dazu MILLER, GALANTER und PRIBRAM (1991, Orig. 1960; S. 65): „Die allem zugrunde liegende Banalität ist natürlich die, daß ein biologischer Apparat, wenn er einmal angelaufen ist, Tag und Nacht weiterläuft, bis er stirbt. Der dynamische 'Motor ', der unser Verhalten ... vorantreibt, ist weder in unseren Absichten noch in unseren Plänen oder in unseren Entscheidungen lokalisiert, sondern in der Natur des Lebens selbst.” und: „Pläne werden ausgeführt, weil die Menschen leben.” (a.a.O.; S. 63) Die Beseitigung von Inkongruenzen ist damit nicht Folge zeitweiliger, z.B. triebbedingter Mangelzustände, sondern sie ist ein selbstverständlicher, niemals endender Prozeß; die Beseitigung von Inkongruenzen ist Ausdruck des Lebens selber. Auch hier spielt natürlich die Informationsverarbeitung eine zentrale Rolle, z.B.: die Vorwegnahme von Folgen, die Einschätzung von Erfolgsaussichten und eigenen Fähigkeiten, das Wissen um soziale Maßstäbe, das Abwägen von Wahrscheinlichkeiten. (5) Zwei Ebenen des kognitivistischen Sprachspiels Das kognitivistische Sprachspiel bewegt sich zwar am Anfang vor allem auf einer rein „molekularen” Ebene um streng quantitativ-mathematische Terme der Informationstheorie wie „Bit”, „Kanalkapazität” oder „Redundanz”. Es wird aber schon bald liberalisiert und um „molare” psychologische Begriffe erweitert, z.B. „selbstbezogene Informationen”, „Einstellungen” oder „Attributionen”. So wird in den folgenden Jahren auf dem Hintergrund der oben skizzierten Grundmodelle der Informationsaufnahme und -speicherung sowie der aktiven Handlungsregulation eine große Zahl von alten, unter behavioristischer Vorherrschaft bisher „verpönten” psychologischen Begriffen uminterpretiert und damit neu konzeptuiert. Insgesamt lassen sich bis heute zwei Ebenen des kognitivistischen Sprachspiels unterscheiden, die bei der Formulierung konkreter Theorien allerdings nicht immer sauber voneinander getrennt werden („Akteur-System-Kontamination”) (vgl. HERRMANN, 1982): • Die Ebene der Systeminterpretation: Psychische Phänomene werden als Vorgänge in einem symbolund informationsverarbeitenden System interpretiert (z.B.: „Input”, „Output”, „Speicher”, „Sollwert”, „Regelkreis”). • Die Ebene der Handlungsinterpretation: Psychische Phänomene werden als innere oder äußere Aktionen von autonomen Handlungssubjekten interpretiert (z.B.: „Interpretation”, „Zielsetzung”, „Erfahrung”, „Handlung”). In beiden Fällen handelt es sich, so HERRMANN, um zwei verschiedene Modelle desselben Originals, denen gemeinsame kognitivistische Kernannahmen zugrunde liegen, so daß beide Modelle kompatibel sind. (Das unten vorgestellte „paradigmatische Subsumptionsmodell” des Kognitivismus kann als ein möglicher Annahmekern angesehen werden, der diese Kompatibilität herstellt). Seit Ende der 50er Jahre entsteht so in der Psychologie eine wachsende Tendenz, psychische Phänomene bevorzugt durch kognitive Variable zu erklären und vorherzusagen (vgl. ULICH, 1989; S. 103). Diese führt immer mehr dazu, daß die gesamte Psychologie neudefiniert wird als die Untersuchung von Kognition (vgl. KESSEN , 1981); und Mitte der 90er Jahre stellen GRABITZ und HAMMERL fest: „Kognition, das schwächliche Kind der 50er Jahre, ist zu einem unersättlichen Giganten geworden.” (GRABITZ & HAMMERL, 1995; S. 304) Günter Sämmer: Paradigmen der Psychologie 8.3 - 277 - Kapitel 8: Kognitivismus Kognitivistische Forschungsprogramme der Allgemeinen Psychologie Aufbauend auf den oben beschriebenen Grundprinzipien, den ersten initialen Arbeiten, sollen nun exemplarisch zwei kognitivistische Forschungsprogramme vorgestellt werden, die in der Regel der Allgemeinen Psychologie zugerechnet werden. Es handelt sich einerseits um die Weiterentwicklung der „typisch kognitivistischen” Wahrnehmungs- und Gedächtnispsychologie, andererseits um ein Forschungsprogramm, das exemplarisch zeigt, wie sich die kognitivistische Forschung und Konzeptbildung in Bereiche ausbreitet, die bisher kaum als „kognitiv” angesehen wurden: die Emotionsforschung. 8.3.1 Wahrnehmung - Aufmerksamkeit - Gedächtnis in Informationsfluß-Modellen Natürlich stehen die grundlegenden Prozesse der Informationsaufnahme zunächst im Zentrum der Forschung nach dem neuen „Informationsverarbeitungsansatz”. Das von BROADBENT vorgelegte Informationsfluß- und Filter-Modell (vgl. BROADBENT, 1958; s.o. Abschnitt 8.2.2) wird zum Prototyp immer weiter elaborierter Modelle, die immer mehr empirische Arbeiten integrieren. Die wichtigsten Schritte dieser Entwicklung bis in die frühen 70er Jahre sollen nun skizziert werden. T REISMANNs Filter-Amplituden-Theorie Nach der Veröffentlichung von BROADBENTs Filtermodell tauchen sehr bald Zweifel an seiner Stimmigkeit auf. Kristallisationspunkt der Kritik sind Experimente, die zeigen, daß die Selektion von Informationen aus unberücksichtigten Kanälen keineswegs als ein „Ausschalten” oder „Unterdrücken” zu interpretieren ist: • So hatte z.B. MORRAY (1959) bei Experimenten des „begleitenden Nachsprechens” gefunden, daß mit dem „unterdrückten” Ohr doch Informationen aufgenommen werden, z.B. wenn der dort gesprochene Text den Namen der Versuchsperson enthält („Cocktailparty- Phänomen”). • T REISMAN (1960) hatte, ebenfalls beim begleitenden Nachsprechen festgestellt, daß Versuchspersonen beginnen, den nachzusprechenden mit dem anderen Text zu kreuzen, wenn beide Texte sich in Bedeutungseinheiten überschneiden. So machten die Vpn aus Text 1 (nachzusprechen): Sitting at a mahagony / three possibilities Text 2 (gleichzeitig in anderes Ohr eingespielt): Let us look at these / table with her head den tatsächlich nachgesprochenen Text: Sitting at a mahagony table... Beide Experimente zeigen, daß der zu vernachlässigende Text offensichtlich dennoch registriert und sogar inhaltlich ausgewertet wird. T REISMANN interpretiert dies nun dahingehend, daß der BROADBENTsche Filter die jeweiligen Kanäle nicht „abschaltet”, sondern nur in ihrer Intensität (Amplitude) herabsetzt, so daß Teile der von ihnen transportierten Informationen noch auswertbar bleiben. (1) NEISSERs konstruktive Theorie der Aufmerksamkeit: das Modell der „Analyse durch Synthese” NEISSER (1974, Orig. 1967) hält dem nun entgegen, daß die nicht beachteten Informationen (auf der Cocktailparty das Hintergrundgespräch - beim begleiteten Nachsprechen der Text auf dem unbeachteten Ohr) keineswegs leiser erscheinen. Vor allem aber seien es keine physikalischen, sondern vorrangig inhaltliche Kriterien, aufgrund derer sich eine unbeachtete Quelle in den Vordergrund schiebt. Günter Sämmer: Paradigmen der Psychologie - 278 - Kapitel 8: Kognitivismus Aus diesem Grund schlägt NEISSER ein zweistufiges Modell vor, dessen erste Stufe etwa dem BROADBENT-TREISMANNschen Filtermodell entspricht, das auf einer zweiten Stufe aber wesentliche konstruktiv-synthetische Prozesse vollzieht, die zu einer inhaltlichen Erschließung des Wahrgenommenen führen: Das Prinzip der Analyse durch Synthese übernimmt NEISSER von den Computerwissenschaftlern um EDEN u.a. (vgl. z.B. EDEN & HALLE , 1961), die es in einem Programm zur maschinellen Handschrifterkennung verwendet hatten: Da eine reine Strukturanalyse der Linienführung bei handschriftlichen Buchstaben nicht zum Ziel führte, entwickelten EDEN u.a. eine Analysemethode, die mehrere synthetisierende Arbeitsschritte enthielt. So werden vom Computer mögliche Buchstaben, typische Silben bis hin zu ganzen Wörtern als „Hypothesen” gespeichert, die beim Erkennungsprozeß mit den vorgefundenen Strukturen verglichen werden können. Abb. 8.8: Mustererkennung als analytischer und synthetischer Prozeß (Grafik aus ANDERSON (1989; S. 68) Trifft das Programm auf einen unidentifizierbaren Buchstaben, wie etwa die jeweils mittleren Buchstaben in Abb. 8.8, so führt offensichtlich eine Strukturanalyse der Details des Einzelbuchstabens nicht weiter, da das „A” des ersten Wortes dieselbe Struktur besitzt wie das „H” des zweiten. In dieser Situation schaltet das Programm dann einen Syntheseprozeß ein: Es faßt mehrere Elemente des Kontextes versuchsweise zu einer Silbe oder zu einem ganzen Wort zusammen und sucht in seinem Speicher nach passenden Vorgaben („Hypothesenprüfung”). In Abb. 8.8 würde so „DAS” als sinnvolle Hypothese bestätigt, während DHS oder DRS als eine im Deutschen nicht vorkommende Silbe verworfen würde. Der mittlere Buchstabe des ersten Wortes wäre damit als „A” identifiziert. Dagegen würde die Kontextanalyse und die entsprechende Hypothesenprüfung den strukturell identischen mittleren Buchstaben des zweiten Wortes als „H” erkennen, weil „OHR” ein sinnvolles Wort ergibt, OAR (im Deutschen) dagegen nicht. An diesen Algorithmus der maschinellen Buchstaben- und Mustererkennung lehnt NEISSER nun sein Modell der Analyse durch Synthese an (vgl. NEISSER, 1974, Orig. 1967): Eine durch die Sinnesorgane einlaufende Reizkonstellation wird in zwei aufeinanderfolgenden Schritten analysiert und entschlüsselt: 1. Präattentive Prozesse: In einem ersten, recht groben passiven Analysemechanismus werden die Reize zu Einheiten gegliedert und als Strukturen von anderen abgetrennt. Bei akkustischen Reizen werden z.B. Lokalisationen vorgenommen, und die Töne werden nach Intensität oder Qualität eingestuft. Optische Reize werden z.B. nach räumlichen, farblichen oder Helligkeitsmerkmalen geordnet. In Abb. 8.8 würde auf diese Weise der Gesamtreiz zunächst in noch unidentifizierte Strukturen wie „Einzelbuchstaben” oder „Wörter” zerlegt. Bis hierher entspricht das Modell der BROADBENT-TREISMANNschen Filtertheorie. 2. Analyse durch Synthese: Das kognitive System nimmt sich nun in einem zweiten Schritt einzelne Strukturteile aus der ersten Stufe vor und versucht, in einem konstruktiven Prozeß Hypothesen zu synthetisieren und zu prüfen. „Sinnvolle” Interpretationen sind dann solche, zu denen sich auf dem Hintergrund bisheriger Erfahrungen Hypothesen finden und bestätigen lassen. Dieser Prozeß, so NEISSER, ist der eigentliche Mechanismus der Aufmerksamkeit. Informationen aus dem ersten Analyseschritt, die in der Analyse durch Synthese keine sinnvolle Interpretation erfahren können, gehen endgültig verloren. (2) Die Zwei-Komponenten-Theorie des Gedächtnisses und der Aufmerksamkeit a) Das Experiment von SPERLING SPERLING (1960) bietet seinen Versuchspersonen tachistoskopisch (z.B. 1/20 Sekunde) Buchstabenkonstellationen wie die folgende dar: Günter Sämmer: Paradigmen der Psychologie - 279 - Kapitel 8: Kognitivismus D J B X H G C L Y Abb. 8.9: Reizvorlage im Experiment von SPERLING (1960) Die Vpn sollen jeweils vers uchen, möglichst viele der gesehenen Buchstaben wiederzugeben. Das Ergebnis ist eine durchschnittliche Reproduktionsleistung von vier Buchstaben. Dann jedoch kommt es zu einer entscheidenden Veränderung der Demonstrationsbedingungen: Unmittelbar nach dem Verlöschen der Buchstaben wird ein akustisches Signal gegeben, das die Buchstabenreihe kennzeichnet, die reproduziert werden soll: ein hoher Ton für die obere Reihe, ein mittel hoher für die mittlere, ein tiefer für die untere. Es zeigt sich nun, daß fast alle Vpn die jeweils angezeigte Reihe vollständig reproduzieren können, egal, welche Reihe gekennzeichnet wurde. Dies erklärt Sperling damit, daß die einlaufende Information zunächst beinahe vollständig in einem „sensorischen Speicher” festgehalten werden muß. Dieser Speicher ist allerdings äußerst empfindlich gegen Störungen und wird auch sehr schnell wieder gelöscht: Verzögert sich das Signal zur Kennzeichnung der wiederzugebenden Buchstabenreihe, so werden immer weniger Buchstaben korrekt reproduziert. Nach etwa einer Sekunde ist die Behaltensleistung dann nicht mehr besser als im Ausgangsversuch ohne Signal (vgl. Abb. 8.10). Abb. 8.10: Behaltensleistung in Abhängigkeit von der Verzögerung des Signals im Experiment von SPERLING (Z IMBARDO, 1992; S. 272) b) BOUSFIELD und COHENS Gedächtnisexperiment zum „Clustering” In den von MILLER (1956) systematisierten Untersuchungen behielten die Versuchspersonen die berühmten „7 plus oder minus 2” Informationsblöcke nur einige Sekunden lang. Wie ist es nun möglich, mehr Informationen länger im Gedächtnis zu behalten? Einen möglichen Mechanismus beschreiben BOUSFIELD und COHEN (1955): Sie lassen ihre Versuchspersonen eine ungeordnete Menge verschiedener Begriffe lernen, und es zeigt sich, daß mehr Begriffe deutlich länger behalten werden, wenn sie nach Kategorien geordnet sind, bzw. Günter Sämmer: Paradigmen der Psychologie - 280 - Kapitel 8: Kognitivismus von den Versuchspersonen beim Lernen geordnet werden (clustering), als wenn sie in der gegebenen zufälligen Reihenfolge gelernt werden. Der Prozeß des hierarchischen Strukturierens bei der Informationsaufnahme ist ein Beispiel dafür, wie Informationen durch eine „Weiterverarbeitung” auf einer höheren Ebene langfristiger gespeichert werden können. Solche und viele weitere Gedächtnisexperimente führen dazu, daß die kognitivistischen Modellvorstellungen des Gedächtnisses, der Wahrnehmung und der Aufmerksamkeit immer weiter elaboriert werden. Eine weitere wichtige Station in der Evolution solcher Modelle bildet die Zwei-Komponenten-Theorie von ATKINSON und SHIFFRIN (1968). Sie veröffentlichen ihr Modell unter einem Titel, der sowohl das kognitivistische Programm als auch dessen hypothetische Methode verrät: Human memory: A proposed system and its control processes. Dazu kommen die Arbeiten und Modellvorschläge T ULVINGs bezüglich des Langzeitgedächtnisses (vgl. TULVING, 1972). Beide Modellerweiterungen sind in dem Flußdiagramm Abb. 8.11 enthalten, das auf ZIMBARDO (1992) zurückgeht. Kernbestandteile des Modells sind drei Gedächtnisbereiche: das sensorische Register, das Kurzzeitgedächtnis (KZG) und das Langzeitgedächtnis (LZG), auf deren Inhalte unterschiedliche Informationsverarbeitungsprozesse angewendet werden, und zwischen denen Informationen ausgetauscht werden. Seine Funktion kann man sich in folgender Weise vorstellen: 1. Sensorisches Register: Es speichert sehr kurz (für ca. 0,5 - 2 Sekunden) unkodiert weitgehend alle Sinnesdaten (SPERLING, 1960) und übergibt diese einem Filter, der • nach bestimmten Merkmalen selektiert (CHERRY 1953, BROADBENT, 1954, TREISMANN, 1960) • eine erste Mustererkennung vornimmt im Sinne „präattentiver Prozesse” (vgl. NEISSER, 1974; Orig. 1967) und • eine Informationsbündelung durchführt im Sinne des „chunking” (MILLER, 1957). In dieser Weise vorverarbeitet, gelangen die Informationen in einen Kurzzeitspeicher. Abb. 8.11: Flußdiagramm eines hypothetischen Gedächtnissystems - Stand: frühe 70er Jahre (nach Z IMBARDO, 1992) 2. Kurzzeitgedächtnis: Hier können für ca. 20 Sekunden 7±2 Chunks (MILLER, 1957) zwischengespeichert werden. Informationen sind nun aufgrund der ersten Vorkodierung akustisch, visuell oder semantisch repräsentiert. Das KZG hat die Form eines 7-stelligen Registers, das sukzessive gelöscht wird, wenn neue Informationen „hineindrängen” (ATKINSON & SHIFFRIN, 1968). Eine Löschung kann aber auch aufgrund von Interferenzen oder allein durch Verstreichen von Zeit geschehen. Inhalte des KZG bleiben erhalten, wenn einer der beiden folgenden Prozesse stattfindet: • Einfaches „erhaltendes Wiederholen”, z.B. sich selber immer wieder „vorsagen”, führt die Informationen wieder in das KZG zurück (BROADBENT, 1958); oder Günter Sämmer: Paradigmen der Psychologie • - 281 - Kapitel 8: Kognitivismus „Elaborieren”, z.B. durch Neuordnung, Kategorisierung, Anbinden an vorhandene Informationen, führt Inhalte des KZG über in den Langzeitspeicher (LZG) (BOUSFIELD & COHEN , 1955). 3. Langzeitgedächtnis: Die Speicherung im LZG geschieht aufgrund hoher Grade von Vernetzung, wenn Informationen gut elaboriert und als bedeutungstragend identifiziert sind. „Bedeutung” entsteht als „top down”-Prozeß durch Anbinden an schon vorhandene Inhalte des LZG. Die Inhalte dieses Speichers von beinahe unbegrenzter Kapazität und beinahe unbegrenzter Haltbarkeit sind hoch strukturiert, z.B. in Form „semantischer Netzwerke”. Als Repräsentationsformen werden hier, ähnlich der Unterscheidung nach „Programmen” und „Daten” beim Computer, zwei verschiedene Grundtypen angenommen: „prozedurales” und „deklaratives” Wissen (vgl. TULVING, 1972). Prozedurale Informationen beziehen sich auf Fertigkeiten und Handlungen, deklarative Informationen auf „Inhalte”. Beim deklarativen Wissen unterscheidet T ULVING noch einmal die „semantischen” Gedächtnisinhalte, also das symbolisch repräsentierte Wissen um Kategorien und Begriffsbedeutungen und das „episodische“ Wissen um autobiographische Informationen und raum-zeitliche und kontextbezogene Ereignisse. Auch im LZG kommt „Vergessen” vor, z.B. aufgrund von unangemessener Kodierung, Interferenzen oder motivationaler Einflüsse („motiviertes Vergessen”). 8.3.2 Emotion und Kognition: Ansätze zu einer kognitivistischen Emotionstheorie Entsprechend ihrem Programm betrachten kognitivistische Psychologen auch im Bereich menschlicher Emotionen vor allem die Informationsverarbeitungsprozesse, die diesen zugrunde liegen. Die erste einflußreiche Arbeit, die Hinweise liefert auf die zentrale Rolle der Kognitionen bei der Entstehung von Emotionen, ist das Experiment von SCHACHTER und SINGER mit seinen theoretischen Implikationen (vgl. SCHACHTER & SINGER, 1962): Das Experiment von SCHACHTER und SINGER: Allen Versuchspersonen wird in der Ausschreibung für das Experiment mitgeteilt, es handele sich um eine Untersuchung des Einflusses, den das Vitaminpräparat „Suproxin” auf das Sehvermögen habe. In Wirklichkeit wird zum Beginn des Experiments den Vpn Epinephrin gespritzt, ein Adrenalin-ähnliches Präparat, das Symptome wie Herzklopfen, Zittern, Erröten und beschleunigtes Atmen auslöst; nur eine Kontrollgruppe erhält als Placebo eine Salzlösung injiziert. Durch unterschiedliche Vorinformationen über die Wirkung des injizierten Präparates werden nun drei Versuchsgruppen gebildet, die bezüglich der Wirkung des Präparats unterschiedliche Erwartungen und Erklärungen haben werden: Eine Gruppe wird wahrheitsgemäß über die tatsächlichen Nebenwirkungen informiert, einer zweiten wird, ebenso wie der Placebo-Gruppe, gesagt, das Präparat sei harmlos und habe keine Nebeneffekte, und eine dritte Gruppe erhält die falsche Information, das Präparat rufe Jucken oder Kopfschmerzen hervor. Alle Gruppen werden dann folgenden Situationen ausgesetzt: Unter dem Vorwand, auf das „Experiment” (zum Sehvermögen) zu warten, werden die Vpn in einen Nebenraum gebeten. In diesem befindet sich eine Person (ein Mitarbeiter der Versuchsleiter), die bestimmte emotionale Verhaltensweisen zeigt: Bei einem Teil der Vpn ist die Person fröhlich und witzig, sie wirft mit Papierkügelchen und läßt Papierflugzeuge fliegen, bei den anderen zeigt sich die Person wütend, macht ärgerliche Äußerungen über die Versuchsleiter und schimpft. Alle Versuchspersonen werden von mehreren Beobachtern durch einen Einwegspiegel beobachtet, außerdem beantworten sie nachher einen Fragebogen über ihre Stimmungslage während des Experiments. Günter Sämmer: Paradigmen der Psychologie - 282 - Kapitel 8: Kognitivismus Vorinformationen der Versuchspersonen: Komplize des Vl war: richtige Nebenwirkun- keine Nebenwirkungen falsche Nebenwirkungen gen (1) (2) (3) keine Nebenw. (PlaceboGruppe) (4) wütend kein Einfluß Vp wütend Vp wütend Vp etwas wütend fröhlich kein Einfluß Vp fröhlich Vp fröhlich Vp etwas fröhlich Tab. 8.1: Schematische Darstellung der Ergebnisse im Experiment von SCHACHTER und SINGER (1962) Interpretation der Ergebnisse: Geht man davon aus, daß alle Vpn, die Epinephrin erhalten hatten (also die Gruppen 1 bis 3), in der Experimentalsituation auch die entsprechenden Nebenwirkungen verspürt haben, so hatte nur Gruppe 1 eine brauchbare Erklärung für diese Symptome. Die Gruppen 2 und 3 hingegen mußten sich für ihre unspezifischen physiologischen Erregungsreaktionen Erklärungen suchen. Sie nahmen die Informationen hierfür aus dem situativen Kontext und interpretierten ihren Zustand durch Vergleich mit der anderen Person (dem Komplizen) als „wütend” oder „fröhlich”. Bis auf die Ergebnisse der Placebo-Gruppe (die an dieser Stelle nicht weiter diskutiert werden können) bestätigt das Experiment folgende theoretische Annahmen: Die Kernaussagen von SCHACHTERs Emotionstheorie • Befindet sich ein Individuum in einem unerklärten physiologischen Erregungszustand, so etikettiert es diesen Zustand entsprechend der ihm zur Verfügung stehenden Kognitionen. • Hat das Individuum hingegen eine plausible Erklärung, so entsteht keine Etikettierung. Insgesamt gilt also: • Die subjektive Empfindung einer Emotion ist das Resultat der Integration von Informationen aus zwei verschiedenen Quellen: 1. physiologischer Erregung und 2. kognitiver Prozesse (wie der Interpretation externer Reize und situativer Gegebenheiten). Beides sind notwendige Bedingungen. Während SCHACHTER noch annimmt, physiologische Erregung sei neben Kognitionen für das Zustandekommen von Emotionen konstitutiv, geht sein Schüler VALINS (1966) in der Bewertung der kognitiven Prozesse noch einen Schritt weiter: Das Experiment von VALINS: VALINS zeigt seinen männlichen Vpn Dias von attraktiven Aktmodellen, wobei er vorgibt, ihnen über Kopfhörer ihren eigenen Herzschlag einzuspielen. Dazu wird den Vpn ein Mikrophon an die Brust geheftet, das allerdings nicht in Funktion gesetzt wird. Über Kopfhörer wird ihnen dann ein Herzschlag vom Tonband vorgespielt, dessen Frequenz gezielt manipuliert werden kann. Bei verschiedenen, per Zufall ausgewählten Photos läßt VALINS den Vpn nun einen Herzschlag einspielen, dessen Frequenz nach oben manipuliert ist. Danach sollen die Vpn noch einmal alle Photos durchsehen und angeben, welche ihnen am besten gefallen hatten. Ergebnis: Die Vpn wählen vornehmlich solche Photos, bei denen der ihnen vorgespielte Herzschlag erhöht war. Interpretation: Nach VALINS' Auffassung ist eine tatsächliche physiologische Reaktion für das Zustandekommen einer Emotion nicht erforderlich. Es genügt völlig, wenn die Kognition einer solchen Reaktion als „scheinbare” Rückmeldung vorliegt. Die entstandene Emotion ist ein alleiniges Produkt von verschiedenen Kognitionen. Sowohl das Ausgangsexperiment von SCHACHTER und SINGER als auch das von VALINS führen zu einer großen Zahl von Folgeuntersuchungen, alle mit dem Ziel, die Rolle der Kognitionen bei der Entstehung Günter Sämmer: Paradigmen der Psychologie - 283 - Kapitel 8: Kognitivismus von Emotionen zu klären. Dabei entstehen so einflußreiche Theorien wie die von LAZARUS (1984), in der angenommen wird, daß die Entstehung von Emotionen abhängig ist von der kognitiven Bewertung bestimmter Person-Umwelt-Bezüge. Der Titel von LAZARUS' Aufsatz aus der Mitte der 80er Jahre zeigt die Bedeutung an, die man inzwischen bereit ist, auf dem Gebiet der Emotionspsychologie den Kognitionen einzuräumen: On the primacy of cognition (vgl. LAZARUS, 1984). 8.4 Einige kognitivistische Forschungsprogramme der Sozialpsychologie 8.4.1 Sozialpsychologie aus kognitivistischer Perspektive Auch der Problembereich der Sozialpsychologie wird unter kognitivistischer Perspektive neu rekonstruiert, so daß unter den neuen paradigmatischen Kernannahmen von Anfang an gilt, was GRAUMANN zu Beginn der 90er Jahre in einem Lehrbuch der Sozialpsychologie so formuliert: „Das (beobachtbare) soziale Verhalten ist heute von geringerem Interesse als dessen kognitive Repräsentation, die dem Verhalten vorausgeht (zum Beispiel als Planung), es begleitet (zum Beispiel als Kontrolle), oder ihm folgt (zum Beispiel als Erinnerung).” (GRAUMANN, 1992; S.17) Sozialpsychologie wird nun im wesentlichen aufgefaßt als soziale Informationsverarbeitung („social cognition”), und diese kann in dreierlei Weise als sozial gekennzeic hnet werden (vgl. LEYENS & CODOL, 1992): • Soziale Kognition kann aufgrund sozialer Interaktion entstehen, und kulturelle wie soziale Faktoren können auf die Prozesse der Informationsverarbeitung einwirken. • Soziale Kognition kann sich auf soziale Objekte beziehen: auf die eigene Person, auf andere Personen, auf imaginäre Personen oder auf Gruppen. • Soziale Kognition kann auch sozial geteilt sein; d.h. bestimmte mentale Rekonstruktionen der sozialen Lebenswelt unterliegen normativen und vereinheitlichenden sozialen Einflüssen. Religiöse Auffassungen, politische und soziale Ideologien, die Konzepte von Liebe und Tod, Gut und Böse bis hin zum „gesunden Menschenverstand” sind zu einem wesentlichen Teil innerhalb sozialer Kontexte definiert. Kognitivistische Sozialpsychologen beschäftigen sich infolge dessen bevorzugt mit Meinungen, Einstellungen, Stereotypen, Bewertungen, Attributionen und der Wirkung von Informationen auf persönliche Überzeugungen. Sie untersuchen die kognitiven Hintergründe und Bedingungen sozialen Handelns wie der Aggression, des prosozialen Verhaltens oder der Konfliktbewältigung. Und sie interessieren sich für die Folgen des Informationsaustauschs zwischen einzelnen Gruppenmitgliedern (z. B. bei Konformitätsund Entscheidungsprozessen) oder zwischen Gruppen (Intergruppenbeziehungen). Die Attributionsforschung und die Einstellungsforschung sind Beispiele großer und traditionsreicher sozialpsychologischer Forschungsprogramme. An ihnen soll nun demonstriert werden, wie Kognitivisten soziale Phänomene rekonstruieren und empirisch erforschen. 8.4.2 Grundzüge der Attributionsforschung Um das eigene Verhalten und das ihrer Mitmenschen zu verstehen, vorherzusagen und kontrollieren zu können, verwenden Menschen unterschiedliche Erklärungsmuster, kognitive Schemata. Kognitive Schemata sind generalisierte Muster von Zusammenhängen zwischen Merkmalen und Eigenschaften z.B. unserer (sozialen) Umwelt oder auch unserer Person. Ein wesentliches Grundmuster, das sich auf soziales Verhalten bezieht, ist die Art und Weise, wie ein Individuum bestimmten sozialen Ereignissen Ursachen zuschreibt, die Kausalattribution von Verhalten. Günter Sämmer: Paradigmen der Psychologie (1) - 284 - Kapitel 8: Kognitivismus Die frühen attributionstheoretischen Arbeiten HEIDERs Die Grundlagen für die spätere Attributionsforschung hatte Fritz HEIDER schon 1944 gelegt, als er zusammen mit Marianne SIMMEL u.a. die folgende Untersuchung durchführte (vgl. HEIDER & SIMMEL, 1944): In einem Trickfilm wurden den Versuchspersonen verschiedene geometrische Figuren gezeigt: ein großes Dreieck (T), ein kleines (t) und ein kleiner Kreis (c), die sich in unterschiedlichen Bewegungsmustern zueinander bewegten. Ein weiterer Bestandteil der Figur war ein Rechteck, bei dem sich ein Segment wie eine Tür öffnen und schließen konnte (vgl. Abb. 8.12). Die Vpn sollten nun aufschreiben, was in dem Film „geschah”. Abb. 8.12: Anordnung geometrischer Figuren aus einem der Trickfilme in der Untersuchung von HEIDER & SIMMEL (1944) Die Vpn benutzten nun bei ihren Bewegungsbeschreibungen der geometrischen Figuren durchweg anthropomorphe Formulierungen wie: „t verfolgt T”, „c bleibt unbeeindruckt”, „t möchte T schlagen”, „T will sich in Sicherheit bringen”. HEIDER schließt hieraus: • Die im Trickfilm beobachteten Bewegungen geometrischer Figuren werden als Handlungen von Menschen interpretiert und beschrieben. • Als seien es Personen, werden ihnen Absichten, Motive und Bedürfnisse zugeschrieben. • Diese werden aufgrund der Beobachtung kausal miteinander verknüpft. Insgesamt sind nach HEIDER also Personen „Prototypen von Ursprüngen”, so daß eine Zuschreibung eines Ereignisses auf eine Person und deren Motive eine der grundlegenden kausalen Organisationen darstellt. HEIDER nimmt weiterhin an, daß außer diesen personenspezifischen „internalen” Ursachen auch situationsspezifische „externale” Ursachen zur Erklärung von sozialem Verhalten herangezogen werden. Ein Beobachter, der sich ein soziales Verhalten erklären möchte, muß demnach entscheiden, ob dieses Verhalten auf internalen Fähigkeiten, Intentionen, also den Dispositionen der Person beruht, oder auf äußeren, externalen Gegebenheiten der Situation. HEIDER faßt seine Erkenntnisse und theoretischen Überlegungen 1958 in einer Monographie zusammen: The psychology of personal relations (deutsch: Psychologie der interpersonalen Beziehungen; (vgl. HEIDER, 1977, Orig. 1958), die zur Grundlage der weiteren Attributionsforschung wird. (2) KELLEYs Attributionstheorie Harold KELLEY unterzieht die Ansätze HEIDERs zur Kausalattribution einer genaueren Analyse (vgl. z.B. KELLEY, 1973) und kommt zu dem Schluß, daß es drei Klassen von Ursachen gibt, die in vielen Situationen für die Erklärung von sozialen Ereignissen (Effekten) in Frage kommen: • die stabilen Merkmale der Person, also ihre dispositionellen Eigenschaften, • die Entität, also die stabilen Merkmale der Gegebenheit, auf die sich die zu erklärende Handlung bezieht Günter Sämmer: Paradigmen der Psychologie - 285 - Kapitel 8: Kognitivismus • und die Zeit, in der sich die „besonderen Umstände” sowohl innerhalb der Person als auch in bezug auf die äußeren Gegebenheiten der Situation ändern können. Kann also z.B. ein Schüler eine Mathematikaufgabe nicht lösen, so kann er die Ursachen dafür grundsätzlich in seiner Person sehen (z.B. fehlende Begabung), in den Entitäten (z.B. der Schwierigkeit der Aufgabe) oder in zeitbedingten besonderen Umständen (z.B. schlecht geschlafen). Wie gehen nun aber Personen bei der Kausalattribution vor? KELLEY geht davon aus, daß der Alltagsmensch sich hier auf einer wenig bewußten und intuitiven Ebene prinzipiell derselben Verfahren bedient, wie es Wissenschaftler tun: Er variiert auf dem Hintergrund seiner Erfahrungen systematisch die einzelnen Möglichkeiten und zieht daraus seine Schlüsse. In Anlehnung an ein gängiges varianzanalytisches Verfahren (ANOVA) formuliert KELLEY diese Strategie als „Kovarianzprinzip”: Ein Effekt wird derjenigen seiner Ursachen zugeschrieben, mit der er über die Zeit hinweg kovariiert.” (KELLEY, 1973; S. 108) Analog zu den drei Ursachenklassen gibt es drei Informationsarten, die in Rechnung gestellt werden müssen: Konsensus: Wieweit variiert ein Ereignis bzw. ein Effekt über mehrere Personen? (Können andere Schüler die Aufgabe auch nicht lösen?) Konsistenz: Wieweit variiert ein Effekt bei derselben Person über mehrere Entitäten? (Kann der Schüler andere Mathematikaufgaben auch nicht lösen?) Distinktheit: Wieweit variiert ein Effekt bei derselben Person über mehrere Zeitpunkte? (Kann der Schüler diese Mathematikaufgaben zu anderen Zeitpunkten auch nicht lösen?) Aus der Zusammenschau und „Verrechnung” dieser drei Informationsarten ergibt sich nun die jeweilige Attribution: Tritt ein Ereignis z.B. nur bei dieser Person (Konsensus niedrig) über alle Entitäten hinweg (Distinktheit niedrig) zu allen Zeitpunkten auf (Konsistenz hoch), so kann „es” nur an der Person liegen. Es wird eine Attribution auf die Person vorgenommen. KELLEY illustriert diese Konstellation analog zu varianzanalytischen Modellen, wie in Abb. 8.13 dargestellt. Abb. 8.13: Das Datenmuster „Konsensus niedrig” - ”Distinktheit niedrig” - „Konsistenz hoch” führt zur Attribution auf die Person. (nach KELLEY, 1973; S.110) (3) Attributions-”Fehler” KELLEYs Modell beschreibt eher normativ die Attributionen einer vollständig rationalen Person, die sich überdies im Besitz vollständiger Informationen als Entscheidungsgrundlage befindet. In der Regel sind aber beide Voraussetzungen nicht erfüllt: Personen kennen nicht alle Variablen und müssen doch entscheiden, und sie neigen zu ganz bestimmten Attributionsvorlieben individueller und systematischer Herkunft. Günter Sämmer: Paradigmen der Psychologie - 286 - Kapitel 8: Kognitivismus a) Der „fundamentale Attributionsfehler” SNYDER und J ONES (1974) bitten alle in einem Raum anwesenden Versuchspersonen, Aufsätze zu schreiben mit Stellungnahmen zu verschiedenen, konträr zu diskutierenden politischen Themen, z.B. zur Verstaatlichung des Gesundheitswesens. Jede Vp bekommt dabei allerdings vorgegeben, welchen Standpunkt (pro oder kontra) sie einnehmen soll, und als Hilfe erhält sie auch einige Standardargumente, auf die sie zurückgreifen kann, wenn sie will. Danach werden alle Aufsätze eingesammelt, gemischt und wieder so verteilt, daß jede Vp den Aufsatz einer anderen Vp vorgelegt bekommt. Die Vpn sollen nun beurteilen, inwieweit der ihnen vorliegende Aufsatz die tatsächliche Meinung des jeweiligen Autors widerspiegelt. Es zeigt sich, daß von den meisten Aufsätzen angenommen wird, der Autor sei auch dieser Meinung, obwohl alle Vpn erlebt haben, daß sie, laut Instruktion, gar keine Wahlfreiheit hatten. In verschiedenen Experimenten bestätigt sich dieser Effekt: Personen neigen generell eher zu Personenattributionen als zu Situationsattributionen, eine Tendenz, die ROSS (1977) in einem Sammelreferat den „fundamentalen Attributionsfehler” nennt. In kognitionspsychologisch typischer Weise werden zwei Ursachenbündel für diese Asymmetrie der Attribution angegeben (vgl. z.B. HEWSTONE & ANTAKI, 1992): • Zur Verfügung stehende Information: Das Verhalten einer Person fällt eher ins Auge als die Gegebenheiten einer Situation, die Person ist „salient”, so daß, wie schon HEIDER (1944, 1958) betonte, Person und Handlung eine stärkere „kausale Einheit” bilden als Situation und Handlung. Damit sind personen- und verhaltensbezogene Ursachen eher verfügbar. • Soziale Repräsentationen und Konstrukte: In Gesellschaften, in denen der Individualismus gefördert wird, ist die Tendenz zu internen Attributionen eine soziale Norm, deren Einhalten vorteilhaft beurteilt wird. Diese Norm ist in den sozialen Repräsentationen und Konstrukten niedergelegt und spiegelt sich nicht zuletzt in der gemeinsamen Sprache wider, die für die Beschreibung von Personen deutlich mehr Attribute bereithält als für die Beschreibung von Situationen. b) Attributionsunterschiede bei Akteuren und Beobachtern Treten Attributionen in einem sozialen Kontext auf, in dem mindestens eine Person als aktiv agierend, eine andere aber als Beobachter dieser aktiven Person angesehen werden kann, so machen JONES und NISBETT (1972) die Voraussage, daß der Akteur die Ursachen für sein Verhalten eher der äußeren Situation zuschreibt, während der Beobachter eher dispositional attribuiert, also die Ursachen des Akteur-Verhaltens eher in dessen personellen Dispositionen sieht. Dieses Phänomen wird in einer größeren Zahl von Untersuchungen beobachtet (vgl. z.B. das Sammelreferat von D. WATSON, 1982), und es werden dafür zwei unterschiedliche Klassen von Gründen angeführt (vgl. dazu auch MEYER & FÖRSTERLING, 1993): • Unterschiedlicher Informationsstand von Akteur und Beobachter - Der Akteur kann sein eigenes Verhalten in einer Situation besser mit seinem eigenen früheren Verhalten vergleichen und stellt damit meist einen niedrigeren Konsensus und eine höhere Distinktheit fest, was zu einer Bevorzugung von Situationsattributionen führt. Der Beobachter kann dies nicht und unterstellt deshalb eher niedrige Distinktheit. - Der Beobachter lenkt seine Aufmerksamkeit während seiner Beobachtung eher auf den Akteur, der schließlich im Mittelpunkt der Aktion steht. Dagegen nimmt der Akteur während seiner Aktion weniger sich selbst wahr als die Gegebenheiten in seiner Umgebung. • Motivationale Faktoren - Kontrollmotivation: Das Verhalten anderer Personen läßt sich leichter kontrollieren und beeinflussen, wenn angenommen wird, es resultiere aus dispositionellen Eigenschaften dieser Person. - Selbstwertdienlichkeit: Sobald er Fehler macht, ist es für den Akteur selbstwertdienlicher, die Ursachen dafür in der Situation zu suchen und sie nicht seiner Person zuzuschreiben. Dagegen hat der Beobachter kein „Interesse” daran, die „Schuld” in den Umständen zu suchen. Günter Sämmer: Paradigmen der Psychologie - 287 - Kapitel 8: Kognitivismus 8.4.3 Grundzüge der Einstellungsforschung (1) Die Neufassung des Einstellungsbegriffs Seit es in der behavioristischen Psychologie erlaubt war, von „intervenierenden Variablen” zu sprechen, wurde in Forschung und Theoriebildung ein Konstrukt immer bedeutender, das beim Menschen als wesentliche Determinante seines Verhaltens angesehen wurde: die Einstellung. Aus behavioristischer Perspektive hatten ROSENBERG und HOVLAND (1960) Einstellungen als „Prädisposition“ definiert, bestimmte Klassen von Stimuli mit bestimmten Klassen von Verhaltensweisen zu beantworten, wobei die intervenierende Variable Einstellung in drei Komponenten zerfiel: Affekte, Kognitionen und Verhalten. Ende der 70er, Anfang der 80er Jahre kommt es jedoch zu einer Revision des Einstellungskonzepts. Einstellungen interessieren nun vor allem als Konstrukte, die dem Verhalten vorausgehen und die, wie sich gezeigt hat, nicht immer mit diesem kohärent sein müssen (vgl. WICKER, 1969). In der kognitivistischen Neufassung des Einstellungskonstrukts wird nun der „Informationsverarbeitungsanteil” vom „Verhaltensanteil” getrennt. Da man inzwischen gewöhnt ist, auch Affekte und deren „Verarbeitung“ kognitiv zu fassen, definieren PETTY und CACCIOPPO (1981) analog zu FISHBEIN und AJZEN (1975) ein eindimensionales Konstrukt: Einstellung ist die verallgemeinerte, dauerhafte, positive oder negative Bewertung einer Person, eines Objekts oder einer Zielsetzung. Weiter differenziert ist die kognitive Komponente der (Gesamt-)Einstellung einer Person gegenüber einem Objekt zusammengesetzt aus den Bewertungen einzelner Eigenschaften, die diesem Objekt zugeschrieben werden. Dazu kommt die Erwartung, also die subjektiv wahrgenommene Wahrscheinlichkeit, mit der das Objekt diese Eigenschaft auch besitzt. Insgesamt folgt daraus das Erwartungs-Wert-Modell der Einstellung (vgl. FISHBEIN, 1967): (1) Ein Objekt habe n Eigenschaften; bi ist die Wahrscheinlichkeit, mit der das Vorkommen der i-ten Eigenschaft angenommen wird, ei die Bewertung der i-ten Eigenschaft; die Einstellung gegenüber dem Objekt E O ergibt sich dann als gewichtete Summe der Einzelkomponenten (vgl. Formel (1)). (2) Messung von Einstellungen Entsprechend der kognitivistischen Fassung des Einstellungskonstrukts werden Einstellungen empirisch erfaßt durch Abfrage von Kognitionen der Versuchspersonen. Zwei „Papier-und-Bleistift”-Verfahren werden besonders beliebt: • Das semantische Differential: Es geht zurück auf OSGOOD, SUCI und T ANNENBAUM (1957), die zeigen konnten, daß es drei (faktorenanalytische) Hauptdimensionen gibt, nach denen Konzepte bewertet werden: Bewertung (evaluation), Aktivität (activity) und Kraft (power). Die Adjektivpole für die Dimension Bewertung werden in der Regel zur Einstellungsmessung verwendet: gut / schlecht; angenehm / unangenehm; wertvoll / wertlos; sauber / schmutzig; freundlich / unfreundlich. Die Vpn sollen hier bezüglich eines Einstellungsobjekts jeweils einschätzen, ob sie diesem die jeweils positive oder negative Eigenschaft zuschreiben. • Die Likert-Skala: In Anlehnung an LIKERT (1932) besteht eine solche Skala aus Items, die bezüglich eines Objekts verschiedene eindeutig positive oder negative Aussagen machen. Auf einer mehrstufigen Rating-Skala kann man diesen zustimmen oder sie ablehnen. Beide Meßverfahren erfassen die affektiven Anteile von Einstellungen, oder, genau genommen, deren kognitive Repräsentationen. Dadurch sind sie natürlich anfällig gegen Manipulationen durch die Versuchspersonen und setzen deren Bereitschaft zur offenen Auskunft voraus. Um solche Einflüsse zu Günter Sämmer: Paradigmen der Psychologie - 288 - Kapitel 8: Kognitivismus kontrollieren, werden Einstellungsmessungen manchmal ergänzt durch die Erfassung von physiologischen Daten, die ebenfalls Auskunft geben können über affektive Prozesse, z.B. durch Messung der psychogalvanischen Hautreaktion, der Pupillenreaktion oder durch Aufzeichnung eines Elektromyogramms der Gesichtsmuskeln. Allerdings wird die Validität solcher Verfahren, nicht selten angezweifelt. STAHLBERG und FREY formulieren diese Zweifel unter Rückgriff auf die Kernannahmen kognitivistischer Psychologie so: „Verhalten [kann] nicht zwangsläufig als eine Komponente des Einstellungskonzepts betrachtet werden; (...) es ist daher fraglich, ob Verhaltensindikatoren zu einer Charakterisierung von Einstellungen herangezogen werden sollten oder ob Einstellungen nur als affektive, durch die Selbstbeschreibung zu erfassende Reaktionen auf ein Einstellungsobjekt verstanden werden können.” (STAHLBERG & FREY 1992; S. 155) (3) Das Elaboration-Likelihood-Modell: ein exemplarisches Forschungsprogramm Große Teile der Einstellungsforschung befassen sich mit der Möglichkeit, Einstellungen mehr oder weniger systematisch zu beeinflussen (zur Übersicht vgl. z.B.: STROEBE & J ONAS, 1992). Eines der neueren Modelle hierzu ist das „Elaboration-Likelihood-Modell” von PETTY und CACIOPPO (vgl. PETTY & CACIOPPO, 1986): Zur Veränderung von Einstellungen muß ein informationsverarbeitender Prozeß initiiert werden, der sich auf die entscheidenden kognitiven und affektiven Bestandteile der Einstellung bezieht. Grundsätzlich lassen sich zwei Wege kognitiver Verarbeitung (als Pole eines Kontinuums) unterscheiden: • der zentrale Weg der elaborierten, tiefen und gründlichen Würdigung und Verarbeitung von neuen Informationen und Argumenten, also des inhaltsbezogenen Nachdenkens, sowie • der periphere Weg, der eher in einer Verarbeitung oberflächlicher Aspekte einer Botschaft besteht, also z.B. darin, ob die Botschaft von positiven Reizen begleitet wird. Der Einstellungswandel durch eine Kommunikation hängt nun von zwei Faktoren ab: • Von der „dominanten kognitiven Reaktion”, die durch die jeweilige Botschaft ausgelöst wird: Positive Gedanken als Reaktion auf die Botschaft erhöhen die Wahrscheinlichkeit einer Einstellungsänderung, negative Reaktionen vermindern sie und führen u.U. zu einem entgegengesetzten Effekt („Boomerang-Effekt”). • Von der „Elaboration der Botschaft”: ob also die Botschaft auf dem zentralen oder auf dem peripheren Weg aufgenommen wird. Einstellungsänderung: Löst also eine Botschaft bei motivierten und fähigen Rezipienten durch ihre Argumentationsgüte positive Gedanken aus und gleichzeitig gesteigerte Elaboration (zentraler Weg), so wird ihre Überredungswirkung erhöht. Löst sie dagegen unter sonst gleichen Bedingungen negative Gedanken aus, weil die Argumentation schwach und oberflächlich ist, so wird sich die Überredungswirkung verringern. Andererseits wird eine schwache und vordergründige Argumentation eher wirken, wenn sie auf dem peripheren Weg „rübergebracht” wird. In einer für kognitivistische Theoriebildung typischen Weise besorgt das Elaboration-Likelihood-Modell die theoretische Integration einer größeren Zahl teils älterer Einzeluntersuchungen; hier zwei Beispiele: • PETTY, WELLS und BROCK (1976) hatten eine Untersuchung durchgeführt, in der sie ihren Vpn mitteilten, es gehe darum, wieweit Menschen in der Lage seien, verschiedene Dinge gleichzeitig zu tun, z.B. einer informativen Botschaft zu folgen und dabei eine Wahrnehmungsaufgabe zu lösen. Sie ließen also akustische Botschaften vortragen, die, wie sie vorher geprüft hatten, den Einstellungen der Vpn widersprachen (z.B. bei studentischen Vpn ein Plädoyer für die Erhöhung von Studiengebühren). Um die „dominante kognitive Reaktion” zu manipulieren, wurden einmal (für Studenten) starke Argumente verwendet (z.B. „Man könnte mit den Mehreinnahmen mehr Bücher für die Bibliothek kaufen”) und Günter Sämmer: Paradigmen der Psychologie - 289 - Kapitel 8: Kognitivismus einmal schwache (z.B. „Die Dozentengehälter könnten mit den Mehreinnahmen erhöht werden.”). Um die Elaboration zu manipulieren, wurden zur Ablenkung unterschiedlich viele Reize pro Minute auf einen Bildschirm projiziert. Am Ende wurde erhoben, inwieweit die Vpn nun mit den dargebotenen Botschaften übereinstimmten. Ergebnis: Bei geringer Ablenkung (also hoher Elaboration der gehörten Botschaft) war die einstellungsverändernde Wirkung starker Argumente am größten, die Zustimmung zu schwachen Argumenten am geringsten. Bei wachsender Ablenkung (also fallender Elaboration) waren allerdings starke Argumente dann nicht mehr wirksamer als schwache. • In einem ähnlichen Versuchsdesign manipulierten BLESS, BOHNER, SCHWARZ und STRACK (1990) statt der Aufmerksamkeit die Stimmung der Vpn, um eine geringere Elaboration der gehörten Botschaften zu erreichen. Sie forderten sie dazu auf, sich an ein sehr angenehmes bzw. an ein sehr unangenehmes Lebensereignis aus ihrer Vergangenheit zu erinnern. Tatsächlich zeigten gute Argumente weniger Wirkung, wenn die Vpn in guter Stimmung waren. Waren sie hingegen in schlechter Stimmung, so führte die Konfrontation mit starken Argumenten eher zu einem Einstellungswandel. 8.5 Persönlichkeitspsychologie aus kognitivistischer Sicht 8.5.1 „Persönlichkeit” aus kognitivistischer Sicht In der Persönlichkeitspsychologie wurde schon früh die Notwendigkeit erkannt, kognitive Prozesse für die Konzeption einer Persönlichkeitstheorie heranzuziehen. So sind z.B. viele der älteren großen Persönlichkeitstheorien, jede in unterschiedlicher Ausprägung, „kognitive” Theorien: • die Persönlichkeits-Konstrukt-Theorie von George A. KELLY (vgl. KELLY, 1955), • ROGERS Theorie des Selbst (vgl. z.B. ROGERS, 1961), • die sozial-kognitive Persönlichkeitstheorie von BANDURA und MISCHEL (vgl. z.B. MISCHEL, 1971). Eine konsequente Anwendung des Informationsverarbeitungsansatzes ist allerdings keine von ihnen. (Zur theoretischen Klassifikation verschiedener Persönlichkeitstheorien vgl. z.B. PERVIN, 1993). Gemäß ihrer Kernannahmen konzentrieren sich kognitivistische Persönlichkeitsforscher auf die persönlichkeitsspezifischen Prozesse der Informationsverarbeitung. Brennpunkt des Interesses ist der informationsgesteuerte Umgang mit sich selbst, mit anderen Personen, mit sozialen Situationen und mit wichtigen Lebensaufgaben. Jedes Individuum kann bezogen auf diese Bereiche Informationen aufnehmen, speichern und verarbeiten, und es kann sein Verhalten in diesen Bereichen auf dem Hintergrund solcher Informationen steuern, um seine Ziele zu erreichen. Es konstruiert dazu selbst- und außenweltbezogen kognitive Kategorien und Schemata sowie generalisierte Erwartungen. Zunächst gibt es eine Vielzahl verschiedener Einzelforschungen, die sich grob in zwei große Richtungen einordnen lassen (vgl. PERVIN, 1993): • Verarbeitung von Umgebungsinformationen (z.B. Konstrukte bezogen auf andere Menschen, Situationen, Ereignisse) • Verarbeitung von selbstbezogenen Informationen (z.B. interne Selbstmodelle, Selbstkonzept, Selbstschemata) Diese Ansätze bleiben längere Zeit relativ unverbunden, bis zu Beginn der 80er Jahre ein erstes größeres persönlichkeitspsychologisches Modell entsteht: die Theorie der Selbst-Schemata. In ihrem einflußreichen Aufsatz integriert Hazel MARKUS (1983) eine größere Zahl bis dahin theoretisch relativ isolierter Einzelkonzepte zu einer zusammenhängenden Theorie. Günter Sämmer: Paradigmen der Psychologie - 290 - Kapitel 8: Kognitivismus 8.5.2 Die Selbst-Schema-Theorie Während Selbstkonzept-Theorien sich bislang darauf beschränkt hatten, die Gesetzmäßigkeiten beim Erwerb und der Verarbeitung selbstbezogener Informationen zu erfassen (vgl. z.B. FILIPP, 1979), entwickelt MARKUS (1983) ein erweitertes Modell, das die Wirkungen selbstbezogener kognitiver Strukturen auch in bezug auf individuelle Zielsetzungen und die Aspekte der Handlungsregulierung beschreibt. Das „dynamische Selbst” umfaßt damit das Wissen um eigene Vorlieben und Werte, um Ziele und Motive sowie um die Regeln und Strategien, die das eigene Verhalten in dieser Hinsicht regulieren. Kognitive Strukturen, die dies bewirken, werden „Selbst-Schemata” genannt. (1) Die vorausgehende Untersuchung von MARKUS Ausgangspunkt für die Selbst-Schema-Theorie ist eine eigene Untersuchung, in der MARKUS gezeigt hatte, daß Selbstkonzepte nicht nur „Sammelstellen” für selbstbezogene Informationen sind, sondern daß sie im Prozeß der Informationsverarbeitung eine erhebliche Eigendynamik entwickeln können (vgl. MARKUS, 1977): Die Versuchspersonen sollten sich selbst zunächst auf verschiedenen Skalen (z.B. der GOUGH-HEILBRUNN Adjective Check List) in bezug auf verschiedene Eigenschaften einschätzen. Ausgewählt wurde die Eigenschaft soziale Abhängigkeit, Anpassungsbereitschaft versus soziale Unabhängigkeit, geringe Anpassung, und die Vpn wurden in drei Gruppen eingeteilt: zwei Extremgruppen mit hoher bzw. niedriger Selbsteinschätzung bezüglich „Abhängigkeit” und eine dritte, neutrale („schemalose”) Gruppe. Den Gruppen wurden vier Aufgaben gestellt: 1. Sie sollten eine Liste von Eigenschaftswörtern, die Abhängigkeit bzw. Unabhängigkeit beschrieben, und die ihnen für jeweils zwei Sekunden projiziert wurden, daraufhin einschätzen, ob sie auf sie selber zutreffen oder nicht. Geantwortet wurde mit einem Knopfdruck. 2. Sie sollten zu verschiedenen vorgegebenen Begriffen aus dieser Liste konkrete Verhaltensbeispiele angeben. 3. Sie sollten vorhersagen, wie wahrscheinlich sie selber ein vorgegebenes Verhalten in Zukunft zeigen werden. 4. Einige Wochen später sollten die Vpn einen fingierten „Test” durchführen, von dem behauptet wurde, daß er sehr zuverlässig die „Suggestibilität”, also die Anfälligkeit der Person gegen suggestive Alltagseinflüsse messe. Die Vpn bekamen als „Auswertung” eine ausführliche Beschreibung „ihres” Meßergebnisses; allerdings erhielten die „Unabhängigen” die Mitteilung, daß sie sehr beeinflußbar (suggestibel) seien, die „Abhängigen” erhielten die umgekehrte Information. Die Vpn sollten dann per Fragebogen einschätzen, für wie zuverlässig sie den Suggestibilitätstest hielten. Ergebnisse: Zu Aufgabe 1: Die Vpn schätzten sich durchweg im Sinne ihres Selbst-Schemas ein, aber: die Reaktionszeiten für die Selbsteinschätzung waren bei Adjektiven, die der jeweiligen Selbsteinschätzung entsprachen, jeweils kürzer als bei entgegengesetzten Adjektiven. Zu Aufgabe 2: Zu Adjektiven, die der eigenen Selbstbeschreibung entsprachen, fanden die Vpn mehr Verhaltensbeispiele als bei entgegengesetzten Adjektiven. Zu Aufgabe 3: Die Vpn schätzten die Wahrscheinlichkeit, sich entsprechend ihrer Selbstbeschreibung zu verhalten, höher ein als entsprechend des Gegenkonzepts. Zu Aufgabe 4: Versuchspersonen, die „Testergebnisse” erhalten hatten, die ihrem Selbstschema widersprachen, schätzten deren Zuverlässigkeit wesentlich geringer ein als Vpn ohne ein ausgeprägtes Selbstschema (der Gruppe „Schemalose”). MARKUS kommt nun zu den folgenden Schlüssen: Das Selbst-Schema enthält nicht nur selbstbezogene Informationen, es steuert auch den gesamten Prozeß der Informationsverarbeitung: Günter Sämmer: Paradigmen der Psychologie - 291 - Kapitel 8: Kognitivismus • Schema-konforme Informationen werden schneller verarbeitet (Aufgabe 1); • sie werden „tiefer” verarbeitet (wecken mehr Assoziationen in bezug auf das Finden von Beispielen (Aufgabe 2); • Schema-konformes Verhalten wird von den Personen als für sie wahrscheinlicher eingeschätzt (Aufgabe 3); • Schema-widersprechende Informationen werden zurückgewiesen (Aufgabe 4). (2) Das Konzept der dynamischen Selbst-Schemata Markus systematisiert und erweitert ihre theoretischen Annahmen in folgender Weise (vgl. MARKUS, 1983): Strukturen selbstbezogenen Wissens Selbst-Schemata sind zunächst Wissensstrukturen über das Selbst, die aus vergangenen Erfahrungen resultieren und die Verarbeitung selbstrelevanter Informationen anleiten und organisieren. Das Individuum wird gedacht als aktiver Konstrukteur von Verallgemeinerungen und Hypothesen über das Selbst aufgrund von Ereignissen. (z.B. „Ich bin unabhängig”, „Ich arbeite gut mit anderen zusammen”, „Ich bin schüchtern” ...) (vgl. a.a.O.; S. 547). Selektions- und Interpretationsmuster für neue Informationen Selbst-Schemata bilden einen Bezugsrahmen, innerhalb dessen das Individuum festlegt, welche Informationen selbstrelevant sind und welche nicht, so daß jede neue Information selektiert, interpretiert und aufgenommen wird im Kontext des vorhandenen Selbst-Schemas. Domänen persönlicher Verantwortlichkeit Allerdings sind Selbst-Schemata nicht nur passive Verallgemeinerungen vergangener Vorgänge. Sie ermöglichen auch eine bestimmte Art von Verhaltenskontrolle, denn sie definieren die Bereiche, über die Individuen glauben, Kontrolle ausüben zu müssen, für die sie also glauben, selbst verantwortlich zu sein. Das potentielle Selbst Damit rückt der Aspekt der persönlichen Handlungsziele und der Handlungskontrolle in den Vordergrund. Selbst-Schemata definieren auch, wie man sein möchte bzw. nicht sein möchte. Sie geben dabei in ihren relevanten „Domänen” die Ziele für die Handlungsregulation vor: „Was möchte ich sein?, „Wie zu werden, habe ich Angst?” und definieren so ein potentielles Selbst. Da Menschen in vielen verschiedenen Kontexten ihres Lebens und in bezug auf unterschiedliche Lebensaufgaben zum Teil sehr heterogene Ziele verfolgen, ist es sinnvoll, hier je nach Lebensbereich von verschiedenen, ja einer ganzen Familie von potentiellen Selbsts zu sprechen: Das Berufs-Selbst, das Familien-Selbst usw. . Ein Beispiel: Viele Menschen sind schüchtern, und diese Information ist bei vielen auch Bestandteil ihres selbstbezogenen Wissens (das „statische” Selbstkonzept nach herkömmlicher Lesart). Jedoch entwickeln Menschen erst ein diesbezügliches „dynamisches” Selbst-Schema, wenn sie beginnen, sich in gewisser Weise für ihre eigene Schüchternheit verantwortlich fühlen: Ihr Selbst-Schema der Schüchternheit läßt sie dann aufmerksam werden auf relevante soziale Situationen (die z.B. Schüchternheit auslös en), und es beinhaltet persönliche Handlungsstrategien und Zielsetzungen (z.B. Vermeidungsstrategien, aber auch Verhaltenspläne zur Überwindung von Schüchternheit). In diesen spiegeln sich die Strukturen des potentiellen Selbsts wider (z.B. nicht schüchtern sein zu wollen). Günter Sämmer: Paradigmen der Psychologie (3) - 292 - Kapitel 8: Kognitivismus Die Integrationskraft des Ansatzes Führen wir uns noch einmal die ursprünglichen Modelle des Informationsverarbeitungsansatzes vor Augen (s.o., Abschnitt 8.2), so zeigt sich, daß der Ansatz von MARKUS die erste kognitivistische Persönlichkeitstheorie ist, die ein vollständiges Handlungsregulationsmodell im Sinne des TOTE-Modells von MILLER, GALANTER und PRIBRAM (1960) darstellt. Während die Selbstkonzeptforschung bislang mit den Prozessen des Sammelns und Speicherns selbstbezogener Informationen befaßt war, erweitert die SelbstSchema-Theorie den Blick auf den Bereich des sozialen Handelns und die zugehörigen Handlungsziele. Damit integriert diese Theorie die Teilprozesse der Aufnahme selbstbezogener Informationen mit den Teilprozessen der Handlungsebene zu einer einheitlichen Theorie des Selbst. Den bislang ausgearbeiteten Teilkonzepten des Selbst kann in diesem Modell jeweils ein Ort zugewiesen werden (was an dieser Stelle nur kurz angedeutet wird): • das Konzept der selbstbezogenen Kognitionen (vgl. z.B. CANTOR, MISCHEL & SCHWARTZ, 1982), • das Konzept der Selbstwahrnehmung (vgl. BEM , 1972), • das Konzept des Self-Monitoring und des Self-Managements, der Selbstüberwachung und Selbststeuerung (self-observation, self-control) (vgl. SNYDER, 1974), • das Konzept der Selbstaufmerksamkeit (self-awareness) (vgl. DUVAL & WICKLUND , 1972; SCHEIER, 1976), • das Konzept der sozialen Intelligenz (social intelligence) (vgl. CANTOR & KIEHLSTROM , 1987). 8.6 Kognitivistische Forschungsprogramme in der Entwicklungspsychologie 8.6.1 Entwicklungspsychologie aus der Sicht des Informationsverarbeitungsansatzes Auch in der Entwicklungspsychologie gewinnen kognitivistische Forschungsprogramme erst in den 70er Jahren an Bedeutung, und erst in den 80er Jahren wird der Informationsverarbeitungsansatz zum dominierenden Prinzip entwicklungspsychologischer Forschung und Theoriebildung (vgl. SIEGLER, 1983). Entwicklungspsychologische Forschung aus kognitivistischer Perspektive befaßt sich bis heute im wesentlichen mit den Bereichen: • Aufmerksamkeit und Gedächtnis: Formen der Repräsentation, Strategien des Gedächtnisses und der Organisation von Wissen, • Denken und Problemlösen: Problemlösungsstrategien, Produktionssysteme, • Metakognition: Wissen über Gedächtnis- und Problemlösestrategien. (vgl. P. MILLER, 1993; TRAUTNER, 1991) Dabei werden die entwicklungsbedingten Veränderungen des informationsverarbeitenden Systems untersucht, wobei sowohl quantitative Veränderungen (z.B. in der Gedächtnisleitung) als auch qualitative Veränderungen (z.B. bei Encodierungs- oder Problemlöseprozessen) von Interesse sind. In Fortsetzung der theoretischen Modelle aus der Allgemeinen Psychologie werden die kindlichen Informationsverarbeitungssysteme als selbstreguliert angesehen; d.h. sie nehmen Informationen auf und verarbeiten diese. Darüber hinaus können sie aber in aktiver, selbstgesteuerter Interaktion mit der Umwelt ihre eigene Struktur verändern. Dieses Modell eines selbst modifizierenden Informationsverarbeitungssystems wird, wie in den Gründungstagen des kognitivistischen Paradigmas, als Analogie den Computerwissenschaften entliehen, wo seit Mitte der 70er Jahre Forschungen zur Künstlichen Intelligenz eine immer wichtigere Rolle spielen. Einige Projekte zur Künstlichen Intelligenz befassen sich nämlich simulativ mit der Fähigkeit von Computerprogrammen, sich selber und damit ihre eigene Funktionsfähigkeit zu modifizieren. Somit wird es kognitivistischen Entwicklungspsychologen möglich, Entwicklung nicht nur als Akkumulation von Informationen zu konzipieren, sondern als selbstgesteuerte, strukturelle Veränderung des Informa- Günter Sämmer: Paradigmen der Psychologie - 293 - Kapitel 8: Kognitivismus tionsverarbeitungssystems, das auch in der Lage ist, seine eigenen Verarbeitungsprozesse und Strategien aktiv den Entwicklungserfordernissen anzupassen (vgl. dazu z.B. SIEGLER, 1989). 8.6.2 Forschungsprogramme zur Entwicklung der Gedächtnisfunktionen (1) Über Gedächtnisstrategien Mit einem der ersten kognitivistischen Forschungsprogramme zur Entwicklungspsychologie beginnen in den 60er Jahren FLAVELL und Mitarbeiter: Auf dem Hintergrund bestehender Gedächtnis- und Informationsfluß-Modelle untersuchen sie, ob es Unterschiede zwischen jüngeren und älteren Kindern bei der Nutzung des Kurzzeitgedächtnisses gibt (vgl. FLAVELL, BEACH & CHINSKY, 1966). Vor 5- bis 10jährigen Kindern werden Bilder verschiedener Gegenstände ausgelegt, und sie sollen sich die Reihenfolge merken, in der der Versuchsleiter auf einzelne Bilder zeigt. Danach werden die Bilder verdeckt, und ein im Lippenlesen geübter Beobachter registriert alle erkennbaren Versuche des verbalen Memorierens. Es zeigt sich, daß nur wenige 5jährige, aber über 50 % der 7jährigen und fast alle 10jährigen eine verbale Strategie des „Hersagens” verfolgen, wobei der Reproduktionserfolg umso höher ausfällt, je intensiver eine solche eingesetzt wird. Fordert man aber die 5jährigen auf, den jeweiligen Gegenstand auf dem Bild zu benennen, dann verbessert sich auch ihre Behaltensleistung deutlich. (KEENEY, CANNIZZO, & FLAVELL, 1967). So sind also auch jüngere Kinder durchaus in der Lage, effektivere Gedächtnisstrategien einzusetzen. Sie tun dies allerdings nicht spontan, sondern müssen diese Möglichkeit aus ihrer sozialen Umgebung lernen. (2) Über Metagedächtnis und Metakognitionen Kinder sind nicht nur in der Lage, durch Aneignung immer effektiverer Gedächtnisstrategien ihre kognitiven Leistungen zu steigern, sie lernen auch immer mehr, den Prozeß des Gedächtnisses und des Denkens selber zu thematisieren. Diese Fähigkeit, eine intuitive Theorie aufzubauen über die Funktionsweise des eigenen kognitiven Systems, wird „Metakognition” genannt, und derjenige Teil, der sich auf Gedächtnisfunktionen bezieht, heißt „Metagedächtnis” (vgl. z.B. FLAVELL, 1981; WELLMAN, 1985). Die ersten Unterscheidungen zwischen mentalen Repräsentationen und Vorgängen in der wahrgenommenen Außenwelt lassen sich bereits bei 3jährigen durch eine Analyse von Sprechprotokollen nachweisen (vgl. SHATZ , WELLMANN & SILBER, 1983). Darüber hinaus lernen Kinder zunehmend, über die Funktionsweise des Gedächtnisses Auskunft zu geben: KREUZER, LEONARD und FLAVELL (1975) fragen z.B. Kinder, wie sie vorgehen, wenn sie eine Telefonnummer genannt bekommen, die sie anrufen sollen: würden sie gleich wählen oder können sie noch ein Glas Wasser holen? 40 Prozent der Vorschulkinder, aber 75 Prozent der Fünftklässler würden zuerst telefonieren und begründen dies mit der Flüchtigkeit des Gedächtnisses. Schon 8jährige können über ihre Gedächtnisstrategien Aussagen wie diese machen: „Sagen wir, die Telefonnummer ist 633-8854. Was ich dann tun würde - also wenn meine eigene Nummer 633 wäre, dann müßte ich mir den Teil schon gar nicht mehr merken. Und dann würde ich mir überlegen, jetzt muß ich mir 88 merken. Ich bin acht Jahre alt, also merke ich mir einfach zwei Mal, wie alt ich bin. Und dann sage ich, wie alt mein Bruder ist und wie alt er letzes Jahr war. Und so würde ich mir normalerweise diese Telefonnummer merken.” (a.a.O.; S. 11; zitiert nach P. M ILLER, 1993) Sowohl die Verbesserung von „Produktionsdefiziten” (FLAVELL, 1981) durch Aneignung neuer Techniken (vgl. (1)) als auch die Aneignung von Metawissen (vgl. (2)) sind also Beispiele dafür, daß Entwicklungsfortschritte auf der (qualitativen) Ebene der kognitiven Strategien durchaus durch Lernprozesse erreichbar sind. Das kognitive System scheint also tatsächlich durch Umweltinteraktion eine Veränderung seiner eigenen Funktionsweise erreichen zu können. Und es stellt sich damit als durchaus Günter Sämmer: Paradigmen der Psychologie - 294 - Kapitel 8: Kognitivismus sinnvoll heraus, von Entwicklung als selbstgesteuerter struktureller Veränderung des Informationsverarbeitungssystems zu sprechen. 8.7 Kognitivistische Ansätze in der Angewandten Psychologie In großen Teilen der Angewandten Psychologie sind heute Forschungsprogramme auf kognitivistischer Basis installiert. Selbst ein grober Überblick über die Vielfalt dieser Ansätze wäre an dieser Stelle nicht zu leisten. Deshalb müssen einige wenige Beispiele genügen, um einen Eindruck zu gewinnen, wie Problemfelder der psychologischen Praxis kognitivistisch rekonstruiert werden. 8.7.1 Beispiele aus der Pädagogischen Psychologie: Attributionsstile und Leistungsprobleme (1) Beiträge der kognitivistischen Psychologie zu pädagogisch psychologischen Problembereichen Wichtige kognitivistische Forschungsprogramme der Pädagogischen Psychologie wurden in den vergangenen zwei Jahrzehnten in den folgenden Bereichen etabliert (hier angelehnt an die Systematik von HOFER, 1993): • Psychologie des Wissenserwerbs, z.B.: Theorien des kognitiven Lernens, des Wissenserwerbs in semantischen Netzwerken, Erwerb von Fertigkeiten in Produktionssystemen, Techniken des Problemlösens, metakognitive Fähigkeiten. • Psychologie des Lerners, z.B.: Theorien des Lernerverhaltens aus handlungs- und attributionstheoretischer Perspektive; Erwartungen, Ursachenzuschreibung und Leistungsmotivation; leistungsbezogene Gefühle und Kognitionen. • Psychologie des Erziehers, z.B.: handlungsleitende Kognitionen bei Eltern und Lehrern; Emotionen und Erziehungsziele als Determinanten erzieherischen Handelns. • Psychologie der erzieherischen Interaktion, z.B.: Regulation von Interaktion durch kognitive Schemata; subjektive Theorien und ihr Einfluß auf die Schüler-Lehrer/Eltern-Interaktion. • Psychologie des Lernens mit Medien, z.B.: Aufmerksamkeitssteuerung in Medien; Symbolsysteme in Medien; Verarbeitungstiefe medial übermittelter Informationen. Aus einem dieser Bereiche, aus dem Schwerpunkt „Psychologie des Lerners” sollen nun exemplarisch einige Ergebnisse vorgestellt werden. Es handelt sich um die Zusammenhänge zwischen typischen Attributionsstilen einerseits und der Leistungsmotivation und -bereitschaft andererseits. (2) Attribution und Motivation im Leistungsbereich Seit Mitte der 70er Jahre führen WEINER und Mitarbeiter ein großes Forschungsprogramm durch, das sich mit Motivationsproblemen im Leistungsbereic h befaßt (vgl. WEINER, 1979; 1985). Neu an diesem Ansatz ist, daß er das klassische Konzept der Leistungsmotivation attributionstheoretisch untersucht. Nach WEINER werden Erfolge oder Mißerfolge Ursachen zugeschrieben, die prinzipiell drei Dimensionen zugeordnet werden können: • Internalität vs. Externalität: die Ursache für Erfolg oder Mißerfolg wird in der eigenen Person oder in der Außenwelt gesucht. • Stabilität vs. Instabilität: die Ursache ist überdauernd und unveränderbar oder veränderbar und flüchtig. Günter Sämmer: Paradigmen der Psychologie - 295 - Kapitel 8: Kognitivismus • Kontrollierbarkeit vs. Unkontrollierbarkeit: die Ursache ist von der Person beeinflußbar oder nicht. Die typischen Ursachenzuschreibungen bei Leistungsversagen lassen sich diesen Dimensionen zuordnen, z.B.: „Ich bin unbegabt” (intern, stabil, unkontrollierbar); „Ich war krank” (intern, instabil, unkontrollierbar); „Ich war unvorbereitet” (intern, instabil, kontrollierbar); „Diese Anforderung ist prinzipiell schwer” (extern, stabil, unkontrollierbar); „Ich hatte Pech” (extern, instabil, unkontrollierbar). WEINER und Mitarbeiter können nun durch eine Reihe von Untersuchungen zeigen (vgl. z.B. WEINER, 1985; 1986): • Im Leistungsbereich ist die Art der Erfolgs- oder Mißerfolgsattribution relativ stabil und persönlichkeitsspezifisch. • Die Art der Attribution von Erfolg und Mißerfolg beeinflußt nachhaltig die Erfolgs- bzw. Mißerfolgserwartung bei zukünftigen Leistungen. Zum Beispiel, wenn Personen ihre Erfolge stabilen, internen Ursachen (z.B. Begabung) zuschreiben, dann erwarten sie in Zukunft weitere Erfolge, nicht jedoch, wenn sie zur Erklärung von Erfolgen variable Faktoren verantwortlich machen (z.B. Anstrengung oder Glück). • Unterschiedliche Formen der Attribution führen zu unterschiedlichen emotionalen Reaktionen (leistungsbezogene Gefühle). Wird zum Beispiel Erfolg auf „Fähigkeit” und auf die eigene Persönlichkeit attribuiert (also intern und stabil), so entsteht Selbstvertrauten und erhöhtes Selbstbewußtsein; wird dagegen Mißerfolg auf „Unfähigkeit” oder andere feste Persönlichkeitseigenschaften attribuiert (also intern, stabil und unkontrollierbar), so entsteht eher das Gefühl von Inkompetenz bis hin zu Resignation. (3) Die Beeinflußbarkeit von Attributionsstilen im Leistungsbereich Wenn also Leistungszuversicht, Leistungsangst und Leistungsversagen eng mit den typischen Attributionen von Personen verknüpft sind, dann stellt sich die Frage, durch welche Einflüsse personentypische Attributionen zustandekommen, und wie sie sich durch systematische Interventionen ändern lassen. a) Einflüsse von Lehrern auf Attributionsstil und Motivation von Schülern In einer frühen Untersuchung hatte SCHERER (1972) gezeigt, daß Lehrer, die gute bzw. schlechte Leistungen ihrer Schüler durchgehend mit hoher bzw. fehlender persönlicher Anstrengung der Schüler erklären, ihre Klasse dazu bringen können, in derselben Weise zu attribuieren. Es zeigt sich dann in weiteren Untersuchungen, daß Lehrer sehr unterschiedlich vorgehen, was die Ursachenzuschreibung von Schülerleistungen betrifft (vgl. RHEINBERG, 1980; HOFER, 1986): z.B. scheinen einige Lehrer für die Erfolge oder Mißerfolge ihrer Schüler eher stabile Merkmale (wie Begabung, Intelligenz und Arbeitshaltung) verantwortlich zu machen, während andere stärker auf variable Merkmale (etwa Interesse, leib-seelische Verfassung, häusliche Probleme) attribuieren. Die Gründe für diese unterschiedlichen Ursachenzuschreibungen bei Lehrern werden in einer für kognitivistische Forschungsprogramme typischen Weise in den Informationsverarbeitungsprozessen der einzelnen Lehrer gesucht: Lehrer, die sich stark für die Leistungsunterschiede ihrer Schüler interessieren und diese (z.B. in Notenlisten) verstärkt zur Kenntnis nehmen (soziale Bezugsnorm-Orientierung), bemerken viel eher, daß einzelne Schüler dauerhaft schlechter als andere sind, und schließen so auf zeitstabile Ursachen. Andere Lehrer achten eher auf die individuelle Entwicklung einzelner Schüler (individuelle Bezugsnorm-Orientierung) und stellen weniger Vergleiche an. Sie attribuieren so mehr auf veränderliche Faktoren. Tatsächlich zeigt sich in mehreren Untersuchungen, daß Lehrer mit starker Orientierung an sozialen Bezugsnormen und starkem Interesse an Leistungsvergleichen häufig auch sehr ungünstige Motivationseffekte auf leistungsschwächere Schüler haben, was deren Leistungszuversicht und die leistungsbegleitenden Emotionen angeht. Günter Sämmer: Paradigmen der Psychologie - 296 - Kapitel 8: Kognitivismus b) Möglichkeiten der „Reattribuierung”: Veränderung ungünstiger Attributionsstile bei Lernern Besondere Leistungsprobleme haben, wie gesehen, Personen, die Mißerfolg stabil attribuieren, sei es auf internale oder auch auf externale Ursachen. Zwei Untersuchungen zeigen exemplarisch, daß die individuelle Art der Mißerfolgsattribution durchaus veränderbar ist: DWECK (1975) läßt Schulpsychologen und Lehrer Schülerinnen und Schüler nach ihrer Hilflosigkeit im Umgang mit Leistungsanforderungen einschätzen und wählt dann eine Extremgruppe (5 Mädchen und 7 Jungen) besonders hilfloser und demotivierter Kinder. Sie werden in zwei Gruppen eingeteilt und für 25 Tage unterschiedlich trainiert: Die erste Gruppe erhält ein „Erfolgstraining” anhand mathematischer Probleme, bei denen die Versuchsleiterin dafür sorgt, daß sie diese zu 100 Prozent erfolgreich lösen können. Die zweite Gruppe erhält ein „Attributionstraining”, ebenfalls mit mathematischen Aufgaben, allerdings werden bei 20 Prozent der Aufgaben Mißerfolge induziert. Hat ein Schüler einen solchen Mißerfolg, so formuliert die Versuchsleiterin eine internal-variable Attribution, z.B. „Hier hättest du durch mehr Anstrengung erreicht, daß ...” Tatsächlich nimmt nach Abschluß des Trainings die Anstrengungsbereitschaft der Gruppe mit Attributionstraining zu, die der Kontrollgruppe mit Erfolgstraining bleibt unverändert. Eine andere Untersuchung führen WILSON und LINVILLE (1985) an Studenten im ersten Studienjahr durch, deren Noten unter dem Durchschnitt liegen. Einer Gruppe von ihnen werden ausführliche Informationen darüber zugänglich gemacht, daß die Ursachen für anfängliche Mißerfolge an der Universität instabil sind: Sie bekommen Statistiken über die Notenentwicklung anderer Studenten während mehrerer Jahre, Videoaufzeichnungen von Interviews mit älteren Studenten, die angeben, daß sich ihre Leistung bei anfänglichen Problemen im Laufe der Zeit gebessert hätte. Die Kontrollgruppe erhält Informationsmaterial und Videointerviews, die sich nicht auf eine Leistungsverbesserung beziehen. Eine systematische Erhebung aller weiteren Studienleistungen beider Gruppen zeigt nun, daß sich die Leistungen der Studenten aus Gruppe 1 signifikant gegenüber der Kontrollgruppe verbessern, und daß von dieser Gruppe weniger Studenten die Hochschule verlassen. Die Autoren interpretieren dies dahingehend, daß die Veränderung der Attribution des Studienmißerfolgs auf instabile Ursachen dazu führt, daß die betreffenden Studenten ihr Studium mit weniger Angst und erhöhter Erfolgserwartung und damit erfolgreicher fortgesetzt haben. Diese und ähnliche Untersuchungen haben inzwischen zu einem Repertoire pädagogisch-psychologischer Interventionstechniken geführt, die alle eine Reattribuierung bei leistungsschwachen, demotivierten Schülern zum Ziel haben (vgl. FÖRSTERLING, 1986). 8.7.2 Werbepsychologie - eine Übersicht über kognitivistisch rekonstruierte Problembereiche (1) Beiträge kognitivistischer Forschungsprogramme zur Werbepsychologie Die Affinität insbesondere sozialpsychologischer kognitivistischer Forschungsprogramme zur Markt- und Werbepsychologie ist, so IRLE (1983), unverkennbar. Insbesondere in der Einstellungsforschung lesen sich die Themen nicht selten wie Überschriften werbepsychologischer Grundlagenforschung: „Attitudes and Persuasion”(PETTY & CACCIOPPO, 1981) oder „Distraction can enhance or reduce yielding to propaganda” (PETTY, WELLS, & BROCK, 1976). In seiner Übersichtsarbeit über die psychologischen Grundlagen der Werbepsychologie nennt MOSER (1990) u.a. die folgenden Beiträge kognitivistischer Psychologie: • Aufmerksamkeitssteuerung, z.B.: Nutzung unterschiedlicher Sinnesmodalitäten und Kanalkapazitäten in Webespots und -anzeigen; Neuartigkeit und Komplexität - das Verhältnis von Kongruenz und Inkongruenz kognitiver Schemata. Günter Sämmer: Paradigmen der Psychologie - 297 - Kapitel 8: Kognitivismus • Lernen als Informationsaufnahme, z.B.: semantische, bildhafte, episodische und prozedurale Codierung und Repräsentation im Langzeitgedächtnis. • Einstellungen, ihre Handlungsrelevanz und Möglichkeiten ihrer Veränderung, z.B.: kognitive Dissonanz nach Kaufentscheidungen; Tiefe der Verarbeitung und Methoden der Überzeugungsänderung. • Soziale Prozesse, z.B.: soziale Beeinflussung; Konformität und Informationsverarbeitung; Informationseinfluß und normativer Einfluß, Majoritäten- und „Meinungsführer”-einfluß. (2) Steigerung von Gedächtnis- und Behaltensleistungen a) Imagery: interaktive Illustration und Gedächtnis Das Behalten kurzfristig dargebotener Informationen durch den Rezipienten ist für die Wirkung von Werbung ein wesentlicher Faktor. Um dies zu optimieren, werden eine Reihe von Prinzipien der Werbepsychologie aus den klassischen Gedächtnismodellen von ATKINSON und SHIFFRIN oder T ULVING abgeleitet, zum Beispiel: Die unterschiedlichen Typen der Repräsentation von Informationen im Langzeitgedächtnis legen es nahe, bei der Informationsübermittlung auch unterschiedliche Codierungsformen zu verwenden. So zeigt sich, daß Informationen, die nicht nur verbal sondern auch bildhaft im Gedächtnis repräsentiert werden, besser erinnert werden. Dies gilt auch für anschaulich bildhafte Wörter im Vergleich zu abstrakten (vgl. BRANSFORD, 1979). Besonders großen Einfluß auf die Gestaltung von Werbeanzeigen haben die gedächtnispsychologischen Untersuchungen von LUTZ und LUTZ (1977) zur „interaktiven Verknüpfung” von Bild und Schrift („Imagery”): Eine solche Schrift-Bild-Interaktion liegt vor, wenn Bild und Schrift nicht assoziativ nebeneinander gestellt werden, sondern inhaltlich aufeinander Bezug nehmen, also eine gemeinsame Information codieren (vgl. Abb. 8.14). Abb. 8.14: Beispiel für interaktive Illustration von Produkt und Marke (nach Lutz & Lutz, 1977; S. 474) Günter Sämmer: Paradigmen der Psychologie - 298 - Kapitel 8: Kognitivismus Abb. 8.15: Erinnerte Markennamen mit und ohne Illustration bei interaktiver und nicht interaktiver Darstellung (nach: LUTZ & LUTZ, 1977) Abb. 8.15 zeigt den von LUTZ und LUTZ gefundenen Zusammenhang zwischen der Darstellungsform und der Erinnerungsleistung bei Markennamen: Markennamen werden besser behalten, wenn sie in Interaktion mit einer Illustration dargeboten werden; in Interaktion mit anderen Namen erhöht sich die Behaltensleistung nicht. Die Autoren der Imagery-Forschung erklären die Verbesserung der Gedächtnisleistung bei interaktiver Darbietung damit, daß die Informationen im Langzeitgedächtnis auf zwei Ebenen, semantisch und bildlich repräsentiert und damit löschungsresistenter und leichter wieder abrufbar werden. b) Tiefe der Verarbeitung Viele Werbefachleute versuchen, die Gedächtnisleistung für Werbeinformationen dadurch zu erhöhen, daß sie die Verarbeitungstiefe der dem Rezipienten angebotenen Informationen intensivieren. Ausgehend von CRAIK und LOCKHART s (1972) Untersuchungen zur Steigerung der Gedächtnisleistung bei steigender Verarbeitungstiefe („processing-level”) zeigt SAEGERT (1978), daß Inhalte von Zeitungsanzeigen, die nur für einen kurzen Moment angesehen werden können (5 Sekunden), dann besser behalten werden, wenn die Rezipienten aufgefordert werden, eine Frage auf semantischer Ebene zu beantworten (z.B. „Haben Sie diese Marke schon einmal benutzt?”). Werden dagegen nur „oberflächliche” Fragen gestellt (z.B. „Welche Farbe hatte die Schrift?”), so ist die Gedächtnisleistung geringer. Andere Untersuchungen gehen in ähnliche Richtung: Wird zu einer Werbeillustration das Dargestellte im anschließenden Werbetext noch einmal benannt („framing”), so steigt die Behaltensleistung, da durch ein zusätzliches Einschalten der semantischen Ebene die Verarbeitungstiefe zunimmt (vgl. EDELL & STAELIN, 1983). (3) Einstellungsänderung und Überzeugung durch Argumentationsstrategien in Anzeigen Nach PETTY und CACCIOPPO (1986) sind für eine wirksame Überzeugungstrategie zwei Faktoren ausschlaggebend: Die Güte der zur Überzeugung vorgebrachten Argumente und die gleichzeitige Elaboration der Botschaft durch den Aufnehmenden (Weg der Verarbeitung): Gute Argumente wirken überzeugungsändernd nur, wenn sie auf zentralem Weg, also elaboriert verarbeitet werden. Schwache Argumente dagegen können nur etwas auf dem peripheren Weg bewirken. Zur Manipulation des Involvements und der Elaboration von Informationen in Werbeanzeigen werden z.B. folgende Möglichkeiten vorgeschlagen: Günter Sämmer: Paradigmen der Psychologie - 299 - Kapitel 8: Kognitivismus • Zweiseitige Argumentation: Wenn für das beworbene Produkt nicht nur befürwortende Argumente vorgebracht werden, sondern auch (nicht ganz so starke) Gegenargumente, so ist die Überzeugungswirkung langfristig höher, im Vergleic h zu einer einseitigen Information, deren Wirkung anfangs stärker ist, aber bald nachläßt (vgl. ETGAR & GOODWIN, 1982). Es wird angenommen, daß dieser Effekt zustande kommt, einerseits weil zweiseitige Argumentation die Verarbeitungstiefe erhöht (zentraler Weg), andererseits, weil die Gegenargumente den Rezipienten „impfen” gegen überraschende Kritik. • Vorbilder und qualifizierte Minderheiten: Machen in Werbeanzeigen oder -spots einzelne Personen oder Minderheiten mit hohem Sozialprestige positive Aussagen zu einem Produkt, so veranlaßt dies eher zentrale Informationsverarbeitungsprozesse und trägt damit zu einer Einstellungsänderung bei (vgl. z.B. NEMETH, 1986). • Attraktive Modelle lassen den Rezipienten eher den peripheren Weg der Informationsverarbeitung gehen und sind so geeignet, wenn das Involvement eher gering ist - und die Argumentationslage eher schwach (vgl. z.B. KAHLE & HOMER, 1985). 8.8 Das Paradigma der kognitivistischen Psychologie: ein paradigmatisches Subsumptionsmodell kognitivistischer Forschungsprogramme 8.8.1 Das kognitivistische Subsumptionsmodell (1) Paradigmatische Basiseinheiten der kognitivistischen Psychologie: zentrale Begriffe und Relationen Informationsverarbeitung Hauptgegenstände der kognitivistischen Psychologie sind die Informationsverarbeitungsprozesse von Individuen. Kognitivisten nehmen an, daß Informationsverarbeitungsprozesse zentrale Bestandteile aller Aktivitäten sind. Somit lassen sich alle psychischen Phänomene entweder als Prozesse oder als Produkte von Informationsverarbeitung interpretieren. Die Bestandteile, die Dynamik und die Funktion von Informationsverarbeitungsprozessen bilden die wesentlichen Attribute des paradigmatischen Subsumptionsmodells. Im einzelnen sind dies: Kognitive Repräsentationen Alle lebenden Individuen sind in der Lage, Informationen zu speichern. Sie bilden dadurch kognitive Repräsentationen von Gegebenheiten, Ereignissen und Zusammenhängen sowohl ihrer Außenwelt als auch ihrer Innenwelt. Kognitive Repräsentationen sind keine analogen Bilder, die in irgendeiner Weise Ähnlichkeit mit ihrem Repräsentandum haben, sondern es sind gesetzmäßige Zuordnungen mentaler Prozesse zu „Originalen”, die innerhalb und außerhalb des Subjekts liegen können. Kognitive Prozesse Kognitive Repräsentationen können durch informationsverarbeitende Prozesse in unterschiedlicher Weise verändert oder verknüpft, gespeichert oder hervorgeholt werden. Sie sind autonom und können ohne äußere Anstöße in Gang gesetzt werden. Konstruktion organisierter kognitiver Schemata und Wissensstrukturen Kognitive Prozesse organisieren einzelne kognitive Repräsentationen in einem aktiven Konstruktionsprozeß zu hierarchisch organisierten kognitiven Schemata bzw. Wissensstrukturen. (2) Paradigmatische Fundamentalgesetze der kognitivistischen Psychologie Kognitive Prozesse und Verhalten Alle äußeren Aktivitäten offenen Verhaltens wie auch alle inneren Aktivitäten des Individuums werden durch kognitive Prozesse (Informationsverarbeitungsprozesse) hervorgerufen und beeinflußt. Günter Sämmer: Paradigmen der Psychologie - 300 - Kapitel 8: Kognitivismus Zielgerichtete Aktivitäten und Selbststeuerung Alle inneren und äußeren Aktivitäten eines Individuums sind zielgerichtet und selbstgesteuert; d.h. das Individuum kann aufgrund kognitiver Prozesse seine inneren und äußeren Aktivitäten selbsttätig so steuern, daß es den als kognitive Strukturen gespeicherten Zielen dieser Aktivitäten näherkommt. Solche aktiven Steuerungsprozesse können • offenes Verhalten steuern (von einfachen Muskelkoordinationen bis hin zu Körperbewegungen), aber auch innere Aktivitäten (z.B. die Wahrnehmung, das Denken oder das Problemlösen); • sie können sich auf der makroskopischen Ebene (z.B. als Handlungen) oder auf der mikroskopischen Ebene (z.B. als Reizselektion bei der Aufmerksamkeitssteuerung) manifestieren; • sie können dem Individuum bewußt sein, aber auch nicht bewußt und unbemerkt ablaufen. (3) Die paradigmatische Methodologie der kognitivistischen Psychologie Kognitivistische Transformationsannahmen Eine wesentliche Forderung an die Forschungsmethodik ist ihre möglichst hohe Objektivität und Reproduzierbarkeit. Es wird angenommen, daß auch innere Prozesse der Informationsverarbeitung objektiven empirischen Methoden zugänglich sind. Dabei wird eine allzu große Rigorosität vermieden, wenn diese droht - wie es im Behaviorismus nicht selten vorkam - den Gegenstandsbereich zu sehr zu verengen. Bei einzelnen Methoden (wie z.B. bei introspektiven „Gedankenprotokollen”) wird manchmal sogar auf eine strenge Objektivierbarkeit verzichtet, wenn sie durch objektive „flankierende” Verfahren (z.B. Verhaltensanalyse) ergänzt werden können. Zur Erfassung und Rekonstruktion kognitiver Prozesse werden häufig eingesetzt: • standardisierte oder offene Befragungen • direkte Verhaltensbeobachtungen und Verhaltensanalysen • Analyse von Fehlern im offenen Verhalten • Messung von Reaktionszeiten • Aufzeichnung physiologischer Daten Insgesamt sind sowohl Labor- als auch Feldexperimente und -untersuchungen möglich. Theoriebildung und Sprachspiel 1. Theorien mittlerer Reichweite Bis heute existiert keine „große” Rahmentheorie, auf die sich (wie z.B. bei den Konditionierungstheorien der Behavioristen) weite Bereiche kognitivistischer Forschung und Theoriebildung beziehen können. Statt dessen werden zur Bearbeitung bestimmter Problembereiche „Modelle (Theorien) mittlerer Reichweite” über die konkret zu problematisierenden Informationsverarbeitungsprozesse gebildet. 2. Konstruktivistische Kernannahmen Kognitivistische theoretische Modelle sind keine „Schlußfolgerungen” aus empirischen Beobachtungen, sondern hypothetische Konstrukte. Für sie gilt das Kriterium der pragmatischen Bewährung. Als Indikatoren für die Bewährtheit eines Modells werden z.B. akzeptiert: • seine Fähigkeit, alte oder neue empirische Befunde zu erklären; (Viele Theorien entstehen, wie oben gezeigt, als theoretische Synthese aus einer Reihe von älteren Untersuchungsergebnissen.) • seine Fähigkeit, ältere und bewährte Modelle zu umfassen und zu verallgemeinern; • seine Fähigkeit, erfolgreiches theoriegeleitetes (psychologisch-technologisches) Handeln zu ermöglichen; (dies z.B. bei Konstrukten aus „Angewandten” Disziplinen, die in Grundlagendisziplinen importiert werden). 3. Zwei Ebenen des kognitivistischen Sprachspiels Innerhalb des kognitivistischen Sprachspiels lassen sich mindestens zwei Ebenen unterscheiden: Günter Sämmer: Paradigmen der Psychologie • • (4) - 301 - Kapitel 8: Kognitivismus Die Ebene der Systeminterpretation: Hier werden Informationsverabeitungsprozesse in informationstheoretisch-kybernetisch-technischen Begriffen beschrieben wie „Input”, „Speicher”, Zuordnung bzw. Transformation von Informationen”, „Rückkopplung und Steuerung”. Die Ebene der Handlungsinterpretation: Auf dieser Ebene werden Informationsverarbeitungsprozesse in eher psychologischen Begriffen formuliert wie „Wahrnehmung”, „Gedächtnis”, „Einstellungsänderung” oder „Attribution”, „Handlungssteuerung”. Das Menschenbild der kognitivistischen Psychologie Autonomes Subjekt Der Mensch wird angesehen als ein autonomes, Information verarbeitendes Subjekt. Mentale Prozesse Kernbestandteil aller psychischen Phänomene ist die Dynamik innerer mentaler, kognitiver Prozesse. Der Mensch ist in der Lage, ein komplexes, zusammenhängendes Bild seiner Umwelt und seiner selbst, sowohl seiner Eigenschaften als auch seiner Ziele und Fähigkeiten, zu konstruieren und mental zu repräsentieren (Selbstbild). Alle mentalen Prozesse werden verstanden als aktive Formen der Informationsverabeitung. Zielgerichtete, selbstgesteuerte Aktivitäten Menschliche Aktivitäten sind stets ziegerichtet, wobei der Mensch seine Ziele kognitiv konstruiert und das Erreichen dieser Ziele selbsttätig überwacht. Viele dieser Aktivitäten (meist auf makroskopischer Ebene) sind bewußt geplant und kontrolliert (z.B. intentionales Handeln), andere (häufig auf der mikroskopischen Ebene) verlaufen ohne bewußte Kontrolle (z.B. die elementaren Prozesse der Reizselektion- und verarbeitung), sind aber ebenfalls zielgerichtet und selbstgesteuert. 8.8.2 Die Forschungsprogramme der kognitivistischen Psychologie: Attributzuordnungen Die Möglichkeit der Zuordnung der Attribute des Subsumptionsmodells soll an folgenden, oben dargestellten kognitivistischen Forschungsprogrammen demonstriert werden: • Emotionsforschung • Attributionsforschung • Einstellungsforschung • Selbstkonzept- bzw. Selbstschemaforschung (1) Attributzuordnungen für die Emotionsforschung In SCHACHTERs Theorie sind Emotionen das Ergebnis von Informationsverarbeitungsprozessen. Sie entstehen aus der Integration von Informationen (kognitive Prozesse), die zwei verschiedenen Quellen entstammen: Einerseits sind es kognitive Repräsentationen physiologischer Erregungszustände, anderseits die Ergebnisse von Interpretationsprozessen situativer Gegebenheiten auf dem Hintergrund von Erfahrungen. Die „Etikettierung” unerklärter physiologischer Erregungszustände ist somit eine kognitive Struktur, die aufgrund selbstgesteuerter kognitiver Aktivitäten zustande gekommen ist. Der Etikettierungsprozeß endet, wenn eine „plausible” Erklärung als emotionales Etikett gefunden ist (Ziel). Emotionen werden insgesamt aufgefaßt als Synthese kognitiver Prozesse, die das Verhalten beeinflussen (z.B. als emotionales „Ausdrucksverhalten” in der Versuchssituation). Günter Sämmer: Paradigmen der Psychologie (2) - 302 - Kapitel 8: Kognitivismus Attributzuordnungen für die Attributionsforschung Der kognitive Prozeß, durch den eine Attribution zustande kommt, verknüpft zwei Arten kognitiver Repräsentationen: das Repräsentat eines sozial bedeutsamen Ereignisses mit dem Repräsentat einer Gegebenheit, die als „Ursache” dieses Ereignisses interpretiert wird. Ergebnis ist zunächst ein organisiertes kognitives Schema: eine Ursache-Wirkungs-Beziehung. In KELLEYs Attributionstheorie werden zu diesem Zweck kognitive Repräsentationen von Entitäten, zeitlichen Umständen und Personenmerkmalen gebildet und miteinander in eine logisch strukturierte Kovarianz-Beziehung gebracht. Attributions-”Fehler” entstehen dadurc h, daß diese Entscheidungsgrundlage entweder unvollständig ist oder aufgrund von „fehlerhafter” Verarbeitung (z.B. Wahrnehmungsverzerrungen, Fehlschlüsse, Einflüsse motivationaler Steuerungsprozesse). Die Attributionsbildung ist eine selbstgesteuerte, innere Aktivität, die das Ziel hat, alle vorhandenen relevanten Repräsentate in einen möglichst kohärenten, widerspruchsfreien Gesamtzusammenhang zu bringen. Personenspezifische Attributionsstile entstehen durch ein Regelsystem (kognitives Schema) auf der „Metaebene”, das Gesetzmäßigkeiten für die Bildung von Attributionen enthält und damit den Prozeß der Attribuierung steuert. (3) Attributzuordnungen für die Einstellungsforschung In PETTY & CACCIOPPOs bzw. FISHBEIN & AJZEN s kognitivistischer Interpretation sind Einstellungen Ergebnisse kognitiver Prozesse: Sie entstehen aus den Verknüpfungen zweier Typen kognitiver Repräsentationen, einer einfachen affektiven Bewertungskategorie (z.B. positiv oder negativ) mit den Repräsentaten von Eigenschaften einer Person, eines Objekts oder persönlicher Zielsetzungen. Ein konkretes, einfaches Modell für das Zustandekommen von Einstellungen ist das Erwartungs-WertModell: Es beschreibt eine mögliche Gesetzmäßigkeit der kognitiven Prozesse beim Zustandekommen von Einstellungen gegenüber Gegebenheiten, die mehrere bewertbare Eigenschaften besitzen, wobei die „Erwartungen” genannten Kognitionen mit den „Bewertungen” verrechnet werden. So entstehen Einstellungen als Ergebnisse selbstgesteuerter zielgerichteter Aktivitäten, die in eine relativ einfache kognitive Struktur münden. Das Elaboration-Likelihood-Modell von PETTY und CACCIOPPO beschreibt Gesetzmäßigkeiten kognitiver Prozesse bei der Veränderung von Einstellungen: Es stellt Zusammenhänge her zwischen der Qualität kognitiver Prozesse (Grad der „Elaboration”) und der kognitiven Bewertung von Prozessen der Aufnahme von Informationen, die zur Einstellungsänderung führen sollen („dominante kognitive Reaktion”). Und es sagt voraus, unter welchen Bedingungen Einstellungsänderungen zustande kommen. Alle am Zustandekommen oder der Veränderung von Einstellungen beteiligten Prozesse sind selbstgesteuert und zielen auf eine möglichst widerspruchsfreie, kohärente Integration aller beteiligten Kognitionen. Einstellungen werden als handlungsrelevant (verhaltenssteuernd) angesehen, ohne allerdings determinierend zu sein. (4) Attributzuordnungen für die Selbstkonzept- bzw. Selbstschemaforschung Das von Hazel MARKUS postulierte „dynamische Selbst” besteht aus komplexen kognitiven Strukturen (Selbstschemata), die kognitive Repräsentationen bzw. Teilstrukturen unterschiedlicher Bereiche enthalten: • selbstbezogene Informationen: das Wissen um die eigenen Eigenschaften und Fähigkeiten • selbstbezogene Ziele: das Wissen um die eigenen Vorlieben, Werte, Motive und persönlichen Ziele („potentielles Selbst”) Beide Bereiche des „dynamischen Selbst” entstehen in selbstgesteuerten kognitiven Prozessen: Selbstrelevante Informationen werden abstrahiert und zu komplexen Schemata organisiert. Sie selektieren Günter Sämmer: Paradigmen der Psychologie - 303 - Kapitel 8: Kognitivismus alle neuen Informationen und konstituieren Interpretationsmuster für deren Verarbeitung. Sie definieren „Domänen persönlicher Verantwortlichkeit”, in denen das Individuum seine Ziele zu verwirklichen trachtet, und dadurch in besonderer Weise bereit ist zu inneren (kognitiven) und äußeren (handlungsbezogenen) Aktivitäten. Günter Sämmer: Paradigmen der Psychologie - 304 - Kapitel 8: Kognitivismus Günter Sämmer: Paradigmen der Psychologie 9. - 305 - Kapitel 9: Möglichkeiten und Grenzen Kapitel Möglichkeiten und Grenzen des Paradigmenmodells der Psychologie Nach dem Entwurf des Paradigmenmodells der Psychologie lohnt ein Rückblick auf die Zielsetzungen, die ?pragmatischen Entschlüsse“ (siehe Kapitel 1), die der Konstruktion des Modells zugrunde gelegen haben: (1) Konstruiert werden sollte ein wissenschaftstheoretisch begründetes, plurales und unter Psychologen konsensfähiges Modell, das unter wissenschaftshistorischen und wissenschaftssoziologischen Gesichtspunkten das Gesamtsystem der Psychologie möglichst umfassend strukturiert und für diesen Strukturierungsprozeß klare Kriterien liefert. (2) In seiner didaktischen Funktion soll es einerseits dem Psychologie-Lernenden ein tieferes und auch kritischeres Verständnis seines Faches ermöglichen, andererseits nicht forschenden Praktikern die Anwendung technologischen wissenschaftlichen Wissens erleichtern. (3) Darüber hinaus soll das Modell berufsidentitätsstiftende Funktionen haben, indem es Psychologen dabei hilft, die aktuellen Forschungsprogramme unter alternativen Perspektiven kritisch zu betrachten und in Relation zu anderen psychologischen Richtungen ihren eigenen wissenschaftlichen Standpunkt zu bestimmen. 9.1 Das Paradigmenmodell der Psychologie: Pluralität und Konsensfähigkeit Wissenschaftstheoretische Konstruktion, 9.1.1 Das Rekonstruktionsinstrument: Das Paradigmatische Rekonstruktionsmodell Zur Rekonstruktion des Wissenschaftssystems der Psychologie wurde (in Kapitel 3) zunächst ein Analyseinstrumentarium entworfen, das Paradigmatische Rekonstruktionsmodell. Es ist ein wissenschaftstheoretisch eklektizistisches Modell, das die fundamentale und sozialpsychologische Perspektive von KUHNs Paradigmenansatz mit dem präzisen theorieanalytischen Instrumentarium des SNEED /STEG MÜLLERschen Strukturalismus verbindet. Die Kompatibilität beider Modelle wurde in Übereinstimmung mit STEGMÜLLER (1989) ausführlich begründet und in der Anwendung demonstriert. Grundlage und ?Objekte“ des Strukturierungsprozesses sind die wissenschaftlichen Forschungsprogramme der Psychologie, die in Anlehnung an HERRMANN (1992) in folgenden Komponenten betrachtet werden: Ein problematisierter Gegenstandsbereich wird vom sozialen System der miteinander zu diesem Zweck kommunizierenden Forscher oder Praktiker bearbeitet. Sie bilden dafür konsensuelle methodologische und theoretische Annahmekerne, die so aufeinander bezogen sind, daß in einem konstruktiven Kreisprozeß zur Prüfung theoretischer Annahmen empirische Modelle (?Methoden“) entwickelt, und umgekehrt aus empirischen ?Befunden“ theoretische ?Schlüs se“ gezogen werden (Interdependenz von Empirie-Theorie-Transformationen). Wesentlich zur Konstituierung eines wissenschaftlichen Forschungsprogramms sind dabei auch die nicht-expliziten Hintergrundannahmen, also Regeln des gemeinsamen Sprachspiels oder negative Heuristiken, die selten bewußt ausformuliert werden, aber dennoch das Forschungshandeln wie auch den emotionalen Zusammenhalt der Forschergruppe entscheidend beeinflussen. Ein Paradigma in diesem Netzwerk wissenschaftlicher Forschungsprogramme ist nun eine Struktur, die dadurch rekonstruiert werden kann, daß eine größere Zahl von Forschungsprogrammen aufgrund bestimmter Ähnlichkeiten gebündelt wird. Dazu wird jeweils ein ?paradigmatisches Subsumptions- Günter Sämmer: Paradigmen der Psychologie - 306 - Kapitel 9: Möglichkeiten und Grenzen modell“ konstruiert, bestehend aus den Basiseinheiten (zentrale Begriffe, elementare Relationen), den Fundamentalgesetzen (den Kernaussagen), der grundlegenden paradigmatischen Methodologie, dem Paradigmen-typischen Sprachspiel sowie den paradigmatischen Menschenbildannahmen. Analog zum Vorgehen in der Mathematik wird nun eine paradigmatische Struktur durch Konstruktion von Zuordnungen gebildet: Verschiedene Forschungsprogramme werden einem gemeinsamen Paradigma subsumiert, indem ihre Kernannahmen den Attributen dieses Subsumptionsmodells zugeordnet werden. Ist eine solche Zuordnung möglich, dann sagen wir, das betreffende Forschungsprogramm ?gehöre“ zu diesem Paradigma. 9.1.2 Rekonstruktionsergebnis: Das Paradigmenmodell der Psychologie (1) Grundsätze der Rekonstruktion Das eigentliche Ergebnis der Rekonstruktion ist das Paradigmenmodell der Psychologie (vgl. Tab. 9.1). Das dafür vorgeschlagene Instrument, das Rekonstruktionsmodell, führt aber keineswegs in deterministischer Weise zu eindeutigen Ergebnissen. Das Ausfüllen der verbleibenden konstruktiven Freiräume bei der inhaltlichen Konkretisierung des Rekonstruktionsvorgangs kann deshalb dazu verwendet werden sicherzustellen, daß die von diesem abstrakten Modell erzeugte Struktur auch unter Psychologen konsensfähig ist; daß heißt, daß möglichst viele von ihnen ihre Wissenschaft in ähnlicher Weise wahrnehmen. Mit diesem Ziel wurde eine größere Zahl moderner Lehr- und Übersichtswerke (der 80er und 90er Jahre) gesichtet (vgl. Kapitel 3). Es stellte sich heraus, daß unter Psychologen, die sich um eine Gesamtdarstellung der Psychologie oder einzelner ihrer Teildisziplinen bemühen, ähnliche Strukturwahrnehmungen weit verbreitet sind: Psychoanalyse und Behaviorismus, biopsychologische und holistische Ansätze sowie Kognitivismus werden immer wieder als grundlegende ?methodologische Hauptströmungen“, ?theoretische Ansätze“ oder auch ?Schulrichtungen“ der Psychologie bezeichnet, wobei im ersten Fall eher die Forschungsmethoden, im zweiten die theoretische Modellbildung und im dritten die soziale Struktur der Forschergemeinschaften zur Strukturierung des Wissenschaftssystems herangezogen werden; Kriterien also, die alle konstitutive Bestandteile eines wissenschaftlichen Paradigmas im KUHNschen Sinne sind. Sofern die durchgesehenen 24 Lehrbücher repräsentativ sind, hat das hier vorgelegte Paradigmenmodell als Rekonstruktionsmodell der Psychologie gute Chancen auf Konsensfähigkeit unter Psychologen, und zwar sowohl im Hinblick auf die verwendeten Strukturierungskriterien als auch auf die inhaltlichen Ergebnisse der Rekonstruktion. Unter Berücksichtigung dieser Ergebnisse wurden für die gegenwärtige Psychologie fünf grundlegende Paradigmen postuliert und anschließend im Detail rekonstruiert: • • • • • Tiefenpsychologie Ganzheitspsychologie Behaviorismus Psychobiologie Kognitivismus Das Paradigmenmodell der Psychologie beinhaltet, analog zum KUHNschen Paradigmenkonzept, zwei grundlegende Perspektiven: Es zeigt einerseits die Psychologie des 20. Jahrhunderts als paradigmatische Struktur ihrer Forschungsprogramme und gibt andererseits einen Einblick in die Dynamik ihrer historischen Entwicklung. Günter Sämmer: Paradigmen der Psychologie - 307 - Kapitel 9: Möglichkeiten und Grenzen Tab. 9.1: Ergebnis der Rekonstruktion: Das Paradigmenmodell der Psychologie des 20. Jahrhunderts - Ein tabellarischer Überblick Tabelle 9.1, Teil 1: Tiefenpsychologie, Ganzheitspsychologie, Behaviorismus Tiefenpsychologie Ganzheitspsychologie Behaviorismus paradigmatische Untersucht werden die Vorgänge im Basiseinheiten: psychischen System: Es reguliert Erleben und Verhalten, um die von elementaren Antrieben gesetzten zentrale Ziele zu erreichen. Wesentliche VorBegriffe gänge im psychischen System sind und unbewußte Prozesse. elementare Relationen Untersucht werden psychische Phänomene als Ganzheiten: Sie bestehen aus Teilen (Unterganzheiten), die interdependent aufeinander einwirken. Durch Interdependenz der Teile entstehen Ganzheiten als prinzipiell neue emergente Phänome. Untersuchungsgegenstand ist das offeneVerhalten: Beobachtbare äußere Reaktionen von Individuen auf äußere Reize. Regulation und Adaption: Das psychische System reguliert die inneren Zustände im Hinblick auf paradigmatische eine möglichst gute Anpassung an die Fundamental- Außenwelt. gesetze: Selbstorganisation: Jede Ganzheit entsteht ohne äußere Verursachung "aus sich selbst". Reiz-Reaktions-Modell: Äußere Reize und beobachtbares Verhalten eines Individuums sind gesetzmäßig miteinander verknüpft: Zentrale inhaltliche Behauptungen Genetisches Grundgesetz: sukzessive Strukturbildung im Verlauf der ontogenetischen Entwicklung; daraus entsteht eine Persönlichkeits- bzw. Charakterstruktur. "scientific community": Gründer und wichtige Vertreter Reiz6 (Organismus)6 Verhalten Das Verhalten steht damit „unter der Kontrolle“ der äußeren Reizsituation. Konflikt und Verdrängung: Konflikte zwischen den Antrieben sowie inneren und äußeren Anforderungen können zu dauerhafter Verdrängung und Hemmung von Trieben führen. Psychoanalytische Gesprächsparadigmatische situation: an klinischen Einzelfällen Methodologie: systematisch auf unbewußte Prozesse rückschließen; Introspektion; theorieorientierte Deutung (qualitativ Untersuchungs- beschreibende hermeneutische Memethoden, thode). Forschungstechniken, Strategien der Theoriebildung durch Vergleich von Theoriebildung Einzelfallstudien. Menschenbild Dynamisches Gleichgewicht: Ganzheiten streben stets einem dynamischen Gleichgewichtszustand zu. Lernprozesse: Jede Reiz-Reaktions-Verbindung kann durch äußere Einflüsse dauerhaft verändert werden. Ganzheitliche Erfassung aller Phänomene in möglichst realistischen Situationen; Beobachtung von „Phasenübergängen“. Theoriebildung durch „ganzheitliches“ Sprachspiel Strenge experimentelle Methodik: objektive Kontrolle der untersuchten Variablen möglichst im (Labor-) Experiment; Genauigkeit quantitativer Messung; Reproduzierbarkeit aller empirischen Verfahren. Theoriebildung durch Induktion. Der Mensch reguliert z.T. durch unbewußte Prozesse die Ansprüche aus seinen inneren elementaren Antrieben und der Außenwelt. Der Mensch steht als organismisches System in aktiver Auseinandersetzung mit der Umwelt. Der Mensch steht unter der Kontrolle von Reizen seiner sozialen und physikalischen Umwelt; Lernprozesse optimieren seine Anpassung. FREUD (ab ca. 1900); ADLER, JUNG WERTHEIMER (ab ca.1912); KÖHLER, KOFFKA, LEWIN, KRÜGER WATSON (ab ca.1913) GUTHRIE, H ULL, SKINNER; T OLMAN Günter Sämmer: Paradigmen der Psychologie Tiefenpsychologie Grundrichtungen: 1. Klassische Psychoanalyse (Freud und Schüler) Einige 2. soziale Richtungen (Adler, Horwichtige ney, Fromm ...) Forschungspro- 3. philosophische Richtungen (Jung, gramme Binswanger...) - 308 - Kapitel 9: Möglichkeiten und Grenzen Ganzheitspsychologie Grundrichtungen: 1. Berliner Schule (Wertheimer, Köhler, Koffka, Lewin) 2. Leipziger Schule (Krueger, Sander) 3. „Rekursive Systeme“ Sozialpsychologie: soz. Interaktion (Thibaut, Kelley) Klinische Psychologie: psychoana- Pädagogische Psychologie: lytische Therapie, Gruppentherapie "Lernen durch Einsicht" (Wert(Balint), psychosomatische Medizin heimer, Katona); „Situated Cognition“ (Clancey, Greeno) Pädagogische Psychologie: programmiertes Lernen, Verhaltenssteuerung von Kindern (Skinner) Tabelle 9.1, Teil 2: Psychobiologie, Kognitivismus Psychobiologie Kognitivismus paradigmatische Untersucht wird das biologisch Basiseinheiten: adaptive Verhalten, also autonome Aktivitäten zur Sicherung des Überlebens und der Fortpflanzung. Verzentrale halten unterliegt genetischen EinBegriffe flüssen und ist hierarchisch orgaund nisiert. Es ist immer sowohl von elementare innen als auch von außen bedingt. Relationen Untersucht werden Prozesse der Informationsverarbeitung. Diese beruhen darauf, daß kognitive Repräsentationen verschiedenen kognitiven Prozessen unterzogen werden. Aus solchen Prozessen bilden sich organisierte kognitive Schemata und Wissensstrukturen. Anpassung und Reproduktion: Jedes Verhalten hat Einfluß auf die Anpassungs- und Reproduktionsparadigmatische fähigkeit eines Individuums. Fundamentalgesetze: Verhalten entwickelt sich phylogenetisch in evolutionären Prozessen. Verhaltensrelevanz: Kognitive Prozesse sind in der Lage, Verhalten hervorzurufen. inhaltliche Behauptungen Grundrichtungen: 1. Kontiguität (Guthrie) 2. Systematische Lerntheorie (Hull) 3. Operantes Konditionieren (Skinner) 4. Kognitiver Behaviorismus (Tolman) Sozialpsychologie: GruppenpsySozialpsychologie: Kleinchologie (Simmel, Alexander, Richter) gruppenphänomene (Lewin); Transaktionsanalyse (Berne) soz. Konvergenzphänomene (Asch, Sherif, Milgram ) Entwicklungspsychologie: "Identität" (Erikson); "Deprivation" (Spitz) Entwicklungspsychologie: Entwicklungs- Stufenmodelle Persönlichkeitspsychologie: Di(Kroh, Werner); Entwicklung der agnostik (Rorschach) Intelligenz (Piaget) Klinische Psychologie: Gestalttherapie (Perls), Gesprächstherapie (Rogers), Systemische (Familien-) Therapie (Watzlawick u.a.) Zentrale Behaviorismus Reproduktive Fitneßmaximierung: Der Prozeß der natürlichen Selektion führt zu einer stetigen Verbesserung der Anpassungsfunktion jedes Verhaltens Handlungsregulation: Jedes Verhalten ist aktiv, zielgerichtet und plangesteuert. Entwicklungspsychologie: Erziehungsstile (Sears) Persönlichkeitspsychologie: sekundäre Motivsysteme (Hull, Dollard & Miller) Klinische Psychologie: Verhaltenstherapie, "systematische Desensibilisierung" (Wolpe), "token economy" (Skinner) Günter Sämmer: Paradigmen der Psychologie Psychobiologie Verschiedene empirische Methoparadigmatische den: Ungestörte und künstliche Methodologie: Beobachtungs- bzw. Experimentalsituationen; Wahrung des "funktionalen Bezuges" von Verhalten; Untersuchungsmethoden, Theoriebildung durch vergleichende ForschungsMethode: systematischer Vergleich techniken, Strategien der verschiedener Arten oder Kulturen; Theoriebildung spieltheoretische Modelle Menschenbild "scientific community": Gründer und wichtige Vertreter - 309 - Kapitel 9: Möglichkeiten und Grenzen Kognitivismus Objektive empirische Verfahren: Labor- und Feldexperimente, Befragungen; möglichst hohe Reproduzierbarkeit; aber auch Liberalisierung möglich, wenn sonst Phänomene „verlorengehen“ würden. Theoriebildung: Theorien „mittlerer Reichweite“ als hypothetische Konstrukte - Theorien haben Modellcharakter Der Mensch ist ein aktiver biologischer Organismus, dessen Verhalten fortpflanzungs- und erhaltungsrelevante adaptive Funktionen hat. Der Mensch ist ein aktiver, informationsverarbeitender Organismus mit zielgerichteten, selbstgesteuerten Handlungen. LORENZ, T INBERGEN (ab ca. 1935); WILSON, HAMILTON, M AYNARD SMITH M ILLER, BROADBENT , PRIBRAM, G ALANTER (ab ca.1960) Grundrichtungen: 1. Klassische Ethologie (Lorenz, Tinbergen) Einige 2. Soziobiologie (Wilson) wichtige 3. Evolutionspsychologie (Tooby, Forschungspro- Cosmides) gramme Sozialpsychologie: Aggression (Eibl-Eibesfeld), soziale Rollen (Hinde); Zeichen, Signale, Sprache (Frisch, Scherer, Wickler); "Soziobiologie" (Maynard Smith, Wilson); sexuelle Partnerwahl (Buss) Entwicklungspsychologie: Deprivation (Harlow); Bindungsverhalten (Bowlby, Ainsworth); Kindheit (Hassenstein) Grundrichtungen: 1. Quantitative Systemmodelle („Computermodelle“) (BROADBENT , A NDERSON) 2. Kognitive Denk-, Handlungsund Problemlösemodelle (M ILLER, K ELLEY, SCHACHTER, FLAVELL) Sozialpsychologie: Attributionstheorien (HEIDER, KELLEY); Emotionstheorie (SCHACHTER, SINGER) Einstellungen (AJZEN, FISHBEIN, PETTY, CACIOPPO) Persönlichkeitspsychologie: Selbstkonzept (Wicklund, Filipp); Selbst-Schema (Markus) Entwicklungspsychologie: Metakognitionen (Flavell); Entw. d. Leistungsmotivation (Heckhausen) Pädagogische Psychologie: Attribution und Leistung (Weiner); Produktionssysteme (Anderson) Klinische Psychologie: Rational-emotive Therapie (Ellis); Kognitive Therapie der Depression (Beck) Günter Sämmer: Paradigmen der Psychologie (2) - 310 - Kapitel 9: Möglichkeiten und Grenzen Aspekte der wissenschaftshistorischen Entwicklungsdynamik a) Paradigmen-Vorläufer außerhalb des ?mainstream“ Ein neues psychologisches Paradigma wird durch einzelne Forscher oder kleinere Forschergruppen gegründet, und zwar stets auf dem Hintergrund bereits bestehender einzelner Forschungsprogramme, die bis dahin außerhalb des ?mainstream“ manchmal nur ein Nischendasein fristen; dies sind z.B.: • Charcots Studien über Hysterie für FREUDS Tiefenpsychologie, • Külpe, Meinong und EHRENFELS holistische Arbeiten für die Ganzheitspsychologie, • Pawlows und THORNDIKEs lerntheoretische Ansätze für den Behaviorismus, • Darwins Evolutionstheorie für die Psychobiologen, • POLLACKS, HAKES oder GARNERS frühe Gedächtnisexperimente für den Kognitivismus. b) Neudefinition des Gegenstandsbereichs und grundlegende Modellbildung Die Gründer bündeln und selektieren einzelne Aspekte ihrer Vorgänger und kristallisieren daraus ein griffiges Grundmodell, das dann weiter expliziert, elaboriert und empirisch fundiert wird. Ein solches neues psychologisches Grundprinzip muß geeignet sein, durch eine fundamentale Neudefinition des Gegenstandsbereiches eine zur bestehenden Psychologie alternative Konzeption zu ermöglichen. Es legt zunächst durch ?existenzkonstatierende Kernannahmen“ (vgl. HERRMANN, 1992) fest, was ein ?relevantes“ psychisches Phänomen ist, welche Klasse von Phänomenen also von nun an untersucht werden soll. Für die verschiedenen Paradigmen der Psychologie lassen sich diese (hier in bewußter Verkürzung und Komprimierung) wie folgt formulieren • für die Tiefenpsychologie: Psychische Phänomene sind Funktionen eines psychischen Apparats aufgrund unbewußter Prozesse; • für die Ganzheitspsychologie: Psychische Phänomene sind Ganzheiten (?emergente Phänomene“) des Erlebens und Verhaltens; • für den Behaviorismus: Psychische Phänomene sind Verhaltensweisen, die von Reizen verursacht werden; • für die Psychobiologie: Psychische Phänomene sind evolutionsbedingte, adaptive Formen des Erlebens und Verhaltens; • für den Kognitivismus: Psychische Phänomene sind Formen der Informationsverarbeitung. Anders als KUHN dies postuliert, werden solche paradigmatischen Kernannahmen in der Psychologie von den Gründern häufig sehr früh in manifestartigen programmatischen Erklärungen formuliert und ?auf den Punkt“ gebracht. Die Grundmodelle gewinnen nun umso mehr an Dynamik, je mehr sie den zeitgenössischen Trend ?modernen Denkens“ treffen. So haben im 20. Jahrhundert naturwissenschaftliche Modelle die besten Chancen; und zwar • die Energiemodelle (der klassischen Physik des 19. Jahrhunderts) in der Tiefenpsychologie zu Beginn des Jahrhunderts, • das holistische Modell (der Philosophie, Biologie und Medizin der Jahrhundertwende) in der Ganzheitspsychologie der 20er Jahre, • das Modell des Reflexbogens (aus der klassischen Physiologie des 19. Jahrhunderts) im Behaviorismus, • das DARWINsche Evolutionsmodell der Entwicklung der Arten in der Psychobiologie, • oder das kybernetische Steuerungs- und Informationsverarbeitungsmodell (der 50er Jahre) im Kognitivismus. Nicht selten gilt schon der Hinweis auf die naturwissenschaftliche Herkunft eines solchen Grundmodells als besonderer Ausweis seiner Modernität und Wissenschaftlichkeit, aber auch als Legitimation, mit seiner Hilfe ernstzunehmende psychologische Forschung betreiben zu können (wie im Falle des Behaviorismus und des Kognitivismus). Günter Sämmer: Paradigmen der Psychologie - 311 - Kapitel 9: Möglichkeiten und Grenzen c) Positive und negative Heuristiken: Der Kampf mit den ?anderen“ Das neue paradigmatische Programm wird zunächst von kleinen Forschergruppen mit großer Energie vorangetrieben, wobei für seine ?Durchschlagskraft“ nicht nur die positiven Heuristiken (das, was man positiv annimmt) wichtig sind, sondern mindestens genauso die negativen Heuristiken, also alles das, was man bei den ?anderen“ ablehnt. Nicht selten werden scharfe Polemiken ausgetauscht zwischen den ?Neuen“ und den ?Etablierten“: WERTHEIMER und WATSON polemisieren (aus verschiedenen Richtungen!) gegen WUNDT , WATSON zusätzlich auch noch mit großer Heftigkeit gegen FREUD. LORENZ hält die behavioristische Tierpsychologie für absurd und MILLER, GALANTER und PRIBRAM plädieren gar dafür, einen reflexologisch und erkenntnistheoretisch ?realistisch“ argumentierenden Behavioristen doch ?getrost zu ignorieren“. Man ?widerlegt“ durch Verunglimpfung (wie WERTHEIMER die ?Elementaristen“; s.o., 4.3.2.2), warnt ?besorgt“ seine Freunde (wie SKINNER Fred KELLER vor den ?psychoanalytisch gefährdeten“ HULLianern; s.o., 4.4.4.2) oder man warnt (wie STERN u.a.) die gesamte Öffentlichkeit vor den ?Übergriffen“ der Jugendpsychoanalyse (s.o., 4.2.3.2). Die Auseinandersetzungen werden häufig äußerst emotional geführt, was einerseits die Aufmerksamkeit der Fachöffentlichkeit sichert, andererseits zur gruppendynamischen Konsolidierung der scientific community beiträgt. Schließlich geht es neben wissenschaftlichen auch um personelle und materielle Fragen des institutionellen Einflusses, ohne den ein Paradigma kaum überlebt. Manchmal ist die persönliche Identität der Forscher eng mit dem von ihnen vertretenen Paradigma verknüpft: Psychoanalytiker ?leben“ natürlich die Psychoanalyse, wie ihre internen Auseinandersetzungen zeigen, und der sonst so nüchterne SKINNER überschreibt seine Autobiographie gar mit ?The shaping of a behaviorist“ (SKINNER, 1978). In der Psychologie ist es besonders der Bereich der Forschungsmethoden, in dem erbitterte Auseinandersetzungen stattfinden. Die bevorzugten, angemessenen und erlaubten, kurz: die ?richtigen“ Forschungstechniken identifizieren ein Paradigma mindestens genauso wie die inhaltlich-theoretische Modellbildung. Objektivierung vs. subjektives Verstehen, quantifizierende vs. qualitative Methoden, kontrolliertes Experiment und Reproduzierbarkeit vs. offene Beobachtung in ?natürlichen Umgebungen“, sind Gegensatzpaare um die interparadigmatisch gerungen wird und auf die die scientific community innerparadigmatisch eingeschworen wird. d) Die Ausbreitung verschiedener Paradigmen im Wissenschaftssystem der Psychologie Die Paradigmen der Psychologie breiten sich im Wissenschaftssystem der Psychologie in sehr unterschiedlichen raum-zeitlichen, personellen und institutionellen Mustern aus. Während Ganzheitspsychologie, Behaviorismus, Psychobiologie und Kognitivismus ihre institutionelle Basis vorwiegend in Instituten wissenschaftlicher Hochschulen haben, wird die Tiefenpsychologie von Anfang an außerhalb des akademischen Bereiches, in der klinischen Praxis entwickelt. So rivalisiert die akademische Psychologie mit den Tiefenpsychologen auch eher um öffentlichen Einfluß und die Reputation der Psychologie als wissenschaftliche Disziplin als um konkrete institutionelle Ressourcen. Neue psychologische Paradigmen gewinnen den größten Einfluß immer zunächst in geographischer und kultureller Nähe ihres Entstehens. Die Tiefenpsychologie breitet sich, von Österreich ausgehend, zunächst im deutschen Sprachraum aus, bevor sie ins übrige Europa und in die USA gelangt. Zuerst in Deutschland und dann in Kontinentaleuropa konzentrieren sich vor dem zweiten Weltkrieg die Ganzheitspsychologen, während der Behaviorismus zur gleichen Zeit in den USA seine Domäne hat. Von allen politischen Ereignissen des 20. Jahrhunderts hat wohl die nationalsozialistische Machtübernahme, zunächst in Deutschland, dann auch in Österreich, die gravierendsten und auch die verheerendsten Konsequenzen auf die Entwicklungsdynamik der psychologischen Paradigmen. Das gesamte Zentrum ganzheitspsychologischer Forschung in Berlin wird bis Mitte der dreißiger Jahre zers chlagen und zur Emigration gezwungen. Es folgt der Zwangsexodus der wichtigsten Psychoanalytiker. Die Übriggebliebenen versuchen sich zu arrangieren. Die einen halten still und füllen die ?Lücken“, andere biedern sich gar bei den Machthabern an mit ?germanischer“ Psychologie (C.G. JUNG). Vor allem die Leipziger Günter Sämmer: Paradigmen der Psychologie - 312 - Kapitel 9: Möglichkeiten und Grenzen Ganzheitspsychologen und die jungen Vertreter der neuen ?Verhaltensforschung“ geraten (mal mehr, mal weniger beabsichtigt) in gefährliche Nähe zu den Nationalsozialisten. Dies hat erhebliche Konsequenzen für die Entwicklung nach dem zweiten Weltkrieg: In Deutschland verliert die Ganzheitspsychologie ihre Dominanz, denn viele junge Psychologen beginnen, sich am amerikanischen Behaviorismus zu orientieren. Andererseits kann die Etholgie in den USA kaum Fuß fassen. In den 50er Jahren dominieren behavioristische Techniken viele psychologische Anwendungsbereiche von der Pädagogischen bis hin zur Klinischen Psychologie, und für kurze Zeit sieht es so aus, als sei der Behaviorismus nun das Paradigma der Psychologie der gesamten westlichen Welt geworden. Aber die ?Kognitive Wende“ der 60er Jahre vollzieht sich rasch und effektiv, ausgehend von den USA, dem Kernland sowohl des Behaviorismus als auch der Kybernetik und der Informationstheorie. Und bis Ende der 70er Jahre ist dann auch die Psychologie Zentraleuropas weitgehend kognitivistisch ?umgestellt“. e) Psychologische Paradigmen herrschen nicht Die Dominanz eines paradigmatischen Ansatzes im psychologischen Wissenschaftssystems erreicht niemals jene Exklusivität, die KUHN in seinem ursprünglichen Entwurf einem wissenschaftlichen Paradigma zuschreibt (vgl. KUHN, 1989; Original 1962): Psychologische Paradigmen herrschen nicht! Noch nie in der Geschichte der Psychologie ist es einem ihrer Ansätze gelungen, eine wirkliche Monopolstellung zu erringen, was die gültige Auffassung von den psychischen Phänomenen und ihrer Erforschung angeht. Es gibt zwar Zeiten, in denen eines von ihnen weiter verbreitet ist und von einflußreicheren Psychologen betrieben wird, die ?Alternativen“ sind aber stets auch innerhalb des akademischen Systems präsent: Auch zu Hochzeiten des Behaviorismus gab es stets sehr vitale Forschungsprogramme außerhalb dieses mainstream: PIAGET in Genf, LEWINS ?Gruppenlaboratorien“, HEIDERs einflußreiche Balancetheorien oder den ?new look in social perception“, LORENZ in Seewiesen, um nur einige Forschungsprogramme zu nennen, die gänzlich ?unbehavioristisch“ sind und bereits den Keim eines Behaviorismus-Nachfolgers in sich tragen. Auch heute, wo viele die Herrschaft des Kognitivismus für ausgemachte Sache halten (vgl. z.B. MANDL & SPADA, 1988; ULICH, 1989; GRABITZ & HAMMERL , 1995), gewinnen ganzheitspsychologische Forschungsprogramme (z.B. in der Sozialpsychologie als systemische Gruppenpsychologie oder in der Wissenspsychologie als ?social-cognition-Ansatz“) erheblich an Terrain zurück. Die großen Standesverbände der akademischen Psychologie beginnen, die Biologische Psychologie zu fördern, und mit der ?Evolutionspsychologie“ gelangt ein psychobiologischer Ansatz sowohl zu wissenschaftlicher Akzeptanz als auch zu hoher Popularität. Und natürlich ist da immer noch, wie seit 100 Jahren ?neben“ allen akademischen Linien: die Tiefenpsychologie! Ihr ?Niedergang und Ende“, von EYSENCK und vielen anderen postuliert und erhofft (vgl. EYSENCK, 1985) ist bislang nicht eingetreten. Psychoanalytiker arbeiten an immer neuen, inzwischen kybernetischen und systemtheoretischen aber stets tiefenpsychologischen Modellen (wie z.B. schon STIERLIN, 1975), und sie besetzen weiterhin mit großem Erfolg den klinischen Bereich (einschließlich klinischer Lehrstühle an medizinischen Fakultäten!). 9.2 Probleme bei der Paradigmen-Rekonstruktion: verschiedenen Paradigmen Forschungsprogramme ? zwischen“ Das Paradigmenmodell erschließt die großen strukturellen Linien im Wissenschaftssystem der Psychologie, indem es in Gestalt der Paradigmen fünf Grunddimensionen benennt, nach denen psychologische Forschungsprogramme eingeordnet werden können. Eine solche Zuordnung gelingt umso leichter, je mehr ein Forschungsprogramm inhaltlich, methodologisch und institutionell den ?Gründungsforschungsprogrammen“ eines Paradigmas verbunden ist. Günter Sämmer: Paradigmen der Psychologie - 313 - Kapitel 9: Möglichkeiten und Grenzen Die gesamte Landschaft der psychologischen Forschungsprogramme ist aber keineswegs so problemlos in fünf Paradigmen ?einzuteilen“, wie dies die bisherigen Ausführungen suggerieren. Besonders problematisch ist die Subsumption unter ein Paradigma z.B. immer dann, wenn ein Forschungsprogramm • in einer Übergangsphase von einem alten zu einem neu entstehenden Paradigma als historisches Bindeglied fungiert, oder • wenn es Kernannahmen aus unterschiedlichen Paradigmen verwendet. Beide Problemfälle sollen nun an Beispielen erörtert werden. 9.2.1 Forschungsprogramme in Übergangsphasen Vor dem Aufstieg eines neuen Paradigmas gibt es häufig Forschungsprogramme, die schon einzelne Kernannahmen des neuen Paradigmas enthalten, ohne im eigentlichen Sinne dem neuen Paradigma anzugehören. Es handelt sich sehr oft um Forschungsprogramme, die als ? Vorläufer“ gelten, weil sie sowohl in methodischer als auch in theoretischer Hinsicht wichtige Vorarbeiten geleistet haben. Soweit solche Forschungsprogramme einzelnen Paradigmen nur vorangehen (wie PAWLOW und T HORNDIKE dem Behaviorismus, KÜLPE und MEINONG der Ganzheitspsychologie), ohne einem anderen der modernen Paradigmen anzugehören, tritt für das paradigmatische Rekonstruktionsmodell noch kein Kategorisierungskonflikt auf. Es stellt sich dann lediglich die Frage, ob sie ?schon“ hinzugehören, oder ?noch nicht“. Problematisch wird es aber, wenn Forschungsprogramme in einer historischen Situation von einem älteren Paradigma zu einem neuen Paradigma ?hinüberführen“, und dann auch noch so, daß die von ihnen aufgeworfenen und bearbeiteten Problemstellungen zu zentralen Forschungsprogrammen des neuen Paradigmas werden. Am Beispiel einiger wichtiger Forschungsprogramme der 40er und 50er Jahre, die zu Vorläufern von z.T. bis heute bestehenden kognitivistischen Forschungsprogrammen werden, soll dieses Problem erläutert werden. Betrachten wir z.B. • • • • HEIDERs frühe Theorie der Kausalattributionen (vgl. HEIDER, 1944) FESTINGERs Theorie sozialer Vergleichsprozesse und der kognitiven Dissonanz (vgl. FESTINGER, 1954; 1957) BRUNER s und POSTMANs ?Hypothesentheorie der Wahrnehmung“ (vgl. BRUNER, 1951; POSTMAN, 1951) SCHACHTERs frühe Theorie des sozialen Anschlusses (?Theory of social affiliation“) (vgl. SCHACHTER, 1959) All diese Forschungsprogramme basieren zunächst auf den ganzheitspsychologischen Kernannahmen von HEIDERs Konsistenztheorie (vgl. hierzu: LILLI & FREY, 1993; MEYER & FÖRSTERLING, 1993; FREY & GASKA, 1993): Sie nehmen an, daß Personen bestrebt sind, ihre Kognitionen (Denkprozesse, Wahrnehmungen der Außenwelt und des eigenen Verhaltens, Einstellungen und Urteile) in einem widerspruchs- und spannungsfreien Zustand zu halten, also zu einer ?Guten Gestalt“ zu organisieren. Etwaige Inkonsistenzen erzeugen einen emotionalen Spannungszustand, der eine starke Motivation zur Harmonisierung der ?kognitiven Gesamtlage“ hervorruft. Die Vertreter dieser Theorien sind denn auch entweder selber emigrierte Gestaltpsychologen (wie HEIDER) oder stehen diesen wissenschaftlich nahe, wie die LEWIN-Schüler FESTINGER und SCHACHTER. Soweit hier also emergente selbstorganisierende Prozesse angenommen werden, die auf ein dynamisches Gleichgewicht zielen, sind diese Theorien ohne Zweifel ganzheitspsychologisch. Schwierig für die paradigmatische Zuordnung und damit für die Funktionsfähigkeit des paradigmatischen Rekonstruktionsmodells wird die Lage aber, wenn man deren Fortentwicklung betrachtet. Hier kommt es in der Abfolge von aufeinander aufbauenden und sic h aufeinander beziehenden Forschungsprogrammen sukzessive und unmerklich zu einem Verlust ganzheitspsychologischer Kernannahmen und zu einem ?schleichenden Übergang“ ins kognitivistische Lager. Vorgänge, die zumindest in diesem Bereich der Psychologie keineswegs im KUHNschen Sinne ?revolutionär“ verlaufen: Günter Sämmer: Paradigmen der Psychologie - 314 - Kapitel 9: Möglichkeiten und Grenzen Der Prozeß der Bildung von Kausalattributionen wird von HEIDER (1944) zunächst als Gestaltbildungsprozeß aufgefaßt, der den entsprechenden WERTHEIMERschen Gesetzen unterliegt. Diese stiften nicht nur die phänomenale Zusammengehörigkeit von Ereignissen, sondern konstituieren eine ?phänomenale Verursachung“: ?Wenn zwei Ereignisse ähnlich sind oder nahe beieinanderliegen, dann wird wahrscheinlich das eine als Ursache für das andere wahrgenommen“ (HEIDER, 1944; S. 362). Dieser Vorgang der Kausalattribution wird nun in der Folgezeit immer mehr informationstheoretisch ?elementarisiert“. HEIDERs ?Differenzenmethode“ beginnt, die beteiligten Einzelinformationen zu ?digitalisieren“: ?Diejenige Gegebenheit wird für einen Effekt als verantwortlich angesehen, die vorhanden ist, wenn der Effekt vorhanden ist, und die nicht vorhanden ist, wenn der Effekt nicht vorhanden ist? (vgl. HEIDER, 1958; S. 152). Auf diesem Hintergund formuliert KELLEY endlich sein varianzanalytisches Modell das ?Kovariationsprinzip“. Eine Ursachenzuschreibung ergibt sich nun als Ergebnis eines Verrechnungsprozesses, der verschiedene Klassen von Informationen über mögliche Ursachen eines Effekts (Personen, Zeitpunkte, Entitäten) zu verschiedenen Variationsmustern verknüpft (Konsensus, Distinktheit, Konsistenz) (vgl. KELLEY, 1973). Irgendwo zwischen HEIDERs ?Social perception and phenomenal causality“ (1944) und KELLEYs ?Processes of causal attribution“ (1973) ist das Ganzheitspostulat abhanden gekommen (was übrigens auch die Titel der Arbeiten verraten!). Es ist dieser ?Flirt mit dem Reduktionismus“ (GARDNER, 1992), der ganzheitspsychologische in kognitivistische Forschungsprogramme übergehen läßt; das Bestreben also, wie die mathematische Informationstheorie es nahelegt, Prozesse informationstheoretisch zu zerlegen, und einzelne Informationen möglichst quantitativ, zumindest aber kategorial zu klassifizieren. Diese Art der Interpretation, die dem ?spontanen“ Entstehen von Ganzheiten die Verarbeitung von Einzelinformationen entgegensetzt, wird nun typisch für die kognitivistische Fortführung der Forschungsprogramme der Übergangsphase und somit für die Geburt des Kognitivismus aus dem Geiste der Ganzheitspsychologie. Damit wird deutlich, daß das schärfste Trennkriterium zwischen Ganzheitspsychologie und Kognitivismus in der jeweiligen Grundauffassung von den zu untersuchenden Entitäten besteht: Während Kognitivisten Erklärungen aus Teilprozessen heraus zulassen und anstreben, bleibt für Ganzheitspsychologen das unreduzierbare ?Ganze etwas anderes als die Summe seiner Teile“ (vgl. WERTHEIMER, 1923). Die Aufgabe des Ganzheitspostulats ist die ?Kognitive Wende“ der Gestaltpsychologen. Fazit: Das paradigmatische Rekonstruktionsmodell ist ein eher kategoriales Modell, das die Annahme enthält, man könne ein Forschungsprogramm entweder einem Paradigma zuordnen (indem es gelingt, eine Modellabbildung auf die Attribute des paradigmatischen Subsumptionsmodells zu finden) oder eben nicht. Die historische Sequenz der Forschungsprogramme zur Kausalattribution zeigt nun, daß eine besonders genaue Beachtung und sorgfältige Anwendung der Zuordnungskriterien insbesondere im Bereich der Basiseinheiten bis an bestimmte Stellen einer solchen Sequenz noch eindeutige Zuordnungen erlaubt. Dann aber folgen Übergangsmodelle wie HEIDER s Differenzenmethode, die das Rekonstruktionsmodell in arge Schwierigkeiten bringen, weil sie in wichtigen Bereichen einerseits ?immer noch“ ganzheitlich, andererseits aber ?auch schon“ kognitivistisch argumentieren. 9.2.2 ?Multiparadigmatische“ Forschungsprogramme Ein weiteres Problem für das paradigmatische Rekonstruktionsmodell entsteht, sobald ein Forschungsprogramm sich aus den Kernannahmen verschiedener Paradigmen bedient. Solche Forschungsprogramme gibt es sowohl in der psychologischen Grundlagenforschung als auch bei den ?psychologischen Technologien“; hier einige Beispiele: • ADLERs ?Individualpsychologie“ (vgl. ADLER, 1974; Original 1930) ist ein tiefenpsychologisches Forschungsprogramm mit zusätzlichen ganzheitspsychologischen Kernannahmen. Günter Sämmer: Paradigmen der Psychologie - 315 - Kapitel 9: Möglichkeiten und Grenzen Die ?Humanistischen“ Ansätze von ROGERS' ?Theorie des Selbst“ und PERLS' ?Gestalttherapie“ (vgl. R OGERS, 1961; PERLS, 1976) sind ganzheitspsychologische Forschungsprogramme mit tiefenpsychologischen Kernannahmen. • DOLLARD & MILLERs ?Sekundärtriebtheorie“ (vgl. DOLLARD & MILLER, 1950) entstammt einem behavioristischen Forschungsprogramm erweitert um tiefenpsychologische Kernannahmen. • Die Verfahren der modernen ?Kognitiven Verhaltenstherapie“ (vgl. z.B. MARGRAF & SCHNEIDER; 1990) beruhen auf kognitivistischen Forschungsprogrammen mit behavioristischen Kernannahmen. • Die psychologische ?Theorie sozialer Systeme“ (vgl. z.B. WATZLAWICK u.a., 1969) gehört zu ganzheitspsychologischen Forschungsprogrammen mit kognitivistisch-kybernetischen Kernannahmen. Die Formulierung dieser Beispiele enthält bereits die Annahme, man könne diese Forschungsprogramme wenigstens ?zur Hauptsache“ einem bestimmten Paradigma zuordnen und das ?andere“ Paradigma liefere stets nur Zusatzannahmen. Die genannten paradigmatischen Zuordnungen sind schließlich in den Kapiteln 4 bis 8 auch tatsächlich gefunden worden, und sie zeigten sich kompatibel mit den in der Geschichte der Psychologie üblichen: ?Natürlich“ wird der FREUD-Schüler ADLER schon immer als führender Tiefenpsychologe angesehen, ebenso sind die HU LL-Schüler DOLLARD und MILLER ?primär“ Behavioristen. WATZLAWICK sieht sich selbst in der Tradition WERTHEIMERs, und ROGERs wie auch PERLS betonen immer wieder ihre Nähe zur Berliner Gestaltpsychologie. Die Rekonstruktionen stehen also in schöner Übereinstimmung mit den traditionellen Zuordnungen. Und dennoch gibt es hier ein für das gesamte Rekonstruktionsmodell gewichtiges Problem: Die Rekonstruktion eines Forschungsprogramms mit der ?Absicht“, es einem bestimmten Paradigma zu subsumieren, erzeugt eine gewisse Verzerrung bei seiner Darstellung: Die Selektion und Interpretation der Einzelheiten wird nämlich stets im Hinblick auf diese eine paradigmatische Zuordnung vorgenommen. Die Elemente des anderen Paradigmas, also seine ?Einflüsse“ werden weitgehend vernachlässigt. (So geschehen z.B. in Kapitel 4, etwa bei der Darstellung von ADLERs System, dessen ganzheitspsychologische Annahmen kaum Berücksichtigung fanden!) Das Rekonstruktionsergebnis entspricht also ganz der Rekonstruktionsabsicht und kommt damit in Verdacht, eine self-fulfilling prophecy zu sein. Nun heißt dies dennoch nicht, daß Rekonstruktionsergebnisse völlig beliebig den Rekonstruktionsabsichten ausgeliefert sind. Schon ein Blick auf die Forschungsmethoden zeigt nämlich: ADLER hat nicht experimentiert, ROGERS u n d PERLS haben nicht ?analysiert“, und niemals wären DOLLARD und MILLER mit introspektiven klinischen Daten zufrieden gewesen! Wer die genannten Forschungsprogramme also denjenigen Paradigmen zuordnen möchte, aus denen sie die Zusatzannahmen entnehmen, der muß sich bei der Realisierung dieser Rekonstruktionsabsicht auf erhebliche Probleme gefaßt machen! • Fazit: Man sollte insgesamt nicht vergessen - und dies ist eine unvermeidliche Eigenschaft des paradigmatischen Rekonstruktionsmodells wie aller konstruktiven Modelle -, daß bei der Rekonstruktion deutlich ?hypothesengeleitete“ und natürlich auch motivierte Wahrnehmungen im Spiel sind, die durch Selektion und Interpretation das gewünschte Ergebnis erzeugen. Und ?gewünscht“ ist auf dem Hintergrund der allgemeinen Modellannahmen des KUHNschen Paradigmenmodells, daß Forschungsprogramme eine möglichst eindeutige oder doch zumindest ?primäre“ paradigmatische Ausrichtung besitzen. Gewünscht ist aber auch, daß ein möglichst einfaches, elegantes Gesamtmodell, das ?Paradigmenmodell der Psychologie“, entsteht, in dem nicht schon bei Forschungsprogrammen (wie dem ADLERschen), die traditionell als Gründungsforschungsprogramme eines Paradigmas angesehen werden, die ersten Zweifel aufkommen, ob sie nicht doch einem ganz anderen Paradigma angehören. 9.3 Didaktische Funktionen des Paradigmenmodells der Psychologie Der zweite Zielschwerpunkt bei den ?pragmatischen Entschlüssen“, die zur Bildung des Paradigmenmodells der Psychologie führten, betrifft die möglichen didaktischen Funktionen des Modells (vgl. Kapitel 1). Günter Sämmer: Paradigmen der Psychologie - 316 - Kapitel 9: Möglichkeiten und Grenzen Psychologie-Lernende stehen häufig vor der Aufgabe, eine große Zahl verschiedener Theorien und Forschungsprogramme sowie wissenschaftlich psychologischer Techniken aufzunehmen, zu behalten und in Problemsituationen anzuwenden. Problemlösung kann hier z.B. bedeuten: eine theoretische Erklärung finden, ein empirisches Verfahren entwickeln, eine bestimmte wissenschaftlich begründete Lösungshandlung durchführen. Es sollen exemplarisch zwei Schwerpunkte herausgegriffen werden, um die möglichen didaktischen Funktionen des Paradigmenmodells der Psychologie zu demonstrieren: den Erwerb systematischen psychologischen Wissens und die Anwendung psychologischen Wissens in typischen nicht-forschenden Anwendungssituationen. 9.3.1 Funktionen des Paradigmenmodells beim Wissenserwerb ?Wissenserwerb“ wird in der neueren Wissenspsychologie konzipiert als Aufbau eines geordneten mentalen Modells mit dem Ziel, ?seines Abrufs, seiner Anwendung beim Entscheiden, im Denken und Handeln“ (vgl. MANDL & SPADA, 1988; S. 1). Eine lange Forschungstradition auf diesem Gebiet zeigt, daß sowohl die Aneignung, als auch das Behalten und die Anwendung von Wissen durch zwei miteinander interagierende Prozesse optimiert werden: durch Strukturierung und durch Elaboration (vgl. z.B. ANDERSON, 1989; MANDL, FRIEDRICH & HRON, 1988; WEINERT & WALDMANN, 1988). Das Paradigmenmodell bietet für die Menge der Forschungsprogramme der Psychologie die Möglichkeit einer hierarchischen Strukturierung an. An oberster Position einer solchen Hierarchie steht das jeweilige Paradigma, während weiter unten immer kleinere Klassen immer ähnlicherer Forschungsprogramme angeordnet sind (vgl. Abb. 9.1): Abb. 9.1: Beispiel einer hierarchische Ordnung verschiedener behavioristischer Forschungsprogramme Ein solcher Zuordnungsprozeß verlangt den Lernenden eine Reihe von elaborierenden Einzelaktivitäten ab. Die einzuordnenden Forschungsprogramme müssen auf ihre Basiselemente hin untersucht werden: Wie werden die ?Gegenstände“ gesehen? Welche Grundeigenschaften haben die Begriffe und Relationen, welche die Forschungsmethoden? Hier sind ?definitorische und charakteristische Merkmale“, ?Voraussetzungen und Bedingungen“ sowie ?übergeordnete Zusammenhänge“ herauszuarbeiten, wesentliche Bestandteile also einer ?tieferen“ Elaboration (vgl. MANDL, FRIEDRICH & HRON , 1993). Wissensoptimierung geschieht hier durch ?Generalisation“ und ?Diskrimination“ (vgl. ANDERSON, 1989): Einerseits muß nämlich zum Zwecke der Subsumierung die konkrete Modellbildung eines Forschungsprogramms auf die des Paradigmas verallgemeinert werden (?... arbeitet ebenfalls nach dem S-R-Schema“). Andererseits muß auf die konzeptuellen Unterschiede zwischen den verschiedenen Forschungsprogrammen abgehoben werden (?... befaßt sich mit anderen Kontingenzen des Verhaltens als ...). Damit wird deutlich: Die Zuordnung neu erlernter Forschungsprogramme zu den entsprechenden Paradigmen und die damit verbundene vergleichende Analyse seiner paradigmatischen Grundeigenschaften erleichtert den Aufbau und die Festigung strukturierten psychologischen Wissens. Günter Sämmer: Paradigmen der Psychologie - 317 - Kapitel 9: Möglichkeiten und Grenzen 9.3.2 Eine paradigmenorientierte Heuristik zur Anwendung psychologischen Wissens (1) Psychologische ?Anwendungs“- Tätigkeiten Unter den Tätigkeiten, die als ?Anwendung“ psychologischen Wissens bezeichnet werden, unterscheidet HERRMANN drei Hauptkategorien (vgl. HERRMANN, 1979): 1. nicht-forschende, technisch-praktische Tätigkeiten (z.B.: das Erstellen eines Webeplakats unter Berücksichtigung psychologischer Erkenntnisse; die Entwicklung von Konfliktlösungsstrategien am Arbeitsplatz) 2. psychologisch-technologische Innovations- und Forschungstätigkeit (z.B.: die Konstruktion eines standardisierten Persönlichkeitsfragebogens; Entwicklung und empirische Validierung von Lerntechniken) 3. psychologisch-wissenschaftliche Innovations- und Forschungstätigkeit (z.B.: Durchführung eines Experiments zur Gedächtnisforschung oder einer sozialpsychologischen Felduntersuchung) Während sich die ?Anwender“ in (2) und (3) meist auf eine wohlgeordnete Forschungstradition mit häufig eindeutiger paradigmatischer Ausrichtung bei der Problemdefinition und den Lösungsstrategien beziehen können, stehen die nicht-forschenden, technisch-praktischen ?Anwender“ vor besonders gravierenden Schwierigkeiten: Sie werden häufig mit äußerst komplexen, unstrukturierten praktischen Problemlagen konfrontiert, die sie zunächst selektiv zu ordnen haben, bevor sie ihr psychologisches Wissen zur Anwendung bringen können. Dabei liefert die Wissenschaft zur effektiven Bewältigung praktischer Probleme zwar exemplarische Interpretationsmuster (inhaltlich-technologisches Wissen) und wissenschaftlich gesicherte Handlungsroutinen (operativ-technologisches Wissen) (vgl. BUNGE, 1967), dem einzelnen Praktiker wird aber zusätzlic h eine besondere kreative Leistung abverlangt. Im einzelnen gehören zu einer effektiven Problemlösung nämlich • die Fähigkeit, verschiedene Wissensbestände aufeinander zu beziehen und miteinander zu verbinden, • die Fähigkeit, die Komplexität des Handlungsfeldes so zu verringern, daß relevantes Hintergrundwissen auch einsetzbar wird, • die Fähigkeit, das Problem im Lichte einer konkreten Theorie so umzuformulieren, daß es aus der Theorie heraus rekonstruierbar wird. (vgl. KRAPP & HEILAND, 1993) Das Paradigmenmodell der Psychologie scheint nun in besonderer Weise geeignet, dem Praktiker in Alltagssituationen sowohl inhaltlic h-technologisches als auch operativ-technologisches Wissen zu erschließen. Eine mögliche paradigmenorientierte Heuristik soll im folgenden vorgestellt werden. (2) Paradigmenorientierte Anwendung technologischen psychologischen Wissens - Ein heuristisches ?Produktionssystem“ a) Problemlösung als Suchprozeß Tritt in komplexen Alltagssituationen ein erklärungs- und/oder lösungsbedürftiges Problem auf, so kann der zugehörige Problemlöseprozeß in Übereinstimmung mit ANDERSON (1989) als Suche in einem ?Problemraum“ beschrieben werden. Als wesentliche Heuristiken zur Erreichung des Zielzustandes (einer an wissenschaftlichen Theorien orientierten ?Erklärung“ oder an wissenschaftlich-psychologischen Techniken orientierten Lösungshandlung) können z.B. gelten: • Auffinden geeigneter wissenschaftlicher Modelle (Theorien oder Techniken) aus dem Pool des Hintergrundwissens (mit entsprechender Aufmerksamkeitssteuerung), • Selektion der passenden Elemente (Modellattribute) der Problemsituation, • Rekonstruktion der passenden konkreten Relationen und Bezüge innerhalb der Problemsituation sowie • Interpretation und Konkretisierung der allgemeinen Implikationen des Modells in Bezug auf die Situation. Günter Sämmer: Paradigmen der Psychologie - 318 - Kapitel 9: Möglichkeiten und Grenzen Geschieht dieser Suchprozeß unsystematisch, so kann es schnell zu Konfusionen kommen. ?Sieht“ z.B. ein Lehrer, dessen Unterricht durch einen bestimmten Schüler häufig gestört wird, bei der Reflexion dieses Sachverhalts spontan 1. gewisse ?auslösende Situationen“, in denen das Störverhalten auftritt, gleichzeitig 2. beim Schüler massive ?aggressive Impulse“ gepaart mit 3. ungeeigneten Einstellungen die Schule betreffend, die 4. immer wieder zu interaktiven Aufschaukelungprozessen zwischen ihm und dem Schüler führen, so steht er endlich vor einem Konglomerat von Einzelaspekten, deren jeder auf eine andere Theorie mit anderer paradigmatischer Herkunft verweist (hier: behavioristisch, tiefenpsychologisch, kognitivistisch, und ganzheitspsychologisch). Nun wird es ihm aufgrund der paradigmatischen Unverträglichkeit (?Inkommensurabilität“) seiner Einzelbeobachtungen und Annahmen kaum noch gelingen, auch nur eine der möglichen Theorien zur Erklärung anzuwenden. Folge ist möglicherweise die verbreitete ?Einsicht“, daß psychologische Theorien, wenn es darauf ankommt, ?zu nichts nütze“ sind, und endlich der Entschluß, sich in Zukunft doch lieber auf den ?gesunden Menschenverstand“, also auf seine Alltagstheorien zu verlassen. (vgl. hierzu NOLTINGs These von den ?zwei Psychologien“ im Leben von jungen Psychologen; NOLTING, 1985) b) Ein heuristisches paradigmenorientiertes ?Produktionssystem“ Es kommt nun entscheidend darauf an, den Zufallsprozeß bei der Hypothesenbildung zu systematisieren. Genau dies könnte aber mit Hilfe einer paradigmenorientierten Heuristik gelingen: Würde sich der Lehrer zunächst für eine allgemeine paradigmatische Perspektive entscheiden, so würden ihm die Basiselemente des Paradigmas einen klar definierten Bereich ?relevanter Aspekte“ liefern und dadurch eine Vorstrukturierung für die nachfolgende Suche nach einer konkreten Theorie. Es kann nun angenommen werden, daß eine solche Vorstrukturierung den Suchprozeß wesentlich erleichtert, denn einmal schränkt sie den Bereich der zu berücksichtigen Teil-Phänomene und -Prozesse ein (Verkleinerung des Suchraumes), anderseits bildet sie auf einer höheren Ebene ein Suchmuster für konkrete Theorien. 1. Wahl einer paradigmatischen Perspektive Der Lehrer im obigen Beispiel müßte sich also zunächst festlegen, ob er eine tiefenpsychologische, eine behavioristische, eine kognitivistische oder eine ganzheitspsychologische Deutung versuchen möchte. (Wobei die individuelle ?Vorliebe“ für bestimmte paradigmatische Perspektiven sicherlich vom jeweiligen Vorwissen eines Anwenders abhängt; aber ebenso von ausgesprochen subtilen motivationalen Faktoren: Man bedenke, daß tiefenpsychologische Modelle im obigen Beispiel eher auf außerschulische Ursachen verweisen, während z.B. systemische Theorien den Lehrer selber und sein eigenes Verhalten zum Mitbestandteil des Problem machen!) 2. Vorstrukturierung durch paradigmatische Basiseinheiten Hat sich der Lehrer also z.B. für ein kognitivistisches Vorgehen entschieden, so wäre sein ?Suchraum“ deutlich kleiner geworden, und er bräuchte sich lediglich mit kognitivistischen Basiselementen wie ?Kognitionen“ und ?Handlungsplänen“ zu beschäftigen, den paradigmatischen Antecedensbedingungen des Kognitivismus: Welche Sachverhalte interpretiert der Schüler wie? Welche Schlüsse zieht der Lehrer selber woraus? Welche Handlungsziele haben die Beteiligten? 3. Suche nach einer geeigneten Theorie Diese Vorstruktur ?kanalisiert“ nun die Suche nach einer konkreten Theorie: Ist z.B. das störende Verhalten des Schülers sinnvoll interpretierbar als Versuch, eine ?kognitive Dissonanz“ zu beseitigen (z.B. Günter Sämmer: Paradigmen der Psychologie - 319 - Kapitel 9: Möglichkeiten und Grenzen weil der Schüler von Mitschülern eine glaubwürdige Vorinformation über die ?Ungerechtigkeit“ des Lehrers bekommen hat), oder kommt es zustande wegen unterschiedlicher ?Attributionen“ bei Lehrer und Schüler (z.B.: der Schüler als Akteur attribuiert die Ursachen für sein störendes Verhalten external, der Lehrer als Beobachter hingegen internal)? 4. Wahl geeigneter Handlungsroutinen Mögliche Handlungsmuster zur Lösung des Problems ließen sich nun aus den entsprechenden Theorien gewinnen (etwa in Bezug auf die Beseitigung kognitiver Dissonanzen oder die Veränderung von Attributionsmustern). 5. Alternativlösungen durch ?Paradigmenwechsel“ Gelingt die Lösung nicht, oder bleibt die Erklärung unbefriedigend, so bleibt dem ?Anwender“ die Möglichkeit, durch ?Paradigmenwechsel“ zu gänzlich anderen, wirklich ?alternativen“ Erklärungs- und Lösungsmustern zu gelangen! Zusammengefaßt ist die paradigmenorientierte Heuristik wie folgt zu beschreiben: Eine paradigmenorientierte Heuristik zur psychologischen Problemlösung in Alltagssituationen: 1. Entscheidung für eine paradigmatische Perspektive 2. Paradigmatische Vorstrukturierung: Wahrnehmen und Erkennen der paradigmatischen Basiseinheiten (zentrale psychische ?Gegenstände“ und elementare Relationen) in der konkreten Situation, (Re-)Konstruktion der paradigmatischen ?Welt“ 3. Theoriesuche: Auffinden von anwendbaren psychologischen Theorien innerhalb dieses Paradigmas 4. Erklärung: Konkretisierung der theoretischen Aussagen in Bezug auf die problematische Alltagssituation; theorieorientierte Rekonstruktion von Zusammenhängen der Alltagssituation 5. Lösung durch Heranziehen affiner Techniken 9.4 Schluß Heute ist das Verhältnis der verschiedenen Paradigmen untereinander deutlich entkrampfter als noch vor 20 Jahren. Man akzeptiert durchaus die wissenschaftlichen Bemühungen und Erfolge der Konkurrenten. Dies ist nicht zuletzt auf die ?postmoderne“ erkenntnis- und wissenschaftstheoretische Liberalisierung zurückzuführen. Den nach Zahl und Einfluß immer noch dominierenden Kognitivisten ist es gelungen, ihre wahrnehmungspsychologischen und konstruktivistischen Grundüberzeugungen auf die Rezeption des eigenen Wissenschaftssystems anzuwenden. Wissenschaftliche Theorien und deren Kernannahmen werden zunehmend als hypothetische Modelle aufgefaßt, deren heuristische Bedeutung wichtiger ist als ein irgendwie gearteter Wahrheits- und Universalitätsanspruch. Obwohl es z.B. der Ganzheitspsychologie inzwischen gelungen ist, ihr immer schon von vielen als metaphysisch kritisiertes holistisches Grundmodell durch das viel modernere (und auch modischere) Modell ?rekursiver chaotischer Systeme“ zu ersetzen (s.o., Kapitel 5), wird dies kaum zu einer ?Ablösung“ des informationstheoretischen Kognitivismus führen. Dessen heuristische Kraft scheint für bestimmte Problemstellungen (z.B. der Sozialpsychologie oder der Sprachpsychologie) längst nicht erschöpft zu sein. Überhaupt scheint eine solch pragmatische Einschätzung von wissenschaftlichen Ansätzen dafür zu sorgen, daß das Auf- Günter Sämmer: Paradigmen der Psychologie - 320 - Kapitel 9: Möglichkeiten und Grenzen kommen alternativer wissenschaftlicher Theorien und Modelle heute kein Anlaß mehr ist für Existenzängste unter Psychologen. Die Pluralität des Wissenschaftssystems der Psychologie wird zunehmend akzeptiert, und diese Arbeit soll einen Beitrag liefern, sich in einer solch vielfältigen wissenschaftlichen Landschaft besser zurechtzufinden.