spada-kap3-gedachtnis-und

Werbung
I Unterteilungen des Gedächtnisbegriffs
-
Gedächtnis als Menge aller Einflüsse vergangener Erfahrungen auf gegenwärtiges Erleben und
Handeln
- Sensorisches Register: kürzestes Gedächtnis; erleben wir gar nicht als Erinnerung, sondern als
ausgedehnte Gegenwart; enthält wahrnehmungsnahe Spuren, die kaum länger als 500 ms erhalten
bleiben.
- Kurzzeitgedächtnis: Informationen bleiben einige Sekunden lang erhalten; wurde inzwischen
durch den Begriff „Arbeitsgedächtnis“ ersetzt
- Langzeitgedächtnis: Info bleibt unter günstigen Umständen lebenslang erhalten; umfasst den
weitaus größten Teil unserer Gedächtnisinhalte; Unterscheidung zwischen deklarativem und
prozeduralem Gedächtnis; tiefergehende Unterscheidung zwischen explizitem und implizitem
Gedächtnis
- Deklaratives Gedächtnis („knowing that“): alles Gelernte und Erinnerte, das eine Person mitteilen
kann; Unterteilung in episodisches und semantisches Gedächtnis
- Epsisodisches Gedächtnis: Erinnerung an persönliche Erlebnisse
- Semantisches Gedächtnis: Wissen über die Welt
- Prozedurales Gedächtnis („knowing how“): äußert sich in Handlungen, wenn sie erworbene
Fertigkeiten widerspiegeln; Wissen kann nicht mitgeteilt werden und muss durch Übung erworben
werden, da Instruktionen nicht ausreichen
- Explizites Gedächtnis: alle Gedächtnisinhalte, die einer Person bewusst zugänglich sind;
mitteilbares (deklaratives) Gedächtnis als Indikator für bewusstes Gedächtnis
- Implizites Gedächtnis: bezieht sich auf Spuren vergangener Erfahrungen; Wissen wird nicht
bewusst erinnert, sonder im Verhalten wirksam; umfasst sowohl prozedurales Wissen als auch das
so genannte Priming (beide zusammen: nicht-deklaratives Gedächtnis)
- Priming: erhöhte Verfügbarkeit einer Repräsentation durch ihre vorherige Verwendung
 Wissenspsychologie befasst sich mit den Inhalten und der Struktur des Langzeitgedächtnisses
(episodisches, semantisches und prozedurales Gedächtnis)
II Klassische Theorien des Gedächtnisses
II 1) Die Theorie von Atkinson und Shiffrin (1968)
- Infos aus Sinnesorganen kurzfristig im sensorischen Register gehalten, wo sie bald zerfallen, falls
sie nicht ins KZG überführt werden
- Sensor. Register: kurzfristige Verlängerung der Wahrnehmung, Info noch kaum verarbeitet
- Überführung ins KZG: nur ein kleiner Teil kann in den KZ-Speicher überführt werden, weil
o Dieser eine begrenzte Kapazität hat
o Einzelne Infoeinheiten nacheinander (seriell) aus dem sensor. Register herausgelesen
werden müssen (=> „Ausrichtung der Aufmerksamkeit“)
- Umwandlung sensorischer Information in kategoriale Repräsentationen!
- Kategorisierung greift auf Info im LZG zurück: gelernte Kategorien, die Teil des semantischen
Gedächtnisses sind
- Annahme mehrerer Untersektionen des KZS für verschiedene Infotypen (sprachlich, bildlich,
räumlich,…)
- Infozerfall im KZG nach 15 bis 30 Sekunden, wenn nicht durch aktive Wiederholung
(„rehearsal“) aufrechterhalten => Erneuerung der Repräsentationen, allerdings begrenzte
Kapazität der Rehearsal-Schleife: 5-8 Ziffern
- Annahme, dass Info automatisch ins LZG überführt werden, wenn sie lange genug im KZG
gespeichert wird => Rehearsal dient auch dazu, ausgewählte Infos langfristig zu behalten =>
Rehearsal als Beispiel für einen von vielen Kontrollprozessen
1
-
-
Weiterer Kontrollprozess des kognitiven Systems: Verknüpfung von Inhalten des KZG
untereinander oder mit Inhalten des LZG => „Elaboration“: hilft, Info im LZS dauerhaft zu
verankern
KZS als Drehscheibe für kognitive Prozesse: Wenn Info aus dem LZS abgerufen wird, muss sie
wieder in den KZS überführt werden! => KZS als Arbeitsgedächtnis (in Analogie zum Computer)
Kritikpunkt: Unterteilung des Gedächtnisses in drei Teilsysteme
II 2) Die Theorie der Verarbeitungstiefe (Craik und Lockhart, 1972)
- keine Trennung von KZS und LZS
- es kommt au die Verarbeitungsprozesse an, die mit der zu lernenden Info vorgenommen werden;
Unterscheidung zwischen oberflächlichen und tieferen Verarbeitungsprozessen
- tiefe Verarbeitung, wenn sie in der natürlichen Abfolge der Verarbeitung neu aufgenommener
Info weit voranschreitet
- „levels-of-processing“-Ansatz: Aufnahme von Reizen in den Sinnesorganen und Verarbeitung
ihrer physikalischen Merkmale; anschließende Verarbeitung struktureller Merkmale; schließlich:
Analyse der Bedeutung eines Stimulus (je höher die Ebene der Verarbeitung, desto
wahrscheinlicher wird die Info dauerhaft behalten)
- Orientierungsaufgaben (zusätzliche Fragen zu einzelnen Lerneinheiten werden während deren
Verarbeitung gestellt, wodurch eine tiefe semantische Verarbeitung z.B. der Wörter gefördert
wird): tragen zu besseren Gedächtnisleistungen bei. Dies gilt auch dann, wenn Vps bei
oberflächlicher und tiefer Verarbeitung gleich viel Zeit mit dem Lernmaterial verbringen.
- Theorie der Verarbeitungstiefe konnte genauso wie das Modell von Atikinson und Shiffrin
aufgrund neuerer Befunde nicht aufrechterhalten werden, jedoch großer Einfluss auf die
Forschung zu Prozessen der Enkodierung von Informationen.
II 3) Grundlegende Fragen und Aspekte zur Organisation des Gedächtnisses
 Sollten wir beobachtbare Unterscheidungen auf getrennte Systeme mit ihren jeweils eigenen
Gedächtnisspuren zurückführen oder sollten wir annehmen, dass es nur ein Gedächtnissystem und
nur eine Art von Gedächtnisrepräsentation gibt, die uns nur je nach Aufgabe ganz unterschiedlich
erscheinen, weil mit ihnen jeweils verschiedene Verarbeitungsprozesse ablaufen?
 Bei der neueren Definition des KZG als Arbeitsgedächtnis ist eher die kognitive Arbeit mit den
Gedächtnisinhalten in den Vordergrund gerückt und nicht mehr so sehr die Dauer der Erinnerung
 Unterscheidungen zwischen KZG und LZG werden mit Hilfe so genannter doppelten
Dissoziationen untermauert: Nachweis, dass die messbaren Indikatoren für die beiden zu
unterscheidenden Systeme unabhängig voneinander variieren können.
 Dissoziationen können anhand natürlich auftretender Variationen beobachtet oder durch
experimentell Manipulation hergestellt werden. Natürliche Variationen zum Beispiel durch
interindividuelle Unterschiede (hier eignet sich die Faktorenanalyse). Die wichtigsten solcher
Dissoziationen stammen aus Experimenten mit seriellen Positionskurven und Beobachtungen an
hirnverletzten Patienten.
 Eine einzelne doppelte Dissoziation reicht jedoch nicht aus, um die Existenz von zwei separaten
Systeme zu etablieren, da
o Die Variablen niemals die vermuteten Systeme rein und vollständig widerspiegeln
o Die Variablen, die als Indikatoren für dasselbe System gelten, miteinander assoziiert sein
sollten, d.h. sie sollten nicht unabhängig von einander variieren (bei Faktorenanalyse
berücksichtigt)
III Das Kurzzeit- oder Arbeitsgedächtnis
III 1) Primacy- und Recency- Effekte in seriellen Positionskurven
2
-
-
-
-
-
serielle Positionskurve: ergibt sich, wenn man die Erinnerungsleistung für eine gelernte Liste über
die Positionen der einzelnen Elemente in der Liste abträgt.
Bei freier Wiedergabe längerer Listen unmittelbar nach dem Lesen => typische Kurve, bei der die
Wiedergabeleistung am Anfang und am Ende besser ist als in der Mitte => Primacy- und
Recency-Effekt
Primacy-Effekt: erste Elemente einer Liste können häufiger still wiederholt werden (häufiges
Rehearsal)
Recency-Effekt: Vps geben in der Regel die zuletzt gemerkten Elemente als erstes wieder =>
Vermutung: letzte 3-5 Elemente noch in einem KZG verfügbar, müssen schnell wiedergegeben
werden, um nicht verloren zu gehen; vorangegangene Elemente aus dem LZG abgerufen; es gibt
einige wenige Faktoren, die Einfluss auf den Recency-Teil einer seriellen PK haben, aber nicht
auf die Erinnerungsleistung für frühere Elemente (z.B. Einschub einer Distraktoraufgabe vor der
Wiedergabe); es gibt allerdings viele Befunde, die gegen eine Zuschreibung des Effekts zum KZG
sprechen.
Recency-Effekte treten auf ganz unterschiedlichen Zeitskalen (von Sekunden bis zu Wochen oder
Monaten) auf => Annahme: einheitliches Gedächtnis für kurz- und langfristige Erinnerungen;
Recency-Effekt soll durch die bessere zeitliche Diskriminierbarkeit der jeweils jüngsten Elemente
einer Liste oder Serie erklärt werden (zeitliche Diskriminierbark. D = Intervall zw. Elementen /
Intervall zw. Element und Wiedergabe)
Die Existenz des Recency-Effekts allein ist kein hinreichender Beleg für einen separaten KZS!
Am häufigsten verwendete experimentelle Paradigmen innerhalb der traditionellen
Gedächtnisforschung: Wiedererkennen (recognition), freie Wiedergabe (free recall), Wiedergabe
in vorgegebener Reihenfolge (backward/forward serial recall), Wiedergabe mit Hinweisreizen
(cued recall), gezielte Wiedergabe (probed recall; Indikator für das Wort, das als nächstes
wiedergegeben werden soll, wird angezeigt; Paarassoziations-Lernen)
Wichtigste unabhängige Variablen: Listenlänge, serielle Position, Lernzeit, Behaltensintervall
zwischen Lern- und Erinnerungsphase, Art des zu lernenden Materials
Wichtigste abhängige Variablen: Reaktionszeit, Prozentsatz richtiger Antworten
III 2) Selektive Ausfälle des Kurzzeit- und des Langzeitgedächtnisses
- Hippokampus für die Bildung neuer Erinnerungen entscheidend; Verletzung führt zu anterograder
Amnesie (langfristiger Erwerb neuer Erinnerungen gestört); Kurzzeitgedächtnisspanne normal,
„Vergessen“ erst nach einigen Minuten
- Anhand zahlreicher Beobachtungen von Patienten mit Hirnläsionen lässt sich eine Dissoziation
von Kurzzeit- und Langzeitgedächtnis erkennen: Es gibt Hirnläsionen, die das langzeitige
Erinnern beeinträchtigen, aber das kurzfristige ungestört lassen, und andere, die nur die
Kurzzeitgedächtnisspanne beeinflussen. Diese Ergebnisse lassen sich gut erklären, wenn man
zwischen einem KZG und einem LZG unterscheidet, die sich auf unterschiedliche Strukturen im
Gehirn stützen. (Dies würde einen Aspekt der Theorie von Atkinson und Shiffrin unterstützen.)
III 3) Verfahren zur Messung der Kurzzeit- und der Arbeitsgedächtnisspanne
- Kurzzeitgedächtnisspanne: normalerweise durch serielle Wiedergabe von Listen in VorwärtsReihenfolge gemessen; Ziffern als Material, seltener auch Buchstaben oder Wörter; = Länge der
längsten Liste, die eine Person mit 50% Wahrscheinlichkeit vollständig korrekt in der Reihenfolge
ihrer Darbietung wiedergeben kann.
- Spanne für Ziffern, Buchstaben und Wörter unterscheidet sich wenig, obwohl Buchstaben und
Ziffern weniger Informationen enthalten als Wörter => Einheit, in der wir die Kapazität des
Kurzzeitgedächtnisses messen sollten: Zahl der „chunks“
- „chunk“: Informartionsstruktur, die für eine Person eine feste Einheit bildet; hängt von der
Lerngeschichte der Person und ihrer Fähigkeit ab, passende Sinneinheiten im Langzeitgedächtnis
zu finden.
3
-
-
Messung des Arbeitsgedächtnisses durch eine Variante der Messung des KZG: Messung der
Lesespanne => Verbindung von kurzzeitiger Erinnerung von Wortlisten mit der Verarbeitung von
Sätzen
Experimente von Sternberg (1969):
o Vps mussten Liste von Buchstaben oder Ziffern kurzfristig lernen; Präsentation eines
weiteren Elements und Entscheidung per Tastendruck, ob dieses in der Liste enthalten war
oder nicht.
 Reaktionszeit stieg näherungsweise linear mit der Listenlänge an, was ein Modell der
seriellen Suche ohne Abbruch unterstützt (schrittweiser Vergleich mit jedem Element der
Liste, der in jedem Fall bis zum ende der Liste fortgesetzt wird)
o Kritik:
 Spätere Experimente haben allerdings auch oft steilere Geraden für negative
Testelemente ergeben.
 Mittlerweile wird die Annahme in Frage gestellt, dass das Testelement mit der
Liste überhaupt seriell (also eins nach dem anderen) verglichen wird. Die Daten
sprechen eher für einen parallelen Abgleich des Testelements mit jedem
Listenelement.
 Anstieg der Reaktionszeiten mit der Listenlänge möglicherweise ein Nebenprodukt
der seriellen Positionseffekte, was allerdings keine befriedigende Erklärung
darstellt (Längere Listen haben mehr Elemente in der Mitte („schlechte“ Plätze) =>
im Mittel eine langsamere Zugriffszeit)
III 4) Probleme mit dem Modell von Atkinson und Shiffrin
- zentrale Stellung des Kurzzeitspeichers impliziert die Annahme, dass von einem funktionierenden
KZS viel abhängt
- Evidenz gegen diese Annahme kommt unter anderem von neurologischen Fällen mit deutlich
reduzierter Kurzzeitgedächtnisspanne: Die Patienten waren dennoch in der Lage, Sprache zu
verstehen, Neues zu lernen und im Leben gut zurecht zu kommen
- Experimente von Baddeley und Hitch (1974): Blockierung des KZS durch gleichzeitiges
Bearbeiten einer Wiederholungsaufgabe mit Ziffern und einer anderen, bei der die Vps
beispielsweise eine längere Liste von Wörtern auswendig lernen oder logische Denkaufgaben
lösen sollten
 Selbst eine Belastung mit bis zu 6 Ziffern hatte praktisch keine Auswirkung auf die Leistung in
der anderen Aufgabe!
 Die versuchte Blockierung des KZS hatte zudem keinerlei Auswirkungen auf den Recency-Effekt
bei der freien Wiedergabe einer Wortliste – eben der Anteil der Wiedergabeleistung, für den der
KZS verantwortlich gemacht wurde!
- Weiter fand man heraus, dass die Kurzzeitgedächtnisspanne nur gering mit Leistungen in Tests für
komplexe Denkaufgaben korreliert. Dies ist schwer zu erklären, wenn die
Kurzzeitgedächtnisspanne die Kapazität eines zentralen Arbeitsgedächtnisses widerspiegeln soll,
das für alle komplexen Denkprozesse zuständig ist.
- Frage: Ist die serielle Wiedergabe von Listen wirklich eine gute Methode, um die Kapazität des
Arbeitsgedächtnisses voll in Anspruch zu nehmen?
III 5) Das Arbeitsgedächtnismodell von Baddeley (1986)
Artikulatorische
Schleife
-
Zentrale
Exekutive
Visuell-räumlicher
Notizblock
Zentrale Exekutive ist die Komponente, die für die Arbeit des Arbeitsgedächtnisses zuständig ist;
die Sklavensysteme übernehmen die kurzfristige Speicherung von Information.
4
 Aufteilung von Speichern und Verarbeiten getrennter Subsysteme macht klar, warum eine
Aufgabe wie die serielle Wiedergabe einer Sequenz von Ziffern einer anderen Aufgabe, die viel
Infoverarbeitung erfordert, kaum in die Quere kommt.
 Arbeitsgedächtnismodell kann auch erklären, warum die KZGS so gering mit Leistungen bei
komplexen kognitiven Aufgaben zusammenhängt: Spanne für die serielle Wiedergabe misst vor
allem die Kapazität der phonologischen Schleife. Die Leistungsfähigkeit bei komplexer
Infoverarbeitung hängt vor allem von der Kapazität der Zentralen Exekutive ab!
- Lesespanne: Aufgabe integriert Speicher- und Verarbeitungsanforderungen und sollte daher die
Kapazität von phonologischer Schleife und zentraler Exekutive messen => Lesespanne ist
tatsächlich höher mit Leistungen bei komplexen kognitiven Aufgaben korreliert als die
traditionelle Wort- oder Ziffernspanne
Die phonologische Schleife:
o Zwei Komponenten: phonologischer Speicher und Artikulationsprozess
o Info wird für ca. 2 Sekunden im Speicher gehalten und geht dann verloren, falls sie nicht innerhalb
dieser Zeit durch das Wiederholen einer artikulatorischen Rehearsal-Schleife aufgefrischt wird.
o 4 Phänomene als Evidenz für diese Annahmen: phonologischer Ähnlichkeitseffekt,
Wortlängeneffekt, der Effekt irrelevanter Sprache und der Effekt der artikulatorischen
Suppression
o phonologischer Ähnlichkeitseffekt (Conrad & Hull, 1964): KZG-Spanne für Buchstaben geringer,
wenn klanglich ähnliches Material (Buchstaben, aber auch Wörter) verwendet wird;
Bedeutungsähnlichkeiten bei Wörtern haben keinen Effekt; phonologische Ähnlichkeit auch dann
entscheidend, wenn das Material visuell dargeboten wird oder bei benennbaren Bildern.
 visuelle Information, die wir uns kurzfristig in einer bestimmten Reihenfolge merken müssen,
wird nach Möglichkeit phonologisch kodiert.
o Wortlängeneffekt: systematischer Zusammenhang zwischen der Sprechdauer für Wörter und der
Spanne, die mit Listen aus diesen Wörtern gemessen wird. Entscheidend ist die Anzahl von
Wörtern, die man in 2 Sekunden aussprechen kann.
 Kapazität der phonologischen Schleife nicht eine feste Anzahl von „chunks“, sondern eine
konstante zeitliche Dauer
o phonologischer Ähnlichkeitseffekt => passiver phonologischer Speicher
o Wortlängeneffekt => Dauer des Artikulationsprozesses
o Artikulatorische Suppression: Bei experimenteller Unterbindung des Artikulationsprozesses
verschwindet der Wortlängeneffekt, nicht aber der phonologische Ähnlichkeitseffekt; die
artikulator. Suppression verringert die KZG-Spanne deutlich; wenn allerdings die Gedächtnisliste
visuell dargeboten wird, braucht man den Artikulationsprozess auch, um die Liste überhaupt
phonologisch zu repräsentieren, weshalb artikulator. Suppression in diesem Fall auch den
phonologischen Ähnlichkeitseffekt zum Verschwinden bringt.
o Effekt irrelevanter Sprache: KZG-Spanne für sprachliches Material wird durch gesprochene
Sprache erheblich beeinträchtigt (unabhängig vom Verstehen des Inhalts, der Lautstärke oder der
Vertrautheit der Sprache
 Annahme, dass Sprache obligatorischen Zugang zum phonologischen Speicher hat
(sprachspezifischer Filter des Arbeitsgedächtnis)
 Kritik von Jones et al.: es kommt nicht darauf an, dass irrelevante Laute sprachlicher Natur sind,
sondern dass sie ständige Wechsel enthalten („changing-state“-These); der seriellen Wiedergabe
liegt ein genereller Mechanismus zur Repräsentation von Reihenfolgen zugrunde; bei
gleichzeitiger, konkurrierender Reihenfolge kommt es zur Störung der Reihenfolgenrepräsentation
für die Gedächtnisliste.
-
Der visuell-räumliche Notizblock
Ähnlichkeitseffekt bei Aufgaben zum visuell-räumlichen Kurzzeitgedächtnis, der dem
phonologischen Ähnlichkeitseffekt bei sprachlichem Material entspricht => Avons & Mason
5


-


-
-
-
-
(1999): serielle Wiedergabe von zufällig erzeugten schachbrettartigen Mustern; Serie solcher
Muster wurde gesehen, danach sollte in einer Vorlage mehrerer Muster auf die Gesehenen in der
richtigen Reihenfolge getippt werden
Gedächtnisleistung war schlechter, wenn die Muster einer Serie sich ähnlicher sahen.
Suche nach einer Entsprechung für den Wortlängeneffekt => Corsi-Blöcke zur Messung der
seriellen Wiedergabe räumlicher Positionen
kein Einfluss auf die räumliche Kurzzeitgedächtnisspanne!
Analogon zur artikulatorischen Suppression: regelmäßiges Tippen eines vorgegebenen Musters
auf einer Tastatur („tapping“) unterbindet räumliches Rehearsal und beeinträchtigt z.B. die serielle
Wiedergabe von Matrix-Serien oder das kurzfristige Erinnern einer Serie von einfachen
Körperbewegungen
Effekt irrelevanter visuell-räumlicher Stimuli hängt unter anderem davon ab, ob die
Gedächtnisaufgabe primär visuelle oder primär raum-zeitliche Information enthält, und ob die
irrelevanten Stimuli dazu passende Information darbieten
doppelte Dissoziation, die eine Unterscheidung zwischen einem visuellen und einem räumlichen
Subsystem innerhalb des visuell-räumlichen Notizblocks nahe legt.
Zusammenfassend: der visuell-räumliche Notizblock funktioniert bezüglich der Eigenschaften des
passiven Speichers in mancher Hinsicht analog zum phonologischen Subsystem: Ähnliches
Material führt zu größerer Interferenz, und irrelevante Wahrnehmungen oder eigene Aktivitäten
(„tapping“) stören das kurzfristige Behalten. Ein Nachweis für eine analoge aktive Komponente,
die räumliches Rehearsal betreibt, steht dagegen bisher noch aus.
Die Zentrale Exekutive
für die kognitive Arbeit im Arbeitsgedächtnis zuständig: Überwachung von Denkprozessen und
Handlungen und gegebenenfalls korrigierendes Eingreifen
Routineaufgaben werden von Aktionsschemata erledigt, die wahrgenommene oder in den
Sklavensystemen gehaltene Information aufgreifen und als Reaktion darauf einfach Aktionen
ausführen, z.B. beim Rehearsal. Zentrale Exekutive muss eingreifen, wenn die Routinetätigkeit
der Schemata zu unangemessenen Ergebnissen führt: stoppt automatische Verarbeitung durch
Schemata, initialisiert eine alternative Verarbeitung, indem sie die aktiven Schemata unterdrückt
und stattdessen andere aktiviert. Beanspruchung der ZE umso größer, je mehr eine kognitive
Tätigkeit von der üblichen Verarbeitung abweichen muss.
Aufgabe zur Operationalisierung der Zentralen Exekutive: Generieren von Zufallsfolgen („random
generation“). Tendenz, in bekannte Schemata (z.B. Abruf des Alphabets) zu verfallen; ZE muss
diese Routine unterbinden, um für eine zufällig aussehende Sequenz zu sorgen; in einem
Doppelaufgabenexperiment führt das in der Regel dazu, dass die Sequenzen weniger zufällig
werden und die Leistung bei der jeweils anderen Aufgabe geringer wird.
Weitere Aufgaben der ZE: Planung von komplexeren kognitiven Tätigkeiten, Koordination der
Sklavensysteme untereinander und Zuweisung der begrenzten kognitiven Ressourcen zu den
anstehenden Aufgaben.
„dysexekutives Syndrom“ (Baddeley, 1996): Defizite in den Funktionen der ZE (z.B. bei
Schädigungen des Frontalhirns oder Alzheimer-Demenz) => Menschen bleiben in Routinen
verhaftet und sind bei nicht routinisierten Aufgaben stark ablenkbar; sehr große Probleme mit der
Koordination von zwei gleichzeitig auszuführenden Aufgaben
III 6) Die Fraktionierung des Arbeitsgedächtnisses
- Unterscheidung von Subsystemen beruht vor allem auf dem Nachweis doppelter Dissoziationen
mit Hilfe der Doppelaufgabentechnik
- „Doppelaufgaben-Interferenz“: Leistungseinbuße bei der gleichzeitigen Bearbeitung zweier
Aufgaben
6
-
-
Die Logik der Dissoziation von Subsystemen mit Hilfe von Doppelaufgaben beruht auf der
Annahme, dass die Interferenz innerhalb eines Subsystems größer ist als zwischen Subsystemen,
was in etlichen Studien gezeigt werden konnte.
Mittlerweile noch feinere Differenzierungen des Arbeitsgedächtnisses: Unterscheidung zwischen
visuellem und räumlichem Arbeitsgedächtnis; doppelte Dissoziation zwischen dem
Arbeitsgedächtnis für Sprache und für musikalische Information (allerdings nur bei Musikern)
III 7) Die Kapazität des Arbeitsgedächtnisses
- enger Zusammenhang zwischen Leistungen in Arbeitsgedächtnisaufgaben und Ergebnissen in
Intelligenztests, beim Verstehen von Texten, beim Lernen neuer Fertigkeiten und vielen anderen
Fähigkeiten
- Just & Carpenter (1992): Arbeitsgedächtnis hat eine konstante Menge an Aktivierung zur
Verfügung, die es auf die kurzfristige Speicherung der Info und die Ausführung der anstehenden
Verarbeitungsprozesse aufteilen muss; zuwenig Aktivierung bei einer Repräsentation => sie geht
verloren; zuwenig Aktivierung bei einem Verarbeitungsschritt => Verlangsamung und
Fehleranfälligkeit
- Alternative Annahme, dass Spuren im Arbeitsgedächtnis schnell zerfallen: Spurenzerfall
(„decay“) sorgt dafür, dass Info verloren geht, während andere Info verarbeitet wird
- Weitere Alternative: Repräsentationen, die gleichzeitig im Arbeitsgedächtnis gehalten werden
müssen, überschreiben einander, und zwar in dem Maße, in dem sie sich ähnlich sind (=> Effekt
phonologischer und visueller Ähnlichkeit)
- Engle et al.: Kapazität des Arbeitsgedächtnisses spiegelt unsere Fähigkeit, die Aufmerksamkeit
auf die benötigte Info zu richten und sich nicht ablenken zu lassen, wider (Lesespanne z.B. gutes
Maß für die AG-Kapazität); Idee durch eine Reihe von Experimenten unterstützt => Kapazität des
Arbeitsgedächtnisses hängt wesentlich von unserer Fähigkeit zur exekutiven Kontrolle der
Aufmerksamkeit ab (Engle et al.; Baddeley)
III 8) Die Grundlagen des Arbeitsgedächtnisses im Gehirn
- die Lokalisation von neuronaler Aktivität hängt von vielen Details der jeweils verwendeten
Aufgabe ab, die bisher noch kaum verstanden werden. Es lassen sich jedoch zwei Tendenzen
erkennen…
- Art des Materials:
o sprachliches Material => Areale in der linken Hirnhälfte
o kurzfristiges Speichern und Verarbeiten von räumlichen Orten => rechte Hemisphäre
o künstliche geometrische Formen als Gedächtnismaterial => linke Hemisphäre
- Art des Prozesses:
o Kurzfristiges Erinnern ohne weitere Verarbeitung => hintere Regionen des Kortex
o Zusätzliche Verarbeitung erforderlich (insbesondere solche Aufgaben, die in hohem Maße
exekutive Prozesse fordern) => vordere Regionen, insbesondere dorsolateraler präfrontaler
Kortex
- Es sind eher die frontalen Areale des Kortex, von denen die Kapazität des Arbeitsgedächtnisses
abhängt, die mit der Leistung in zahlreichen komplexen Denkaufgaben zusammenhängt.
Aufgaben, die repräsentativ für die allgemeine Intelligenz sind, lösten im Vergleich zu ähnlichen
Aufgaben mehr neuronale Aktivität im präfrontalen Kortex aus.
IV Enkodierung und Abruf von Gedächtnisinhalten
IV 1) Enkodierung von neuem Wissen
- Erwerb kulturellen Wissens beruht in großem Ausmaß auf expliziter Instruktion aus Lehrbüchern
oder im Klassenzimmer; Forschungsfragen zu den Mechanismen, die dem Erwerb neuen Wissens
zugrunde liegen, sind daher von enorm praktischer Bedeutung
7
-
Gedächtnismodell von Atkinson und Shiffrin: Wahrscheinlichkeit, dass neue Information
dauerhaft im LZS abgelegt wird, hängt in direkter Wiese davon ab, wie lange sie im KZS bewahrt
wird; Info kann im KZS zum Beispiel durch so genanntes „maintenance rehearsal“ bewahrt
werden: die zu lernende sprachliche Info wird laut oder leise („subvokal“) vor sich hin gesprochen
IV 2) Die Rolle semantischer Verarbeitung
- das bloße Lesen von Wörtern führt nicht zu dauerhaften Erinnerungen. Dies war einer der Gründe
dafür, dass das klassische Modell von Atkinson und Shiffrin ersetzt wurde.
- Craik und Watkins (1973): Orientierungsaufgabe, die es erlaubt, Kontrolle darüber zu erlangen,
wie Vps in einer inzidentellen (also die Tatsache, dass die Vps nicht wissen, dass ihr Gedächtnis
auf dem Prüfstand steht) Lernsituation mit dem Material umgehen => Liste von Wörtern
durchlesen und nach jeder Liste das jeweils letzte Wort zu berichten, das mit „B“ begann; am
Ende der Sitzung: Aufforderung, sich an alle B-Wörter aus allen präsentierten Listen zu erinnern.
Wenn die bloße Dauer des Aktivhaltens eines Wortes im KZG entscheidend für die
Behaltensleistung ist, dann sollten natürlich am Ende vor allem die B-Wörter erinnert werden, die
länger aktivgehalten werden. Das Ergebnis zeigte aber, dass die Behaltensleistung nicht von
diesem Faktor abhing.
- Versuchsparadigma => Theorie der Verarbeitungstiefe: inzidentelle Lernsituation; je nach
instruierter Orientierungsaufgabe sollen die präsentierten Wörter unterschiedlich verarbeitet
werden (visuelle Aspekte, phonologische Eigenschaften oder semantische Analyse) =>
Reproduktionsleistung für diejenigen Wörter am höchsten, die einer semantischen Analyse
unterzogen wurden.
- Eigentliche Theorie hat nicht überlebt, aber die Forschung dazu zu drei Einsichten geführt:
o Die Art der Lernaktivität spielt für die Behaltensleistung eine entscheidende Rolle
o Neues experimentelles Paradigma: Kombination aus inzidenteller Lernsituation und
Orientierungsaufgabe
o Erschließung einer neuen Forschungsrichtung => Was steckt hinter dem „semantischen
Verarbeiten“?
IV 3) Die Rolle der Lernabsicht
- inzidentelle Lernsituation ist Hauptmerkmal des Verarbeitungstiefeparadigmas
- Hyde und Jenkins: die Lernintention ist nur in dem Maße wirksam, in dem sie den Lernenden
veranlasst, gedächtniswirksamere Verarbeitungsprozesse zu verwenden (z.B. semantische
Verarbeitung)
IV 4) Lernen durch Aufbau verständnisorientierter Repräsentationen
- Craik und Tulving (1975): Beurteilung der Passung eines Wortes in einen vorgegebenen Satz =>
Erinnerungsleistung besser, wenn Wörter in komplexere Sätze eingepasst werden sollten!
 nicht allein die semantische Verarbeitung an sich ist entscheidend für die Gedächtnisleistung;
vielmehr kommt es darauf an, welche Repräsentation aus dieser Verarbeitung resultiert. Um eine
Wort-Satzpassung zu bestimmen, muss die Vp eine kohärente Repräsentation des Satzes
aufbauen, die das fragliche Wort mit allen Wörtern im Satz in Beziehung setzt.
 Das Erstellen derartiger Beziehungen zwischen Wortbedeutungen wird auch als (semantische)
Elaboration bezeichnet. Das Endprodukt semantischer, elaborativer Prozesse ist eine
Repräsentation, die das individuelle Verständnis des Satzes widerspiegelt.
 Zahl der verschiedenen Beziehungen, die während der Enkodierung geknüpft werden, ist
ausschlaggebend für die Reproduktionsleistung.
- semantische Elaboration bringt Info ins LZG, beruht ihrerseits aber auf Zugriff auf semantisches
Wissen im LZG
- durch Studien bestätigt, in denen mittels bildgebender Verfahren (fMRI, PET) die kortikalen
Aktivitäten von Vps registriert werden, während sie eine Liste von Worten lernen:
o Aktivierungszentrum im linken, inferioren präfrontalen Kortex
8
-
-
o je stärker die Aktivierung in dieser Region während der Enkodierungsphase, desto besser
ist die spätere Reproduktionsleistung; gleiche kortikale Region, die auch beim Abruf
semantischen Wissens aktiv ist
o Aktivierung ist in spezifischer Weise mit semantischer Infoselektion assoziiert
Zugriff auf semantisches LZG kann aber auch zu interessanten Problemen wie zum Beispiel
falscher Erinnerung führen (Roediger & McDermott, 1995, 2000), welche durch die
verständnisorientierte Repräsentation zu erklären sind. Die Information, wo ein bestimmtes
Konzept herkommt (aus dem Stimulusmaterial oder dem Vorwissen), ist in der Regel für das
Verständnis nicht von Bedeutung und findet in die Repräsentation keinen Eingang.
Der Aufbau verständnisorientierter Repräsentationen braucht Aufmerksamkeit:
o Mittels Doppelaufgabentechnik lässt sich ermitteln, inwiefern ein bestimmter Prozess, in
diesem Fall also die Gedächtnisenkodierung, von einer begrenzten
Aufmerksamkeitsressource abhängt. Gewählte Doppelaufgabe sollte dabei so wenig
Ähnlichkeit wie möglich mit der Primäraufgabe haben
o Aufmerksamkeitsressource besteht in der Fähigkeit, momentan aufgabenrelevante
Repräsentationen in den Folkus der Aufmerksamkeit zu bringen oder dort zu halten.
o Craik et al (1996): auditiv dargebotene Listen von Wörtern lernen, gleichzeitige visuelle
Reaktionszeitaufgaben => Lernleistung nimmt dramatisch ab
 Überführen von Info ins LZG hängt in entscheidender Weise von Aufmerksamkeit ab.
 auch der links-inferiore, präfrontale Aktivierungsschwerpunkt, also der neuronale
Indikator semantischer Elaboration, verschwindet bzw. wird reduziert.
 Aufmerksamkeit einerseits wichtig, um die jeweils relevanten Aspekte aus dem LZG
auszuwählen. Andererseits müssen auch die Bedeutungen jeweils verschiedener, potentiell
zu verknüpfender Konzept im Arbeitsgedächtnis aktiv gehalten werden.
 Arbeitsgedächtnisprozesse sind neurologisch mit präfrontalen Regionen assoziiert und
werden theoretisch häufig mit der kontrollierten Steuerung der Aufmerksamkeit
gleichgesetzt.
IV 5) Organisation verteilter Repräsentationen zu Gedächtnisspuren
- Schädigung des Hippokampus bei amnestischen Patienten:
o Führen kohärenter Unterhaltungen und Lesen eines Textes auf Verständnis möglich
=> aufmerksamkeitsgesteuerte elaborative Prozesse intakt!
o Allerdings können sich die Patienten einige Minuten später an nichts erinnern
=> elaborative Prozesse, die vor allem die präfrontalen Hirnregionen beanspruchen, sind
also eine notwendige, aber keine hinreichende Voraussetzung für das Ablegen von
Gedächtnisspuren!
- Jede Situation, die wir erleben, wird in einem Netzwerk von über den Kortex verteilten Regionen
kodiert => disparates Konglomerat aus verteilten Repräsentationsbrücken
- Hippokampus ist ideal positioniert, um als zentrale Verknüpfungsinstanz für die einzelnen
Repräsentationen zu fungieren: hippokampale Regionen können die Verknüpfung von Information
aus verschiedenen Quellen kodieren. Möglicherweise stellen Konfigurationen, die im
Hippokampus kodiert sind, so genannte relationale Repräsentationen dar, welche grundlegend
sind für flexibel anwendbare episodische Erinnerungen.
- Eine Frage aktiviert bestimmte Bruchstücke der ursprünglichen Gesamtrepräsentation. Die
Erinnerungsbruchstücke (die ohne Beteiligung des Hippokampus in entsprechenden kortikalen
Regionen verteilt sind) führen dann über Verbindungen vom Kortex zum Hippokampus zu einer
Aktivierung der integrierten Repräsentation im Hippokampus. Diese fungiert wiederum als
Schlüssel zur Reaktivierung des gesamten kortikalen Netzwerkes, das bei der Kodierung des
ursprünglichen Ereignisses beteiligt war. Die kortikale Reaktivierung gibt unseren Erinnerungen
die Qualität des Wiedererlebens eines Ereignisses.
9
=> Hippokampus bewahrt also eine stark komprimierte und evtl. relational verankerte Repräsentation,
die es jedoch erlaubt, über Verbindungen zurück in den Kortex die Gesamtrepräsentation
wiederzubeleben.
- Die meisten Forscher gehen davon aus, dass Gedächtnisspuren im Hippokampus eine
zeitabhängige Konsolidierung erfahren (die je nach Standpunkt Minuten oder Jahre dauern kann).
Während dieser Konsolidierungsphase ist die Qualität einer Gedächtnisspur vom internen
psychischen Milieu abhängig: emotionale Aktivierung nach der Enkodierung führt, vermittelt über
Stresshormone in der Amygdala, zu einer verbesserten Konsolidierung.
=> Hippokampus dient nicht nur der Integration verteilter Gedächtnisspuren; er fungiert auch als eine
Art Modulationsinstanz, in der zum Beispiel Gedächtnisspuren, die im Zusammenhang mit
emotional relevanten Ereignissen stehen, verstärkt werden.
IV 6) Enkodierung ohne Beteiligung des Hippokampus: Implizites Lernen
- bisher: Bereich des Gedächtnisses, der als deklaratives oder explizites Gedächtnis bezeichnet wird
- Barbara: amnestisches Syndrom, das auf eine Schädigung des hippokampalen Komplexes
zurückzuführen ist; sie soll ein komplexes Datenbanksystem erlernen; Lernprogramm, das es
Barbara ermöglicht, die Regeln des neuen Datenbanksystems zu erwerben (Glisky & Schacter,
1989): zuerst jeder Arbeitsschritt vorgegeben, im Lauf der Zeit werden die Vorgaben Schritt für
Schritt entzogen; nach 6 Monaten beherrschte Barbara alle zum Teil komplexen Arbeitsschritte
- Hippokampus insbesondere dann beteiligt, wenn Info aus verschiedenen Quellen integriert und
möglicherweise in relationale Repräsentationen eingebaut wird. Die resultierende Repräsentation
soll unter anderem den flexiblen Gebrauch unserer bewussten, expliziten Erinnerungen
ermöglichen.
 evtl. wäre ohne Hippokampus eine Form von Lernen möglich, die sehr viel weniger auf
integrierten und flexibel nutzbaren Repräsentationen aus verschiedenen kortikalen Bereichen
beruht.
- serielle Reaktionszeitaufgabe (z.B. Nissen & Bullemer, 1987): auf einen Stimulus so schnell wie
möglich mit der entsprechenden Taste zu reagieren; Abfolge der Stimuli nicht zufällig, sondern
folgt einer regelmäßigen Sequenz; schließlich wird ein Transferblock eingesetzt, innerhalb dessen
eine völlig neue, aber wieder 12 Elemente lange Sequenz wiederholt wird.
 klare Verlangsamung der Reaktionszeiten im Transferblock; Vps haben irgendwas über die
reguläre Sequenz gelernt, das jetzt nicht mehr anwendbar ist; dies geschieht auch bei keinerlei
bewusster Erinnerung an die Regelmäßigkeit => impliziter Lerneffekt!
- implizites Lernen: Form des Lernens, das nicht zu einer bewusstseinsfähigen Repräsentation führt,
dennoch aber die Handlungsauswahl beeinflusst. Art der Repräsentation: einfache assoziative
Verknüpfungen zwischen Elementkonstellationen genügen.
- Nachteil impliziten Lernens: mangelnde Flexibilität; im Gegensatz zum expliziten Lernen
ermöglichen es rein assoziative Repräsentationen nicht, dass Vps einen impliziten Lerntransfer zu
einer rückwärts präsentierten Sequenz zeigen.
- Kein einheitliches implizites Lernsystem; Lernen scheint an die jeweils an einer Aufgabe
beteiligten Stimulus- oder Reaktionsaspekte gebunden zu sein.
- Mayr (1996): Vps sind in der Lage, zwei voneinander unabhängige Sequenzen gleichzeitig zu
lernen; kritisch dabei: die beiden Sequenzen waren an unterschiedliche Stimulusdimensionen
gekoppelt (Ort und Identität); Vps erlangen explizites Wissen höchstens über eine der beiden
Sequenzen.
- Aufbau expliziter Erinnerungen basiert also auf einer einheitlichen, kohärenten Repräsentation,
während verschiedene implizite Repräsentationen gleichzeitig existieren können, ohne sich
wechselseitig zu stören => implizite Gedächtnisspuren müssen, anders al explizite Erinnerungen,
nicht an einer gemeinsamen Instanz zusammenkommen, sondern sind über verschiedene kortikale
Regionen hinweg verteilt.
- Amnestische Patienten zeigen für die meisten Gedächtnisleistungen, die das prozedurale/implizite
Gedächtnis betreffen, relativ normales Lernen; in der Regel betrifft dies Lerninhalte, für die
10
-
entweder eine explizite,verbal beschreibbare Repräsentation nicht notwendig, oft auch gar nicht
möglich ist; Gedächtniskodierung erfolgt durch Ausführung der zu lernenden Handlung.
Gemeinsamkeit verschiedener impliziter Lernvorgänge: sie sind gradueller Natur. Lernen
geschieht relativ langsam durch die vielmalige Wiederholung einer Handlung
Möglicherweise impliziert dies eine graduelle Veränderung von Assoziationsstärken in kortikalen
Netzwerken. Im Gegensatz dazu wird hippokampalen Neuronen mit ihren besonderen
Kodiereigenschaften die Fähigkeit zu sehr schnellem „Lernen“ zugeschrieben.
IV 7) Enkodierspezifität und „Transfer Appropriate Processing“
- Morris, Bransford & Franks (1977): Logik des Verarbeitungstiefeparadigmas; inzidentelle
Lernsituation; Vps lesen Wörter und erhalten dazu entweder eine phonemische (z.B. Reime) oder
eine semantische Orientierungsaufgabe (z.B. Klassifizierung); Erinnerungsleistung auf zwei
verschiedene Weisen getestet: üblicher Wiedererkennenstest (führt zum üblichen
Verarbeitungstiefeneffekt: 85 % semantisch, 63% phonemisch) und Identifikation von Wörtern in
der Testphase, die sich auf Wörter der Enkodierphase reimen (33% semantisch, 49% phonemisch)
 dominierender Effekt ist hier die Interaktion zwischen Enkodier- und Testbedingung. Wenn
semantische Verarbeitung einfach generell zu besseren Erinnerungen führte, dann dürfte es diesen
Effekt nicht geben. Stattdessen scheint die Passung zwischen den kognitiven Prozessen in der
Enkodierphase und der Zugriffsphase der entscheidende Faktor zu sein.
- Begriff des Zugriffssignals („retrieval cue“): eine Repräsentation im Fokus der Aufmerksamkeit,
die als eine Art Anfrage an das LZG verstanden werden kann.
- Kritisch für die Erinnerungsleistung ist die Ähnlichkeit der bei der Enkodierung und beim Zugriff
beteiligten Repräsentationen!
- Tulving (1976): Prinzip, das dem Effekt der Passung zugrunde liegt = Enkodierspezifität
(„encoding specificity“); oft wird sie auch unter dem Begriff „transfer appropriate learning“
(Morris et al., 1977) subsumiert.
- Versuchsdesigns, die diese Passung manipulieren = „encoding-retrieval paradigms“
- Passung bezieht sich nicht nur auf die Repräsentation des zu lernenden Materials, sondern auf den
gesamten Kontext (sowohl externe Umgebung als auch interne Zustände) => „state dependent
learning“
- Godden & Baddeley (1975): Tiefseetaucher als Probanden; 1. uV: Lernen von Wörtern entweder
am Ufer oder unter Wasser; 2. uV: Abfrageort entweder am Ufer oder unter Wasser => Effekt der
Passung; der reine Effekt der Kontextpassung machte 33% der Gedächtnisleistung aus
 Kontextuelle Aspekte werden demnach sowohl bei der Enkodierung als auch beim Zugriff in die
jeweils aufgebauten Repräsentationen automatisch eingebaut.
- Experiment zum Lernen mit Marihuanarauchen: am schlechtesten ist die Erinnerungsleistung,
wenn man nur während einer der kritischen Phasen die Droge benutzt (Eich et al., 1975). Der
Passungseffekt war relativ groß, wenn Vps gelernte Wörter frei reproduzieren sollten; er
verschwand jedoch fast völlig, wenn sie während der Testphase für jedes Wort einen Hinweisreiz
erhielten => Der Kontext geht vor allem dann in die Zugriffsrepräsentation ein, wenn diese relativ
selbstbestimmt, also ohne klare externe Vorgabe aufgebaut werden muss.
- Ähnliches Befundmuster für die Effekte von Stimmungen auf die Gedächtnisleistung.
IV 8) Enkodierspezifität und Inhaltsadressierbarkeit
- Computerananlogie: Jeder physikalische Ort auf dem Speichermedium hat eine eindeutige
Adresse. Diese Adresse ist völlig unabhängig von der Information, die an einem bestimmten Ort
abgespeichert ist. Betriebssystem des Computers braucht eine komplexe Buchführung. Geht bei
dieser etwas schief, ist die Info so gut wie verloren (Computerabsturz)
- Biologische Gedächtnissysteme verwenden keine willkürlichen Adressen, die mit der Info, auf die
sie verweisen, in keiner inhaltlichen Beziehung stehen. Stattdessen ist unser Gedächtnis
inhaltsadressierbar. Dies bedeutet, dass der Inhalt einer abgespeicherten Gedächtnisspur selbst die
„Adresse“ ist.
11
-
-
-
-
-
Auch Bruchstücke der gesuchten Gesamtspur können als Adresse dienen.
Je ähnlicher die Adresse, also das Zugriffssignal, zur gesuchten Gesamtspur, desto größer die
Wahrscheinlichkeit, dass die gesamte Gedächtnisspur aktiviert wird. Im Prinzip ist dies nichts
weiter als das Prinzip der Enkodierspezifität in anderen Worten.
Es gibt Computersimulationen, die das Prinzip der Inhaltsadressierbarkeit sehr erfolgreich
anwenden und die viele Standardbefunde der Gedächtnisforschung reproduzieren können.
Repräsentation einer Erinnerung: viele Komponenten, die über den Kortex verteilt sind.
Eine einzelne Komponente allein ist als Adresse nicht sehr hilfreich, da sie mit zu vielen anderen
Gedächtnisspuren, die nichts miteinander zu tun haben, assoziiert ist. Je mehr Komponenten der
ursprünglichen Erinnerung aber wieder als Zugriffshinweise gegeben werden, desto stärker und
spezifischer aktivieren sie die noch fehlenden und ergänzen dadurch das gesamte Muster der
ursprünglichen Repräsentation.
Testphase in einem typischen Experiment zur Verarbeitungstiefe: Vps sollen so viele Wörter wie
möglich reproduzieren oder wieder erkennen. Da wir üblicherweise Sprache verwenden, um
Bedeutung zu vermitteln, kann man davon ausgehen, dass Vps in derartigen Situationen über
gelernte Bedeutungen nachdenken und damit potentiellen Zugriffshinweise konstruieren, die vor
allem semantische Aspekte enthalten => semantische Elaboration als eine gute Passung zu den
üblicherweise kreierten, semantischen Zugriffshinweisen
Die Anzahl der bei der Elaboration kreierten semantischen Verknüpfungen spielt deshalb eine
Rolle, weil ein weit gespanntes Netz von Verknüpfungen die Wahrscheinlichkeit erhöht, während
der Testphase ein Zugriffssignal zu generieren, das sich in diesem Netz verfängt. => Jede neue
Elaboration bedeutet einen neuen Zugangsweg zum Zielwort.
Neben der Passung zwischen Lern- und Zugriffsphase gibt es noch einen anderen wichtigen
Faktor, der die Erinnerungsleistung determiniert: die Distinktheit von Gedächtnisspuren
IV 9) Ursachen des Vergessens
- Forschung steht dem Begriff des Vergessens stets kritisch gegenüber, insbesondere wenn damit
der rein zeitabhängige Zerfall von Gedächtnisspuren gemeint ist.
- Der Effekt des Laufs der Zeit „an sich“ auf das Gedächtnis lässt sich nicht bestimmen, da der Lauf
der Zeit immer auch mit anderen Ereignissen einhergeht, die ebenfalls das Gedächtnis
beeinflussen können.
- Vergessen durch zeitabhängige Veränderung der Enkodierspezifität:
o Im Lauf der Zeit ändert sich der interne ebenso wie der externe Kontext, in dem wir leben,
also auch die Zugriffshinweise zu Gedächtnisspuren .
o Das Vergessen einer Info kann darauf zurückzuführen sein, dass der Zugriffshinweis nicht
mehr hinreichend ähnlich zur ursprünglich abgelegten Gedächtnisspur ist. Diese Erklärung
setzt keinerlei Zerfall von Gedächtnisspuren voraus, die Spuren werden im Lauf der Zeit
nur weniger gut auffindbar.
- Vergessen durch Interferenz:
o Die Menge der Spuren ist unzählbar, aber kritischer noch ist, dass einige Spuren der
gesuchten Spur sehr ähnlich sein können.
o Zu vielen Wissensbeständen, die wir dem semantischen Gedächtnis zurechnen, gibt es
wahrscheinlich viele, weitgehend redundante Spuren, die einen besonders schnellen und
zuverlässigen Zugriff auf die gewünschte Info ermöglichen (Hintzman, 1986). Allerdings
sind multiple, ähnliche Spuren nur dann von Vorteil, wenn wir nicht auf eine ganz
bestimmte Spur zugreifen müssen, sondern jede der vielen Spuren die gesuchte Info
enthält.
o Quellenkonfusion („source confusion“): Man erinnert sich an Einzelheiten eines späteren
Ereignisses, ordnet sie aber fälschlicherweise dem vorangegangenen zu. Die gesuchte
Gedächtnisspur ist nicht unbedingt aus dem Gedächtnis verschwunden. Der Eindruck des
„Vergessens“ entsteht, weil die Spur auf Grund von Konkurrenz durch ähnliche Spuren
schwieriger aufzufinden ist.
12
o Interferenz: Effekte der Konkurrenz zwischen ähnlichen Gedächtnisspuren
o Entstehen von Interferenz in Bezug auf ein Gedächtnissystem beschrieben, in dem Spuren
unabhängig voneinander bewahrt werden. Dieser so genannten Exemplartheorie des
Gedächtnisses (Hintzman, 1986) steht die Auffassung gegenüber, nach der sich
verschiedene, ähnliche Einträge miteinander vermischen und danach selbst mit dem besten
Zugriffssignal nicht mehr auseinandergehalten werden können (McClelland et al., 1995).
Beide Modelle machen ähnliche empirische Voraussagen.
IV 10) Interferenz
- Retroaktive und proaktive Interferenz
o Retroaktive Interferenz: man soll sich an ein früheres Ereignis gegen die Konkurrenz
durch nachfolgende Ereignisse erinnern. Spätere Gedächtnisspuren erschweren hierbei
sozusagen rückwirkend das Auffinden einer früheren Spur. Retroaktive Interferenz kann
„zeitabhängiges Vergessen“ erzeugen, da mit der Zeit die Wahrscheinlichkeit zunimmt,
dass neue Spuren abgelegt werden.
o Proaktive Interferenz: Versuch, sich an Ereignisse zu erinnern, die nach ähnlichen
Ereignissen eingetroffen sind, wobei die früheren Erinnerungen nachfolgende
Erinnerungen stören. Erschwerung des Zugriffs durch und Gefahr einer Quellenkonfusion
mit Erinnerungen an die früheren Ereignisse.
o Kein zeitabhängiges Vergessen als Erklärung möglich, da die kritischen Ereignisse bereits
vor dem Abspeichern der relevanten Erinnerungen passiert ist. Allerdings spielt proaktive
Interferenz eine sowohl theoretisch als auch praktisch wichtige Rolle in Aufgaben, die der
Erfassung der Kapazität des Kurzzeit- oder Arbeitsgedächtnisses dienen sollen.
o Bei solchen Aufgaben wird die mögliche Rolle der proaktiven Interferenz ignoriert, indem
man eine Unabhängigkeit zwischen einzelnen Lern-Testdurchgängen annimmt. Es könnte
sein, dass Fehler im Zugriff auf das Material des jeweils aktuellen Lerndurchgangs nicht
so sehr eine Begrenzung im KZS widerspiegeln, sondern eine Konfusion zwischen dem
aktuellen und einem (kontextuell sehr ähnlichen) vorangegangenen Lerndurchgang.
o Arbeitsgedächtnisaufgaben spiegeln auch die Fähigkeit wider, proaktive Interferenz aus
früheren Testdurchgängen abzuwehren. Kane und Engle (2000) fanden, dass es einen
Zusammenhang gibt zwischen der gemessenen Arbeitsgedächtniskapazität und der
Anfälligkeit für proaktive Interferenz beim Lernen von Wortlisten.
o Prototypische experimentelle Designs zur Erfassung retroaktiver und proaktiver
Interferenz: Lernen von Assoziationen zwischen zwei Wörtern; Testphase: Vorgabe des
ersten Wortes eines Paares, das zweite soll reproduziert werden („cued recall“); CueWörter bleiben in den Experimentalbedingungen konstant.
 Retroaktive Interferenz: es wird nach dem assoziierten Wort aus Liste 1 gefragt
 Proaktive Interferenz: es wird nach dem assoziierten Wort aus Liste 2 gefragt
 generelle Leistungseinbuße in den experimentellen im Vergleich zu entsprechenden
Kontrollbedingungen und Intrusionen aus der jeweils falschen Liste
- Interferenz und Generalisierung:
o Interferenz ist eine unumgängliche Begleiterscheinung eines Gedächtnissystems, in dem
der Zugriff nach dem Prinzip der Ähnlichkeit geschieht, also inhaltsadressierbar ist. Dieses
Prinzip ist es auch, das es uns ermöglicht, gelerntes Wissen auf neue Situationen zu
generalisieren (Hintzman, 1986; McClelland et al., 1995)
o Die Intrusion eines früheren Ereignisses ermöglicht uns hierbei die erfolgreiche
Generalisierung von vorhandenem Wissen auf eine neue Situation.
o Im Repertoire unseres Gedächtnisses gibt es zwei generelle Strategien, die Interferenz
entgegenwirken können: das Erzeugen von distinkten Gedächtnisspuren während der
Enkodierung und die Inhibition (Unterdrückung) von ungewollten Gedächtnisspuren beim
Zugriff.
- Interferenz und die Enkodierung distinkter Gedächtnisspuren:
13
o Wenn man jede Episode oder Situation mit zusätzlicher, möglichst einzigartiger Info
anreichert, dann erhöht sich die Distinktheit der Gedächtnisspuren, und gleichzeitig
reduziert sich die Interferenzgefahr => es lohnt sich, das Besondere hervorzuheben, oder
es sogar aktiv dazuzudichten.
o Sätze mit bizarrem Inhalt werden besonders gut erinnert. Bizarres hilft allerdings nur,
wenn Sätze mit bizarrem und gewöhnlichem Inhalt gemischt sind, da das Bizarre sonst
nicht mehr distinkt, sondern zur Norm geworden ist (McDaniel & Einstein, 1986).
 Enkodierspezifität und Distinktheit sind die zwei wichtigsten Prinzipien, die die
Erinnerungsleistung beeinflussen. Sie sind zumindest potentiell unabhängig voneinander:
Enkodierspezifität: Ähnlichkeit zwischen Enkodierspur und Zugriffsspur
Distinktheit:
Ähnlichkeit zwischen gesuchter Spur und konkurrierenden Spuren
- Interferenz und Inhibition während des Gedächtniszugriffs
o Trotz der Konkurrenz zwischen und dem „Vordrängen“ stärkerer Spuren sind wir oft,
zumindest nach einiger Mühe, in der Lage, gegen des Einfluss der starken
Gedächtnisspuren auf schwache Spuren zuzugreifen.
o Dies kann nicht ohne einen speziellen inhibitorischen Mechanismus geschehen, der die
Repräsentation konkurrierender, starker Spuren unterdrückt und so den schwachen Spuren
Gelegenheit gibt, hinreichend Stärke zu gewinnen (Anderson, Bjork & Bjork, 1994)
o Generelles empirisches Phänomen, das auf die Existenz inhibitorischer Prozesse im
Gedächtnis hindeutet: zugriffsbedingtes Vergessen („retrieval-induced forgetting) => Der
Zugriff auf Info, die mit einem bestimmten Zugriffssignal assoziiert ist, erschwert den
späteren Zugriff auf andere Info, die mit demselben Signal assoziiert ist (Anderson et al.,
1994)
o Anderson & Spellman (1995): wiederholtes Reproduzieren einer bestimmten Assoziation
(Rot-Blut) führte zu nachfolgendem zugriffsbedingtem Vergessen: Vervollständigung
entgegen der gelernten Assoziation bereitete große Schwierigkeiten. Die konkurrierende
Information (z.B. Tomate) wird unterdrückt und kann daher durch nachfolgende
Zugriffsversuche nicht mehr so leicht aktiviert werden.
o Viele Hinweise dafür, dass Inhibition ein fundamentales Konstruktionsprinzip eines
kognitiven Systems ist, dessen Funktionieren in kritischer Weise auf der Auflösung von
Konflikten zwischen ähnlichen Repräsentationen beruht.
IV 11) Das Gefühl der Vertrautheit
- Gedächtniszugriff bisher als aktive und bewusste Wiedergabe eines zuvor gelernten Ereignisses
- Wenn Stimuli bekannt sind, bedeutet die natürlich, dass wir Gedächtniseinträge besitzen, die mit
diesen Stimuli verbunden sind. Jedoch müssen wir auf diese Einträge nicht immer aktiv zugreifen.
 Es gibt zwei verschiedene Weisen, in denen Gedächtnisspuren zum Vorschein kommen können:
durch einen aktiven Zugriffsprozess oder durch ein weniger klar bestimmbares Gefühl der
Vertrautheit.
- Der Kontrast zwischen Wiedergabe- und Wiedererkennenstest verdeutlicht die beiden
verschiedenen, hypothetischen Zugriffsprozesse:
o Reproduktionsleistungen beruhen auf Gedächtnisspuren, die den Kontext miteinschließen.
Auf diesen Kontext wird zugegriffen, um die assoziierten Wörter zu aktivieren. Ohne
Repräsentation des Lernkontextes können wir nicht gezielt die Wörter einer bestimmten
Liste wiedergeben.
o Wiedererkennenstest: Eine Möglichkeit ist, dass die Präsentation eines gelernten Wortes
die bewusste Erinnerung an die Lernepisode auslöst. Eine zweite Möglichkeit ist, dass das
präsentierte Wort ein Gefühl der Vertrautheit („familiarity“) auslöst, ohne dass man sich
aber daran erinnern kann, das Wort tatsächlich in der Liste gesehen zu haben (Mandler,
1980).
o Wiedererkennensleistungen generell höher als Leistungen der freien Wiedergabe =>
Während Reproduktion ein pures Maß des Gedächtnisses für die Verknüpfung eines
14
Inhalts mit dem Kontext ist, sind Wiedererkennensleistungen eine Mischung aus Zugriff
auf kontextgebundene Erinnerungen im episodischen Gedächtnis einerseits und dem
Gefühl der Vertrautheit andererseits.
- Vorhersage: Reproduktionsleistungen hängen sehr stark von solchen Enkodieraktivitäten ab, mit
denen wir Wörter einer Liste an den Lerntontext binden (z.B. Ordnen nach semantischen
Kriterien). In dem Maße, in dem aber Wiedererkennensleistungen auf dem Gefühl der Vertrautheit
und nicht auf kontextgebundenen Gedächtnisspuren beruhen, sollten derartige Aktivitäten viel
weniger bedeutsam sein.
 Wiedererkennen beruht also zum Teil (und in Einzelfällen vollständig) auf einer Repräsentation,
die keine Verbindung zum Kontext enthält.
IV 12) Implizite Gedächtniseffekte
- Experiment: Wortliste lesen; Ergänzung von Wortfragmenten zu passenden Wörtern => besonders
häufig wurden solche Lösungswörter produziert, die in der anfänglichen Wortliste enthalten
waren. => unbewusste Gedächtniseinflüsse = Priming
- Implizites Gedächtnis: Gedächtniseinflüsse, die in indirekten Tests auftreten (Schacter, 1987).
Dies sind Tests, in denen Gedächtniseinflüsse in einer für Vps nicht unbedingt erkennbaren Weise
erfasst werden.
- Primingeffekte reagieren relativ sensitiv auf Veränderungen des perzeptuellen Formats zwischen
Lern- und Testphase. So verschwinden Primingeffekte, wenn die Wörter der Lernliste gehört und
nicht gelesen werden, oder sie sind reduziert, wenn die Schrift sich zwischen Lern- und Testphase
ändert (gilt auch bei nichtsprachliches Material)
 relevantes Material muss auf der gleichen perzeptuellen Ebene in gleicher Art und Weise während
beider Phasen verarbeitet werden. (explizites Gedächtnis viel weniger von perzeptuellen Faktoren
beeinflusst)
- verschiedene Aspekte, die ein Gesamtereignis ausmachen, sind über den gesamten Kortex verteilt
jeweils dort repräsentiert, wo die primäre Verarbeitung eines bestimmten Aspekts geschieht.
- einfaches Lesen führt zu kortikalen Veränderungen, welche den kleinen Zuwachs an Erfahrung
mit der perzeptuellen Verarbeitung eines bestimmten Wortes widerspiegeln, der sich durch jede
Wiederholung ergibt (gilt auch für nichtsprachliche Info)
- diejenigen Regionen des Kortex, die üblicherweise mit der Verarbeitung von perzeptueller
Wortinfo befasst sind, sind weniger aktiv, wenn das zu verarbeitende Wort „geprimed“ ist =>
weniger neuronale Arbeit notwendig
 Repräsentationen, die impliziten Gedächtniseinflüssen zu Grunde liegen, sind also sehr stark an
spezifische Verarbeitungsprozesse gebunden => so viele verschiedene „Gedächtnisse“, wie
unterscheidbare Verarbeitungsmodule existieren.
- implizite Gedächtniseinflüsse sind durch den Ausfall des Hippokampus meist nicht beeinträchtigt,
erfordern demnach keine Integration in eine einheitliche Gesamtspur.
IV 13) Implizites Gedächtnis und das Gefühl der Vertrautheit
- dasselbe Phänomen?
- Implizite Gedächtnisspuren = Anpassung kortikaler Netzwerke an die Verarbeitung eines
Stimulus => erhöhte Verarbeitungsflüssigkeit („fluency“; leichter, ein geübtes Wort ein nächstes
Mal zu lesen). Diese erhöhte Verarbeitungsflüssigkeit könnte vom Leser registriert werden und
diese Wahrnehmung letztlich das Gefühl der Vertrautheit hervorrufen.
- Whittlesea, Jacoby & Girard (1990): Vps wurden sieben Wörter in sehr schneller Abfolge gezeigt;
dann folgte ein Wiedererkennenstest; zusätzlich wurde die Sichtbarkeit dieses einzelnen Wortes
manipuliert; Hypothese: leicht zu lesende Wörter werden als „alt“ identifiziert, sogar wenn das
Wort gar nicht aus der Lernliste stammt => wurde bestätigt
 Durch eine rein stimulusbedingte Erhöhung der Verarbeitungsflüssigkeit kann die Illusion
entstehen, dass ein bestimmtes Wort bekannt ist!
15
 Funktioniert auch andersrum: Eine gedächtnisbedingte Erhöhung der Verarbeitungsflüssigkeit
führte zu einer Illusion der besseren Wahrnehmbarkeit!
 Zum einen wird die Verarbeitungsflüssigkeit tatsächlich registriert und für die Entscheidung bei
Wiedererkennensaufgaben verwendet. Zum Zweiten ist sie ein sehr unspezifisches Signal, das je
nach Situation und unabhängig von seiner eigentlichen Herkunft entweder auf einen Lernprozess
zurückgeführt wird (=> Gefühl der Vertrautheit) oder aber perzeptuellen Gegebenheiten
zugeschrieben wird.
 Die erhöhte Verarbeitungsflüssigkeit gut geübter Fertigkeiten wird von unserem kognitiven
System als Info behandelt => Gefühl der Vertrautheit => allerdings ein sehr unspezifisches Signa,
da leicht fehlinterpretiert werden kann.
IV 14) Verstehen = Lernen
- Ein Zusammenhang, der verstanden wird, ist mit hoher Wahrscheinlichkeit auch ein
Zusammenhang, der im LZG enkodiert wird, unabhängig davon, ob die Situation als Lernsituation
aufgefasst wird.
- Elaborative Prozesse, die zu Verständnis führen, hängen von Aufmerksamkeit ab.
- Je mehr an Verstehensarbeit der Lernende aktiv leistet, desto besser ist die Lernleistung:
o Mannes & Kintsch (1987): uV: Art einer strukturierenden Zusammenfassung (mit der
Struktur des nachfolgenden Textes kongruent vs. Inkongruent) => kongruente
Zusammenfassungen produzierten bessere Lerneffekte, wenn Textwissen relativ direkt
abgefragt wurde; jedoch konnten Transferaufgaben nach inkongruenten
Zusammenfassungen besser gelöst werden (umfassendere Elaboration durch
selbstständiges Herstellen einer Kongruenz)
o Schmidt & Bjork (1992): objektiv und subjektiv schwierigere Lernsituationen führen zu
besserer Behaltensleistung und mehr Transfer.
- Techniken zur Verbesserung des Gedächtnisses (Mnemotechniken)
o Grundprinzip: an neues Material mit einem zuvor gelernten Enkodierschema herantreten.
o Methode der Orte: Enkodierschema = bestimmter Weg durch eine bekannte Räumlichkeit;
einerseits werden bedeutungsvolle, teilweise bizarre Beziehungen zwischen Orten und
dem Lernmaterial gestiftet, andererseits gibt es eine identische Enkodier- und
Abrufstruktur, die einem erlaubt, das Material in einer gewünschten Sequenz zu lernen und
auch wiederzufinden.
o Eignen sich am besten für den Erwerb von Info, die für sich genommen wenig Struktur hat
o Im pädagogischen und alltäglichen Kontext weniger nützlich
o Insbesondere beim Erlernen konzeptueller Zusammenhänge sollten mnemonistische
Techniken mit ihrer willkürlichen Strukturierung des Materials dem Lernen durch
Verstehen eher abträglich sein.
- Tests als Lerngelegenheiten:
o Lernen mittels Prüfungsfragen führt zu besseren Leistungen in deinem späteren Test
o Üben des Zugriffs hat eine stärkere Wirkung als wiederholte Enkodierbestrebungen; das
liegt wahrscheinlich daran, dass Nachdenken über das zu lernende Material im Kontext der
Fragen zu Verknüpfungen zwischen dem Material und potentiellen Fragestellungen führt.
=> Prinzip der Enkodierspezifität hier: das Erinnern selbst üben.
- Verteilung von Übung
o Verteilung von Lerndurchgängen über die Zeit hat eine enorm starke Wirkung auf
Lernleistungen: Lange Pausen zwischen Lerndurchgängen führen oft zu doppelt so guten
Lernleistungen wie kurze Pausen.
o Die Wirksamkeit derartiger Verteilungseffekte („spacing“) hat sich an jeder Art von
Material, über alle Altersgruppen hinweg und auch in pädagogischen Kontexten erwiesen.
o Wiederholung eines Stimulus kann zu einem Gefühl der Vertrautheit führen, ohne dass
man dafür auf die ursprüngliche Lernepisode bewusst zugreifen muss. Die Primingeffekte,
16
o
o
o
o
o
die diesem Gefühl wahrscheinlich zu Grunde liegen, nehmen als Funktion der Dauer
zwischen Lern- und Testdurchgang ab.
Mögliche Erklärung für den Effekt des spacing: Wenn man Lernmaterial zum ersten Mal
durchgeht, wird es relativ leicht aktiv, etwa durch semantisches Elaborieren, verarbeitet.
Bei einem kurz darauffolgenden zweiten Durchgang führen die abgelegten
Gedächtnisspuren zu einem deutlichen Gefühl der Vertrautheit, welches einem suggerieren
kann, dass eine tiefer gehende Verarbeitung des Materials nicht mehr nötig ist. Es kann zur
Illusion von Wissen und Kompetenz führen. Nach längeren Pausen ist das Gefühl der
Vertrautheit hingegen geringer und entsprechend höher ist die aktive Beschäftigung mit
dem Material.
Semantische Elaborationen haben einen hohen Aufmerksamkeitsbedarf. Das Gefühl der
Vertrautheit könnte die Grundlage für einen Metagedächtnisprozess sein, also einen
Prozess, der den Einsatz von Gedächtnisprozessen unter Berücksichtigung der jeweils
vorhandenen Aufmerksamkeitsressourcen moduliert. Vps schließen in sehr sensitiver
Weise von ihrer Verarbeitungsflüssigkeit auf die Qualität ihrer Gedächtnisleistung und
liegen dabei oft daneben (Benjamin et al., 1998).
Unterschied zwischen verteilter und direkt aufeinanderfolgender Übung verringert sich,
wenn zwischen den Lerngelegenheiten Oberflächenmerkmale der Stimuli verändert
werden. Zudem führt eine Variation von Oberflächenmerkmalen auch zu reduziertem
implizitem Lernen => reduziertes Gefühl der Vertrautheit => Erklärung, warum auch
direkt aufeinanderfolgende Lerngelegenheiten zu relativ guten Leistungen führen.
Eine aufmerksamkeitsintensive, semantische Verarbeitung wird durch dichtes spacing
reduziert (Wagner et al., 2000): geringere Aktivierung im linken präfrontalen Kortex
(semantische Elaboration)
Bei Tests als Lerngelegenheit entsteht eine realistische Einschätzung der Kompetenz, die
auf tatsächlichem semantischem Wissen beruht, und nicht auf einem Gefühl der
Vertrautheit, das durch die Repräsentation von Oberflächenmerkmalen gespeist wird.
V Die Repräsentation von Wissen – Formate und Inhalte
Idee von zwei unterschiedlichen Formaten mentaler Repräsentationen: Propositionale Repräsentationen
lehnen sich an das Vorbild der Sprache an, analoge Repräsentationen dagegen sind von bildlichen
Darstellungen inspiriert. Propositionale R. gelten auch insofern als sprachnah, als man annimmt, dass wir
die Bedeutung gesprochener und geschriebener Sprache in diesem Format repräsentieren. Analoge R.
gelten als wahrnehmungsnah, weil sie den Repräsentationen unserer Wahrnehmung ähnlich sein sollen.
V 1) Propositionale und analoge Repräsentationen
- gehören beide zur Klasse der relativen Repräsentationen, unterscheiden sich jedoch darin, welche
Relationen sie verwenden und welche Elemente sie damit in Beziehung zueinander setzen.
- Propositionale Repräsentationen: hypothetische „language of thought“ (Fodor, 1975); Einheiten:
Symbole, die nach einem Regelsystem, einer mentalen Syntax, zu Propositionen kombiniert
werden können.
- Proposition = Aussage, die einen Wahrheitswert hat; P. können als Strukturen aus einem Prädikat
und mehreren Argumenten geschrieben werden; Prädikat: meist durch das Verb ausgedrückt;
Argumente: übrige Komponenten des Satzes; Man kann Propositionen auch als Graphen
(Strukturen aus Knoten und Kanten) darstellen; P können miteinander verknüpft werden, indem
eine Proposition als Argument in eine andere eingeht oder indem zwei Prädikate dasselbe
Argument verwenden; Propositionale Repräsentationen als praktische Formate für die
Computersimulation von Denk- und Gedächtnisprozessen.
- Analoge Repräsentationen: jedes Element der R. entspricht einem Objekt oder Ereignis des
repräsentierten Gegenstands; Beziehungen zwischen den Elementen entsprechen den Beziehungen
17
-
zw. den Objekten; Element kann hier, anders als ein Symbol in einer propositionalen R. nicht für
eine ganze Menge von Objekten und daher auch nicht für eine Klasse oder einen Begriff stehen.
Weiterer Unterschied: Relationen können in Propositionen als eigene Elemente ausgedrückt
werden (meist als Symbol für das Prädikat), während die in analogen R. durch die Relationen
zwischen den Elementen der Repräsentation von selbst enthalten sind => durch Kombination von
analogen R. können sich neue Beziehungen ergeben, ohne dass es zu einem expliziten
Schlussfolgerungsschritt kommen muss.
Propositional (Listenschreibweise):
IST-RECHTS-VON(Dreieck, Quadrat)
IST-RECHTS-VON(Quadrat, Kreis)
Analog:
Propositional (als Graph):
ist-rechts-von
ist-rechts-von
Relatum
Referent
Referent
Dreieck
Relatum
Quadrat
Kreis
-
Debatte in der Kognitionspsychologie:
Es gibt analoge Repräsentationen (z.B. Kosslyn, 1984) vs. alle Kognition beruht ausschließlich auf
symbolischen Repräsentationen (Pylyshyn, 1981)
- Kosslyn, Ball und Reiser (1978): visuelle Vorstellung von Objekten oder Szenen; schematische
Karte einer fiktiven Insel auswendig lernen; danach in der Vorstellung die Aufmerksamkeit auf
einen Ort richten; dann wurde den Vps ein zweiter Ort genannt, und sie sollten diesen in ihrem
Vorstellungsbild suchen und eine Taste drücken, sobald sie ihn vor ihrem inneren Auge sehen
konnten => Zeit bis zum Tastendruck entsprach etwa der Entfernung zwischen Ausgangs- und
Zielort auf der Landkarte => metrische Info der Landkarte in der mentalen Repräsentation
annähernd erhalten geblieben!
 dieses Ergebnis ist bei einer analogen Repräsentation zu erwarten, wenn die Person in ihrer
Vorstellung die Umgebung ebenso absucht, als würde sie ihren tatsächlichen Blick über eine
tatsächliche Landkarte bewegen. Bei einer propositionalen Repräsentation würde die
Verfügbarkeit des Symbols nicht von der Distanz abhängen.
- Experimente zur mentalen Rotation (Shepard & Cooper, 1982) als weiterer Nachweis für
metrische Info in mentalen Repräsentationen: Buchstaben zur Hälfte spiegelverkehrt und um einen
variablen Winkel heraus rotiert. Die Zeit für die Entscheidung, ob ein Buchstabe spiegelverkehrt
ist oder nicht, steigt annähernd linear mit dem Rotationswinkel an. Buchstabe durchläuft – wie ein
physisches Objekt – notwendigerweise alle Zwischenstationen seiner vorgestellten Bewegung.
- (Visuelle) Vorstellungen haben viele, wenngleich nicht alle Merkmale mit (visuellen)
Wahrnehmungen gemeinsam (z.B. die Aktivierung ähnlicher Hirnareale)
- „imagery debate“ noch nicht abgeschlossen; Gegensatz von propositionalen und analogen
Repräsentationen wird als Unterschied im Format mentaler Repräsentationen verstanden, also als
unterschiedliche Merkmale der Repräsentationen selbst. Das Format unserer Repräsentationen ist
jedoch eigentlich weder symbolisch noch bildhaft, es ist neuronal. Die Unterschiede liegen
vielmehr im repräsentierten Inhalt. Unterschiedlich repräsentierte Gegenstände ermöglichen
unterschiedliche Verarbeitungsoperationen.
- Bsp: Eine Negation kann auf eine propositionale, nicht aber auf eine analoge Repräsentation
angewandt werden.
Propositionen können nicht rotiert werden
 Auch die Operationen, die mit den jeweiligen Repräsentationen möglich sind, spiegeln nicht
Eigenschaften der Repräsentationen wider, sondern der repräsentierten Gegenstände.
18
-
Kategorien mentaler Repräsentationen mit spezialisierten Verarbeitungsprozessen und Bereiche
im Gehirn: visuelle Info wird z.B. über Objekteigenschaften über eine recht weite Strecke im
Gehirn separat von der Info über den Ort eines Objekts im Raum verarbeitet (Goodale, 2000). Für
die Repräsentation von Gesichtern gibt es eine spezialisierte Region im Kortex, die Information
nach besonderen Regeln („holistisch“) verarbeitet.
V 2) Grundprinzipien konnektionistischer Modelle
- - Konnektionistische Modelle sind Netzwerke aus stark vereinfachten Nervenzellen (sog. „units“)
und ihren Verbindungen („connections“). Sie sind in der Regel in Schichten organisiert
- Input-Schicht: nimmt Info auf, indem eine Teilmenge ihrer Neuronen aktiviert wird;
Weiterleitungen über Verbindungen zu einer ersten Zwischenschicht; i. d. R. von jedem Neuron
der Input-Schicht eine Verbindung zu jedem Neuron der ZS
- Verbindungen: haben unterschiedliche Stärken, von denen abhängt, wie viel Aktivierung
weitergeleitet wird; können auch negativ sein => inhibitorische Wirkung; es kann auch
Verbindungen zwischen Neuronen innerhalb einer Schicht sowie rückläufige Verbindungen zu
früheren Schichten geben.
- Transformation von Aktivitätsmustern von einer Schicht in die nächste ist die
Informationsverarbeitung in einem neuronalen Netz
- Output-Schicht: Ergebnis der Info-Verarbeitung repräsentiert
- Bottom up-Prozesse: vom Input zum Output; top down-Prozesse: von höheren Schichten zurück
zum Input; laterale Effekte: innerhalb einer Schicht
- Bsp. zum Paarassoziationslernen:
o Input-Schicht: zwei Komponenten: erstes Element des zu assoziierenden Paares (deutsches
Wort) und Kontext („Englisch lernen“)
o Kontext wichtig zur Unterscheidung zwischen versch. Assoziationen, die dieselben
Elemente verwenden
o Output-Schicht: zweites Element des Paares (englisches Wort)
- zwei Formen der Repräsentation in konnektionistischen Netzwerken: lokale und verteilte
Repräsentationen
- lokale R.: eindeutige Zuordnung zwischen Neuronen und zu repräsentierenden Einheiten (z.B.
entspricht ein Neuron einem Wort, Buchstaben oder Gesicht)
- verteilte R.: jeder Einheit entspricht ein ganzes Muster von Aktivierungen
- Zwischenschichten: sollen vor allem das Lernen der Paarassoziationen erleichtern; ihre
Aktivierungsmuster spiegeln allerdings bestimmte Regelhaftigkeiten im Lernmaterial wider => im
Laufe des Lernens wird festgelegt, was bestimmte Muster in der ZS repräsentieren => neue
Repräsentationen können entstehen, die abstrakte Regularitäten repräsentieren; sie sind jedoch nur
als Muster von Aktivierungen in der gesamten Schicht interpretierbar – die einzelnen Neuronen
repräsentieren gar nichts.
- Aktivierungsmuster in den Neuronen-Schichten repräsentieren nur die aktuell zu verarbeitende
Info, das Gelernte steckt in den Verbindungsstärken (auch Gewichte genannt)
- Zwei Arten des Lernens: Lernen ohne Rückmeldung („unsupervised learning“) und Lernen mit
Rückmeldung („error-driven learning“)
- Lernen ohne Rückmeldung = Hebb’sches Lernen (Hebb, 1949):
o Zwei Neuronen gleichzeitig aktiv: Erhöhung des Verbindungsgewichts
o Nur ein Neuron aktiv, das andere inaktiv: Verringerung des Verbindungsgewichts
o Beide Neuronen inaktiv: nichts passiert
 assoziatives Lernen!
 Entsprechender Vorgang im Gehirn: long-term potentiation (LTP), bei der die
Durchlässigkeit von Synapsen für neuronale Signale modifiziert wird.
o Lernen von Aktivierungsmustern: derselbe Input zum zweiten Mal, aber unvollständig =>
die aktivierten Neuronen aktivieren nun mittels der gelernten Verbindungsgewichte die
fehlenden Neuronen – das Muster wird vervollständigt.
19
-
-
-
Lernen mit Rückmeldung => zwei Phasen:
o 1. Phase: Input und Generierung eines Outputs auf Grundlage der vorhandenen
Verbindungsstärken
o 2. Phase: Netz erhält den gewünschten Output als Rückmeldung. An jedem Neuron der
Output-Schicht wird nun die Differenz zwischen selbst generiertem und gewünschtem
Output (Differenz zwischen der Aktivierung des Neurons in Phase 1 und in Phase 2)
berechnet.
o Differenz ist ein Fehlersignal, das nun von jedem Empfängerneuron an seine
Senderneuronen zurückgemeldet wird.
o Fehlerrückmeldung („back propagation“) geschieht über alle Schichten bis hin zur InputSchicht
o Wenn das Fehlersignal „zu klein“ lautet, wird das Gewicht erhöht, lautet das Signal „zu
groß“, wird das Gewicht verringert. Dies geschieht nach der Delta-Regel (s. S. 63)
Erinnerungen auf der Grundlage von Hebb’schem Lernen sind Rekonstruktionen früherer
Aktivierungsmuster anhand unvollständiger Inputs. Lernerfahrung erzeugt ein
Aktivierungsmuster, das den Gedächtnisinhalt zusammen mit seinem Kontext repräsentiert.
o Wiedergabe mit Hinweisreizen („cued recall“): ein Wort als Input; Rekonstruktion der
übrigen, mit diesem Wort assoziierten Wörter durch das Netzwerk
o Freie Wiedergabe: Input besteht nur aus Kontextmerkmalen
o Wiedererkennen: komplettes Wort präsentiert; Rekonstruktion der fehlenden
Kontextrepräsentation
fehlerbasiertes Lernen eignet sich besonders zum Erlernen von Paarassoziationen und zum Erwerb
prozeduralen Wissens
V 3) Generalisierung und Konzeptbildung
- verteilte Repräsentationen
o sind für die Repräsentation viel effizienter als lokale und für den Erwerb von Wissen
unverzichtbar
o ähnliche Inputs überlappen sich erheblich; sie verwenden zu ihrer Repräsentation zu einem
guten Teil dieselben Neuronen
o beim Lernen solcher Inputs werden auch weitgehend dieselben Verbindungsgewichte
modifiziert
 das Gelernte kann automatisch auf andere, ähnliche Inputs generalisiert werden, welche
schließlich in ein ähnliches Output-Muster überführt werden wie der erste Input.
- Modifikationen an Gewichten bei verteilten Repräsentationen:
o Wo der neue Input dem alten gleicht, werden diese Modifikationen in dieselbe Richtung
gehen, ansonsten in die andere.
o Die Lerneffekte kumulieren sich; dabei werden die Effekte übereinstimmender Merkmale
der versch. Inputs sich aufaddieren und schließlich robust in den Verbindungsstärken
repräsentiert werden.
o Verschiedene Merkmale werden in der Summe der Lernerfahrungen herausgemittelt.
 Netzwerk entwickelt von selbst eine generalisierte Repräsentation, die nicht mehr ein einzelnes
Ereignis, sondern ein gemeinsames Konzept aller Ereignisse repräsentiert.
 Eine Menge episodischer Erinnerungen kann in ein Stück semantisches Gedächtnis übergehen,
wobei die Erinnerung an die einzelnen Episoden aber verloren geht; Hippokampus spielt für die
Bewältigung dieses Dilemmas eine wichtige Rolle.
- Das Hippokampus-Kortex-Modell des Gedächtnisses
o Generalisierung von gelernten Zusammenhängen (also von angepassten
Verbindungsgewichten) nur mit verteilten Repräsentationen möglich; neues Lernen
modifiziert hierbei das alte.
20
o Katastrophale Interferenz (Lewandowsky & Li, 1995): In konnektionistischen Netzen ist
der Verlust der Erinnerung an einzelne frühere Episoden durch das Lernen neuer, ähnlicher
Episoden ungleich stärker als bei Menschen.
o Erinnerung an einzelne Episoden wäre viel besser zu realisieren mit lokalen
Repräsentationen, aber dann kann nichts von der Lernerfahrung durch einen Input auf
einen anderen übertragen werden.
o Arbeitsteilung zwischen Hippokampus und Kortex
o Kortex: repräsentiert Ereignisse durch hochgradig überlappende verteilte
Repräsentationen.
o Hippokampus: separiert dieselben Ereignisse viel stärker; auch keine vollständig lokale
Repräsentation, aber die einzelnen R. überlappen einander sehr viel weniger aufgrund
sparsamer verteilter Repräsentationen => nur ein kleiner Teil der Neuronen in jeder
Schicht des Netzwerkes wird aktiviert (z.B. 5 von 100), wodurch die durchschnittliche
Überlappung von zwei Aktivierungsmustern deutlich geringer ist.
VI Episodisches Gedächtnis
-
-
-
-
Tulving (1972):
o Episodisches Gedächtnis: Erinnerung an selbst erlebte Ereignisse; autonoetisches
Bewusstsein: spezielle Beziehung zur erinnernden Person; Bewusstsein, selbst das Subjekt
des Erlebens gewesen zu sein; das autonoetische Bewusstsein gibt Erinnerungen ein
Gefühl der Authentizität und Gewissheit, die mit semantischem Wissen in der Regel nicht
verbunden ist und das täuschen kann.
o Semantisches Gedächtnis: Wissen über die Welt unabhängig vom eigenen Erleben; Wissen
darüber, dass ein Ereignis stattgefunden hat (selbst wenn dieses Ereignis mit einem selbst
zu tun hat)
Wheeler et al. (1997): Verbindung zwischen autonoetischem Bewusstsein und der Aktivität des
frontalen Kortex:
o Linksseitiges Frontalhirn beim Erwerb episodischer Erinnerungen (dem Enkodieren) aktiv
(als Zugriff auf die Enkodierung kritischer semantischer Info interpretiert)
o Rechte Seite des Frontalhirns beim Versuch, episodische Erinnerungen abzurufen, stärker
aktiviert; die Aktivierung spiegelt nicht den Vorgang des Erinnerns, sondern das Bemühen
um die Erinnerung wider (Tulving: „retrieval mode“)
in der traditionellen Gedächtnispsychologie ist ein Großteil der Forschung dem episodischen
Gedächtnis zuzurechnen => Erinnerung daran, dass die Vp ein bestimmtes Element in einer
bestimmten Liste zu einer best. Zeit an einem best. Ort gehört oder gelesen hat.
Diese Form von episodischer Erinnerung ist allerdings nicht typisch für unsere Erinnerungen an
Ereignisse aus dem eigenen Leben => autobiographisches Gedächtnis als Beispiel für
episodisches Gedächtnis
VI 1) Autobiographisches Gedächtnis
- unklare Abgrenzung des Begriffs, da das „Selbst“ im autobiographischen Gedächtnis sowohl als
Subjekt als auch als Gegenstand der Erinnerung vorkommen kann.
- Definition: Erinnerungen an Ereignisse, die eine Person erlebt hat (gleichbedeutend mit
episodischem Gedächtnis) oder als Erinnerung an Ereignisse, die die Person betreffen (auch
Inhalte des semantischen Wissens von Bedeutung)
- Differenzierung in Anlehnung an Brewer (1986):
o Spezifische Episoden vs. generelle Klassen von Ereignissen im eigenen Leben
o Lebhafte, vorstellbare Erinnerungen vs. abstraktes Wissen
-
Binnendifferenzierung des autobiographischen Gedächtnisses nach Brewer (1986)
21
In der Vorstellung
wiedererlebbar
Wissen ohne sensorische
Anteile
Einzelnes Ereignis
„personal memory“
Generelles Ereignis
„generic personal memory“
„autobiografical fact“
„self-schema“
VI 2) Vergessenskurven für autobiographisches Gedächtnis
- generelle Vergessenskurven, nach denen die Genauigkeit der Erinnerungen zunächst steil, dann
immer flacher abfällt
- Vergessenskurven für das autobiographische Gedächtnis: ähnlicher Verlauf, allerdings sehr viel
flacher; sie erstrecken sich über Jahre und Jahrzehnte => über diese Zeiträume werden nur wenige
Experiment durchgeführt
- Zwei alternative Methoden: Retrospektive Befragungen und Tagebuchstudien
- Retrospektive Methode (Francis Galton, 1879):
o „Urexperiment“ : Verbindung eines Stadtspaziergang mit persönlichen Erinnerungen
o heute: Darbietung von Wörtern als Hinweisreize, die geeignet sind, viele Assoziationen
auszulösen
o Häufigkeit von Erinnerungen nimmt zwar mit größerer Distanz zur Gegenwart ab, wies
aber für die Zeit, in der die Vps 20-30 Jahre alt waren, eine Häufung auf. Erinnerungen aus
den ersten drei Jahren nach der Geburt werden ausgesprochen selten und aus den ersten
zwei Jahren nie genannt.
o Rubin, Wetzler und Nebes (1986): Modell mit drei Komponenten: normaler Verlauf des
Vergessens (Laborstudien), häufige Reminiszenzen an die „besten Jahre“ und die infantile
Amnesie
o Nachteil: man kann in der Regel nicht prüfen, ob die genannten Erinnerungen tatsächlich
richtig sind => Tagebuchstudien
- Tagebuchstudien:
o Selbstexperiment von Wagenaar (1986) über 6 Jahre hinweg: charakteristische allmählich
abflachende Vergessenskurve über die Jahre. Allerdings waren die einzelnen Hinweisreize
unterschiedlich effizient:
 Info, was passierte, half am besten, die übrigen Infos zu einer Episode ins
Gedächtnis zu rufen
 Datum war als „cue“ praktisch nutzlos
 Außergewöhnliche Ereignisse wurden besser erinnert
 Erlebnisse mit stärkerer emotionaler Beteiligung führten zu besseren Erinnerungen
 Angenehme Ereignisse konnten besser erinnert werden als neutrale
 Unangenehmer Ereignisse wurden schlechter erinnert, wenn sie ein oder zwei Jahre
zurücklagen; unangenehme Ereignisse, die länger als zwei Jahre zurücklagen,
konnte Wagenaar jedoch wieder besser wiedergeben als neutrale Ereignisse.
VI 3) Die Struktur des autobiographischen Gedächtnisses
- komplexe Struktur autobiographischer Erinnerungen: Die Ereignisse innerhalb autobiographischer
Erinnerungen haben Ursachen und Folgen, sie sind Teil umfassender Ereignisse und lassen sich
ihrerseits in Teilereignisse untergliedern
- einige Autoren vertreten die Ansicht, dass das autobiographische Gedächtnis grundsätzlich
narrativ (d.h. als Geschichte) organisiert ist
- Lebenserinnerungen erlauben oft, zwischen allgemeinen, zusammenfassenden, und sehr
spezifischen, detaillierten „Beschreibungen“ zu wechseln => Das autobiographische Gedächtnis
ähnelt eher einem Hypertext als einer klassischen linearen Erzählung.
- Autobiographische Erinnerungen sind in Wissensstrukturen eingebettet, die wahlweise Schemata,
Skripts, Themen, Pläne oder MOPs („memory organization packages“) genannt werden; diese
22
-
-
-
-
Schemata enthalten allgemeines Wissen über Kategorien von Handlungen und Ereignissen ebenso
wie Info über spezifische Fälle
Schank und Abelson (1977): Restaurant-Skript
o Jede der Handlungen lässt sich in Teilhandlungen aufgliedern
o Das Skript enthält Variationsmöglichkeiten
o Und zudem zahlreiche Variablen
o Außerdem natürlich Zeit und Ort des Geschehens.
ein spezifisches Ereignis wird nun als eine Instantiierung des allgemeinen Skripts oder Schemas
im Gedächtnis abgelegt, d.h. dass die Variablen mit bestimmten Werten belegt werden, die dieses
Ereignis von ähnlichen unterscheidet.
Episodisches und semantisches Gedächtnis eng verknüpft: allgemeine Struktur, die die Kategorie
des Ereignisses repräsentiert, sowie spezifische Details, die das Einzigartige der Episode
definieren.
Schemata = Wissensstrukturen, die Ereignisse, Handlungen und die darin involvierten Objekte
und Orte durch typische Beziehungen miteinander verbinden.
Zwei generelle Arten von Beziehungen:
o partonomische Beziehungen (Tversky, 1989): Zeitliche, kausale und funktionale (d.h.
Mittel-Zweck-) Beziehungen => Hierarchie der Einbettung von Teilen in das
übergreifende Ganze
o Taxonomische Beziehungen: Beziehungen zwischen spezifischen und allgemeinen
Schemata => Hierarchie zunehmend abstrakter Repräsentationen
VI 4) Erinnerung als Rekonstruktion
- Schemata dienen nicht nur dazu, Erinnerungen zu strukturieren und einander zuzuordnen, sie
gestalten die Erinnerungen auch, indem sie vergangene Ereignisse rekonstruieren und
Gedächtnislücken überbrücken.
- Eine Erinnerung kann auf eine Gedächtnisspur des entsprechenden Ereignisses zurückgehen oder
auf eine automatischen und unbewusste Ergänzung durch das Schema (kann eine systematische
Verzerrung bedeuten).
- Bower, Black und Turner (1979): Lesen von 18 Geschichten, die Routine-Ereignisse schildern;
anschließend Sätze, die einzelne Tätigkeiten beschreiben, als „alt“ oder „neu“ bewerten
(entscheiden, ob sie in den Geschichten vorkamen)
 Sätze, die Skript-konforme Handlungen beschrieben, wurden zu einem hohen Anteil als „gelesen“
wiedererkannt, auch wenn sie gar nicht in den Geschichten standen
 Bei freier Wiedergabe: Handlungen werden in der typischen Reihenfolge eines Skripts aufgezählt,
auch wenn sie anders dargeboten wurden.
- Effekte genereller Schemata auf die Rekonstruktion episodischer Erinnerungen gibt es auch beim
Gedächtnis für Beschreibungen räumlicher Anordnungen.
 erneut: Dilemma zwischen generellem Wissen und Erinnerung an spezifische Episoden
 Gefahr, dass die Erinnerungen an einzelne Erlebnisse mit dem Schema verschmelzen oder an das
Schema angepasst werden.
VI 5) Manipulation der Erinnerung
- Beurteilung von Zeugenaussagen: Wenn Erinnern ein rekonstruktiver Prozess ist, kann sein
Ergebnis auch durch Info beeinflusst werden, die lange nach dem zu erinnernden Ereignis,
insbesondere während des Erinnerungsprozesses selbst gegeben wird.
- Loftus und Palmer (1974):
o „Wie schnell fuhr das Auto, als es [Verb]?“; versch. Verben eingesetzt, die
unterschiedliche Intensitäten des Zusammenstoßes nahe legten.
o Die Geschwindigkeit, die die Vps angaben, stieg mit zunehmend heftigeren Verben an.
 schon subtile Variationen in der Formulierung einer Frage können die Aussagen von
Augenzeugen deutlich beeinflussen
23
-
Loftus, Miller & Burns (1978):
o Sehen einer Szene: Halten an einem Stop-Schild; Frage: „Fuhr ein anders Auto vorbei, als
der rote Datsun am Vorfahrtsschild hielt?“; später: „An welchem Schild hat er gehalten?“
 Die irreführende Info beeinflusste die Angaben stärker als die zuvor gesehene Szene!
- verzerrende Wirkung von Fehlinfo, die nach dem Ereignis gegeben wird, ist ein Fall von
retroaktiver Interferenz, die durch mehrere Mechanismen erklärt werden kann:
o „Überschreibung“ der Erinnerung an das tatsächliche Ereignis
o sowohl die Originalfassung als auch die falsche Version bleiben erhalten und werden
verwechselt.
- Konzept des Quellengedächtnisses („source memory“): Erinnerung daran, woher eine
Repräsentation stammt
- Es gibt einige Kriterien, anhand derer wir entscheiden, ob eine Repräsentation eine echte
Erinnerung ist:
o Viele sensorische Daten
o Einordnung in einen räumlichen und zeitlichen Kontext
o Kohärent und mit dem übrigen Wissen kompatibel
- Verzerrung oder Verdrängung durch Fehlinformation, wenn die Repräsentation der echten
Erinnerung diese Merkmale verliert und die Repräsentation der falschen Erinnerung diese
gewinnt.
- Sensorische Details und ihr spezifischer raumzeitlicher Kontext gehen leicht verloren =>
Erinnerung allgemein und schematisch => Schemata als Quellen von Informationen
 Verzerrungen von Erinnerungen im Sinne eines Schemas sind demnach auch ein Fall von
Quellenverwechslung.
- Experimente zur Suggestibilität von Augenzeugen:
o Fragen, die eine Antwort schon nahe legen, führen mit höherer Wahrscheinlichkeit zu
entsprechenden Antworten als offene Fragen.
o Suggestibilität jüngerer Kinder ist größer als die von älteren Kindern.
o Aufforderung, sich ein Ereignis, an das man sich nicht spontan erinnert, vorzustellen, trägt
auch dazu bei, eine falsche Erinnerung an das suggerierte Ereignis zu erzeugen.
o Mehrmaliges Wiederholen von Fragen, wenn diese irreführende Info enthalten.
- „kognitives Interview“ (Sporer & Bursch, 1997): man erhält vergleichsweise zuverlässige
Augenzeugenberichte, indem verzerrende Faktoren möglichst gering gehalten werden. Außerdem:
Wahrnehmungskontext nach Möglichkeit wiederherstellen (Enkodierspezifität), Geschehen aus
mehreren Perspektiven oder in unterschiedlichen Reihenfolgen erzählen lassen (Generierung
vieler „cues“)
VI 6) Erinnerungen an traumatische Ereignisse und Verdrängung
- Ist es denkbar, dass Erinnerungen an traumatische Ereignisse über Jahrzehnte vollständig
verdrängt und dann wieder aufgedeckt werden?
- Ist es möglich, solche Erinnerungen, einschließlich lebhafter visueller Vorstellungen, durch
Suggestion im Zuge einer Therapie durch eben jene Techniken zu erzeugen, die dem Aufdecken
des Verdrängten dienen soll?
- Neuere Studien zur Suggestibilität zeigen, dass es möglich ist, durch intensivere Suggestion
Erinnerungen an ganze Ereignisse zu erzeugen, die niemals stattgefunden haben.
- Loftus & Pickrell (1995): vier Ereignisse aus der Kindheit, wobei das vierte eine Erfindung der
Experimentatoren war.
 Ein Viertel der Vps hat auch zu der erfundenen Geschichte zusätzliche Details erinnert.
Die Erinnerungen an tatsächliche Ereignisse waren ausführlicher und wurden im
Durchschnitt als „klarer“ beurteilt, dennoch waren einige Vps völlig von ihren falschen
Erinnerungen überzeugt
- In Einzelfällen konnte auch nachgewiesen werden, dass falsche Erinnerungen an schwere
Verbrechen durch Suggestion erzeugt wurden (Loftus, 1993)
24
-
-
Menschen können traumatische Ereignisse jedoch auch vorübergehend vergessen (z.B.
Verkehrsunfälle oder sexueller Missbrauch in der Kindheit). Wurden die Erinnerungen aktiv
verdrängt oder genauso wie harmlosere Ereignisse vergessen?
In jüngster Zeit mehren sich empirische Hinweise auf Inhibition als ein grundlegender Prozess in
der Dynamik von Erinnern und Vergessen.
Anderson & Grenn (2001):
o Wörter, die in der Testphase aktiv unterdrückt wurden, waren am Ende schlechter
erinnerbar als die Wörter, die in der zweiten Testphase gar keine Rolle mehr spielten.
o Für episodische Erinnerungen in Laboratmosphäre ist aktive Verdrängung möglich. Ob
dieser Mechanismus stark genug ist, persönlich bedeutsame, gar traumatische Episoden zu
unterdrücken, ist eine noch offene Frage.
VII Semantisches Gedächtnis
-
das semantische Gedächtnis umfasst unser generelles Wissen, das von persönlichen Erfahrungen
abstrahiert.
Die Herkunft der Inhalte der semantischen Gedächtnisses wird meist nicht mehr erinnert.
Generelles Wissen besteht hauptsächlich aus Begriffen und den Beziehungen zwischen ihnen.
Eine Analogie zwischen Theorie und Gegenstand kommt besonders deutlich zum Ausdruck, wenn
das Wissen von Menschen als subjektive Theorien (Groeben et al., 1988) oder mentale Modelle
(Gentner & Stevens, 1983) beschrieben wird.
VII 1) Begriffe
- Begriffe oder Konzepte können definiert werden als mentale Repräsentationen von Kategorien.
- Kategorien sind Klassen von Gegenständen, die in irgendeiner Hinsicht gleichartig sind.
- Begriffe sind die Bausteine des Wissens, denn sie
o Bringen Ordnung in unsere Welt
o Reduzieren die Vielfalt des Wahrgenommenen auf ein handhabbares Maß
o Ermöglichen uns, Gelerntes auf neue Erfahrungen anzuwenden (Hoffmann, 1986)
- Ein Objekt oder Ereignis unter einen Begriff zu fassen geht mit einer Reihe automatischer
Schlüsse über das Objekt oder Ereignis einher.
- Als ein wissenschaftliches Ideal gilt vielen der ordentlich definierte Begriff, der durch eine
begrenzte Menge definierender Eigenschaften gekennzeichnet ist, die zugleich eine Regel für die
Zugehörigkeit des Gegenstandes zum Begriff bilden.
 Hat ein Gegenstand alle definierenden Eigenschaften, so fällt er unter den Begriff; fehlt im eine,
so fällt er nicht darunter.
VII 2) Prototypen
- die unscharfen Grenzen von Begriffen sind Ausdruck der abgestuften Typikalität von
Gegenständen für auf sie angewandte Begriffe.
- Abgestufte Typikalität gibt es auch für klar definierte Begriffe (2 z.B. eine typischere gerade Zahl
als 324)
- Die Typikalität hängt von der Nähe des Gegenstandes zum Mittelwert aller Merkmale über alle
Gegenstände ab, die unter diesen Begriff fallen. Bei manchen Begriffen hat auch die Nähe zu
einem Ideal Einfluss auf das Typikalitätsurteil (typisches Diät-Nahrungsmittel enthält eher 0
Kalorien als den Mittelwert)
- Posner & Keele (1968): Typikalität mit künstlichen Begriffen
o Punktmuster in zwei Klassen sortieren
o Alle Muster, die zu einer Klasse gehörten, waren durch kleinere oder größere
Verschiebungen der Punkte aus einem von zwei zufällig erzeugten Urmustern abgeleitet,
den Prototypen der Klasse.
25
o Testphase: Klassifizieren neuer Muster, die von den gleichen Prototypen abgeleitet wurden
o Der Transfer auf neue Muster war umso besser, je weniger diese vom Prototypen
abwichen – am besten war der Transfer für das Prototyp-Muster selbst.
o Klassifikationsleistung für den Prototyp über längere Zeit hinweg stabiler.
 Beim Lernen eines Begriffs wird wohl aus einer Menge von Exemplaren allmählich eine
Repräsentation des Prototyps herausdestilliert. Der Begriff wird dann als Prototyp repräsentiert.
Bei neuen Gegenständen erfolgt dann ein Vergleich auf Ähnlichkeit mit den repräsentierten
Prototypen. Der Gegenstand wird dem Begriff zugeordnet, dessen Prototyp er am ähnlichsten ist.
 Die Annahme, dass Begriffe durch feststehende Prototypen repräsentiert werden, gerät allerdings
durch die erstaunliche Flexibilität und Kontextabhängigkeit von Typikalitätsurteilen in
Schwierigkeiten (Barsalou, 1987).
VII 3) Begriffe als Mengen von Exemplaren
- Barsalou: Begriffe haben gar keine feste Repräsentation im Gedächtnis, sondern werden je nach
Kontext und Fragestellung ad hoc konstruiert.
- Diese Idee steckt auch hinter Exemplartheorien: im Gedächtnis werden lediglich
Erinnerungsspuren einzelner wahrgenommener Exemplare abgelegt.
- Nach diesen Theorien gibt es keine Repräsentationen von Begriffen und daher auch kein
eigenständiges semantisches Gedächtnis – denn Erinnerungen an wahrgenommene Exemplare
gehören zum episodischen Gedächtnis (Hintzman, 1986).
- Ein Begriff ist demnach nicht als die beobachtbare Fähigkeit von Menschen, gleichartige
Gegenstände gleich zu behandeln. Was dabei jeweils als „gleichartig“ betrachtet wird, kann vom
jeweiligen Kontext abhängen.
- Exemplarmodelle können die Fähigkeit zur Kategorisierung folgendermaßen erklären:
o Wahrgenommener Gegenstand wird mit allen Repräsentationen ähnlicher Exemplare im
Gedächtnis verglichen.
o Die Repräsentation jedes Exemplars wird im Gedächtnis in dem Maße aktiviert, in dem es
dem neuen Gegenstand ähnlich ist.
o Zusammen ergeben die aktivierten Repräsentationen ein „Echo“: ein gewichtetes Mittel
der aktivierten Repräsentationen, wobei stärker aktivierte Exemplare mit höherem Gewicht
eingehen. Das Echo kann als ein ad hoc konstruierter Prototyp interpretiert werden.
o Die resultierende „mittlere“ Bezeichnung im Echo wird für die Kategorisierung des neuen
Exemplars verwendet.
- die Logik dieses Verfahrens ist dieselbe wie in konnektionistischen Modellen – mit dem
Unterschied, dass diese nicht erst beim Abruf aus dem Gedächtnis, sondern bereits beim Lernen
mitteln. Während konnektionistische Modelle mit dem Problem der „katastrophalen Interferenz“
kämpfen, haben Exemplarmodelle dieses Problem nicht. Erinnerung an einzelne Episoden ist ihre
natürliche Grundlage, die nicht verloren gehen kann.
- Wie diese Fülle von Erinnerungsspuren im Gehirn ohne Interferenz realisiert werden kann, muss
jedoch erst noch erklärt werden.
VII 4) Begriffe und Theorien – das Problem mit der Ähnlichkeit
- ähnliche Gegenstände sind solche, die einen großen Anteil ihrer Merkmale gemeinsam haben
(Hintzman, 1986).
- Jedoch sind nicht alle Merkmale dafür relevant, welche Gegenstände unter einen Begriff fallen.
- Oft kann man die Ähnlichkeit auf perzeptuelle Merkmale (gleiches Aussehen) beschränken, aber
nicht immer.
- Relevante Merkmale hängen vielmehr von unserem theoretischen Wissen über die betreffenden
Gegenstände ab: Biologie z.B. Ernährung, Fortpflanzung etc.; Artefakte z.B. die beabsichtigte
Funktion
- Unser Wissen über die kausalen Zusammenhänge, in denen ein Gegenstand steht, bestimmt ganz
wesentlich mit, welche Gegenstände wir als ähnlich ansehen.
26
-
Murphy & Medin (1985) argumentieren daher, dass Begriffe grundsätzlich durch die
Wissensstrukturen, deren Bausteine sie sind, geformt und bestimmt werden. Bildung und
Verwendung von Begriffen wird in Analogie zur wissenschaftlichen Theoriebildung gesehen.
- Wissen bildet ein Netzwerk von weitgehend kohärenten (d.h. zusammenhängenden) und
konsistenten (d.h. widerspruchsfreien) Annahmen über die Gesetzmäßigkeiten in der Welt. Von
diesen Annahmen hängt ab, welche Merkmale der Gegenstände sichtig sind und welche nicht.
Wichtig sind vor allem Merkmale, die eine wichtige kausale Rolle spielen.
 Begriffe werden anhand theoretisch relevanter Merkmale von Gegenständen gebildet, weil sie
dann am besten ihre Funktion erfüllen können: Sie ermöglichen uns, unser Wissen auf neue
Gegenstände zu verallgemeinern. Ein Begriff ist umso nützlicher, je mehr Annahmen über
Gesetzmäßigkeiten für alle Gegenstände, die unter ihn fallen, gültig sind.
 Nach diesem so genannten „theory view“ wird unser Wissen also nicht „bottom up“, ausgehend
von wahrnehmbaren Eigenschaften aufgebaut, sondern „top down“, ausgehend von theoretischen
Annahmen über die Welt.
 Begriffe sind zwar die Bausteine des Wissens, aber wir konstruieren nicht erst die Bausteine und
dann das Gebäude, sondern beide entwickeln sich Hand in Hand.
VII 5) Semantische Netzwerke
- Collins & Quillian (1969): hierarchisch semantische Netzwerke als Repräsentation für
Wissensstrukturen, durch die Begriffe miteinander verknüpft werden.
- Begriffe = Knoten; Verbindungen zwischen ihnen = Kanten
- Beziehungen zwischen Ober- und Unterbegriffen. Merkmale werden auf der jeweils
höchstmöglichen Ebene des Netzwerks an die Begriffe angehängt. Die Unterbegriffe erben die
Merkmale der Oberbegriffe => ökonomische Repräsentation.
- Experimentelle Prüfung für das Netzwerkmodell:
o Möglichst schnelle Klassifizierung von Aussagen als wahr oder falsch.
 Es dauert umso länger, einen wahren Satz als solchen zu klassifizieren, je mehr Kanten
zwischen den beiden Knoten stehen.
- Kritik: Modell kann nicht erklären, warum
o falsche Sätze schneller zurückgewiesen werden, wenn die darin verbundenen Konzepte
weit auseinander liegen
o Effekte der Typikalität auftreten: „Eine Amsel ist ein Vogel“ wird schneller akzeptiert als
„Ein Emu ist ein Vogel“, obwohl für beide Antworten nur eine Kante zu überwinden ist.
- Collins & Loftus (1975): Auflockerung des Modells
o Merkmale, die mit Oberbegriffen verknüpft werden, können auch mit einigen
Unterbegriffen verbunden werden.
o Die Kanten können unterschiedlich stark sein
 Leider wäre praktisch jedes denkbare Ereignis mit diesem Modell vereinbar – es ist daher nicht
mehr empirisch prüfbar (Chang, 1986)
- Annahme der Aktivierungsausbreitung bei semantischen Netzwerken (noch aktuell):
Jeder Knoten in einem semantischen Netzwerk hat zu jedem Zeitpunkt einen Grad an Aktivierung.
Je größer die Aktivierung, desto größer die Chance, dass dieser Knoten aus dem LZG abgerufen
werden kann. Je stärker eine Kante ist, desto mehr Aktivierung eines Knotens wird zum damit
assoziierten Knoten geleitet.
- Unterstützung dieser Idee durch das Phänomen des semantischen Primings (Neely, 1991): Priming
bedeutet, dass die Reaktionszeit bei der Verarbeitung eines Worts verkürzt wird, wenn ihm ein
Wort voranging, das mit ihm assoziiert ist.
- Die Idee der Aktivierungsausbreitung ist dem Konzept eines konnektionistischen Netzwerks sehr
ähnlich. Der entscheidende Unterschied ist, dass in semantischen Netzwerken die Ausbreitung von
Aktivierung nur ein Teil der Infoverarbeitung beim Gedächtnisabruf ist. Zusätzlich wird ein
Prozessor angenommen, der die Info im Netzwerk „liest“. In einem konnektionistischen Netzwerk
gibt es dagegen keine verschiedenen Arten von Verknüpfungen zwischen den Neuronen, die von
27
einem externen Prozessor unterschieden werden können Die Ausbreitung der Aktivierung durch
das Netz ist bereits die Infoverarbeitung.
VII 6) Mentale Modell und subjektive Theorien
- Wissen in der Kognitionspsychologie als das, was eine Person für wahr hält.
- Falsches Wissen besteht nicht aus falschen Verknüpfungen, sondern ist vielmehr systematisch –
es besteht aus einer Menge kohärenter, d.h. zusammenpassender, teils sogar einander stützender
Annahmen.
- Wissen von Menschen ist ähnlich wie wissenschaftliche Theorien aufgebaut.
- Wir können menschliches Wissen als subjektive Theorie (Groeben et al., 1988) oder auch als
mentales Modell (Gentner & Stevens, 1983)
- Bsp. für die Analyse von mentalen Modellen ist die Studie von Kempton (1985) über die
subjektiven Theorien, die Menschen über die Funktionsweise der Thermostaten an ihren
Heizungen bilden:
o Zwei Theorien: Die Rückkopplungs- und die Ventil-Theorie
o Rückkopplungstheorie: nimmt an, dass der Thermostat die Raumtemperatur mit einem
vom Nutzer eingestellten Wert vergleicht.
o Ventil-Theorie: nimmt an, dass die Kraft, mit der die Heizung läuft, proportional zum vom
Nutzer eingestellten Wert steigt.
o Die beiden subjektiven Theorien haben unterschiedliche Verhaltensweisen bei der
Regulation der Raumtemperatur zur Folge.
o Kempton (1985) fand, dass ein großer Teil der befragten Personen eine Mischung aus
beiden Theorien vertraten.
o Beide Theorien sind unvollständige, aber funktionale Vereinfachungen.
- Kemptons Studie hat schon Hinweise darauf gegeben, dass manche Menschen einander
widersprechende subjektive Theorien zum selben Gegenstand haben können.
- Lewandowsky & Kirsner (2000) haben einen sehr klaren Fall für dieses Phänomen, das sie
Wissenspartitionierung nennen, beschrieben:
o Interviews und Tests mit Feuerwehrleuten, die für die Bekämpfung von Buschfeuern
zuständig waren.
o Diese Experten schätzten die Ausbreitungsrichtung von Buschfeuern ganz unterschiedlich
ein, je nachdem, ob ihnen dasselbe Feuer als natürlich entstandener Brand oder als ein von
Feuerwehrleuten absichtlich angezündetes Feuer zur Bekämpfung eines anderen Brandes
(„backburn“) beschrieben wurde.
 Auch das Wissen von Experten ist also nicht unbedingt wohlintegriert und
widerspruchsfrei.
28
Herunterladen