1 Gedächtnispsychologie I. Experimentelle Methoden der Gedächtnispsychologie 1. Retrieval (= aufrufen, Info zurückholen usw.) 1. Das Konzept von Retrieval Wie in einer Bücherei muss das Gedächtnis Infos speichern und zwar so, dass sie für viele verschiedene Verwendungen verfügbar sind. z.B.: ich sehe jemanden in der Straßenbahn und weiß, dass ich ihn irgendwoher kenne Frage: wer ist es? Woher kenne ich ihn? usw. um das herauszufinden, sind 2 Prozesse aktiv: 1. aktiver Suchprozess, so ähnlich wie beim Problemlösen 2. automat. Prozess, wobei die Information aus dem nichts aufzutauchen scheint Es konnte durch mehrere Studien festgestellt werden, dass Sensor. Ged. recall recognition 2. free recall Alltagsbeispiel: man steht im Supermarkt und die Einkaufsliste liegt zuhause. Nun möchte man diese erinnern Prinzip im Labor: es gibt eine Lernphase (study phase) und nach einem gewissen Behaltensintervall (retention interval) eine Testphase (test phase). Die Versuchsperson wird instruiert, sich die nachfolgenden Wörter zu merken und zu reproduzieren; Wörter werden präsentiert und Vp soll so viele wie möglich reproduzieren Dabei verschiedene Arten des recall: a) die Testphase erfolgt sofort auf die Lernphase immediate free recall b) zwischen Lern- und Testphase vergeht eine gewisse Zeit delayed free recall Typische Effekte des recall: a) primacy effect: die ersten dargebotenen Items werden gut reproduziert, weil die proaktive Hemmung durch vorangehende Gedächtniselemente wegfällt b) recency effect: die zuletzt dargebotenen Items werden gut reproduziert, weil die retroaktive Hemmung wegfällt, da keine nachfolgenden Ged.elemente vorhanden sind diese beiden Effekte führen zu der typischerweise u-förmigen seriellen Positionskurve 3. recognition (= Wiedererkennen) Alltagsbeispiel: auf einer Party bekannte und unbekannte Personen auseinander halten 1 2 Prinzip im Labor: es gibt eine Lernphase (study phase) und nach einem gewissen Behaltensintervall (retention interval) eine Testphase (test phase) im Labor: Vpn werden instruiert, sich Wörter/Bilder/etc. zu merken; dann Präsentation, dann Test-Phase in Testphase: alte und neue Items präsentiert; bei jedem Item entscheiden, ob „alt“ oder „neu“ korrekte Auswertung: Antwort „alt“ Reiz „neu“ alt hits misses neu false Correct alarms Summe rejections Summe 4. recall vs. Recognition Frage: in welchem Zusammenhang stehen beide? typischerweise ist die Behaltensleistung bei recognition besser als bei recall (jedoch gibt es auch einige Bereiche, in denen man durch recall bessere Ergebnisse erzielt als durch recognition) manchmal gibt es bei recognition auch RT-Messung häufig ist recognition die einzige Möglichkeit z.B. Gedächtnis für Gerüche, wie sollte recall hier aussehen? Jedoch ist wichtig zu sagen, dass es einige Probleme beim Vergleichen von verschiedenen Recognition-Werten gibt: z.B. 1.Vp: erkannte große Anzahl an Items als alt, aber auch große Anzahl an Items als neu 2. Vp: war vorsichtiger und machte weniger hits aber auch weniger false alarms wer war jetzt besser? Methode, um mit false alarms umzugehen: - durch „guessing correction“: Annahme, dass eine Vp bei den Items, die sie nicht kennt, raten wird - in vielen Studien: gleiche Anzahl an alten Items und neuen Distraktoren -> Chance, ein unbekanntes Item zu erraten beträgt also 50% - für jedes neue Item, das als alt bezeichnet wurde, sollte es ein altes Item geben, das die Vp durch eine 50%- Chance richtig errät man kann also den wahren Wert (also „true detection rate“) so berechnen: wahrer Wert = correct rejection – false alarms 5. Vergessen als ein Retrieval-Fehler Die Idee, dass Retrieval eine wichtige Komponente im Erinnern und Lernen von Informationen ist, ist sehr neu. Es wurde erst in den 1960ern eingeführt, als einige Studien auf dessen Wichtigkeit hinwiesen. 2 3 Ein wichtiges Experiment wurde von Mandler, Pearlstone & Koopmans (1969) geliefert. Den Versuchspersonen wurden 100 Wörter in 5 aufeinander folgenden Durchgängen gezeigt. Dabei wurde das Merken der Wörter entweder durch a) recall (= reproduzieren, wiedergeben) oder b) recognition (= wieder erkennen) getestet. Die Wörter wurden gemischt dargeboten, d.h. also alte und neue Wörter in gleicher Anzahl präsentiert. Ergebnisse: Vpn reproduzierten in Durchschnitt 38%, aber erkannten rund 96% im recognition-Modus wieder, mit einer false alarm rate von 7%. Die Tatsache, dass 62 Wörter nicht reproduziert wurden, und nur 4 Items nicht wieder erkannt wurden, ist ein Indiz dafür, dass die Wörter nicht vergessen wurden nach Tulving waren diese Wörter zwar vorhanden, aber nicht verfügbar für die Vpn Tulving (1967): freies Reproduzieren und Lernen einer Wortliste - verschiedene Bedingungen: 1. Bedingung: normale Prozedur, d.h. Liste (P), dann Test (T), also: PT,PT, PT usw. 2. erst PTTT, also 3x hintereinander getestet, dann wieder PTTT usw. - Tulving stellte fest, dass in jedem aufeinander folgenden Durchgang die Vpn ca. dieselbe Anzahl an Wörtern reproduzieren konnten, aber nicht immer dieselben Wörter, also nur etwa 50% der Wörter wurden in allen Durchgängen wieder gegeben, die restlichen Wörter nicht immer die Wörter sind also vorhanden, aber nicht verfügbar, d.h. nicht alle Wörter, die gespeichert werden, sind auch immer reproduzierbar 6. Kontext-abhängiges Gedächtnis (context-dependent-memory) In manchen Situationen ist es schwieriger etwas zu reproduzieren, was man in anderen Situationen gelernt hat Goddon & Baddeley (1980): Taucher an Land und im Wasser, mussten Wörter lernen, dann entweder an Land oder im Wasser reproduzieren - es gab einen deutlichen Kontext-abhängigen Effekt: - wenn Lern- und Recall-Ort verschieden waren, konnten sich die Vpn an etwa 40% weniger Wörter erinnern als wenn Lern- und Recall-Ort derselbe waren auch andere Studien konnten feststellen, dass recall beeinträchtigt wird, falls die Umgebung geändert wird Frage: Ist physische Anwesenheit wichtig, damit kontext-abhängiger Effekt, oder ausreichend, wenn man nur gedanklich an diesen Ort zurückkehrt? Smith (1979) untersucht: - Vpn lernten 80 Wörter in einem Labor (1.Tag) - Reproduzieren am 2. Tag: 3 4 a) entweder im selben Raum oder b) in einem anderen Raum mit ganz anderer Möblierung c) in einem anderen Raum, aber den Lernraum genau vorstellen, bevor Wiedergabe - Ergebnisse: a) 18 Wörter erinnert b) 12 Wörter erinnert c) im Durchschnitt 17 Wörter reproduziert 6. Häufigkeitsparadox bezieht sich auf die Beziehung zwischen der Worthäufigkeit, recall und recognition sehr gebräuchliche Wörter können besser reproduziert werden als weniger gebräuchliche, können aber nur sehr schlecht wieder erkannt werden; Warum?: - kann man durch den 2. Aspekt v. recognition erklären (muss entscheiden, ob Wort alt oder neu); gebräuchliche Wörter tauchen in verschiedenen Kontexten auf, so dass diese einem nicht wirklich auffallen; weniger gebräuchliche hingegen trifft man nur gelegentlich an, weshalb sie einem eher ins Auge stechen, also bessere Diskriminierung Zusammenfassung: Vergessen tritt auf, weil das Material zu dem gewünschten Zeitpunkt nicht aufgerufen werden kann. Retrieval besteht aus 2 Prozessen: Prozess des bewussten Zusammenstellens der Info, welches offen steht für Introspektion Ein relativ automatischer und unfreiwilliger Aufruf/Suchprozess, der von unserem Erinnern abhängig ist Retrieval-Fehler repräsentieren Hauptaspekt für Vergessen konnte durch Vergleiche von recall und recognition festgestellt werden, d.h. also, dass die Fähigkeit des Erinnerns zeitlich schwankt. Weiterhin ist wichtig zu wissen, dass das Aufrufen von Erinnerungen durch retrieval cues angeregt werden kann. 2. Satzverifikation beliebte Methode in der Psychologie, wobei es untersch. Varianten davon gibt Bei diesem Paradigma wird normalerweise das semantische Gedächtnis untersucht, es gibt keine Lernphase. Es werden Sätze präsentiert und Vp muss entscheiden, ob Aussage des Satzes richtig oder falsch. - Ein Spatz ist ein Vogel. richtig - Ein Spatz ist ein Tier richtig - Cola ist blau falsch 4 5 Oder: - A ist über B. - kurze Zeit später Präsentation: A B Entscheidung: richtig; dies geht ganz einfach - B ist nichtunter A - kurze Zeit später Präsentation: B A Entscheidung: richtig; ist zwar auch einfach, aber man muss etwas um die Ecke denken, weshalb einige Fehler auftreten geht insgesamt problemlos, also mit ganz wenigen Fehlern deshalb betrachtet man auch nicht die Fehler, sondern die Zeit zur Verifikation (RT) (- typischerweise geht „ein Spatz ist ein Vogel“ schneller als „ein Spatz ist ein Tier“) 3. Spezielle Form des Priming = Wortstamm-Ergänzung Experimentalgruppe: - Wieder 2 Phasen, aber statt Lernphase eine Inspektionsphase und Testphase - Während Inspektionsphase liest Vp Wörter ohne die Instruktion, diese zu behalten (z.B. Wagen) - In Testphase: Wortanfänge präsentiert z.B. Wa--, und Vp soll mit Wort komplettieren, das ihr zuerst einfällt - Ergebnis: - bei Ergänzungen werden häufiger vorher gelesene Wörter verwendet – obwohl Vp das nicht bewusst ist Kontrollbedingung: - cued recall - Inspektionsphase wie bei EG; in Testphase aber die Instruktion, Wortanfänge mit Wörtern aus der Inspektionsphase ergänzen geht problemlos Aber: Amnesie-Patienten schlecht bei cued recall, besser bei Wortstammergänzung ohne Instruktion zum memorieren II. kurzer historischer Abriss Fragen zum Gedächtnis sind keine Erfindung der Psychologie: - Plato Wachstafel - Aristoteles Assoziationen - Descart, Kant einfache u. komplexe Ideen als Einheiten von Denken und Gedächtnis Aber: vorpsych. Überlegungen zum Gedächtnis nicht empirisch belegt 1. Ebbinghaus Bedeutung: - 1. Forscher, der experimentelle Untersuchungen zum Gedächtnis durchführte („Buch über das Gedächtnis“). 5 6 - es gab noch keine psychologischen Labore, keinen Vp-Pool, keine geeigneten statistischen Methoden und kein standardisiertes Stimulus-Material Methode: - war seine eigene Vp - „erfand“ sein Material, nämlich sog. sinnlose (heute: sinnarme) Silben, CVC (also KonsonantVokal-Konsonant) wie z.B. zeb, baf, lub… - erfand Lernkriterium: Liste von Sieben Items, 2x reproduzieren, dann galt das Material als hinreichend gelernt - für gewöhnlich Liste mit 13 Items - maß die Zeit bis zum Erreichen des Lernkriteriums, ließ dann ein Behaltensintervall verstreichen (19min. bis zu 31 Tagen) - danach lernte er die Liste erneut und maß ebenfalls die dazu notwendige Zeit fand heraus, dass recall in 1. Recall-Durchgang schlecht war, was auf Vergessensprozess hindeutet Ersparnis-Methode: - Liste erstes Mal lernen, notwendige Zeit: OL; Liste nach Behaltensintervall erneut Lernen, notwenige Zeit: NL er konnte die Anzahl der vergessenen Items dadurch abschätzen, indem er die Zeit fürs Neulernen der Items maß, bis er wieder den Level des Originallernens erreicht hatte, also: Ersparnis: (OL – NL) / OL - diese Methode liefert Werte zwischen 0% und 100%; je größer die Ersparnis ist, desto mehr im Gedächtnis enthalten ABBILDUNG 10.1 (skript) - man sieht hier, dass die Vergessensrate nicht linear ist und auch, dass auch nach einem Behaltensintervall von 31 Tagen die Ersparnis nicht 0% beträgt, was darauf hindeutet, dass immer noch etwas im Gedächtnis vorhanden ist. - die Ersparnismethode vermeidet sog. Bodeneffekte selbst dann, wenn 0 Items korrekt reproduziert werden können, kann mit der Ersparnismethode ein Rest von Gedächtnis nachgewiesen werden 6 7 2. Alfred Binet Methode: - interessiert sich für Schüler und deren Schulalltag; - keine sinnlosen Listen, sondern Material aus dem Schulalltag, also Wörter, Sätze, Texte - typ. Vorgehen: Material wurde vorgelesen, dann immediate o. delayed recall, schriftlich typ. Befunde: - Listenlängen-Effekt: wird die Liste länger, so wird zwar absolut mehr behalten, aber nicht relativ - serieller Positions-Effekt (Erinnerung: recall) - Bedeutsamkeits-Effekt: Bedeutende Textpassagen werden besser behalten als unbedeutende bedeutend sind solche Passagen, die man nicht ohne Sinnverfälschung weglassen kann außerdem: - qualitative Fehleranalysen, also nicht wie viele Fehler gemacht wurden, sondern welche - Ergebnisse: akustische Verwechslungen bei immediate recall und semantische Verwechslungen bei delayed recall 3. Richard Semon Entwickelte die Konzepte: - Enkodierung (encoding; seine Begrifflichkeit: Engraphie) - Speicherung (storage; Engram) - Abruf (recall; Ecphorie) Entwickelte Enkodier-Spezifität, die von Tulving (1974) neu entdeckt wurde; dies wurde von ihm nicht empirisch überprüft 4. Frederic Bartlett Ebbinghaus und Assoziationisten waren interessiert an der möglichst exakten Reproduktion individueller Items Bartlett aber hatte anderen Schwerpunkt rekonstruktive Gedächtnisinhalte, denn seiner Meinung nach reproduziert nicht einfach, er rekonstruiert die Ged.inhalte Typ. Material: Geschichten, wie z.B. „The War of the Ghosts“ (siehe Baddeley S.246, 13.3) Zentraler Begriff bei Bartlett: Schema Info wird aufgenommen u. in bereits vorhandene Schemata eingebettet, beim Abruf entsprechend den eigenen Schemata modifiziert Aber: Zweifel an diesem rekonstruktiven Prozess, z.B. von Zangwill (1937): Vp sollten Zeichnungen v. Gesichtern nach 1, 2,…,10 oder 18 Tagen nachzeichnen; später Wiedererkennungstest mit Original und eigenen Zeichnungen; Vp wählten am häufigsten Originalzeichnungen, waren also recht akkurat in ihren Erinnerungen; doch nach Bartlett sollte man wegen rekonstruktivem Ged. Eher eigene Zeichnungen erkennen III. Sensory Memory = ist das kurzlebigste Ged.system, kann Infos nur für wenige ms speichern wird auch: - sensorisches Gedächtnis, 7 8 - sensor. Register - Ultrakurzzeitgedächtnis - iconic/echoic memory genannt es gibt mehrere sensor. Gedächtnisse, die wesentliche Bestandteile des Wahrnehmungsprozesses sind nach dem Enkodierungsprozess gelangen die Infos in dieses Register das sensorische Gedächtnis ist modalitätsspezifisch, weshalb folgende Unterscheidung: Iconic memory = visuelles sensor. Ged. Echoic memory = auditives sensor. Ged. UKG für visuelle u. auditive Infos repräsentieren die früheren Stadien des sog. Sensorischen Gedächtnisses alle Infos gelangen dann später, wenn sie weiterverarbeitet werden, in einen etwas länger anhaltenden Speicher (short-term auditory and visual memory), mit einer Gedächtnisspur von wenigen Sekunden 1. visuelles Gedächtnis/ iconic memory Segner untersuchte 1740 die sog. Visuelle Persistenz, indem er glühende Kohle auf ein Rad montierte und dieses im dunklen Raum drehte; Geschwindigkeit des Rades wurde gesteigert bis durchgehende Spur ohne Lücke schätzte Persistenz-Dauer von 100ms Sperling (1960): war der erste, der sich für die Wahrnehmung komplexer Stimuli wie Buchstabenfolgen interessierte; er führte eine moderne Untersuchung des sensorischen Registers durch - experimentelles Paradigma: - Stimulus ist eine Buchstabenmatrix, die Vp. für kurze Zeit sieht, z.B. 3x4 Matrix whole report Bedingung - Präsentation mittels Tachistoskop; - Darbietungszeit etc.: - Buchstabenmatrix in verschiedenen Experimenten untersch. lange präsentiert, Zeiten lagen zwischen 15 und 500 ms - verschiedene Anordnungen, z.B. 3x4 oder 2x4 - untersch. Material, z.B. Buchstaben oder Ziffern - typische Ergebnisse: - wenn Sperling die Matrix für 50ms präsentierte, anschließend weißes Feld, konnten Vpn sich 4-5 der 12 Items merken Frage: Liegt Ergebnis daran, weil Vpn wirklich nur diese Items sahen oder weil Vpn alle sahen, aber diese ganz schnell wieder verblassen, wie einige Vpn nach dem Experiment behaupteten? wie kann man feststellen, ob mehr Info verfügbar ist als berichtet wird? Sperling: partial report - erneut kurze Darbietung einer Buchstabenmatrix 8 9 - nach Darbietung hoher, mittlerer oder niedriger Ton - Vp sollten nur die entsprechende Zeile wiedergeben, da sie aber nicht wissen, welche Zeile, müssen sie versuchen, sich so viele wie möglich zu merken - Ergebnisse: auch hier werden 3 von 4 Items berichtet - Interpretation: - direkt nach Darbietung ist die vollständige Info vorhanden - diese zerfällt aber sehr schnell, und zwar während die Vpn reproduzieren - Annahme, dass Vpn bei einer 3x4-Matrix mind. 3 Items aus jeder Zeile zur Verfügung hatten, da sie nämlich zuvor nicht wussten, welche Reihe abgefragt wird - wenn in partial report mit 3x4-Matrix 3-4 Items berichtet werden können, müssen 9-12 Items verfügbar gewesen sein Sperling meinte auch, dass eine schnell verfallende visuelle Gedächtnisspur die Buchstaben liest, diese aber nicht alle der Vp verfügbar sind Wie lange hält die Gedächtnisspur an? a) nach dem Sperling-Modell: - kriegt man durch partial report raus, aber Ton wird nicht direkt nach der Item-Matrix präsentiert, sondern mit einer gewissen Verzögerung ABBILDUNG SKRIPT SEITE 12; - auf X-Achse: Verzögerung des Tons in ms; auf Y-Achse: Anzahl der Buchstaben, die verfügbar sein müssen - Ergebnisse: nach ca. 1s ist in der partial report Bedingung die Leistung so gut wie in der whole report Bedingung es ergibt sich eine Persistenzschätzung von ca. 1s 9 10 b) nach Averbach & Coriell (1961): - untersuchten unabhängig von Sperling die Länge der Ged.spur - Methode: - Präsentation einer Matrix mit Reizen - Matrix verschwindet, in der Nähe eines Items erscheint eine Maskierung - Vp soll das Item bei der Maskierung berichten - Resultate: - auch bei ihnen gab es eine SOA-Verzögerung; - Signal erfolgt direkt nach display-offset: fast perfekte Wiedergabe - Signal mit zeitlicher Verzögerung: verschlechterte Wiedergabe - Persistenzschätzung hier bei ca. 300ms nennt man auch „bar-probe-task“ - übereinstimmende Interpretation: - es liegt eine visuelle Information vor, diese zerfällt jedoch sehr schnell c) Sperlings Modell: ABBILDUNG SEITE 12 1. Licht-Muster gelangt ins System, zuerst ins iconic memory (visual information storage, VIS) - im VIS ist die Info prä-kategoriell - innerhalb einer Sekunde zerfällt die Info 2. aber (da Vpn zumindest einige Items berichten können): ein sog. Scanning Prozess liest die Info aus dem VIS aus, und zwar sequentiell (also ein Item nach dem anderen), und platziert sie in einen sog. 3. recognition buffer; hier wird der Info ein Name zugewiesen (also kategoriell) (z.B. aus Lichtmuster wird ein Buchstabe) - die Kodierung im recognition buffer ist auditiv - aufgrund der auditiven Kodierung im recognition buffer entstehen Verwechslungsfehler anhand des Klanges 4. dann erfolgt der sog. rehearsal Prozess, damit die Infos aus recognition buffer nicht verloren gehen - dieser Prozess transportiert die Items in einen 5. auditiven Speicher (AIS): wenn Info berichtet werden muss, dann wird sie aus dem recognition buffer geholt und in motorische Kommandos übersetzt (tranlation, T) Frage: Erklärt das Modell die Befunde? - whole report 10 11 - Vpn bilden icon (also visuelles Abbild) des displays im VIS - dieses wird gescannt - die Items werden erkannt - sie werden „rehearsed“ - sie werden aufgeschrieben aber: - die Leistung ist limitiert und benötigt Zeit - also können nicht alle Items gescannt oder erkannt werden, bevor das icon zerfällt; somit hat der Scanning-Prozess keine Grundlage mehr - deshalb können nur ca. 4 Items berichtet werden und nicht alle - partial report - das Signal erlaubt, den scan-Bereich einzuschränken auf die relevante Lokation - also können in der vorhandenen Zeit (fast) alle relevanten Items gescannt und erkannt werden bessere Behaltensleistung Alternativen zur Untersuchung des iconic memory - bei den Verfahren von Sperling und von Averbach & Coriell handelte es sich um indirekte Methoden - es gibt auch Reihe direkter Methoden, d.h. die Vpn werden direkt befragt (sollen mit den Reizen bestimmte Aufgaben erfüllen) 1. Methode: wiederholte Darbietung - ein Reiz wird wiederholt dargeboten, in immer kürzerem Abstand, bis die Vp sagt, er erscheine kontinuierlich Film, Fernsehen, Computermonitor 2. Methode: Onset-Einstellung - Vpn müssen den Onset eines Reizes zeitlich so einstellen, dass er mit dem Offset eines vorherigen Reizes zusammenfällt, d.h. 2. Reiz fängt an, wenn 1. Reiz aufhört - 1. Reiz in der Regel visueller Reiz - Vpn stellen Onset etwas später ein als Offset des 1. Reizes haben also Eindruck, dass 1. Reiz länger andauert, weil der vis. Reiz zwar auf Bildschirm abgeschaltet wird, aber nicht im Gedächtnis, sondern länger anhält (also Ged.spur) 3. Eriksen & Collins (1967) ABBILDUNG IM SKRIPT SEITE 14 11 12 - 2 zufällig erscheinende Punktmuster werden kurz nacheinander präsentiert - wenn Punktmuster übereinander gelegt: wäre Silbe sichtbar - Erkennungsleistung hängt davon ab, wie weit beide Muster zeitlich entfernt dargeboten werden ABBILDUNG SEITE 14 - wichtig hierbei die durchgezogene Linie mit den großen Kreisen ^= MW - 0ms ISI: 90% korrekt - 50ms: ca. 70% - 100ms: ca. 50% Wo ist das iconic memory? 1. Idee: iconic memory ist Eigenschaft der Retina, beispielsweise der Stäbchen (Sakitt, 1976) - aber: Stäbchen-Fkt = Hell-Dunkel-Sehen; doch Farbe kann als partial-report-cue verwendet werden, also nicht Stäbchen (Banks & Barber, 1977) 2. Frage: Was passiert, wenn kurz nach Reiz ein weiterer Reiz präsentiert wird? - Maskierung = Reiz wird verdeckt, Leistung wird immer schlechter a) Helligkeitsmaskierung - kurz nach Reiz ein Lichtblitz - somit nimmt Reproduktionsleistung ab aber: nur dann, wenn Helligkeitsmaske aufs gleiche Auge wie der Reiz präsentiert wird ( stellt das wichtigste Merkmal der Helligkeitsmaskierung dar) - also: Buchstabenmatrix und Helligkeitsmaske aufs selbe Auge schlechte Reproduktionsleistung - Buchstabenmatrix aufs rechte und Maske aufs linke Auge unbeeinträchtigte Leistung iconic memory vor Sehbahnkreuzung, also peripher, möglicherweise so was wie ein Nachbild (d.h. also auf der Retina, aber nicht auf Zapfen oder Stäbchen, sondern auf anderen Zellen der Retina) b) Mustermaske = Beeinträchtigung der Leistung durch eine kurz nach dem Reiz präsentierte Mustermaske (pattern mask) wie in Abb. 2.2 zu sehen ist - hier ist das wichtigste Merkmal nicht die Intensität (wie bei Helligkeitsmaske) sondern das Intervall zwischen der Reizpräsentation und dem Onset der Maskierung - aber: auch dann, wenn die Helligkeitsmaske auf das andere Auge wie der Reiz dargeboten wird h - Buchstabenmatrix und Mustermaske aufs rechte Auge schlechte Reproduktionsleistung 12 13 - Buchstabenmatrix und Mustermaske auf das jeweils andere Auge auch schlechte Leistung iconic memory liegt hinter der Sehbahnkreuzung, ist also eher zentral vermutlich gibt´s nicht ein einziges iconic memory, sondern es sind verschiedene Systeme, die dazu beitragen; manche sind eher peripher, die anderen eher zentral 2. auditives sensorisches Gedächtnis Ton: beinhaltet eine Fluktuation des Schalldrucks in einer best. Zeitspanne, weshalb die Ged.spur auch länger dauert als im visuellen Ged. Viele Studien konnten bestätigen, dass das auditive sensor. Ged. in 3 Bereiche unterteilt werden kann: - echoic memory: hält einige ms an - auditiver STM: bis zu 5-10s - auditiver LTM Onset-Methode bei Efron (1970 a, b): - Vpn hören kurze Töne u. sollen am Offset des Tons den Onset eines Lichtreizes ansetzen (wie im vis. Ged.) unabhängig von der Länge der Töne schätzten sie die Länge auf durchschnittlich 130ms Goldburt (1961): - konnte nachweisen, dass scheinbare Dauer eines Tons verkürzt wurde, wenn es von einem 2. Ton gefolgt wurde all das deutet daraufhin, dass es einen sensor. auditiven Speicher gibt; auch konnte man nachweisen, dass dieses sensor. Ged. anfällig für Maskierung ist, wobei Reiz u. Maskierung aufs selbe Ohr präsentiert werden müssen in einigen Studien wurde versucht, das Modell des partial report von Sperling so zu modifizieren, dass es auf das auditive sensor. Ged. angewendet werden kann: a) Moray, Bates & Barnett (1965) - Vpn tragen Kopfhörer u. hören 4 verschiedene Mitteilungen, die scheinbar aus 4 versch. Richtungen kommen - direkt danach: visueller Hinweisreiz, der sagt, welche Mitteilungen reproduziert werden sollen - Leistung in dieser partial report Bedingung besser als in whole report, d.h. die geschätzte Anzahl des gespeicherten Materials war bei partial report größer als beim whole report b) Darwin, Turvey & Crowder (1972) - wie bei Moray et al., aber visueller Hinweisreiz wurde zeitlich verzögert - partial report: bei sehr kurzen Verzögerungen gut, nach 4s aber verschwindet es, weshalb es hier ab 5s eine Asymptote gibt, d.h. bei einigen Sekunden Verzögerung partial report nicht besser als whole report - aber: delay muss größer sein als im visuellen, also echoic memory im Taktilen? - Bliss, Crane, Mansfield & Townsend (1966): - die 8 Finger beider Hände (ohne Daumen) wurden in Oben, Mitte und Unten unterteilt, so dass 24 verschiedene Fingerregionen definiert waren 13 14 - Vpn lernten, jeder Fingerregion einen Buchstaben zuzuordnen - im Exp. wurde einer dieser 24 Regionen durch einen Luftstrom gereizt u. Vpn sollten die den gereizten Regionen zugehörigen Buchstaben nennen (whole report) - in partial report wurde nach dem Luftstrom visuell bestimmt, ob nur Oben, Mitte oder Unten zu reproduzieren ist - es gab einen kleinen, aber bedeutsamen Vorteil für partial report auch im Taktilen kurzlebiger Speicher vorhanden, der Infos kurz bereithält Probleme mit Sperlings Modell - methodologisch: a) normalerweise: - wenn wir 2 experimentelle Bedingungen miteinander vergleichen wollen, dann sollten sich diese nur in der Stufe der unabhängigen Variablen unterscheiden, in allem anderen aber identisch sein - das bedeutet auch, dass diese beiden Bedingungen in zufälliger Abfolge erscheinen müssen, wenn immer es experimentell machbar ist (also mal partial report, mal whole report) b) bei Sperling und folgenden Untersuchungen: - whole report u. partial report geblockt dargeboten nicht gut c) was passiert, wenn whole u. partial report gemischt dargeboten? - Befundlage weniger deutlich klar als bei geblockter Darbietung, spricht aber nicht völlig gegen iconic bzw. echoic memory - möglicherweise ist Vorteil von whole vs. Partial report ein Strategieeffekt und keine Eigenschaft des iconic memory - prä-kategoriell: - nach Sperling ist Info im VIS prä-kategoriell kann aufgrund physikalischer Dimensionen (z.B. Lokation) selegiert werden, aber nicht aufgrund von kategoriellen Dimensionen - aber schon Sperling testet Buchstaben vs. Ziffern (partial cue: Buchstaben o Ziffern reproduzieren) und fand kleinen, aber unbedeutenden Vorteil für partial report - Merikle (1980): - whole und partial report gemischt, nicht geblockt - ebenfalls Buchstaben vs. Ziffern bei partial report - statistisch bedeutsamer Vorteil für partial report (d.h. doch kategoriell, denn die Vpn nehmen eine Unterscheidung zwischen Buchstaben und Ziffern vor) - gleicher Zeitverlauf wie bei Sperling Info ist nicht prä-kategoriell Frage: Weshalb sinkt eigentlich die Leistung bei partial report mit steigendem cue delay? - modellkonforme Antwort: das icon zerfällt im Laufe der Zeit und kann nicht mehr vollständig ausgelesen werden - was macht Vp, wenn sie dennoch etwas berichten will? sie rät Fehleranalysen: - Annahme: icon zerfällt u. Vpn rät 14 15 - z.B.: die Averbach & Coriell bar probe task, 9 von 26 verschiedenen Buchstaben wurden gezeigt - wenn Vp rät, kann sie mit: - p = 1/26 richtig raten, wir entdecken gar keinen Fehler - p = 8/26 begeht sie einen location error, nennt also einen Buchstaben aus dem display, aber nicht den gewünschten - p = 17/26 begeht sie einen intrusion error, nennt also einen Buchstaben, der gar nicht auf dem display war - tatsächlicher Befund: - mit dem cue-delay nehmen die location errors zu, nicht aber die intrusion errors - das bedeutet: - nicht das iconic memory zerfällt, sondern die Lokationsinformation geht verloren Alternative Modelle: z.B. dual-buffer model von Mewhort, Marchetti, Gurnsey und Campbell (1984) - grundsätzliche Idee: - visuelle Info wird verarbeitet, features (gerade Linien, Kurven, Kreise, etc.) werden extrahiert und in einem prä-kategoriellen feature buffer gespeichert - ein recognition Mechanismus erzeugt aus dem feature-buffer abstrakte Repräsentationen und speichert diese in einem kategoriellen Speicher: character buffer - character buffer beinhaltet abstrakte Repräsentationen der Reize und Lokationsinfo - nicht die abstrakten Repräsentationen, sondern die Lokationsinfos zerfallen dann erzielen wir bessere Ergebnisse im whole report Fazit: doch prä-kategoriell IV. Wie viele Gedächtnisarten gibt es? 1. Die Kapazität des STM auditive Präsentation kann besser reproduziert werden als visuelle (z.B. Telefonnummer) wie lässt sich die Gedächtnisspanne verbessern, so dass man sich solche Infos besser merken kann? (I) - man kann die Zahlenkombination in Buchstaben umwandeln; (muss aber vorher natürlich eine Kodierung finden und diese dann auswendig lernen) - z.B.: 265070193 BAFDILTUN wieso aber lässt sich eine Buchstabenkombination einfacher merken als eine Zahlenkombination? - weil diese 9 Zahlen z.B. zu drei sinnvollen Einheiten (hier: CVCs) reduzieren lassen können: BAF DIL TUN George Miller (1956) führte Untersuchungen zur Gedächtnisspanne durch und stellte fest, dass die sofortige Gedächtnisspanne durch die Anzahl der chunks bestimmt wird statt durch die Anzahl der Items chunks: sinnvolle Einheiten, z.B. einzelne Buchstaben, CVCs oder Wörter (aber keine Sätze); erinnert man sich an einen Teil des chunks, so fällt es einem leichter auch den Rest zu reproduzieren wie wird die Gedächtnisspanne gemessen? 15 16 - typisches Vorgehen: - immediate serial recall - Vpn müssen best. Infos in richtiger Reihenfolge korrekt wiedergeben z.B. 1 Zahl – Wiedergabe 2 Zahlen – Wiedergabe 3 Zahlen – Wiedergabe usw. - es wird also immer eine Zahl mehr gezeigt; wenn die Vp nach mehreren Durchgängen schließlich immer 50% korrekt reproduzieren kann, dann entspricht dies der Gedächtnisspanne - nach Miller beträgt die Gedächtnisspanne 7 ± 2 chunks (eher 7 – 2 chunks) wie kann ich meine Gedächtnisspanne erhöhen? (II) - indem ich die Anzahl der Items in den chunks erhöhe: - Gedächtnisspanne für einzelne Buchstaben beträgt: ≤6 Items - Gedächtnisspanne für CVCs: ≤9 Items - Gedächtnisspanne für Wörter, die in ein sinnvolles Satzgefüge gebracht werden: ≥50 ABER: Anzahl der chunks bleibt dennoch 7 ± 2 2. Vergessen im STM John Brown in England und die Petersons in den USA (1950er) entwickelten experimentelle Prozeduren, die das schnelle Vergessen von kleinen Infos untersuchen Brown-Peterson-Paradigma Das Prinzip: - Konsonanten-Trigramm wird dargeboten (z.B. HLM) gefolgt von einer Zahl (z.B. 492) - Vp soll von dieser Zahl in 3er Schritten zurückzählen bis ein Signal ertönt - dann soll Vp das Trigramm erinnern - die Zeit zum Rückwärtszählen wird variiert; je länger diese Zeit, desto schlechter die Leistung ABBILDUNG 3.1 16 17 - hier sind auch die Ergebnisse von Murdock (1961) dargestellt: - entweder Wort mit 3 Buchstaben (HAT), oder 3 unabhängige Wörter (HAT;DOG;PEN) oder CVCs - bei den Petersons: - 3s Behaltensintervall 80% korrekt - 15s Behaltensintervall ca. 10% korrekt - Ergebnisse: 1. schnelles Vergessen im STM 2. relevante Einheit ist nicht Anzahl der Buchstaben, sondern der chunks; 3 Wörter ähnlich gut behaltbar wie 3 Konsonanten (die aber keine Bedeutung haben dürfen) Wieso überhaupt Vergessen? - 2 gegensätzliche Theorien: a) Spurenzerfall: wenn wir uns etwas merken, dann haben wir für diese Info eine Gedächtnisspur (d.h. Info ist irgendwie im Gedächtnis repräsentiert); doch im Laufe der Zeit zerfällt diese einfach; b) Interferenz: neue Info oder bereits vorhandene Info beeinträchtigt das, was ich gerade abrufen wollte; sie ist zwar faktisch noch vorhanden, wird aber von anderen Spuren überlagert; aber nur bei ähnlichem Material - Brown-Peterson favorisierten Spurenzerfall; denn wenn Interferenz die Erklärung wäre, müssten die Infos, die miteinander interferieren, irgendwie ähnlich sein; Zahlen aber sind von Buchstaben so verschieden, dass man Interferenz ausschließen kann b) Interferenz: - proaktive Interferenz (PI): alte Lerninhalte stören das Behalten neuer Inhalte - retroaktive Interferenz (RI): neue Lerninhalte stören das Behalten alter Inhalte - wenn ich ständig etwas Neues lerne, sind beide Mechanismen aktiv - Keppel & Underwood (1962) präferierten Interferenz - Beleg: release from PI: das erste Trigramm zeigt quasi kein Vergessen, die weiteren Trigramme schon; das erste Trigramm bleibt also verschont, weil es keine PI erfährt dies kann man mit Spurenzerfall nicht erklären - Wickens, Born & Allen (1963): - Idee: Interferenz gilt nur bei ähnlichem Material; deshalb sollte es kein PI geben, wenn nach den ersten paar Trials die Items verändert werden - wurde von ihnen untersucht mit folgendem Ergebnis: - für ein paar Trials gibt es Konsonanten, danach Zahlen; direkt nach dem Wechsel gibt es fast kein Vergessen, denn die Konsonanten interferieren nicht mit den Zahlen (Interferenz nur bei ähnlichem Material) dieses Phänomen nennt man „release from PI“, welches sehr robust ist, was die Studie von - Loess (1968) zeigt: - Wort-Triplets aus gemeinsamer Kategorie, z.B. Tiere, dann rückwärts zählen, dann erinnern - nach 6 Triplets wird die Kategorie gewechselt, z.B. auf Pflanzen; - das Ergebnis: das erste Triplet nach dem Wechsel zeigt fast kein Vergessen Interferenz 17 18 - Gunter, Berry & Clifford (1981): - nahmen an, dass Behalten von Infos am besten ist, wenn ähnliche Items getrennt statt geblockt dargeboten werden - Vpn schauten sich eine Reihe von 4 TV-Nachrichten an - sollten diese dann recallen: sofort oder mit Verzögerung - Kontrollbedingung: immer die gleiche Kategorie, also entweder nur Inlands- oder Auslandsnachrichten - Experimentalgruppe: nach 3 Spots einer Kategorie Wechsel zur nächsten Kategorie ABBILDUNG 3.2 - wenn nach 3. Spot ein Wechsel erfolgt, dann sind die Vpn wieder besser sowohl bei immediate als auch delayed recall auf Interferenz zurückzuführen - Also: viele Befunde sprechen für, dass das Vergessen im STM auf proaktive Interferenz zurückzuführen ist - aber: Loess & Waugh (1967): macht man zwischen den Durchgängen eine Pause von 2min, dann ist jeder Durchgang quasi der erste und es gibt fast kein Vergessen; das widerspricht aber der Interferenzerklärung, denn Interferenz sollte im Laufe der Zeit größer werden Was denn nun? - Turvey, Brick & Osborn (1970): - Brown-Peterson-Paradigma, aber Behaltensintervalle geblockt, nicht gemischt (normalerweise im Paradigma: Mix zwischen langen und kurzen Intervallen; hier: Vp weiß nicht, wie lange Intervall dauern wird) - 1. Gruppe: 5s Behaltensintervall - 2. Gruppe: 10s - 3. Gruppe: 20s Behaltensleistung in allen Gruppen gleich groß - im letzten Durchgang: für alle Gruppen 15s Behaltensintervall - nun: Vergessen bei kurzen vorherigen Intervallen viel größer als bei langen vorherigenIntervallen - WIESO?: - liefert die Spuren-Diskriminations-Hypothese 18 19 - das Problem bei dem Brown-Peterson-Paradigma liegt darin, dass das letzte Item von dem vorletzten und vorvorletzten etc. unterschieden werden muss - diese Schwierigkeit der Diskrimination hängt von dem Verhältnis der Verzögerungen untereinander ab: - z.B.: geblockt 5s: 5s vs. 10s (1:2), also das letzte Item liegt 5s und das vorvorletzte 10s zurück unter geblockten Bedingungen ist das Verhältnis immer 1:2, dadurch ist recall in allen Bedingungen gleich schwierig - bei 15s Behaltensintervall: - 15s vs. 20s (1:1.33) - 15s vs. 25s (1:1.66) - 15s vs. 35s (1:2.33) Verhältnis in allen Gruppen verschieden; Idee: je näher es zu 1:1 kommt, desto schlechter ist die Diskrimination zwischen dem letzten und vorletzten Item deshalb war 5s-Gruppe so schlecht, denn je schlechter die Diskrimination zu zurückliegenden Items, desto schlechter die Behaltensleistung - Diskriminationshypothese macht 2 Annahmen: - 1. Es gibt einen spontanen Spurenzerfall - 2. Abruf (retrieval) erfordert eine gewisse Form der Diskrimination - zur genaueren Untersuchung: a) Spurenzerfall: - Baddeley & Scott (1971) - Brown-Peterson-Task mit nur einem Item es gibt vergessen (also Spurenzerfall), doch dieser Effekt hat eine Asymptote bei ca. 5s Behaltensintervall - Gardiner, Craik & Birtwisle (1972) - Brown-Peterson-Task, Items waren diesmal Blumennamen; dabei 2 verschiedene Kategorien: Kategorienwechsel zwischen Wildpflanzen und kultivierten Pflanzen - 3 Vpn-Gruppen: a) uninformiert b) informiert c) nachträglich informiert, d.h. nach dem Wechsel, aber vor der Wiedergabe - Frage: Können Vpn diese Information über den Kategorienwechsel benutzen, um zwischen target und den zuvor interferierenden Items zu diskriminieren? - Ergebnisse: a) kein release from PI b) Release from PI c) Release from PI diese Ergebnisse unterstützen die Annahme der Diskriminations-Hypothese bzgl. der PI-Rolle im STMVergessen: die Vpn können die release cues (hier die Info über den Kategoriewechsel) nutzen Siehe auch Kapitel XII Vergessenstheorien 19 20 3. Evidenz gegen einheitliches Gedächtnis 1. Zwei-Komponenten-Aufgabe (Standardevidenz) - Postman & Phillips (1965): - untersuchten primacy und recency Effekt anhand von immediate und delayed free recall ABBILDUNG 3.4 - wenn immediate recall, werden die letzten Items am besten reproduziert recency Effekt - wenn die Vpn aber in der delay-Phase noch eine andere Aufgabe erfüllen sollten, verschwindet der recency Effekt, d.h. alles im STM geht verloren, wobei die Items, die am Anfang der Liste standen, davon nicht beeinflusst werden - Interpretation: die recency Items werden in einem vorübergehenden und sehr zerbrechlichen STM gehalten, wobei die Items am Anfang der Liste jedoch aus dem LTM recalled werden 2. Speicher-Kapazität - Miller (1956) hatte ja festgestellt, dass die Gedächtnisspanne 7 ± 2 chunks beträgt - dies deutet daraufhin, dass: - das STM eine geringe Speicherkapazität, aber dafür einen schnellen input/output besitzt - das LTM hingegen eine vermutlich unbegrenzte Speicherkapazität hat, dafür aber einen langsamen input und output 20 21 - Waugh (1970): - recency Items sind konsistent schneller abzurufen als die anderen Items - deshalb die Annahme, dass retrieval aus STM einfacher sei als aus LTM 3. Art der Kodierung - Annahme: Info im STM ist phonologisch kodiert, im LTM jedoch semantisch - bei Sperling (1960) fanden sich Verwechslungen hinsichtlich ähnlich klingender Buchstaben - Conrad & Hull (1964): - P,D,V,C,T vs. K,Y,Z,W,R - wenn man diese in korrekter Reihenfolge wiedergeben soll, mehr Fehler bei gleich klingenden Buchstaben als bei den anderen, denn man kann diese nur schwer auseinander halten kann ableiten, dass phonologischer Code wichtig ist, aber ist er auch alleine entscheidend? - Baddeley (1966a, 1966b): untersuchte Klangähnlichkeit vs. Semantische Ähnlichkeit - Baddeley (1966a): - Sequenz von 5 Wörtern, immediate serial recall - man, mad, etc (klangähnlich) - pen, rig, etc. (klangunähnlich) - big, huge, etc. (sem. ähnlich) - old, late, etc. (sem. unähnlich) ABBILDUNG 3.5 - zeigt, dass phonolog. ähnliches Material schwieriger ist als die unähnlichen Listen, wobei die semantische Ähnlichkeit nur geringen Effekt zeigt Vpn versuchen sich an den Klang der Items zu erinnern, nicht an Bedeutung - Baddeley (1966b): - untersuchte in diesem Experiment das Langzeitlernen - Sequenz von 10 Wörtern, 4x präsentieren und jeweils wiedergeben 21 22 - Behaltenstest erfolgt nach 20min, also weit weg von der Gedächtnisspanne; in diesen 20 Minuten müssen sie eine andere Aufgabe erfüllen, damit man ST-Lernen ausschließen kan ABBILDUNG 3.6 - phonolog. Ähnlichkeit ist nicht mehr so wichtig, sondern die semant. Ähnlichkeit wird zum entscheidenden Lernmerkmal 4. Neuropsychologische Evidenz - Patient H.M.: - wurde im Alter von 9 Jahren von einem Fahrrad umgehauen, erlitt eine Kopfverletzung und litt von da an unter Epilepsie - dies wurde immer schlimmer, bis zu 10 Anfälle pro Woche mit Blackout, pro Woche ein großer Krampfanfall - im Alter von 27 Jahren schwer behindert - Therapie: neurochirurgische Entfernung der Innenseite des Temporallappens incl. des Hippocampus - dies führte zu gewünschten Linderung der Epilepsie, aber dramatischer Gedächtnisverlust - aber normales STM und normale Erinnerung an alte Gedächtnisinhalte - Milner (1966): - untersuchte H.M. - ihre Folgerungen: - Übertrag ins LTM ist Funktion, die im Schläfenlappen angesiedelt ist (denn diese Region wurde entfernt und bei H.M. funktionierte dies nicht mehr) - mediale Temporallappen nicht für STM zuständig (denn STM funktioniert weiterhin) - Temporallappen nicht der Ort des LTM (denn obwohl Temp. entfernt, kann er sich noch an alte Gedächtnisinhalte erinnern) - es gibt noch eine andere Form des LTM, die nicht von der Funktion der Temporallappen abhängt 22 23 dazu: ABBILDUNG IM SKRIPT SEITE 23 - Aufgabe: Nachzeichnen der Linie zwischen den beiden Linien (aber: die Vpn sieht ihre eigene Hand nicht und den Stern nur im Spiegel) - H.M. unbeeinträchtigt bei dieser Lernaufgabe, er ist so gut/schlecht wie normale Vpn, obwohl er sich jeden Tag aufs Neue nicht erinnern kann, diese Aufgabe schon einmal bearbeitet zu haben - das besondere ist, dass H.M. im Laufe der Zeit besser wurde, obwohl er neue Dinge nicht mehr im LTM speichern kann da er aber besser wurde, muss es ein weiteres Gedächtnis geben, das so genannte prozedurale Gedächtnis (zuständig für motor. Handlungen und Fertigkeiten; bleibt ein Leben lang bestehen) - Baddeley & Warrington (1970): - untersuchten Amnesiepatienten mit intaktem STM und beeinträchtigtem LTM durch immediate und delayed free recall ABBILDUNG 3.7 - Ergebnis: exzellenter recency Effekt, aber Beeinträchtigung der Leistung bei den vorherigen - Items 23 24 - einfache Dissoziation: - die Dissoziation von H.M. ist ein Hinweis auf eine Trennung zwischen STM und LTM, aber noch nicht überzeugend - denn es könnte ja sein, dass STM-Aufgaben einfacher sind als LTM-Aufgaben; dann können die Patienten noch die einfachere Aufgabe, die schwierigere aber nicht mehr - braucht also einen Patienten, der ein umgekehrtes Störungsmuster aufweist - Shallice & Warrington (1970): -Patient K.F.: Läsion in linker Hemisphäre in der Nähe der sylvischen Furche, wo das Zentrum für die Sprachkontrolle liegt - Gedächtnisspanne bei K.F. 2-3 Items, also beeinträchtigtes STM - LTM aber unbeeinträchtigt - Brown-Peterson-Task sehr schlecht - serielle Positionskurve umgekehrt zu H.M.: - normaler primacy Effekt - kein recency Effekt Doppelte Dissoziation: - bei H.M. ist STM unbeeinträchtigt, es kann aber keine neue Info ins LTM übertragen werden - bei K.F. ist das LTM unbeeinträchtigt, das STM jedoch stark beeinträchtigt - also: Trennung von STM und LTM 24