I Unterteilungen des Gedächtnisbegriffs - Gedächtnis als Menge aller Einflüsse vergangener Erfahrungen auf gegenwärtiges Erleben und Handeln - Sensorisches Register: kürzestes Gedächtnis; erleben wir gar nicht als Erinnerung, sondern als ausgedehnte Gegenwart; enthält wahrnehmungsnahe Spuren, die kaum länger als 500 ms erhalten bleiben. - Kurzzeitgedächtnis: Informationen bleiben einige Sekunden lang erhalten; wurde inzwischen durch den Begriff „Arbeitsgedächtnis“ ersetzt - Langzeitgedächtnis: Info bleibt unter günstigen Umständen lebenslang erhalten; umfasst den weitaus größten Teil unserer Gedächtnisinhalte; Unterscheidung zwischen deklarativem und prozeduralem Gedächtnis; tiefergehende Unterscheidung zwischen explizitem und implizitem Gedächtnis - Deklaratives Gedächtnis („knowing that“): alles Gelernte und Erinnerte, das eine Person mitteilen kann; Unterteilung in episodisches und semantisches Gedächtnis - Epsisodisches Gedächtnis: Erinnerung an persönliche Erlebnisse - Semantisches Gedächtnis: Wissen über die Welt - Prozedurales Gedächtnis („knowing how“): äußert sich in Handlungen, wenn sie erworbene Fertigkeiten widerspiegeln; Wissen kann nicht mitgeteilt werden und muss durch Übung erworben werden, da Instruktionen nicht ausreichen - Explizites Gedächtnis: alle Gedächtnisinhalte, die einer Person bewusst zugänglich sind; mitteilbares (deklaratives) Gedächtnis als Indikator für bewusstes Gedächtnis - Implizites Gedächtnis: bezieht sich auf Spuren vergangener Erfahrungen; Wissen wird nicht bewusst erinnert, sonder im Verhalten wirksam; umfasst sowohl prozedurales Wissen als auch das so genannte Priming (beide zusammen: nicht-deklaratives Gedächtnis) - Priming: erhöhte Verfügbarkeit einer Repräsentation durch ihre vorherige Verwendung Wissenspsychologie befasst sich mit den Inhalten und der Struktur des Langzeitgedächtnisses (episodisches, semantisches und prozedurales Gedächtnis) II Klassische Theorien des Gedächtnisses II 1) Die Theorie von Atkinson und Shiffrin (1968) - Infos aus Sinnesorganen kurzfristig im sensorischen Register gehalten, wo sie bald zerfallen, falls sie nicht ins KZG überführt werden - Sensor. Register: kurzfristige Verlängerung der Wahrnehmung, Info noch kaum verarbeitet - Überführung ins KZG: nur ein kleiner Teil kann in den KZ-Speicher überführt werden, weil o Dieser eine begrenzte Kapazität hat o Einzelne Infoeinheiten nacheinander (seriell) aus dem sensor. Register herausgelesen werden müssen (=> „Ausrichtung der Aufmerksamkeit“) - Umwandlung sensorischer Information in kategoriale Repräsentationen! - Kategorisierung greift auf Info im LZG zurück: gelernte Kategorien, die Teil des semantischen Gedächtnisses sind - Annahme mehrerer Untersektionen des KZS für verschiedene Infotypen (sprachlich, bildlich, räumlich,…) - Infozerfall im KZG nach 15 bis 30 Sekunden, wenn nicht durch aktive Wiederholung („rehearsal“) aufrechterhalten => Erneuerung der Repräsentationen, allerdings begrenzte Kapazität der Rehearsal-Schleife: 5-8 Ziffern - Annahme, dass Info automatisch ins LZG überführt werden, wenn sie lange genug im KZG gespeichert wird => Rehearsal dient auch dazu, ausgewählte Infos langfristig zu behalten => Rehearsal als Beispiel für einen von vielen Kontrollprozessen 1 - - Weiterer Kontrollprozess des kognitiven Systems: Verknüpfung von Inhalten des KZG untereinander oder mit Inhalten des LZG => „Elaboration“: hilft, Info im LZS dauerhaft zu verankern KZS als Drehscheibe für kognitive Prozesse: Wenn Info aus dem LZS abgerufen wird, muss sie wieder in den KZS überführt werden! => KZS als Arbeitsgedächtnis (in Analogie zum Computer) Kritikpunkt: Unterteilung des Gedächtnisses in drei Teilsysteme II 2) Die Theorie der Verarbeitungstiefe (Craik und Lockhart, 1972) - keine Trennung von KZS und LZS - es kommt au die Verarbeitungsprozesse an, die mit der zu lernenden Info vorgenommen werden; Unterscheidung zwischen oberflächlichen und tieferen Verarbeitungsprozessen - tiefe Verarbeitung, wenn sie in der natürlichen Abfolge der Verarbeitung neu aufgenommener Info weit voranschreitet - „levels-of-processing“-Ansatz: Aufnahme von Reizen in den Sinnesorganen und Verarbeitung ihrer physikalischen Merkmale; anschließende Verarbeitung struktureller Merkmale; schließlich: Analyse der Bedeutung eines Stimulus (je höher die Ebene der Verarbeitung, desto wahrscheinlicher wird die Info dauerhaft behalten) - Orientierungsaufgaben (zusätzliche Fragen zu einzelnen Lerneinheiten werden während deren Verarbeitung gestellt, wodurch eine tiefe semantische Verarbeitung z.B. der Wörter gefördert wird): tragen zu besseren Gedächtnisleistungen bei. Dies gilt auch dann, wenn Vps bei oberflächlicher und tiefer Verarbeitung gleich viel Zeit mit dem Lernmaterial verbringen. - Theorie der Verarbeitungstiefe konnte genauso wie das Modell von Atikinson und Shiffrin aufgrund neuerer Befunde nicht aufrechterhalten werden, jedoch großer Einfluss auf die Forschung zu Prozessen der Enkodierung von Informationen. II 3) Grundlegende Fragen und Aspekte zur Organisation des Gedächtnisses Sollten wir beobachtbare Unterscheidungen auf getrennte Systeme mit ihren jeweils eigenen Gedächtnisspuren zurückführen oder sollten wir annehmen, dass es nur ein Gedächtnissystem und nur eine Art von Gedächtnisrepräsentation gibt, die uns nur je nach Aufgabe ganz unterschiedlich erscheinen, weil mit ihnen jeweils verschiedene Verarbeitungsprozesse ablaufen? Bei der neueren Definition des KZG als Arbeitsgedächtnis ist eher die kognitive Arbeit mit den Gedächtnisinhalten in den Vordergrund gerückt und nicht mehr so sehr die Dauer der Erinnerung Unterscheidungen zwischen KZG und LZG werden mit Hilfe so genannter doppelten Dissoziationen untermauert: Nachweis, dass die messbaren Indikatoren für die beiden zu unterscheidenden Systeme unabhängig voneinander variieren können. Dissoziationen können anhand natürlich auftretender Variationen beobachtet oder durch experimentell Manipulation hergestellt werden. Natürliche Variationen zum Beispiel durch interindividuelle Unterschiede (hier eignet sich die Faktorenanalyse). Die wichtigsten solcher Dissoziationen stammen aus Experimenten mit seriellen Positionskurven und Beobachtungen an hirnverletzten Patienten. Eine einzelne doppelte Dissoziation reicht jedoch nicht aus, um die Existenz von zwei separaten Systeme zu etablieren, da o Die Variablen niemals die vermuteten Systeme rein und vollständig widerspiegeln o Die Variablen, die als Indikatoren für dasselbe System gelten, miteinander assoziiert sein sollten, d.h. sie sollten nicht unabhängig von einander variieren (bei Faktorenanalyse berücksichtigt) III Das Kurzzeit- oder Arbeitsgedächtnis III 1) Primacy- und Recency- Effekte in seriellen Positionskurven 2 - - - - - serielle Positionskurve: ergibt sich, wenn man die Erinnerungsleistung für eine gelernte Liste über die Positionen der einzelnen Elemente in der Liste abträgt. Bei freier Wiedergabe längerer Listen unmittelbar nach dem Lesen => typische Kurve, bei der die Wiedergabeleistung am Anfang und am Ende besser ist als in der Mitte => Primacy- und Recency-Effekt Primacy-Effekt: erste Elemente einer Liste können häufiger still wiederholt werden (häufiges Rehearsal) Recency-Effekt: Vps geben in der Regel die zuletzt gemerkten Elemente als erstes wieder => Vermutung: letzte 3-5 Elemente noch in einem KZG verfügbar, müssen schnell wiedergegeben werden, um nicht verloren zu gehen; vorangegangene Elemente aus dem LZG abgerufen; es gibt einige wenige Faktoren, die Einfluss auf den Recency-Teil einer seriellen PK haben, aber nicht auf die Erinnerungsleistung für frühere Elemente (z.B. Einschub einer Distraktoraufgabe vor der Wiedergabe); es gibt allerdings viele Befunde, die gegen eine Zuschreibung des Effekts zum KZG sprechen. Recency-Effekte treten auf ganz unterschiedlichen Zeitskalen (von Sekunden bis zu Wochen oder Monaten) auf => Annahme: einheitliches Gedächtnis für kurz- und langfristige Erinnerungen; Recency-Effekt soll durch die bessere zeitliche Diskriminierbarkeit der jeweils jüngsten Elemente einer Liste oder Serie erklärt werden (zeitliche Diskriminierbark. D = Intervall zw. Elementen / Intervall zw. Element und Wiedergabe) Die Existenz des Recency-Effekts allein ist kein hinreichender Beleg für einen separaten KZS! Am häufigsten verwendete experimentelle Paradigmen innerhalb der traditionellen Gedächtnisforschung: Wiedererkennen (recognition), freie Wiedergabe (free recall), Wiedergabe in vorgegebener Reihenfolge (backward/forward serial recall), Wiedergabe mit Hinweisreizen (cued recall), gezielte Wiedergabe (probed recall; Indikator für das Wort, das als nächstes wiedergegeben werden soll, wird angezeigt; Paarassoziations-Lernen) Wichtigste unabhängige Variablen: Listenlänge, serielle Position, Lernzeit, Behaltensintervall zwischen Lern- und Erinnerungsphase, Art des zu lernenden Materials Wichtigste abhängige Variablen: Reaktionszeit, Prozentsatz richtiger Antworten III 2) Selektive Ausfälle des Kurzzeit- und des Langzeitgedächtnisses - Hippokampus für die Bildung neuer Erinnerungen entscheidend; Verletzung führt zu anterograder Amnesie (langfristiger Erwerb neuer Erinnerungen gestört); Kurzzeitgedächtnisspanne normal, „Vergessen“ erst nach einigen Minuten - Anhand zahlreicher Beobachtungen von Patienten mit Hirnläsionen lässt sich eine Dissoziation von Kurzzeit- und Langzeitgedächtnis erkennen: Es gibt Hirnläsionen, die das langzeitige Erinnern beeinträchtigen, aber das kurzfristige ungestört lassen, und andere, die nur die Kurzzeitgedächtnisspanne beeinflussen. Diese Ergebnisse lassen sich gut erklären, wenn man zwischen einem KZG und einem LZG unterscheidet, die sich auf unterschiedliche Strukturen im Gehirn stützen. (Dies würde einen Aspekt der Theorie von Atkinson und Shiffrin unterstützen.) III 3) Verfahren zur Messung der Kurzzeit- und der Arbeitsgedächtnisspanne - Kurzzeitgedächtnisspanne: normalerweise durch serielle Wiedergabe von Listen in VorwärtsReihenfolge gemessen; Ziffern als Material, seltener auch Buchstaben oder Wörter; = Länge der längsten Liste, die eine Person mit 50% Wahrscheinlichkeit vollständig korrekt in der Reihenfolge ihrer Darbietung wiedergeben kann. - Spanne für Ziffern, Buchstaben und Wörter unterscheidet sich wenig, obwohl Buchstaben und Ziffern weniger Informationen enthalten als Wörter => Einheit, in der wir die Kapazität des Kurzzeitgedächtnisses messen sollten: Zahl der „chunks“ - „chunk“: Informartionsstruktur, die für eine Person eine feste Einheit bildet; hängt von der Lerngeschichte der Person und ihrer Fähigkeit ab, passende Sinneinheiten im Langzeitgedächtnis zu finden. 3 - - Messung des Arbeitsgedächtnisses durch eine Variante der Messung des KZG: Messung der Lesespanne => Verbindung von kurzzeitiger Erinnerung von Wortlisten mit der Verarbeitung von Sätzen Experimente von Sternberg (1969): o Vps mussten Liste von Buchstaben oder Ziffern kurzfristig lernen; Präsentation eines weiteren Elements und Entscheidung per Tastendruck, ob dieses in der Liste enthalten war oder nicht. Reaktionszeit stieg näherungsweise linear mit der Listenlänge an, was ein Modell der seriellen Suche ohne Abbruch unterstützt (schrittweiser Vergleich mit jedem Element der Liste, der in jedem Fall bis zum ende der Liste fortgesetzt wird) o Kritik: Spätere Experimente haben allerdings auch oft steilere Geraden für negative Testelemente ergeben. Mittlerweile wird die Annahme in Frage gestellt, dass das Testelement mit der Liste überhaupt seriell (also eins nach dem anderen) verglichen wird. Die Daten sprechen eher für einen parallelen Abgleich des Testelements mit jedem Listenelement. Anstieg der Reaktionszeiten mit der Listenlänge möglicherweise ein Nebenprodukt der seriellen Positionseffekte, was allerdings keine befriedigende Erklärung darstellt (Längere Listen haben mehr Elemente in der Mitte („schlechte“ Plätze) => im Mittel eine langsamere Zugriffszeit) III 4) Probleme mit dem Modell von Atkinson und Shiffrin - zentrale Stellung des Kurzzeitspeichers impliziert die Annahme, dass von einem funktionierenden KZS viel abhängt - Evidenz gegen diese Annahme kommt unter anderem von neurologischen Fällen mit deutlich reduzierter Kurzzeitgedächtnisspanne: Die Patienten waren dennoch in der Lage, Sprache zu verstehen, Neues zu lernen und im Leben gut zurecht zu kommen - Experimente von Baddeley und Hitch (1974): Blockierung des KZS durch gleichzeitiges Bearbeiten einer Wiederholungsaufgabe mit Ziffern und einer anderen, bei der die Vps beispielsweise eine längere Liste von Wörtern auswendig lernen oder logische Denkaufgaben lösen sollten Selbst eine Belastung mit bis zu 6 Ziffern hatte praktisch keine Auswirkung auf die Leistung in der anderen Aufgabe! Die versuchte Blockierung des KZS hatte zudem keinerlei Auswirkungen auf den Recency-Effekt bei der freien Wiedergabe einer Wortliste – eben der Anteil der Wiedergabeleistung, für den der KZS verantwortlich gemacht wurde! - Weiter fand man heraus, dass die Kurzzeitgedächtnisspanne nur gering mit Leistungen in Tests für komplexe Denkaufgaben korreliert. Dies ist schwer zu erklären, wenn die Kurzzeitgedächtnisspanne die Kapazität eines zentralen Arbeitsgedächtnisses widerspiegeln soll, das für alle komplexen Denkprozesse zuständig ist. - Frage: Ist die serielle Wiedergabe von Listen wirklich eine gute Methode, um die Kapazität des Arbeitsgedächtnisses voll in Anspruch zu nehmen? III 5) Das Arbeitsgedächtnismodell von Baddeley (1986) Artikulatorische Schleife - Zentrale Exekutive Visuell-räumlicher Notizblock Zentrale Exekutive ist die Komponente, die für die Arbeit des Arbeitsgedächtnisses zuständig ist; die Sklavensysteme übernehmen die kurzfristige Speicherung von Information. 4 Aufteilung von Speichern und Verarbeiten getrennter Subsysteme macht klar, warum eine Aufgabe wie die serielle Wiedergabe einer Sequenz von Ziffern einer anderen Aufgabe, die viel Infoverarbeitung erfordert, kaum in die Quere kommt. Arbeitsgedächtnismodell kann auch erklären, warum die KZGS so gering mit Leistungen bei komplexen kognitiven Aufgaben zusammenhängt: Spanne für die serielle Wiedergabe misst vor allem die Kapazität der phonologischen Schleife. Die Leistungsfähigkeit bei komplexer Infoverarbeitung hängt vor allem von der Kapazität der Zentralen Exekutive ab! - Lesespanne: Aufgabe integriert Speicher- und Verarbeitungsanforderungen und sollte daher die Kapazität von phonologischer Schleife und zentraler Exekutive messen => Lesespanne ist tatsächlich höher mit Leistungen bei komplexen kognitiven Aufgaben korreliert als die traditionelle Wort- oder Ziffernspanne Die phonologische Schleife: o Zwei Komponenten: phonologischer Speicher und Artikulationsprozess o Info wird für ca. 2 Sekunden im Speicher gehalten und geht dann verloren, falls sie nicht innerhalb dieser Zeit durch das Wiederholen einer artikulatorischen Rehearsal-Schleife aufgefrischt wird. o 4 Phänomene als Evidenz für diese Annahmen: phonologischer Ähnlichkeitseffekt, Wortlängeneffekt, der Effekt irrelevanter Sprache und der Effekt der artikulatorischen Suppression o phonologischer Ähnlichkeitseffekt (Conrad & Hull, 1964): KZG-Spanne für Buchstaben geringer, wenn klanglich ähnliches Material (Buchstaben, aber auch Wörter) verwendet wird; Bedeutungsähnlichkeiten bei Wörtern haben keinen Effekt; phonologische Ähnlichkeit auch dann entscheidend, wenn das Material visuell dargeboten wird oder bei benennbaren Bildern. visuelle Information, die wir uns kurzfristig in einer bestimmten Reihenfolge merken müssen, wird nach Möglichkeit phonologisch kodiert. o Wortlängeneffekt: systematischer Zusammenhang zwischen der Sprechdauer für Wörter und der Spanne, die mit Listen aus diesen Wörtern gemessen wird. Entscheidend ist die Anzahl von Wörtern, die man in 2 Sekunden aussprechen kann. Kapazität der phonologischen Schleife nicht eine feste Anzahl von „chunks“, sondern eine konstante zeitliche Dauer o phonologischer Ähnlichkeitseffekt => passiver phonologischer Speicher o Wortlängeneffekt => Dauer des Artikulationsprozesses o Artikulatorische Suppression: Bei experimenteller Unterbindung des Artikulationsprozesses verschwindet der Wortlängeneffekt, nicht aber der phonologische Ähnlichkeitseffekt; die artikulator. Suppression verringert die KZG-Spanne deutlich; wenn allerdings die Gedächtnisliste visuell dargeboten wird, braucht man den Artikulationsprozess auch, um die Liste überhaupt phonologisch zu repräsentieren, weshalb artikulator. Suppression in diesem Fall auch den phonologischen Ähnlichkeitseffekt zum Verschwinden bringt. o Effekt irrelevanter Sprache: KZG-Spanne für sprachliches Material wird durch gesprochene Sprache erheblich beeinträchtigt (unabhängig vom Verstehen des Inhalts, der Lautstärke oder der Vertrautheit der Sprache Annahme, dass Sprache obligatorischen Zugang zum phonologischen Speicher hat (sprachspezifischer Filter des Arbeitsgedächtnis) Kritik von Jones et al.: es kommt nicht darauf an, dass irrelevante Laute sprachlicher Natur sind, sondern dass sie ständige Wechsel enthalten („changing-state“-These); der seriellen Wiedergabe liegt ein genereller Mechanismus zur Repräsentation von Reihenfolgen zugrunde; bei gleichzeitiger, konkurrierender Reihenfolge kommt es zur Störung der Reihenfolgenrepräsentation für die Gedächtnisliste. - Der visuell-räumliche Notizblock Ähnlichkeitseffekt bei Aufgaben zum visuell-räumlichen Kurzzeitgedächtnis, der dem phonologischen Ähnlichkeitseffekt bei sprachlichem Material entspricht => Avons & Mason 5 - - - - - (1999): serielle Wiedergabe von zufällig erzeugten schachbrettartigen Mustern; Serie solcher Muster wurde gesehen, danach sollte in einer Vorlage mehrerer Muster auf die Gesehenen in der richtigen Reihenfolge getippt werden Gedächtnisleistung war schlechter, wenn die Muster einer Serie sich ähnlicher sahen. Suche nach einer Entsprechung für den Wortlängeneffekt => Corsi-Blöcke zur Messung der seriellen Wiedergabe räumlicher Positionen kein Einfluss auf die räumliche Kurzzeitgedächtnisspanne! Analogon zur artikulatorischen Suppression: regelmäßiges Tippen eines vorgegebenen Musters auf einer Tastatur („tapping“) unterbindet räumliches Rehearsal und beeinträchtigt z.B. die serielle Wiedergabe von Matrix-Serien oder das kurzfristige Erinnern einer Serie von einfachen Körperbewegungen Effekt irrelevanter visuell-räumlicher Stimuli hängt unter anderem davon ab, ob die Gedächtnisaufgabe primär visuelle oder primär raum-zeitliche Information enthält, und ob die irrelevanten Stimuli dazu passende Information darbieten doppelte Dissoziation, die eine Unterscheidung zwischen einem visuellen und einem räumlichen Subsystem innerhalb des visuell-räumlichen Notizblocks nahe legt. Zusammenfassend: der visuell-räumliche Notizblock funktioniert bezüglich der Eigenschaften des passiven Speichers in mancher Hinsicht analog zum phonologischen Subsystem: Ähnliches Material führt zu größerer Interferenz, und irrelevante Wahrnehmungen oder eigene Aktivitäten („tapping“) stören das kurzfristige Behalten. Ein Nachweis für eine analoge aktive Komponente, die räumliches Rehearsal betreibt, steht dagegen bisher noch aus. Die Zentrale Exekutive für die kognitive Arbeit im Arbeitsgedächtnis zuständig: Überwachung von Denkprozessen und Handlungen und gegebenenfalls korrigierendes Eingreifen Routineaufgaben werden von Aktionsschemata erledigt, die wahrgenommene oder in den Sklavensystemen gehaltene Information aufgreifen und als Reaktion darauf einfach Aktionen ausführen, z.B. beim Rehearsal. Zentrale Exekutive muss eingreifen, wenn die Routinetätigkeit der Schemata zu unangemessenen Ergebnissen führt: stoppt automatische Verarbeitung durch Schemata, initialisiert eine alternative Verarbeitung, indem sie die aktiven Schemata unterdrückt und stattdessen andere aktiviert. Beanspruchung der ZE umso größer, je mehr eine kognitive Tätigkeit von der üblichen Verarbeitung abweichen muss. Aufgabe zur Operationalisierung der Zentralen Exekutive: Generieren von Zufallsfolgen („random generation“). Tendenz, in bekannte Schemata (z.B. Abruf des Alphabets) zu verfallen; ZE muss diese Routine unterbinden, um für eine zufällig aussehende Sequenz zu sorgen; in einem Doppelaufgabenexperiment führt das in der Regel dazu, dass die Sequenzen weniger zufällig werden und die Leistung bei der jeweils anderen Aufgabe geringer wird. Weitere Aufgaben der ZE: Planung von komplexeren kognitiven Tätigkeiten, Koordination der Sklavensysteme untereinander und Zuweisung der begrenzten kognitiven Ressourcen zu den anstehenden Aufgaben. „dysexekutives Syndrom“ (Baddeley, 1996): Defizite in den Funktionen der ZE (z.B. bei Schädigungen des Frontalhirns oder Alzheimer-Demenz) => Menschen bleiben in Routinen verhaftet und sind bei nicht routinisierten Aufgaben stark ablenkbar; sehr große Probleme mit der Koordination von zwei gleichzeitig auszuführenden Aufgaben III 6) Die Fraktionierung des Arbeitsgedächtnisses - Unterscheidung von Subsystemen beruht vor allem auf dem Nachweis doppelter Dissoziationen mit Hilfe der Doppelaufgabentechnik - „Doppelaufgaben-Interferenz“: Leistungseinbuße bei der gleichzeitigen Bearbeitung zweier Aufgaben 6 - - Die Logik der Dissoziation von Subsystemen mit Hilfe von Doppelaufgaben beruht auf der Annahme, dass die Interferenz innerhalb eines Subsystems größer ist als zwischen Subsystemen, was in etlichen Studien gezeigt werden konnte. Mittlerweile noch feinere Differenzierungen des Arbeitsgedächtnisses: Unterscheidung zwischen visuellem und räumlichem Arbeitsgedächtnis; doppelte Dissoziation zwischen dem Arbeitsgedächtnis für Sprache und für musikalische Information (allerdings nur bei Musikern) III 7) Die Kapazität des Arbeitsgedächtnisses - enger Zusammenhang zwischen Leistungen in Arbeitsgedächtnisaufgaben und Ergebnissen in Intelligenztests, beim Verstehen von Texten, beim Lernen neuer Fertigkeiten und vielen anderen Fähigkeiten - Just & Carpenter (1992): Arbeitsgedächtnis hat eine konstante Menge an Aktivierung zur Verfügung, die es auf die kurzfristige Speicherung der Info und die Ausführung der anstehenden Verarbeitungsprozesse aufteilen muss; zuwenig Aktivierung bei einer Repräsentation => sie geht verloren; zuwenig Aktivierung bei einem Verarbeitungsschritt => Verlangsamung und Fehleranfälligkeit - Alternative Annahme, dass Spuren im Arbeitsgedächtnis schnell zerfallen: Spurenzerfall („decay“) sorgt dafür, dass Info verloren geht, während andere Info verarbeitet wird - Weitere Alternative: Repräsentationen, die gleichzeitig im Arbeitsgedächtnis gehalten werden müssen, überschreiben einander, und zwar in dem Maße, in dem sie sich ähnlich sind (=> Effekt phonologischer und visueller Ähnlichkeit) - Engle et al.: Kapazität des Arbeitsgedächtnisses spiegelt unsere Fähigkeit, die Aufmerksamkeit auf die benötigte Info zu richten und sich nicht ablenken zu lassen, wider (Lesespanne z.B. gutes Maß für die AG-Kapazität); Idee durch eine Reihe von Experimenten unterstützt => Kapazität des Arbeitsgedächtnisses hängt wesentlich von unserer Fähigkeit zur exekutiven Kontrolle der Aufmerksamkeit ab (Engle et al.; Baddeley) III 8) Die Grundlagen des Arbeitsgedächtnisses im Gehirn - die Lokalisation von neuronaler Aktivität hängt von vielen Details der jeweils verwendeten Aufgabe ab, die bisher noch kaum verstanden werden. Es lassen sich jedoch zwei Tendenzen erkennen… - Art des Materials: o sprachliches Material => Areale in der linken Hirnhälfte o kurzfristiges Speichern und Verarbeiten von räumlichen Orten => rechte Hemisphäre o künstliche geometrische Formen als Gedächtnismaterial => linke Hemisphäre - Art des Prozesses: o Kurzfristiges Erinnern ohne weitere Verarbeitung => hintere Regionen des Kortex o Zusätzliche Verarbeitung erforderlich (insbesondere solche Aufgaben, die in hohem Maße exekutive Prozesse fordern) => vordere Regionen, insbesondere dorsolateraler präfrontaler Kortex - Es sind eher die frontalen Areale des Kortex, von denen die Kapazität des Arbeitsgedächtnisses abhängt, die mit der Leistung in zahlreichen komplexen Denkaufgaben zusammenhängt. Aufgaben, die repräsentativ für die allgemeine Intelligenz sind, lösten im Vergleich zu ähnlichen Aufgaben mehr neuronale Aktivität im präfrontalen Kortex aus. IV Enkodierung und Abruf von Gedächtnisinhalten IV 1) Enkodierung von neuem Wissen - Erwerb kulturellen Wissens beruht in großem Ausmaß auf expliziter Instruktion aus Lehrbüchern oder im Klassenzimmer; Forschungsfragen zu den Mechanismen, die dem Erwerb neuen Wissens zugrunde liegen, sind daher von enorm praktischer Bedeutung 7 - Gedächtnismodell von Atkinson und Shiffrin: Wahrscheinlichkeit, dass neue Information dauerhaft im LZS abgelegt wird, hängt in direkter Wiese davon ab, wie lange sie im KZS bewahrt wird; Info kann im KZS zum Beispiel durch so genanntes „maintenance rehearsal“ bewahrt werden: die zu lernende sprachliche Info wird laut oder leise („subvokal“) vor sich hin gesprochen IV 2) Die Rolle semantischer Verarbeitung - das bloße Lesen von Wörtern führt nicht zu dauerhaften Erinnerungen. Dies war einer der Gründe dafür, dass das klassische Modell von Atkinson und Shiffrin ersetzt wurde. - Craik und Watkins (1973): Orientierungsaufgabe, die es erlaubt, Kontrolle darüber zu erlangen, wie Vps in einer inzidentellen (also die Tatsache, dass die Vps nicht wissen, dass ihr Gedächtnis auf dem Prüfstand steht) Lernsituation mit dem Material umgehen => Liste von Wörtern durchlesen und nach jeder Liste das jeweils letzte Wort zu berichten, das mit „B“ begann; am Ende der Sitzung: Aufforderung, sich an alle B-Wörter aus allen präsentierten Listen zu erinnern. Wenn die bloße Dauer des Aktivhaltens eines Wortes im KZG entscheidend für die Behaltensleistung ist, dann sollten natürlich am Ende vor allem die B-Wörter erinnert werden, die länger aktivgehalten werden. Das Ergebnis zeigte aber, dass die Behaltensleistung nicht von diesem Faktor abhing. - Versuchsparadigma => Theorie der Verarbeitungstiefe: inzidentelle Lernsituation; je nach instruierter Orientierungsaufgabe sollen die präsentierten Wörter unterschiedlich verarbeitet werden (visuelle Aspekte, phonologische Eigenschaften oder semantische Analyse) => Reproduktionsleistung für diejenigen Wörter am höchsten, die einer semantischen Analyse unterzogen wurden. - Eigentliche Theorie hat nicht überlebt, aber die Forschung dazu zu drei Einsichten geführt: o Die Art der Lernaktivität spielt für die Behaltensleistung eine entscheidende Rolle o Neues experimentelles Paradigma: Kombination aus inzidenteller Lernsituation und Orientierungsaufgabe o Erschließung einer neuen Forschungsrichtung => Was steckt hinter dem „semantischen Verarbeiten“? IV 3) Die Rolle der Lernabsicht - inzidentelle Lernsituation ist Hauptmerkmal des Verarbeitungstiefeparadigmas - Hyde und Jenkins: die Lernintention ist nur in dem Maße wirksam, in dem sie den Lernenden veranlasst, gedächtniswirksamere Verarbeitungsprozesse zu verwenden (z.B. semantische Verarbeitung) IV 4) Lernen durch Aufbau verständnisorientierter Repräsentationen - Craik und Tulving (1975): Beurteilung der Passung eines Wortes in einen vorgegebenen Satz => Erinnerungsleistung besser, wenn Wörter in komplexere Sätze eingepasst werden sollten! nicht allein die semantische Verarbeitung an sich ist entscheidend für die Gedächtnisleistung; vielmehr kommt es darauf an, welche Repräsentation aus dieser Verarbeitung resultiert. Um eine Wort-Satzpassung zu bestimmen, muss die Vp eine kohärente Repräsentation des Satzes aufbauen, die das fragliche Wort mit allen Wörtern im Satz in Beziehung setzt. Das Erstellen derartiger Beziehungen zwischen Wortbedeutungen wird auch als (semantische) Elaboration bezeichnet. Das Endprodukt semantischer, elaborativer Prozesse ist eine Repräsentation, die das individuelle Verständnis des Satzes widerspiegelt. Zahl der verschiedenen Beziehungen, die während der Enkodierung geknüpft werden, ist ausschlaggebend für die Reproduktionsleistung. - semantische Elaboration bringt Info ins LZG, beruht ihrerseits aber auf Zugriff auf semantisches Wissen im LZG - durch Studien bestätigt, in denen mittels bildgebender Verfahren (fMRI, PET) die kortikalen Aktivitäten von Vps registriert werden, während sie eine Liste von Worten lernen: o Aktivierungszentrum im linken, inferioren präfrontalen Kortex 8 - - o je stärker die Aktivierung in dieser Region während der Enkodierungsphase, desto besser ist die spätere Reproduktionsleistung; gleiche kortikale Region, die auch beim Abruf semantischen Wissens aktiv ist o Aktivierung ist in spezifischer Weise mit semantischer Infoselektion assoziiert Zugriff auf semantisches LZG kann aber auch zu interessanten Problemen wie zum Beispiel falscher Erinnerung führen (Roediger & McDermott, 1995, 2000), welche durch die verständnisorientierte Repräsentation zu erklären sind. Die Information, wo ein bestimmtes Konzept herkommt (aus dem Stimulusmaterial oder dem Vorwissen), ist in der Regel für das Verständnis nicht von Bedeutung und findet in die Repräsentation keinen Eingang. Der Aufbau verständnisorientierter Repräsentationen braucht Aufmerksamkeit: o Mittels Doppelaufgabentechnik lässt sich ermitteln, inwiefern ein bestimmter Prozess, in diesem Fall also die Gedächtnisenkodierung, von einer begrenzten Aufmerksamkeitsressource abhängt. Gewählte Doppelaufgabe sollte dabei so wenig Ähnlichkeit wie möglich mit der Primäraufgabe haben o Aufmerksamkeitsressource besteht in der Fähigkeit, momentan aufgabenrelevante Repräsentationen in den Folkus der Aufmerksamkeit zu bringen oder dort zu halten. o Craik et al (1996): auditiv dargebotene Listen von Wörtern lernen, gleichzeitige visuelle Reaktionszeitaufgaben => Lernleistung nimmt dramatisch ab Überführen von Info ins LZG hängt in entscheidender Weise von Aufmerksamkeit ab. auch der links-inferiore, präfrontale Aktivierungsschwerpunkt, also der neuronale Indikator semantischer Elaboration, verschwindet bzw. wird reduziert. Aufmerksamkeit einerseits wichtig, um die jeweils relevanten Aspekte aus dem LZG auszuwählen. Andererseits müssen auch die Bedeutungen jeweils verschiedener, potentiell zu verknüpfender Konzept im Arbeitsgedächtnis aktiv gehalten werden. Arbeitsgedächtnisprozesse sind neurologisch mit präfrontalen Regionen assoziiert und werden theoretisch häufig mit der kontrollierten Steuerung der Aufmerksamkeit gleichgesetzt. IV 5) Organisation verteilter Repräsentationen zu Gedächtnisspuren - Schädigung des Hippokampus bei amnestischen Patienten: o Führen kohärenter Unterhaltungen und Lesen eines Textes auf Verständnis möglich => aufmerksamkeitsgesteuerte elaborative Prozesse intakt! o Allerdings können sich die Patienten einige Minuten später an nichts erinnern => elaborative Prozesse, die vor allem die präfrontalen Hirnregionen beanspruchen, sind also eine notwendige, aber keine hinreichende Voraussetzung für das Ablegen von Gedächtnisspuren! - Jede Situation, die wir erleben, wird in einem Netzwerk von über den Kortex verteilten Regionen kodiert => disparates Konglomerat aus verteilten Repräsentationsbrücken - Hippokampus ist ideal positioniert, um als zentrale Verknüpfungsinstanz für die einzelnen Repräsentationen zu fungieren: hippokampale Regionen können die Verknüpfung von Information aus verschiedenen Quellen kodieren. Möglicherweise stellen Konfigurationen, die im Hippokampus kodiert sind, so genannte relationale Repräsentationen dar, welche grundlegend sind für flexibel anwendbare episodische Erinnerungen. - Eine Frage aktiviert bestimmte Bruchstücke der ursprünglichen Gesamtrepräsentation. Die Erinnerungsbruchstücke (die ohne Beteiligung des Hippokampus in entsprechenden kortikalen Regionen verteilt sind) führen dann über Verbindungen vom Kortex zum Hippokampus zu einer Aktivierung der integrierten Repräsentation im Hippokampus. Diese fungiert wiederum als Schlüssel zur Reaktivierung des gesamten kortikalen Netzwerkes, das bei der Kodierung des ursprünglichen Ereignisses beteiligt war. Die kortikale Reaktivierung gibt unseren Erinnerungen die Qualität des Wiedererlebens eines Ereignisses. 9 => Hippokampus bewahrt also eine stark komprimierte und evtl. relational verankerte Repräsentation, die es jedoch erlaubt, über Verbindungen zurück in den Kortex die Gesamtrepräsentation wiederzubeleben. - Die meisten Forscher gehen davon aus, dass Gedächtnisspuren im Hippokampus eine zeitabhängige Konsolidierung erfahren (die je nach Standpunkt Minuten oder Jahre dauern kann). Während dieser Konsolidierungsphase ist die Qualität einer Gedächtnisspur vom internen psychischen Milieu abhängig: emotionale Aktivierung nach der Enkodierung führt, vermittelt über Stresshormone in der Amygdala, zu einer verbesserten Konsolidierung. => Hippokampus dient nicht nur der Integration verteilter Gedächtnisspuren; er fungiert auch als eine Art Modulationsinstanz, in der zum Beispiel Gedächtnisspuren, die im Zusammenhang mit emotional relevanten Ereignissen stehen, verstärkt werden. IV 6) Enkodierung ohne Beteiligung des Hippokampus: Implizites Lernen - bisher: Bereich des Gedächtnisses, der als deklaratives oder explizites Gedächtnis bezeichnet wird - Barbara: amnestisches Syndrom, das auf eine Schädigung des hippokampalen Komplexes zurückzuführen ist; sie soll ein komplexes Datenbanksystem erlernen; Lernprogramm, das es Barbara ermöglicht, die Regeln des neuen Datenbanksystems zu erwerben (Glisky & Schacter, 1989): zuerst jeder Arbeitsschritt vorgegeben, im Lauf der Zeit werden die Vorgaben Schritt für Schritt entzogen; nach 6 Monaten beherrschte Barbara alle zum Teil komplexen Arbeitsschritte - Hippokampus insbesondere dann beteiligt, wenn Info aus verschiedenen Quellen integriert und möglicherweise in relationale Repräsentationen eingebaut wird. Die resultierende Repräsentation soll unter anderem den flexiblen Gebrauch unserer bewussten, expliziten Erinnerungen ermöglichen. evtl. wäre ohne Hippokampus eine Form von Lernen möglich, die sehr viel weniger auf integrierten und flexibel nutzbaren Repräsentationen aus verschiedenen kortikalen Bereichen beruht. - serielle Reaktionszeitaufgabe (z.B. Nissen & Bullemer, 1987): auf einen Stimulus so schnell wie möglich mit der entsprechenden Taste zu reagieren; Abfolge der Stimuli nicht zufällig, sondern folgt einer regelmäßigen Sequenz; schließlich wird ein Transferblock eingesetzt, innerhalb dessen eine völlig neue, aber wieder 12 Elemente lange Sequenz wiederholt wird. klare Verlangsamung der Reaktionszeiten im Transferblock; Vps haben irgendwas über die reguläre Sequenz gelernt, das jetzt nicht mehr anwendbar ist; dies geschieht auch bei keinerlei bewusster Erinnerung an die Regelmäßigkeit => impliziter Lerneffekt! - implizites Lernen: Form des Lernens, das nicht zu einer bewusstseinsfähigen Repräsentation führt, dennoch aber die Handlungsauswahl beeinflusst. Art der Repräsentation: einfache assoziative Verknüpfungen zwischen Elementkonstellationen genügen. - Nachteil impliziten Lernens: mangelnde Flexibilität; im Gegensatz zum expliziten Lernen ermöglichen es rein assoziative Repräsentationen nicht, dass Vps einen impliziten Lerntransfer zu einer rückwärts präsentierten Sequenz zeigen. - Kein einheitliches implizites Lernsystem; Lernen scheint an die jeweils an einer Aufgabe beteiligten Stimulus- oder Reaktionsaspekte gebunden zu sein. - Mayr (1996): Vps sind in der Lage, zwei voneinander unabhängige Sequenzen gleichzeitig zu lernen; kritisch dabei: die beiden Sequenzen waren an unterschiedliche Stimulusdimensionen gekoppelt (Ort und Identität); Vps erlangen explizites Wissen höchstens über eine der beiden Sequenzen. - Aufbau expliziter Erinnerungen basiert also auf einer einheitlichen, kohärenten Repräsentation, während verschiedene implizite Repräsentationen gleichzeitig existieren können, ohne sich wechselseitig zu stören => implizite Gedächtnisspuren müssen, anders al explizite Erinnerungen, nicht an einer gemeinsamen Instanz zusammenkommen, sondern sind über verschiedene kortikale Regionen hinweg verteilt. - Amnestische Patienten zeigen für die meisten Gedächtnisleistungen, die das prozedurale/implizite Gedächtnis betreffen, relativ normales Lernen; in der Regel betrifft dies Lerninhalte, für die 10 - entweder eine explizite,verbal beschreibbare Repräsentation nicht notwendig, oft auch gar nicht möglich ist; Gedächtniskodierung erfolgt durch Ausführung der zu lernenden Handlung. Gemeinsamkeit verschiedener impliziter Lernvorgänge: sie sind gradueller Natur. Lernen geschieht relativ langsam durch die vielmalige Wiederholung einer Handlung Möglicherweise impliziert dies eine graduelle Veränderung von Assoziationsstärken in kortikalen Netzwerken. Im Gegensatz dazu wird hippokampalen Neuronen mit ihren besonderen Kodiereigenschaften die Fähigkeit zu sehr schnellem „Lernen“ zugeschrieben. IV 7) Enkodierspezifität und „Transfer Appropriate Processing“ - Morris, Bransford & Franks (1977): Logik des Verarbeitungstiefeparadigmas; inzidentelle Lernsituation; Vps lesen Wörter und erhalten dazu entweder eine phonemische (z.B. Reime) oder eine semantische Orientierungsaufgabe (z.B. Klassifizierung); Erinnerungsleistung auf zwei verschiedene Weisen getestet: üblicher Wiedererkennenstest (führt zum üblichen Verarbeitungstiefeneffekt: 85 % semantisch, 63% phonemisch) und Identifikation von Wörtern in der Testphase, die sich auf Wörter der Enkodierphase reimen (33% semantisch, 49% phonemisch) dominierender Effekt ist hier die Interaktion zwischen Enkodier- und Testbedingung. Wenn semantische Verarbeitung einfach generell zu besseren Erinnerungen führte, dann dürfte es diesen Effekt nicht geben. Stattdessen scheint die Passung zwischen den kognitiven Prozessen in der Enkodierphase und der Zugriffsphase der entscheidende Faktor zu sein. - Begriff des Zugriffssignals („retrieval cue“): eine Repräsentation im Fokus der Aufmerksamkeit, die als eine Art Anfrage an das LZG verstanden werden kann. - Kritisch für die Erinnerungsleistung ist die Ähnlichkeit der bei der Enkodierung und beim Zugriff beteiligten Repräsentationen! - Tulving (1976): Prinzip, das dem Effekt der Passung zugrunde liegt = Enkodierspezifität („encoding specificity“); oft wird sie auch unter dem Begriff „transfer appropriate learning“ (Morris et al., 1977) subsumiert. - Versuchsdesigns, die diese Passung manipulieren = „encoding-retrieval paradigms“ - Passung bezieht sich nicht nur auf die Repräsentation des zu lernenden Materials, sondern auf den gesamten Kontext (sowohl externe Umgebung als auch interne Zustände) => „state dependent learning“ - Godden & Baddeley (1975): Tiefseetaucher als Probanden; 1. uV: Lernen von Wörtern entweder am Ufer oder unter Wasser; 2. uV: Abfrageort entweder am Ufer oder unter Wasser => Effekt der Passung; der reine Effekt der Kontextpassung machte 33% der Gedächtnisleistung aus Kontextuelle Aspekte werden demnach sowohl bei der Enkodierung als auch beim Zugriff in die jeweils aufgebauten Repräsentationen automatisch eingebaut. - Experiment zum Lernen mit Marihuanarauchen: am schlechtesten ist die Erinnerungsleistung, wenn man nur während einer der kritischen Phasen die Droge benutzt (Eich et al., 1975). Der Passungseffekt war relativ groß, wenn Vps gelernte Wörter frei reproduzieren sollten; er verschwand jedoch fast völlig, wenn sie während der Testphase für jedes Wort einen Hinweisreiz erhielten => Der Kontext geht vor allem dann in die Zugriffsrepräsentation ein, wenn diese relativ selbstbestimmt, also ohne klare externe Vorgabe aufgebaut werden muss. - Ähnliches Befundmuster für die Effekte von Stimmungen auf die Gedächtnisleistung. IV 8) Enkodierspezifität und Inhaltsadressierbarkeit - Computerananlogie: Jeder physikalische Ort auf dem Speichermedium hat eine eindeutige Adresse. Diese Adresse ist völlig unabhängig von der Information, die an einem bestimmten Ort abgespeichert ist. Betriebssystem des Computers braucht eine komplexe Buchführung. Geht bei dieser etwas schief, ist die Info so gut wie verloren (Computerabsturz) - Biologische Gedächtnissysteme verwenden keine willkürlichen Adressen, die mit der Info, auf die sie verweisen, in keiner inhaltlichen Beziehung stehen. Stattdessen ist unser Gedächtnis inhaltsadressierbar. Dies bedeutet, dass der Inhalt einer abgespeicherten Gedächtnisspur selbst die „Adresse“ ist. 11 - - - - - Auch Bruchstücke der gesuchten Gesamtspur können als Adresse dienen. Je ähnlicher die Adresse, also das Zugriffssignal, zur gesuchten Gesamtspur, desto größer die Wahrscheinlichkeit, dass die gesamte Gedächtnisspur aktiviert wird. Im Prinzip ist dies nichts weiter als das Prinzip der Enkodierspezifität in anderen Worten. Es gibt Computersimulationen, die das Prinzip der Inhaltsadressierbarkeit sehr erfolgreich anwenden und die viele Standardbefunde der Gedächtnisforschung reproduzieren können. Repräsentation einer Erinnerung: viele Komponenten, die über den Kortex verteilt sind. Eine einzelne Komponente allein ist als Adresse nicht sehr hilfreich, da sie mit zu vielen anderen Gedächtnisspuren, die nichts miteinander zu tun haben, assoziiert ist. Je mehr Komponenten der ursprünglichen Erinnerung aber wieder als Zugriffshinweise gegeben werden, desto stärker und spezifischer aktivieren sie die noch fehlenden und ergänzen dadurch das gesamte Muster der ursprünglichen Repräsentation. Testphase in einem typischen Experiment zur Verarbeitungstiefe: Vps sollen so viele Wörter wie möglich reproduzieren oder wieder erkennen. Da wir üblicherweise Sprache verwenden, um Bedeutung zu vermitteln, kann man davon ausgehen, dass Vps in derartigen Situationen über gelernte Bedeutungen nachdenken und damit potentiellen Zugriffshinweise konstruieren, die vor allem semantische Aspekte enthalten => semantische Elaboration als eine gute Passung zu den üblicherweise kreierten, semantischen Zugriffshinweisen Die Anzahl der bei der Elaboration kreierten semantischen Verknüpfungen spielt deshalb eine Rolle, weil ein weit gespanntes Netz von Verknüpfungen die Wahrscheinlichkeit erhöht, während der Testphase ein Zugriffssignal zu generieren, das sich in diesem Netz verfängt. => Jede neue Elaboration bedeutet einen neuen Zugangsweg zum Zielwort. Neben der Passung zwischen Lern- und Zugriffsphase gibt es noch einen anderen wichtigen Faktor, der die Erinnerungsleistung determiniert: die Distinktheit von Gedächtnisspuren IV 9) Ursachen des Vergessens - Forschung steht dem Begriff des Vergessens stets kritisch gegenüber, insbesondere wenn damit der rein zeitabhängige Zerfall von Gedächtnisspuren gemeint ist. - Der Effekt des Laufs der Zeit „an sich“ auf das Gedächtnis lässt sich nicht bestimmen, da der Lauf der Zeit immer auch mit anderen Ereignissen einhergeht, die ebenfalls das Gedächtnis beeinflussen können. - Vergessen durch zeitabhängige Veränderung der Enkodierspezifität: o Im Lauf der Zeit ändert sich der interne ebenso wie der externe Kontext, in dem wir leben, also auch die Zugriffshinweise zu Gedächtnisspuren . o Das Vergessen einer Info kann darauf zurückzuführen sein, dass der Zugriffshinweis nicht mehr hinreichend ähnlich zur ursprünglich abgelegten Gedächtnisspur ist. Diese Erklärung setzt keinerlei Zerfall von Gedächtnisspuren voraus, die Spuren werden im Lauf der Zeit nur weniger gut auffindbar. - Vergessen durch Interferenz: o Die Menge der Spuren ist unzählbar, aber kritischer noch ist, dass einige Spuren der gesuchten Spur sehr ähnlich sein können. o Zu vielen Wissensbeständen, die wir dem semantischen Gedächtnis zurechnen, gibt es wahrscheinlich viele, weitgehend redundante Spuren, die einen besonders schnellen und zuverlässigen Zugriff auf die gewünschte Info ermöglichen (Hintzman, 1986). Allerdings sind multiple, ähnliche Spuren nur dann von Vorteil, wenn wir nicht auf eine ganz bestimmte Spur zugreifen müssen, sondern jede der vielen Spuren die gesuchte Info enthält. o Quellenkonfusion („source confusion“): Man erinnert sich an Einzelheiten eines späteren Ereignisses, ordnet sie aber fälschlicherweise dem vorangegangenen zu. Die gesuchte Gedächtnisspur ist nicht unbedingt aus dem Gedächtnis verschwunden. Der Eindruck des „Vergessens“ entsteht, weil die Spur auf Grund von Konkurrenz durch ähnliche Spuren schwieriger aufzufinden ist. 12 o Interferenz: Effekte der Konkurrenz zwischen ähnlichen Gedächtnisspuren o Entstehen von Interferenz in Bezug auf ein Gedächtnissystem beschrieben, in dem Spuren unabhängig voneinander bewahrt werden. Dieser so genannten Exemplartheorie des Gedächtnisses (Hintzman, 1986) steht die Auffassung gegenüber, nach der sich verschiedene, ähnliche Einträge miteinander vermischen und danach selbst mit dem besten Zugriffssignal nicht mehr auseinandergehalten werden können (McClelland et al., 1995). Beide Modelle machen ähnliche empirische Voraussagen. IV 10) Interferenz - Retroaktive und proaktive Interferenz o Retroaktive Interferenz: man soll sich an ein früheres Ereignis gegen die Konkurrenz durch nachfolgende Ereignisse erinnern. Spätere Gedächtnisspuren erschweren hierbei sozusagen rückwirkend das Auffinden einer früheren Spur. Retroaktive Interferenz kann „zeitabhängiges Vergessen“ erzeugen, da mit der Zeit die Wahrscheinlichkeit zunimmt, dass neue Spuren abgelegt werden. o Proaktive Interferenz: Versuch, sich an Ereignisse zu erinnern, die nach ähnlichen Ereignissen eingetroffen sind, wobei die früheren Erinnerungen nachfolgende Erinnerungen stören. Erschwerung des Zugriffs durch und Gefahr einer Quellenkonfusion mit Erinnerungen an die früheren Ereignisse. o Kein zeitabhängiges Vergessen als Erklärung möglich, da die kritischen Ereignisse bereits vor dem Abspeichern der relevanten Erinnerungen passiert ist. Allerdings spielt proaktive Interferenz eine sowohl theoretisch als auch praktisch wichtige Rolle in Aufgaben, die der Erfassung der Kapazität des Kurzzeit- oder Arbeitsgedächtnisses dienen sollen. o Bei solchen Aufgaben wird die mögliche Rolle der proaktiven Interferenz ignoriert, indem man eine Unabhängigkeit zwischen einzelnen Lern-Testdurchgängen annimmt. Es könnte sein, dass Fehler im Zugriff auf das Material des jeweils aktuellen Lerndurchgangs nicht so sehr eine Begrenzung im KZS widerspiegeln, sondern eine Konfusion zwischen dem aktuellen und einem (kontextuell sehr ähnlichen) vorangegangenen Lerndurchgang. o Arbeitsgedächtnisaufgaben spiegeln auch die Fähigkeit wider, proaktive Interferenz aus früheren Testdurchgängen abzuwehren. Kane und Engle (2000) fanden, dass es einen Zusammenhang gibt zwischen der gemessenen Arbeitsgedächtniskapazität und der Anfälligkeit für proaktive Interferenz beim Lernen von Wortlisten. o Prototypische experimentelle Designs zur Erfassung retroaktiver und proaktiver Interferenz: Lernen von Assoziationen zwischen zwei Wörtern; Testphase: Vorgabe des ersten Wortes eines Paares, das zweite soll reproduziert werden („cued recall“); CueWörter bleiben in den Experimentalbedingungen konstant. Retroaktive Interferenz: es wird nach dem assoziierten Wort aus Liste 1 gefragt Proaktive Interferenz: es wird nach dem assoziierten Wort aus Liste 2 gefragt generelle Leistungseinbuße in den experimentellen im Vergleich zu entsprechenden Kontrollbedingungen und Intrusionen aus der jeweils falschen Liste - Interferenz und Generalisierung: o Interferenz ist eine unumgängliche Begleiterscheinung eines Gedächtnissystems, in dem der Zugriff nach dem Prinzip der Ähnlichkeit geschieht, also inhaltsadressierbar ist. Dieses Prinzip ist es auch, das es uns ermöglicht, gelerntes Wissen auf neue Situationen zu generalisieren (Hintzman, 1986; McClelland et al., 1995) o Die Intrusion eines früheren Ereignisses ermöglicht uns hierbei die erfolgreiche Generalisierung von vorhandenem Wissen auf eine neue Situation. o Im Repertoire unseres Gedächtnisses gibt es zwei generelle Strategien, die Interferenz entgegenwirken können: das Erzeugen von distinkten Gedächtnisspuren während der Enkodierung und die Inhibition (Unterdrückung) von ungewollten Gedächtnisspuren beim Zugriff. - Interferenz und die Enkodierung distinkter Gedächtnisspuren: 13 o Wenn man jede Episode oder Situation mit zusätzlicher, möglichst einzigartiger Info anreichert, dann erhöht sich die Distinktheit der Gedächtnisspuren, und gleichzeitig reduziert sich die Interferenzgefahr => es lohnt sich, das Besondere hervorzuheben, oder es sogar aktiv dazuzudichten. o Sätze mit bizarrem Inhalt werden besonders gut erinnert. Bizarres hilft allerdings nur, wenn Sätze mit bizarrem und gewöhnlichem Inhalt gemischt sind, da das Bizarre sonst nicht mehr distinkt, sondern zur Norm geworden ist (McDaniel & Einstein, 1986). Enkodierspezifität und Distinktheit sind die zwei wichtigsten Prinzipien, die die Erinnerungsleistung beeinflussen. Sie sind zumindest potentiell unabhängig voneinander: Enkodierspezifität: Ähnlichkeit zwischen Enkodierspur und Zugriffsspur Distinktheit: Ähnlichkeit zwischen gesuchter Spur und konkurrierenden Spuren - Interferenz und Inhibition während des Gedächtniszugriffs o Trotz der Konkurrenz zwischen und dem „Vordrängen“ stärkerer Spuren sind wir oft, zumindest nach einiger Mühe, in der Lage, gegen des Einfluss der starken Gedächtnisspuren auf schwache Spuren zuzugreifen. o Dies kann nicht ohne einen speziellen inhibitorischen Mechanismus geschehen, der die Repräsentation konkurrierender, starker Spuren unterdrückt und so den schwachen Spuren Gelegenheit gibt, hinreichend Stärke zu gewinnen (Anderson, Bjork & Bjork, 1994) o Generelles empirisches Phänomen, das auf die Existenz inhibitorischer Prozesse im Gedächtnis hindeutet: zugriffsbedingtes Vergessen („retrieval-induced forgetting) => Der Zugriff auf Info, die mit einem bestimmten Zugriffssignal assoziiert ist, erschwert den späteren Zugriff auf andere Info, die mit demselben Signal assoziiert ist (Anderson et al., 1994) o Anderson & Spellman (1995): wiederholtes Reproduzieren einer bestimmten Assoziation (Rot-Blut) führte zu nachfolgendem zugriffsbedingtem Vergessen: Vervollständigung entgegen der gelernten Assoziation bereitete große Schwierigkeiten. Die konkurrierende Information (z.B. Tomate) wird unterdrückt und kann daher durch nachfolgende Zugriffsversuche nicht mehr so leicht aktiviert werden. o Viele Hinweise dafür, dass Inhibition ein fundamentales Konstruktionsprinzip eines kognitiven Systems ist, dessen Funktionieren in kritischer Weise auf der Auflösung von Konflikten zwischen ähnlichen Repräsentationen beruht. IV 11) Das Gefühl der Vertrautheit - Gedächtniszugriff bisher als aktive und bewusste Wiedergabe eines zuvor gelernten Ereignisses - Wenn Stimuli bekannt sind, bedeutet die natürlich, dass wir Gedächtniseinträge besitzen, die mit diesen Stimuli verbunden sind. Jedoch müssen wir auf diese Einträge nicht immer aktiv zugreifen. Es gibt zwei verschiedene Weisen, in denen Gedächtnisspuren zum Vorschein kommen können: durch einen aktiven Zugriffsprozess oder durch ein weniger klar bestimmbares Gefühl der Vertrautheit. - Der Kontrast zwischen Wiedergabe- und Wiedererkennenstest verdeutlicht die beiden verschiedenen, hypothetischen Zugriffsprozesse: o Reproduktionsleistungen beruhen auf Gedächtnisspuren, die den Kontext miteinschließen. Auf diesen Kontext wird zugegriffen, um die assoziierten Wörter zu aktivieren. Ohne Repräsentation des Lernkontextes können wir nicht gezielt die Wörter einer bestimmten Liste wiedergeben. o Wiedererkennenstest: Eine Möglichkeit ist, dass die Präsentation eines gelernten Wortes die bewusste Erinnerung an die Lernepisode auslöst. Eine zweite Möglichkeit ist, dass das präsentierte Wort ein Gefühl der Vertrautheit („familiarity“) auslöst, ohne dass man sich aber daran erinnern kann, das Wort tatsächlich in der Liste gesehen zu haben (Mandler, 1980). o Wiedererkennensleistungen generell höher als Leistungen der freien Wiedergabe => Während Reproduktion ein pures Maß des Gedächtnisses für die Verknüpfung eines 14 Inhalts mit dem Kontext ist, sind Wiedererkennensleistungen eine Mischung aus Zugriff auf kontextgebundene Erinnerungen im episodischen Gedächtnis einerseits und dem Gefühl der Vertrautheit andererseits. - Vorhersage: Reproduktionsleistungen hängen sehr stark von solchen Enkodieraktivitäten ab, mit denen wir Wörter einer Liste an den Lerntontext binden (z.B. Ordnen nach semantischen Kriterien). In dem Maße, in dem aber Wiedererkennensleistungen auf dem Gefühl der Vertrautheit und nicht auf kontextgebundenen Gedächtnisspuren beruhen, sollten derartige Aktivitäten viel weniger bedeutsam sein. Wiedererkennen beruht also zum Teil (und in Einzelfällen vollständig) auf einer Repräsentation, die keine Verbindung zum Kontext enthält. IV 12) Implizite Gedächtniseffekte - Experiment: Wortliste lesen; Ergänzung von Wortfragmenten zu passenden Wörtern => besonders häufig wurden solche Lösungswörter produziert, die in der anfänglichen Wortliste enthalten waren. => unbewusste Gedächtniseinflüsse = Priming - Implizites Gedächtnis: Gedächtniseinflüsse, die in indirekten Tests auftreten (Schacter, 1987). Dies sind Tests, in denen Gedächtniseinflüsse in einer für Vps nicht unbedingt erkennbaren Weise erfasst werden. - Primingeffekte reagieren relativ sensitiv auf Veränderungen des perzeptuellen Formats zwischen Lern- und Testphase. So verschwinden Primingeffekte, wenn die Wörter der Lernliste gehört und nicht gelesen werden, oder sie sind reduziert, wenn die Schrift sich zwischen Lern- und Testphase ändert (gilt auch bei nichtsprachliches Material) relevantes Material muss auf der gleichen perzeptuellen Ebene in gleicher Art und Weise während beider Phasen verarbeitet werden. (explizites Gedächtnis viel weniger von perzeptuellen Faktoren beeinflusst) - verschiedene Aspekte, die ein Gesamtereignis ausmachen, sind über den gesamten Kortex verteilt jeweils dort repräsentiert, wo die primäre Verarbeitung eines bestimmten Aspekts geschieht. - einfaches Lesen führt zu kortikalen Veränderungen, welche den kleinen Zuwachs an Erfahrung mit der perzeptuellen Verarbeitung eines bestimmten Wortes widerspiegeln, der sich durch jede Wiederholung ergibt (gilt auch für nichtsprachliche Info) - diejenigen Regionen des Kortex, die üblicherweise mit der Verarbeitung von perzeptueller Wortinfo befasst sind, sind weniger aktiv, wenn das zu verarbeitende Wort „geprimed“ ist => weniger neuronale Arbeit notwendig Repräsentationen, die impliziten Gedächtniseinflüssen zu Grunde liegen, sind also sehr stark an spezifische Verarbeitungsprozesse gebunden => so viele verschiedene „Gedächtnisse“, wie unterscheidbare Verarbeitungsmodule existieren. - implizite Gedächtniseinflüsse sind durch den Ausfall des Hippokampus meist nicht beeinträchtigt, erfordern demnach keine Integration in eine einheitliche Gesamtspur. IV 13) Implizites Gedächtnis und das Gefühl der Vertrautheit - dasselbe Phänomen? - Implizite Gedächtnisspuren = Anpassung kortikaler Netzwerke an die Verarbeitung eines Stimulus => erhöhte Verarbeitungsflüssigkeit („fluency“; leichter, ein geübtes Wort ein nächstes Mal zu lesen). Diese erhöhte Verarbeitungsflüssigkeit könnte vom Leser registriert werden und diese Wahrnehmung letztlich das Gefühl der Vertrautheit hervorrufen. - Whittlesea, Jacoby & Girard (1990): Vps wurden sieben Wörter in sehr schneller Abfolge gezeigt; dann folgte ein Wiedererkennenstest; zusätzlich wurde die Sichtbarkeit dieses einzelnen Wortes manipuliert; Hypothese: leicht zu lesende Wörter werden als „alt“ identifiziert, sogar wenn das Wort gar nicht aus der Lernliste stammt => wurde bestätigt Durch eine rein stimulusbedingte Erhöhung der Verarbeitungsflüssigkeit kann die Illusion entstehen, dass ein bestimmtes Wort bekannt ist! 15 Funktioniert auch andersrum: Eine gedächtnisbedingte Erhöhung der Verarbeitungsflüssigkeit führte zu einer Illusion der besseren Wahrnehmbarkeit! Zum einen wird die Verarbeitungsflüssigkeit tatsächlich registriert und für die Entscheidung bei Wiedererkennensaufgaben verwendet. Zum Zweiten ist sie ein sehr unspezifisches Signal, das je nach Situation und unabhängig von seiner eigentlichen Herkunft entweder auf einen Lernprozess zurückgeführt wird (=> Gefühl der Vertrautheit) oder aber perzeptuellen Gegebenheiten zugeschrieben wird. Die erhöhte Verarbeitungsflüssigkeit gut geübter Fertigkeiten wird von unserem kognitiven System als Info behandelt => Gefühl der Vertrautheit => allerdings ein sehr unspezifisches Signa, da leicht fehlinterpretiert werden kann. IV 14) Verstehen = Lernen - Ein Zusammenhang, der verstanden wird, ist mit hoher Wahrscheinlichkeit auch ein Zusammenhang, der im LZG enkodiert wird, unabhängig davon, ob die Situation als Lernsituation aufgefasst wird. - Elaborative Prozesse, die zu Verständnis führen, hängen von Aufmerksamkeit ab. - Je mehr an Verstehensarbeit der Lernende aktiv leistet, desto besser ist die Lernleistung: o Mannes & Kintsch (1987): uV: Art einer strukturierenden Zusammenfassung (mit der Struktur des nachfolgenden Textes kongruent vs. Inkongruent) => kongruente Zusammenfassungen produzierten bessere Lerneffekte, wenn Textwissen relativ direkt abgefragt wurde; jedoch konnten Transferaufgaben nach inkongruenten Zusammenfassungen besser gelöst werden (umfassendere Elaboration durch selbstständiges Herstellen einer Kongruenz) o Schmidt & Bjork (1992): objektiv und subjektiv schwierigere Lernsituationen führen zu besserer Behaltensleistung und mehr Transfer. - Techniken zur Verbesserung des Gedächtnisses (Mnemotechniken) o Grundprinzip: an neues Material mit einem zuvor gelernten Enkodierschema herantreten. o Methode der Orte: Enkodierschema = bestimmter Weg durch eine bekannte Räumlichkeit; einerseits werden bedeutungsvolle, teilweise bizarre Beziehungen zwischen Orten und dem Lernmaterial gestiftet, andererseits gibt es eine identische Enkodier- und Abrufstruktur, die einem erlaubt, das Material in einer gewünschten Sequenz zu lernen und auch wiederzufinden. o Eignen sich am besten für den Erwerb von Info, die für sich genommen wenig Struktur hat o Im pädagogischen und alltäglichen Kontext weniger nützlich o Insbesondere beim Erlernen konzeptueller Zusammenhänge sollten mnemonistische Techniken mit ihrer willkürlichen Strukturierung des Materials dem Lernen durch Verstehen eher abträglich sein. - Tests als Lerngelegenheiten: o Lernen mittels Prüfungsfragen führt zu besseren Leistungen in deinem späteren Test o Üben des Zugriffs hat eine stärkere Wirkung als wiederholte Enkodierbestrebungen; das liegt wahrscheinlich daran, dass Nachdenken über das zu lernende Material im Kontext der Fragen zu Verknüpfungen zwischen dem Material und potentiellen Fragestellungen führt. => Prinzip der Enkodierspezifität hier: das Erinnern selbst üben. - Verteilung von Übung o Verteilung von Lerndurchgängen über die Zeit hat eine enorm starke Wirkung auf Lernleistungen: Lange Pausen zwischen Lerndurchgängen führen oft zu doppelt so guten Lernleistungen wie kurze Pausen. o Die Wirksamkeit derartiger Verteilungseffekte („spacing“) hat sich an jeder Art von Material, über alle Altersgruppen hinweg und auch in pädagogischen Kontexten erwiesen. o Wiederholung eines Stimulus kann zu einem Gefühl der Vertrautheit führen, ohne dass man dafür auf die ursprüngliche Lernepisode bewusst zugreifen muss. Die Primingeffekte, 16 o o o o o die diesem Gefühl wahrscheinlich zu Grunde liegen, nehmen als Funktion der Dauer zwischen Lern- und Testdurchgang ab. Mögliche Erklärung für den Effekt des spacing: Wenn man Lernmaterial zum ersten Mal durchgeht, wird es relativ leicht aktiv, etwa durch semantisches Elaborieren, verarbeitet. Bei einem kurz darauffolgenden zweiten Durchgang führen die abgelegten Gedächtnisspuren zu einem deutlichen Gefühl der Vertrautheit, welches einem suggerieren kann, dass eine tiefer gehende Verarbeitung des Materials nicht mehr nötig ist. Es kann zur Illusion von Wissen und Kompetenz führen. Nach längeren Pausen ist das Gefühl der Vertrautheit hingegen geringer und entsprechend höher ist die aktive Beschäftigung mit dem Material. Semantische Elaborationen haben einen hohen Aufmerksamkeitsbedarf. Das Gefühl der Vertrautheit könnte die Grundlage für einen Metagedächtnisprozess sein, also einen Prozess, der den Einsatz von Gedächtnisprozessen unter Berücksichtigung der jeweils vorhandenen Aufmerksamkeitsressourcen moduliert. Vps schließen in sehr sensitiver Weise von ihrer Verarbeitungsflüssigkeit auf die Qualität ihrer Gedächtnisleistung und liegen dabei oft daneben (Benjamin et al., 1998). Unterschied zwischen verteilter und direkt aufeinanderfolgender Übung verringert sich, wenn zwischen den Lerngelegenheiten Oberflächenmerkmale der Stimuli verändert werden. Zudem führt eine Variation von Oberflächenmerkmalen auch zu reduziertem implizitem Lernen => reduziertes Gefühl der Vertrautheit => Erklärung, warum auch direkt aufeinanderfolgende Lerngelegenheiten zu relativ guten Leistungen führen. Eine aufmerksamkeitsintensive, semantische Verarbeitung wird durch dichtes spacing reduziert (Wagner et al., 2000): geringere Aktivierung im linken präfrontalen Kortex (semantische Elaboration) Bei Tests als Lerngelegenheit entsteht eine realistische Einschätzung der Kompetenz, die auf tatsächlichem semantischem Wissen beruht, und nicht auf einem Gefühl der Vertrautheit, das durch die Repräsentation von Oberflächenmerkmalen gespeist wird. V Die Repräsentation von Wissen – Formate und Inhalte Idee von zwei unterschiedlichen Formaten mentaler Repräsentationen: Propositionale Repräsentationen lehnen sich an das Vorbild der Sprache an, analoge Repräsentationen dagegen sind von bildlichen Darstellungen inspiriert. Propositionale R. gelten auch insofern als sprachnah, als man annimmt, dass wir die Bedeutung gesprochener und geschriebener Sprache in diesem Format repräsentieren. Analoge R. gelten als wahrnehmungsnah, weil sie den Repräsentationen unserer Wahrnehmung ähnlich sein sollen. V 1) Propositionale und analoge Repräsentationen - gehören beide zur Klasse der relativen Repräsentationen, unterscheiden sich jedoch darin, welche Relationen sie verwenden und welche Elemente sie damit in Beziehung zueinander setzen. - Propositionale Repräsentationen: hypothetische „language of thought“ (Fodor, 1975); Einheiten: Symbole, die nach einem Regelsystem, einer mentalen Syntax, zu Propositionen kombiniert werden können. - Proposition = Aussage, die einen Wahrheitswert hat; P. können als Strukturen aus einem Prädikat und mehreren Argumenten geschrieben werden; Prädikat: meist durch das Verb ausgedrückt; Argumente: übrige Komponenten des Satzes; Man kann Propositionen auch als Graphen (Strukturen aus Knoten und Kanten) darstellen; P können miteinander verknüpft werden, indem eine Proposition als Argument in eine andere eingeht oder indem zwei Prädikate dasselbe Argument verwenden; Propositionale Repräsentationen als praktische Formate für die Computersimulation von Denk- und Gedächtnisprozessen. - Analoge Repräsentationen: jedes Element der R. entspricht einem Objekt oder Ereignis des repräsentierten Gegenstands; Beziehungen zwischen den Elementen entsprechen den Beziehungen 17 - zw. den Objekten; Element kann hier, anders als ein Symbol in einer propositionalen R. nicht für eine ganze Menge von Objekten und daher auch nicht für eine Klasse oder einen Begriff stehen. Weiterer Unterschied: Relationen können in Propositionen als eigene Elemente ausgedrückt werden (meist als Symbol für das Prädikat), während die in analogen R. durch die Relationen zwischen den Elementen der Repräsentation von selbst enthalten sind => durch Kombination von analogen R. können sich neue Beziehungen ergeben, ohne dass es zu einem expliziten Schlussfolgerungsschritt kommen muss. Propositional (Listenschreibweise): IST-RECHTS-VON(Dreieck, Quadrat) IST-RECHTS-VON(Quadrat, Kreis) Analog: Propositional (als Graph): ist-rechts-von ist-rechts-von Relatum Referent Referent Dreieck Relatum Quadrat Kreis - Debatte in der Kognitionspsychologie: Es gibt analoge Repräsentationen (z.B. Kosslyn, 1984) vs. alle Kognition beruht ausschließlich auf symbolischen Repräsentationen (Pylyshyn, 1981) - Kosslyn, Ball und Reiser (1978): visuelle Vorstellung von Objekten oder Szenen; schematische Karte einer fiktiven Insel auswendig lernen; danach in der Vorstellung die Aufmerksamkeit auf einen Ort richten; dann wurde den Vps ein zweiter Ort genannt, und sie sollten diesen in ihrem Vorstellungsbild suchen und eine Taste drücken, sobald sie ihn vor ihrem inneren Auge sehen konnten => Zeit bis zum Tastendruck entsprach etwa der Entfernung zwischen Ausgangs- und Zielort auf der Landkarte => metrische Info der Landkarte in der mentalen Repräsentation annähernd erhalten geblieben! dieses Ergebnis ist bei einer analogen Repräsentation zu erwarten, wenn die Person in ihrer Vorstellung die Umgebung ebenso absucht, als würde sie ihren tatsächlichen Blick über eine tatsächliche Landkarte bewegen. Bei einer propositionalen Repräsentation würde die Verfügbarkeit des Symbols nicht von der Distanz abhängen. - Experimente zur mentalen Rotation (Shepard & Cooper, 1982) als weiterer Nachweis für metrische Info in mentalen Repräsentationen: Buchstaben zur Hälfte spiegelverkehrt und um einen variablen Winkel heraus rotiert. Die Zeit für die Entscheidung, ob ein Buchstabe spiegelverkehrt ist oder nicht, steigt annähernd linear mit dem Rotationswinkel an. Buchstabe durchläuft – wie ein physisches Objekt – notwendigerweise alle Zwischenstationen seiner vorgestellten Bewegung. - (Visuelle) Vorstellungen haben viele, wenngleich nicht alle Merkmale mit (visuellen) Wahrnehmungen gemeinsam (z.B. die Aktivierung ähnlicher Hirnareale) - „imagery debate“ noch nicht abgeschlossen; Gegensatz von propositionalen und analogen Repräsentationen wird als Unterschied im Format mentaler Repräsentationen verstanden, also als unterschiedliche Merkmale der Repräsentationen selbst. Das Format unserer Repräsentationen ist jedoch eigentlich weder symbolisch noch bildhaft, es ist neuronal. Die Unterschiede liegen vielmehr im repräsentierten Inhalt. Unterschiedlich repräsentierte Gegenstände ermöglichen unterschiedliche Verarbeitungsoperationen. - Bsp: Eine Negation kann auf eine propositionale, nicht aber auf eine analoge Repräsentation angewandt werden. Propositionen können nicht rotiert werden Auch die Operationen, die mit den jeweiligen Repräsentationen möglich sind, spiegeln nicht Eigenschaften der Repräsentationen wider, sondern der repräsentierten Gegenstände. 18 - Kategorien mentaler Repräsentationen mit spezialisierten Verarbeitungsprozessen und Bereiche im Gehirn: visuelle Info wird z.B. über Objekteigenschaften über eine recht weite Strecke im Gehirn separat von der Info über den Ort eines Objekts im Raum verarbeitet (Goodale, 2000). Für die Repräsentation von Gesichtern gibt es eine spezialisierte Region im Kortex, die Information nach besonderen Regeln („holistisch“) verarbeitet. V 2) Grundprinzipien konnektionistischer Modelle - - Konnektionistische Modelle sind Netzwerke aus stark vereinfachten Nervenzellen (sog. „units“) und ihren Verbindungen („connections“). Sie sind in der Regel in Schichten organisiert - Input-Schicht: nimmt Info auf, indem eine Teilmenge ihrer Neuronen aktiviert wird; Weiterleitungen über Verbindungen zu einer ersten Zwischenschicht; i. d. R. von jedem Neuron der Input-Schicht eine Verbindung zu jedem Neuron der ZS - Verbindungen: haben unterschiedliche Stärken, von denen abhängt, wie viel Aktivierung weitergeleitet wird; können auch negativ sein => inhibitorische Wirkung; es kann auch Verbindungen zwischen Neuronen innerhalb einer Schicht sowie rückläufige Verbindungen zu früheren Schichten geben. - Transformation von Aktivitätsmustern von einer Schicht in die nächste ist die Informationsverarbeitung in einem neuronalen Netz - Output-Schicht: Ergebnis der Info-Verarbeitung repräsentiert - Bottom up-Prozesse: vom Input zum Output; top down-Prozesse: von höheren Schichten zurück zum Input; laterale Effekte: innerhalb einer Schicht - Bsp. zum Paarassoziationslernen: o Input-Schicht: zwei Komponenten: erstes Element des zu assoziierenden Paares (deutsches Wort) und Kontext („Englisch lernen“) o Kontext wichtig zur Unterscheidung zwischen versch. Assoziationen, die dieselben Elemente verwenden o Output-Schicht: zweites Element des Paares (englisches Wort) - zwei Formen der Repräsentation in konnektionistischen Netzwerken: lokale und verteilte Repräsentationen - lokale R.: eindeutige Zuordnung zwischen Neuronen und zu repräsentierenden Einheiten (z.B. entspricht ein Neuron einem Wort, Buchstaben oder Gesicht) - verteilte R.: jeder Einheit entspricht ein ganzes Muster von Aktivierungen - Zwischenschichten: sollen vor allem das Lernen der Paarassoziationen erleichtern; ihre Aktivierungsmuster spiegeln allerdings bestimmte Regelhaftigkeiten im Lernmaterial wider => im Laufe des Lernens wird festgelegt, was bestimmte Muster in der ZS repräsentieren => neue Repräsentationen können entstehen, die abstrakte Regularitäten repräsentieren; sie sind jedoch nur als Muster von Aktivierungen in der gesamten Schicht interpretierbar – die einzelnen Neuronen repräsentieren gar nichts. - Aktivierungsmuster in den Neuronen-Schichten repräsentieren nur die aktuell zu verarbeitende Info, das Gelernte steckt in den Verbindungsstärken (auch Gewichte genannt) - Zwei Arten des Lernens: Lernen ohne Rückmeldung („unsupervised learning“) und Lernen mit Rückmeldung („error-driven learning“) - Lernen ohne Rückmeldung = Hebb’sches Lernen (Hebb, 1949): o Zwei Neuronen gleichzeitig aktiv: Erhöhung des Verbindungsgewichts o Nur ein Neuron aktiv, das andere inaktiv: Verringerung des Verbindungsgewichts o Beide Neuronen inaktiv: nichts passiert assoziatives Lernen! Entsprechender Vorgang im Gehirn: long-term potentiation (LTP), bei der die Durchlässigkeit von Synapsen für neuronale Signale modifiziert wird. o Lernen von Aktivierungsmustern: derselbe Input zum zweiten Mal, aber unvollständig => die aktivierten Neuronen aktivieren nun mittels der gelernten Verbindungsgewichte die fehlenden Neuronen – das Muster wird vervollständigt. 19 - - - Lernen mit Rückmeldung => zwei Phasen: o 1. Phase: Input und Generierung eines Outputs auf Grundlage der vorhandenen Verbindungsstärken o 2. Phase: Netz erhält den gewünschten Output als Rückmeldung. An jedem Neuron der Output-Schicht wird nun die Differenz zwischen selbst generiertem und gewünschtem Output (Differenz zwischen der Aktivierung des Neurons in Phase 1 und in Phase 2) berechnet. o Differenz ist ein Fehlersignal, das nun von jedem Empfängerneuron an seine Senderneuronen zurückgemeldet wird. o Fehlerrückmeldung („back propagation“) geschieht über alle Schichten bis hin zur InputSchicht o Wenn das Fehlersignal „zu klein“ lautet, wird das Gewicht erhöht, lautet das Signal „zu groß“, wird das Gewicht verringert. Dies geschieht nach der Delta-Regel (s. S. 63) Erinnerungen auf der Grundlage von Hebb’schem Lernen sind Rekonstruktionen früherer Aktivierungsmuster anhand unvollständiger Inputs. Lernerfahrung erzeugt ein Aktivierungsmuster, das den Gedächtnisinhalt zusammen mit seinem Kontext repräsentiert. o Wiedergabe mit Hinweisreizen („cued recall“): ein Wort als Input; Rekonstruktion der übrigen, mit diesem Wort assoziierten Wörter durch das Netzwerk o Freie Wiedergabe: Input besteht nur aus Kontextmerkmalen o Wiedererkennen: komplettes Wort präsentiert; Rekonstruktion der fehlenden Kontextrepräsentation fehlerbasiertes Lernen eignet sich besonders zum Erlernen von Paarassoziationen und zum Erwerb prozeduralen Wissens V 3) Generalisierung und Konzeptbildung - verteilte Repräsentationen o sind für die Repräsentation viel effizienter als lokale und für den Erwerb von Wissen unverzichtbar o ähnliche Inputs überlappen sich erheblich; sie verwenden zu ihrer Repräsentation zu einem guten Teil dieselben Neuronen o beim Lernen solcher Inputs werden auch weitgehend dieselben Verbindungsgewichte modifiziert das Gelernte kann automatisch auf andere, ähnliche Inputs generalisiert werden, welche schließlich in ein ähnliches Output-Muster überführt werden wie der erste Input. - Modifikationen an Gewichten bei verteilten Repräsentationen: o Wo der neue Input dem alten gleicht, werden diese Modifikationen in dieselbe Richtung gehen, ansonsten in die andere. o Die Lerneffekte kumulieren sich; dabei werden die Effekte übereinstimmender Merkmale der versch. Inputs sich aufaddieren und schließlich robust in den Verbindungsstärken repräsentiert werden. o Verschiedene Merkmale werden in der Summe der Lernerfahrungen herausgemittelt. Netzwerk entwickelt von selbst eine generalisierte Repräsentation, die nicht mehr ein einzelnes Ereignis, sondern ein gemeinsames Konzept aller Ereignisse repräsentiert. Eine Menge episodischer Erinnerungen kann in ein Stück semantisches Gedächtnis übergehen, wobei die Erinnerung an die einzelnen Episoden aber verloren geht; Hippokampus spielt für die Bewältigung dieses Dilemmas eine wichtige Rolle. - Das Hippokampus-Kortex-Modell des Gedächtnisses o Generalisierung von gelernten Zusammenhängen (also von angepassten Verbindungsgewichten) nur mit verteilten Repräsentationen möglich; neues Lernen modifiziert hierbei das alte. 20 o Katastrophale Interferenz (Lewandowsky & Li, 1995): In konnektionistischen Netzen ist der Verlust der Erinnerung an einzelne frühere Episoden durch das Lernen neuer, ähnlicher Episoden ungleich stärker als bei Menschen. o Erinnerung an einzelne Episoden wäre viel besser zu realisieren mit lokalen Repräsentationen, aber dann kann nichts von der Lernerfahrung durch einen Input auf einen anderen übertragen werden. o Arbeitsteilung zwischen Hippokampus und Kortex o Kortex: repräsentiert Ereignisse durch hochgradig überlappende verteilte Repräsentationen. o Hippokampus: separiert dieselben Ereignisse viel stärker; auch keine vollständig lokale Repräsentation, aber die einzelnen R. überlappen einander sehr viel weniger aufgrund sparsamer verteilter Repräsentationen => nur ein kleiner Teil der Neuronen in jeder Schicht des Netzwerkes wird aktiviert (z.B. 5 von 100), wodurch die durchschnittliche Überlappung von zwei Aktivierungsmustern deutlich geringer ist. VI Episodisches Gedächtnis - - - - Tulving (1972): o Episodisches Gedächtnis: Erinnerung an selbst erlebte Ereignisse; autonoetisches Bewusstsein: spezielle Beziehung zur erinnernden Person; Bewusstsein, selbst das Subjekt des Erlebens gewesen zu sein; das autonoetische Bewusstsein gibt Erinnerungen ein Gefühl der Authentizität und Gewissheit, die mit semantischem Wissen in der Regel nicht verbunden ist und das täuschen kann. o Semantisches Gedächtnis: Wissen über die Welt unabhängig vom eigenen Erleben; Wissen darüber, dass ein Ereignis stattgefunden hat (selbst wenn dieses Ereignis mit einem selbst zu tun hat) Wheeler et al. (1997): Verbindung zwischen autonoetischem Bewusstsein und der Aktivität des frontalen Kortex: o Linksseitiges Frontalhirn beim Erwerb episodischer Erinnerungen (dem Enkodieren) aktiv (als Zugriff auf die Enkodierung kritischer semantischer Info interpretiert) o Rechte Seite des Frontalhirns beim Versuch, episodische Erinnerungen abzurufen, stärker aktiviert; die Aktivierung spiegelt nicht den Vorgang des Erinnerns, sondern das Bemühen um die Erinnerung wider (Tulving: „retrieval mode“) in der traditionellen Gedächtnispsychologie ist ein Großteil der Forschung dem episodischen Gedächtnis zuzurechnen => Erinnerung daran, dass die Vp ein bestimmtes Element in einer bestimmten Liste zu einer best. Zeit an einem best. Ort gehört oder gelesen hat. Diese Form von episodischer Erinnerung ist allerdings nicht typisch für unsere Erinnerungen an Ereignisse aus dem eigenen Leben => autobiographisches Gedächtnis als Beispiel für episodisches Gedächtnis VI 1) Autobiographisches Gedächtnis - unklare Abgrenzung des Begriffs, da das „Selbst“ im autobiographischen Gedächtnis sowohl als Subjekt als auch als Gegenstand der Erinnerung vorkommen kann. - Definition: Erinnerungen an Ereignisse, die eine Person erlebt hat (gleichbedeutend mit episodischem Gedächtnis) oder als Erinnerung an Ereignisse, die die Person betreffen (auch Inhalte des semantischen Wissens von Bedeutung) - Differenzierung in Anlehnung an Brewer (1986): o Spezifische Episoden vs. generelle Klassen von Ereignissen im eigenen Leben o Lebhafte, vorstellbare Erinnerungen vs. abstraktes Wissen - Binnendifferenzierung des autobiographischen Gedächtnisses nach Brewer (1986) 21 In der Vorstellung wiedererlebbar Wissen ohne sensorische Anteile Einzelnes Ereignis „personal memory“ Generelles Ereignis „generic personal memory“ „autobiografical fact“ „self-schema“ VI 2) Vergessenskurven für autobiographisches Gedächtnis - generelle Vergessenskurven, nach denen die Genauigkeit der Erinnerungen zunächst steil, dann immer flacher abfällt - Vergessenskurven für das autobiographische Gedächtnis: ähnlicher Verlauf, allerdings sehr viel flacher; sie erstrecken sich über Jahre und Jahrzehnte => über diese Zeiträume werden nur wenige Experiment durchgeführt - Zwei alternative Methoden: Retrospektive Befragungen und Tagebuchstudien - Retrospektive Methode (Francis Galton, 1879): o „Urexperiment“ : Verbindung eines Stadtspaziergang mit persönlichen Erinnerungen o heute: Darbietung von Wörtern als Hinweisreize, die geeignet sind, viele Assoziationen auszulösen o Häufigkeit von Erinnerungen nimmt zwar mit größerer Distanz zur Gegenwart ab, wies aber für die Zeit, in der die Vps 20-30 Jahre alt waren, eine Häufung auf. Erinnerungen aus den ersten drei Jahren nach der Geburt werden ausgesprochen selten und aus den ersten zwei Jahren nie genannt. o Rubin, Wetzler und Nebes (1986): Modell mit drei Komponenten: normaler Verlauf des Vergessens (Laborstudien), häufige Reminiszenzen an die „besten Jahre“ und die infantile Amnesie o Nachteil: man kann in der Regel nicht prüfen, ob die genannten Erinnerungen tatsächlich richtig sind => Tagebuchstudien - Tagebuchstudien: o Selbstexperiment von Wagenaar (1986) über 6 Jahre hinweg: charakteristische allmählich abflachende Vergessenskurve über die Jahre. Allerdings waren die einzelnen Hinweisreize unterschiedlich effizient: Info, was passierte, half am besten, die übrigen Infos zu einer Episode ins Gedächtnis zu rufen Datum war als „cue“ praktisch nutzlos Außergewöhnliche Ereignisse wurden besser erinnert Erlebnisse mit stärkerer emotionaler Beteiligung führten zu besseren Erinnerungen Angenehme Ereignisse konnten besser erinnert werden als neutrale Unangenehmer Ereignisse wurden schlechter erinnert, wenn sie ein oder zwei Jahre zurücklagen; unangenehme Ereignisse, die länger als zwei Jahre zurücklagen, konnte Wagenaar jedoch wieder besser wiedergeben als neutrale Ereignisse. VI 3) Die Struktur des autobiographischen Gedächtnisses - komplexe Struktur autobiographischer Erinnerungen: Die Ereignisse innerhalb autobiographischer Erinnerungen haben Ursachen und Folgen, sie sind Teil umfassender Ereignisse und lassen sich ihrerseits in Teilereignisse untergliedern - einige Autoren vertreten die Ansicht, dass das autobiographische Gedächtnis grundsätzlich narrativ (d.h. als Geschichte) organisiert ist - Lebenserinnerungen erlauben oft, zwischen allgemeinen, zusammenfassenden, und sehr spezifischen, detaillierten „Beschreibungen“ zu wechseln => Das autobiographische Gedächtnis ähnelt eher einem Hypertext als einer klassischen linearen Erzählung. - Autobiographische Erinnerungen sind in Wissensstrukturen eingebettet, die wahlweise Schemata, Skripts, Themen, Pläne oder MOPs („memory organization packages“) genannt werden; diese 22 - - - - Schemata enthalten allgemeines Wissen über Kategorien von Handlungen und Ereignissen ebenso wie Info über spezifische Fälle Schank und Abelson (1977): Restaurant-Skript o Jede der Handlungen lässt sich in Teilhandlungen aufgliedern o Das Skript enthält Variationsmöglichkeiten o Und zudem zahlreiche Variablen o Außerdem natürlich Zeit und Ort des Geschehens. ein spezifisches Ereignis wird nun als eine Instantiierung des allgemeinen Skripts oder Schemas im Gedächtnis abgelegt, d.h. dass die Variablen mit bestimmten Werten belegt werden, die dieses Ereignis von ähnlichen unterscheidet. Episodisches und semantisches Gedächtnis eng verknüpft: allgemeine Struktur, die die Kategorie des Ereignisses repräsentiert, sowie spezifische Details, die das Einzigartige der Episode definieren. Schemata = Wissensstrukturen, die Ereignisse, Handlungen und die darin involvierten Objekte und Orte durch typische Beziehungen miteinander verbinden. Zwei generelle Arten von Beziehungen: o partonomische Beziehungen (Tversky, 1989): Zeitliche, kausale und funktionale (d.h. Mittel-Zweck-) Beziehungen => Hierarchie der Einbettung von Teilen in das übergreifende Ganze o Taxonomische Beziehungen: Beziehungen zwischen spezifischen und allgemeinen Schemata => Hierarchie zunehmend abstrakter Repräsentationen VI 4) Erinnerung als Rekonstruktion - Schemata dienen nicht nur dazu, Erinnerungen zu strukturieren und einander zuzuordnen, sie gestalten die Erinnerungen auch, indem sie vergangene Ereignisse rekonstruieren und Gedächtnislücken überbrücken. - Eine Erinnerung kann auf eine Gedächtnisspur des entsprechenden Ereignisses zurückgehen oder auf eine automatischen und unbewusste Ergänzung durch das Schema (kann eine systematische Verzerrung bedeuten). - Bower, Black und Turner (1979): Lesen von 18 Geschichten, die Routine-Ereignisse schildern; anschließend Sätze, die einzelne Tätigkeiten beschreiben, als „alt“ oder „neu“ bewerten (entscheiden, ob sie in den Geschichten vorkamen) Sätze, die Skript-konforme Handlungen beschrieben, wurden zu einem hohen Anteil als „gelesen“ wiedererkannt, auch wenn sie gar nicht in den Geschichten standen Bei freier Wiedergabe: Handlungen werden in der typischen Reihenfolge eines Skripts aufgezählt, auch wenn sie anders dargeboten wurden. - Effekte genereller Schemata auf die Rekonstruktion episodischer Erinnerungen gibt es auch beim Gedächtnis für Beschreibungen räumlicher Anordnungen. erneut: Dilemma zwischen generellem Wissen und Erinnerung an spezifische Episoden Gefahr, dass die Erinnerungen an einzelne Erlebnisse mit dem Schema verschmelzen oder an das Schema angepasst werden. VI 5) Manipulation der Erinnerung - Beurteilung von Zeugenaussagen: Wenn Erinnern ein rekonstruktiver Prozess ist, kann sein Ergebnis auch durch Info beeinflusst werden, die lange nach dem zu erinnernden Ereignis, insbesondere während des Erinnerungsprozesses selbst gegeben wird. - Loftus und Palmer (1974): o „Wie schnell fuhr das Auto, als es [Verb]?“; versch. Verben eingesetzt, die unterschiedliche Intensitäten des Zusammenstoßes nahe legten. o Die Geschwindigkeit, die die Vps angaben, stieg mit zunehmend heftigeren Verben an. schon subtile Variationen in der Formulierung einer Frage können die Aussagen von Augenzeugen deutlich beeinflussen 23 - Loftus, Miller & Burns (1978): o Sehen einer Szene: Halten an einem Stop-Schild; Frage: „Fuhr ein anders Auto vorbei, als der rote Datsun am Vorfahrtsschild hielt?“; später: „An welchem Schild hat er gehalten?“ Die irreführende Info beeinflusste die Angaben stärker als die zuvor gesehene Szene! - verzerrende Wirkung von Fehlinfo, die nach dem Ereignis gegeben wird, ist ein Fall von retroaktiver Interferenz, die durch mehrere Mechanismen erklärt werden kann: o „Überschreibung“ der Erinnerung an das tatsächliche Ereignis o sowohl die Originalfassung als auch die falsche Version bleiben erhalten und werden verwechselt. - Konzept des Quellengedächtnisses („source memory“): Erinnerung daran, woher eine Repräsentation stammt - Es gibt einige Kriterien, anhand derer wir entscheiden, ob eine Repräsentation eine echte Erinnerung ist: o Viele sensorische Daten o Einordnung in einen räumlichen und zeitlichen Kontext o Kohärent und mit dem übrigen Wissen kompatibel - Verzerrung oder Verdrängung durch Fehlinformation, wenn die Repräsentation der echten Erinnerung diese Merkmale verliert und die Repräsentation der falschen Erinnerung diese gewinnt. - Sensorische Details und ihr spezifischer raumzeitlicher Kontext gehen leicht verloren => Erinnerung allgemein und schematisch => Schemata als Quellen von Informationen Verzerrungen von Erinnerungen im Sinne eines Schemas sind demnach auch ein Fall von Quellenverwechslung. - Experimente zur Suggestibilität von Augenzeugen: o Fragen, die eine Antwort schon nahe legen, führen mit höherer Wahrscheinlichkeit zu entsprechenden Antworten als offene Fragen. o Suggestibilität jüngerer Kinder ist größer als die von älteren Kindern. o Aufforderung, sich ein Ereignis, an das man sich nicht spontan erinnert, vorzustellen, trägt auch dazu bei, eine falsche Erinnerung an das suggerierte Ereignis zu erzeugen. o Mehrmaliges Wiederholen von Fragen, wenn diese irreführende Info enthalten. - „kognitives Interview“ (Sporer & Bursch, 1997): man erhält vergleichsweise zuverlässige Augenzeugenberichte, indem verzerrende Faktoren möglichst gering gehalten werden. Außerdem: Wahrnehmungskontext nach Möglichkeit wiederherstellen (Enkodierspezifität), Geschehen aus mehreren Perspektiven oder in unterschiedlichen Reihenfolgen erzählen lassen (Generierung vieler „cues“) VI 6) Erinnerungen an traumatische Ereignisse und Verdrängung - Ist es denkbar, dass Erinnerungen an traumatische Ereignisse über Jahrzehnte vollständig verdrängt und dann wieder aufgedeckt werden? - Ist es möglich, solche Erinnerungen, einschließlich lebhafter visueller Vorstellungen, durch Suggestion im Zuge einer Therapie durch eben jene Techniken zu erzeugen, die dem Aufdecken des Verdrängten dienen soll? - Neuere Studien zur Suggestibilität zeigen, dass es möglich ist, durch intensivere Suggestion Erinnerungen an ganze Ereignisse zu erzeugen, die niemals stattgefunden haben. - Loftus & Pickrell (1995): vier Ereignisse aus der Kindheit, wobei das vierte eine Erfindung der Experimentatoren war. Ein Viertel der Vps hat auch zu der erfundenen Geschichte zusätzliche Details erinnert. Die Erinnerungen an tatsächliche Ereignisse waren ausführlicher und wurden im Durchschnitt als „klarer“ beurteilt, dennoch waren einige Vps völlig von ihren falschen Erinnerungen überzeugt - In Einzelfällen konnte auch nachgewiesen werden, dass falsche Erinnerungen an schwere Verbrechen durch Suggestion erzeugt wurden (Loftus, 1993) 24 - - Menschen können traumatische Ereignisse jedoch auch vorübergehend vergessen (z.B. Verkehrsunfälle oder sexueller Missbrauch in der Kindheit). Wurden die Erinnerungen aktiv verdrängt oder genauso wie harmlosere Ereignisse vergessen? In jüngster Zeit mehren sich empirische Hinweise auf Inhibition als ein grundlegender Prozess in der Dynamik von Erinnern und Vergessen. Anderson & Grenn (2001): o Wörter, die in der Testphase aktiv unterdrückt wurden, waren am Ende schlechter erinnerbar als die Wörter, die in der zweiten Testphase gar keine Rolle mehr spielten. o Für episodische Erinnerungen in Laboratmosphäre ist aktive Verdrängung möglich. Ob dieser Mechanismus stark genug ist, persönlich bedeutsame, gar traumatische Episoden zu unterdrücken, ist eine noch offene Frage. VII Semantisches Gedächtnis - das semantische Gedächtnis umfasst unser generelles Wissen, das von persönlichen Erfahrungen abstrahiert. Die Herkunft der Inhalte der semantischen Gedächtnisses wird meist nicht mehr erinnert. Generelles Wissen besteht hauptsächlich aus Begriffen und den Beziehungen zwischen ihnen. Eine Analogie zwischen Theorie und Gegenstand kommt besonders deutlich zum Ausdruck, wenn das Wissen von Menschen als subjektive Theorien (Groeben et al., 1988) oder mentale Modelle (Gentner & Stevens, 1983) beschrieben wird. VII 1) Begriffe - Begriffe oder Konzepte können definiert werden als mentale Repräsentationen von Kategorien. - Kategorien sind Klassen von Gegenständen, die in irgendeiner Hinsicht gleichartig sind. - Begriffe sind die Bausteine des Wissens, denn sie o Bringen Ordnung in unsere Welt o Reduzieren die Vielfalt des Wahrgenommenen auf ein handhabbares Maß o Ermöglichen uns, Gelerntes auf neue Erfahrungen anzuwenden (Hoffmann, 1986) - Ein Objekt oder Ereignis unter einen Begriff zu fassen geht mit einer Reihe automatischer Schlüsse über das Objekt oder Ereignis einher. - Als ein wissenschaftliches Ideal gilt vielen der ordentlich definierte Begriff, der durch eine begrenzte Menge definierender Eigenschaften gekennzeichnet ist, die zugleich eine Regel für die Zugehörigkeit des Gegenstandes zum Begriff bilden. Hat ein Gegenstand alle definierenden Eigenschaften, so fällt er unter den Begriff; fehlt im eine, so fällt er nicht darunter. VII 2) Prototypen - die unscharfen Grenzen von Begriffen sind Ausdruck der abgestuften Typikalität von Gegenständen für auf sie angewandte Begriffe. - Abgestufte Typikalität gibt es auch für klar definierte Begriffe (2 z.B. eine typischere gerade Zahl als 324) - Die Typikalität hängt von der Nähe des Gegenstandes zum Mittelwert aller Merkmale über alle Gegenstände ab, die unter diesen Begriff fallen. Bei manchen Begriffen hat auch die Nähe zu einem Ideal Einfluss auf das Typikalitätsurteil (typisches Diät-Nahrungsmittel enthält eher 0 Kalorien als den Mittelwert) - Posner & Keele (1968): Typikalität mit künstlichen Begriffen o Punktmuster in zwei Klassen sortieren o Alle Muster, die zu einer Klasse gehörten, waren durch kleinere oder größere Verschiebungen der Punkte aus einem von zwei zufällig erzeugten Urmustern abgeleitet, den Prototypen der Klasse. 25 o Testphase: Klassifizieren neuer Muster, die von den gleichen Prototypen abgeleitet wurden o Der Transfer auf neue Muster war umso besser, je weniger diese vom Prototypen abwichen – am besten war der Transfer für das Prototyp-Muster selbst. o Klassifikationsleistung für den Prototyp über längere Zeit hinweg stabiler. Beim Lernen eines Begriffs wird wohl aus einer Menge von Exemplaren allmählich eine Repräsentation des Prototyps herausdestilliert. Der Begriff wird dann als Prototyp repräsentiert. Bei neuen Gegenständen erfolgt dann ein Vergleich auf Ähnlichkeit mit den repräsentierten Prototypen. Der Gegenstand wird dem Begriff zugeordnet, dessen Prototyp er am ähnlichsten ist. Die Annahme, dass Begriffe durch feststehende Prototypen repräsentiert werden, gerät allerdings durch die erstaunliche Flexibilität und Kontextabhängigkeit von Typikalitätsurteilen in Schwierigkeiten (Barsalou, 1987). VII 3) Begriffe als Mengen von Exemplaren - Barsalou: Begriffe haben gar keine feste Repräsentation im Gedächtnis, sondern werden je nach Kontext und Fragestellung ad hoc konstruiert. - Diese Idee steckt auch hinter Exemplartheorien: im Gedächtnis werden lediglich Erinnerungsspuren einzelner wahrgenommener Exemplare abgelegt. - Nach diesen Theorien gibt es keine Repräsentationen von Begriffen und daher auch kein eigenständiges semantisches Gedächtnis – denn Erinnerungen an wahrgenommene Exemplare gehören zum episodischen Gedächtnis (Hintzman, 1986). - Ein Begriff ist demnach nicht als die beobachtbare Fähigkeit von Menschen, gleichartige Gegenstände gleich zu behandeln. Was dabei jeweils als „gleichartig“ betrachtet wird, kann vom jeweiligen Kontext abhängen. - Exemplarmodelle können die Fähigkeit zur Kategorisierung folgendermaßen erklären: o Wahrgenommener Gegenstand wird mit allen Repräsentationen ähnlicher Exemplare im Gedächtnis verglichen. o Die Repräsentation jedes Exemplars wird im Gedächtnis in dem Maße aktiviert, in dem es dem neuen Gegenstand ähnlich ist. o Zusammen ergeben die aktivierten Repräsentationen ein „Echo“: ein gewichtetes Mittel der aktivierten Repräsentationen, wobei stärker aktivierte Exemplare mit höherem Gewicht eingehen. Das Echo kann als ein ad hoc konstruierter Prototyp interpretiert werden. o Die resultierende „mittlere“ Bezeichnung im Echo wird für die Kategorisierung des neuen Exemplars verwendet. - die Logik dieses Verfahrens ist dieselbe wie in konnektionistischen Modellen – mit dem Unterschied, dass diese nicht erst beim Abruf aus dem Gedächtnis, sondern bereits beim Lernen mitteln. Während konnektionistische Modelle mit dem Problem der „katastrophalen Interferenz“ kämpfen, haben Exemplarmodelle dieses Problem nicht. Erinnerung an einzelne Episoden ist ihre natürliche Grundlage, die nicht verloren gehen kann. - Wie diese Fülle von Erinnerungsspuren im Gehirn ohne Interferenz realisiert werden kann, muss jedoch erst noch erklärt werden. VII 4) Begriffe und Theorien – das Problem mit der Ähnlichkeit - ähnliche Gegenstände sind solche, die einen großen Anteil ihrer Merkmale gemeinsam haben (Hintzman, 1986). - Jedoch sind nicht alle Merkmale dafür relevant, welche Gegenstände unter einen Begriff fallen. - Oft kann man die Ähnlichkeit auf perzeptuelle Merkmale (gleiches Aussehen) beschränken, aber nicht immer. - Relevante Merkmale hängen vielmehr von unserem theoretischen Wissen über die betreffenden Gegenstände ab: Biologie z.B. Ernährung, Fortpflanzung etc.; Artefakte z.B. die beabsichtigte Funktion - Unser Wissen über die kausalen Zusammenhänge, in denen ein Gegenstand steht, bestimmt ganz wesentlich mit, welche Gegenstände wir als ähnlich ansehen. 26 - Murphy & Medin (1985) argumentieren daher, dass Begriffe grundsätzlich durch die Wissensstrukturen, deren Bausteine sie sind, geformt und bestimmt werden. Bildung und Verwendung von Begriffen wird in Analogie zur wissenschaftlichen Theoriebildung gesehen. - Wissen bildet ein Netzwerk von weitgehend kohärenten (d.h. zusammenhängenden) und konsistenten (d.h. widerspruchsfreien) Annahmen über die Gesetzmäßigkeiten in der Welt. Von diesen Annahmen hängt ab, welche Merkmale der Gegenstände sichtig sind und welche nicht. Wichtig sind vor allem Merkmale, die eine wichtige kausale Rolle spielen. Begriffe werden anhand theoretisch relevanter Merkmale von Gegenständen gebildet, weil sie dann am besten ihre Funktion erfüllen können: Sie ermöglichen uns, unser Wissen auf neue Gegenstände zu verallgemeinern. Ein Begriff ist umso nützlicher, je mehr Annahmen über Gesetzmäßigkeiten für alle Gegenstände, die unter ihn fallen, gültig sind. Nach diesem so genannten „theory view“ wird unser Wissen also nicht „bottom up“, ausgehend von wahrnehmbaren Eigenschaften aufgebaut, sondern „top down“, ausgehend von theoretischen Annahmen über die Welt. Begriffe sind zwar die Bausteine des Wissens, aber wir konstruieren nicht erst die Bausteine und dann das Gebäude, sondern beide entwickeln sich Hand in Hand. VII 5) Semantische Netzwerke - Collins & Quillian (1969): hierarchisch semantische Netzwerke als Repräsentation für Wissensstrukturen, durch die Begriffe miteinander verknüpft werden. - Begriffe = Knoten; Verbindungen zwischen ihnen = Kanten - Beziehungen zwischen Ober- und Unterbegriffen. Merkmale werden auf der jeweils höchstmöglichen Ebene des Netzwerks an die Begriffe angehängt. Die Unterbegriffe erben die Merkmale der Oberbegriffe => ökonomische Repräsentation. - Experimentelle Prüfung für das Netzwerkmodell: o Möglichst schnelle Klassifizierung von Aussagen als wahr oder falsch. Es dauert umso länger, einen wahren Satz als solchen zu klassifizieren, je mehr Kanten zwischen den beiden Knoten stehen. - Kritik: Modell kann nicht erklären, warum o falsche Sätze schneller zurückgewiesen werden, wenn die darin verbundenen Konzepte weit auseinander liegen o Effekte der Typikalität auftreten: „Eine Amsel ist ein Vogel“ wird schneller akzeptiert als „Ein Emu ist ein Vogel“, obwohl für beide Antworten nur eine Kante zu überwinden ist. - Collins & Loftus (1975): Auflockerung des Modells o Merkmale, die mit Oberbegriffen verknüpft werden, können auch mit einigen Unterbegriffen verbunden werden. o Die Kanten können unterschiedlich stark sein Leider wäre praktisch jedes denkbare Ereignis mit diesem Modell vereinbar – es ist daher nicht mehr empirisch prüfbar (Chang, 1986) - Annahme der Aktivierungsausbreitung bei semantischen Netzwerken (noch aktuell): Jeder Knoten in einem semantischen Netzwerk hat zu jedem Zeitpunkt einen Grad an Aktivierung. Je größer die Aktivierung, desto größer die Chance, dass dieser Knoten aus dem LZG abgerufen werden kann. Je stärker eine Kante ist, desto mehr Aktivierung eines Knotens wird zum damit assoziierten Knoten geleitet. - Unterstützung dieser Idee durch das Phänomen des semantischen Primings (Neely, 1991): Priming bedeutet, dass die Reaktionszeit bei der Verarbeitung eines Worts verkürzt wird, wenn ihm ein Wort voranging, das mit ihm assoziiert ist. - Die Idee der Aktivierungsausbreitung ist dem Konzept eines konnektionistischen Netzwerks sehr ähnlich. Der entscheidende Unterschied ist, dass in semantischen Netzwerken die Ausbreitung von Aktivierung nur ein Teil der Infoverarbeitung beim Gedächtnisabruf ist. Zusätzlich wird ein Prozessor angenommen, der die Info im Netzwerk „liest“. In einem konnektionistischen Netzwerk gibt es dagegen keine verschiedenen Arten von Verknüpfungen zwischen den Neuronen, die von 27 einem externen Prozessor unterschieden werden können Die Ausbreitung der Aktivierung durch das Netz ist bereits die Infoverarbeitung. VII 6) Mentale Modell und subjektive Theorien - Wissen in der Kognitionspsychologie als das, was eine Person für wahr hält. - Falsches Wissen besteht nicht aus falschen Verknüpfungen, sondern ist vielmehr systematisch – es besteht aus einer Menge kohärenter, d.h. zusammenpassender, teils sogar einander stützender Annahmen. - Wissen von Menschen ist ähnlich wie wissenschaftliche Theorien aufgebaut. - Wir können menschliches Wissen als subjektive Theorie (Groeben et al., 1988) oder auch als mentales Modell (Gentner & Stevens, 1983) - Bsp. für die Analyse von mentalen Modellen ist die Studie von Kempton (1985) über die subjektiven Theorien, die Menschen über die Funktionsweise der Thermostaten an ihren Heizungen bilden: o Zwei Theorien: Die Rückkopplungs- und die Ventil-Theorie o Rückkopplungstheorie: nimmt an, dass der Thermostat die Raumtemperatur mit einem vom Nutzer eingestellten Wert vergleicht. o Ventil-Theorie: nimmt an, dass die Kraft, mit der die Heizung läuft, proportional zum vom Nutzer eingestellten Wert steigt. o Die beiden subjektiven Theorien haben unterschiedliche Verhaltensweisen bei der Regulation der Raumtemperatur zur Folge. o Kempton (1985) fand, dass ein großer Teil der befragten Personen eine Mischung aus beiden Theorien vertraten. o Beide Theorien sind unvollständige, aber funktionale Vereinfachungen. - Kemptons Studie hat schon Hinweise darauf gegeben, dass manche Menschen einander widersprechende subjektive Theorien zum selben Gegenstand haben können. - Lewandowsky & Kirsner (2000) haben einen sehr klaren Fall für dieses Phänomen, das sie Wissenspartitionierung nennen, beschrieben: o Interviews und Tests mit Feuerwehrleuten, die für die Bekämpfung von Buschfeuern zuständig waren. o Diese Experten schätzten die Ausbreitungsrichtung von Buschfeuern ganz unterschiedlich ein, je nachdem, ob ihnen dasselbe Feuer als natürlich entstandener Brand oder als ein von Feuerwehrleuten absichtlich angezündetes Feuer zur Bekämpfung eines anderen Brandes („backburn“) beschrieben wurde. Auch das Wissen von Experten ist also nicht unbedingt wohlintegriert und widerspruchsfrei. 28