Document

Werbung
4. Das modale Modell von Atkinson & Shiffrin (1968)
ABBILDUNG 3.8:

Infos aus der Umwelt werden zuerst in einer Reihe von sensorischen Registern bearbeitet
- von dort gelangen die Infos ins STS, das nur eine begrenzte Kapazität aufweist und mit dem LTS
in Verbindung steht
- STS hat besondere Rolle, denn ohne ihn würden keine Info ins oder aus dem LTS gelangen
- des weiteren dient STS bestimmten Kontrollprozessen wie rehearsal, coding, decision und
retrieval strategies
Rehearsal (Übung)
- dadurch werden die Infos im STS gehalten;
- Atkinson & Shiffrin haben dies untersucht; sie postulieren, dass je länger ein Item im STS gehalten
wird, desto größer die Wahrscheinlichkeit, dass es ins LTS kopiert wird
- Rundus (1971):
- typische free recall Aufgabe: 20 Items, jedes Items 5s Darbietungszeit, aber lautes rehearsal
- zählte, wie oft jedes Item rehearsed wurde
- Ergebnisse:
1. positive Korrelation zwischen der recall-Wahrscheinlichkeit und der rehearsalHäufig-
keit
2. die letzten Wörter in der Liste wurden zuerst und am besten reproduziert, obwohl
sie am
wenigsten geübt wurden
 erneute Erklärung für primacy und recency Effekte
Probleme des modularen Modells
1. neuropsychologische Evidenz:
- wenn rehearsal im STM für den Transfer ins LTM entscheidend ist, dann sollten Patienten
K.F. (beeinträchtigtes STM) auch Probleme mit dem LTM haben – dies ist jedoch nicht der
wie
Fall
2. STM und LTM-Lernen:
- rehearsal führt nicht notwendigerweise zu LTM-Konsolidierung
- Tulving (1966):
- Vpn sollten eine Wortliste mehrfach lesen (ohne Instruktion die Wörter zu merken)
- danach längere Wortliste, die zu behalten war; die ursprünglichen Wörter waren auch in der
längeren Liste enthalten; beim Behaltenstest gab es keinen Vorteil für die mehrfach
gelesenen Wörter
- Morton (1967):
- Vpn sollten Buchstaben-/Zifferncode der Telefone reproduzieren
- von 50 Vpn war keine vollständig
 d.h. also, auch wenn etwas noch so oft geübt wird, muss es nicht zwangsläufig dazu führen, dass
diese Info auch im LTM gefestigt wird
3. STM und recency Effekt
- Baddeley & Hitch (1977):
- Vpn sollten gleichzeitig eine digit-span Aufgabe (Zahlen) bearbeiten und eine Wortliste
lernen
- Idee: digit-span benötigt STM, also sollte bei free recall der Wortliste der recency Effekt
ver-
schwinden oder zumindest vermindert sein, denn entweder Zahlen beanspruchen STM oder
die
Buchstaben, beides geht nicht
- Ergebnis: recency Effekt vorhanden, aber primacy Effekt verringert  also kann man doch
nicht
recency Effekt mit STM gleichsetzen
4. Kodierung:
- auch im STM findet semantische Kodierung statt, wenn die Vpn nur die Zeit dazu hat
(Baddeley & Levy, 1971)
5. das Sternberg Paradigma
Sternberg (1966): beschäftigte sich mit High-Speed Scanning in human memory wichtig da
Ged-Psychologie bis dahin nur mit Behaltensleistung/Fehlerraten als abhängiger Variable arbeitete
Sternberg führte die RT wieder ein und machte es populär (= Zeitbedarf der Vp, bis sie bestimmte
Entscheidungen getroffen hat
grundsätzlich:
- es werden zwischen einer und sechs Ziffern sequentiell dargeboten; danach wird eine TestZiffer
dargeboten, Vp muss entscheiden, ob diese Testziffer in der vorherigen Liste enthalten war
oder
nicht
- es werden die Ziffern 0 bis 9 verwendet, in einem Durchgang keine Ziffer doppelt
Terminologie:
- Anzahl der Ziffern wird als Listenlänge bezeichnet
- war Testziffer in der Liste enthalten, dann sprechen wir von einem positiven Durchgang,
sonst
von einem negativen
experimentelle Details:
- Darbietung der Ziffern der Liste: 1.2 s
- nach der Liste: 2s leerer Bildschirm, dann Testziffer
- RT-Messung vom Darbietungsbeginn der Testziffer bis zum Tastendruck der Vp
- danach noch serial recall der Liste
- 24 practice trials, 144 test trials pro Vp, 8 Vpn
Ergebnisse: ABBILDUNG AUS SKRIPT SEITE 25
- auf x-Achse: Listenlänge; y-Achse: mittlere RT
- Entscheidungsfehler: 1.3%
- recall-Fehler: 1.4%
- Antwortzeiten steigen linear zur Listenlänge an
- positive und negative Durchgänge fast gleich lang
Wie kann man das Paradigma erklären?
ENCODING  VERGLEICHEN  ANTWORTEN
- Testziffer wird enkodiert (im STM), dann verglichen mit den jeweiligen Itemreizen (also
Listenziffern) und dann gelangt Vp zu einer Antwort, ob Testziffer in d. Liste vorhanden war oder
nicht
Sternberg machte 3 Annahmen:
1. serielle Organisation der Teilprozesse
- Prozesse überlappen sich nicht, sondern erfolgen nacheinander
2. Reine Einfügung:
- wenn noch ein weiterer Prozess eingefügt wird, ändert das nichts an der RT, die für die
anderen
Prozesse benötigt wird
z.B.: 3+4+7
und
3+4+3+7
bleibt gleich
3. konstante mittlere Vergleichszeit
- Vp enkodiert und vergleicht die Testziffer mit der Listenziffer, wobei sie beim Vergleich
im
Mittel die gleiche Zeit braucht (für jede Ziffer)
Betrachtungen:
1. serieller Vergleich (der Testziffer mit der Listenziffer)
- nur negative Durchgänge
RTn = TE + TV + TA
RTn = TE + TV1 + TV2 + … + TVn + TA
E(-) (RTn) = E(-) (TE + TV1 + TV2 + … + TVn + TA )
E(-) (RTn) = E (-) (TE) + E (-) (TV1) + E (-) (TV2) + … + E (-) (TVn) + E (-) (TA)
n  V
n = mittlere Vergleichszeit
E (-) (RTn) = E (-) (TE) + n  V (-) + E (-) (TA)
= c (-) + n  V (-)
HIER DIAGRAMM AUS DER VORLESUNG
2. seriell erschöpfend; positive Durchgänge
- Vp geht die Liste bis zur letzten Testziffer durch und antwortet dann:
E (-) (RTn) = E (+) (TE) + (n – 1) E (-) (TV) + E (+) (TV) + E (+) (TA)
= E (+) (TE) + n  E (-) (TV1) – E (-) (TV) + E (+) (TV) + E (+) (TA)
= E (+) (TE) + E (+) (TA) + E (+) (TV) – E (-) (TV) + n  E (-) (TV)
=
c (+)
+ n  V (-)
- RT, die linear mit der Listenlänge ansteigen, die die gleiche Steigung (V) haben
- möglicherweise unterschiedliche Schnittpunkte mit der y-Achse
3. seriell abbrechend, positive Durchgänge
- wissen nicht, wann Vp aufhört zu vergleichen (hängt davon ab, wie sie die Liste durchgeht
- TV = TV1
- TV = TV1 + TV2
- TV = TV1 + TV2 + … + TVn
- neue Zva Sn, für die gelte: P(Sn=s) und P(Sn=1) + P(Sn=2) + … + P(Sn=n) = 1, da die Vp ja
irgendwann aufgehört hat zu vergleichen
(s = Anzahl der tatsächlich durchgeführten Vergleiche)
Die Anzahl Sn=s von tatsächlich durchgeführten Vergleichen (die wir nicht kennen) spielt nun die
Rolle der Listenlänge n bei erschöpfender Suche; positive Durchgänge:
E (+) (RTnSn=s) = E (+) (TE) + V (-) + … + V (-) + V (+) + E (+) (TA)
 wir wissen nicht, nach wie vielen negativen Vergleichen die Vp abbricht
= E (+) (TE) + (s – 1)V (-) + V (+) + E(+) (TA)
= E (+) (TE) + E (+) (TA) + V (+) - V (-) + s  V (-)
- unbedingte Erwartungswerte bestimmen mit Hilfe des Satzes der vollständigen Wahrscheinlichkeit
E (+) (RTn) = E (+) (RTnSn = s)  P(Sn = s)
= (E (+) (TE) + E (-) (TA) + V (-) + V (+) + sV (-))  P(Sn=s)
=  (c2 + sV (-))  c2P(Sn=s)
=  c2P(Sn=s) +  sV (-)  P(Sn=s)
= c2   P(Sn=s) + V (-)   sP(Sn=s)
= c2  1 + V (-)E(Sn)  Erwartungszeit der Anzahl der Vergleiche
= E (+) (TE) + E (+) (TA) + V (+) - V (-) + E(Sn)  V (-)
s = 1, 2, …, n und E(Sn) =  SP(Sn=s)
P(Sn=s) = ½
=  S=  s =  n(n+1)/2
= n+= E(Sn)
E(+) (RTn) = c2 + V(-)  E(Sn)
= c2 + V (-)  (n+1/2)
= c2 + n/2 V (-) + ½ V (-)
= c3 + n  V (-)/2
, wobei c3= c2 + ½ V (-)
- Steigung ist nur noch halb so groß wie bei negativen Durchgängen

Serielle Suche
erschöpfend
erschöpfend:
RT
abbrechend
negative Durchgänge
positive Durchgänge
Listenlänge
1
6
 Steigung der beiden Durchgänge muss gleich sein (linear), der Y-Abschnitt darf verschieden sein
abbrechend:
RT
negative Durchgänge
positive Durchgänge
Listenlänge
1
6
 y-Abschnitt kann verschieden sein, aber Steigung bei positiven Durchgängen darf nur halb so groß
sein wie bei negativen Durchgängen
Ergebnisse bei Sternberg folgendermaßen:
 linearer Zusammenhang und gleiche Steigung (die Linien liegen übereinander)  also erschöpfend
Idee:
EVA
E  V1, V2, V3, …  A
Bzw.:
E
V 1 V2 V3 V4 V5
A
- jeder einzelne Pfeil repräsentiert durch seine Länge die Länge der Teilprozesse
- ist nicht die einzige Modellvorstellung, wie es bei Sternberg-Task mental abläuft
Frage: Muss es denn seriell ablaufen?
- es könnte doch sein, dass alle Vergleiche parallel ablaufen
Die Wettlauf-Modelle
- sind mathematisch avancierter als das Modell von Sternberg
E
A
Paralleler Vergleichsprozess
- die Wettlauf-Modelle unterscheiden zwischen:
- positiven vs. Negativen Durchgängen: ob das Testitem in der Liste vorhanden ist oder
nicht
- erschöpfenden vs. abbrechend Durchgängen: entweder muss Liste bis zum Schluss
über-
prüft werden oder aber Vp kann mit Vergleich schon vorzeitig
aufhören, wenn Item vorhanden ist
- unbegrenzten und begrenzten Durchgängen:
- unbegrenzt: wenn mehrere Vergleichsprozesse ablaufen, haben wir dennoch
für
jeden Teilprozess eine maximale Kapazität zur
Verfügung
- begrenzt: nur begrenzte Ressource vorhanden, die sich die einzelnen
Teilprozesse
untereinander aufteilen müssen
1. parallel, unbegrenzt, negativ, erschöpfend (denn bei neg. Durchgängen ist es immer so…)
RT
Listenlänge
- relevanter Aspekt sind die Vergleiche: alle Vergleiche müssen abgelaufen sein, um zu
schauen, ob Testreiz mit Itemreizen übereinstimmt; erst dann kommt die Antwort
- deshalb steigen Lösungszeiten mit zunehmenden Durchgängen langsamer als linear an
2. parallel, unbegrenzt, positive, erschöpfend
RT
Listenlänge
- genau wie bei 1.; müssen warten bis alle Vergleiche durchgeführt wurden, erst dann Antwort
3. parallel, unbegrenzt, positiv, abbrechend
RT
Listenlänge
- RT im Mittel konstant, egal wie viele Vergleiche durchgeführt werden müssen
4. parallel, erschöpfend, begrenzt
sieht aus wie bei Sternberg, aber bei ihm war´s seriell und nicht parallel
- können aber eh anhand der Daten nicht entscheiden, ob parallel oder seriell
V. Das Working Memory (Arbeitsgedächtnis)
Atkinson & Shiffrin (1968): das modale Modell
- Problem: das STS wurde hier als ein einheitliches System betrachtet, das für rehearsal
zuständig ist
Frage: Wozu ist das STS eigentlich gut? Ist es wirklich ein einheitliches Gedächtnis?
- generelle Antwort: es ist ein temporäres Arbeitsgedächtnis, das notwendig für
unterschiedliche
kognitive Prozesse (wie z.B. Lernen, Verstehen und Begründen) ist
- aber: bis in die 70er Jahre wurde dies nicht empirisch überprüft
daher:
Baddeley & Hitch
Idee: wenn STS = Arbeitsgedächtnis, dann sollte STM-Aufgabe, wie z.B. Gedächtnisspanne, die volle
Kapazität absorbieren und die Leistung des Arbeitsgedächtnisses sollte beeinträchtigt sein
- Experimentelle Untersuchung: dual-task-Paradigma
- Vpn mussten 2 Aufgaben gleichzeitig durchführen, wobei die eine Aufgabe den größten Teil
der
Kapazität des Arbeitsged. absorbiert und die andere Aufgabe (wie z.B. Lernen, Verstehen etc.)
vom
Arbeitsgedächtnis abhängig ist
- Aufgabe 1: Gedächtnisspanne von 0-8 Ziffern  Merken
- Aufgabe 2: Satzverifikation, z.B.: A folgt B  BA
„ja“
ABBILDUNG 4.1
- es stellte sich heraus, dass je komplexer die Sätze waren, desto länger waren die
Entscheidungszeiten
- ungefüllte Kreise = Lösungszeit pro Satz: steigt an von 22s bei 0 Ged.spanne bis 29s pro Satz bei
8 Items für Ged.spanne
- gefüllte Kreise = Fehlerrate: bleibt konstant bei ca. 5%
- wichtige Ergebnisse:
1. Leistung bei Satzverifikation nimmt mit zunehmender Anforderung in die Ged.spanne ab,
was
nicht verwunderlich ist, ABER:
2. Leistung ist nicht katastrophal schlecht, obwohl 8 Ziffern bei den meisten Vpn über ihrer Ged.
spanne lagen
- Zeitverlust beträgt nur ca. 35%
 Fazit: wenn die Annahme stimmt, dass working memory (also STS) wirklich ein einheitliches
System ist, dessen begrenzte Kapazität von einer Aufgabe vollkommen absorbiert wird, dann sollte die
Leistung in der 2. Aufgabe vollkommen zusammen brechen, was aber nicht so ist;
Ähnliche Befunde:
1. - Gedächtnisspanne: 0, 3 oder 6 Ziffern
- free recall-Aufgabe mit Wörtern
- Ergebnis: 6 Ziffern beeinträchtigen den primacy part der seriellen Positionskurve, nicht aber
den
recency part; 3 Ziffern hatten gar keinen verschlechternden Einfluss
 Ged.spanne und recency Effekt basieren nicht auf dem gleichen Ged.system
2. - Ged.spanne: 0, 3 oder 6 Ziffern
- Textverständnis: Prosa lesen und verstehen
- Ergebnis: 6 Ziffern beeinträchtigen Verständnis, 3 Ziffern nicht
3. bei retrieval: keine Beeinträchtigung
 nur wenige oder gar keine Beeinträchtigung druch gleichzeitige Ged.-Aufgabe;
 was auch immer für ein System für die Speicherung von Infos im STS verantwortlich ist, es hängt
nicht eng mit rehearsal zusammen wie von vielen Modellen angenommen wurde (wie z.B. das modale
Modell von Atkinson & Shiffrin)
Wie kann das sein?
- die Ged.spanne wird wahrscheinlich von einer ganzen Reihe von Subsystemen festgesetzt, die
die anderen Komponenten des working memory nicht beeinträchitgen und das working memory
ist kein einheitliches Ged.system:
- Baddeley & Hitch entwickelten ein Modell, bei dem ein steuerndes Aufmerksamkeitssystem eine
Reihe von Subsystemen beaufsichtigt und koordiniert  wird central executive genannt
- das Augenmerk wurde auf 2 wichtige Subsysteme gelegt:
- phonological loop: verantwortlich für Manipulation der sprach-basierten Infos
- visuo-spatial scatchpad bzw. skretchpad: verantwortlich für visuell-räumliche
Speichervorgänge und visuelle Vorstellungsvorgänge
1. Der phonological loop
Besteht aus 2 Komponenten:
a) phonological store
b) articulatory control process
a) der phonological store
- für sprachbasierte Info
- der Spurenzerfall innerhalb dieses Speichers erfolgt innerhalb von 1,5 bis 2s
- die Ged.spur kann aufgefrischt werden durch den Steuerungsprozess (b); erst wird die Info
aus dem
Speicher in den Steuerprozess abgelesen, dann wird sie aufgefrischt wieder in den
phonological store
überführt  dieser Prozess unterliegt dem rehearsal
 dadurch wird Vergessen vorgebeugt
b) articulatory control process
- dient dem Auslesen aus und Zurückschreiben in phonological store („inner speech)
- Konvertierung von geschriebenem Material in phonolog. Code und Speicherung in (a)
Beweis für den loop
1. phonolog. similarity effect (phonolog. Ähnlichkeitseffekt)
- immediate seriall recall:
- PGTVCD vs. RHXKWY (Conrad & Hull, 1964)
- warum ist PGTVCD schwieriger?
- Erklärung: Speicher basiert auf phonolog. Codes; phonolog. ähnliche Items haben also ähnlichen
Code; recall erfordert Diskrimination zwischen Codes; Diskrimination schwieriger, wenn Codes
ähnlich;
 schlechtere Leistung
ABER: Klangähnlichkeit nur bei seriall recall ein Problem; in anderen Fällen kann es sogar
hilfreich sein
2. unattended speech effect (unbeachteter Spracheffekt)
- Colles & Welsh (1976):
- Vpn sollten von visuell dargebotenen Zahlen rückwärts zählen
- in einer Bedingung: immediate seriall recall; gleichzeitig jemand zu hören, der einen Text auf
Deutsch las, eine Fremdsprache für die Vpn
 Leistung in immediate memory wurde geschwächt
- Pierre Salamé; Baddeley:
- nahmen beide unabhängig diese Studie auf; Pierre beschäftigte sich schon zuvor mit der Wirkung
von Lärm auf das Ged.;
- wollte die Anzahl der Distraktoren mit gesprochenen Wörtern erweitern
- Annahme: Wörter mit Bedeutung würden die Vpn ablenken (Salamé); Vpn wird in der Lage
sein,
diese Distraktoren zu ignorieren (Baddeley);
- Experiment:
- immediate recall von 9 visuell dargebotenen Reizen
- diese entweder in völliger Stille oder gemeinsam mit gesprochenen Wörtern oder mit
ge-
sprochenen unsinnigen Silben
- die letzten beiden sollte Vp ignorieren
- Ergebnis: Leistung in gleichem Maße sowohl von sinnvollen als auch von sinnlosen Wörtern
beein- trächtigt
- Interpretation: nahmen an, dass dieses Material wahrscheinlich Zugang zum phonolog.
Speicher
hatte, der für phonolog. aber nicht semant. Infos gilt
Frage: Kann ein Geräusch ins phonolog. Speicher gelangen?
- wahrscheinlich nicht
- in einem Experiment Vergleich von unattended speech (wie oben) mit unattended noise und
deren Wirkung auf immediate seriall recall
 kein Effekt der Geräusche (Salamé & Baddeley, 1987; 1989)
Frage: Was ist mit unattended music?
- Experiment:
- Sequenzen von visuell dargebotenen Reizen reproduzieren; als Distraktoren entweder vokale
oder instrumentelle Musik
- Ergebnisse:
Egal ob Opernmusik aus dem 19. Jh. in einer fremden Sprache oder Popsongs in bekannter
Sprache: unattended music hatte immer denselben Effekt und war so ähnlich wie unattended
speech
Fazit: Sollte man deshalb beim Lernen kein Radio hören?
- man kann bis jetzt sagen, dass zumindest solche Aufgaben, bei denen der phonolog. Speicher
benötigt wird, durch diesen Effekt beeinflusst werden
- Verständnis eines Textes und free recall Lernen scheinen nicht von sinnloser Sprache beeinflusst
zu werden
- viele neuere Studien deuten daraufhin, dass zumindest sinnvolles Material, welches die
Aufmerksamkeit des Zuhörers auf sich zieht, das Verständnis eines Textes oder die Wiedergabe
beeinflussen kann
- weitere Forschung ist nötig, um ein genaueres Fazit ziehen zu können
3. word-length effect (Wortlängeneffekt)
- ein weiterer Faktor, der die Ged.spanne bestimmt, ist die Länge der präsentierten Wörter
- einsilbiges Material scheint dabei einfacher zu reproduzieren als mehrsilbiges Material
ABBILDUNG 4.3
- Zusammenhang zwischen Wortlänge, Leserate und Gedächtnis für Wörter (1-5silbig) (Tabelle 4.1)
ABBILDUNG 4.4
- zeigt den Zusammenhang zwischen der totalen Sprechlänge und Wahrscheinlichkeit des
recall
 die Ergebnisse deuten daraufhin, dass unsere Ged.spanne die Anzahl der Items, die wir in 2s
aussprechen können, repräsentiert, egal wie lang die Wörter sind
 es besteht eine hohe Korrelation zwischen der Redegeschwindigkeit einer Person und dessen
Ged.spanne
Frage: ist entscheidender Faktor die Redegeschw. oder die Anzahl der Silben?
- die Redegeschw. ist wohl der kritische Faktor; denn Wörter wie z.B. harpoon oder Friday haben
lange Vokale und werden langsamer ausgesprochen als Wörter mit der gleichen Silbenanzahl aber
kürzeren Vokalen; daher führen Wörter wie harpoon zu kürzeren Ged.spannen
- wichtiges Merkmal in der mentalen Entwicklung von Kindern ist, dass die Tendenz für die
Ged.spanne mit dem Alter zunimmt
- Nicolson (1981):
- wahrscheinlich, weil ältere Kinder schneller üben (rehearsal) können; konnte einen klaren
Zusammenhang zwischen dem Alter und der Redegeschw. feststellen
- diese Untersuchung repliziert von Hulme, Thomson, Muir & Lawrence (1984) und Hitch, Halliday &
Littler (1984)
- Kindern in verschiedenem Alter untersucht mit immediate seriall recall von Items mit
verschiedener Länge
- wenn auditive Präsentation, wurden sogar Kinder im Alter von 4 Jahren beeinflusst
ABBILDUNG 4.6
- man sieht hier eine Regressionsgerade, wenn man die Ged.spanne mit der Redegeschw.
vergleicht
 lässt darauf schließen, dass das Alter positiven Einfluss auf die Leistung hat, weil man
schneller artikulieren kann
 Hinweis darauf, dass wahrscheinlich irgendeine Form von innerem rehearsal (subvocal
rehearsal) vorhanden ist
- Interpretation:
- die äußerliche oder innerliche Artikulation beinhaltet das Einrichten und in Gang setzen von
motorischen Sprachprogrammen, mit dem Ergebnis, dass je länger das Wort ist, desto länger
müssen diese
Programme ablaufen
- dieser Prozess des subvocal rehearsal dient dazu, die Infos im phonolog. Speicher zu
erhalten, indem es ständig die Ged.spuren auffrischt  je schneller dieser Prozess ablaufen
kann, desto mehr Items können gespeichert werden und desto länger wird die Ged.spanne
- wenn das Gedächtnis aber nicht richtig funktioniert, wird die Ged.spanne durch die Anzahl
der Items bestimmt, die aufgefrischt werden können, bevor sie auch verfallen
- diese Anzahl hängt ab von der Verfallsgeschw. und davon, wie lange man für die Aussprache
jedes Items benötigt
 versch. Studien zeigen, dass die Zeit für Spurenzerfall ca. 2s beträgt, obwohl die Zeit für
rehearsal und somit auch Ged.spanne, von Sprache zu Sprache verschieden ist (Hoosain &
Salili, 1988; siehe Baddeley S.57f)
4. Articulatory Suppression (artikul. Unterdrückung)
- obwohl Aussprache (overt articulatory) nicht notwendig ist für den Prozess des inner speech,
wird die Funktionsweise des phonological loop beeinflusst, wenn innere oder äußere Aussprache
eines belanglosen Items gefordert wird
- Vpn müssen immer wieder belanglose Sachen wiederholen, z.B. bla, bla, bla… oder the, the,
the…
- gleichzeitig müssen sie sich Buchstaben merken  „dual task paradigma“
- in diesem Fall ist die Ged.spanne wesentlich geringer
- denn: normalerweise werden die Items im phonolog. Speicher gehalten und immer wieder
aufge- frischt; da die Aussprache von belanglosen Items den articulatory control process
beansprucht, kann dieser die Infos im phonolog. Speicher nicht mehr auffrischen und das
visuelle Material wird auch nicht in phonolog. Codes umgewandelt
- der Effekt der Unterdrückung ist sehr robust und nicht unbedingt von der Aussprache von Items
abhängig
- wir nehmen an, dass dieser Effekt den Prozess des subvocal rehearsal herausschneidet  dann sollte
es in vorhersagbarer Weise mit den anderen Effekten interagieren:
- phonolog. Ähnlichkeit:
- articulatory suppression verhindert diesen Effekt, wenn das Material visuell dargeboten
wird, vermutlich weil die Konvertierung des visuellen Codes in einen phonolog. Code
verhindert wird
- bei auditiver Präsentation bleibt der Ähnlichkeitseffekt aber bestehen, vermutlich weil
das
das ausgesprochene Material direkten Zugang zum phonolog. Speicher hat ohne Gebrauch
vom articulatory control process
- unbeachteter Spracheffekt
- auch hier sollte es eine Unterbrechung durch den Unterdrückungseffekt
geben, denn das
Material wird visuell dargeboten
- wenn die Unterdrückung dazu führt, dass die Vp das Material nicht mehr durch innere
Aus-sprache in den phonolog. Speicher überführen kann, dann wird das Gedächtnis auf
einem non-phonologischen Speicher basieren
- daher sollte die Beeinträchtigung des phonolog. Speichers durch unattended speech
keinen Einfluss auf die Leistung haben
- bei auditiver Präsentation hingegen hängt die Reproduktion der Items vom phonolog.
Speicher ab, weshalb unattended speech die Leistung beeinträchtigt
- Wortlängeneffekt:
- da dieser Effekt direkt von subvokaler Artikulation abhängig ist, sollte die
artikul. Unterdrückung diesen Effekt ganz aufheben, egal ob visuell oder auditiv dargeboten
- Aber: wie Baddeley, Thomson & Buchanan (1975b) herausfanden, liegt eine
Beeinträchtigung des Wortlängeneffekts nur bei visueller Präsentation vor(obwohl das
Modell es vorhersagte, dass der Wortlängeneffekt die Übungsrate beeinflusst, nicht aber die
Speicherung)
- dies lag an einem Fehler in dem Experiment: die artikul. Unterdrückung
tauchte während
der Präsentation auf, nicht während des recalls
- wenn aber die Unterdrückung während der Präsentation und des recalls
auftritt, liegt kein
Wortlängeneffekt mehr vor
 also: bei allen anderen Effekten konnte eine Beeinträchtigung durch den articulatory suppression
Effekt nachgewiesen werden
Zusammenfassung der Beweise:
- der phonolog. Ähnlichkeitseffekt taucht auf, weil der phonolog. Speicher auf phonolog. Codes
basiert
- ähnliche Items haben leicht verwechselbare Codes, was zur Beeinträchtigung der Leistung
führt
- artikul. Unterdrückung verhindert, dass das visuelle Material konvertiert wird in phonolog.
Codes, hat aber keinen Einfluss auf auditives Material
- der unbeachtete Spracheffekt taucht auf, weil gesprochenes Material Zugang zum phonolog.
Speicher hat,
welches durch die Präsentation von irrelevantem Material beeinträchtigt wird
- die Unterdrückung verhindert, dass der Spracheffekt bei visuell dargebotenem Material
auftaucht,
indem es den Übertrag des Materials in den phonolog. Speicher stoppt
- der Wortlängeneffekt wird durch den Unterdrückungseffekt beeinflusst, egal ob visuelle oder
auditive
Präsentation
Der phonolog. loop (Wortlängeneffekt) vs. 7±2 Kapazitätshypothese
- wie zuvor schon gesagt, ist der Hauptaspekt der phonological loop Hypothese, dass die Ged.spanne
von der Übungsrate abhängig ist, ca. soviel wie man innerhalb von 2s aussprechen kann
- was ist dann aber mit der Kapazitätshypothese von Miller, die besagt, dass die Ged.spanne eigentlich
sehr konstant ist
- Herbert Simon entwickelte daraufhin die chunking Hypothese
- er und eine Gruppe von chinesischen Kollegen versuchten anhand der chinesischen Sprache den
articulato-
ry loop und die chunking Hypothese genauer zu erklären (Zhang & Simon, 1985; Yu,
Zhang, Jing,
Peng, Zhang & Simon, 1985)
- in einem Experiment wurden die beiden Hypothesen direkt miteinander verglichen:
- chinesische Schrift wurde verwendet
- Material Nr. 1: beinhaltete Radikale = Bestandteile der Zeichen und unaussprechbar; es gibt
über
200 Radikale im chinesischen, die aber den chinesischen Vpn vertraut waren
- Material Nr. 2: waren chinesische Charaktere/Zeichen, die aus jeweils 2 Radikalen bestehen
und
einsilbig sind
- Material Nr. 3: chinesische Wörter, die aus 2 Charakteren bestehen und deshalb 2silbig sind
ABBILDUNG 4.7
- diese 3 Untereinheiten sollten gleichwertige chunks darstellen
- Annahme der chunking Hypothese: bei allen 3 sollte die Ged.leistung gleich ausfallen
- Annahme der phonolog. loop Hypothese: sehr schlechte Leistung bei den Radikalen, denn
diese sind nicht aussprechbar, weshalb sie nicht im phonolog. loop verarbeitet werden;
mittlere Leistung für 2silbige Wörter, beste Performanz für einsilbige Charaktere
ABBILDUNG 4.2
- so wie es die phonolog. loop Hypothese vorhersagte
 durch diese und andere Untersuchungen wird die phonological loop Hypothese unterstützt, doch ist
wichtig zu sagen, dass die chunking Hypothese wohl auch in dieses Modell mit eingefügt werden kann
VI. Das visuo-spatial Sketchpad
 = „visuell-räumlicher Notizblock“
 dient dem Einrichten und Manipulieren von visuell-räumlichen Bildern
1. das visuelle Gedächtnis
 visuelle Vorstellung spielte eine große Rolle in der experimentellen Psychologie des letzten Jhs.,
auch dann noch als Introspektion wichtig wurde für psycholog. Untersuchungen
 Sprache und Lernen
- die Namen von Dingen, die gut verbildlicht werden können, sind besser behaltbar als von die
Namen von abstrakten Objekten (z.B. Hose besser als Liebe)
 Analog oder propositional
- handelt es sich bei dem der visuellen Vorstellung unterliegenden Prozess um einen analogen
oder propositionalen?
- analoges System: hier ist die Art und Weise der Repräsentation kontinuierlich, wie z.B. die
Zeiger auf einer herkömmlichen Uhr
- propositionales System: Art und Weise der Repräsentation erfolgt in einer Reihe von
diskreten Schritten, wie z.B. bei einer digitalen Uhr oder die Programme in einem Computer
- im Falle der visuellen Vorstellung behaupten analoge Theoretiker wie Kosslyn (1980) und
Shepard & Metzler (1971), dass der Vorstellungsprozess an sich auf einem analogen, also
kontinuierlichen Prozess basiert.
- Vertreter der propositionalen Annahme, wie z.B. Pylyshyn (1981) meinen, dass die
Vorstellung ein Epiphänomen ist, also eine irrelevante Begleitung zu einer ganzen Reihe von
Prozessen, die in räumlichen Informationen operieren, die wiederum im LTM gespeichert sind
(???keine Ahnung, was das heißen soll; Blanki wird´s wahrscheinlich erklären)
1. Mentale Rotation
- Shepard & Metzler (1971):
- Experiment, das versucht herauszufinden, ob imagery ein analoger Prozess ist oder nicht
- 2-dimensionale Präsentation von jeweils 2 3-dimensionalen Figuren (ABBILDUNG 5.1)
- die Figuren waren entweder identisch oder spiegelverkehrt; Vp musste entscheiden
ABBILDUNG 5.2
- fanden heraus, dass die Zeit, die Vp brauchte, von der Winkel-Beziehung zwischen den
beiden Figuren abhing, so als ob die Vp mental die Figuren drehte, bis sie denselben Winkel
annahmen und dann erst eine Entscheidung fielen; die Vpn gaben auch an, dass sie die
Objekte in ihrer Vorstellung drehten
- dabei ist als Funktion die Winkeldisparität zwischen beiden Objekten abgetragen  linearer
Zusammenhang  je größer Rotationswinkel, desto länger die RT
 Hinweis darauf, dass Vpn Objekte in einem 3D-Raum rotieren, d.h. es scheint ein analoger Prozess
zur physischen Rotation zu verlaufen
(Georgopoulos et.al. fanden: untersch. Zellen im motor. Cortex feuern bei untersch. Richtungen,
mentale Reaktion bringt allmählich Verschiebung der Zellaktivitäten mit sich, ausgehend von Zellen,
die für Enkodierung des ursprünglichen Stimulus zuständig sind, hin zu Zellen, die den
transformierten Stimulus enkodieren.)
2. Scanning mentaler Prozesse (scanning with the mind´s eye)
- Kosslyn (1980):
- auch analoge Interpretation des Vorstellungsprozesses
- Vpn sollten entweder aus mentalen Vorstellung ablesen oder Entscheidungen darüber fällen
- z.B. ein Bild eines Bootes (siehe S. 74, Baddeley); Vp betrachtete es und anschließend wurde der
Vp über das Bild Fragen gestellt
- wenn Vp erst nach dem Bug und dann nach etwas gefragt wurde, dass etwas weiter weg lag
(wie z.B. das Ruder) dann dauerte die Antwort länger, als wenn man nach einem Objekt
fragte, das zwischen diesen beiden lag; als ob die Vpn physikalisch das Bild scannen würden,
wobei längere Scans auch längere Zeit in Anspruch nahmen
- Baum & Jonides (1979):
- geographische mentale Vorstellung; Vpn sollten die Distanz zwischen verschiedenen
Objekten auf ihrem Unigelände schätzen
- Ergebnis: je weiter die Objekte auseinander lagen, desto länger dauerte die Einschätzung
- wenn ein Hindernis zwischen diesen Objekten lag, dann war die geschätzte Distanz länger (Kosslyn,
Pick & Fariello, 1974)
 Kosslyn und seine Kollegen zeigten in vielen anderen Studien weitere Ähnlichkeiten zwischen dem
mentalen Scanning und den Prozessen der Wahrnehmung
z.B.: Vp soll sich vorstellen, dass sie auf ein Objekt zuläuft  dann berichteten Vpn, dass das
Objekt sich weiter ausdehnte und ihr visuelles Feld voll und ganz füllte
- auch ein Skaleneffekt trat auf: Vp wurden instruiert sich einen Hasen entweder neben einer
Maus oder neben einem Elefanten vorzustellen und wurden dann nach den Augen des Hasen
gefragt 
Antworten schneller, wenn Hase neben Maus vorgestellt wurde, weil die
Augen dann ein viel größeres und hervorstechenderes Merkmal darstellten, als wenn der Hase
neben dem Elefanten stand
 Die Forscher sind sich noch nicht einig, wie man denn nun die Ähnlichkeiten zwischen dem
Vorstellungsprozess und der Wahrnehmung interpretieren soll
2. Imagery und das Arbeitsgedächtnis
 Die visuelle Unterbrechung der Vorstellung
- nun dual-task Modelle für die Untersuchung des Arbeitsged. und der Aufmerksamkeit
- Ziel: Analyse des Prozesses, der dem Prozess der Vorstellung unterliegt, indem wir schauen, was mit
den Aufgaben, die auf dem Vorstellungsvermögen beruhen, interferiert
- Lee Brooks (1967): ABBILDUNG 5.4
- Vp sollte Material entweder verbal oder mithilfe von visuellen Bildern enkodieren (diese
Aufgabe
basiert auf STM)
- 4x4-Matrix dargeboten; eine Zelle wird als Startpunkt festgelegt
- Vpn sollten dann Satzsequenzen, wie in der Abbildung zu sehen ist (Spatial = räuml.
material)
- Vpn enkodieren diese Sätze als visuellen Pfad in der Matrix
- damit Vpn das nicht machten, wurden die jeweiligen Adjektive durch good-bad und quickslow
ausgetauscht (das so genannte verbale, bzw. non-spatial Material)
 Vpn konnten zwar 8 der spatial-Sätze wiedergeben, aber nur 6 der non-spatial-Sätze
- Brooks verglich diesen Effekt nun bei visueller und auditiver Darbietung
- Ergebnis: bei spatial Aufgabe erzielte er mit auditiver Präsentation das beste Ergebnis; bei
der ver-
balen Aufgabe war die visuelle Präsentation besser
 reflektiert die Tatsache, dass die spatial Sätze hauptsächlich durch visuelle Bilder erinnert werden,
welche denselben Apparat verwenden wie die visuelle Wahrnehmung, während die non-spatial Sätze
mit verbaler Kodierung zu tun haben, wobei dieselben Systeme wie in der auditiven Wahrnehmung
verwendet werden
 Die Eigenschaften des visuo-spatial Sketchpads
- es ist ähnlich wie der articulatory loop
- es kann entweder direkt durch Wahrnehmung „gefüttert“ werden, also durch visuelle Wahrnehmung,
oder aber indirekt, also durch ein visuelles Bild  deutet daraufhin, dass nur visuelle Info Zugriff zu
dem Speicher hat, so wie beim articulator. loop
- es scheint aber nicht für die Vorstellungskraft im verbalen Langzeitgedächtnis verantwortlich zu sein
- das sketchpad besteht vermutlich aus 2 verschiedenen Komponenten:
1. beschäftigt sich mit Verarbeitung von Mustern und geht der Frage nach dem „Was“ nach
(visuell)
2. beschäftigt sich mit der Lokation in Raum, also die Frage nach dem „Wo“ (räumlich)
Zusammenfassung
 2 wichtige Fragen:
1. Basiert imagery auf einem kontinuierlichen und analogen System, oder ist es ein
Repräsentationssystem, das auf einer Kombination von diskreten propositionalen Komponenten basiert?
2. Sind Vorstellungen wie Wahrnehmungen?
 diese Fragen können noch nicht beantwortet werden
 die Ergebnisse einer Untersuchung des working memory mit dual-task Paradigma deuten
daraufhin, dass ein System für das Einrichten und die Manipulation von visuellen Images
vorhanden ist, der visuo-spatial Sketchpad
 Frage: soll dieses System als ein visuelles oder als ein räumliches System angesehen werden?
- aufgrund der Ergebnisse verschiedener Untersuchungen (wie z.B. zum Lernen und Ged.leistung
von normalen Personen) kann man sagen, dass es sowohl eine visuelle als auch eine räumliche
Komponente der Vorstellung gibt, mit verschiedenen anatomischen Bereichen im Gehirn; diese
Sichtweise wurde auch aufgrund neuropsychologischer Untersuchungen bestätigt
VII. Das Verarbeitungsebenen-Modell (levels of processing) von Craik &
Lockhart (1972)
 Ist ein alternatives Gedächtnismodell zum modalen Modell von Atkinson & Shiffrin
 zur Erinnerung: dieses Modell geht von separaten Langzeit- und Kurzzeitspeichern aus, wobei das
Langzeitlernen hauptsächlich vom Kurzzeitspeicher abhängig ist; je länger ein Item im STS
gehalten wird, desto größer die Wahrscheinlichkeit, dass es in LTS überführt wird  aber es gab
einige Probleme mit diesem Modell
 Craik & Lockhart hingegen waren der Meinung, statt sich auf die Struktur des Gedächtnisses zu
konzentrieren, sollte man sein Augenmerk eher auf den Prozess, der die Erinnerung steuert, legen
 nehmen an, dass das, was reproduziert wird, kein Item ist, das im Gedächtnis gespeichert wird,
sondern dass die Nacheffekte des Verarbeitens erhalten bleiben, die dann wiederum als Hinweis
auf das verarbeitete Item genutzt werden können
 das Verarbeiten von Infos beginnt einem physikalisch-sensorischen (also visuellen) und
oberflächlichen Niveau und gelangt dann in immer tiefergehende semantische Bereiche; am
oberflächlichen Level bleiben sehr leicht aufrufbare, aber weniger dauer- hafte Ged.spuren, in den
tieferen Regionen hingegen bleiben Ged.spuren, die dauerhafter sind
 auch sie gehen davon aus, dass das STM mit phonolog. Verarbeitung und das LTM mit
semantischer Verarbeitung in Verbindung steht, dass aber die semantische und phonologische
Codierung beide als charakteristisch fürs STM angesehen werden müssen
 sie unterscheiden auch zwischen einem LTM und einem STM bzw. Primary Memory (PM),
welches 2 wichtige Prozesse enthält:
- maintenance rehearsal
- elaborative rehearsal
 maintenance rehearsal
zwei Arten von Rehearsal
- es dient nur dazu, die Informationen zu erhalten ohne sie in einen länger anhaltenderen Code
umzuwandeln
- es verhindert also das Vergessen während dem Prozess des Erhaltens von Infos, führt aber
nicht zu Langzeitlernen
- also rehearsal von Items in phonologischer Schleife
 elaborative rehearsal
- Ausbreitung von Gedächtnisspuren auf höhere Kodierungsebenen durch z.B.
Mnemotechniken, Eselsbrücken usw.
- dadurch kommt es zum Langzeitlernen
 Bsp. von Craik & Tulving (1975)
- eine Reihe von unabhängigen Wörtern wird präsentiert
- Vpn sollen 1 von 3 verschiedenen Aufgaben erfüllen:
1. oberflächliches Enkodieren: entscheiden, ob das Wort groß oder klein geschrieben
wurde
2. beinhaltet ein Zwischenlevel des Kodierungsprozesses: ob Wörter sich reimen
3. beinhaltet tiefe semantische Verarbeitung: ob das Wort in einen bestimmten Satz
passt
- den Vpn wurde aber nicht gesagt, dass ihr Gedächtnis untersucht würde, also ging es um
inzidentelles Lernen
- wenn man der Vp mitteilt, dass sie durch recall oder recognition getestet wird, wäre es
intentionales Lernen
- Grund für inzidentelles Lernen: sie wollten vermeiden, dass Vp versucht sich die Wörter zu
merken, so dass die Wörter nur so verarbeitet und enkodiert werden, wie es die Aufgabe
verlangt; es führt dazu, dass Vp wirklich nur so mit dem Material umgeht, wie es in der
Aufgabe verlangt wird
- nachdem die Vpn eine gewisse Zeit ihren Aufgaben nachgegangen waren, wurden sie einer
recognition-Aufgabe unterzogen, also ob das dargebotene Wort alt oder neu ist
ABBILDUNG 7.5
Ergebnisse:
1. die oberflächlichste Aufgabe führte zum schlechtesten Ergebnis, d.h. sie hatten die
schlechteste Behaltensleistung; die 3. Gruppe hatte die beste Behaltensleistung  wie
vom Verarbeitungsebenenmodell angenommen
2. die Aufgaben, die mit „ja“ beantwortet werden mussten, lieferten bessere
Ergebnisse als Aufgaben, die mit „nein“ beantwortet wurden
- Interpretation: je tiefer die Verarbeitung (also semantisch), desto besser die Behaltensleistung
 Das Verarbeitungsebenenmodell hat einige Vorteile:
1. es liefert einen einfachen Ersatz für das Komplexe LTM-STM-Problem
2. es kann gut auch außerhalb des Labors angewandt werden
3. es liefert sehr plausible Antworten auf wichtige Fragen wie z.B.:
- Erinnern sich die Älteren an weniger, weil sie das Material nur auf höheren Leveln
speichern?
- Leiden Patienten am Korsakoff-Syndrom, weil sie ihre Umgebung nur oberflächlich
enkodieren?
 Die Stärke und Dauerhaftigkeit von Gedächtniseindrücken wächst mit zunehmender
Verarbeitungstiefe
 Doch das Modell hat auch einige Minuspunkte
 Entscheidend ist offensichtlich, eine Kongruenz zwischen den Bedingungen der Aufnahmephase
und denen der Wiedergabephase herzustellen (z.B. betrunken lernen, betrunken wiedergeben 
klappt gut)
 Es ist wahrscheinlich so, dass semantische Verarbeitung typischerweise mehr diskriminierbare
Ged.spuren produziert als es beim phonolog. und visuellen Kodieren des verbalen Materials
geschieht, weshalb die Behaltensleistung verbessert
 Neuerdings interessanter Ansatz: Material wird besonders gut verarbeitet, wenn es auf das Selbst
des Lernenden bezogen wird (auch wenn es sich um weniger vertraute Substantive und Adjektive
handelt)
 Wissen kann leichter und länger genutzt werden, wenn:
-
Kodierung auf höheren/tieferen Ebenen erfolgt
-
Die Inhalte durch mehrere kogn. Operationen verarbeitet werden
-
Die Inhalte in einem Netzwerk des LTM verknüpft werden
VIII. Implizites Lernen
 Das menschliche Lernen kann auf 2 verschiedene Weisen erfolgen:
- explizit: Person nimmt aktiv den Stimulus wahr – wenn möglich – versucht sie eine Hypothese oder
Regeln darüber zu formulieren, die das Lernen erleichtern
- implizit: hier spielen die äußerliche Kontrolle oder Strategien keine Rolle; Lernen komplexer Infos,
ohne
das Wissen, dass man sie wirklich lernt (erfolgt ohne Instruktion); hierbei verschiedene
Regionen
mit beteiligt, motor. Cortex und andere motor. Gebiete
 Implizites Wissen: kontextbezogenes und vorbewusstes Wissen, Priming-Phänomene; man weiß
es einfach, kann sich aber nicht daran erinnern, es je bewusst gelernt zu haben; man kann es nicht
in Worte fassen und es entzieht sich der Introspektion; es charakterisiert oftmals das Lernen von
Fahrradfahren etc
1. Die 3 wichtigsten Paradigmen
 Künstliche Grammatik lernen:
- implizites Wissen ist nicht nur auf Wahrnehmung und motor. Fähigkeiten begrenzt
- ein gutes Beispiel hierfür: Kinder, die eine Sprache erlernen:
- sie lernen immer mehr grammatische Regeln, können dann später diese Regeln
perfekt im
täglichen Gebrauch verwenden, ohne aber genau zu wissen, welche
grammatischen Regeln es überhaupt sind  zumindest in der Muttersprache
Frage: beinhalten implizites und explizites Lernen verschiedene Gedächtnissysteme?
- wie wir an dem Bsp. oben erkennen, scheint das Erlernen der Grammatik der Muttersprache ein
gutes Modell für implizites Lernen darzustellen
-
um dies auch experimentell untersuchen zu können, wurde in den 1960ern eine künstliche
Grammatik entwickelt von Miller (1962)
ABBILDUNG 19.2
- Grammatik: - ein System bestehend aus Regeln; es sollte außerdem generativ sein, es sollte
eine unendliche Menge an Sätzen zulassen
- Abbildung 19.2 zeigt eine Möglichkeit, wie man solch eine Grammatik aufstellen kann:
- verschiedene Knotenpunkte, von denen Pfeile ausgehen, die die einzelnen Items
darstellen
- man fängt am Startpunkt auf der linken Seite an, und entscheidet sich für einen Pfad,
z.B. M; von dort geht es zum nächsten Item, dem T; dann kann man entweder das T
wiederholen oder aber weiter zum V gelangen, usw. bis zum Endpunkt  eine
Sequenz
- in verschiedenen Sequenzen können dann manche Itemabfolgen wiederholt auftreten
(z.B. TV); andere Itemfolgen tauchen hingegen nie auf (TRV) („nicht grammatisch“)
- Reber (1967):
- eine Vp-Gruppe sollte Sequenzen, die mithilfe dieser Grammatik aufgestellt wurden, lernen
- 2. Vp-Gruppe lernte zufällige Sequenzen (z.B.: TRV)
- anschließend zeigte man beiden Gruppen ein Set von 44 Sequenzen, von denen die Hälfte
nach der
Grammatik aufgestellt wurden und der Rest nicht grammatisch war
Ergebnisse:
1. Gruppe: 79% richtige Kategorisierung
2. Gruppe: brauchten wesentlich länger, um diese Sequenzen zu lernen und konnte nicht
wirklich die
grammatischen von den nicht grammatischen Sequenzen unterscheiden und waren
auch nicht in der
Lage, irgendwelche grammatischen Regeln wiederzugeben
 das Lernen scheint sehr robust zu sein: Allen & Reber (1980) ließen ihre Vpn 15min. die
Grammatik lernen; dieses Wissen war nach 2 Jahren noch immer vorhanden
 Redundantes Sequenzenlernen
- ein ähnliches Ergebnis sollte auch bei anderen Aufgaben zum impliziten Lernen
- Nissen & Bullemer (1987):
- benutzten eine serial reaction time Aufgabe, in der Vpn auf 4 verschiedene Knöpfe drücken
mussten, die mit 4 horizontalen Stellen auf einem Monitor verbunden waren
- in Kontrollbedingung reagierten Vpn auf eine Zufallssequenz von Items, in der
Experimental- bedingung wurde eine einzige Sequenz von 10 Items wiederholt dargeboten
(ABER: Vpn wussten nicht, dass es immer dieselbe Sequenz war)
- Ergebnisse: - in Experimentalbedingung antworteten die Vpn immer schneller, wurden aber
wesentlich langsamer, wenn eine Zufallssequenz dargeboten wurde
- die Vpn waren auch in der Lage zumindest einen Teil dieser wiederholten Items zu
berichten, d.h. also es gab einen gewissen Lerneffekt
 Hinweis darauf, dass es sich um explizites und nicht um implizites Lernen handelt
- Willingham, Nissen & Bullemer (1989):
- 2 Gruppen:
1.Gruppe: wurde darauf aufmerksam gemacht, dass es immer eine Sequenz mit
denselben Items sein wird
2.Gruppe: wurde nicht über eine Wiederholung der Items aufgeklärt;
- 2. Gruppe konnte nur 3 der 10 Items berichten, doch muss hier betont werden, dass diese
Gruppe
gelernt hat, denn sie wurden immer schneller in ihren Reaktionen
- wenn man aber das explizite Wissen testete, indem man die Sequenz abstoppte und sie nach
dem darauf folgenden Item fragte, schnitt die 2. Gruppe wesentlich schlechter ab
 Kontrolle von komplexen Systemen
- während die bisher beschriebenen Paradigmen sehr beschränkt waren in ihren Aufgabenstellungen,
entwickelte Broadbent und seine Kollegen eine ganze Reihe von komplexen Aufgaben
- Broadbent:
- in einer Studie wurden die Vpn zwar nach mehreren Durchgängen besser und erreichten die
geforderten Zielstellungen, doch wenn die Vpn einen postexperimentellen Fragebogen
bekamen, waren sie nicht in der Lage Fragen über die jeweilige Aufgabe zu beantworten
- Broadbent dehnte die Untersuchung auf weitere Aufgaben aus, z.B. wurde in einer Aufgabe die
Führung einer Zuckerraffinerie simuliert, in einer anderen Aufgabe hingegen ging es darum, einer
Computerfigur bestimmte vorgegebene Stimmungen zu induzieren
- trotz der oberflächlich gesehen unterschiedlichen Aufgaben, waren die Aufgaben formal
gesehen
ähnlich strukturiert
- Vpn hatten 0, 30 und 60 aufeinander folgende Durchgänge, in denen sie zu 80% erfolgreich
die Aufgaben bewältigten
- doch auch hier waren die Vpn nicht in der Lage, auf die Fragen nach dem Experiment zu
antworten, d.h. also:
 wieder keine Korrelation zwischen der Leistung in der Aufgabe und im Fragebogen
alle 3 Paradigmen bestätigen deutlich den ständigen Erwerb von implizitem Wissen:
- mit Leichtigkeit kann Grammatik erlernt und angewandt werden; die Kapazität, grammatisch
Richtiges von Falschem zu unterscheiden
- schnellere Antworten bei wiederholten Sequenzen
- ständige Verbesserung der Leistung in verschiedenen sehr komplexen Aufgaben
ABER: Vpn können nicht beschreiben, durch welches Wissen genau ihre Leistung sich verbessert; sie
scheinen unbewusst Regeln usw. mitzubekommen, die sie zwar anwenden aber nicht verbalisieren
können
2. Was wird gelernt: Regeln oder chunks?
 Originalannahme war, dass in dem Versuch von Reber die Vpn eine Reihe von impliziten Regeln
lernten, die auf der künstlichen Grammatik beruhten
 Doch wenn Vpn nach diesen Regeln gefragt wurden, sagten die Vpn, dass sie so genannte
Bigramme (also Buchstabenpaare) aus diesen Sequenzen herauspickten, wobei sie hauptsächlich
die ersten Bigramme am häufigsten berichten konnten
 Perruchet & Pacteau (1990):
- verwendeten dieselbe Grammatik wie Reber
- Sequenzen, die der Grammatik entsprechende Buchstabenpaare beinhalteten, wurden eher als
grammatisch richtig angesehen als solche Sequenzen, in denen ganz neue Bigramme auftauchten
- sie entwickelten ein Modell, das davon ausgeht, dass die grammatischen Bewertungen auf
paarweisen Infos beruhen, und verglichen dies mit ihren eigenen Daten
 das Modell passte gut, lieferte aber noch bessere Ergebnisse, wenn man noch einen
recognition-task der ersten und letzten Items miteinbezog
 Den wohl stärksten Beweis für das Regellernen wurde von „Transferstudien“ geliefert, in denen
die Vpn eine bestimmte Grammatik anhand von einem Set an Items lernten (z.B. M, R, T, V und
X) und übertrugen dann dieses Wissen auf ein ganz anderes Set von Items (z.B. N, P, S, W und Z)
- unter diesen Bedingungen konnte Reber feststellen, dass die Vpn die gelernten Regeln gut auf
das 2. Set mit den ganz anderen Items transferieren konnten
 d.h. also, dass die Vpn in der Lage waren, ein abstraktes Bild der grammatischen Regeln zu
erlangen und diese dann auf andere Sequenzen zu übertragen
 Brooks & Vokey (1991):
- untersuchten ein weiteres Problem des Regellernens
- die Vpn liefern wahrscheinlich so gute Ergebnisse, weil die einzelnen Sequenzen gespeichert
werden, und sie die neue Sequenz nach der Ähnlichkeit mit den vorherigen Sequenzen beurteilen
 d.h. der Transfer könnte wahrscheinlich nur auf einem sehr abstrakten Level von Vergleich der
beiden Sequenzen beruhen
- z.B.: abbbxa
und
kyyyck  beurteilt diese beiden Sequenzen nach ihrer Ähnlichkeit (hier
Wiederholung von 3 Konsonanten in der Mitte, Buchstabe am Anfang und am Ende sind
identisch)
 die Sachlage scheint noch nicht ganz klar zu sein; daher können verschiedene Modell als richtig
angesehen werden
3. Ist unbewusstes Lernen möglich?
 Was genau ist eigentlich Bewusstsein?
 man kann nicht sagen, dass Bewusstsein ein einheitlicher Zustand ist (Marcel, 1993)
 um herauszufinden, ob Lernen unbewusst ist, wäre es hilfreich, die Vpn danach zu fragen, doch
diese würden dann natürlich ihr Bewusstsein auf den Lernprozess lenken  sinnlos
 eine möglicht wäre es aber, die Lernkapazität bei unterschiedlichen Bewusstseinszuständen zu
untersuchen (z.B. Schlaf, Anästhesie, Koma etc.)
- wenn mindestens in einem dieser Fälle Lernen nachgewiesen werden kann, dann könnte dies
helfen, die Beziehung zwischen Lernen und Bewusstsein aufzudecken
 es konnte bisher noch nicht eindeutig nachgewiesen werden, dass man während des Schlafs lernen
kann
- alle bisherigen positiven Ergebnisse kamen aus der damaligen Sowjetunion
- doch westliche Wissenschaftler konnten keine Beweise dafür liefern, wenn durch EEG
festgestellt wurde, dass die Vpn schliefen
 einige Untersuchungen, ob während der Narkose Lernen auftreten kann oder nicht (siehe Andrade,
1995)
 ist eine wichtige Frage, denn es wurde von einigen Patienten berichtet, die explizites Gedächtnis
für Ereignisse zeigten, die während der Narkose geschahen
 Levinson (1965):
- 10 Patienten, die zahnärztliche Behandlung unter Narkose hatten; ihre OPs wurden
mittendrin abgebrochen aufgrund irgendwelcher simulierten Ereignisse (z.B. sagt der Arzt:
„Ich will, dass die Operation sofort abgebrochen wird, da mir der Patient etwas krank
vorkommt; seine Lippen sind blau angelaufen, er braucht dringend Sauerstoff.“)
- obwohl die Patienten dies nicht direkt miterlebt haben, konnten einen Monat später 4
Patienten während der Hypnose genau berichten, was der Arzt während der OP gesagt hat; 4
weitere konnten zumindest einen Teil der Aussage reproduzieren (partial recall)
 Andrade (1995):
- konzentriert sich auf die Verwendung von Methoden zur Messung des indirekten bzw.
impliziten Gedächtnisses
- 4 Techniken, die implizites Lernen unter Narkose studieren
1. - beinhaltet Kategoriengeneration:
- es wird eine Kassette vorgespielt, auf dem Items einer bestimmten semantischen
mehrfach präsentiert werden  Vp soll Items aus dieser Kategorie erzeugen
Kategorie
 wenn Lernen
stattgefunden hat, sollte die Auftretenswahrscheinlichkeit der
präsentierten Items sehr hoch
- 9 Studien: 3 davon zeigten einen klaren Effekt, 5 Studien waren ergaben neg.
Ergebnisse
2. - assoziatives Priming:
- anästhesierten Personen werden Wortpaare oder Satz-Wort-Paare wiederholt
dargeboten,
anschließend wird recall getestet: Präsentation eine cue-Wortes oder -Satzes, dann
freie Assoziation
- 8 Studien: 2 zeigten positive Ergebnisse, 4 zeigten gar keinen Effekt
3. - versucht die spontane Reaktion der Vp durch gezielte Andeutungen zu beeinflussen:
- Bennett, Davis & Giannini (1985):
- Vpn sollten durch ein Ziehen an ihrem Ohrläppchen, nachdem sie das Bewusstsein
wieder-
erlangt haben, dem VL zeigen, dass sie ihn während der Narkose gehört haben
- in vielen Fällen kam es zu diesem Ergebnis,
4. - Studien, in denen Vpn positive Andeutungen während der Narkose gemacht wird, z.B.:
„Du bist sehr entspannt“ oder „Du wirst nach der Behandlung wieder sehr schnell zu
Bewusstsein gelangen“
- in 12 von 17 Studien wurden positive Ergebnisse erzielt  d.h. diese Technik ist
sehr gut anwendbar
 es gibt also während der Narkose Lernen, aber kann aufgrund von verschiedenen Problemen nicht
genau festgestellt werden, ob dieses Lernen unbewusst ist oder ob es während solchen Perioden des
Bewusstseins geschieht
IX. Klassifikation
Gedächtnis
deklarativ
(explizit)
episodisch
prozedural
(implizit)
semantisch
nicht-assoziatives
Lernen
Priming
(Bahnen,
Erwartung
Fertigkeiten und
Gewohnheiten
Klassische
Konditionierung
Instrum.
Konditionierung
Ged.inhalte werden entweder implizit (unbewusst) oder explizit (bewusst u. willentlich)
wiedergegeben;
Das implizite Gedächtnis ist nicht nur ein System, sondern ist eine Ansammlung von
verschiedenen Lernmechanismen
- beinhaltet Erinnerungen, die durch Verbesserung von Leistungen nachgewiesen werden können,
ohne dass die Person sich dessen bewusst ist
- Wissen über Techniken und Methoden zur Lösung von Aufgaben und Problemen
- prozedurales Wissen nicht allein über Sinnesorgane erworben, sondern auch auf Basis
wiederholter eigener Handlungsausführung
Dem gegenüber steht das explizite Gedächtnis: Erinnerungen, deren die Person sich bewusst ist
und die er verbalisieren kann, d.h. die Erinnerungen werden bewusst ausgedrückt
- die Gedächtnisinhalte (Fakten, Ereignisse, Begriffe, gesetzmäßige Zusammenhänge) werden also
intentional-willentlich wiedergegeben
 sind immer abrufbar
Wichtige Untersuchungen zu diesem Gebiet wurden durchgeführt von:
- Moscovitch, Goshen-Gottstein & Vriezen (1994), Roediger & McDermot (1993), Schacter
(1994),
Squire et al. (1993)
Wozu 2 verschiedene Gedächtnissysteme?
- das implizite entstand wahrscheinlich vor dem expliziten Gedächtnis; bei Amnesiepatienten
konnte festgestellt werden, dass sie bei impliziten Aufgaben sehr gut waren, jedoch ihre Leistung
sich verschlechterte, wenn wie ihr implizites Wissen auf untersch. Art anwenden sollten, was bei
Kontrollgruppe nicht der Fall war
- Explizites Gedächtnis erlaubt also flexiblen Gebrauch von Infos
1. Beweise fürs implizite Gedächtnis
Priming
= Einfluss eines Stimulus auf die Leistung des Verarbeitungssystems
- Warrington & Weiskrantz (1968):
- Amnesiepatienten, die in recognition-Aufgaben schlecht abschnitten, konnten gut lernen,
wenn ihnen ein Fragment des Wortes oder des Bildes gezeigt wird und sie das Wort oder das
Bild identi-
fizieren sollen
 Tabelle 20.1:
- Word stem completion: siehe Wortstamm-Ergänzung auf S.5
- Word fragment completion: Wort präsentiert, dann einige Buchstaben entfernt; Vp soll Wort
komplettieren
- Degraded word naming: Vpn liest Reihe v. Wörtern, Vpn sollen dann Wörter, die visuell
dargeboten werden, identifizieren  hauptsächlich Wörter aus der Liste
- Anagram solving: Wort (Elefant), Buchstaben dann zufällig angeordnet (Faelent)  Wort
Identifizieren  erneut werden Wörter aus der vorherigen Liste schneller identifiziert
- Lexical decision: sinnvolle u. -lose Wörter kategorisieren bekannte Wörter werden
schneller kategorisiert
 all diese Beispiele beinhalten visuelle Präsentation der Wörter
- Roediger & McDermott (1993):
- Priming wird durch physikalische Merkmale mehr beeinflusst als das episodische
Gedächtnis, welches mehr durch semantische Merkmale beeinflusst wird
- Studie von Graf & Mandler (1984): es gibt einen Zusammenhang zwischen der Art der Präsentation
und
der Art des Abrufens, wobei semantische Kategorisierung das episodische Gedächtnis
verbessert,
während visuelle Verarbeitung durch impliziten Gedächtnis erfolgt
Erwerb von Fertigkeiten
- es gibt einige Hinweise darauf, dass auch Amnesiepatienten motorische Fähigkeiten erwerben
können (Bsp.: H.M.)
- Brooks & Broadbent (1976):
- 2 Gruppen von Amnesiepatienten: 1 Gruppe leidet am Korsakoff Syndrom, die andere an den
Folgen der Enzephalitis;
- beide Gruppen waren in der Lage ihre Leistung in einer impliziten Aufgabe von Tag zu Tag
zu verbessern
- Nissen & Bullemer (1987):
- fanden heraus, dass Amnesiepatienten bei einer sequential response Aufgabe ihre Leistung
ver-
bessern, also lernen könnten, so gut wie nicht kranke Menschen
- wie zuvor schon gesagt, können Amnesiepatienten bei der künstlichen Grammatik-Aufgabe von
Reber genauso viel leisten wie die Kontrollgruppe (Knowlton, Ramus & Squire, 1992)
- ABER: wenn implizites Wissen in anderem Kontext angewandt werden sollte  schlechte Leistung
- was die intellektuellen Fähigkeiten anbelangt, sind Amnesiepatienten in der Lage auch bei der „Turm
von Hanoi“-Aufgabe zu lernen (Cohen, 1984)
Konditionierung
- bei Amnesiepatienten funktioniert die eye-blink Konditionierung, obwohl die Vpn die Prozedur nicht
beschreiben konnten
- Johnson, Kim & Risse (1985):
- präsentierten Amnesiepatienten eine Melodiesequenz eines unbekannten koreanischen
Musikstücks
- Vpn hörten einige Melodien wiederholt und sollten dann einschätzen, wie angenehm sie (die
wiederholte und die nicht wiederholte) Musik fanden
- Kontroll- und Experimentalgruppe schätzten die „alte“ Musik als angenehmer ein
 „preserved evaluative conditioning“
- doch trotz der Beweise für affektives Lernen bezüglich der Melodien waren die Patienten wieder
nicht in der Lage, den Stimulus davor zu erkennen
 sowohl klassische als auch evaluative Konditionierung kann trotz fehlendem rekollektivem (also
episodischem) Gedächtnis auftauchen
- auch bei Tieren, denen der Hippocampus entfernt wurde, konnten solche Effekte nachgewiesen
werden (Solomon & Moore, 1975)
X. Das semantische und episodische Gedächtnis
Die Unterscheidung zwischen semantischem und episodischem Gedächtnis repräsentiert 2
separate Systeme und nicht 2 verschiedene Arten von Operationen desselben Systems nämlich des
deklarativen bzw. expliziten Gedächtnisses (siehe auch: implizites Gedächtnis, da steht noch
einiges)
1. Das episodische Gedächtnis
das episodische bzw. rekollektive Gedächtnis ist von einem System abhängig, das schnelles
Lernen ermöglicht
neuropsychologisch gesehen scheint dieser Prozess von einem System abhängig zu sein, welches
die Temporallappen, den Frontallappen, den Hippocampus und das Diencephalon mit einschließt
 wird dieses System beschädigt, führt es zur Amnesie
episodisches Gedächtnis scheint die bewusste Wahrnehmung zu erfordern, wobei die Menge des
gelernten Materials sinkt, wenn die Aufmerksamkeit nachlässt (Baddeley, Lewis, Eldridge &
Thomson, 1984a).
episodisches Gedächtnis beinhaltet Fähigkeit sich an bestimmte individuelle Ereignisse und
Episoden zu erinnern
die Einprägung erfolgt im limbischen System (v.a. Hippocampus), Speicherung im cerebralen
Kortex (v.a. Assoziationskortex) und die Erinnerung im tempero-frontalen Kortex (rechts)
Humphrey (1993): sagt, dass Bewusstsein und vor allem explizites Gedächtnis sich entwickelt
haben, damit wir uns in unserer Umwelt zurechtfinden können
Die Fähigkeit, individuelle Ereignisse aufzurufen, hängt von 2 Dingen ab:
1. Fähigkeit, die Erfahrungen schnell miteinander zu verbinden
2. Fähigkeit, eine Erfahrung aus allen anderen aufzurufen
- daher müssen die einzelnen Ereignisse mit dem jeweiligen Kontext in Verbindung gebracht
werden („encoding specifity principle“ von Tulving zeigt, wie das genau funktionieren
könnte)
Clive Wearing: - ihm fehlt das episodische Gedächtnis
-
deshalb lebt er in einem ständigen Hier und Jetzt; hat Angst raus zu gehen, da er denkt, er
könnte sich verlieren; kann die Zukunft nicht planen; aber auch so einfache und
angenehme Sachen wie Bücher lesen oder Fernsehen funktionieren nicht, weil das alles
vom ep. Ged. abhängig ist
-
2. das semantische Gedächtnis
„Was ist die Hauptstadt von Italien?“, „Wann ist Weihnachten?“, „Wonach schmeckt
Orangensaft?“
 solche Fragen sind sehr leicht zu beantworten und spiegeln nur einen geringen Prozentsatz
unseres Wissens wieder, das wir ständig mit uns herumschleppen
- z.B.: unser Wissen über die Bedeutung v Wörtern
- ein durchschnittlicher Mensch kennt 20000-40000 Wörter
- unser geographisches Wissen, Wissen über Regeln, Farben und Formen verschiedener
Gegenstände etc.
daher hat das semantische Gedächtnis eine sehr wichtige Funktion in unserem Alltag
viele Studien dazu wurden durch die Sprache angeregt
the linguistic relativity hypothesis:
- Lennberg & Roberts (1956):
- ein nordamerikan. Indianerstamm (Zuni) benutzen für die Farben gelb u orange dasselbe
Wort
- konnten feststellen, dass sie diese Farben aber auch weniger gut unterscheiden können
- Brown & Lenneberg (1954):
- 2 Vp-Gruppen, Farben präsentiert; 1 Gruppe sollte die Farben benennen, die andere sollte
sich an die Farben erinnern
- bestimmten Farben wurden dieselben Namen gegeben („focal colors“= also die Grundfarben
wie rot, grün und blau), andere wiederum wurden von verschiedenen Vpn unterschiedlich
benannt
- bei der Gedächtnisleistung (2.Gruppe) stellte sich heraus, dass die focal colors viel einfacher
gemerkt werden konnten als solche, denen verschiedene Namen gegeben wurden
- Interpretation:
- diese und andere Studien weisen daraufhin, dass es nicht an der Sprache liegt, dass manche
Farben einfacher erinnert werden als andere, sondern genau umgekehrt
 die focal colors sind einfacher zu erinnern als Mischfarben wie orange, türkis oder
magenta; d.h. die Wahrnehmung beeinflusst die Sprache, nicht umgekehrt
Konzepte: Merkmale oder Prototypen?
- Konzepte = Art und Weise, wie wir die Welt kategorisieren, um es zu verstehen und darüber zu
reden z.B. HUND: durch dieses Konzept können wir uns auf verschiedene Rassen beziehen
- DOG ist dann natürlich mit solchen übergeordneten Konzepten wie TIERE oder HAUSTIERE
verbunden
- Konzepte beschäftigten schon Aristoteles, der der Meinung war, dass wir unsere Wörter logisch
so definieren sollten, dass wir Verständnisfehler vermeiden
- dieses Modell von Aristoteles (siehe Baddeley, Abb. 13.1) wurde später von
Sprachwissenschaftlern und Psychologen (Colling & Quillian, 1969) übernommen
- viele Theorien gehen davon aus, dass Konzepte eine Kombination von semantischen Merkmalen
sind (wie z.B.: Merkmale des Vogels: hat Federn, legt Eier usw.)
- 2 Annahmen bezüglich des Zusammenhangs zwischen Konzepten und Merkmalen:
- classical theory: ein Item ist nur dann ein Beispiel für ein Konzepte, wenn alle nötigen
Definitionsmerkmale passen
z.B. ein Quadrat hat 4 Merkmale:
- ist eine geschlossene Figur, hat 4 Seiten, alle Seiten gleich lang, alle Winkel gleich
lang
- jedes Objekt, das diese Merkmale erfüllt, ist ein Quadrat, und jedes Quadrat muss
diese Merkmale erfüllen
- doch in der Natur ist alles viel komplexer (denkt an den Vogel)
- prototype theory: charakterisiert Konzepte nach typischen oder Hauptmerkmalen, die alle
Mitglieder dieser Kategorie gemein haben
- McCloskey & Glucksberg (1978):
- Vpn wurden Kategorienamen gegeben (z.B. Früchte, Gemüse etc) und sollten dann
vorgegebenes Material in die jeweiligen Kategorien einordnen
- manche Objekte wurden, je nach Anlass, in verschiedene Kategorien eingeordnet,
andere
wiederum nur in eine Kategorie (z.B. Tomate: je nach Verwendung war es mal eine
Frucht, dann wieder ein Gemüse)
Frage: warum passen manche Beispiele in die prototypische Theorie und andere wiederum nicht?
- liegt daran, dass gute Beispiele einer Kategorie mehr Gemeinsamkeiten aufweisen mit anderen
Beispielen dieser Gruppe, wohingegen ein schlechtes Beispiel einer Kategorie nur wenig gemein hat
mit anderen Beispielen dieser Gruppe
3. Ein Modell zum semantischen Gedächtnis: semantic network theories
Der Computerspezialist Quillian entwickelte ein Programm, dass Texte versteht (TLC genannt)
ABBILDUNG 13.3
- dieses funktionierte wie das semantische Gedächtnis
- auch dieses Modell nimmt an, dass Konzepte mit Merkmalen verknüpft sind, doch Quillian geht
nur von einer Verbindung aus, und es ist ein psychologisches und kein logisches Modell
Funktionsweise:
- geht von einer hierarchischen Anordnung der einzelnen Links zwischen den Konzepten aus
- Konzepte = Knotenpunkte im Modell, die mit verschiedenen Merkmalen verbunden sind
1 wichtiges Merkmal dieses Modells ist die Annahme der cognitive economy = Merkmale, die für
eine ganze Reihe von Konzepten gelten, werden auf dem höchsten Level gespeichert
z.B.: weil die meisten Vögel fliegen können, sollte man die Eigenschaft des Fliegens allgemein
den Vögel anhaften, und nicht jedem fliegenden Vogel  ist viel sparsamer
z.B.: „Canaries can fly“  dies soll verifiziert werden:
2 Stufen:
1. Klarmachen, dass Canaries Vögel sind
2. dass Vögel fliegen können
 dies zu verifizieren dauert in der Regel länger als „Canaries are birds“
wenn es sich auf Tiere allgemein bezieht  länger, denn da müssen 3 Knotenpunkte abgegangen
werden (Canary, Bird, Animal)
 untersucht von Collins & Quillian (1969):
- 2 Aussagekategorien präsentiert:
1. Mitgliedschaft
2. Eigenschaften des vorgegebenen Beispiels
1. entweder ist es ein Statement über dasselbe Level (Canary is a canary) oder einem Level darüber (A
Canary is a bird) oder 2 Level darüber (A Canary is an animal)
 Satzverifikation dauert sehr lange
2. Sätze über Eigenschaften bestimmter Beispiele:
- wieder im gleichen Level, weil die Eigenschaft nicht für alle Items in dem darüber liegenden
Level gelten (Canaries can sing), oder einem Level darüber (Canaries have wings) oder 2
Level darüber (A Canary has a skin)
ABBILDUNG 13.4:
- Vorhersagen des TLCs waren weitgehend richtig
ABER:
- das Modell ist nicht so gut wie es scheint
- Carol Conrad hat durch ein Experiment gezeigt, dass man die Ergebnisse von Collins & Quillian
auch auf semantische Verwandtheit zurückführen kann
 sollten genauer erklären, wieso das ihrer Meinung nach nicht gilt
weitere Probleme:
a)das TLC-Modell geht davon aus, dass alle Links gleich stark sind  kann aber nicht erklären, wieso
ein prototypisches Beispiel einer Kategorie einfacher zu verifizieren ist als ein atypisches Beispiel
z.B.: der Link zwischen BIRD und canary ist äquivalent zu dem zwischen BIRD und ostrich,
jedoch dauert es länger den Satz „An ostrich is a bird“ zu verifizieren als „a canary is a bird“;
Warum??
b) es kann weiterhin die Effekte der Ähnlichkeit negativer Antworten nicht erklären
- das Modell sagt aus, dass, wenn zwischen Knotenpunkten kein Link vorhanden ist, die Vpn dann
mit Nein antworten sollte;
ABER: das Modell kann nicht erklären, wieso die Entscheidung, dass ein Pudel kein Vogel ist,
länger dauert als die Entscheidung, dass ein Pudel kein Mineral ist
c) Ripps, Shoben & Smith (1973):
- das Modell wurde auf logischer Basis konstruiert und nicht auf empirischen Beweisen
 wie soll man sich dafür entscheiden, wo die einzelnen Knotenpunkte liegen?
z.B.: das Konzept PET  wie sollte man dies in das Modell einfügen?
Das Modell von Quillian ist historisch gesehen sehr wichtig, denn es war das erste
Computerprogramm, dass versuchen sollte, Sprache zu verstehen; doch es gibt sehr wenige Beweise
dafür, dass das low-level cognitive economy, wie von Quillian vorhergesagt, wirklich im
semantischen Gedächtnis auftritt
XI. Das Alltagsgedächtnis
1. Das autobiographische Gedächtnis
= recall der Ereignisse aus unserem Leben;
beinhaltet die aktive Komponente des retrieval Prozesses: recollection = Erinnerung
Wie man das autobiographische Gedächtnis untersucht?
1) Galton´s cuing technique (1883)
- Vpn wird ein cue-Wort präsentiert (z.B. river)  sollen sich an persönliche Erfahrungen zu
diesem Thema erinnern  Vp erzählt; Aussagen werden nach bestimmten Charakteristika
aufgeschrieben
- doch diese Technik ist nur begrenzt anwendbar: denn wenn man der Vpn diese Instruktion erteilt,
wird sie sich an alle möglichen Ereignisse erinnern
 deshalb wurden strukturierte Techniken entwickelt wie z.B.:
2) the autobiographical memory schedule von Kopelman, Wilson & Baddeley (1989)
- Vpn werden nach persönlichen Infos und Ereignissen aus verschiedenen Perioden ihres Lebens
befragt
ABBILDUNG 12.1
- Leistungen von normalen Personen und solchen, die unter verschiedenen Formen der Amnesie
leiden
- sieht, dass die Leistung der Amnesiepatienten wesentlich schlechter als die der normalen Vpn
sind, wobei sie auch einen größeren Defizit bei jüngsten Ereignissen haben
- hohe Korrelation zwischen der Leistung des recalls von sachlichen Aspekten und der Erinnerung
an persönliche Ereignisse  recall der sachlichen Daten liefern einen guten allgemeinen Hinweis
auf die Fähigkeit der einzelnen Personen sich an persönliche Ereignisse zu erinnern
3) Recollecting diary entries
- die Verifizierung der Erinnerung stellt ein großes Problem in Galtons Technik dar, weshalb viele
Forscher ihre eigenen Vpn waren und regelmäßig Tagebuch führten, z.B. Linton (1975)
- Nachteile des Tagebuchführens dieser Art:
1. es werden nur Ereignisse aufgeschrieben, von denen man glaubt, dass sie wichtig sind
unvollständig
2. es sind nur die Einträge einer Person
- Brewer (1988):
- 10 Vpn, versehen mit Aufnahmegeräten und Piepser; Piepser wurden durchschnittlich alle 2
Stunden aktiv  notieren, was sie zu dem Zeitpunkt machten, wie wichtig die Aufgabe war und
wie häufig es dazu kam, wie sich die Vp fühlte etc.
 recall des Ereignisses nach 0, 23 oder 46 Tagen mit cues wie Zeitpunkt, Ort usw.
 ließen vieles aus, wenn sie sich an nichts mehr erinnern konnten (190); viele Fälle, in denen das
falsche reproduziert wurde (118); viele richtige Ereignisse (109); kaum Fälle, in denen zwar das
richtige Ereignis reproduziert wurde, aber mit falschen Infos
The feeling of knowing
Bsp: Tip-of-the-tongue effect
- eins der am besten untersuchten Aspekte der bewussten Erinnerung ist das des state of mind, wobei
die Vpn wissen, dass sie etwas wissen, es aber nicht reproduzieren können  feeling of the knowing
- Hart (1965) stellte fest, dass wenn dieses Gefühl sehr groß ist, die Person es aber nicht reproduzieren
kann, sie es dann aber mit größerer Wahrscheinlichkeit wieder erkennen kann als wenn das Gefühl
sehr schwach ist
 dasselbe bei tip-of-the-tongue (TOT) effect, wenn wir versuchen, ein bestimmtes Wort zu erinnern,
es aber nicht können
- Brown & McNeill (1966):
- lasen Vpn Definitionen seltener Begriffe vor, Vpn sollten den Begriff nennen
- wenn Vp Wort nicht nennen konnte, aber dieses feeling of knowing hatte, sollte sie kurz
aufhören und so viele Informationen wie möglich über das Wort nennen  waren darin sehr gut,
auch wenn sie sich an das Wort selbst nicht erinnern konnten
Strategien des Erinnerns
- wenig Untersuchungen dazu
- Williams & Hollan (1981)
- nennt so viele Namen wie möglich von Kindern, mit denen ihr auf einer Schule wart
- Vpn sollten das über eine längere Zeit versuchen
ABBILDUNG 12.3
- sie konnten sowohl viele korrekte als auch falsche Namen nennen
- Vpn versuchten sich folgendermaßen zu erinnern:
- erzeugen zuerst den relevanten Kontext (also Schule), durchsuchen dann die Schule nach
bestimmten Namen
- Brown, Lewis & Monk (1977)
- untersuchten das Phänomen „negative recognition“ = die Fähigkeit, dass wir in bestimmten
Fällen genau wissen, dass etwas nicht passiert ist
- fanden zuerst heraus, in welcher Stadt die Vpn aufgewachsen sind; dann eine ganze Reihe von
Städtenamen (nicht ihre eigene Stadt) präsentiert
- erhielten später einen recognition Test, der auch ihre Stadt enthielt;  wussten ganz genau, dass
ihre Stadt zuvor nicht präsentiert wurde, mit der Begründung, dass es ihnen sofort aufgefallen
wäre
Vergessen autobiographischer Ereignisse
- es gab einige Gruppenstudien zum autobiograph. Ged., die sich der Technik von Galton bedienten
- Rubin, Wetzler & Nebes (1986):
- untersuchten die Beziehung zwischen verstrichener Zeit und der Wahrscheinlichkeit dass ein
bestimmtes Ereignis spontan erweckt werden kann durch ein zufälliges cue
- Rubin (1982):
- 18jährige Vpn; generelle Tendenz, dass ältere Erinnerungen weniger häufig reproduziert werden;
- unter dem Alter von 5 Jahren fällt die Kurve wesentlich steiler ab  dies nennt man:
1) „infantile amnesia“
- gut untersucht, aber Interpretationen gehen leider auseinander
- Interpretation Nr.1: behauptet, dass ein entscheidender Aspekt des Gedächtnisses in dem Alter noch
nicht
entwickelt ist, weshalb Kleinkinder wie Amnesiepatienten sind (Moskovitch, 1985)
- Interpretation Nr.2: der entscheidende Aspekt ist das Fehlen der Sprache in ganz jungen Jahren
- Interpretation Nr.3: die Wahrnehmung der Erwachsenen ist so verschieden von denen der
Kleinkinder, dass
wir als Erwachsene einfach keinen Zugriff mehr auf diese Infos aus unserer
frühen Kindheit mehr haben
- Interpretation Nr.4: kommt von Freud (1901) und besagt, dass unsere frühen Erfahrungen durch
emotionale
Gründe verdrängt werden
- Sheingold & Tenney (1982):
- untersuchten die Fähigkeit der Kinder, sich an die Geburt eines jüngeren Geschwisterchens zu
erinnern
- konzentrierten sich dabei auf Kinder, die zwischen 3 und 11 Jahren waren, als das
Geschwisterchen auf
die Welt kam; testeten Kinder im Alter von 4, 6, 8 und 12 Jahren und auch
Collegestudenten
- es wurden eine Reihe von allgemeinen Fragen gestellt, die durch 37 spezifische Fragen noch
ergänzt wurden (z.B.: wie lange war Mutter im Krankenhaus, wer hat sich in der Zeit um das Sie
gekümmert; Bekam das Kind Geschenke; usw.)
- die Vpn konnten im Durchschnitt 12 Fragen beantworten
2) autobiographical recollection cuing
- wie gut werden also autobiograph. Ereignisse erinnert?
- wir haben bis jetzt verschiedene Ergebnisse kennengelernt, die entweder gar keine nur sehr schlechte
Erinnerung nachwiesen (Brewer) oder sehr gute recall-Leistungen lieferten (s.o.)
Gründe:
a) das liegt aber zum einen an der Wichtigkeit der einzelnen Ereignisse: Geburt ist ein sehr wichtiges
Ereignis für ein Kind, wobei solche Ereignisse, die Brewer untersuchte, weitaus weniger
einschneidend waren
b) wichtig ist auch die Anzahl der cues:
- Hudson & Fivush (1987):
- untersuchten free und probed recall bei 5jährigen Kindern, die ein archäologisches Museum
besucht hatten
- nach 6 Wochen, 1 Jahr und 6 Jahren wurden sie danach befragt
- zuerst wurden allgemeine Fragen (cues) gestellt, dann immer spezifischer (z.B. „Erinnerst du
dich daran, dass es ein archäologisches Museum war?“) und schließlich wurden auch einige Fotos
des Besuchs gezeigt
- durch die speziellen cues konnten die Vpn 87% der Fakten reproduzieren
3) autobiographical distortion (Verzerrung, Trübung)
- die bisher beschriebenen Untersuchungen lassen vermuten, dass es keine Trübung der Erinnerung
gibt, wenn zumindest die richtigen cues dargeboten werden  doch distortion tritt dennoch auf (z.B.
bei Augenzeugenberichten)
- ein wichtiger Faktor ist die Art der erinnerten Ereignisse; die Tagebuch-Studien und die
Untersuchungen von Kindern beinhalteten herausstechende Ereignisse
- weiterhin werden von den Vpn nicht sehr detaillierte Beschreibungen der Ereignisse verlangt
- 3. sind die dazugehörigen emotionalen Faktoren sehr wichtig
- Neisser (1982):
- untersucht die Richtigkeit und die Genauigkeit der Erinnerungen; hier die Aussagen des
Watergate-Verschwörers John Dean
- während der Watergate Untersuchungen erzählte Dean sehr ausführlich über seine Gespräche mit
President Nixon; die Aussage war aber so ausführlich, dass die Presse ihn mit „der Mann mit
einem Aufnahmegerät im Gehirn“ betitelte
- Neisser konnte feststellen, dass die Aussagen, wenn sie sehr weitläufig waren, weitgehend richtig
waren; doch wenn er sich detaillierter auslassen sollte, kamen sehr viele Fehler auf
 seine Aussagen waren also richtig in Bezug auf das Gesamtgeschehen, aber nicht genau
die meisten Erinnerungen sind im Grunde fehlerfrei; Fehler tauchen auf, wenn wir uns mit
aller
Kraft an ein Ereignis detailliert zu erinnern versuchen; dadurch entstehen
diese Verzerrungen in
unserer Erinnerung
2. flashbulb memories
diese Bezeichnung kommt von Brown & Kulik (1977)
- Vpn wurden gefragt, ob sie reproduzieren könnten, wie sie von der Ermordung John F. Kennedys
oder von der Ermordung Abraham Lincolns 1889 gehört hatten; im letzten Beispiel konnten von
179 Personen 127 genaue Angaben darüber machen, wo sie sich zu dem Zeitpunkt aufhielten und
was sie gerade machten
- es wurden insgesamt 10 Fragen zu solchen dramatischen Ereignissen gestellt
- viele dieser Ereignisse wurden von lebhaften Erinnerungen begleitet; je einschneidender dieses
Geschehen, desto größer die Wahrscheinlichkeit einer lebhaften „flashbulb“ (Blitzbirne
(Fotografie)) Erinnerungen
doch Neisser betonte, dass solche lebhaften Erinnerungen nicht auch immer die genauesten
Erinnerungen sind wie man dies auch in Augenzeugenberichten erlebt
3. Augenzeugenberichte
in Augenzeugenberichten ist die Genauigkeit der Aussagen sehr wichtig
es ist schwer die Richtigkeit solcher Aussagen einzuschätzen
Fehler tauchen nicht nur in solchen Fällen auf, in denen z.B. das Gesicht des Täters nur kurz
gesehen wurde, sondern auch bei Objekten oder Ereignissen, die man sehr häufig sieht
J.McKeen Cattell berichtete 1895 von einer Studie, in der Studenten eine Reihe von Fragen
gestellt wurde, z.B.:
- Verlieren Kastanienbäume oder Eichen ihre Blätter im Herbst früher? Nur 59% der
Studenten wussten, dass Kastanienbäume früher ihre Blätter verlieren.
- Stehen Pferde auf der Weide mit dem Kopf oder mit dem Schwanz gegen den Wind? Dass
die Pferde mit dem Schwanz gegen den Wind stehen, wussten 64%.
- In welche Richtung zeigen die Kerne eines Apfels? Nur 39% wussten, dass die Kerne
Richtung Stiel zeigen
Nickerson & Adams (1979):
- untersuchten, mit welcher Genauigkeit man sich an allgemein erlebte Dinge erinnern kann
- amerikanische Vpn sollten aus dem Gedächtnis heraus malen, was auf beiden Seiten eines US
penny´s abgebildet ist;
- nur 3 der 8 entscheidenden Merkmale konnten reproduziert werden, und diese waren oftmals
auch falsch platziert
 was wir in solchen Fällen reproduzieren sind nicht das, was wir erleben, sondern das, was wir
diesen Erfahrungen entwenden
Das Erkennen von Gesichtern ist in Augenzeugenberichten sehr wichtig
Ein Komitee, das von Lord Devlin 1976 gegründet wurde, veröffentlichte einen Bericht, der sich
mit Gegenüberstellungen und Augenzeugenberichten befasste; 2000 Gegenüberstellungen in
England und Wales im Jahre 1973; insgesamt in 45% dieser Fälle konnte ein Verdächtiger
herausgesucht werden, 82% dieser Verdächtigen wurden dann auch verurteilt; so ähnlich war es
bei Augenzeugenberichten
Doch muss gesagt werden, dass solche Berichte sehr oft sehr verzerrt und ungenau sind
Wenn wir versuchen, eine verbale Beschreibung des Täters zu bekommen, ist es meist nur von
geringem Wert; auch Phantombilder, erstellt von Profis, sind nur dann gut, wenn auch die Aussage
des Augenzeugen gut ist
Ein weitere Lösung ist das PHOTOFIT; es beinhaltet eine Box mit verschiedene
Gesichtsmerkmalen (Augen, Nasen etc.); zusammen mit dem Augenzeugen wird versucht, ein
Bild des Verdächtigen zu entwickeln;
- doch wie einige Forscher herausfanden, eignet sich dieses Verfahren nur sehr wenig
- wie schon gesagt, haben viele Menschen auch dann Schwierigkeiten, wenn sie ein ihnen
bekanntes Gesicht beschreiben sollen
- wenn man dann noch bedenkt, dass Täter oftmals ihr Gesicht verändern (mit Masken, Perücken
etc.), dann wird die Identifikation umso schwieriger
4. Das prospektive Gedächtnis
Weshalb vergessen wir z.B. einen Termin einzuhalten oder Besorgungen zu machen etc.?
Dies hat was mit dem prospektiven Gedächtnis und den darin liegenden Prozessen, die für
Vergessen verantwortlich sind, zu tun
Charakteristika des prospektiven Gedächtnisses:
1. Prospektives Erinnern scheint mit unserem Leben in Verbindung zu stehen
2. der cuing Effekt: helfen uns dabei, uns an unsere Aufgaben zu erinnern
3. der Grad der Verlegenheit, der durch diesen Vorfall verursacht wird  wir vergessen Dinge,
die für uns nicht sehr wichtig erscheinen oder die wir nicht mögen
prospektives Gedächtnis
- wenn etwas gemerkt werden soll
retrospektives Gedächtnis
- was gemerkt werden soll
- wenig Infogehalt: man soll sich nur merken,
dass man sich mit einem Freund trifft, aber nicht
was man ihm sagen wird
- prospektives Vergessen scheint eine starke
moralische Komponente zu haben, welche oftmals
Verlegenheiten zur Folge hat ( zeigt die Bedeutung
für das Sozialleben)
- hat mit der Menge der Information
etwas zu tun
- retrospektives Vergessen ist in diesem
Punkt sehr
neutral
obwohl sich an etwas zu erinnern etwas ganz anderes ist als das verbale Langzeitgedächtnis, ist ein
intaktes Langzeitgedächtnis dennoch wichtig für erfolgreiches prospektives Erinnern
Rivermead Behavioral Memory Test = Test für Alltagsgedächtnis, um Probleme von Patienten zu
überwachen; enthält eine ganze Reihe von prospektiven Gedächtnisaufgaben
- Patienten, die Gedächtnisdefizite aufweisen, erbringen nur sehr schlechte Leistungen in diesem
Test (so schlecht, wie bei verbalen Aufgaben, wie z.B. das Erinnern an Namen)
Bei Untersuchungen des prospektiven Gedächtnisses werden häufig Tagebuchstudien verwendet,
in denen Vpn notieren sollen, was sie vergessen haben
Meacham & Kushner (1980):
- wenn die Absichten mit anderen Menschen zu tun haben, z.B. Treffen mit nem Freund, dann
werden diese weitaus weniger vergessen als solche, die mit irgendwelchen Gegenständen zu tun
haben z.B. Brief abschicken
Ellis (1988):
- 2 Arten des prospektiven Gedächtnisses:
- pulses = beinhaltet das Bedürfnis/die Erfordernis, sich zu einer bestimmten Zeit an etwas zu
erinnern, z.B. Zahnarzttermin um 4 Uhr nächsten Dienstag
- steps = sich an etwas erinnern, dass innerhalb eines breiteren Zeitraums gemacht werden
muss
 pulses werden besser erinnert, als wichtiger eingestuft als steps
XII. Vergessenstheorien
Erinnerung: Ebbinghaus und die Vergessenskurve, sowie die Ersparnismethode!!!
1. Die Vergessenskurve
Namen und Gesichter:
- wie sieht Kurve aus, wenn unter natürlichen Bedingungen getestet?
- Bahrick, Bahrick & Wittlinger (1975):
- Gedächtnis für Namen und Fotos von Klassenkameraden untersucht
- verschiedene Untersuchungsarten
- einige Vpn zeigten auch nach 25 Jahren fast kein Vergessen
- wenig Vergessen trat auf bei der Fähigkeit Namen von alten Klassenkameraden unter fremden
Namen,
und ihre Fotos zu erkennen
- Reproduktion der Namen und Zuordnen der Namen zu Bildern sehr schlecht
- Kurve:
- Vergessenskurve hier fast linear, wenn es in Logarithmen ausgedrückt wird
- ABER: Absinken der Kurve bei Vpn, die das längste Behaltensintervall hatten (ca.50 Jahre) ob
dies mit der verstrichenen Zeit oder mit dem Alter der Vpn zu tun hat, ist nicht klar
- wenn man sich an flüchtige Bekannte erinnern soll, ist die allgemeine Leistung (wie Bahrick in einer
anderen Studie feststellte) wesentlich schlechter, aber Namen besser erinnert als Gesichter
Komplexe Fähigkeiten
- kaum Vergessen bei kontinuierlichen motorischen Fähigkeiten (Fahrrad fahren, Auto fahren etc.), in
denen die Vpn Teil eines kontinuierlichen feedback-Schleife der Aktivität ist
- diskrete motor. F. wie z.B. Schreibmaschinenschreiben, bei denen ein individueller Reiz mit einer
spezifischen Antwort assoziiert werden muss  hier vermehrt Vergessen vorhanden
Autobiographische Ereignisse
-
das Behalten von täglichen Ereignissen untersucht von Marigold Linton (1975), die
täglich über 5 Jahre hinweg 2 Ereignisse aufschrieb  zu bestimmten Intervallen wurde
dann zufällig eine Reihe von Items rausgesucht, die sie genauestens datieren sollte; wenn
dies nicht möglich war, so wurden diese Items aus dem Set eliminiert und notiert 
Vergessenskurve war linear, mit einem Abfall von 5% pro Jahr und nicht logarithmisch
wie die Vergessenskurve von Ebbinghaus
die klassische Vergessenskurve von Ebbinghaus ist nicht allgemeingültig; doch sind wir jetzt
noch nicht in der Lage, die oben beschriebenen Ergebnisse vollständig zu interpretieren
2. Die Rolle der Interferenz
McGeoch & McDonald (1931)
- manipulierten systematisch Interferenz durch Variation der Ähnlichkeit zwischem dem Material,
das reproduziert werden soll und der interferierenden Aktivität
- Vpn lernten Liste mit Adjektiven bis sie es perfekt wiedergeben konnten
- danach gab´s entweder eine Pause oder lernten neues Material, das so ähnlich war wie die alte
Liste
- je ähnlicher beide Listen wurden, desto kleiner wurde die Menge, die behalten wurde;
schlechteste Leistung dann, wenn sie Synonyme originalen Adjektive lernen sollten 
Unterstützung für Interferenz-Hypothese
- ich lasse proaktive und retroaktive Interferenz und Release from PI aus, da ich diese Punkte schon
ziemlich ausführlich in Kapitel 4 erläutert habe; wer dennoch mehr erfahren möchte, lese es noch mal
nach
Was bestimmt die Vergessensrate?
- Underwood & Postman (1960)
- untersuchten die extra-experimentelle Interferenz-Hypothese ( = also dass Personen, die noch
nie mit sinnarmen Silben in Kontakt gekommen sind, innerhalb von 24 diese wieder vergessen): keine
Unterschiede in der Vergessensrate
aufgrund unterschiedlichen Materials
- egal ob die Vpn häufig oder selten gebräuchliche Wörter lernen mussten, ob es Silben waren,
die dem
Englischen ähnlich oder fremd waren (z.B. bal oder zij): diese hatten zwar einen
großen Effekt auf das
Lernen an sich, aber keinen Effekt auf die Vergessensrate
- Slamecka fand heraus, dass die Anzahl der Items, die pro Zeiteinheit vergessen werden, nicht von
Anfangslernen abhängig ist (auch bestätigt von anderen Experimentatoren)
Cue abhängiges Vergessen
- neuere Studien zur Interferenz beschäftigen sich mit der Frage, ob Interferenz den Wettbewerb
zwischen den Antworten reflektiert oder ob es die aktive Schwächung der ersten Antwort durch die
zweite Antwort darstellt
- man favorisierte die letztere Variante  weil viele Studien zeigen konnten, dass das Lernen eines 2.
Sets die Fähigkeit der Vp blockiert, das vorherige Material zu reproduzieren
- alternative Hypothese von Tulving
- Vergessen tritt auf, weil keine passenden cues dargeboten werden und nicht weil vorheriges
Material
überschrieben wird  demnach müsste das vergessene Material wieder reproduzierbar
sein, wenn
entsprechende cues geliefert werden
- Tulving & Psotka (1971): cue abhängiges Vergessen bei retroaktiver Interferenz (RI)
- Liste mit 24 Wörtern lernen; 6 verschiedene Kategorien á 4 Wörter; nach 3maligem Präsentieren
versuchten Vpn so viele wie möglich zu reproduzieren; dann 2. Teil des Experiments: entweder 0,
1, 2, 3, oder 5 weitere Listen lernen, 3x Präsentation und wieder immediate free recall; 3.Teil: Vpn
sollten so viele Items wie möglich aus allen Listen wiedergeben
- deutlicher Beweis für RI: je mehr Listen, desto schlechter die Leistung
 weil Vpn ganze Kategorien vergessen
- nach 10minütiger Pause wurden Vpn die Kategoriennamen präsentiert  cued recall
 hier Leistung so gut wie beim ersten free recall
 für nähere Infos zum Retrieval Fehler im Vergessensprozess siehe Kapitel 1
XIII. Wissenrepräsentationen
Wichtig: hierzu gehören auch Propositionen und mentale Vorstellungsbilder, die ich im Kapitel VI
beschrieben habe
Repräsentation = Bezeichnung oder Zeichen oder Reihe von Symbolen, die etwas darstellen; steht
oft in für Aspekt der externen Welt oder Objekt unserer Vorstellung
Externe Repräsentationen: Mappen, Menüs, Bilder, geschriebene Skripte
Repräsentationen
external
bildlich
internal
sprachlich
symbolisch
verteilt
analog
propositional
Objekt
Relationen
Schemata
1. propositionale Darstellung
Ist eine gängige Methode zur analysierenden Darstellung/Beschreibung bedeutungshaltiger Infos
Proposition ist ein linguistischer Begriff = ist die kleinste Wissenseinheit, die eine selbständige
Aussage bilden kann
z.B.: Lincoln, der Präsident der Vereinigten Staaten während eines bitteren Krieges war, befreite
die Sklaven
- die Info des Satzes lässt sich auch mit folgenden einfacheren Sätzen ausdrücken:
a) Lincoln war der Präsident der Vereinigten Staaten während eines Krieges
b) der Krieg war bitter
c) Lincoln befreite die Sklaven
Wäre eines dieser Sätze falsch, wäre auch der komplette Satz nicht wahr; die einfachsten
entsprechen den Propositionen, die der Bedeutung des komplexen Satzes zugrunde liegen; jede der
einfachen Sätze drückt eine primitive Bedeutungseinheit aus (propositionale Darstellung)
Es liefert aber keinen empirischen Nachweis, das der Mensch einfache Sätze wie a)-c) im
Gedächtnis speichert
Info scheint eher im Gedächtnis so repräsentiert zu sein, dass die Bedeutung der elementaren
Aussagen, aber nicht der exakte Wortlaut erhalten bleibt
Propositionale Analysen stellen das Erinnerungsvermögen für komplexe Sätze anhand einfacher
abstrakter propositionaler Einheiten dar
Propositionale Info lässt sich auch in Netzwerken darstellen, die die Assoziationen zwischen
Konzepten repräsentieren  je näher sich zwei Wörter im Netzwerk stehen, desto eher werden sie
miteinander in Verbindung gebracht
ABBILDUNG VON SEITE 28 (aus dem anderen Skript)
2. Schemata
Bartletts Konzept der Schemata (1932)
- entwickelte eine Interpretation des Gedächtnisses: Vpn erinnern neu gelerntes Material in
bestimmten Strukturen, die er Schemata nannte
- das Konzept der Schemata wurde eigentlich von einem Neurobiologen, Henry Head, geliefert
- nach Bartlett sind Schemata organisierte Strukturen, die sich auf unser Wissen und unsere
Erwartungen bestimmter Aspekte der Welt beziehen  sozusagen ein Model über unsere Umwelt und
unsere Erfahrungen
es sind generelle begriffliche Rahmen oder Wissensstrukturen, die Vorannahmen über bestimmte
Gegenstände, Menschen, Situationen und die Art ihrer Beziehungen enthalten
viele Konstruktionen und Verzerrungen beim Erinnern resultieren daraus, dass neue Infos im Licht
der Erwartungen bereits existierender Schemata interpretiert werden
Schemata sind sehr bedeutsam bei der Organisation und Sinngebung von Details und beim
Erinnern von Einzelheiten  werden oft aufgrund fehlenden Verständnisses unwissentlich
zugunsten vorhandener Schemata verändert
dies geschieht auf 3 Arten:
a) nivellieren = Geschichte vereinfachen
b) akzentuieren = bestimmte Details hervorheben
c) assimilieren = Einzelheiten so verändern, dass sie besser passen
wir verstehen Texte, indem wir die eingehenden Infos auf unsere vorhandenen Schemata beziehen
 werden aktiviert durch spezielle Wörter und Kontexte
Vorteile von Schemata:
- Vorteil besteht darin, dass sie den Erklärungswert von propositionalen Repräsentationen teilen und
zugleich globale und vielschichtige Objekte in einer einheitlichen Weise repräsentieren können;
- Schemata sind dynamisch und veränderbar
- können untergeordnete Schemata mit einschließen (z.B.: unter dem Schema Restaurantbesuch
kommt das Schema bezahlen); es enthält Leerstellen, die je nach Info mit konkreten Werten besetzt
werden (Instantiierung)
- das aktivierte Schema richtet die Aufmerksamkeit auf relevante Aspekte; es ist möglich, fehlende
Infos zu aktivieren bzw. Inkonsistenzen im Text zu glätten  oftmals werden daher Details
hinzugedichtet, die gar nicht in einer Geschichte/einem Erlebnis vorkamen
3. Skripte
Schank & Abelson (1977) nehmen an, dass wir Schemata und Skripte erstellen, die allgemein
erlebte soziale Ereignisse wie z.B. den Bus erwischen oder ins Restaurant gehen repräsentieren
- das ermöglicht es uns, eine Menge Detail einzufügen
- z.B. Skript für Restaurantbesuch: reingehen  Tisch aussuchen  Karte lesen  Bestellen 
Essen  Bezahlen  Gehen …
ABBILDUNG 13.4
- zeigt, wie so ein Skript genau aussehen würde (zur Geschichte „War of the Ghosts“)
- das Skript können wir verstehen, da wir selber in Restaurants gehen
- jemand der in der Wüste lebt etc. kann es nicht verstehen
- Skripte = sind Möglichkeiten, allgemeingültige kulturelle Annahmen zu beschreiben  sind daher
sehr hilfreich, nicht nur, um das Geschehnis zu verstehen, sondern auch um vorhersagen zu können,
was passieren wird, um sich dann der Situation entsprechen verhalten zu können
Einschränkung: Skripte sind konservativ, d.h. sie speichern nur das, was man schon weiß, und
können daher nur einen Teil des normalen Gedächtnisses sein
- wie Bower et. al. festgestellt haben, konnten die Vpn in einem Experiment nur Abweichungen vom
Skript bemerken, z.B. dass das falsche Essen geliefert wurde, aber Schwierigkeiten dabei hatten,
Ereignisse zu reproduzieren, die mit dem Skript konsistent waren
Skripte begünstigen Fehler beim Erinnern, beeinflussen Abfolge beim Erinnern
Sind wichtig für die Strukturierung von Texten  Inhalte werden besser verstanden, wenn sie der
Struktur des Ereignis-Skripts folgen
Herunterladen