4. Das modale Modell von Atkinson & Shiffrin (1968) ABBILDUNG 3.8: Infos aus der Umwelt werden zuerst in einer Reihe von sensorischen Registern bearbeitet - von dort gelangen die Infos ins STS, das nur eine begrenzte Kapazität aufweist und mit dem LTS in Verbindung steht - STS hat besondere Rolle, denn ohne ihn würden keine Info ins oder aus dem LTS gelangen - des weiteren dient STS bestimmten Kontrollprozessen wie rehearsal, coding, decision und retrieval strategies Rehearsal (Übung) - dadurch werden die Infos im STS gehalten; - Atkinson & Shiffrin haben dies untersucht; sie postulieren, dass je länger ein Item im STS gehalten wird, desto größer die Wahrscheinlichkeit, dass es ins LTS kopiert wird - Rundus (1971): - typische free recall Aufgabe: 20 Items, jedes Items 5s Darbietungszeit, aber lautes rehearsal - zählte, wie oft jedes Item rehearsed wurde - Ergebnisse: 1. positive Korrelation zwischen der recall-Wahrscheinlichkeit und der rehearsalHäufig- keit 2. die letzten Wörter in der Liste wurden zuerst und am besten reproduziert, obwohl sie am wenigsten geübt wurden erneute Erklärung für primacy und recency Effekte Probleme des modularen Modells 1. neuropsychologische Evidenz: - wenn rehearsal im STM für den Transfer ins LTM entscheidend ist, dann sollten Patienten K.F. (beeinträchtigtes STM) auch Probleme mit dem LTM haben – dies ist jedoch nicht der wie Fall 2. STM und LTM-Lernen: - rehearsal führt nicht notwendigerweise zu LTM-Konsolidierung - Tulving (1966): - Vpn sollten eine Wortliste mehrfach lesen (ohne Instruktion die Wörter zu merken) - danach längere Wortliste, die zu behalten war; die ursprünglichen Wörter waren auch in der längeren Liste enthalten; beim Behaltenstest gab es keinen Vorteil für die mehrfach gelesenen Wörter - Morton (1967): - Vpn sollten Buchstaben-/Zifferncode der Telefone reproduzieren - von 50 Vpn war keine vollständig d.h. also, auch wenn etwas noch so oft geübt wird, muss es nicht zwangsläufig dazu führen, dass diese Info auch im LTM gefestigt wird 3. STM und recency Effekt - Baddeley & Hitch (1977): - Vpn sollten gleichzeitig eine digit-span Aufgabe (Zahlen) bearbeiten und eine Wortliste lernen - Idee: digit-span benötigt STM, also sollte bei free recall der Wortliste der recency Effekt ver- schwinden oder zumindest vermindert sein, denn entweder Zahlen beanspruchen STM oder die Buchstaben, beides geht nicht - Ergebnis: recency Effekt vorhanden, aber primacy Effekt verringert also kann man doch nicht recency Effekt mit STM gleichsetzen 4. Kodierung: - auch im STM findet semantische Kodierung statt, wenn die Vpn nur die Zeit dazu hat (Baddeley & Levy, 1971) 5. das Sternberg Paradigma Sternberg (1966): beschäftigte sich mit High-Speed Scanning in human memory wichtig da Ged-Psychologie bis dahin nur mit Behaltensleistung/Fehlerraten als abhängiger Variable arbeitete Sternberg führte die RT wieder ein und machte es populär (= Zeitbedarf der Vp, bis sie bestimmte Entscheidungen getroffen hat grundsätzlich: - es werden zwischen einer und sechs Ziffern sequentiell dargeboten; danach wird eine TestZiffer dargeboten, Vp muss entscheiden, ob diese Testziffer in der vorherigen Liste enthalten war oder nicht - es werden die Ziffern 0 bis 9 verwendet, in einem Durchgang keine Ziffer doppelt Terminologie: - Anzahl der Ziffern wird als Listenlänge bezeichnet - war Testziffer in der Liste enthalten, dann sprechen wir von einem positiven Durchgang, sonst von einem negativen experimentelle Details: - Darbietung der Ziffern der Liste: 1.2 s - nach der Liste: 2s leerer Bildschirm, dann Testziffer - RT-Messung vom Darbietungsbeginn der Testziffer bis zum Tastendruck der Vp - danach noch serial recall der Liste - 24 practice trials, 144 test trials pro Vp, 8 Vpn Ergebnisse: ABBILDUNG AUS SKRIPT SEITE 25 - auf x-Achse: Listenlänge; y-Achse: mittlere RT - Entscheidungsfehler: 1.3% - recall-Fehler: 1.4% - Antwortzeiten steigen linear zur Listenlänge an - positive und negative Durchgänge fast gleich lang Wie kann man das Paradigma erklären? ENCODING VERGLEICHEN ANTWORTEN - Testziffer wird enkodiert (im STM), dann verglichen mit den jeweiligen Itemreizen (also Listenziffern) und dann gelangt Vp zu einer Antwort, ob Testziffer in d. Liste vorhanden war oder nicht Sternberg machte 3 Annahmen: 1. serielle Organisation der Teilprozesse - Prozesse überlappen sich nicht, sondern erfolgen nacheinander 2. Reine Einfügung: - wenn noch ein weiterer Prozess eingefügt wird, ändert das nichts an der RT, die für die anderen Prozesse benötigt wird z.B.: 3+4+7 und 3+4+3+7 bleibt gleich 3. konstante mittlere Vergleichszeit - Vp enkodiert und vergleicht die Testziffer mit der Listenziffer, wobei sie beim Vergleich im Mittel die gleiche Zeit braucht (für jede Ziffer) Betrachtungen: 1. serieller Vergleich (der Testziffer mit der Listenziffer) - nur negative Durchgänge RTn = TE + TV + TA RTn = TE + TV1 + TV2 + … + TVn + TA E(-) (RTn) = E(-) (TE + TV1 + TV2 + … + TVn + TA ) E(-) (RTn) = E (-) (TE) + E (-) (TV1) + E (-) (TV2) + … + E (-) (TVn) + E (-) (TA) n V n = mittlere Vergleichszeit E (-) (RTn) = E (-) (TE) + n V (-) + E (-) (TA) = c (-) + n V (-) HIER DIAGRAMM AUS DER VORLESUNG 2. seriell erschöpfend; positive Durchgänge - Vp geht die Liste bis zur letzten Testziffer durch und antwortet dann: E (-) (RTn) = E (+) (TE) + (n – 1) E (-) (TV) + E (+) (TV) + E (+) (TA) = E (+) (TE) + n E (-) (TV1) – E (-) (TV) + E (+) (TV) + E (+) (TA) = E (+) (TE) + E (+) (TA) + E (+) (TV) – E (-) (TV) + n E (-) (TV) = c (+) + n V (-) - RT, die linear mit der Listenlänge ansteigen, die die gleiche Steigung (V) haben - möglicherweise unterschiedliche Schnittpunkte mit der y-Achse 3. seriell abbrechend, positive Durchgänge - wissen nicht, wann Vp aufhört zu vergleichen (hängt davon ab, wie sie die Liste durchgeht - TV = TV1 - TV = TV1 + TV2 - TV = TV1 + TV2 + … + TVn - neue Zva Sn, für die gelte: P(Sn=s) und P(Sn=1) + P(Sn=2) + … + P(Sn=n) = 1, da die Vp ja irgendwann aufgehört hat zu vergleichen (s = Anzahl der tatsächlich durchgeführten Vergleiche) Die Anzahl Sn=s von tatsächlich durchgeführten Vergleichen (die wir nicht kennen) spielt nun die Rolle der Listenlänge n bei erschöpfender Suche; positive Durchgänge: E (+) (RTnSn=s) = E (+) (TE) + V (-) + … + V (-) + V (+) + E (+) (TA) wir wissen nicht, nach wie vielen negativen Vergleichen die Vp abbricht = E (+) (TE) + (s – 1)V (-) + V (+) + E(+) (TA) = E (+) (TE) + E (+) (TA) + V (+) - V (-) + s V (-) - unbedingte Erwartungswerte bestimmen mit Hilfe des Satzes der vollständigen Wahrscheinlichkeit E (+) (RTn) = E (+) (RTnSn = s) P(Sn = s) = (E (+) (TE) + E (-) (TA) + V (-) + V (+) + sV (-)) P(Sn=s) = (c2 + sV (-)) c2P(Sn=s) = c2P(Sn=s) + sV (-) P(Sn=s) = c2 P(Sn=s) + V (-) sP(Sn=s) = c2 1 + V (-)E(Sn) Erwartungszeit der Anzahl der Vergleiche = E (+) (TE) + E (+) (TA) + V (+) - V (-) + E(Sn) V (-) s = 1, 2, …, n und E(Sn) = SP(Sn=s) P(Sn=s) = ½ = S= s = n(n+1)/2 = n+= E(Sn) E(+) (RTn) = c2 + V(-) E(Sn) = c2 + V (-) (n+1/2) = c2 + n/2 V (-) + ½ V (-) = c3 + n V (-)/2 , wobei c3= c2 + ½ V (-) - Steigung ist nur noch halb so groß wie bei negativen Durchgängen Serielle Suche erschöpfend erschöpfend: RT abbrechend negative Durchgänge positive Durchgänge Listenlänge 1 6 Steigung der beiden Durchgänge muss gleich sein (linear), der Y-Abschnitt darf verschieden sein abbrechend: RT negative Durchgänge positive Durchgänge Listenlänge 1 6 y-Abschnitt kann verschieden sein, aber Steigung bei positiven Durchgängen darf nur halb so groß sein wie bei negativen Durchgängen Ergebnisse bei Sternberg folgendermaßen: linearer Zusammenhang und gleiche Steigung (die Linien liegen übereinander) also erschöpfend Idee: EVA E V1, V2, V3, … A Bzw.: E V 1 V2 V3 V4 V5 A - jeder einzelne Pfeil repräsentiert durch seine Länge die Länge der Teilprozesse - ist nicht die einzige Modellvorstellung, wie es bei Sternberg-Task mental abläuft Frage: Muss es denn seriell ablaufen? - es könnte doch sein, dass alle Vergleiche parallel ablaufen Die Wettlauf-Modelle - sind mathematisch avancierter als das Modell von Sternberg E A Paralleler Vergleichsprozess - die Wettlauf-Modelle unterscheiden zwischen: - positiven vs. Negativen Durchgängen: ob das Testitem in der Liste vorhanden ist oder nicht - erschöpfenden vs. abbrechend Durchgängen: entweder muss Liste bis zum Schluss über- prüft werden oder aber Vp kann mit Vergleich schon vorzeitig aufhören, wenn Item vorhanden ist - unbegrenzten und begrenzten Durchgängen: - unbegrenzt: wenn mehrere Vergleichsprozesse ablaufen, haben wir dennoch für jeden Teilprozess eine maximale Kapazität zur Verfügung - begrenzt: nur begrenzte Ressource vorhanden, die sich die einzelnen Teilprozesse untereinander aufteilen müssen 1. parallel, unbegrenzt, negativ, erschöpfend (denn bei neg. Durchgängen ist es immer so…) RT Listenlänge - relevanter Aspekt sind die Vergleiche: alle Vergleiche müssen abgelaufen sein, um zu schauen, ob Testreiz mit Itemreizen übereinstimmt; erst dann kommt die Antwort - deshalb steigen Lösungszeiten mit zunehmenden Durchgängen langsamer als linear an 2. parallel, unbegrenzt, positive, erschöpfend RT Listenlänge - genau wie bei 1.; müssen warten bis alle Vergleiche durchgeführt wurden, erst dann Antwort 3. parallel, unbegrenzt, positiv, abbrechend RT Listenlänge - RT im Mittel konstant, egal wie viele Vergleiche durchgeführt werden müssen 4. parallel, erschöpfend, begrenzt sieht aus wie bei Sternberg, aber bei ihm war´s seriell und nicht parallel - können aber eh anhand der Daten nicht entscheiden, ob parallel oder seriell V. Das Working Memory (Arbeitsgedächtnis) Atkinson & Shiffrin (1968): das modale Modell - Problem: das STS wurde hier als ein einheitliches System betrachtet, das für rehearsal zuständig ist Frage: Wozu ist das STS eigentlich gut? Ist es wirklich ein einheitliches Gedächtnis? - generelle Antwort: es ist ein temporäres Arbeitsgedächtnis, das notwendig für unterschiedliche kognitive Prozesse (wie z.B. Lernen, Verstehen und Begründen) ist - aber: bis in die 70er Jahre wurde dies nicht empirisch überprüft daher: Baddeley & Hitch Idee: wenn STS = Arbeitsgedächtnis, dann sollte STM-Aufgabe, wie z.B. Gedächtnisspanne, die volle Kapazität absorbieren und die Leistung des Arbeitsgedächtnisses sollte beeinträchtigt sein - Experimentelle Untersuchung: dual-task-Paradigma - Vpn mussten 2 Aufgaben gleichzeitig durchführen, wobei die eine Aufgabe den größten Teil der Kapazität des Arbeitsged. absorbiert und die andere Aufgabe (wie z.B. Lernen, Verstehen etc.) vom Arbeitsgedächtnis abhängig ist - Aufgabe 1: Gedächtnisspanne von 0-8 Ziffern Merken - Aufgabe 2: Satzverifikation, z.B.: A folgt B BA „ja“ ABBILDUNG 4.1 - es stellte sich heraus, dass je komplexer die Sätze waren, desto länger waren die Entscheidungszeiten - ungefüllte Kreise = Lösungszeit pro Satz: steigt an von 22s bei 0 Ged.spanne bis 29s pro Satz bei 8 Items für Ged.spanne - gefüllte Kreise = Fehlerrate: bleibt konstant bei ca. 5% - wichtige Ergebnisse: 1. Leistung bei Satzverifikation nimmt mit zunehmender Anforderung in die Ged.spanne ab, was nicht verwunderlich ist, ABER: 2. Leistung ist nicht katastrophal schlecht, obwohl 8 Ziffern bei den meisten Vpn über ihrer Ged. spanne lagen - Zeitverlust beträgt nur ca. 35% Fazit: wenn die Annahme stimmt, dass working memory (also STS) wirklich ein einheitliches System ist, dessen begrenzte Kapazität von einer Aufgabe vollkommen absorbiert wird, dann sollte die Leistung in der 2. Aufgabe vollkommen zusammen brechen, was aber nicht so ist; Ähnliche Befunde: 1. - Gedächtnisspanne: 0, 3 oder 6 Ziffern - free recall-Aufgabe mit Wörtern - Ergebnis: 6 Ziffern beeinträchtigen den primacy part der seriellen Positionskurve, nicht aber den recency part; 3 Ziffern hatten gar keinen verschlechternden Einfluss Ged.spanne und recency Effekt basieren nicht auf dem gleichen Ged.system 2. - Ged.spanne: 0, 3 oder 6 Ziffern - Textverständnis: Prosa lesen und verstehen - Ergebnis: 6 Ziffern beeinträchtigen Verständnis, 3 Ziffern nicht 3. bei retrieval: keine Beeinträchtigung nur wenige oder gar keine Beeinträchtigung druch gleichzeitige Ged.-Aufgabe; was auch immer für ein System für die Speicherung von Infos im STS verantwortlich ist, es hängt nicht eng mit rehearsal zusammen wie von vielen Modellen angenommen wurde (wie z.B. das modale Modell von Atkinson & Shiffrin) Wie kann das sein? - die Ged.spanne wird wahrscheinlich von einer ganzen Reihe von Subsystemen festgesetzt, die die anderen Komponenten des working memory nicht beeinträchitgen und das working memory ist kein einheitliches Ged.system: - Baddeley & Hitch entwickelten ein Modell, bei dem ein steuerndes Aufmerksamkeitssystem eine Reihe von Subsystemen beaufsichtigt und koordiniert wird central executive genannt - das Augenmerk wurde auf 2 wichtige Subsysteme gelegt: - phonological loop: verantwortlich für Manipulation der sprach-basierten Infos - visuo-spatial scatchpad bzw. skretchpad: verantwortlich für visuell-räumliche Speichervorgänge und visuelle Vorstellungsvorgänge 1. Der phonological loop Besteht aus 2 Komponenten: a) phonological store b) articulatory control process a) der phonological store - für sprachbasierte Info - der Spurenzerfall innerhalb dieses Speichers erfolgt innerhalb von 1,5 bis 2s - die Ged.spur kann aufgefrischt werden durch den Steuerungsprozess (b); erst wird die Info aus dem Speicher in den Steuerprozess abgelesen, dann wird sie aufgefrischt wieder in den phonological store überführt dieser Prozess unterliegt dem rehearsal dadurch wird Vergessen vorgebeugt b) articulatory control process - dient dem Auslesen aus und Zurückschreiben in phonological store („inner speech) - Konvertierung von geschriebenem Material in phonolog. Code und Speicherung in (a) Beweis für den loop 1. phonolog. similarity effect (phonolog. Ähnlichkeitseffekt) - immediate seriall recall: - PGTVCD vs. RHXKWY (Conrad & Hull, 1964) - warum ist PGTVCD schwieriger? - Erklärung: Speicher basiert auf phonolog. Codes; phonolog. ähnliche Items haben also ähnlichen Code; recall erfordert Diskrimination zwischen Codes; Diskrimination schwieriger, wenn Codes ähnlich; schlechtere Leistung ABER: Klangähnlichkeit nur bei seriall recall ein Problem; in anderen Fällen kann es sogar hilfreich sein 2. unattended speech effect (unbeachteter Spracheffekt) - Colles & Welsh (1976): - Vpn sollten von visuell dargebotenen Zahlen rückwärts zählen - in einer Bedingung: immediate seriall recall; gleichzeitig jemand zu hören, der einen Text auf Deutsch las, eine Fremdsprache für die Vpn Leistung in immediate memory wurde geschwächt - Pierre Salamé; Baddeley: - nahmen beide unabhängig diese Studie auf; Pierre beschäftigte sich schon zuvor mit der Wirkung von Lärm auf das Ged.; - wollte die Anzahl der Distraktoren mit gesprochenen Wörtern erweitern - Annahme: Wörter mit Bedeutung würden die Vpn ablenken (Salamé); Vpn wird in der Lage sein, diese Distraktoren zu ignorieren (Baddeley); - Experiment: - immediate recall von 9 visuell dargebotenen Reizen - diese entweder in völliger Stille oder gemeinsam mit gesprochenen Wörtern oder mit ge- sprochenen unsinnigen Silben - die letzten beiden sollte Vp ignorieren - Ergebnis: Leistung in gleichem Maße sowohl von sinnvollen als auch von sinnlosen Wörtern beein- trächtigt - Interpretation: nahmen an, dass dieses Material wahrscheinlich Zugang zum phonolog. Speicher hatte, der für phonolog. aber nicht semant. Infos gilt Frage: Kann ein Geräusch ins phonolog. Speicher gelangen? - wahrscheinlich nicht - in einem Experiment Vergleich von unattended speech (wie oben) mit unattended noise und deren Wirkung auf immediate seriall recall kein Effekt der Geräusche (Salamé & Baddeley, 1987; 1989) Frage: Was ist mit unattended music? - Experiment: - Sequenzen von visuell dargebotenen Reizen reproduzieren; als Distraktoren entweder vokale oder instrumentelle Musik - Ergebnisse: Egal ob Opernmusik aus dem 19. Jh. in einer fremden Sprache oder Popsongs in bekannter Sprache: unattended music hatte immer denselben Effekt und war so ähnlich wie unattended speech Fazit: Sollte man deshalb beim Lernen kein Radio hören? - man kann bis jetzt sagen, dass zumindest solche Aufgaben, bei denen der phonolog. Speicher benötigt wird, durch diesen Effekt beeinflusst werden - Verständnis eines Textes und free recall Lernen scheinen nicht von sinnloser Sprache beeinflusst zu werden - viele neuere Studien deuten daraufhin, dass zumindest sinnvolles Material, welches die Aufmerksamkeit des Zuhörers auf sich zieht, das Verständnis eines Textes oder die Wiedergabe beeinflussen kann - weitere Forschung ist nötig, um ein genaueres Fazit ziehen zu können 3. word-length effect (Wortlängeneffekt) - ein weiterer Faktor, der die Ged.spanne bestimmt, ist die Länge der präsentierten Wörter - einsilbiges Material scheint dabei einfacher zu reproduzieren als mehrsilbiges Material ABBILDUNG 4.3 - Zusammenhang zwischen Wortlänge, Leserate und Gedächtnis für Wörter (1-5silbig) (Tabelle 4.1) ABBILDUNG 4.4 - zeigt den Zusammenhang zwischen der totalen Sprechlänge und Wahrscheinlichkeit des recall die Ergebnisse deuten daraufhin, dass unsere Ged.spanne die Anzahl der Items, die wir in 2s aussprechen können, repräsentiert, egal wie lang die Wörter sind es besteht eine hohe Korrelation zwischen der Redegeschwindigkeit einer Person und dessen Ged.spanne Frage: ist entscheidender Faktor die Redegeschw. oder die Anzahl der Silben? - die Redegeschw. ist wohl der kritische Faktor; denn Wörter wie z.B. harpoon oder Friday haben lange Vokale und werden langsamer ausgesprochen als Wörter mit der gleichen Silbenanzahl aber kürzeren Vokalen; daher führen Wörter wie harpoon zu kürzeren Ged.spannen - wichtiges Merkmal in der mentalen Entwicklung von Kindern ist, dass die Tendenz für die Ged.spanne mit dem Alter zunimmt - Nicolson (1981): - wahrscheinlich, weil ältere Kinder schneller üben (rehearsal) können; konnte einen klaren Zusammenhang zwischen dem Alter und der Redegeschw. feststellen - diese Untersuchung repliziert von Hulme, Thomson, Muir & Lawrence (1984) und Hitch, Halliday & Littler (1984) - Kindern in verschiedenem Alter untersucht mit immediate seriall recall von Items mit verschiedener Länge - wenn auditive Präsentation, wurden sogar Kinder im Alter von 4 Jahren beeinflusst ABBILDUNG 4.6 - man sieht hier eine Regressionsgerade, wenn man die Ged.spanne mit der Redegeschw. vergleicht lässt darauf schließen, dass das Alter positiven Einfluss auf die Leistung hat, weil man schneller artikulieren kann Hinweis darauf, dass wahrscheinlich irgendeine Form von innerem rehearsal (subvocal rehearsal) vorhanden ist - Interpretation: - die äußerliche oder innerliche Artikulation beinhaltet das Einrichten und in Gang setzen von motorischen Sprachprogrammen, mit dem Ergebnis, dass je länger das Wort ist, desto länger müssen diese Programme ablaufen - dieser Prozess des subvocal rehearsal dient dazu, die Infos im phonolog. Speicher zu erhalten, indem es ständig die Ged.spuren auffrischt je schneller dieser Prozess ablaufen kann, desto mehr Items können gespeichert werden und desto länger wird die Ged.spanne - wenn das Gedächtnis aber nicht richtig funktioniert, wird die Ged.spanne durch die Anzahl der Items bestimmt, die aufgefrischt werden können, bevor sie auch verfallen - diese Anzahl hängt ab von der Verfallsgeschw. und davon, wie lange man für die Aussprache jedes Items benötigt versch. Studien zeigen, dass die Zeit für Spurenzerfall ca. 2s beträgt, obwohl die Zeit für rehearsal und somit auch Ged.spanne, von Sprache zu Sprache verschieden ist (Hoosain & Salili, 1988; siehe Baddeley S.57f) 4. Articulatory Suppression (artikul. Unterdrückung) - obwohl Aussprache (overt articulatory) nicht notwendig ist für den Prozess des inner speech, wird die Funktionsweise des phonological loop beeinflusst, wenn innere oder äußere Aussprache eines belanglosen Items gefordert wird - Vpn müssen immer wieder belanglose Sachen wiederholen, z.B. bla, bla, bla… oder the, the, the… - gleichzeitig müssen sie sich Buchstaben merken „dual task paradigma“ - in diesem Fall ist die Ged.spanne wesentlich geringer - denn: normalerweise werden die Items im phonolog. Speicher gehalten und immer wieder aufge- frischt; da die Aussprache von belanglosen Items den articulatory control process beansprucht, kann dieser die Infos im phonolog. Speicher nicht mehr auffrischen und das visuelle Material wird auch nicht in phonolog. Codes umgewandelt - der Effekt der Unterdrückung ist sehr robust und nicht unbedingt von der Aussprache von Items abhängig - wir nehmen an, dass dieser Effekt den Prozess des subvocal rehearsal herausschneidet dann sollte es in vorhersagbarer Weise mit den anderen Effekten interagieren: - phonolog. Ähnlichkeit: - articulatory suppression verhindert diesen Effekt, wenn das Material visuell dargeboten wird, vermutlich weil die Konvertierung des visuellen Codes in einen phonolog. Code verhindert wird - bei auditiver Präsentation bleibt der Ähnlichkeitseffekt aber bestehen, vermutlich weil das das ausgesprochene Material direkten Zugang zum phonolog. Speicher hat ohne Gebrauch vom articulatory control process - unbeachteter Spracheffekt - auch hier sollte es eine Unterbrechung durch den Unterdrückungseffekt geben, denn das Material wird visuell dargeboten - wenn die Unterdrückung dazu führt, dass die Vp das Material nicht mehr durch innere Aus-sprache in den phonolog. Speicher überführen kann, dann wird das Gedächtnis auf einem non-phonologischen Speicher basieren - daher sollte die Beeinträchtigung des phonolog. Speichers durch unattended speech keinen Einfluss auf die Leistung haben - bei auditiver Präsentation hingegen hängt die Reproduktion der Items vom phonolog. Speicher ab, weshalb unattended speech die Leistung beeinträchtigt - Wortlängeneffekt: - da dieser Effekt direkt von subvokaler Artikulation abhängig ist, sollte die artikul. Unterdrückung diesen Effekt ganz aufheben, egal ob visuell oder auditiv dargeboten - Aber: wie Baddeley, Thomson & Buchanan (1975b) herausfanden, liegt eine Beeinträchtigung des Wortlängeneffekts nur bei visueller Präsentation vor(obwohl das Modell es vorhersagte, dass der Wortlängeneffekt die Übungsrate beeinflusst, nicht aber die Speicherung) - dies lag an einem Fehler in dem Experiment: die artikul. Unterdrückung tauchte während der Präsentation auf, nicht während des recalls - wenn aber die Unterdrückung während der Präsentation und des recalls auftritt, liegt kein Wortlängeneffekt mehr vor also: bei allen anderen Effekten konnte eine Beeinträchtigung durch den articulatory suppression Effekt nachgewiesen werden Zusammenfassung der Beweise: - der phonolog. Ähnlichkeitseffekt taucht auf, weil der phonolog. Speicher auf phonolog. Codes basiert - ähnliche Items haben leicht verwechselbare Codes, was zur Beeinträchtigung der Leistung führt - artikul. Unterdrückung verhindert, dass das visuelle Material konvertiert wird in phonolog. Codes, hat aber keinen Einfluss auf auditives Material - der unbeachtete Spracheffekt taucht auf, weil gesprochenes Material Zugang zum phonolog. Speicher hat, welches durch die Präsentation von irrelevantem Material beeinträchtigt wird - die Unterdrückung verhindert, dass der Spracheffekt bei visuell dargebotenem Material auftaucht, indem es den Übertrag des Materials in den phonolog. Speicher stoppt - der Wortlängeneffekt wird durch den Unterdrückungseffekt beeinflusst, egal ob visuelle oder auditive Präsentation Der phonolog. loop (Wortlängeneffekt) vs. 7±2 Kapazitätshypothese - wie zuvor schon gesagt, ist der Hauptaspekt der phonological loop Hypothese, dass die Ged.spanne von der Übungsrate abhängig ist, ca. soviel wie man innerhalb von 2s aussprechen kann - was ist dann aber mit der Kapazitätshypothese von Miller, die besagt, dass die Ged.spanne eigentlich sehr konstant ist - Herbert Simon entwickelte daraufhin die chunking Hypothese - er und eine Gruppe von chinesischen Kollegen versuchten anhand der chinesischen Sprache den articulato- ry loop und die chunking Hypothese genauer zu erklären (Zhang & Simon, 1985; Yu, Zhang, Jing, Peng, Zhang & Simon, 1985) - in einem Experiment wurden die beiden Hypothesen direkt miteinander verglichen: - chinesische Schrift wurde verwendet - Material Nr. 1: beinhaltete Radikale = Bestandteile der Zeichen und unaussprechbar; es gibt über 200 Radikale im chinesischen, die aber den chinesischen Vpn vertraut waren - Material Nr. 2: waren chinesische Charaktere/Zeichen, die aus jeweils 2 Radikalen bestehen und einsilbig sind - Material Nr. 3: chinesische Wörter, die aus 2 Charakteren bestehen und deshalb 2silbig sind ABBILDUNG 4.7 - diese 3 Untereinheiten sollten gleichwertige chunks darstellen - Annahme der chunking Hypothese: bei allen 3 sollte die Ged.leistung gleich ausfallen - Annahme der phonolog. loop Hypothese: sehr schlechte Leistung bei den Radikalen, denn diese sind nicht aussprechbar, weshalb sie nicht im phonolog. loop verarbeitet werden; mittlere Leistung für 2silbige Wörter, beste Performanz für einsilbige Charaktere ABBILDUNG 4.2 - so wie es die phonolog. loop Hypothese vorhersagte durch diese und andere Untersuchungen wird die phonological loop Hypothese unterstützt, doch ist wichtig zu sagen, dass die chunking Hypothese wohl auch in dieses Modell mit eingefügt werden kann VI. Das visuo-spatial Sketchpad = „visuell-räumlicher Notizblock“ dient dem Einrichten und Manipulieren von visuell-räumlichen Bildern 1. das visuelle Gedächtnis visuelle Vorstellung spielte eine große Rolle in der experimentellen Psychologie des letzten Jhs., auch dann noch als Introspektion wichtig wurde für psycholog. Untersuchungen Sprache und Lernen - die Namen von Dingen, die gut verbildlicht werden können, sind besser behaltbar als von die Namen von abstrakten Objekten (z.B. Hose besser als Liebe) Analog oder propositional - handelt es sich bei dem der visuellen Vorstellung unterliegenden Prozess um einen analogen oder propositionalen? - analoges System: hier ist die Art und Weise der Repräsentation kontinuierlich, wie z.B. die Zeiger auf einer herkömmlichen Uhr - propositionales System: Art und Weise der Repräsentation erfolgt in einer Reihe von diskreten Schritten, wie z.B. bei einer digitalen Uhr oder die Programme in einem Computer - im Falle der visuellen Vorstellung behaupten analoge Theoretiker wie Kosslyn (1980) und Shepard & Metzler (1971), dass der Vorstellungsprozess an sich auf einem analogen, also kontinuierlichen Prozess basiert. - Vertreter der propositionalen Annahme, wie z.B. Pylyshyn (1981) meinen, dass die Vorstellung ein Epiphänomen ist, also eine irrelevante Begleitung zu einer ganzen Reihe von Prozessen, die in räumlichen Informationen operieren, die wiederum im LTM gespeichert sind (???keine Ahnung, was das heißen soll; Blanki wird´s wahrscheinlich erklären) 1. Mentale Rotation - Shepard & Metzler (1971): - Experiment, das versucht herauszufinden, ob imagery ein analoger Prozess ist oder nicht - 2-dimensionale Präsentation von jeweils 2 3-dimensionalen Figuren (ABBILDUNG 5.1) - die Figuren waren entweder identisch oder spiegelverkehrt; Vp musste entscheiden ABBILDUNG 5.2 - fanden heraus, dass die Zeit, die Vp brauchte, von der Winkel-Beziehung zwischen den beiden Figuren abhing, so als ob die Vp mental die Figuren drehte, bis sie denselben Winkel annahmen und dann erst eine Entscheidung fielen; die Vpn gaben auch an, dass sie die Objekte in ihrer Vorstellung drehten - dabei ist als Funktion die Winkeldisparität zwischen beiden Objekten abgetragen linearer Zusammenhang je größer Rotationswinkel, desto länger die RT Hinweis darauf, dass Vpn Objekte in einem 3D-Raum rotieren, d.h. es scheint ein analoger Prozess zur physischen Rotation zu verlaufen (Georgopoulos et.al. fanden: untersch. Zellen im motor. Cortex feuern bei untersch. Richtungen, mentale Reaktion bringt allmählich Verschiebung der Zellaktivitäten mit sich, ausgehend von Zellen, die für Enkodierung des ursprünglichen Stimulus zuständig sind, hin zu Zellen, die den transformierten Stimulus enkodieren.) 2. Scanning mentaler Prozesse (scanning with the mind´s eye) - Kosslyn (1980): - auch analoge Interpretation des Vorstellungsprozesses - Vpn sollten entweder aus mentalen Vorstellung ablesen oder Entscheidungen darüber fällen - z.B. ein Bild eines Bootes (siehe S. 74, Baddeley); Vp betrachtete es und anschließend wurde der Vp über das Bild Fragen gestellt - wenn Vp erst nach dem Bug und dann nach etwas gefragt wurde, dass etwas weiter weg lag (wie z.B. das Ruder) dann dauerte die Antwort länger, als wenn man nach einem Objekt fragte, das zwischen diesen beiden lag; als ob die Vpn physikalisch das Bild scannen würden, wobei längere Scans auch längere Zeit in Anspruch nahmen - Baum & Jonides (1979): - geographische mentale Vorstellung; Vpn sollten die Distanz zwischen verschiedenen Objekten auf ihrem Unigelände schätzen - Ergebnis: je weiter die Objekte auseinander lagen, desto länger dauerte die Einschätzung - wenn ein Hindernis zwischen diesen Objekten lag, dann war die geschätzte Distanz länger (Kosslyn, Pick & Fariello, 1974) Kosslyn und seine Kollegen zeigten in vielen anderen Studien weitere Ähnlichkeiten zwischen dem mentalen Scanning und den Prozessen der Wahrnehmung z.B.: Vp soll sich vorstellen, dass sie auf ein Objekt zuläuft dann berichteten Vpn, dass das Objekt sich weiter ausdehnte und ihr visuelles Feld voll und ganz füllte - auch ein Skaleneffekt trat auf: Vp wurden instruiert sich einen Hasen entweder neben einer Maus oder neben einem Elefanten vorzustellen und wurden dann nach den Augen des Hasen gefragt Antworten schneller, wenn Hase neben Maus vorgestellt wurde, weil die Augen dann ein viel größeres und hervorstechenderes Merkmal darstellten, als wenn der Hase neben dem Elefanten stand Die Forscher sind sich noch nicht einig, wie man denn nun die Ähnlichkeiten zwischen dem Vorstellungsprozess und der Wahrnehmung interpretieren soll 2. Imagery und das Arbeitsgedächtnis Die visuelle Unterbrechung der Vorstellung - nun dual-task Modelle für die Untersuchung des Arbeitsged. und der Aufmerksamkeit - Ziel: Analyse des Prozesses, der dem Prozess der Vorstellung unterliegt, indem wir schauen, was mit den Aufgaben, die auf dem Vorstellungsvermögen beruhen, interferiert - Lee Brooks (1967): ABBILDUNG 5.4 - Vp sollte Material entweder verbal oder mithilfe von visuellen Bildern enkodieren (diese Aufgabe basiert auf STM) - 4x4-Matrix dargeboten; eine Zelle wird als Startpunkt festgelegt - Vpn sollten dann Satzsequenzen, wie in der Abbildung zu sehen ist (Spatial = räuml. material) - Vpn enkodieren diese Sätze als visuellen Pfad in der Matrix - damit Vpn das nicht machten, wurden die jeweiligen Adjektive durch good-bad und quickslow ausgetauscht (das so genannte verbale, bzw. non-spatial Material) Vpn konnten zwar 8 der spatial-Sätze wiedergeben, aber nur 6 der non-spatial-Sätze - Brooks verglich diesen Effekt nun bei visueller und auditiver Darbietung - Ergebnis: bei spatial Aufgabe erzielte er mit auditiver Präsentation das beste Ergebnis; bei der ver- balen Aufgabe war die visuelle Präsentation besser reflektiert die Tatsache, dass die spatial Sätze hauptsächlich durch visuelle Bilder erinnert werden, welche denselben Apparat verwenden wie die visuelle Wahrnehmung, während die non-spatial Sätze mit verbaler Kodierung zu tun haben, wobei dieselben Systeme wie in der auditiven Wahrnehmung verwendet werden Die Eigenschaften des visuo-spatial Sketchpads - es ist ähnlich wie der articulatory loop - es kann entweder direkt durch Wahrnehmung „gefüttert“ werden, also durch visuelle Wahrnehmung, oder aber indirekt, also durch ein visuelles Bild deutet daraufhin, dass nur visuelle Info Zugriff zu dem Speicher hat, so wie beim articulator. loop - es scheint aber nicht für die Vorstellungskraft im verbalen Langzeitgedächtnis verantwortlich zu sein - das sketchpad besteht vermutlich aus 2 verschiedenen Komponenten: 1. beschäftigt sich mit Verarbeitung von Mustern und geht der Frage nach dem „Was“ nach (visuell) 2. beschäftigt sich mit der Lokation in Raum, also die Frage nach dem „Wo“ (räumlich) Zusammenfassung 2 wichtige Fragen: 1. Basiert imagery auf einem kontinuierlichen und analogen System, oder ist es ein Repräsentationssystem, das auf einer Kombination von diskreten propositionalen Komponenten basiert? 2. Sind Vorstellungen wie Wahrnehmungen? diese Fragen können noch nicht beantwortet werden die Ergebnisse einer Untersuchung des working memory mit dual-task Paradigma deuten daraufhin, dass ein System für das Einrichten und die Manipulation von visuellen Images vorhanden ist, der visuo-spatial Sketchpad Frage: soll dieses System als ein visuelles oder als ein räumliches System angesehen werden? - aufgrund der Ergebnisse verschiedener Untersuchungen (wie z.B. zum Lernen und Ged.leistung von normalen Personen) kann man sagen, dass es sowohl eine visuelle als auch eine räumliche Komponente der Vorstellung gibt, mit verschiedenen anatomischen Bereichen im Gehirn; diese Sichtweise wurde auch aufgrund neuropsychologischer Untersuchungen bestätigt VII. Das Verarbeitungsebenen-Modell (levels of processing) von Craik & Lockhart (1972) Ist ein alternatives Gedächtnismodell zum modalen Modell von Atkinson & Shiffrin zur Erinnerung: dieses Modell geht von separaten Langzeit- und Kurzzeitspeichern aus, wobei das Langzeitlernen hauptsächlich vom Kurzzeitspeicher abhängig ist; je länger ein Item im STS gehalten wird, desto größer die Wahrscheinlichkeit, dass es in LTS überführt wird aber es gab einige Probleme mit diesem Modell Craik & Lockhart hingegen waren der Meinung, statt sich auf die Struktur des Gedächtnisses zu konzentrieren, sollte man sein Augenmerk eher auf den Prozess, der die Erinnerung steuert, legen nehmen an, dass das, was reproduziert wird, kein Item ist, das im Gedächtnis gespeichert wird, sondern dass die Nacheffekte des Verarbeitens erhalten bleiben, die dann wiederum als Hinweis auf das verarbeitete Item genutzt werden können das Verarbeiten von Infos beginnt einem physikalisch-sensorischen (also visuellen) und oberflächlichen Niveau und gelangt dann in immer tiefergehende semantische Bereiche; am oberflächlichen Level bleiben sehr leicht aufrufbare, aber weniger dauer- hafte Ged.spuren, in den tieferen Regionen hingegen bleiben Ged.spuren, die dauerhafter sind auch sie gehen davon aus, dass das STM mit phonolog. Verarbeitung und das LTM mit semantischer Verarbeitung in Verbindung steht, dass aber die semantische und phonologische Codierung beide als charakteristisch fürs STM angesehen werden müssen sie unterscheiden auch zwischen einem LTM und einem STM bzw. Primary Memory (PM), welches 2 wichtige Prozesse enthält: - maintenance rehearsal - elaborative rehearsal maintenance rehearsal zwei Arten von Rehearsal - es dient nur dazu, die Informationen zu erhalten ohne sie in einen länger anhaltenderen Code umzuwandeln - es verhindert also das Vergessen während dem Prozess des Erhaltens von Infos, führt aber nicht zu Langzeitlernen - also rehearsal von Items in phonologischer Schleife elaborative rehearsal - Ausbreitung von Gedächtnisspuren auf höhere Kodierungsebenen durch z.B. Mnemotechniken, Eselsbrücken usw. - dadurch kommt es zum Langzeitlernen Bsp. von Craik & Tulving (1975) - eine Reihe von unabhängigen Wörtern wird präsentiert - Vpn sollen 1 von 3 verschiedenen Aufgaben erfüllen: 1. oberflächliches Enkodieren: entscheiden, ob das Wort groß oder klein geschrieben wurde 2. beinhaltet ein Zwischenlevel des Kodierungsprozesses: ob Wörter sich reimen 3. beinhaltet tiefe semantische Verarbeitung: ob das Wort in einen bestimmten Satz passt - den Vpn wurde aber nicht gesagt, dass ihr Gedächtnis untersucht würde, also ging es um inzidentelles Lernen - wenn man der Vp mitteilt, dass sie durch recall oder recognition getestet wird, wäre es intentionales Lernen - Grund für inzidentelles Lernen: sie wollten vermeiden, dass Vp versucht sich die Wörter zu merken, so dass die Wörter nur so verarbeitet und enkodiert werden, wie es die Aufgabe verlangt; es führt dazu, dass Vp wirklich nur so mit dem Material umgeht, wie es in der Aufgabe verlangt wird - nachdem die Vpn eine gewisse Zeit ihren Aufgaben nachgegangen waren, wurden sie einer recognition-Aufgabe unterzogen, also ob das dargebotene Wort alt oder neu ist ABBILDUNG 7.5 Ergebnisse: 1. die oberflächlichste Aufgabe führte zum schlechtesten Ergebnis, d.h. sie hatten die schlechteste Behaltensleistung; die 3. Gruppe hatte die beste Behaltensleistung wie vom Verarbeitungsebenenmodell angenommen 2. die Aufgaben, die mit „ja“ beantwortet werden mussten, lieferten bessere Ergebnisse als Aufgaben, die mit „nein“ beantwortet wurden - Interpretation: je tiefer die Verarbeitung (also semantisch), desto besser die Behaltensleistung Das Verarbeitungsebenenmodell hat einige Vorteile: 1. es liefert einen einfachen Ersatz für das Komplexe LTM-STM-Problem 2. es kann gut auch außerhalb des Labors angewandt werden 3. es liefert sehr plausible Antworten auf wichtige Fragen wie z.B.: - Erinnern sich die Älteren an weniger, weil sie das Material nur auf höheren Leveln speichern? - Leiden Patienten am Korsakoff-Syndrom, weil sie ihre Umgebung nur oberflächlich enkodieren? Die Stärke und Dauerhaftigkeit von Gedächtniseindrücken wächst mit zunehmender Verarbeitungstiefe Doch das Modell hat auch einige Minuspunkte Entscheidend ist offensichtlich, eine Kongruenz zwischen den Bedingungen der Aufnahmephase und denen der Wiedergabephase herzustellen (z.B. betrunken lernen, betrunken wiedergeben klappt gut) Es ist wahrscheinlich so, dass semantische Verarbeitung typischerweise mehr diskriminierbare Ged.spuren produziert als es beim phonolog. und visuellen Kodieren des verbalen Materials geschieht, weshalb die Behaltensleistung verbessert Neuerdings interessanter Ansatz: Material wird besonders gut verarbeitet, wenn es auf das Selbst des Lernenden bezogen wird (auch wenn es sich um weniger vertraute Substantive und Adjektive handelt) Wissen kann leichter und länger genutzt werden, wenn: - Kodierung auf höheren/tieferen Ebenen erfolgt - Die Inhalte durch mehrere kogn. Operationen verarbeitet werden - Die Inhalte in einem Netzwerk des LTM verknüpft werden VIII. Implizites Lernen Das menschliche Lernen kann auf 2 verschiedene Weisen erfolgen: - explizit: Person nimmt aktiv den Stimulus wahr – wenn möglich – versucht sie eine Hypothese oder Regeln darüber zu formulieren, die das Lernen erleichtern - implizit: hier spielen die äußerliche Kontrolle oder Strategien keine Rolle; Lernen komplexer Infos, ohne das Wissen, dass man sie wirklich lernt (erfolgt ohne Instruktion); hierbei verschiedene Regionen mit beteiligt, motor. Cortex und andere motor. Gebiete Implizites Wissen: kontextbezogenes und vorbewusstes Wissen, Priming-Phänomene; man weiß es einfach, kann sich aber nicht daran erinnern, es je bewusst gelernt zu haben; man kann es nicht in Worte fassen und es entzieht sich der Introspektion; es charakterisiert oftmals das Lernen von Fahrradfahren etc 1. Die 3 wichtigsten Paradigmen Künstliche Grammatik lernen: - implizites Wissen ist nicht nur auf Wahrnehmung und motor. Fähigkeiten begrenzt - ein gutes Beispiel hierfür: Kinder, die eine Sprache erlernen: - sie lernen immer mehr grammatische Regeln, können dann später diese Regeln perfekt im täglichen Gebrauch verwenden, ohne aber genau zu wissen, welche grammatischen Regeln es überhaupt sind zumindest in der Muttersprache Frage: beinhalten implizites und explizites Lernen verschiedene Gedächtnissysteme? - wie wir an dem Bsp. oben erkennen, scheint das Erlernen der Grammatik der Muttersprache ein gutes Modell für implizites Lernen darzustellen - um dies auch experimentell untersuchen zu können, wurde in den 1960ern eine künstliche Grammatik entwickelt von Miller (1962) ABBILDUNG 19.2 - Grammatik: - ein System bestehend aus Regeln; es sollte außerdem generativ sein, es sollte eine unendliche Menge an Sätzen zulassen - Abbildung 19.2 zeigt eine Möglichkeit, wie man solch eine Grammatik aufstellen kann: - verschiedene Knotenpunkte, von denen Pfeile ausgehen, die die einzelnen Items darstellen - man fängt am Startpunkt auf der linken Seite an, und entscheidet sich für einen Pfad, z.B. M; von dort geht es zum nächsten Item, dem T; dann kann man entweder das T wiederholen oder aber weiter zum V gelangen, usw. bis zum Endpunkt eine Sequenz - in verschiedenen Sequenzen können dann manche Itemabfolgen wiederholt auftreten (z.B. TV); andere Itemfolgen tauchen hingegen nie auf (TRV) („nicht grammatisch“) - Reber (1967): - eine Vp-Gruppe sollte Sequenzen, die mithilfe dieser Grammatik aufgestellt wurden, lernen - 2. Vp-Gruppe lernte zufällige Sequenzen (z.B.: TRV) - anschließend zeigte man beiden Gruppen ein Set von 44 Sequenzen, von denen die Hälfte nach der Grammatik aufgestellt wurden und der Rest nicht grammatisch war Ergebnisse: 1. Gruppe: 79% richtige Kategorisierung 2. Gruppe: brauchten wesentlich länger, um diese Sequenzen zu lernen und konnte nicht wirklich die grammatischen von den nicht grammatischen Sequenzen unterscheiden und waren auch nicht in der Lage, irgendwelche grammatischen Regeln wiederzugeben das Lernen scheint sehr robust zu sein: Allen & Reber (1980) ließen ihre Vpn 15min. die Grammatik lernen; dieses Wissen war nach 2 Jahren noch immer vorhanden Redundantes Sequenzenlernen - ein ähnliches Ergebnis sollte auch bei anderen Aufgaben zum impliziten Lernen - Nissen & Bullemer (1987): - benutzten eine serial reaction time Aufgabe, in der Vpn auf 4 verschiedene Knöpfe drücken mussten, die mit 4 horizontalen Stellen auf einem Monitor verbunden waren - in Kontrollbedingung reagierten Vpn auf eine Zufallssequenz von Items, in der Experimental- bedingung wurde eine einzige Sequenz von 10 Items wiederholt dargeboten (ABER: Vpn wussten nicht, dass es immer dieselbe Sequenz war) - Ergebnisse: - in Experimentalbedingung antworteten die Vpn immer schneller, wurden aber wesentlich langsamer, wenn eine Zufallssequenz dargeboten wurde - die Vpn waren auch in der Lage zumindest einen Teil dieser wiederholten Items zu berichten, d.h. also es gab einen gewissen Lerneffekt Hinweis darauf, dass es sich um explizites und nicht um implizites Lernen handelt - Willingham, Nissen & Bullemer (1989): - 2 Gruppen: 1.Gruppe: wurde darauf aufmerksam gemacht, dass es immer eine Sequenz mit denselben Items sein wird 2.Gruppe: wurde nicht über eine Wiederholung der Items aufgeklärt; - 2. Gruppe konnte nur 3 der 10 Items berichten, doch muss hier betont werden, dass diese Gruppe gelernt hat, denn sie wurden immer schneller in ihren Reaktionen - wenn man aber das explizite Wissen testete, indem man die Sequenz abstoppte und sie nach dem darauf folgenden Item fragte, schnitt die 2. Gruppe wesentlich schlechter ab Kontrolle von komplexen Systemen - während die bisher beschriebenen Paradigmen sehr beschränkt waren in ihren Aufgabenstellungen, entwickelte Broadbent und seine Kollegen eine ganze Reihe von komplexen Aufgaben - Broadbent: - in einer Studie wurden die Vpn zwar nach mehreren Durchgängen besser und erreichten die geforderten Zielstellungen, doch wenn die Vpn einen postexperimentellen Fragebogen bekamen, waren sie nicht in der Lage Fragen über die jeweilige Aufgabe zu beantworten - Broadbent dehnte die Untersuchung auf weitere Aufgaben aus, z.B. wurde in einer Aufgabe die Führung einer Zuckerraffinerie simuliert, in einer anderen Aufgabe hingegen ging es darum, einer Computerfigur bestimmte vorgegebene Stimmungen zu induzieren - trotz der oberflächlich gesehen unterschiedlichen Aufgaben, waren die Aufgaben formal gesehen ähnlich strukturiert - Vpn hatten 0, 30 und 60 aufeinander folgende Durchgänge, in denen sie zu 80% erfolgreich die Aufgaben bewältigten - doch auch hier waren die Vpn nicht in der Lage, auf die Fragen nach dem Experiment zu antworten, d.h. also: wieder keine Korrelation zwischen der Leistung in der Aufgabe und im Fragebogen alle 3 Paradigmen bestätigen deutlich den ständigen Erwerb von implizitem Wissen: - mit Leichtigkeit kann Grammatik erlernt und angewandt werden; die Kapazität, grammatisch Richtiges von Falschem zu unterscheiden - schnellere Antworten bei wiederholten Sequenzen - ständige Verbesserung der Leistung in verschiedenen sehr komplexen Aufgaben ABER: Vpn können nicht beschreiben, durch welches Wissen genau ihre Leistung sich verbessert; sie scheinen unbewusst Regeln usw. mitzubekommen, die sie zwar anwenden aber nicht verbalisieren können 2. Was wird gelernt: Regeln oder chunks? Originalannahme war, dass in dem Versuch von Reber die Vpn eine Reihe von impliziten Regeln lernten, die auf der künstlichen Grammatik beruhten Doch wenn Vpn nach diesen Regeln gefragt wurden, sagten die Vpn, dass sie so genannte Bigramme (also Buchstabenpaare) aus diesen Sequenzen herauspickten, wobei sie hauptsächlich die ersten Bigramme am häufigsten berichten konnten Perruchet & Pacteau (1990): - verwendeten dieselbe Grammatik wie Reber - Sequenzen, die der Grammatik entsprechende Buchstabenpaare beinhalteten, wurden eher als grammatisch richtig angesehen als solche Sequenzen, in denen ganz neue Bigramme auftauchten - sie entwickelten ein Modell, das davon ausgeht, dass die grammatischen Bewertungen auf paarweisen Infos beruhen, und verglichen dies mit ihren eigenen Daten das Modell passte gut, lieferte aber noch bessere Ergebnisse, wenn man noch einen recognition-task der ersten und letzten Items miteinbezog Den wohl stärksten Beweis für das Regellernen wurde von „Transferstudien“ geliefert, in denen die Vpn eine bestimmte Grammatik anhand von einem Set an Items lernten (z.B. M, R, T, V und X) und übertrugen dann dieses Wissen auf ein ganz anderes Set von Items (z.B. N, P, S, W und Z) - unter diesen Bedingungen konnte Reber feststellen, dass die Vpn die gelernten Regeln gut auf das 2. Set mit den ganz anderen Items transferieren konnten d.h. also, dass die Vpn in der Lage waren, ein abstraktes Bild der grammatischen Regeln zu erlangen und diese dann auf andere Sequenzen zu übertragen Brooks & Vokey (1991): - untersuchten ein weiteres Problem des Regellernens - die Vpn liefern wahrscheinlich so gute Ergebnisse, weil die einzelnen Sequenzen gespeichert werden, und sie die neue Sequenz nach der Ähnlichkeit mit den vorherigen Sequenzen beurteilen d.h. der Transfer könnte wahrscheinlich nur auf einem sehr abstrakten Level von Vergleich der beiden Sequenzen beruhen - z.B.: abbbxa und kyyyck beurteilt diese beiden Sequenzen nach ihrer Ähnlichkeit (hier Wiederholung von 3 Konsonanten in der Mitte, Buchstabe am Anfang und am Ende sind identisch) die Sachlage scheint noch nicht ganz klar zu sein; daher können verschiedene Modell als richtig angesehen werden 3. Ist unbewusstes Lernen möglich? Was genau ist eigentlich Bewusstsein? man kann nicht sagen, dass Bewusstsein ein einheitlicher Zustand ist (Marcel, 1993) um herauszufinden, ob Lernen unbewusst ist, wäre es hilfreich, die Vpn danach zu fragen, doch diese würden dann natürlich ihr Bewusstsein auf den Lernprozess lenken sinnlos eine möglicht wäre es aber, die Lernkapazität bei unterschiedlichen Bewusstseinszuständen zu untersuchen (z.B. Schlaf, Anästhesie, Koma etc.) - wenn mindestens in einem dieser Fälle Lernen nachgewiesen werden kann, dann könnte dies helfen, die Beziehung zwischen Lernen und Bewusstsein aufzudecken es konnte bisher noch nicht eindeutig nachgewiesen werden, dass man während des Schlafs lernen kann - alle bisherigen positiven Ergebnisse kamen aus der damaligen Sowjetunion - doch westliche Wissenschaftler konnten keine Beweise dafür liefern, wenn durch EEG festgestellt wurde, dass die Vpn schliefen einige Untersuchungen, ob während der Narkose Lernen auftreten kann oder nicht (siehe Andrade, 1995) ist eine wichtige Frage, denn es wurde von einigen Patienten berichtet, die explizites Gedächtnis für Ereignisse zeigten, die während der Narkose geschahen Levinson (1965): - 10 Patienten, die zahnärztliche Behandlung unter Narkose hatten; ihre OPs wurden mittendrin abgebrochen aufgrund irgendwelcher simulierten Ereignisse (z.B. sagt der Arzt: „Ich will, dass die Operation sofort abgebrochen wird, da mir der Patient etwas krank vorkommt; seine Lippen sind blau angelaufen, er braucht dringend Sauerstoff.“) - obwohl die Patienten dies nicht direkt miterlebt haben, konnten einen Monat später 4 Patienten während der Hypnose genau berichten, was der Arzt während der OP gesagt hat; 4 weitere konnten zumindest einen Teil der Aussage reproduzieren (partial recall) Andrade (1995): - konzentriert sich auf die Verwendung von Methoden zur Messung des indirekten bzw. impliziten Gedächtnisses - 4 Techniken, die implizites Lernen unter Narkose studieren 1. - beinhaltet Kategoriengeneration: - es wird eine Kassette vorgespielt, auf dem Items einer bestimmten semantischen mehrfach präsentiert werden Vp soll Items aus dieser Kategorie erzeugen Kategorie wenn Lernen stattgefunden hat, sollte die Auftretenswahrscheinlichkeit der präsentierten Items sehr hoch - 9 Studien: 3 davon zeigten einen klaren Effekt, 5 Studien waren ergaben neg. Ergebnisse 2. - assoziatives Priming: - anästhesierten Personen werden Wortpaare oder Satz-Wort-Paare wiederholt dargeboten, anschließend wird recall getestet: Präsentation eine cue-Wortes oder -Satzes, dann freie Assoziation - 8 Studien: 2 zeigten positive Ergebnisse, 4 zeigten gar keinen Effekt 3. - versucht die spontane Reaktion der Vp durch gezielte Andeutungen zu beeinflussen: - Bennett, Davis & Giannini (1985): - Vpn sollten durch ein Ziehen an ihrem Ohrläppchen, nachdem sie das Bewusstsein wieder- erlangt haben, dem VL zeigen, dass sie ihn während der Narkose gehört haben - in vielen Fällen kam es zu diesem Ergebnis, 4. - Studien, in denen Vpn positive Andeutungen während der Narkose gemacht wird, z.B.: „Du bist sehr entspannt“ oder „Du wirst nach der Behandlung wieder sehr schnell zu Bewusstsein gelangen“ - in 12 von 17 Studien wurden positive Ergebnisse erzielt d.h. diese Technik ist sehr gut anwendbar es gibt also während der Narkose Lernen, aber kann aufgrund von verschiedenen Problemen nicht genau festgestellt werden, ob dieses Lernen unbewusst ist oder ob es während solchen Perioden des Bewusstseins geschieht IX. Klassifikation Gedächtnis deklarativ (explizit) episodisch prozedural (implizit) semantisch nicht-assoziatives Lernen Priming (Bahnen, Erwartung Fertigkeiten und Gewohnheiten Klassische Konditionierung Instrum. Konditionierung Ged.inhalte werden entweder implizit (unbewusst) oder explizit (bewusst u. willentlich) wiedergegeben; Das implizite Gedächtnis ist nicht nur ein System, sondern ist eine Ansammlung von verschiedenen Lernmechanismen - beinhaltet Erinnerungen, die durch Verbesserung von Leistungen nachgewiesen werden können, ohne dass die Person sich dessen bewusst ist - Wissen über Techniken und Methoden zur Lösung von Aufgaben und Problemen - prozedurales Wissen nicht allein über Sinnesorgane erworben, sondern auch auf Basis wiederholter eigener Handlungsausführung Dem gegenüber steht das explizite Gedächtnis: Erinnerungen, deren die Person sich bewusst ist und die er verbalisieren kann, d.h. die Erinnerungen werden bewusst ausgedrückt - die Gedächtnisinhalte (Fakten, Ereignisse, Begriffe, gesetzmäßige Zusammenhänge) werden also intentional-willentlich wiedergegeben sind immer abrufbar Wichtige Untersuchungen zu diesem Gebiet wurden durchgeführt von: - Moscovitch, Goshen-Gottstein & Vriezen (1994), Roediger & McDermot (1993), Schacter (1994), Squire et al. (1993) Wozu 2 verschiedene Gedächtnissysteme? - das implizite entstand wahrscheinlich vor dem expliziten Gedächtnis; bei Amnesiepatienten konnte festgestellt werden, dass sie bei impliziten Aufgaben sehr gut waren, jedoch ihre Leistung sich verschlechterte, wenn wie ihr implizites Wissen auf untersch. Art anwenden sollten, was bei Kontrollgruppe nicht der Fall war - Explizites Gedächtnis erlaubt also flexiblen Gebrauch von Infos 1. Beweise fürs implizite Gedächtnis Priming = Einfluss eines Stimulus auf die Leistung des Verarbeitungssystems - Warrington & Weiskrantz (1968): - Amnesiepatienten, die in recognition-Aufgaben schlecht abschnitten, konnten gut lernen, wenn ihnen ein Fragment des Wortes oder des Bildes gezeigt wird und sie das Wort oder das Bild identi- fizieren sollen Tabelle 20.1: - Word stem completion: siehe Wortstamm-Ergänzung auf S.5 - Word fragment completion: Wort präsentiert, dann einige Buchstaben entfernt; Vp soll Wort komplettieren - Degraded word naming: Vpn liest Reihe v. Wörtern, Vpn sollen dann Wörter, die visuell dargeboten werden, identifizieren hauptsächlich Wörter aus der Liste - Anagram solving: Wort (Elefant), Buchstaben dann zufällig angeordnet (Faelent) Wort Identifizieren erneut werden Wörter aus der vorherigen Liste schneller identifiziert - Lexical decision: sinnvolle u. -lose Wörter kategorisieren bekannte Wörter werden schneller kategorisiert all diese Beispiele beinhalten visuelle Präsentation der Wörter - Roediger & McDermott (1993): - Priming wird durch physikalische Merkmale mehr beeinflusst als das episodische Gedächtnis, welches mehr durch semantische Merkmale beeinflusst wird - Studie von Graf & Mandler (1984): es gibt einen Zusammenhang zwischen der Art der Präsentation und der Art des Abrufens, wobei semantische Kategorisierung das episodische Gedächtnis verbessert, während visuelle Verarbeitung durch impliziten Gedächtnis erfolgt Erwerb von Fertigkeiten - es gibt einige Hinweise darauf, dass auch Amnesiepatienten motorische Fähigkeiten erwerben können (Bsp.: H.M.) - Brooks & Broadbent (1976): - 2 Gruppen von Amnesiepatienten: 1 Gruppe leidet am Korsakoff Syndrom, die andere an den Folgen der Enzephalitis; - beide Gruppen waren in der Lage ihre Leistung in einer impliziten Aufgabe von Tag zu Tag zu verbessern - Nissen & Bullemer (1987): - fanden heraus, dass Amnesiepatienten bei einer sequential response Aufgabe ihre Leistung ver- bessern, also lernen könnten, so gut wie nicht kranke Menschen - wie zuvor schon gesagt, können Amnesiepatienten bei der künstlichen Grammatik-Aufgabe von Reber genauso viel leisten wie die Kontrollgruppe (Knowlton, Ramus & Squire, 1992) - ABER: wenn implizites Wissen in anderem Kontext angewandt werden sollte schlechte Leistung - was die intellektuellen Fähigkeiten anbelangt, sind Amnesiepatienten in der Lage auch bei der „Turm von Hanoi“-Aufgabe zu lernen (Cohen, 1984) Konditionierung - bei Amnesiepatienten funktioniert die eye-blink Konditionierung, obwohl die Vpn die Prozedur nicht beschreiben konnten - Johnson, Kim & Risse (1985): - präsentierten Amnesiepatienten eine Melodiesequenz eines unbekannten koreanischen Musikstücks - Vpn hörten einige Melodien wiederholt und sollten dann einschätzen, wie angenehm sie (die wiederholte und die nicht wiederholte) Musik fanden - Kontroll- und Experimentalgruppe schätzten die „alte“ Musik als angenehmer ein „preserved evaluative conditioning“ - doch trotz der Beweise für affektives Lernen bezüglich der Melodien waren die Patienten wieder nicht in der Lage, den Stimulus davor zu erkennen sowohl klassische als auch evaluative Konditionierung kann trotz fehlendem rekollektivem (also episodischem) Gedächtnis auftauchen - auch bei Tieren, denen der Hippocampus entfernt wurde, konnten solche Effekte nachgewiesen werden (Solomon & Moore, 1975) X. Das semantische und episodische Gedächtnis Die Unterscheidung zwischen semantischem und episodischem Gedächtnis repräsentiert 2 separate Systeme und nicht 2 verschiedene Arten von Operationen desselben Systems nämlich des deklarativen bzw. expliziten Gedächtnisses (siehe auch: implizites Gedächtnis, da steht noch einiges) 1. Das episodische Gedächtnis das episodische bzw. rekollektive Gedächtnis ist von einem System abhängig, das schnelles Lernen ermöglicht neuropsychologisch gesehen scheint dieser Prozess von einem System abhängig zu sein, welches die Temporallappen, den Frontallappen, den Hippocampus und das Diencephalon mit einschließt wird dieses System beschädigt, führt es zur Amnesie episodisches Gedächtnis scheint die bewusste Wahrnehmung zu erfordern, wobei die Menge des gelernten Materials sinkt, wenn die Aufmerksamkeit nachlässt (Baddeley, Lewis, Eldridge & Thomson, 1984a). episodisches Gedächtnis beinhaltet Fähigkeit sich an bestimmte individuelle Ereignisse und Episoden zu erinnern die Einprägung erfolgt im limbischen System (v.a. Hippocampus), Speicherung im cerebralen Kortex (v.a. Assoziationskortex) und die Erinnerung im tempero-frontalen Kortex (rechts) Humphrey (1993): sagt, dass Bewusstsein und vor allem explizites Gedächtnis sich entwickelt haben, damit wir uns in unserer Umwelt zurechtfinden können Die Fähigkeit, individuelle Ereignisse aufzurufen, hängt von 2 Dingen ab: 1. Fähigkeit, die Erfahrungen schnell miteinander zu verbinden 2. Fähigkeit, eine Erfahrung aus allen anderen aufzurufen - daher müssen die einzelnen Ereignisse mit dem jeweiligen Kontext in Verbindung gebracht werden („encoding specifity principle“ von Tulving zeigt, wie das genau funktionieren könnte) Clive Wearing: - ihm fehlt das episodische Gedächtnis - deshalb lebt er in einem ständigen Hier und Jetzt; hat Angst raus zu gehen, da er denkt, er könnte sich verlieren; kann die Zukunft nicht planen; aber auch so einfache und angenehme Sachen wie Bücher lesen oder Fernsehen funktionieren nicht, weil das alles vom ep. Ged. abhängig ist - 2. das semantische Gedächtnis „Was ist die Hauptstadt von Italien?“, „Wann ist Weihnachten?“, „Wonach schmeckt Orangensaft?“ solche Fragen sind sehr leicht zu beantworten und spiegeln nur einen geringen Prozentsatz unseres Wissens wieder, das wir ständig mit uns herumschleppen - z.B.: unser Wissen über die Bedeutung v Wörtern - ein durchschnittlicher Mensch kennt 20000-40000 Wörter - unser geographisches Wissen, Wissen über Regeln, Farben und Formen verschiedener Gegenstände etc. daher hat das semantische Gedächtnis eine sehr wichtige Funktion in unserem Alltag viele Studien dazu wurden durch die Sprache angeregt the linguistic relativity hypothesis: - Lennberg & Roberts (1956): - ein nordamerikan. Indianerstamm (Zuni) benutzen für die Farben gelb u orange dasselbe Wort - konnten feststellen, dass sie diese Farben aber auch weniger gut unterscheiden können - Brown & Lenneberg (1954): - 2 Vp-Gruppen, Farben präsentiert; 1 Gruppe sollte die Farben benennen, die andere sollte sich an die Farben erinnern - bestimmten Farben wurden dieselben Namen gegeben („focal colors“= also die Grundfarben wie rot, grün und blau), andere wiederum wurden von verschiedenen Vpn unterschiedlich benannt - bei der Gedächtnisleistung (2.Gruppe) stellte sich heraus, dass die focal colors viel einfacher gemerkt werden konnten als solche, denen verschiedene Namen gegeben wurden - Interpretation: - diese und andere Studien weisen daraufhin, dass es nicht an der Sprache liegt, dass manche Farben einfacher erinnert werden als andere, sondern genau umgekehrt die focal colors sind einfacher zu erinnern als Mischfarben wie orange, türkis oder magenta; d.h. die Wahrnehmung beeinflusst die Sprache, nicht umgekehrt Konzepte: Merkmale oder Prototypen? - Konzepte = Art und Weise, wie wir die Welt kategorisieren, um es zu verstehen und darüber zu reden z.B. HUND: durch dieses Konzept können wir uns auf verschiedene Rassen beziehen - DOG ist dann natürlich mit solchen übergeordneten Konzepten wie TIERE oder HAUSTIERE verbunden - Konzepte beschäftigten schon Aristoteles, der der Meinung war, dass wir unsere Wörter logisch so definieren sollten, dass wir Verständnisfehler vermeiden - dieses Modell von Aristoteles (siehe Baddeley, Abb. 13.1) wurde später von Sprachwissenschaftlern und Psychologen (Colling & Quillian, 1969) übernommen - viele Theorien gehen davon aus, dass Konzepte eine Kombination von semantischen Merkmalen sind (wie z.B.: Merkmale des Vogels: hat Federn, legt Eier usw.) - 2 Annahmen bezüglich des Zusammenhangs zwischen Konzepten und Merkmalen: - classical theory: ein Item ist nur dann ein Beispiel für ein Konzepte, wenn alle nötigen Definitionsmerkmale passen z.B. ein Quadrat hat 4 Merkmale: - ist eine geschlossene Figur, hat 4 Seiten, alle Seiten gleich lang, alle Winkel gleich lang - jedes Objekt, das diese Merkmale erfüllt, ist ein Quadrat, und jedes Quadrat muss diese Merkmale erfüllen - doch in der Natur ist alles viel komplexer (denkt an den Vogel) - prototype theory: charakterisiert Konzepte nach typischen oder Hauptmerkmalen, die alle Mitglieder dieser Kategorie gemein haben - McCloskey & Glucksberg (1978): - Vpn wurden Kategorienamen gegeben (z.B. Früchte, Gemüse etc) und sollten dann vorgegebenes Material in die jeweiligen Kategorien einordnen - manche Objekte wurden, je nach Anlass, in verschiedene Kategorien eingeordnet, andere wiederum nur in eine Kategorie (z.B. Tomate: je nach Verwendung war es mal eine Frucht, dann wieder ein Gemüse) Frage: warum passen manche Beispiele in die prototypische Theorie und andere wiederum nicht? - liegt daran, dass gute Beispiele einer Kategorie mehr Gemeinsamkeiten aufweisen mit anderen Beispielen dieser Gruppe, wohingegen ein schlechtes Beispiel einer Kategorie nur wenig gemein hat mit anderen Beispielen dieser Gruppe 3. Ein Modell zum semantischen Gedächtnis: semantic network theories Der Computerspezialist Quillian entwickelte ein Programm, dass Texte versteht (TLC genannt) ABBILDUNG 13.3 - dieses funktionierte wie das semantische Gedächtnis - auch dieses Modell nimmt an, dass Konzepte mit Merkmalen verknüpft sind, doch Quillian geht nur von einer Verbindung aus, und es ist ein psychologisches und kein logisches Modell Funktionsweise: - geht von einer hierarchischen Anordnung der einzelnen Links zwischen den Konzepten aus - Konzepte = Knotenpunkte im Modell, die mit verschiedenen Merkmalen verbunden sind 1 wichtiges Merkmal dieses Modells ist die Annahme der cognitive economy = Merkmale, die für eine ganze Reihe von Konzepten gelten, werden auf dem höchsten Level gespeichert z.B.: weil die meisten Vögel fliegen können, sollte man die Eigenschaft des Fliegens allgemein den Vögel anhaften, und nicht jedem fliegenden Vogel ist viel sparsamer z.B.: „Canaries can fly“ dies soll verifiziert werden: 2 Stufen: 1. Klarmachen, dass Canaries Vögel sind 2. dass Vögel fliegen können dies zu verifizieren dauert in der Regel länger als „Canaries are birds“ wenn es sich auf Tiere allgemein bezieht länger, denn da müssen 3 Knotenpunkte abgegangen werden (Canary, Bird, Animal) untersucht von Collins & Quillian (1969): - 2 Aussagekategorien präsentiert: 1. Mitgliedschaft 2. Eigenschaften des vorgegebenen Beispiels 1. entweder ist es ein Statement über dasselbe Level (Canary is a canary) oder einem Level darüber (A Canary is a bird) oder 2 Level darüber (A Canary is an animal) Satzverifikation dauert sehr lange 2. Sätze über Eigenschaften bestimmter Beispiele: - wieder im gleichen Level, weil die Eigenschaft nicht für alle Items in dem darüber liegenden Level gelten (Canaries can sing), oder einem Level darüber (Canaries have wings) oder 2 Level darüber (A Canary has a skin) ABBILDUNG 13.4: - Vorhersagen des TLCs waren weitgehend richtig ABER: - das Modell ist nicht so gut wie es scheint - Carol Conrad hat durch ein Experiment gezeigt, dass man die Ergebnisse von Collins & Quillian auch auf semantische Verwandtheit zurückführen kann sollten genauer erklären, wieso das ihrer Meinung nach nicht gilt weitere Probleme: a)das TLC-Modell geht davon aus, dass alle Links gleich stark sind kann aber nicht erklären, wieso ein prototypisches Beispiel einer Kategorie einfacher zu verifizieren ist als ein atypisches Beispiel z.B.: der Link zwischen BIRD und canary ist äquivalent zu dem zwischen BIRD und ostrich, jedoch dauert es länger den Satz „An ostrich is a bird“ zu verifizieren als „a canary is a bird“; Warum?? b) es kann weiterhin die Effekte der Ähnlichkeit negativer Antworten nicht erklären - das Modell sagt aus, dass, wenn zwischen Knotenpunkten kein Link vorhanden ist, die Vpn dann mit Nein antworten sollte; ABER: das Modell kann nicht erklären, wieso die Entscheidung, dass ein Pudel kein Vogel ist, länger dauert als die Entscheidung, dass ein Pudel kein Mineral ist c) Ripps, Shoben & Smith (1973): - das Modell wurde auf logischer Basis konstruiert und nicht auf empirischen Beweisen wie soll man sich dafür entscheiden, wo die einzelnen Knotenpunkte liegen? z.B.: das Konzept PET wie sollte man dies in das Modell einfügen? Das Modell von Quillian ist historisch gesehen sehr wichtig, denn es war das erste Computerprogramm, dass versuchen sollte, Sprache zu verstehen; doch es gibt sehr wenige Beweise dafür, dass das low-level cognitive economy, wie von Quillian vorhergesagt, wirklich im semantischen Gedächtnis auftritt XI. Das Alltagsgedächtnis 1. Das autobiographische Gedächtnis = recall der Ereignisse aus unserem Leben; beinhaltet die aktive Komponente des retrieval Prozesses: recollection = Erinnerung Wie man das autobiographische Gedächtnis untersucht? 1) Galton´s cuing technique (1883) - Vpn wird ein cue-Wort präsentiert (z.B. river) sollen sich an persönliche Erfahrungen zu diesem Thema erinnern Vp erzählt; Aussagen werden nach bestimmten Charakteristika aufgeschrieben - doch diese Technik ist nur begrenzt anwendbar: denn wenn man der Vpn diese Instruktion erteilt, wird sie sich an alle möglichen Ereignisse erinnern deshalb wurden strukturierte Techniken entwickelt wie z.B.: 2) the autobiographical memory schedule von Kopelman, Wilson & Baddeley (1989) - Vpn werden nach persönlichen Infos und Ereignissen aus verschiedenen Perioden ihres Lebens befragt ABBILDUNG 12.1 - Leistungen von normalen Personen und solchen, die unter verschiedenen Formen der Amnesie leiden - sieht, dass die Leistung der Amnesiepatienten wesentlich schlechter als die der normalen Vpn sind, wobei sie auch einen größeren Defizit bei jüngsten Ereignissen haben - hohe Korrelation zwischen der Leistung des recalls von sachlichen Aspekten und der Erinnerung an persönliche Ereignisse recall der sachlichen Daten liefern einen guten allgemeinen Hinweis auf die Fähigkeit der einzelnen Personen sich an persönliche Ereignisse zu erinnern 3) Recollecting diary entries - die Verifizierung der Erinnerung stellt ein großes Problem in Galtons Technik dar, weshalb viele Forscher ihre eigenen Vpn waren und regelmäßig Tagebuch führten, z.B. Linton (1975) - Nachteile des Tagebuchführens dieser Art: 1. es werden nur Ereignisse aufgeschrieben, von denen man glaubt, dass sie wichtig sind unvollständig 2. es sind nur die Einträge einer Person - Brewer (1988): - 10 Vpn, versehen mit Aufnahmegeräten und Piepser; Piepser wurden durchschnittlich alle 2 Stunden aktiv notieren, was sie zu dem Zeitpunkt machten, wie wichtig die Aufgabe war und wie häufig es dazu kam, wie sich die Vp fühlte etc. recall des Ereignisses nach 0, 23 oder 46 Tagen mit cues wie Zeitpunkt, Ort usw. ließen vieles aus, wenn sie sich an nichts mehr erinnern konnten (190); viele Fälle, in denen das falsche reproduziert wurde (118); viele richtige Ereignisse (109); kaum Fälle, in denen zwar das richtige Ereignis reproduziert wurde, aber mit falschen Infos The feeling of knowing Bsp: Tip-of-the-tongue effect - eins der am besten untersuchten Aspekte der bewussten Erinnerung ist das des state of mind, wobei die Vpn wissen, dass sie etwas wissen, es aber nicht reproduzieren können feeling of the knowing - Hart (1965) stellte fest, dass wenn dieses Gefühl sehr groß ist, die Person es aber nicht reproduzieren kann, sie es dann aber mit größerer Wahrscheinlichkeit wieder erkennen kann als wenn das Gefühl sehr schwach ist dasselbe bei tip-of-the-tongue (TOT) effect, wenn wir versuchen, ein bestimmtes Wort zu erinnern, es aber nicht können - Brown & McNeill (1966): - lasen Vpn Definitionen seltener Begriffe vor, Vpn sollten den Begriff nennen - wenn Vp Wort nicht nennen konnte, aber dieses feeling of knowing hatte, sollte sie kurz aufhören und so viele Informationen wie möglich über das Wort nennen waren darin sehr gut, auch wenn sie sich an das Wort selbst nicht erinnern konnten Strategien des Erinnerns - wenig Untersuchungen dazu - Williams & Hollan (1981) - nennt so viele Namen wie möglich von Kindern, mit denen ihr auf einer Schule wart - Vpn sollten das über eine längere Zeit versuchen ABBILDUNG 12.3 - sie konnten sowohl viele korrekte als auch falsche Namen nennen - Vpn versuchten sich folgendermaßen zu erinnern: - erzeugen zuerst den relevanten Kontext (also Schule), durchsuchen dann die Schule nach bestimmten Namen - Brown, Lewis & Monk (1977) - untersuchten das Phänomen „negative recognition“ = die Fähigkeit, dass wir in bestimmten Fällen genau wissen, dass etwas nicht passiert ist - fanden zuerst heraus, in welcher Stadt die Vpn aufgewachsen sind; dann eine ganze Reihe von Städtenamen (nicht ihre eigene Stadt) präsentiert - erhielten später einen recognition Test, der auch ihre Stadt enthielt; wussten ganz genau, dass ihre Stadt zuvor nicht präsentiert wurde, mit der Begründung, dass es ihnen sofort aufgefallen wäre Vergessen autobiographischer Ereignisse - es gab einige Gruppenstudien zum autobiograph. Ged., die sich der Technik von Galton bedienten - Rubin, Wetzler & Nebes (1986): - untersuchten die Beziehung zwischen verstrichener Zeit und der Wahrscheinlichkeit dass ein bestimmtes Ereignis spontan erweckt werden kann durch ein zufälliges cue - Rubin (1982): - 18jährige Vpn; generelle Tendenz, dass ältere Erinnerungen weniger häufig reproduziert werden; - unter dem Alter von 5 Jahren fällt die Kurve wesentlich steiler ab dies nennt man: 1) „infantile amnesia“ - gut untersucht, aber Interpretationen gehen leider auseinander - Interpretation Nr.1: behauptet, dass ein entscheidender Aspekt des Gedächtnisses in dem Alter noch nicht entwickelt ist, weshalb Kleinkinder wie Amnesiepatienten sind (Moskovitch, 1985) - Interpretation Nr.2: der entscheidende Aspekt ist das Fehlen der Sprache in ganz jungen Jahren - Interpretation Nr.3: die Wahrnehmung der Erwachsenen ist so verschieden von denen der Kleinkinder, dass wir als Erwachsene einfach keinen Zugriff mehr auf diese Infos aus unserer frühen Kindheit mehr haben - Interpretation Nr.4: kommt von Freud (1901) und besagt, dass unsere frühen Erfahrungen durch emotionale Gründe verdrängt werden - Sheingold & Tenney (1982): - untersuchten die Fähigkeit der Kinder, sich an die Geburt eines jüngeren Geschwisterchens zu erinnern - konzentrierten sich dabei auf Kinder, die zwischen 3 und 11 Jahren waren, als das Geschwisterchen auf die Welt kam; testeten Kinder im Alter von 4, 6, 8 und 12 Jahren und auch Collegestudenten - es wurden eine Reihe von allgemeinen Fragen gestellt, die durch 37 spezifische Fragen noch ergänzt wurden (z.B.: wie lange war Mutter im Krankenhaus, wer hat sich in der Zeit um das Sie gekümmert; Bekam das Kind Geschenke; usw.) - die Vpn konnten im Durchschnitt 12 Fragen beantworten 2) autobiographical recollection cuing - wie gut werden also autobiograph. Ereignisse erinnert? - wir haben bis jetzt verschiedene Ergebnisse kennengelernt, die entweder gar keine nur sehr schlechte Erinnerung nachwiesen (Brewer) oder sehr gute recall-Leistungen lieferten (s.o.) Gründe: a) das liegt aber zum einen an der Wichtigkeit der einzelnen Ereignisse: Geburt ist ein sehr wichtiges Ereignis für ein Kind, wobei solche Ereignisse, die Brewer untersuchte, weitaus weniger einschneidend waren b) wichtig ist auch die Anzahl der cues: - Hudson & Fivush (1987): - untersuchten free und probed recall bei 5jährigen Kindern, die ein archäologisches Museum besucht hatten - nach 6 Wochen, 1 Jahr und 6 Jahren wurden sie danach befragt - zuerst wurden allgemeine Fragen (cues) gestellt, dann immer spezifischer (z.B. „Erinnerst du dich daran, dass es ein archäologisches Museum war?“) und schließlich wurden auch einige Fotos des Besuchs gezeigt - durch die speziellen cues konnten die Vpn 87% der Fakten reproduzieren 3) autobiographical distortion (Verzerrung, Trübung) - die bisher beschriebenen Untersuchungen lassen vermuten, dass es keine Trübung der Erinnerung gibt, wenn zumindest die richtigen cues dargeboten werden doch distortion tritt dennoch auf (z.B. bei Augenzeugenberichten) - ein wichtiger Faktor ist die Art der erinnerten Ereignisse; die Tagebuch-Studien und die Untersuchungen von Kindern beinhalteten herausstechende Ereignisse - weiterhin werden von den Vpn nicht sehr detaillierte Beschreibungen der Ereignisse verlangt - 3. sind die dazugehörigen emotionalen Faktoren sehr wichtig - Neisser (1982): - untersucht die Richtigkeit und die Genauigkeit der Erinnerungen; hier die Aussagen des Watergate-Verschwörers John Dean - während der Watergate Untersuchungen erzählte Dean sehr ausführlich über seine Gespräche mit President Nixon; die Aussage war aber so ausführlich, dass die Presse ihn mit „der Mann mit einem Aufnahmegerät im Gehirn“ betitelte - Neisser konnte feststellen, dass die Aussagen, wenn sie sehr weitläufig waren, weitgehend richtig waren; doch wenn er sich detaillierter auslassen sollte, kamen sehr viele Fehler auf seine Aussagen waren also richtig in Bezug auf das Gesamtgeschehen, aber nicht genau die meisten Erinnerungen sind im Grunde fehlerfrei; Fehler tauchen auf, wenn wir uns mit aller Kraft an ein Ereignis detailliert zu erinnern versuchen; dadurch entstehen diese Verzerrungen in unserer Erinnerung 2. flashbulb memories diese Bezeichnung kommt von Brown & Kulik (1977) - Vpn wurden gefragt, ob sie reproduzieren könnten, wie sie von der Ermordung John F. Kennedys oder von der Ermordung Abraham Lincolns 1889 gehört hatten; im letzten Beispiel konnten von 179 Personen 127 genaue Angaben darüber machen, wo sie sich zu dem Zeitpunkt aufhielten und was sie gerade machten - es wurden insgesamt 10 Fragen zu solchen dramatischen Ereignissen gestellt - viele dieser Ereignisse wurden von lebhaften Erinnerungen begleitet; je einschneidender dieses Geschehen, desto größer die Wahrscheinlichkeit einer lebhaften „flashbulb“ (Blitzbirne (Fotografie)) Erinnerungen doch Neisser betonte, dass solche lebhaften Erinnerungen nicht auch immer die genauesten Erinnerungen sind wie man dies auch in Augenzeugenberichten erlebt 3. Augenzeugenberichte in Augenzeugenberichten ist die Genauigkeit der Aussagen sehr wichtig es ist schwer die Richtigkeit solcher Aussagen einzuschätzen Fehler tauchen nicht nur in solchen Fällen auf, in denen z.B. das Gesicht des Täters nur kurz gesehen wurde, sondern auch bei Objekten oder Ereignissen, die man sehr häufig sieht J.McKeen Cattell berichtete 1895 von einer Studie, in der Studenten eine Reihe von Fragen gestellt wurde, z.B.: - Verlieren Kastanienbäume oder Eichen ihre Blätter im Herbst früher? Nur 59% der Studenten wussten, dass Kastanienbäume früher ihre Blätter verlieren. - Stehen Pferde auf der Weide mit dem Kopf oder mit dem Schwanz gegen den Wind? Dass die Pferde mit dem Schwanz gegen den Wind stehen, wussten 64%. - In welche Richtung zeigen die Kerne eines Apfels? Nur 39% wussten, dass die Kerne Richtung Stiel zeigen Nickerson & Adams (1979): - untersuchten, mit welcher Genauigkeit man sich an allgemein erlebte Dinge erinnern kann - amerikanische Vpn sollten aus dem Gedächtnis heraus malen, was auf beiden Seiten eines US penny´s abgebildet ist; - nur 3 der 8 entscheidenden Merkmale konnten reproduziert werden, und diese waren oftmals auch falsch platziert was wir in solchen Fällen reproduzieren sind nicht das, was wir erleben, sondern das, was wir diesen Erfahrungen entwenden Das Erkennen von Gesichtern ist in Augenzeugenberichten sehr wichtig Ein Komitee, das von Lord Devlin 1976 gegründet wurde, veröffentlichte einen Bericht, der sich mit Gegenüberstellungen und Augenzeugenberichten befasste; 2000 Gegenüberstellungen in England und Wales im Jahre 1973; insgesamt in 45% dieser Fälle konnte ein Verdächtiger herausgesucht werden, 82% dieser Verdächtigen wurden dann auch verurteilt; so ähnlich war es bei Augenzeugenberichten Doch muss gesagt werden, dass solche Berichte sehr oft sehr verzerrt und ungenau sind Wenn wir versuchen, eine verbale Beschreibung des Täters zu bekommen, ist es meist nur von geringem Wert; auch Phantombilder, erstellt von Profis, sind nur dann gut, wenn auch die Aussage des Augenzeugen gut ist Ein weitere Lösung ist das PHOTOFIT; es beinhaltet eine Box mit verschiedene Gesichtsmerkmalen (Augen, Nasen etc.); zusammen mit dem Augenzeugen wird versucht, ein Bild des Verdächtigen zu entwickeln; - doch wie einige Forscher herausfanden, eignet sich dieses Verfahren nur sehr wenig - wie schon gesagt, haben viele Menschen auch dann Schwierigkeiten, wenn sie ein ihnen bekanntes Gesicht beschreiben sollen - wenn man dann noch bedenkt, dass Täter oftmals ihr Gesicht verändern (mit Masken, Perücken etc.), dann wird die Identifikation umso schwieriger 4. Das prospektive Gedächtnis Weshalb vergessen wir z.B. einen Termin einzuhalten oder Besorgungen zu machen etc.? Dies hat was mit dem prospektiven Gedächtnis und den darin liegenden Prozessen, die für Vergessen verantwortlich sind, zu tun Charakteristika des prospektiven Gedächtnisses: 1. Prospektives Erinnern scheint mit unserem Leben in Verbindung zu stehen 2. der cuing Effekt: helfen uns dabei, uns an unsere Aufgaben zu erinnern 3. der Grad der Verlegenheit, der durch diesen Vorfall verursacht wird wir vergessen Dinge, die für uns nicht sehr wichtig erscheinen oder die wir nicht mögen prospektives Gedächtnis - wenn etwas gemerkt werden soll retrospektives Gedächtnis - was gemerkt werden soll - wenig Infogehalt: man soll sich nur merken, dass man sich mit einem Freund trifft, aber nicht was man ihm sagen wird - prospektives Vergessen scheint eine starke moralische Komponente zu haben, welche oftmals Verlegenheiten zur Folge hat ( zeigt die Bedeutung für das Sozialleben) - hat mit der Menge der Information etwas zu tun - retrospektives Vergessen ist in diesem Punkt sehr neutral obwohl sich an etwas zu erinnern etwas ganz anderes ist als das verbale Langzeitgedächtnis, ist ein intaktes Langzeitgedächtnis dennoch wichtig für erfolgreiches prospektives Erinnern Rivermead Behavioral Memory Test = Test für Alltagsgedächtnis, um Probleme von Patienten zu überwachen; enthält eine ganze Reihe von prospektiven Gedächtnisaufgaben - Patienten, die Gedächtnisdefizite aufweisen, erbringen nur sehr schlechte Leistungen in diesem Test (so schlecht, wie bei verbalen Aufgaben, wie z.B. das Erinnern an Namen) Bei Untersuchungen des prospektiven Gedächtnisses werden häufig Tagebuchstudien verwendet, in denen Vpn notieren sollen, was sie vergessen haben Meacham & Kushner (1980): - wenn die Absichten mit anderen Menschen zu tun haben, z.B. Treffen mit nem Freund, dann werden diese weitaus weniger vergessen als solche, die mit irgendwelchen Gegenständen zu tun haben z.B. Brief abschicken Ellis (1988): - 2 Arten des prospektiven Gedächtnisses: - pulses = beinhaltet das Bedürfnis/die Erfordernis, sich zu einer bestimmten Zeit an etwas zu erinnern, z.B. Zahnarzttermin um 4 Uhr nächsten Dienstag - steps = sich an etwas erinnern, dass innerhalb eines breiteren Zeitraums gemacht werden muss pulses werden besser erinnert, als wichtiger eingestuft als steps XII. Vergessenstheorien Erinnerung: Ebbinghaus und die Vergessenskurve, sowie die Ersparnismethode!!! 1. Die Vergessenskurve Namen und Gesichter: - wie sieht Kurve aus, wenn unter natürlichen Bedingungen getestet? - Bahrick, Bahrick & Wittlinger (1975): - Gedächtnis für Namen und Fotos von Klassenkameraden untersucht - verschiedene Untersuchungsarten - einige Vpn zeigten auch nach 25 Jahren fast kein Vergessen - wenig Vergessen trat auf bei der Fähigkeit Namen von alten Klassenkameraden unter fremden Namen, und ihre Fotos zu erkennen - Reproduktion der Namen und Zuordnen der Namen zu Bildern sehr schlecht - Kurve: - Vergessenskurve hier fast linear, wenn es in Logarithmen ausgedrückt wird - ABER: Absinken der Kurve bei Vpn, die das längste Behaltensintervall hatten (ca.50 Jahre) ob dies mit der verstrichenen Zeit oder mit dem Alter der Vpn zu tun hat, ist nicht klar - wenn man sich an flüchtige Bekannte erinnern soll, ist die allgemeine Leistung (wie Bahrick in einer anderen Studie feststellte) wesentlich schlechter, aber Namen besser erinnert als Gesichter Komplexe Fähigkeiten - kaum Vergessen bei kontinuierlichen motorischen Fähigkeiten (Fahrrad fahren, Auto fahren etc.), in denen die Vpn Teil eines kontinuierlichen feedback-Schleife der Aktivität ist - diskrete motor. F. wie z.B. Schreibmaschinenschreiben, bei denen ein individueller Reiz mit einer spezifischen Antwort assoziiert werden muss hier vermehrt Vergessen vorhanden Autobiographische Ereignisse - das Behalten von täglichen Ereignissen untersucht von Marigold Linton (1975), die täglich über 5 Jahre hinweg 2 Ereignisse aufschrieb zu bestimmten Intervallen wurde dann zufällig eine Reihe von Items rausgesucht, die sie genauestens datieren sollte; wenn dies nicht möglich war, so wurden diese Items aus dem Set eliminiert und notiert Vergessenskurve war linear, mit einem Abfall von 5% pro Jahr und nicht logarithmisch wie die Vergessenskurve von Ebbinghaus die klassische Vergessenskurve von Ebbinghaus ist nicht allgemeingültig; doch sind wir jetzt noch nicht in der Lage, die oben beschriebenen Ergebnisse vollständig zu interpretieren 2. Die Rolle der Interferenz McGeoch & McDonald (1931) - manipulierten systematisch Interferenz durch Variation der Ähnlichkeit zwischem dem Material, das reproduziert werden soll und der interferierenden Aktivität - Vpn lernten Liste mit Adjektiven bis sie es perfekt wiedergeben konnten - danach gab´s entweder eine Pause oder lernten neues Material, das so ähnlich war wie die alte Liste - je ähnlicher beide Listen wurden, desto kleiner wurde die Menge, die behalten wurde; schlechteste Leistung dann, wenn sie Synonyme originalen Adjektive lernen sollten Unterstützung für Interferenz-Hypothese - ich lasse proaktive und retroaktive Interferenz und Release from PI aus, da ich diese Punkte schon ziemlich ausführlich in Kapitel 4 erläutert habe; wer dennoch mehr erfahren möchte, lese es noch mal nach Was bestimmt die Vergessensrate? - Underwood & Postman (1960) - untersuchten die extra-experimentelle Interferenz-Hypothese ( = also dass Personen, die noch nie mit sinnarmen Silben in Kontakt gekommen sind, innerhalb von 24 diese wieder vergessen): keine Unterschiede in der Vergessensrate aufgrund unterschiedlichen Materials - egal ob die Vpn häufig oder selten gebräuchliche Wörter lernen mussten, ob es Silben waren, die dem Englischen ähnlich oder fremd waren (z.B. bal oder zij): diese hatten zwar einen großen Effekt auf das Lernen an sich, aber keinen Effekt auf die Vergessensrate - Slamecka fand heraus, dass die Anzahl der Items, die pro Zeiteinheit vergessen werden, nicht von Anfangslernen abhängig ist (auch bestätigt von anderen Experimentatoren) Cue abhängiges Vergessen - neuere Studien zur Interferenz beschäftigen sich mit der Frage, ob Interferenz den Wettbewerb zwischen den Antworten reflektiert oder ob es die aktive Schwächung der ersten Antwort durch die zweite Antwort darstellt - man favorisierte die letztere Variante weil viele Studien zeigen konnten, dass das Lernen eines 2. Sets die Fähigkeit der Vp blockiert, das vorherige Material zu reproduzieren - alternative Hypothese von Tulving - Vergessen tritt auf, weil keine passenden cues dargeboten werden und nicht weil vorheriges Material überschrieben wird demnach müsste das vergessene Material wieder reproduzierbar sein, wenn entsprechende cues geliefert werden - Tulving & Psotka (1971): cue abhängiges Vergessen bei retroaktiver Interferenz (RI) - Liste mit 24 Wörtern lernen; 6 verschiedene Kategorien á 4 Wörter; nach 3maligem Präsentieren versuchten Vpn so viele wie möglich zu reproduzieren; dann 2. Teil des Experiments: entweder 0, 1, 2, 3, oder 5 weitere Listen lernen, 3x Präsentation und wieder immediate free recall; 3.Teil: Vpn sollten so viele Items wie möglich aus allen Listen wiedergeben - deutlicher Beweis für RI: je mehr Listen, desto schlechter die Leistung weil Vpn ganze Kategorien vergessen - nach 10minütiger Pause wurden Vpn die Kategoriennamen präsentiert cued recall hier Leistung so gut wie beim ersten free recall für nähere Infos zum Retrieval Fehler im Vergessensprozess siehe Kapitel 1 XIII. Wissenrepräsentationen Wichtig: hierzu gehören auch Propositionen und mentale Vorstellungsbilder, die ich im Kapitel VI beschrieben habe Repräsentation = Bezeichnung oder Zeichen oder Reihe von Symbolen, die etwas darstellen; steht oft in für Aspekt der externen Welt oder Objekt unserer Vorstellung Externe Repräsentationen: Mappen, Menüs, Bilder, geschriebene Skripte Repräsentationen external bildlich internal sprachlich symbolisch verteilt analog propositional Objekt Relationen Schemata 1. propositionale Darstellung Ist eine gängige Methode zur analysierenden Darstellung/Beschreibung bedeutungshaltiger Infos Proposition ist ein linguistischer Begriff = ist die kleinste Wissenseinheit, die eine selbständige Aussage bilden kann z.B.: Lincoln, der Präsident der Vereinigten Staaten während eines bitteren Krieges war, befreite die Sklaven - die Info des Satzes lässt sich auch mit folgenden einfacheren Sätzen ausdrücken: a) Lincoln war der Präsident der Vereinigten Staaten während eines Krieges b) der Krieg war bitter c) Lincoln befreite die Sklaven Wäre eines dieser Sätze falsch, wäre auch der komplette Satz nicht wahr; die einfachsten entsprechen den Propositionen, die der Bedeutung des komplexen Satzes zugrunde liegen; jede der einfachen Sätze drückt eine primitive Bedeutungseinheit aus (propositionale Darstellung) Es liefert aber keinen empirischen Nachweis, das der Mensch einfache Sätze wie a)-c) im Gedächtnis speichert Info scheint eher im Gedächtnis so repräsentiert zu sein, dass die Bedeutung der elementaren Aussagen, aber nicht der exakte Wortlaut erhalten bleibt Propositionale Analysen stellen das Erinnerungsvermögen für komplexe Sätze anhand einfacher abstrakter propositionaler Einheiten dar Propositionale Info lässt sich auch in Netzwerken darstellen, die die Assoziationen zwischen Konzepten repräsentieren je näher sich zwei Wörter im Netzwerk stehen, desto eher werden sie miteinander in Verbindung gebracht ABBILDUNG VON SEITE 28 (aus dem anderen Skript) 2. Schemata Bartletts Konzept der Schemata (1932) - entwickelte eine Interpretation des Gedächtnisses: Vpn erinnern neu gelerntes Material in bestimmten Strukturen, die er Schemata nannte - das Konzept der Schemata wurde eigentlich von einem Neurobiologen, Henry Head, geliefert - nach Bartlett sind Schemata organisierte Strukturen, die sich auf unser Wissen und unsere Erwartungen bestimmter Aspekte der Welt beziehen sozusagen ein Model über unsere Umwelt und unsere Erfahrungen es sind generelle begriffliche Rahmen oder Wissensstrukturen, die Vorannahmen über bestimmte Gegenstände, Menschen, Situationen und die Art ihrer Beziehungen enthalten viele Konstruktionen und Verzerrungen beim Erinnern resultieren daraus, dass neue Infos im Licht der Erwartungen bereits existierender Schemata interpretiert werden Schemata sind sehr bedeutsam bei der Organisation und Sinngebung von Details und beim Erinnern von Einzelheiten werden oft aufgrund fehlenden Verständnisses unwissentlich zugunsten vorhandener Schemata verändert dies geschieht auf 3 Arten: a) nivellieren = Geschichte vereinfachen b) akzentuieren = bestimmte Details hervorheben c) assimilieren = Einzelheiten so verändern, dass sie besser passen wir verstehen Texte, indem wir die eingehenden Infos auf unsere vorhandenen Schemata beziehen werden aktiviert durch spezielle Wörter und Kontexte Vorteile von Schemata: - Vorteil besteht darin, dass sie den Erklärungswert von propositionalen Repräsentationen teilen und zugleich globale und vielschichtige Objekte in einer einheitlichen Weise repräsentieren können; - Schemata sind dynamisch und veränderbar - können untergeordnete Schemata mit einschließen (z.B.: unter dem Schema Restaurantbesuch kommt das Schema bezahlen); es enthält Leerstellen, die je nach Info mit konkreten Werten besetzt werden (Instantiierung) - das aktivierte Schema richtet die Aufmerksamkeit auf relevante Aspekte; es ist möglich, fehlende Infos zu aktivieren bzw. Inkonsistenzen im Text zu glätten oftmals werden daher Details hinzugedichtet, die gar nicht in einer Geschichte/einem Erlebnis vorkamen 3. Skripte Schank & Abelson (1977) nehmen an, dass wir Schemata und Skripte erstellen, die allgemein erlebte soziale Ereignisse wie z.B. den Bus erwischen oder ins Restaurant gehen repräsentieren - das ermöglicht es uns, eine Menge Detail einzufügen - z.B. Skript für Restaurantbesuch: reingehen Tisch aussuchen Karte lesen Bestellen Essen Bezahlen Gehen … ABBILDUNG 13.4 - zeigt, wie so ein Skript genau aussehen würde (zur Geschichte „War of the Ghosts“) - das Skript können wir verstehen, da wir selber in Restaurants gehen - jemand der in der Wüste lebt etc. kann es nicht verstehen - Skripte = sind Möglichkeiten, allgemeingültige kulturelle Annahmen zu beschreiben sind daher sehr hilfreich, nicht nur, um das Geschehnis zu verstehen, sondern auch um vorhersagen zu können, was passieren wird, um sich dann der Situation entsprechen verhalten zu können Einschränkung: Skripte sind konservativ, d.h. sie speichern nur das, was man schon weiß, und können daher nur einen Teil des normalen Gedächtnisses sein - wie Bower et. al. festgestellt haben, konnten die Vpn in einem Experiment nur Abweichungen vom Skript bemerken, z.B. dass das falsche Essen geliefert wurde, aber Schwierigkeiten dabei hatten, Ereignisse zu reproduzieren, die mit dem Skript konsistent waren Skripte begünstigen Fehler beim Erinnern, beeinflussen Abfolge beim Erinnern Sind wichtig für die Strukturierung von Texten Inhalte werden besser verstanden, wenn sie der Struktur des Ereignis-Skripts folgen