Lernen, Gedächtnis, Sprache

Werbung
Allgemeine Psychologie I
Lernen, Gedächtnis, Sprache
Dr. Wiese
Sommersemester 2009
1
Vorwort
Ich stelle meine zum Teil sehr ausführliche Mitschrift zur Verfügung, die um die entsprechenden
Passagen der Lehrbücher ergänzt wurde. Sie beginnt mit einer kleinen Einführung und den
wichtigsten Patienten, die man kennen sollte und folgt dann relativ konform der Vorlesung. Zu
beachten ist, dass sich die Inhalte der Vorlesung von Jahr zu Jahr ändern können.
Ich habe alles nochmal nachgelesen und vieles mehr oder weniger wörtlich aus den Büchern
übernommen. Trotzdem kann ich nicht ausschließen, dass sich Fehler eingeschlichen haben. Wenn
Du Kritik, Lob oder Verbesserungsvorschläge äußern möchtest, kannst Du mir eine E-Mail
schicken: Janis.Etzel[ät]web.de
Janis Etzel (SoSe 2009)
Pflichtliteratur:
• Baddeley, A.D. (1999). Essentials of Human Memory. Hove: Psychology Press, 1999. Hierin
Kapitel 1,2,3,5,6,11.
• Becker-Carus, C. (2004). Allgemeine Psychologie. Eine Einführung. Heidelberg: Spektrum
Adademischer Verlag, 2004. (Hierin Kapitel 8, 10, 11)
• Müsseler, J. & Prinz, W.. (2004). Allgemeine Psychologie. Heidelberg: Spektrum Adademischer
Verlag, 2004. (Hierin Kapitel 4a)
Vertiefende Literatur (fakultativ)
• Baddeley, A.D. (1999). Essentials of Human Memory. Hove: Psychology Press, 1999. Hierin die
Kapitel 9 und 10 (vormals Pflichtliteratur).
• Baddeley, A. (2000) The episodic buffer: a new component of working memory? Trends in
Cognitive Sciences, 4, 417–423. (vormals Pflichtliteratur)
• Eichenbaum, H. (2002). The Cognitive Neuroscience of Memory. Oxford: Oxford University
Press.
• Ward, J. (2006). The Student´s Guide to Cognitive Neuroscience. Hove, New York: Psychology
Press, 2006 (insbes. Kap. 9-11).
• Tulving, E. (2002). Episodic memory: From mind to brain. Annual Review of Psychology, 53, 125.
Es kann sich lohnen, den Artikel von Baddeley (2000) nachzulesen, da es zum Datum der
Veröffentlichung seines Buches die Theorie des episodischen Puffers noch nicht gab, und dieser
folgerichtig noch nicht beschrieben ist. Er wurde trotzdem in der Vorlesung behandelt.
2
Wie forschen Gedächtnispsychologen?
Fragt man Probanden, wie sie Lernen und wie gut ihr Gedächtnis funktioniert, neigen sie
dazu ihre Fähigkeit falsch einzuschätzen. Stattdessen untersuchen sie Probanden in
Aufgaben, die Gedächtnisleistung erfordern, und bewerten wie gut oder schlecht sie in
variierenden Bedingungen sind. Besonderes Interesse gilt systematischen Fehlern die
auftreten.
Eine andere Möglichkeit ist, Patienten zu untersuchen, die fokale neurologische Läsionen
erlitten haben (z.B. Schlaganfall). Diese Patienten haben oft spezifische Ausfälle
verschiedener Gedächtnis-Formen. So kann man untersuchen, wie Gedächtnisformen
zusammenhängen. Ein solcher Patient ist der Patient H.M..
Eine dritte Möglichkeit sind neurochirurgische Studien an Tieren. Durch gezielte Läsion
verschiedener Gehirnareale lassen sich Erkenntnisse über Neuroanatomie und
Gedächtnisabläufe und -Leistung gewinnen.
Warum nutzen so viele Studien verbales Material?
1) Sprache scheint eine wichtige Rolle für das menschliche Gedächtnis zu spielen.
Menschen tendieren dazu, visuelle Stimuli verbal zu beschreiben. Ein visuell-präsentierter
Stimulus wird also normalerweise nicht nur bildlich sondern auch verbal erinnert.
2) Verbales Material ist praktischer. Verbales Material ist viel einfacher auszuwählen und zu
kontrollieren als visuelle, taktile oder akkustische Stimuli. Außerdem kann verbales Material
gesprochen oder geschrieben präsentiert werden und in beiden Formen wieder abgerufen
werden. Mit visuellem Material ist man für gewöhnlich auf wiedererkennenden Abruf
(recognition) beschränkt.
Patient Clive Wearing
Patient Clive Wearing war ein talentierter Musiker, der an Herpes Simplex erkrankte. Das
Virus überwand die Blut-Hirn-Schranke und verursachte Enzephalitis. Das Virus verursachte
massive Schädigungen in seinem Gehirn, unter anderem am Hippocampus, Frontallappen
und Temporallappen. Wearing ist so beeinträchtigt, dass er sich Dinge nur einige Minuten
merken kann (schwere anterograde Amnesie). Er lebt in einem Zustand permanenter
Gegenwart, unfähig Veränderungen zu bemerken oder ausgehend von Vergangenem
Zukünftiges zu antizipieren.
Sein Gedächtnis für Vergangenes ist weniger schwer betroffen. Er weiß, wer er ist und einen
kurzen Überblick über sein Leben geben, jedoch mit wenig akkuraten Details (leichte
retrograde Amnesie). Ebenso ist sein visuelles Gedächtnis geschädigt - Er verbrachte vier
Jahre in Cambridge, aber er erkennt keine Bilder vom Campus. Sein Allgemeinwissen ist
ebenfalls reduziert - zum Beispiel kann er nicht sagen, wer der Autor von "Romeo und
Julia" ist.
Ein bestimmtes Gebiet ist jedoch nicht geschädigt, nämlich sein musikalisches Talent. Er
kann Noten lesen, eine Begleitung spielen und mit großem Talent und großer Hingabe
Singen (unbeeintrachtigtes implizites motorisches Gedächtnis).
3
Patient H.M.
Der Patient H.M. litt unter schweren epileptischen Anfällen. In einer Operation wurden ihm
auf beiden Seiten Teile des Temporallappens, darunter der Hippocampus, entfernt.
Nach der Operation litt H.M. an anterograder Amnesie, zeigte aber nur ein geringes Ausmaß
an retrograder Amnesie. Die Operation hatte keine Auswirkungen auf die Intelligenz,
motorisches Lernen, Priming oder das Kurzzeitgedächtnis (Test wie oben).
Aus diesen Beobachtungen lassen sich folgende Schlüsse ziehen: Es gibt zwei verschiedene
Arten von Gedächtnis, das KZG und das LZG. Das LZG wiederum lässt sich in Systeme mit
deklaritiven (nicht-prozeduralen) und nicht-deklarativen (prozeduralen) Eigenschaften
unterteilen.
Der Hippocampus (und das umliegende Gewebe) ist nicht notwendig für kurzzeitige
Speicherung, Priming oder motorisches Lernen, aber für die Konsolidierung episodischer
und semantischen Gedächtnisinhalte. Er ist nicht endgültiger Speicherort der Erinnerungen
und ist für den Abruf von Erinnerungen nicht notwendig.
Patientin PV
Nach einem Schlaganfall hatte die italienische Patientin PV starke Beeinträchtigungen im
auditorischen Kurzzeitgedächtnis davongetragen. Semantisches und visuelles Gedächtnis
waren unbeeinträchtigt, weshalb sie (vermutlich) normale Leistung in den meisten KZGAufgaben zeigte. An ihr wurden verschiedene Experimente zu geschriebener und
gesprochener Sprache durchgeführt.
Sie zeigte wenig Beeinträchtigung beim Lesen, woraus man schloss, dass die phonologische
Schleife nicht unbedingt zum Lesen benötigt wird, diese aber eine Art Kontrollmechanismus
(Fehler, Reihenfolge von Informationen) darstellt.
Dann beschloss man, ihr russische Vokabeln beizubringen. Zwei Arten wurden ausprobiert:
1) Sie lernte zwei italienische Worte zu assoziieren (e.g. cavallo-libro, Pferd-Buch).
Sie zeigte normale Leistung.
2) Dann sollte sie ein russisches Wort mit dem italienischen Äquivalent assoziieren.
Sie zeigte Beeinträchtigungen und lernte in der Tat kein einziges russisches Wort.
Daraus schloss man, dass die phonologische Schleife massgeblich beim Spracherwerb
beteiligt ist.
4
Digit Span
Personen werden Item-Sequenzen präsentiert und gebeten, sie in der genauen Reihenfolge
zu wiederholen. Die Länge der Sequenzen wird stetig erhöht, bis der Punkt erreicht ist, an
dem die Person immer scheitert. Die Halbe Sequenzlänge davon ist die Länge, die als Digit
Span definiert ist.
Selektive Interferenz
Es gibt die Hypothese, dass sich Personen Zahlenlisten wie z.B. Telefonnummern durch
interne Wiederholung (rehearsal) merken. Wenn die Personen daran gehindert werden, sollte
die Gedächtnisleistung dramatisch sinken.
Artikulatorische Suppression
Eine Methode, Personen an der internen Wiederholung zu hindern, ist die "selektive
Interferenz". Die Idee ist, dass das mehrmalige laute Aussprechen eines irrelevanten Wortes
("the") das interne Wiederholen verhindern und die Leistung dramatisch senken sollte.
Zwar senkt die artikulatorische Suppression die Leistung, aber auch systematische Fehler,
wie z.B. die Vertauschung ähnlich klingender Buchstaben (wie bei Conrad & Hull 1964)
oder der Wortlängeneffekt (siehe Baddeley et al 1975) verschwinden.
Neurophysiologie des Gedächtnisses
Sensorische Informationen werden auf neuronaler Ebene repräsentiert. Man geht davon aus,
dass eine Kette von elektrophysiologischen und neurochemischen Veränderungen im Gehirn
an Lernprozessen beteiligt sind.
Neuronen-Schleifen
Die Schleifenbildung ist die Basis für das KZG. Neurone sind in Schleifen verschaltet. Die
Aktivität der Schleifen-Neurone kann selbst dann weiterbestehen, wenn der sensorische Reiz
nicht mehr besteht.
Langzeitpotenzierung
Unter Langzeitpotenzierung (LTP) versteht man eine langandauernde Verstärkung der
synaptischen Übertragung. LTP benötigt Aktivität an beiden Rezeptoren auf beiden Seiten
der Synapse. Wenn zwei Neurone oft miteinander feuern, dann kann dies zwei
Auswirkungen haben:
1) Schon ein schwacher prä-synaptischer Stimulus bewirkt das Feuern des
postsynaptischen Neurons und
2) die Art der "Verknüpfung" der beteiligten Neurone ändert sich.
Besonders viele Zellen, die mit LTP assoziiert werden sind im Hippocampus lokalisiert,
sodass angenommen wird, dass dieser eine entscheidende Rolle bei der Konsolidierung Frei
nach der Hebb-Regel: "what fires together, wires together".
Hebb Regel:
„Wenn ein Axon der Zelle A […] Zelle B erregt und wiederholt und dauerhaft zur
Erzeugung von Aktionspotenzialen in Zelle B beiträgt, so resultiert dies in
Wachstumsprozessen oder metabolischen Veränderungen in einer oder in beiden Zellen, die
bewirken, dass die Effizienz von Zelle A in Bezug auf die Erzeugung eines
Aktionspotenzials in B größer wird.“
5
Hippocampus
Der Hippocampus ist nicht Speicherort von Erinnerungen aber eminent wichtig für die
Gedächtniskonsolidierung, also die Verfestigung von Gedächtnisspuren nach initialem
Erwerb. Es wurde nachgewiesen, dass sich im erwachsenen Gehirn im Hippocampus neue
Verbindungen zwischen bestehenden Nervenzellen bilden (synaptische Plastizität) und dass
diese Neubildung mit dem Erwerb neuer Gedächtnisinhalte zusammenhängt. Hier befinden
sich spezielle Glutamat-Rezeptoren (NMDA), die an der Langzeit-Potenzierung beteiligt
sind. Menschen, bei denen beide Hippocampi entfernt oder zerstört wurden, können keine
neuen Erinnerungen formen und weisen somit eine anterograde Amnesie auf. Alte
Erinnerungen bleiben jedoch meist erhalten.
Kurz- und Langzeit-Habituation:
Unter Habituation versteht man eine einfach nicht-assoziative Form des Lernens.
Habituation ist die Abnahme der Reaktionsbereitschaft bei wiederholter folgenloser
Darbietung des selben Stimulus. Die Habituation ist stimulus-spezifisch (single-eventlearning). Das Gegenteil ist die Sensitivierung, die erhöhte Reaktionsbereitschaft gegenüber
einem (oft aversiven) Stimulus. Nicht die Reaktion wird habituiert, sondern die Reaktion als
Folge des Stimulus (d.h. die Fähigkeit des Stimulus die Reaktion auszulösen sinkt, und nicht
die Reaktionsfähigkeit sinkt). Der Lernprozess verläuft asymptotisch.
Bei der Habituation gibt es keine Veränderung der Aktionspotentiale sensorischer Neurone.
Bei kurfristiger Habituation findet die Veränderung in einer Reduktion der
Transmitterbläschen in der präsynaptischen Endung statt und die Bläschen können
schlechter mit der Membran verschmelzen.
Langzeithabituation bei Aplysia: Bei Aplysia verlieren dabei 70% der sensorischen Neurone
ihre synaptische Verbindung zu den motorischen Kiemenreflexneuronen. Die verbleibenden
Neurone weisen ca. 35% weniger Synapsen mit den motorischen Neuronen auf. Die
synaptische Verbindung zwischen diesen Neuronen ist so geschwächt, dass sie selbst bei
6
starker Reizung kaum oder gar nicht mehr gar nicht mehr aktiviert werden konnten.
Subitizing
Subitizing (Simultanerfassung): Fähigkeit, die Anzahl von visuellen Stimuli schnell und
genau wiederzugeben, ohne zu zählen (z.B Augenzahl auf einem Würfel).
Bei einem normalen Erwachsenen liegt die Grenze bei etwa 4-5 Items. Überschreite die
Anzahl der gezeigten Stimuli diese Grenze, muss gezählt werden.
Werden die Stimuli nur kurz präsentiert, kann der Proband die Stimuli kurz im ikonischen
Gedächtnis behalten und dort zählen.
Conrad & Hull (1964)
In diesem Experiment sollten sich Probanden eine Reihe von Konsonanten einprägen (z.B. l,
r, p, f, q, h). Anschließend wurden sie gebeten, diese Reihe laut zu wiederholen. Die meisten
Buchstaben konnten korrekt wiedergegeben werden, es traten jedoch systematische Fehler
auf. Die Probanden tendierten dazu, Buchstaben durch ähnlich klingende zu ersetzen (b für p
oder s für f etc.). Daraus lässt sich schließen, dass die Buchstaben eher verbal oder
akkustisch als visuell kodiert wurden.
Wie viele Arten von Gedächtnis?
Viele Wissenschaftler gehen heute von drei Arten von Gedächntis aus: Sensorisches
Gedächtnis, Kurzzeitgedächtnis, Langzeitgedächtnis.
Beruhen KZG und LZG auf unterschiedlichen Systemen?
1.  Bei amnestischen Patienten kann das KZG völlig intakt sein:
1.  intakte Zahlenmerkspanne (e.g. Baddeley & Warrington 1970).
2.  intakter End-Effekt (Recency-Effekt) beim Lernen von Listen.
3.  Normale Effekte in der Brown-Peterson Aufgabe
2.  Umgekehrt gibt es Patienten, die ein gestörtes verbales KZG bei gleichzeitig intaktem
LZG haben -> doppelte Dissoziation. (e.g., Shallice & Warrington, 1970).
3.  Kodierung im KZG scheint eher nach phonologischen, im LZG eher nach semantischen
Merkmalen zu erfolgen (Conrad, 1964; Baddeley, 1966)
Model von Atkinson and Shiffrin (1968)
Das Modell geht davon aus, dass sensorische Informationen der Umwelt parallel in
verschiedenen sensorischen Gedächtnisspreichern (ikonisch, echoisch, haptisch) sehr kurz
gespeichert wird.
Das Kurzzeitgedächtnis oder Arbeitsgedächtnis empfängt Informationen vom Sensorischen
Gedächtnis, verarbeitet diese und bezieht sie zu Inhalten des Langzeitgedächtnisses. Ohne
aufrechterhaltendes oder elaboriertes Wiederholen verblassen die Informationen sehr
schnell. Prozesse des KZGs sind u.a. interne Wiederholung, Organisation, Kodierung und
Abrufung von Informationen. Sind Informationen konsolidiert worden, werden sie im LZG
gespeichert.
Im Langzeitgedächtnis ist ein langandauernder, fast unbegrenzter Speicher für
Informationen. Aus ihm können Informationen ins KZG gelangen und verarbeitet werden.
Das Modell wurde kritisiert, weil es wenig Aussagen machte, welche Informationen aus dem
Sensorischen Gedächntis weiterverarbeitet werden und wann eine Information vom KZG ins
LZG überführt wird. Es berücksichtigt keine neurologischen Grundlagen und einige
Patienten, darunter autistische Inselbegabten widersprachen ihm sogar, da sie komplexe
Informationen auch ohne rehearsal wiedergeben konnten. Außerdem impliziert das Modell,
dass alleiniges Rehearsal genügt, um Informationen ins LZG zu überführen, entscheidende
ist jedoch die Verarbeitungstiefe der Informationen.
7
Eigenschaften des Sensorisches Gedächtnis (auch Ultrakurzzeitgedächtnis)
- Rasches verblassen der Informationen (ikonisches G. ca. 0,1-0,5s, echoisches G. ca. 20s)
- sehr große Kapazität
- sehr wahrscheinlich keine semantischen oder bedeutungshaltigen Repräsentationen
- Inhalte sind normalerweise erst bewusst zugänglich, wenn sie ins KZG übertragen und dort
verarbeitet werden.
Segner 1749: Visuelle Persistenz
Segner beschrieb 1740 eine Methode, um die Dauer der ikonischen Gedächtnisspur zu
messen. Dabei wurde ein glühendes Kohlestück auf ein rotierendes Rad aufgebracht. Segner
zeigte, dass ab einer bestimmten Rotationsgeschwindigkeit ein Betrachter gerade einen
ganzen Kreis wahrnahm (während bei langsamerer Rotation nur ein Teilkreis gesehen
wurde). Die Zeitdauer für eine Rotation diente Segner somit als Schätzung für die Dauer der
ikonischen Gedächtnisspur, ~ 0.1 s. Dieses Phänomen heißt visuelle Persistenz.
Sperling (1960)
In diesem Experiment zum ikonischen Gedächtnis, zeigte Sperling den Probanden einen
weißen Bildschirm, dann 3 Reihen mit 4 Buchstaben für 50 millisekunden und wieder einem
weißen Bildschirm. Wenn die Probanden gefragt wurden, an wie viele Buchstaben sie sich
erinnern konnten, konnten sie typischerweise nur 4 oder 5 der 12 Buchstaben nennen.
In einem anderen Versuch zeigte Sperling die Buchstaben wie gewohnt und zeigte den
Probanden anschließend durch Töne an, welche Reihe sie nun aufsagen sollten. Unter diesen
Umständen konnten Probanden typischerweise 3 von 4 Buchstaben erinnern.
Da die Probanden vorher nicht wussten, welche Reihe Sperling abfragen würde, konnte
Sperling zeigen, dass zumindest 3/4 der Buchstaben wahrgenommen wurden, aber während
des Abrufens schon wieder vergessen wurden.
Sperling (1963)
In diesem Experiment variierte Sperling die Dauer zwischen der Präsentation der
Buchstaben und dem Hinweisreiz. Er vermutete, dass mit zerfallender Gedächtnisspur auch
die Leistung absinken sollte. Wenn der Hinweisreiz erst 0,5s nach der Präsentation der
Buchstaben kam, war die Leistung nicht besser als wenn er die Probanden nach allen
Buchstaben fragte.
In einer späteren Studie verwendete er vor und nach der Präsentation einen schwarzen
8
Bildschirm. Wenn vor und nach der Darbietung ein schwarzer Bildschirm schwarz war,
zerfiel der sensorische Gedächtnisinhalt langsamer, als wenn der Bildschirm weiß war und
die Probanden zeigten bessere Leistungen.
Sperling vermutete, dass je größer der Kontraststimulus ist, desto besser bleiben die
Gedächtnisspuren erhalten. Das Paradigma, dass geringe Kontraste die Gedächtnisspuren
schneller zerfallen lassen, nennt man "Visuelles Maskieren".
Crowder and Morton (1969)
In diesem Experiment zum echoischen Gedächtnis wurden den Probanden Reihen mit 9
Nummern vorgelesen (auditorische Information) oder präsentiert (visuelle Präsentation).
Zunächst zeigte sich, dass die Position der Nummer einen Einfluss darauf hatte, wie
wahrscheinlich sie später erinnert wurde. Besonderst gut wurden die ersten und die letzten
Nummern erinnert (serielle Positionseffekte). Die Wahrscheinlichkeit, die letzte Zahl korrekt
zu erinnern war bei auditorischer Präsentation bedeutend größer. Daraus ließ sich schließen,
dass die letzte Ziffer noch im echoischen Ultrakurzzeitgedächtnis war. Die letzten Items
ließen sich also besser erinnern, weil das echoische Gedächtnis beständiger ist, als das
ikonische Gedächtnis.
Dieser Effekt ließ sich umgehen, wenn nach der akkustischen Präsentation ein weiteres,
irrelevantes Item präsentiert wurde, z.B. die Silbe "bah". Das echoische Gedächtnis enthielt
dann das irrelevante Item statt der letzten Zahl. Die Präsentation eines Tons jedoch hatte
keinen Effekt.
Anmerkung: Die hier gezeigten seriellen Positionseffekte (Recency- und PrimacyEffect) stehen an dieser Stelle nicht im Vordergrund. Wichtig ist, dass das
auditorische Material besser erinnert wird als das visuelle Material, was dafür
spricht, dass das echoische Gedächtnis eine längere Gedächtnisspanne hat, als das
ikonische Gedächtnis.
9
Eigenschaften des Kurzzeitgedächtnisses (KZG)
Insbesondere Studien an Patienten mit Läsionen im Gehirn (z.B. Patient HM) legen nahe,
dass KZG und LZG zwei verschiedene Systeme sind, wenn sie auch eng zusammenarbeiten.
Das KZG ist ein System für die (temporäre) Speicherung und Manipulation einer begrenzten
Zahl von Informationen. Zahl der Items oder Ideen, die simultan repräsentiert sein können
ist begrenzt (~ 7 ± 2), aber die Kapazität kann durch Mnemotechniken (z.B. chunking)
erweitert werden. Das Kurzzeitgedächtnis fungiert aber auch als Arbeitsgedächtnis, in
welchem die aus dem sensorischen Speicher sowie aus dem LZG kommenden
Informationen (beide unbewusst) kognitiv gegenwärtig und bewusst bearbeitet werden kann.
Digit Span
Die längste Sequenz von Items, die sofort in der richtigen Reihenfolge wiedergegeben
werden kann. Die Anzahl der Items ist konstant, der Informationsgehalt der Digit Span kann
jedoch durch Chunking erhöht werden,
Rehearsal
Gedächtnisinhalte im KZG gehen anscheinend verloren, wenn sie nicht durch erhaltende
Wiederholung (maintenance rehearsal) vor dem Zerfall oder dem Displacement geschützt
werden. Durch langes wiederholen können Gedächtnisinhalte leichter konsolidiert werden.
Brown (1958) und Peterson and Peterson (1959)
Stellten fest, dass selbst wenige Items schnell vergessen wurden, wenn die Probanden daran
gehindert wurden, die Items intern zu wiederholen (rehearsal).
Versuch: Buchstaben wurden kurz präsentiert, dann mussten die Probanden Rechenaufgaben
lösen, die an der internen Wiederholung hinderten (Interferenz).
10
Chunking
Rhythmische, semantische oder lautmalerische Verknüpfung von Informationen. Da die
Anzahl der repräsentierten Einheiten im KZG begrenzt ist, können durch Chunking
wesentlich mehr Informationen im KZG gespeichert werden, als wenn diese Informationen
einzeln gemerkt werden.
Interferenz
Proaktive Interferenz: Verwechseln und Verschlechterung der Leistung von Durchgang zu
Durchgang bei gleichbleibender Kategorie, da vorherige items mit nachfolgenden
interferieren.
Release from proactive interference: Bei Kategorienwechsel können die neuen Items
besser erinnert werden, da die nachfolgenden Items nicht mit den vorherigen verwechselt
werden (interferieren).
11
Retroactive Interference: Nach hinten gerichtete Verwechslung; spätere Item können
besser erinnert werden als vorhergehende.
Serielle Positionseffekte bei seriellem Abruf (Siehe Experiment von Postman und Phillips, 1965)
Serieller Abruf: Wiedergabe aller Items in richtiger Reihenfolge (Gegenteil: freier Abruf
ohne Reihenfolge). Bei freiem Abruf werden die ersten und die letzten Items besonders gut
erinnert.
Die Leistung wird von mehreren Faktoren beeinflusst:
• Vertraute Wörter werden generell besser erinnert als selten verwendete
Wörter.
• Langsame Präsentation der Wörter verbessert die Leistung allgemein
• Wörter, die konkrete Objekte bezeichnen, werden besser erinnert als Wörter,
die abstrakte Konzepte bezeichnen. Dies gilt nur für die ersten paar Items,
nicht für den Recency-Effect.
Primacy Effect: Effekt, dass bei seriellem Abruf die ersten Items besonders gut erinnert
werden können, da diese durch rehearsal am Ende des Durchgangs im LZG gespeichert
wurden.
Recency Effect: Effekt, dass bei seriellem Abruf, die letzten Items besonders gut erinnert
werden können, da diese durch rehearsal noch im KZG gespeichert sind.
Wurden die Probanden vom rehearsal durch Interferenz abgehalten, blieb der Primacy Effect
erhalten (Items waren bereits im LZG), aber der Recency Effect verschwand (durch
Interferenz). Selbst eine Verzögerung von 30s war genug, um den Recency-Effect zu
verhindern.
12
Baddley 1966
In diesem Experiment zeigte Baddley den Probanden mehrere Reihen von 5 Wörtern und bat
sie, diese in der richtigen Reihenfolge aufzuschreiben. Es gab 4 Gruppen von Wörtern:
• Phonologisch ähnlich (man, map, can, mad, cat…)
• Phonologisch distinkt (pen, cow, pit, few, hot…)
• Semantisch ähnlich (big, huge, wide, large, great,…)
• Semantisch distinkt (old, late, strong, safe, thin…)
Dieses Experiment zeigte, dass das Kurzzeitgedächtnis eher phonologisch als semantisch
organisiert ist. Während phonologische Ähnlichkeiten die Leistung dramatisch
verschlechterte, hatte semantische Ähnlichkeiten einen nur geringen Einfluss auf die
Leistung.
Um die Organisation des LZG zu untersuchen wurde ein ähnliches Experiment
durchgeführt. In diesem umfassten die Reihen jeweils 10 statt 5 Wörtern und die Probanden
wurden von interner Wiederholung abgehalten. Unter diesen Konditionen verschwand der
phonologische Ähnlichkeitseffekt, jedoch wurden Wörter mit ähnlicher Bedeutung
schlechter erinnert. Das bedeutet, dass das LZG eher semantisch organisiert ist.
13
Levels of Processing - Verarbeitungstiefe
• Atkinson & Shiffrin (1968) nahmen an, dass die Wahrscheinlichkeit, mit der ein Item
vom KZG ins LZG übertragen wird, von der Verweildauer im KZG abhängt.
• Problem: Patienten mit extrem gestörtem KZG können annähernd normal lernen
(Shallice & Warrington, 1970).
• Maintenance Rehearsal hilft dabei, Items im Kurzzeitgedächtnis zu behalten, aber es
steigert nicht unbedingt das Langzeitlernen.
• Craik & Lockheart (1972): Die Übertragung eines Items vom KZG ind LZG hängt von
der Verarbeitungstiefe ab; sie ist beispielsweise grösser, wenn ein Wort semantisch,
hinsichtlich seiner Bedeutung verarbeitet wird („deep encoding“), im Vergleich zu einer
rein phonologischen oder orthographischen Verarbeitung („shallow encoding“).
14
•
Die Verarbeitungstiefe kann durch die Aufgabeninstruktion beim Lernen manipuliert
werden Bsp: Bezeichnet das Wort ein belebtes oder unbelebtes Objekt? (semantische
Aufgabe, deep encoding). Beinhaltet das Wort den Buchstaben „b“? (orthographische
Aufgabe, shallow encoding)
15
Arbeitsgedächtnis
Badley & Hitch, 1974
Kurzzeitgedächtnis hat eine limitierte Speicherkapazität. Die Hypothese war, dass wenn das
KZG als Arbeitsgedächtnis funktioniert, sollten Probanden, deren Kapazität durch das
Wiederholen von Buchstaben-Reihen aufgebraucht ist, große Schwierigkeiten haben, andere
Aufgaben, die Informationsverarbeitung (nachdenken, verstehen etc.) beinhalten, simultan
auszuführen.
Um das zu prüfen wurden den Probanden eine Reihe von Sätzen präsentiert, die die
Anordnung zweier Buchstaben A und B beschrieben. Auf jeden Satz folgte das Paar AB oder
BA. Die Aufgabe der Probanden war, zu entscheiden, ob der Satz das Paar korrekt
beschrieb. Die Sätze konnten aktiv-Sätze, passiv-Sätze, verneinende aktiv-Sätze oder
verneinende passiv Sätze sein. Bereits in anderen Experimenten konnte gezeigt werden, dass
aktiv-Sätze schneller verarbeitet werden konnten als passive oder verneinende Sätze.
Während sie die Aufgaben bearbeiteten, sollten sie eine 6-stellige Ziffernfolge laut aufsagen.
Baddley fand, dass die Probanden erstaunlich wenig Fehler machten, sowohl beim
Wiederholen als auch beim Lösen der Aufgaben, und die Verabeitungsgeschwindigkeit nur
wenig reduziert war. Daraus wurde geschlussfolgert, dass es im Arbeitsgedächtnis mehrere
Teilsysteme gibt, die sich nur teilweise überlappen. Die Slave Systems entlasten das Central
System, indem sie kurzzeitig Informationen speichern können.
Arbeitsgedächtnis-Modell von Baddeley
Das Modell von Baddeley nimmt ein zentrales Exekutiv-System (Central Executive) an, ein
System, dass das gesamte Arbeitsgedächtnis kontrolliert. Der zentralen Exekutive stehen
eine Reihe von Sklavensystemen (Slave Systems) zur Seite, die zum Teil die
Speicherfunktion für Informationen übernehmen können, sodass Kapazitäten für gerade
dringliche informationsverarbeitende Prozesse frei werden.
• Eines dieser Sklavensysteme ist die artikulatorische oder phonologische Schleife
16
(phonocological loop). Für die Existenz einer solchen Schleife sprechen vier
Hinweise:
• Phonologischer Ähnlichkeitseffekt: Die Tendenz, dass Fehler der
Probanden phonologisch ähnlich zum korrekten Item sind (F -> S, B -> G
etc), und die Tatsache, dass phonologisch ähnliche Items schwieriger zu
erinnern sind als phonologisch unterschiedliche Items (Baddeley, 1966).
• Irrelevanter Spracheffekt: Präsentation von irrelevanter, zu ignorierender
gesprochener Sprache beeinträchtigt das KZG für visuell präsentierte
Ziffern. Der Effekt ist unabhängig davon ob die irrelevante Sprache
englisch, deutsch oder arabisch ist; irrelevante nichtsprachliche Stimuli
erzeugen ihn aber nicht (Salamé & Baddeley, 1982, 1989; vgl. allerdings
die Arbeiten von Jones, 1994, 1995). Annahme daher: nur sprachliches
Material kann in den phonologischen Speicher gelangen.
• Der Effekt der Wortlänge auf die Gedächtnisspanne: Lange Worte
->kürzere Gedächtnisspanne; kurze Worte -> längere Gedächtnisspanne
(Baddeley et al., 1975). Dieser Effekt liegt vermutlich am rehearsal
(innerer Wiederholung), das für längere Worte länger dauert, so dass die
Gedächtnisspur vorher präsentierter Wörter leichter zerfällt. Tatsächlich
verschwindet der Wortlängeneffekt, wenn rehearsal durch sog.
artikulatorische Supression mittels repetitiver lauter Sprache („das, das,
das…“) verhindert wird.
• Artikulatorische Suppression eliminiert den phonologischen
Ähnlichkeitseffekt bei visueller Präsentation (Interpretation: visuelles
Material kann nicht in den phonologischen Speicher transferiert werden),
und es eliminiert auch den irrelevanten Spracheffekt (Interpretation: wenn
Material nicht in den phonologischen Speicher gelangt, wird es auch
nicht von irrelevantem Sprachmaterial gestört). (Kritik jedoch:
Phonologischer Ähnlichkeitseffekt und irrelevanter Spracheffekt scheinen
auf unterschiedlichen Mechanismen zu beruhen; Martin-Loeches,
Schweinberger & Sommer, 1997)
Anmerkung: etwas weiter unten findet sich ein aktuelleres Modell von badeley (2000), dass
einen episodischen Puffer als drittes Slave System mit einschließt.
Mind's Ear
Das Mind's ear ist eine Art innere Sprache beim Lesen von Texten, die aber nicht das gleiche
wie die phonologische Schleife ist. Es ist möglich das Mind's Ear zu unterdrücken und den
17
Text trotzdem zu verstehen. Wir lesen i.d.R. nicht, indem wir den Klang eines Wortes
produzieren und ihn dann verstehen (was auch möglich ist, siehe Auditory Imagery). Jedoch,
wenn wir subvocalization unterdrücken, fällt es uns schwerer Fehler zu entdecken, etwa
wenn zwei Worte vertauscht sind. Die phonologische Schleife scheint daher eher ein
Kontrollmechanismus beim Lesen zu sein, der gut die Abfolge der Informationen speichert.
Auditory Imagery
Wir haben die Möglichkeit, akkustische Repräsentationen von Tönen und Melodien
vorzustellen, die wir selbst nie produzieren könnten. Es ist deshalb unwahrscheinlich, dass
dieses Vorstellungsvermögen auf der phonologischen Schleife beruhen.
Phonologische Schleife
Rolle der phonologischen Schleife beim Spracherwerb
• Kapazität der phonologischen Schleife kann die Effizienz des
Fremdsprachenerwerbs vorhersagen und Baddeley hält die phonologische Schleife
für eine entscheidende Komponente beim Neuspracherwerb (siehe Patienten PV und
Baddley, Papagno & Vallar 1988)
• Kinder mit verzögertem Spracherwerb haben oft eine stark reduzierte verbale
Gedächtnisspanne und sind besonders beeinträchtigt bei der Wiederholung von
Pseudowörtern („nonword repetition deficit“)
Baddley, Papagno, Vallar 1988
In ihrem Versuch wollten Baddley et. al. die Beeinträchtigung der Patientin PV neue
fremdsprachige Vokabeln zu lernen (da ihr auditorisches KZG gestört war) an gesunden
Probanden nachstellen.
Die Hypothese war, dass die phonologische Schleife unbedingt notwendig ist, um neue,
fremdsprachige Vokabeln zu lernen und diese mit den entsprechenden Wörtern in der
Muttersprache zu assoziieren.
Sie baten also die Patienten die Artikulation zu unterdrücken. Während die Probanden
bekannte Wörter in der Muttersprache gut assoziieren konnten, gelang ihnen das nicht sehr
gut, wenn sie fremdsprachige Worte mit den entsprechenden Worten in der Muttersprache
assoziieren sollten.
Daraus schloss man, dass auditorisches Kurzzeitgedächtnis für phonologisches
Langzeitlernen notwendig ist.
Zentrale Exekutive
Die Zentrale Exekutive ist ein Aufmerksamkeitssystem mit begrenzter Kapazität, dass die
phonologische Schleife und den visuell-räumlichen Notizblock kontrolliert und eine
Verbindung zum Langzeitgedächtnis herstellt.
• U.U. identisch zu dem, was andere Wissenschaftler als supervisory attentional
system (SAS) bezeichneten
• Arbeitsgedächtnisspanne (working memory span; Daneman & Carpenter, 1980):
Aufgabe: Lesen einer bestimmten Anzahl einfacher Sätze; Nach dem letzten Satz
soll das letzte Wort jedes Satzes reproduziert werden
• Leistung korreliert mit Leseverständnis (Oakhill et al., 1988)
• Arbeitsgedächtnisspanne korreliert hoch mit schlussfolgerndem Denken (Kyllonen
& Christal, 1990), evtl. Intelligenz
Räumlich-Visueller-Notizblock
Eine Kontroverse herrscht, ob das Bild direkt im Gedächtnis gespeichert wird oder ob es von
abstrakteren Repräsentationen zusammengebaut wird. Befürworter der ersten Ansicht
suchten Ähnlichkeiten zwischen dem Prozess des Lesens und dem Prozess des
Wahrnehmens. Shepard (Shepard & Feng 1972, Shepard & Metzler 1971) suchten diese
Ansicht zu belegen.
Shepard & Feng, 1972
18
Den Probanden wurden Bildern von Faltvorlagen gezeigt. Sie sollten die
Faltvorlagen gedanklich falten und entscheiden, ob die Pfeile sich treffen.
Shepard und Feng fanden, dass die Zeit, die die Probanden brauchten
systematisch mit der Anzahl der Arbeitsschritte, die gebraucht werden
würden, wenn die Vorlage tatsächlich gefaltet werden würde, zusammenhing.
Es war, als würden sie die Vorlage tatsächlich im Kopf falten.
Shepard & Metzler 1971
In einem anderen Experiment sollten die Probanden Bilder von Figuren
gedanklich rotieren und entscheiden, ob es sich um gleiche oder verschiedene
Figuren handeln. Shepard's Probanden zeigten einen klaren Zusammenhang
zwischen der Entscheidungszeit und wie sehr sich die Figuren im Winkel
unterschieden. Es schien, als würden sie sich tatsächlich vorstellen, wie die
Figuren rotieren.
Die Experimente zeigten, dass sich visuelle Vorstellung wie visuelle Wahrnehmung, zu
einem gewissen Grad. Jedoch, visuelle Vorstellung ist mehr als Bilder im Kopf zu haben
(Detailtreue, Ressourcenaufwand etc.).
Was hat visuelle Vorstellung nun mit Arbeitsgedächtnis zu tun? Baddley ist der Ansicht, dass
räumliche Information im Langzeitspeicher abstrakt codiert vorliegt, aber um sich die
Informationen anzeigen zu lassen und sie zu manipulieren mit Hilfe eines räumlichvisuellen-Sklaven-Systems abläuft. Dieses System nutzt viele Mechanismen, die auch bei
der Wahrnehmung angewendet werden und ist abhängig von der zentralen Exekutive.
Brooks (1968)
Probanden wurde ein Großbuchstabe, wie z.B. ein F, gezeigt und wurden gebeten, diesen im
Gedächtnis zu behalten. Nun sollten sie, angefangen von der linken unteren Ecke, sagen, ob
die Ecke von der unteren oder oberen Linie gebildet wird. Probanden konnten antworten,
indem sie entweder antworteten oder indem sie auf ein gedrucktes "Ja" oder "Nein"
deuteten.
Die Probanden fanden es sehr viel schwerer, zu antworten indem sie auf die Wörter deuten
als wenn sie antworteten, als ob der Fingerzeig mit dem räumlichen Vorstellungsprozess
interferieren würde.
In einem anderen Experiment sollten sie den Satz „Ein Spatz in der Hand ist besser
als die Taube auf dem Dach“ erinnern während sie entscheiden sollten, ob jedes Wort im
Satz ein Nomen ist oder kein Nomen. Bei dieser Aufgabe waren die Probanden viel besser,
wenn sie auf die Antwort zeigen konnten als wenn sie die Antwort aussprachen.
Zeigen mit dem Finger wurde als räumlich-visuelle Aufgabe gewertet, weshalb sie mit der
visuell-räumlicher Vorstellung interferierte,aber nicht mit sprachlicher Verarbeitung.
Sprachliche Antwort interferiert mit sprachlichen Aufgaben, aber nicht mit visuellräumlicher Vorstellung .
Episodischer Puffer
Mit der Zeit entdeckte Baddeley Effekte, die sich mit dem Drei-Komponenten-Modell nicht
mehr erklären lassen. Normalerweise kann man sich ca. 5 Wörter merken, wenn die Wörter
aber einen Zusammenhang haben (z. B. einen Satz bilden, s. Chunking), kann man sich ca.
16 Wörter merken. Der ursprüngliche Gedanke, dass daran das Langzeitgedächtnis beteiligt
ist, musste verworfen werden, da sich Menschen mit geschädigten Kurzzeitgedächtnis und
funktionierendem Langzeitgedächtnis nur ca. 5 Wörter merken können. Das
Langzeitgedächtnis ist also offensichtlich nicht beteiligt.
Zur Erklärung hat Baddeley im Jahr 2000 den episodischen Puffer zu seinem Modell
hinzugefügt. Es handelt sich dabei um ein multimodales Speichersystem mit begrenzter
Kapazität, es kann sowohl visuelle als auch phonologische Informationen in Form von
„Episoden“ speichern.
19
Das Displacement-Modell
Die Beobachtung, dass die gespeicherten Elemente nur kurzzeitig erhalten bleiben und beim
Aufnehmen neuer Information vornehmlich die älteren verloren gehen, hat zur
Modellvorstellung eines Schieberegisters (displacement register) mit begrenzter Kapazität
geführt. Dieses Register bietet Platz für etwa 7 Registerkärtchen. Jedes neu einkommende
Item, zum Beispiel ein Tiername, benötigt einen Platz für sich. Dabei werden die bereits
vorhandenen Kärtchen immer weiter über zum offenen Ende des Registers geschoben, in
dem allerdings nur etwa 7 Kärtchen Platz finden. Solange also die Anzahl der Items die
Anzahl der Registerfächer nicht überschreitet, können wir alle Items erinnern. Sobald aber
alle vorhandenen Fächer gefüllt sind, der Gedächtnisspeicher also "voll" ist, kann ein neu
eintretendes Kärtchen nur gespeichert werden, wenn ein bereits gefülltes Fach geleert wird
bzw. aus dem Speicher geschoben wird. Es gibt die Tendenz, dass die ältesten Items
zugunsten der neuen aus dem Speicher geschoben werden, wenn der Speicher voll ist.
20
Langzeitgedächtnis (LZG)
Als Langzeitgedächtnis wird das System bezeichnet, der Informationen (auch ohne
rehearsal) länger als einige Sekunden speichert.
Man unterscheidet jedoch verschieden Arten von LZG:
• Implizites Gedächtnis: Das prozedurale Gedächtnis, auch implizites Gedächtnis
oder nichtdeklaratives Gedächtnis speichert Fertigkeiten, Erwartungen,
Verhaltensweisen und die Ergebnisse von Konditionierungsvorgängen und
Priming. Gemeinsam ist den Inhalten des prozeduralen Gedächtnisses, dass sie
ohne Einschaltung des Bewusstseins das Verhalten beeinflussen können.
• Explizites Gedächtnis: Das deklarative Gedächtnis, auch Wissensgedächtnis
oder explizites Gedächtnis, speichert Tatsachen und Ereignisse, die bewusst
wiedergegeben werden können. Bei der Wissensrepräsentation des expliziten
Gedächtnisses unterscheidet man wiederum ein semantisches Gedächtnis, in dem
Faktenwissen gespeichert wird, und ein episodisches Gedächtnis, das für die
Speicherung von Erlebnissen verantwortlich ist.
21
Enkodierung von Langzeitgedächtnisinhalten
Zwei-Speicher-Theorie
Nach der Zwei-Speicher-Theorie wird angenommen, dass die in das Kurzzeitgedächtnis
aufgenommenen Informationen hier nur erhalten werden, wenn sie durch mehrfache
Erhaltungswiederholungen (maintenance rehearsal) aufrechterhalten wird - andernfalls
geht sie dem stufenweisen displacement (Ersatz durch neue Inhalte) oder durch Zerfall
verloren. Um die im Kurzzeitspeicher zunächst zwischengespeicherten Informationen auf
Dauer zu erhalten, muss sie in irgendeiner Weise in das Langzeitgedächtnis transferiert
werden. Hier wird angenommen, dass dieser Transfer durch integrative Wiederholung
(integrative reheasal) oder elaboriertes Wiederholen, bei dem die verschiedenen
Encodierungen ausgearbeitet werden, erfolgt. (Bild: 2 Speicher Modell)
Das behalten von Informationen im (semantischen) LZG ist insbesondere von drei Faktoren
abhängig:
• Der Elaboration des Materials, z.B. in Form von Codierung oder in
Zusammenhang mit der Verarbeitungstiefe.
• von der Organisation es Wissens, das ebenfalls bei der Einspeicherung erfolgt.
• von dem Kontext, in welchem das Material gelernt wurde.
22
Serielle Positionseffekte bei freier Reproduktion (Murdock 1962)
Den Versuchspersonen wird eine Liste von unzusammenhängender Wörter einmalig zum
Behalten präsentiert. 20 oder 40Wörter werden nacheinander visuell oder akkustisch
angeboten, und die Versuchspersonen haben jeweils genau eine Sekunde Zeit, um jedes Wort
zu betrachten. nach der einmaligen Vorgabe der gesamten Liste müssen die
Versuchspersonen sofort möglichst viele Worte in beliebiger Reihenfolge - freier Abruf reproduzieren. Die gemittelten Daten aus mehreren Wortlisten ergeben die sogenannte
serielle Positionskurve von U-förmiger Gestalt. Die letzten Wörter sind offensichtlich noch
im KZG gespeichert und werden besser erinnert, der sogenannte Recency-Effekt. Aber auch
Wörter vom Anfang werden mit höherer Wahrscheinlichkeit erinnert als der verbleibende
große Mittelteil, was als Primacy-Effekt bezeichnet wird. Der Primacy-Effekt wird darauf
zurückgeführt, dass die Items schon im LZG gespeichert wurden.
Eine ablenkende Aufgabe direkt nach dem Lernen der Wortliste eliminiert den RecencyEffekt, da die kurzzeit-gespeicherten Worte durch andere Items verdrängt werden
(displacement), nicht aber den Primacy-Effekt, da diese Worte schon ins LZG transferiert
worden sind.
Verarbeitungstiefe
Studien zeigte, dass Maintenance Rehearsal zwar Informationen im Kurzzeitspeicher
hielten, aber die Dauer der Maintenance Rehearsal nicht die Behaltensleistung erhöhte.
Manche Autoren sind deshalb der Meinung, dass nicht die Dauer des Memorierens
entscheidend sei, ob eine Information ins LZG überführt wird, sondern die
Verarbeitungstiefe. Statt dem Zwei-Speicher-Modell schlugen sie ein Ein-Speicher-Modell
vor, die sogenannte Theorie der Verarbeitungstiefe, die besagt, dass die zu speichernden
Informationen in mehreren Stufen (levels of processing) bearbeitet werden können , wobei
das Memorieren die Gedächtnisleistung nur dann verbessert, wenn das Material in einer
bedeutungshaltigen (tiefen) Weise memoriert wird, wohingegen ein passives Memorieren
23
nicht zu einer besseren gedächtnisleistung führt.
Die Art der Bearbeitung der zu lernenden Information bestimmt die Wahrscheinlichkeit mit
der diese Information behalten wird.
• Je tiefer die Verarbeitung während des Lernens („deep encoding“), desto besser
die spätere Gedächtnisleistung, je oberflächlicher die Verarbeitung („shallow
encoding“), desto schlechter die spätere Gedächtnisleistung.
• Tiefere Verarbeitung dauerte auch länger. Ist also die Verarbeitungszeit und nicht
die Verarbeitungstiefe entscheidend?
• Craik und Tulving (1975) konnten zeigen, dass der Effekt der Verarbeitungstiefe
auch dann erhalten blieb, wenn die Bearbeitungszeit der tiefen und
oberflächlichen Aufgaben vergleichbar sind (z.B. Zählen der Vokale statt
Entscheidung Groß- oder Kleinschreibung).
• Ein anderer Ansatz ist, dass die Verarbeitungstiefe deshalb zu besseren
Abrufleistunge führt, weil tiefere Verarbeitung stärkere Gedächtnisspuren legt
und die Items angereichert und elaboriert wurden und das Item deshalb mit
einem größeren Netzwerk verbunden ist.
Craik & Lockhart 1972
Zur Operationalisierung unterschiedlicher Verarbeitungstiefen des Gedächtnisses, wie sie in
der Theorie der verarbeitungstiefe angenommen werden, führten Craik und Lockhart einen
Versuch durch, der die Erinnerung in Abhängigkeit verschiedener Verarbeitungsformen
demonstrierte.
Den Versuchspersonen wurden nacheinander einzelne Wörter blitzlichtartig für 0,2
Sekunden auf einem Schirm gezeigt, und sie mussten anschließend jeweils eine Frage
beantworten, die sich auf diese Frage bezog. Es gab drei unterschiedliche Fragetypen
• erste, oberflächige Ebene: Frage nach Schriftart der Wortes (z.B. ist das Wort in
Großbuchstaben geschrieben?) -> geringe Verabeitungstiefe
• zweite Ebene: Frage nach Klang/ Aussprache des Wortes (z.B. "Reimt sich das
Wort auf Ofen?") -> tiefere Verarbeitungstiefe
• dritte, tiefe Ebene: Frage nach semantischer Bedeutung des Wortes (z.B. "passt
das Wort in den Satz") -> tiefste Verarbeitungstiefe
Die Fragen wurden mit "ja" oder "nein" beantwortet. Bei einem späteren Behaltenstest
wurde sowohl Rekognition als auch Reproduktion gemessen und es zeigte sich, dass die
Behaltensleistung mit steigender Verarbeitungstiefe anstieg.
Methodische Kritik:
• Wie misst man die Tiefe der Verarbeitung? Reaktionszeit während der
Bearbeitung ist offenbar kein geeignetes Maß!
Theoretische Kritik:
• Der Ansatz nimmt an, dass unterschiedliche Informationen seriell verarbeitet
werden, z.B. bei Wörtern zuerst visuelle, dann phonologische, dann
semantische Aspekte. Wenn „höhere“ Aspekte für die Aufgabe nicht benötigt
werden, findet auch keine Analyse dieser höheren Aspekte statt.
• Aber: Wie wahrscheinlich ist es, dass bei der Entscheidung ob das Wort
HUND großgeschrieben ist, die Bedeutung des Wortes nicht auch verarbeitet
wird?
Die Rolle von Oranisation von Informationen beim Lernen
De Groot (1966):
In diesem Experiment betrachteten Schach-Großmeister und normale Spieler für 5 Sekunden
eine Spielsituation und sollten dann versuchen, die Situation aus dem Gedächtnis
24
nachzustellen. Die Großmeister konnten 90% der Spielsteine korrekt aufstellen, die
normalen Spieler lediglich 40%.
De Groot interpretierte die Leistungsunterschiede wie folgt: Die überlegenen
Spielfertigkeiten der Großmeister entstehen aus ihrer Fähigkeit, dass Schachbrett als ein
organisiertes Ganzes und nicht als eine Ansammlung einzelner Bestandteile wahrzunehmen
und zu erinnern. Allgemeiner: Experten sind in der Lage, das Material zu einem
bedeutungsvollen und organisierten Muster zu organisieren.
Bower et. al. (1969)
In diesem Experiment wurden die Probanden gebeten, Wortlisten zu lernen. Manche davon
waren hierarchisch organisiert (z.B. Mineralien -> Metalle (Edelmetalle, Metalle und
Metalllegierungen) und Steine (Edelsteine, gewöhnliche Steine)) andere nicht. Anschließend
sollten sie im freien Abruf so viele Wörter niederschreiben, wie möglich.
Viele Probanden fanden es bedeutend leichter, sich Wörter zu merken, wenn sie hierarchisch
organisiert waren.
Aber auch visuelle-vorstellende Mnemotechnik kann helfen unzusammenhängende Wörter gut zu
behalten, wenn sie in einer Geschichte verwoben werden. Eine eigene Geschichte zu erfinden führte
zu besseren Gedächtnisleistungen als fremde zu übernehmen.
Konsolidierung von Langzeitgedächtnisinhalten
Unter Gedächtniskonsolidierung versteht man die Verfestigung von Gedächtnisspuren nach dem
initialen Erwerb.
Agranoff (1967)
Besonders eindrucksvoll konnte Agranoff (1967) in verschiedenen Experimenten zeigen,
dass die Langzeitspeicherung von bereits gelernten Inhalten nicht erfolgt, wenn während
oder nach dem Training die cerebrale Proteinsynthese durch Injektion eines
Syntheseblockers in den Liquor des Gehirns gehemmt wird.
Bei allen Experimenten erlernten Goldfische konditioniertes Vermeidungsverhalten und
erhielten zu zu unterschiedlichen Zeiten eine Injektion des Synthesblockers. Beobachtet
wurde die Auswirkung des Syntheseblockers zu unterschiedlichen Zeiten der Injektion auf
die Konsolidierung des gelernten:
1. Wird dem Goldfisch kein Syntheseblocker injiziert, so behalten sie das Gelernte für
3-30 Tage.
2. Wird ihnen der Syntheseblocker direkt nach dem Training injiziert, so wird die
Konsolidierung verhindert und die Vermeidungsreaktion wird vergessen.
3. Wartet man nach dem Training etwa 1 Stunde und injiziert dann das Medikament,
dann zeigte sich keine Wirkung mehr auf das Gedächtnis, da das Gelernte bereits
konsolidiert war.
4. Besonders bedeutsam ist das Ergebnis, dass eine Injektion direkt vor dem Training
das Lernen nicht behindert, aber das einmal Gelernte ist nach zwei Stunden wieder
vollständig vergessen.
Diese Ergebnisse indizieren also eine erste Phase der Informationsspeicherung, die einer
funktionierenden Proteinsynthese nicht bedarf und die Lerninhalte nur für eine Zeit von
weniger als drei Stunden zu speichern vermag. Weiterhin schloss man von den
Experimenten, dass Konsolidierungsprozesse stattfinden, nachdem Informationen bereits ins
Langzeitgedächtnis transferiert wurden. Die Konsolidierung benötigt eine gewisse Zeit und
kann sie nicht stattfinden oder wird sie gestört, gehen die informationen wieder verloren.
25
Modell der Gedächtniskonsolidierung (Alvarez & Squire, 1994)
• Unterschiedliche zu einer Episode gehörende Informationen sind in verschiedenen
Arealen des Neokortex gespeichert. Die „Zuweisung“ während des Lernens und das
„Zusammenfügen“ während des Abrufs leistet der MTL.
• Konsolidierung entsteht innerhalb des Neokortex durch graduelles Zusammenfügen
der neokortikalen Repräsentationen.
• Vor der Konsolidierung ist das LZG also auf den MTL angewiesen.
• Konsolidierung verläuft nach der Hebb‘schen Regel, tritt nämlich dann auf, wenn
neuronale Aktivität im MTL getrennte Areale im Neokortex aktiviert. Bei
wiederholter Koaktivierung führt dies zu einer stärker werdenden Verbindung dieser
Areale.
• Nach der Konsolidierung ist das LZG also nicht mehr auf den MTL angewiesen.
26
Abruf aus dem Langzeitgedächtnis
Im Langzeitgedächtnis sind mehr Informationen gespeichert, als zu einem bestimmten
Zeitpunkt abgerufen werden können. Ein wichtiger Faktor ist, dass die Information
organisiert wird, damit sie im richtigen Moment abgerufen werden kann.
Retrieval Cues können dabei helfen, Informationen abzurufen, die ansonsten nicht
zugänglich wären, vielleicht weil zwar eine Gedächtnisspur besteht, aber diese nicht stark
genug ist, um einen Abruf zuzulassen. Der Retrieval Cue erlaubt, zusammen mit der
schwachen Gedächtnisspur, die Information abzurufen.
Manchmal können wir Informationen nicht direkt abrufen, aber systematische Suche (z. B
nach Assoziationen zur gesuchten Information) im Gedächtnisspeicher kann dazu führen,
dass wir die Information wiederfinden und Abrufen können. Dieser Vorgang heißt
recollection.
Tulvig & Pearlstone (1966)
Dieses Experiment untersuchte die Wirkung von Retrieval Cues (Hinweisreizen). Tulvig
präsentierte den Probanden eine Wortliste von 28 Wörtern, die aus 7 Kategorien ausgewählt
wurden (Metalle, Blumen, Spirituosen etc.). Dann wurden sie gebeten, so viele Wörter wie
möglich frei abzurufen, einmal unter der Bedingung, dass die Retrieval Cues sichtbar waren
und einmal unter der Bedingung, dass dies nicht der Fall war. Das Ergebnis war, dass die
Probanden wesentlich mehr Wörter abrufen konnten, wenn die Retrieval Cues sichtbar
waren.
Tulvig (1967)
Tulvig bat seine Probanden eine Liste von 36 Worten zu lernen und bat sie anschließend
dreimal hintereinander so viele wie möglich frei abzurufen und das ganze zu wiederholen.
Überraschenderweise lernten die Probanden genau so schnell, wie diejenigen, die
abwechselnd lernten und abriefen. Es scheint, als würde der Vorgang des Suchens und
Abrufens der Items tatsächlich zum Lernen beizutragen.
Bei der Analyse der drei Durchgänge wurde gefunden, dass bei allen drei Abrufdurchgängen
gleich viele Items abgerufen werden konnten, aber nur die Hälfte der Worte wurden
konsistent in allen drei Durchgängen abgerufen.
Man ging also davon aus, dass manche Items in den einzelnen Durchgängen nicht vergessen
wurden, sondern lediglich temporär nicht abgerufen werden konnten.
Auf der Zunge liegen (on the tip of the tongue)
Wenn wir in einer Situation eine Information nicht abrufen können, von der wir sicher
wissen, dass wir sie kennen, sagen wir üblicherweise "es liegt mir auf der Zunge".
Brown & McNeill 1966
Brown und McNeill untersuchten, ob dieses Gefühl tatsächlich berechtigt ist oder auf
27
Täuschung basiert. Sie gaben den Probanden obskure Definitionen von
Gegenständen und baten sie, die Gegenstände zu benennen. Manchmal passierte es,
dass die Probanden sicher waren, den Gegenstand zu kennen, aber die Antwort nicht
produzieren konnten.
War dies der Fall, so baten Brown und McNeill die Probanden, zu raten, wie viele
Silben das Wort habe und ob sie andere Informationen über das Wort geben konnten
konnten, wie z.B. den Anfangsbuchstaben. Die Probanden zeigten überzufällig häufig
korrekte Antworten in dieser Aufgabe.
Tulving & Osler 1968
In diesem Experiement zu Retrieval Cues sollten Probanden Wortlisten lernen. Dabei war
jedes Wort mit moderat assoziierten Wort gepaart (z.B. City - dirty). Danach sollten die
Probanden die Wörter entweder frei abrufen oder sie bekamen das assoziierte Wort als
Retrieval Cue (z.B. City - ?). Tulving und Osler fanden, dass Hinweisreize zu einer
substantiell besseren Gedächtnisleistung führen, aber damit der Hinweisreiz wirksam war,
musste er während des Lernens präsent sein.
Tulving & Thomson 1973
Tulving und Thomson machten sich Wortassoziationseffekte zunutze ("Welches Wort kommt
Ihnen als erstes in den Sinn wenn sie „kalt“ hören?")
1.  Probanden lernten eine Wortliste. Zu jedem Wort (z.B.„kalt“)wurde ein mäßig
assoziiertes Wort dargeboten (z.B.„kalt–Boden“). Beim anschließenden freien Abruf wurden
nur wenige Items erinnert.
2.  Assoziationsaufgabe: Vorgabe von solchen Wörtern, die mit den gelernten Items hoch
assoziiert sind (z.B.„warm“‐?). Probanden produzierten die zuvor gelernten Wörter,
erkannten diese aber häufig nicht als gelernte Worte wieder (Rekognitionstest).
3.  CuedRecall: Bei Vorgabe des unter 1 gelernten Hinweisreizes („Boden ‐ ?“) konnten
Probanden auch solche Items erinnern, die sie unter 2 nicht wiedererkannt haben.
Erklärung:
Während der ersten Phase des Experiments stellen die Probanden eine Verbindung zwischen
den Wortpaaren her (sie erinnern sich zum Beispiel bildhaft, dass sie in einem Zelt auf
kaltem Boden geschlafen haben).
Wenn in der zweiten Phase das Wort „kalt“ generiert wird, hat dieser Vorgang wenig
Überlappung mit den kognitiven Prozessen in der ersten Phase (es wird zum Beispiel das in
der ersten Phase benutzte Bild nicht wiederverwendet, sondern auf allgemeines Weltwissen
zurückgegriffen). Das Wort „kalt“ wird nicht wiedererkannt.
Wenn aber in der dritten Phase das mäßig assoziierte Wort aus Phase 1 als Hinweisreiz
benutzt wird, werden dadurch die Prozesse aus Phase 1 reaktiviert (z.B. wird das gleiche
Bild wachgerufen) und das gelernte Wort „kalt“ kann erinnert werden.
Godden & Baddeley (1975)
In diesem Experiment untersuchten Godden & Baddeley Kontexteffekte auf den
Gedächtnisabruf. Taucher lernten 40 nicht zusammenhängende Worte, und zwar entweder an
Land oder unter Wasser. Der darauffolgende freie Abruf fand entweder in derselben
Umgebung (an Land–anLand, unter Wasser – unter Wasser) oder in der jeweils anderen
Umgebung statt (an Land – unter Wasser, unter Wasser – an Land).Es zeigte sich, dass die
Wörter am besten im selben Kontext abgerufen werden konnten, in dem sie auch gelernt
wurden.
Bei Rekognitionsaufgaben fand sich der Kontexteffekt allerdings nicht, was darauf
Hinweist, dass der Kontext die relevante Gedächtnisspur zu finden. Bei Rekognition ist die
Wahrscheinlichkeit, die Spur zu finden so hoch, dass der Kontext kaum noch eine Rolle
spielt.
28
Gardiner & Java
Probanden lernen eine Wortliste und sollen diese in freiem Abruf wiedergeben. Weiterhin
sollten die Probanden bei jedem Wort angeben, ob sie sich erinnern (remember ; konkrete
Informationen aus der Lernphase sind abrufbar) oder ob das Item vertraut ist (know;
Erinnerung auf Grundlage eines Bekanntheitsgefühls).Wurden die Probanden während der
Lernphase abgelenkt, waren die remember-Antworten reduziert, nicht aber die knowAntworten.
Das wurde wie folgt interpretiert: remember‐Antworten beruhen auf explizitem oder
deklarativem Gedächtnis, während know‐Antworten eher auf implizitem oder non‐
deklarativem Gedächtnis beruhen.
What can we learn from Computers?
29
Sternberg 1966
Bei diesem Experiment wurde die Abruf-Geschwindigkeit vom Kurzzeitgedächtnis getestet.
Probanden bekamen Reihen mit 1-6 Ziffern präsentiert. Im Anschluss wurde ein "probe",
also ein Testreiz gezeigt. Dieser bestand aus einer Ziffer. Die Probanden sollten nun per
Knopfdruck möglichst schnell angeben, ob diese Ziffer in der Zahlenreihe vorhanden war
oder nicht. Gemessen wurde die Antwortgeschwindigkeit in Abhängigkeit von der Länge der
Zeichenkette und von der (korrekten) positiven oder negativen Antwort.
Es zeigte sich, dass die Antwortgeschwindigkeit proportional mit der Anzahl der Ziffern
anstieg, unabhängig davon, ob der Testreiz in der Ziffernreihe enthalten war oder nicht. Mit
anderen Worten, Die Ergebnisse deuteten auf einen vollständigen seriellen Absuchprozess
aller Speicherorte hin, unabhängig davon ob das gesuchte Item schon gefundenwurde.
30
Konnektionistische Netzwerkmodelle
Dieses Modell geht davon aus, dass Informationen über Verbindungen einzelner Einheiten in
einem Netzwerk gespeichert sind (Konnektionismus). In diesem Modell führt die
Aktivierung einer Einheit zu einer Aktivierung aller angebundenen Einheiten.
Die Stärken des Modells sind, dass aus dem Netzwerk sowohl spezifische, wie auch
allgemeine Informationen abgerufen werden können. Beispielspielsweise können
spezifische Einheiten abgerufen werden, aber auch alle Einheiten, die mit einer bestimmten
Einheit verbunden sind.
Womöglich lässt sich aus dem Modell auch erklären, dass wir manchmal Informationen
abrufen, aber uns nicht sicher sind, ob die Information auch richtig ist. Die Sicherheit hängt
davon ab, wie viele andere Einheiten zusätzlich aktiv sind, die mehr oder weniger die
gleichen Verbindungen haben (d.h. die gleichen Eigenschaften haben). Ist die aktive Einheit
die Einzige, die die klassifizierenden Verbindung haben, sind wir uns sehr sicher, dass die
Information richtig ist. Auch Raten könnte ähnlich ablaufen: Wir suchen eine Einheit, die
bestimmte Verbindungen zu Eigenschaften hat, aber mehrere Einheiten werden dadurch
aktiviert, unter denen wir dann auswählen.
Dieses Modell nutzt den Vorteil der graceful degradation, d.h. Teile des Systems können
zerstört werden, ohne dass das ganze System zusammenbricht.
Auch nutzt es die Vorteile der Content addressability, d.h. es gibt die Tendenz, dass die
gesamte Erinnerung abgerufen werden kann, wenn nur ein Fragment aktiviert wird.
Aber das Modell ist nicht unumstritten. Eine Kritik ist, dass das Modell Gedächtnisabläufe
vereinfacht und oberflächlich darstellen, andere glauben, dass das Modell massive Probleme
mit der Interferenz hätte, wenn es unter realistischen Umständen ablaufen würde.
Semantisches Gedächtnis
Definition Becker-Carus: Das semantische Gedächtnis bezieht sich ... auf allgemein gültige
Wahrheiten und das allgemeine Weltwissen. Es wird auch kategorisches Gedächtnis genannt,
das die grundlegende Bedeutung von Dingen speichert, ohne Berücksichtigung des
räumlich-zeitlichen Erfahrungskontextes.
Man geht davon aus, dass unser konzeptuelles Wissen wesentlich in Form so genannter
semantischer Netzwerke sowie propositionaler Netzwerke gespeichert wird. Diese Art
Netzwerk ist nach Quillian hierarchisch geordnet, so dass übergeordnete Sachverhalte auch
für untergeordnete Kategorien gültig und diese somit aus ersteren ableitbar sind. Gilt für
31
eine untergeordnete Kategorie ein Merkmal der übergeordneten Kategorie nicht, dann muss
dies extra eingespeichert werden (bsp.: Vögel können fliegen. Ein Pinguin ist ein Vogel,
obwohl er nicht fliegen kann.)
Loftus (1992)
• Probanden bekamen sowohl einen Kategorieoberbegriff (z.B. „Frucht“), als auch
einen Anfangsbuchstaben präsentiert (z.B. „P“) und sollten ein entsprechendes Wort
generieren.
• Dies fiel leichter wenn der Kategoriename zuerst präsentiert wurde.
• Erklärung: Bei Einschränkung aller Wörter auf die Kategorie „Früchte“ erhält man
eine überschaubare und kohärente Menge. Ein passendes Wort kann im nächsten
Schritt relativ leicht gefunden werden. Die Kategorie „Anfangsbuchstabe P“ ist
vermutlich deutlich größer und diffuser.
Collins & Quillian 1969 / 1972
Nimmt man an, dass die einzelnen Sachverhalte (Merkmale), die für mehrere Unterbegriffe
gelten, nur bei dem zugehörigen Oberbegriff gespeichert sind, so sollte die Abrufbarkeit
auch von der Länge der zurückzulegenden Wegstrecke abhängig sein, was Collin und
Quillian (1969) in ihrem Experiment belegen konnten.
Ausgehend von drei Ebenen hierarchischer Organisation sollten Probanden Aussagen nach
Richtigkeit beurteilen. Die Antwort sollte schnellstmöglich durch das Drücken einer von
zwei Tasten erfolgen. Gemessen wurde die Reaktionszeit als abhängige Variable. Es zeigten
sich deutliche Unterschiede, je nachdem, ob die Aussage sich auf ein und dieselbe Ebene
bezog oder ob höhere Ebenen zur Beurteilung der Aussage notwendig waren. Das heißt, die
Reaktionszeit nahm mit der Anzahl der aufzusuchenden Knoten zu.
Tatsächlich war die Reaktionszeit umso länger, je mehr Ebenen aufgesuchten werden
mussten, um die Aussage zu beurteilen. Beispiel:
1. Ein Kanarienvogel kann singen (gleiche Ebene - 1,31 s)
2. Ein Kanarienvogel hat Federn (zwei Ebenen - 1,38 s)
3. ein Kanarienvogel hat eine Haut (drei Ebenen - 1,47 s)
Rosch 1973
32
Nach dem Netzwerkmodell sollten die Aussagen "Ein Spatz ist ein Vogel" und "Ein Pinguin
ist ein Vogel" gleich schnell beurteilt werden, da beide auf der gleichen Ebene sind und die
gleiche Entfernung zur übergeordneten Ebene besitzen. Tatsächlich brauchen Probanden
aber länger, um den Pinguin als Vogel zu identifizieren.
Psychologen wie z.B. Rosch argumentieren, dass wir bei so einfachen Fragen nicht die
einzelnen Ebenen des semantischen Netzwerks absuchen, sondern vielmehr auf gespeicherte
Prototypen zurückgreifen. Je ähnlicher das betreffende Item dem Prototypen ist, desto kürzer
sollte die Reaktionszeit sein.
So brauchen wir z.B. zur Bestätigung der Aussage: "Ein Strauß ist ein Vogel" zumeist mehr
Zeit als für die Beantwortung "Ein Spatz ist ein Vogel", denn ein typischer Vogel sollte
fliegen können, was ein Strauß nicht kann.
Schemata
Eine mentale Representation irgendeiner Handlung (mental oder körperlich), die an einem
Gegenstand ausgeführt werden kann (Piaget, nach Solso 2005). Aber auch ähnlich wie
Kategoriebegriff gebraucht.
Achtung: Die Begriffe Kategorie, Schemata und Skript sind sich ähnlich und werden
mitunter auch austauschbar verwendet. Dr. Wiese sagte, es gäbe keine großen Unterschiede,
aber sicherheitshalber nochmal beim Dozenten nachfragen!
Beispiel: Das Schema Junggeselle hat folgende Eigenschaften: männlich, jung, alleinstehend
Bransford 1979
In seinem Experiment gab Bransford seinen Studenten einen obskuren Text, der einen
Ablauf schilderte, ohne Details zu nennen, um was für eine Aufgabe es sich handele.
Anschließend sollten die Studenten auf einer Skala von 1 - 5 bewerten, wie verständlich der
Text sei. Ihre durchschnittliche Bewertung war 2,29. Außerdem zeigten sie eine sehr
schlechte Leistung, wenn sie den Text aus dem Gedächtnis abrufen sollten. Von 18
möglichen Zwischenschritten erinnerten sie im Schnitt gerade mal 2,82.
Eine zweite Gruppe las den Text und ihr wurde vor dem Abruf gesagt, es handele sich um
einen Text ums Waschen von Wäsche. Dies jedoch verbesserte weder das Verständnis noch
die Abrufleistung.
Eine dritte Gruppe wurde vor dem Lesen darüber informiert, dass der Text von
Wäschewaschen handele. Sie bewerteten die Verständlichkeit mit 4,5 von möglichen 5
Punkten und riefen etwa doppelt so viele Zwischenschritte ab, wie die Gruppen 1 und 2.
Die schlechte Leistung der beiden ersten Gruppen beruhte nicht darauf, dass Autor und
Leser des Textes unterschiedliche Konzepte von Wäschewaschen hatten, aber dass die Leser
den Text nicht in einen Kontext einordnen konnten.
Skripte
Im Grunde genommen ist ein Skript ein Packet von Informationen, die es in einer Situation
ermöglicht eine Situation zu verstehen oder zu interpretieren. Normalerweise ist ein Skript
implizit verfügbar.
Beispielsatz: „John reiste mit dem Bus nach New York“
Mögliche Interpretation des Programms von Schank und Abelson (1977):
„John ging zu einer Bushaltestelle. Dort wartete er einige Minuten. Er stieg in einen
Bus. Der Fahrer kontrollierte den Fahrschein. John ging zu einem Sitz. Er setzte
sich. Der Fahrer fuhr den Bus nach New York. John stieg aus dem Bus.“
Schank ging weiterhin der Frage nach, wie und vor allem welche Informationen ein Skript
enthalten muss. Auch wenn solche Fragen nach Details beantwontet werden können, scheint
es unplausibel, dass alle Informationen, die ein Skript enthalten könnte, auch enthalten sind;
33
das wäre unökonomisch und unflexibel.
Das Skript "Busfahren" enthält höchtswahrscheinlich nicht die Information, dass der
Bus erst still stehen muss, bevor John einsteigen kann oder dass John während der
Reise sitzen oder stehen kann.
Schank 1982
In späteren Publikationen ging Schank davon aus, dass Skripte wesentlich dynamischer und
interaktiver sind, als zunächst angedacht. Außerdem hat jedes gegebene Skript Elemente mit
anderen Skripten gemeinsam. Diese gemeinsamen Elemente bezeichnet er als MOPs
(Memory Organisation Packets).
Das Skript "Busfahren" könnte beispielsweise eine Reihe von MOPs von den
Skripten Reisen, Wetterbedingungen, Umgangsformen mit Fremden etc. beinhalten.
Alles, dass nicht standardgemäß zu dem Skript gehört, wird separat gespeichert. Diese
Mechanismen stellen die Basis für die Einspeicherung von episodische Gedächtnisinhalte
dar.
Außerdem führt er übergeordnete Konzepte ein, die er TOPs (Thematic Organisation
Points) nennt. Sie beziehen sich auf breitere Kategorien, wie z.B. Wertvorstellungen oder
Gelegenheiten, in denen man scheitert ein Ziel zu erreichen.
Ist Wissen rein sprachlich?
Semantisches Gedächtnis beschäftigt sich vermehrt mit semantischen Ideen oder Konzepten
als mit Wortassoziationen, obwohl es mit Wörtern verbunden ist.
Whorf 1956
Die Sapir-Whorf-Hypothese geht darüber hinaus davon aus, dass die semantische Struktur
einer Sprache die Möglichkeiten der Begriffsbildung von der Welt entweder determiniert
oder limitiert. Sie ist die „Annahme, dass die erlernte (Mutter-) Sprache die Erfahrung, das
Denken und Handeln der Menschen determiniere, jede Sprache eine spezifische Weltsicht
vermittle“; die These, dass die Sprache unser Weltbild prägt. Daraus folgt auch, dass zwei
Menschen, die unterschiediche Sprachen sprechen, die Welt auch unterschiedlich
wahrnehmen.
Brown & Lenneberg 1954
Brown und Lenneberg demonstrierten, dass bestimmte Farben besonders einfach erkannt
und erinnert werden können. Diese Farben sind fokal und werden von vielen Leuten sehr
konsistent als eine Farbe erkannt. Die Namen tendieren dazu, kurz zu sein, wie Rot oder
Grün, weniger fokale Farben tendieren dazu längere Namen zu haben. Interpretation nach
der linguistischen Relativitätstheorie: Farben, die einem einfachen verbalen Labe
entsprechen werden leicht wahrgenommen und erinnert.
Rosch 1973
Rosch zeigte eine alternative Interpretation auf, wonach die Sprache aus der Wahrnehmung
folgt. Sie untermauerte ihre Theorie mit einer Untersuchung an einem Volk aus Neuginea,
die Dani sprachen. Diese Sprache hat nur zwei Farbbezeichnungen, ungefähr hell/ warm und
dunkel/ kalt. Wenn Whorfs Theorie richtig wäre, dann sollten Dani-Sprecher keinen Vorteil
beim Erinnern fokaler Farben zeigen. Obwohl die allgemeine Leistung geringer war, fand
sie jedoch, dass sie fokale Farben einfacher unterscheiden und erinnern konnten.
Moar 1978
Ein Typ von Wissen, der schwer in Worte zu fassen ist, ist räumliches Wissen. In einem
Experiment untersuchte Moar, wie sich Probanden aus Cambridge und Glasgow in ihrem
Wissen über die Form von England unterschieden. Probanden sollten von einem Startpunkt
aus Linien zeichnen, die Städte miteinander verbinden. Aus den Vektoren der Linien wurde
das räumliche Konzept von Großbritannien berechnet, eine Technik die er mental
triangulation nennt. Es zeigte sich, dass die Cambridge-Gruppe die Distanzen in Süde
34
England überbetonten, während die Glasgow Gruppe Distanzen im Süden unterschätzte.
Potter & Faulconer 1975
Probanden sollten entweder Bilder von Objekten oder die gedruckten Namen dieser Objekte
kategorisieren (in Kategorien wie zum Beispiel Tiere, Werkzeuge etc.). Im Vergleich zur
Namen-Bedingung fiel die Entscheidung, dass z.B. ein Hund ein Tier ist genauso schnell
wenn ein Bild gezeigt wurde. Weiterhin erfolgte eine Kategorisierung von Bildern schneller
als eine Benennung. Dies widerspricht der Ansicht, dass Kategorien lediglich sprachliche
Labels sind. Ebenfalls scheint es bildlich-räumliche Konzepte zu geben.
Nitsch
Bisherige Studien untersuchten bereits bestehende Konzepte, diese geht darauf ein, wie neue
entstehen. Nitsch, ein Schüler von Bransford, gab seinen Studenten die Definitionen einiger
Konzepte, die sich auf soziale Situationen anwenden ließen, wie z.B.:
• CRINCH - to make someone angry by performing an inappropiate act
• MINGE - To gang up on a person or thing
• RELL - To rescue someone from a dangerous or problematic situation
Er interessierte sich nicht nur dafür, wie gut solche Konzepte gelernt wurden, sondern auch,
wie gut sie generalisiert werden würden. In einem Experiment bildete er zwei Gruppen aus
Studenten.
Gruppe 1 lernte die Konzepte, so dass sie das Konzept benennen konnten, wann
immer ihnen das Konzept begegnete.
Gruppe 2 lernte die Begriffe anhand von Beispielen, bis sie jedes Beispiel korrekt
kategorisieren konnten.
Beide Gruppen wurden dann mit neuen Beispielen konfrontiert. Diejenigen, die die
Definitionen gelernt hatten, waren wesentlich schlechter darin, die neuen Beispiele korrekt
zu kategorisieren, als die, die Konzepte anhand von Beispielen erlernten.
Wenn beide Gruppe die Bedeutungen der Konzepte gut verstanden hatten, bekamen sie neue
Beispiele aus sozialen Kontexten, die sich von den bisherigen unterschieden. Auch diesmal
war die zweite Gruppe besser darin, die Situation korrekt zu kategorisieren.
Nitsch's Experiment zeigt, dass Konzepte besser gelernt werden, wenn eine große Anzahl an
Beispielen gezeigt wird. Jedoch, eine schnellere, wenn auch weniger generalisierende
Möglichkeit ist, diese durch Definitionen zu erlernen.
Vergessen
Traditionell gibt es zwei Theorien des Vergessens.
Die eine geht davon aus, dass Gedächtnisspuren beim Vergessen schlichtweg verblassen und
schließlich verschwinden. Sollte diese Theorie richtig sein, dann sollte Vergessen
systematisch mit verstrichener Zeit zusammenhängen. Es gibt einige Befunde, die dagegen
sprechen.
• Baddeley & Hitch (1977) fragten Rugby-Spieler nach den Namen der Teams,
gegen die sie in der vorherigen Saison gespielt hatten. Die meisten Spieler hatten
aus verschiedenen Gründen nicht an allen Spielen teilgenommen. Für die
Gedächtnisleistung war es relativ unwichtig wie viel Zeit verstrichen war, einen
größeren Effekt hatte die Anzahl der Spiele, an denen die Spieler teilgenommen
hatten. Dies lies sich so erklären, dass die Erinnerungen an die Spiele mit
einander interferierten.
Die andere geht davon aus, dass Vergessen eintritt, weil Gedächtnisspuren durch
nachfolgende Lerninhalte gestört oder überschattet werden. Vergessen ist also ein Prozess
der Interferenz. Wenn diese Theorie richtig sein sollte, dann sollte Vergessen nicht von der
verstrichenen Zeit, sondern die Ereignisse, die währenddessen geschehen der entscheidende
35
Faktor sein, der zu Vergessen führt.
• Jenkins & Dallenbach (1924) zeigten, dass Probanden, die nach dem Lernen zu
Bett gingen, 24 h später bessere Gedächtnisleistung zeigten, als diejenigen, die
die am Morgen lernten und dann am normalen Tagesgeschehen teilnahmen.
• Allerdings ist es wahrscheinlich, dass hier andere Effekte, beispielsweise die
Tageszeit, einen Einfluss haben. Es zeigte sich, dass Probanden genausoviel
vergasen, wenn sie am Morgen lernten und schliefen, wie diejenigen, die am
Tagesgeschehen teilnahmen.
• Möglicherweise ist abendliches Lernen deshalb effektiver, weil zyklische
Rhythmen zu dieser Zeit den biologischen Konsolidierungsprozess begünstigen.
• In einem anderen Experiment baten McGeoch & McDonald (1931) Probanden
Listen mit Adjektiven zu lernen. Ziel war es, herauszufinden, welche Effekte
Interferenz hatte, indem sie die probanden unterschiedliche Aktivitäten zwischen
Lernen und Abruf ausführen ließen. Sie fanden heraus, dass am wenigsten
vergessen wurde, wenn die Probanden während dieses Intervalls ausruhten. Mehr
wurde vergessen, wenn sie während des Intervalls Material lernten, dass nicht
dazugehörte (z.B. sinnlose Silbenkombinationen). Weiterhin war das Vergessen
größer, wenn in dem Intervall Adjektive gelernt wurden, die in der Bedeutung
ähnlich den gelernten waren. Mit diesem Experiment konnte der Effekt von
Interferenz auf die Gedächtnisleistung gezeigt werden, insbesondere dass je
ähnlicher die interferierenden Lerninhalte sind, desto größer das Vergessen ist.
Zum anderen unterscheidet man zwei Arten von Interferenz: Retroaktive interferenz und
Proaktive Interferenz. Interferenz kann interpretiert werden, indem man annimmt, dass wir
Erfahrungen mit einander verbinden. Je ähnlicher die Erfahrungen sind, desto
wahrscheinlicher ist es, dass sie interagieren.
• Alte Gedächtnisinhalte durch das Lernen von neuen zu verlieren nennt man
Retroaktive Interferenz. Retroaktiv impliziert, dass die Interferenz rückwärts
gerichtet ist. Allgemein, diese Typ Interferenz gewinnt mit der Menge an neuen
Gedächtnisinhalten an Bedeutung und ist am bedeutendsten, wenn die neuen
Lerninhalte mit schwachen, alten Gedächtnisspuren interferieren (siehe auch
Slamecka 1960).
•
Wenn eine alte Gedächtnisspur plötzlich über neue Gedächtnisinhalte dominiert,
nennt man dies Proaktive Interferenz.
36
Ebbinghaus ~1880
Ebbinghaus untersuchte als einer der ersten Gedächtnisleistung und Vergessen, indem er 169
Listen mit sinnlosen Silben lernte. Nach einem variablen Intervall (21 min bis zu 31 Tagen)
lernte er diese Listen erneut und fand, dass anscheinend ein Teil wieder vergessen worden
war. Die Zeit, die zum erneuten Lernen benötigt wurde, galt Ebbinghaus als Mass für das
Vergessen. Es zeigte sich eine deutliche Beziehung zwischen Intervalldauer zwischen erstem
und erneutem Lernen und der Rate des Vergessens. Vergessen geschieht zunächst zunächst
rasch und nimmt dann graduell ab. Die Rate, mit der man vergisst ist eher logarithmisch als
linear.
Jost's Gesetz
Wenn zwei Gedächtnisspuren zu einem Zeitpunkt gleich stark sind, dann wird die ältere
beständiger bleiben und weniger schnell vergessen werden. Es scheint als würden
Gedächtnisspuren resistenter gegen Verfall werden, je älter sie sind.
Warrington & Sanders 1971
Obige Ergebnisse betreffen sinnloses Material mit Intervallszeiten von wenigen Minuten bis
Tagen. Warrington & Sanders suchten sehr bedeutsame Schlagzeilen aus Zeitungen, die ein
bis dreißig Jahren alt waren. Sie untersuchten nun das Gedächtnis ihrer Probanden, entweder
durch recall- oder recognition- Bedingungen.
Sie fanden, dass solche bedeutsamen Schlagzeilen durchaus vergessen wurden. Jüngere
Menschen hatten allerdings eine bessere Gedächtnisleistung als alte Menschen, sowohl für
nahe wie auch Entfernte Items.
Bahrick, Bahrick, Wittlinge (1975)
Bahrick et al. untersuchten das Gedächtnis von High-School-Absolventen nach mehr als 30
Jahren für Namen und Portraits ihrer Klassenkameraden. Sie zeigten, dass sich die
Probanden noch außerordentlich gut Namen wiedererkannten (recognize) und die Namen
Gesichtern zuordnen konnten. Jedoch zeigten sie, dass sie Namen weniger gut frei oder auf
Hinweisreize hin abrufen konnten und mehr vergessen worden waren.
In beiden Bedingungen sank die Leistung nach 50 Jahren, was impliziert, dass es Alter einen
Einfluss auf die Intelligenz hat.
37
Bahrick & Phelps 1987
Bei den jährlichen Alumni-Treffen prüfte Bahrick wie in College-Zeiten erworbenes Wissen
vergessen wurde. Das bedeutsamste Ergebnis ist, dass das meiste Wissen in den ersten paar
Jahren vergessen wurde, danach gab es fast kein Vergessen mehr. Bahrick schlug vor, dass
dieses Wissen im Permastore gespeichert wird, ein Speicher (fast) ohne Vergessen. Wie viel
Wissen in das Permastore gelangt hängt davon ab, wie gut das Material gelernt wurde und
wie gut die Lernmethode war.
Vergessen von Fertigkeiten?
• Fertigkeiten wie Fahrradfahren oder Schwimmen verlieren wir nicht mehr, wenn wir
sie einmal gelernt haben, auch wenn wir diese Fertigkeiten lange nicht mehr
eingesetzt haben.
• In einer Studie von Fleischmann & Parker (1962) trainierten Probanden in einem
Flugsimulator und wurden dann 9-24 Monate später nochmal getestet. Ihre Leistung
fast gleich, was impliziert, dass kein Vergessen eintrat.
• Dass Fertigkeiten nicht vergessen werden, scheint nicht für alle Fertigkeiten zu
gelten. Es gibt gibt kontinuierliche Fertigkeiten (closed-loop-skills) und diskrete
Fertigkeiten (open-loop skills)
• Closed-loop skills, wie z.B. Fahrradfahren oder Fliegen haben einen
kontinuierlichen Ablauf, bei dem jede Aktion den Hinweisreiz für die
nächste Aktion bietet. Kontinuierliche, motorische Fertigkeiten scheinen
(fast) nicht vergessen zu werden.
• Open-loop skills, wie z.B. erste Hilfe leisten, bestehen aus einzelnen,
unabhängigen Aktionen. Soll das Leistungsniveau bei solchen komplexen
Fertigkeiten aufrechterhalten werden, so muss die Fertigkeit in
regelmäßigen Abständen aufgefrischt werden.
• Viele Fertigkeiten sind eine Kombination beider Fertigkeitsarten.
38
•
McKennah & Glendon (1985) untersuchten Freiwillige, die einen erste Hilfe Kurs
absolviert hatten nach einem Intervall, das von 3 Monaten bis zu 3 Jahren reichte. In
diesem Fall scheint ein Wiedererlernen der Fertigkeit in regelmäßigen Abständen
erforderlich zu sein.
Amnesie
Als reine Amnesie bezeichnet man ein zeitlich begrenztes oder permanentes selektives
Defizit des explizite Langzeitgedächtnisses bei gleichzeitig erhaltenen anderen kognitiven
Fähigkeiten wie Sprache und Intelligenz. Die Amnesie ist ein teilweiser Verlust der
Erinnerungsfähigkeit oft aufgrund von neuronaler Schädigungen, wie sie z.B. entstehen bei
• Gehirnverletzungen (Schlaganfall, Anoxie, traumat. Hirnläsion)
• Chronische Alkoholintoxikation (Wernicke-Korsakoff-Syndrom)
• Infektiöse Erkrankungen des Gehirns (Encephalitis)
• Psychogene Amnesien
Als retrograde Amnesie wird die Unfähigkeit bezeichnet, sich an Ereignisse zu erinnern,
die mehr oder weniger kurz vor der Hirnverletzung oder der Erkrankung liegen.
39
Es handelt sich um eine anterograde Amnesie, wenn die Personen unfähig sind, neues
Faktenwissen aufzunehmen oder zu erinnern, wie z.B. Tageserlebnisse. Hierher gehört z.B.
der Patient H.M., der seinem behandelnden Arzt täglich neu vorgestellt werden musste
(Verlust des semantischen LZGs).
Sprache
Was ist die Psycholinguistik?
Erste psycholinguistische Erkenntniss gewann bereits Cattel im Jahr 1886. Er maß die Zeit,
die zum Lesen und Benennen von Buchstaben, Wörtern, Sätzen und Bildern benötigt wird.
Er zeigte, dass Buchstabenkombinationen, die ein Wort ergaben, schneller gelesen werden
konnten, als solche, die kein Wort ergaben. Cattel fand ebenfalls, dass Wörter schneller in
Sätzen gelesen werden, wenn die Sätze einen Sinn ergeben.
Huey (1900) untersuchte Leseprozesse mit dem Ziel, die Lesegeschwindigkeit zu erhöhen.
er maß die Anzahl von Augenfixationen (und Sakkaden) pro Zeile in Abhängigkeit von
Schriftgröße und Zeilenlänge. Er fand, dass man beim Lesen nicht die Worte fixiert, die man
gerade laut liest. Das laute Lesen hinkt dem Fixieren etwa 6-7 Worte hinterher.
Die Psycholinguistik als eigene Disziplin entstand Mitte der 50er Jahre, in Folge der Kritik
des Linguisten Chomsky an den verbreiteten behavioristischen Vorstellungen über Sprache.
In der bahavioristischen Sprache stand der assoziative Aspekt der Sprache im Mittelpunkt.
Danach lernen die Sprecher in welcher Situation bestimmtes sprachliches Verhalten eine
Verstärkung oder Bestrafung nach sich zieht.
Die Psycholinguistik ist an den strukturellen Aspekten und Reüräsentationen der Sprache
interessiert. Gemessen werden Reaktionszeiten, Augenfixationen beim Lesen,
ereigniskorrelierte Potentiale (EKPs) und Stoffwechselaktivitätem im Gehirn (funktionelle
Magnetresonanztomographie (fMRT)).
Grundlagen der Sprache
Offensichtlich spielt Sprache eine wichtige Rolle bei Gedächtnisleistung und Denken (es
gibt jedoch auch andere Formen von Denken und Gedächtnis, z.B. visuell-räumliches oder
motorisches).
Sowohl beim Sprachverständnis als auch bei der Sprachproduktion (dem Sprechen oder
Schreiben) lassen sich in gleicher Weise verschiedene Ebenen unterscheiden auf denen der
jeweilige Sprachprozess abläuft. Wenn wir etwas sagen wollen, beginnen wir zunächst
innerlich mit einem Gedanken, den wir aussprechen wollen. Diesen transformieren wir dann
in Phoneme und Morpheme eines sprachlichen Satzes (sentence) in einer uns geläufigen
Sprache, den wir dann sprachlich artikulieren (aussprechen oder niederschreiben).
Entsprechend umgekehrt beginnen wir beim Zuhören mit dem Hören der Sprachlaute, die
wir als Wortkombinationen erkennen, die sich in Sätzen zusammenschließen, aus denen wir
dann den Sinn entnehmen.
40
Beim Sprachverständniss spielen Erwartungen eine wichtige Rolle. Anhand von
Erfahrungen über Propositionen können wir ganze Sätze erschließen, was besonders dann
nützlich ist, wenn er undeutlich ausgesprochen wurde.
Grundeinheiten der Sprache
Die Grundeinheiten der Sprache sind Phoneme, Morpheme und Propositionen.
Phoneme werden definiert als kleinste sprachliche Einheiten (basic speech sound), deren
Veränderung unter Umständen zu einer Veränderung der Bedeutung der Äußerung führen
kann. (Buchstaben sind Zeichen für Sprachlaute)
Morpheme sind die kleinsten bedeutungstragenden Einheiten. So ist Hase zum Beispiel ein
Morphem, das ein Objekt bezeichnet, und -te ein Morphem, das die Vergangenheitsform
anzeigt. Aber auch Artikel (der, die, das) und Präpositionen (an, auf) sind Morpheme, da sie
eine Bedeutung tragen.
Propositionen sind (abstrakte) Bedeutungseinheiten (Vorstellungen), die eine Beziehung
zwischen Konzepten, Gegenständen oder Ereignissen ausdrückt. Sie wird auch als kleinste
Wissenseinheit bezeichnet. Es wird angenommen, dass Propositionen in unserem Gehirn in
einer nicht sprachlichen, non-linguistischen Form repräsentiert sind. Hinweis darauf ist z.B.
dass wir Propositionen mit unterschiedlichen Synonymen wiedergeben können.
Konzepte, Begriffe und Skripte sind kognitive Repräsentationen von Arten von Dingen und
ihren Eigenschaften. Konzepte resultieren aus der Fähigkeit, individuelle Erfahrungen zu
kategorisieren, sie in eine Klasse zusammenzufassen und sie funktionell gleich zu
behandeln. Sie umfassen die Eigenheiten oder Relationen, die eine Klasse von Objekten und
Ideen gemeinsam sind. Konzepte haben also Vorhersagekraft.
Die Zuordnung eines Objektes zu einem bestimmten Konzept wird Kategorisierung
41
bezeichnet. Zur Erinnerung, die wichtigsten Theorien:
Kritische Merkmalstheorie: Ein Konzept wird charakterisiert durch das
Vorhandensein einer genügenden Anzahl notwendiger Merkmale.
Prototypentheorie: Ein Konzept wird charakterisiert durch einen Prototyp, welcher
der zentralen Tendenz der Merkmale aller Exemplare des Konzepts entspricht.
Exemplarbasierte Theorien: Ein Konzept wird charakterisiert durch eine Sammlung
von Exemplaren.
Wörter sind Konzepte, Begriffe oder ein oder mehrere Morpheme. Unser gesammtes
Wissen über die Wörter unserer Sprache, d.h. unser Wortschatz, ist im Langzeitgedächtnis
gespeichert. Psycholinguisten sprechen vom mentalen Lexikon. Wir kennen passiv mehr
Worte als wir aktiv benutzen. Die Relation von Worten und ihrer Bedeutung ist relativ
beliebig, so kann ein Objekt mit mehreren Worten bezeichnet werden oder ein Wort
bezeichnet mehrere Konzepte:
Hund = chien (franz.) = perro (span)
Manche Konzepte werden mit mehreren Wörtern versprachlicht:
sich verlieben, mit dem Hund Gassi gehen
Idiome sind Ausdrücke, in denen Wörter zu nichtwörtlichen Bedeutungen kombiniert
werden:
Auf die Palme bringen, im Eimer sein, an die Decke gehen, etc.
Auch gibt es Wörter, denen mehrere, unterschiedliche Konzepte zugeordnet sind:
Schimmel = weißes Pferd oder Schimmelpilz
Kommen neue Konzepte hinzu, dann werden neue Wörter gebildet oder aus einer
anderen Sprache übernommen,
e-mail, zappen oder simsen.
Sprachproduktion:
Jedes Wort ist eine -meist einzigartige- Kombination von Phonemen. Zwerchfell, Brustkorb,
Zwischenrippenmuskulatur, Atmungsmuskulatur, Lungen, Bronchien, und Luftröhre
erzeugen gemeinsam den für die Sprachproduktion nötigen Luftstrom. Die wesentlichen
Lautartikulationen erfolgen im Mundraum, in geringerem Ausmaß in der Nasenhöhle bzw.
im Rachen. Der Luftstrom, der bei der Produktion von Vokalen entsteht, wird außerhalb des
Kehlkopfs nicht behindert. Unterschiedliche Vokale entstehen durch verschiedene
Formungen von Rachen, Nasen- und Mundraum. Dagegen wird bei Konsonanten der
Luftstrom im Mundraum, teilweise auch im Nasen- oder Rachenraum mehr oder weniger
stark behindert.
Die allermeisten Wortlaute entstehen durch exhalatorische Luftströme, die zuerst an den
Stimmbändern modifiziert werden können. Durch bloße Öffnung, ohne weitere Beteiligung
der Stimmbänder entstehen stimmlose Laute. Bei stimmhaften Lauten schwingen die
Stimmbänder regelmäßig und versetzen den Luftstrom somit in Schwingungen.
Orale und nasale Laute
Die nächste Veränderung des Luftstroms kann durch den weichen Gaumen (Velum)
erfolgen. Senkt sich der weiche Gaumen, strömt Luft in den Nasenraum, und es entstehen
bei oralem Verschluss nasale Laute ([m], [n], [N]), bei oraler Öffnung, nasalierte Laute. Ist
der Nasenraum verschlossen, werden orale Laute produziert ([p], [s], [a]).
Artikulationsorte
Was unterscheidet jetzt aber z.B. die beiden stimmhaften, nasalen Laute [n] und [m]? Es
sind die verschiedenen Artikulationsorte, die zwischen Lippen und Zäpfchen liegen. Mit
Ober- und Unterlippe werden labiale Laute gebildet. Wenn sich die Zunge am knöchernen
Wulst hinter den Zähnen befindet, werden alveolare Laute gebildet. Velare Laute werden
produziert, indem mit der Zunge der weiche Gaumen angesteuert wird.
42
Weitere Artikulationsorte sind: labiodental (Unterlippe und Zähne), interdental (Zunge
zwischen den Zähnen), platal (Zunge am harten Gaumen hinter der Zahnwulst). Es gibt in
der deutschen Sprache keine Laute, die mit Zäpfchen oder Rachen gebildet werden.
43
Art der Artikulation
Noch können wir [s] und [t] nicht unterscheiden. Was diese beiden Laute unterscheidet ist
die Art der Bloackade des Luftstroms, anders gesagt Art der Artikulation. Man
unterscheidet:
• Plosive: Bei den Lauten [p], [t] oder [k] wird der Luftstrom kurzfristig vollständig
blockiert, er "explodiert". Man nennt diese Laute deshalb Plosive.
• Frikative: Bei einer teilweisen Blockade des Luftstroms, wie beim [s], kommt es zu
Turbulenzen des Luftstroms. Man nennt diese Laute Frikative.
• Liquide: Gibt es eine teilweise Verengung des Luftstroms ohne richtige
Turbulenzen, entstehen sogenannte Liquide, z.B. [l] und [r].
• Nasale: Senkt sich der weiche Gaumen, strömt Luft in den Nasenraum, und es
entstehen bei oralem Verschluss nasale Laute, z.B. [m] und [n]
• Vokale: Luftstrom ist ungehindert, z.B. [a] und [o]
Die Tabelle fasst Art und Ort der Artikulation sowie Stimmhaftigkeit zusammen:
Wie lesen wir?
Anscheinend gibt es zwei Arten des Lesens: das Phonetische Lesen und die
Ganzwortereknnung. Beim phonetischen Lesen werden die Buchstaben in lautliche
Einheiten umgewandelt und die Einheiten werden zusammengesetzt. Hinweis darauf ist,
dass wir auch Pseudowörter, bedeutungslose Buchstabenfolgen, lesen können, wie z.B.
"Gemirf" und "Bofalka".
Davon unabhängig gibt es auch die Ganzwort-Erkennung, bei der das Wort erkannt wird,
ohne dass die Buchstaben einzeln in Laute umgewandelt werden.
Versuche folgenden Satz zu lesen: Der Mnan kufat enie Zieutng.
Die meisten Menschen können diesen Satz ohne nennenswerte Schwierigkeit schnell
lesen.
Möglicherweise ist bei jeder Wortform kodiert, aus welchen Silben sie aufgebaut ist.
44
Morphologie
Worte sind kleinsten bedeutungstragenden Einheiten - den Morphemen - zusammengebaut.
Man unterscheidet freie Morpheme (trinken), die alleine stehen können, von gebundenen
Morphem (be-, -lich), die nicht alleine stehen können. Gebundene Morpheme, die am
Anfang stehen, heißen Präfixe; die die am Ende stehen heißen Suffixe.
Flexion: Die einfachste Form der morphologische Komplexität heißt Flexion, wozu die
Deklination von Substantiven und Adjektiven (klein-er Hund, klein-e Hund-e), die
Konjugation von Verben (macht-e, ge-macht), Diminutive (Kind-chen) sowie Komparative
und Superlative (schön-er, schön-st) gezählt werden. dabei werden an den Wortstamm, d.h.
den Teil des Wortes, der übrig bleibt, wenn alle Endungen entfernt sind, gebundene
Morpheme angehängt. Bei Flexion bleibt die Wortklasse gleich (Adjektiv bleibt Adjektiv
etc.).
Derivation: Beim morphologischen Prozess der Derivation ändert sich meist die
Wortklasse. Durch Suffixe wie -lich, -bar oder -sam werden aus Substantiven Adjektive oder
Adverbien. Substantive entstehen, wenn dem Wortstamm Morpheme wie -heit oder -ung
angehängt werden. Verben entstehen, wenn man dem Wortstamm -en oder -ieren anhängt.
Manchmal wird ein Präfix wie be- oder ver- angehängt.
Komposition: Kompositionen bezeichnen morphologische Prozesse, bei denen aus
mehreren Substantive und/oder Adjektive und/oder Verben kombiniert werden (Merk-Zettel,
wunder-schön, staub-saugen, etc.). Manchmal werden Fugenmorpheme eingebaut, wie -zuin zusammenzufassen. Auch bei Kompositionen kann sich die Wortklasse ändern.
Eine viel diskutierte Frage ist, ob und wie sich diese morphologischen Zusammenstellungen
im mentalen Lexikon widerspiegeln. Generell unterscheiden sich Modelle des mentalen
Lexikons in ihren Annahmen, wie morphologisch komplexe Wörter - ob flektiert, deriviert
45
oder zusammengestellt - abgespeichert sind. In einigen Modellen sind komplexe und
einfache Wörter im mentalen Lexikon gleich repräsentiert: sowohl Stuhl wie auch
Rosenzüchterverein haben einen eigene Wortform. Andere gehen davon aus, dass nur
einzelne Morpheme gespeichert sind, die beim sprechen zusammengefügt, bzw. beim Lesen
oder Hören zergliedert werden. Auch Kombinationen der Modelle existieren, wie z.B. dualcoding Modelle
Experimente haben z.B. gezeigt, dass bei Komposita, wie "Frauenzimmer" die
Bedeutung der enthaltenen Wörter wie Zimmer aktivieren, trotz der Abwesenheit
eines bedeutungsmäßigen Zusammenhangs zwischen den Wörtern.
Strukturelle Wortmerkmale
In unserem mentalen Lexikon ist auch gespeichert, welche Funktion Wörter in den
Strukturen des Satzes einnehmen können. Die Wortklassenzugehörigkeit ist ein ersetztes
strukturelles Merkmal, das für die Syntax des Satzes wichtig ist. Für jedes Wort ist kodiert,
ob es sich um ein Substantiv, ein Verb ein Adjektiv/Adverb oder eine Präposition, einen
Artikel etc. handelt. Auf dieser Ebene sind nicht einzelne Morpheme, sondern vollständige,
komplexe Wörter wichtig.
Subkategorisierungsinformationen bestimmen einen syntaktischen Rahmen, in denen die
Wörter eine Rolle spielen. Wörter wie schlafen oder schenken unterscheiden sich
hinsichtlich ihres Subkategorisierungsrahmens: Schlafen kann nur mit einem Substantiv,
welches die Rolle eines Subjekts annimmt gepaart werden (Hans schläft). Schenken
dahingegen kann mit einem Substantiv, dass die Rolle eines Objekts einnimmt, gepaart
werden (Hans schenkte seiner Frau einen Blumenstrauß).
Ein Lemma bezeichnet die strukturell-syntaktischen Merkmale eines Wortes. In einem
lemma sind also Wortklasse, das Genus, der Subkategorisierungsrahmen etc. enthalten.
46
Wie viele mentale Lexika haben Bilinguale?
Forscher gehen davon aus, dass jeder Sprecher nur ein konzeptuelles Gedächtnis besitzt, in
dem das Wissen, welches versprachlicht werden kann, gespeichert ist. Bilinguale haben
jedoch mehrere Worte für das selbe Konzept: Hund, chien, dog. Folglich unterscheiden sich
Wortformen und unter Umständen auch die Lemmas.
Anscheinend ergeben sich Unterschiede, je nachdem in welchem Alter man eine Sprache
gelernt hat und wie gut man eine Sprache beherrscht. Wer seine zweite Sprach spät lernt und
nicht gut beherrscht hat natürlich einen kleinen Wortschatz und direkte Verbindungen
zwischen den Wortformen und der Muttersprache. Die Wortformen von L2 können
anfänglich nur über Verbindungen zu den Wortformen in L1 mit dem konzeptuellen
Gedächtnis in Verbindung treten. Mit zunehmender beherrschung der Zweitsprache bilden
sich direkte Verbindungen zwischen den Wortformen von in L2 und den Konzepten. Bei
Menschen, die fast perfekt zweisprachig sind, werden die Querverbindungen zwischen den
Wortformen der beiden Sprachen schwächer.
47
Probleme bei auditiver Worterkennung
Es geht darum, wie wir im kontinuierliche Fluss von Sprachklängen Worte erkennen und
entdecken. Psycholinguisten nehmen an, dass für jedes Wort eine Beschreibung der
lautlichen Zusammenstellung im mentalen Lexikon exisitert. Diese Beschreibung nennen
wir Wortform. Wortformen müssen genügend abstrakt und variable sein, um die Variabilität
gesprochener Sprache gerecht zu werden.
Segmentierungsproblem: Bei geschriebener Sprache können wir Wörter mit Leerzeichen
trennen. In der gesprochenen Sprache gibt es keine Entsprechung für die Leerzeichen, mit
denen wir Wörter trennen. Es gibt keine systematischen Pausen, die das Ende eines Wortes
(oder Phonems) anzeigen und der Sprachfluss ist zwischen Wörtern oft nicht unterbrochen.
Außerdem besteht das Problem, dass Wörter nur aus einer endlichen Zahl an Silben
bestehen; Wörter entahlten auch andere Wörter (wie Du in Duden) und es entstehen andere
Wörter (Schund in Busch und... ).
Variabilität gesprochener Sprache: Sprache ist variabel, wir reden laut, leise, schnell oder
langsam, sorgfältig oder schludrig. Wir verstehen geflüsterte Sprache und Sprache mit
leichtem Akzent. Von Tonlage, Stimmhaftigkeit, Intonation und Sprechgeschwindigkeit
können wir mitunter auf soziale Informationen schließen.
Sprecher artikulieren nicht ein Phonem nach dem anderen, sondern Phoneme werden
vielfach überlappend artikuliert (Koartikulation). Die Bewegung der Artikulatoren spiegeln
nicht nur das aktuell produzierte Phonem wieder, sondern auch das vorherige und das
nachfolgende. Koartikulationen führen dazu, dass akustische Eigenschaften und phonetische
Kategorien einander nicht eindeutig zugeordnet werden können.
Menschen können etwa 4-7 Wörter pro Sekunde verstehen, abhängig von der Länge der
Wörter. Das sind etwa 170-250 ms pro Wort.
48
Auditive Worterkennung:
Kohortenmodell: Parallele Verarbeitungsmodelle dominieren derzeit das
Forschungsgeschehen. Beim Kohortenmodell der Spracherkennung werden phonetische
Eigenschaften werden extrahiert und auf unterspezifizierte lexikalische Repräsentationen
abgebildet. Sobald Sprachsignal und lexikalische Repräsentation in wichtigen
phonologischen Eigenschaften abweichen, wird die betreffende Repräsentation deaktiviert.
Ein Selektionsmechanismus, der sicherstellt, dass nur ein Wort erkannt wird, wird über die
Zeit zunehmend spezifischer.
Beispiel: Im Deutschen sind alle Nasale [n], [m] oder [η] stimmhaft. Das Merkmal
stimmhaft wird bei Nasalen Phonemen nicht gespeichert, es ist vorhersagbar. Markierte, also
nicht erschließbare Information wird dahingegen gespeichert. Im Fall der eben aufgeführten
Nasale ist der Ort der Artikulation für [m], labial, und [η], velar, spezifizierbar. Der
Artikulationsort für [n], alveolar, ist vorhersagbar und deswegen nicht spezifiziert.
Das Wort lebensmüde wird oft mit einem assimilierten [m] ausgesprochen, /le:bmsmydә/
statt /le:bnsmydә/. Während das erste [m] ein assimiliertes [n] ist, ist das zweite [m] nicht
assimiliert. Ein einfacher Assoziationsmechanismus würde in beiden Fällen [m] zu [n]
verändern. Das Kohortenmodell kann aber lernen, assimilierte und nichtassimilierte
Phoneme zu unterscheiden.
TRACE-Modell: Das interaktive Aktivierungsmodell TRACE unterscheidet drei Ebenen:
die phonologische Merkmalsebene, die Phonemebene und die Wortebene. Auf jeder Ebene
existiieren lokale Repräsentationen, d.h. die Aktivierung einer Einheit steht für das
Vorhandensein einer Eigenschaft. Bidirektionale, aktivierende Verbindungen leiten die
Aktivierung zwischen den Ebenen weiter. Es existieren zwischen den Verbindungen
hemmende Verbindungen (laterale Hemmung), sodass auch minimale Paare unterscheidbar
werden. Ein Sprachsignal wird auf erster Ebene abgebildet, die phonologischen
Eigenschaften (Merkmale wie nasal oder plosiv) enthält. Je besser ein bestimmtes Merkmal
zum Sprachsignal passt, desto stärker wird es aktiviert. Die Aktivierung der Merkmale wird
an die Phonemebenen weitergeleitet. Je mehr Merkmale eine Phonemrepräsentation
aktivieren, desto größer ist dessen Aktivierung. Die Phonemeinheiten ihrerseits aktivieren
alle Worteinheiten, in denen sie enthalten sind. Durch die Verschaltung zwischen den
Ebenen können Koartikulationseffekte kompensiert werden. Sobald eine Wortrepräsentation
aktiviert wird, aktiviert sie rückwirkend (top-down-Aktivierung) die in ihr enthaltenen
49
Phoneme. Schließlich wird das Wort "erkannt", das am stärksten aktiviert wird. Im
Gegensatz zum Kohortenmodell benötigt TRACE keine genaue Passung von Sprachsignal
und lexikaler Repräsentation.
Priming
Das Priming-Paradigma: Ein Durchgang in einem Priming-Experiment besteht aus
mindestens zwei Ereignissen: Zuerst wird ein Vorreiz (Prime) kurz dargeboten, auf den die
Teilnehmer nicht reagieren müssen. Dann erscheint der Zielreiz (Target), auf den eine
Reaktion erfolgen soll.
Der Priming-Effekt wird typischerweise bestimmt, indem man die Reaktionszeit der
verwandten Bedingung von der Reaktionszeit der unverwandten Bedingung abzieht. Die
Differenz ist der Priming Effekt. Ist die Differenz positiv, spricht man von Erleichterung, ist
sie negativ, von Hemmung (inhibition). Die Mechanismen, die zugrunde liegen, sind noch
unklar. Für semantisches Priming werden häufig drei verschiedene Mechanismen
herangezogen: automatische Ausbreitung von Aktivierung von verwandten Konzepten,
Erwartungen, die Versuchsteilnehmer generieren, und semantischer Abgleich von Vor- und
Zielreiz.
Unter Priming versteht man in der Psychologie, dass die Reaktionszeit (Fehler,
Identifikationsrate) auf einen Stimulus (Target, Zielreiz), auf den die Versuchsperson
reagieren soll, durch einen vorangegangenen Stimulus (Prime, Vorreiz) beeinflusst
wird.
Das Bild-Wort-Paradigma: Die Aufgabe der Versuchsperson ist es, einzelne Bilder zu
benennen, die als Zielreiz dienen. Der Vorreiz, hier fast immer Ablenker genannt, ist ein
gesprochenes oder gedrucktes Wort. Häufig wird der zeitliche Abstand, die Asynchronie,
zwischen den Darbietungen des Ablenkungswortes und des Bildes variiert (SOA, stimulus
onset asynchrony). Es hat sich gezeigt, dass phonologische und morphologische
Verwandtschaft zwischen Wort und Bild die Bildbenennung erleichtert. Bestimmte
semantische Beziehungen verlangsamen die Bildbenennung.
50
51
Anwendung aller obigen Beispiele:
Das Sprechen der Wörter, aus denen eine Äußerung besteht, erfolgt normalerweise schnell
und mühelos. Trotzdem erbringt unser Sprachproduktionssystem auch bei einer einfacher
Äußerung wie "Kaffee" auf die Frage, was man trinken möchte eine beachtliche Leistung.
Zuerst muss auf der konzeptionellen Ebene entschieden werden, was wir nun tatsächlich
trinken möchten: Tee, Wein, Saft oder eben doch Kaffee? Wenn wir uns für Kaffee
entschieden haben, wird das lexikale Konzept KAFFEE bereitgestellt. Dieses lexikale
Konzept ist mit mehreren verwandten lexikalen Konzepten verbunden, u.a. mit BOHNE,
MILCH, ZUCKER, SCHWARZ. Wichtig ist, dass verwandte Konzepte sich gegenseitig
aktivieren.
Das lexikale Konzept KAFFEE aktiviert auf sprachlicher Ebene seine syntaktischen
Merkmale, d.h. sein Lemma. Lemmas kodieren strukturelle, syntaktische Informationen, die
für die Position und Funktion der Wörter im Satz notwendig sind. Sie enthalten keine
semantischen Informationen - die sind im konzeptuellen Gedächtnis gespeichert -, haben
aber eine direkte Verbindung zu den lexikalen Konzepten.
Wenn nun das lexikale Konzept KAFFEE bereitgestellt und gleichzeitig auch verwandte
lexikale Konzepte aktiv sind (BOHNE, ZUCKER etc.) führt dies aber automatisch zu einer
teilweisen Aktivierung der Lemmas dieser Konzepte, obwohl die Konzepte nicht
versprachlicht werden sollen! Das Ergebnis ist eine Konkurrenz zwischen aktivierten
Lemmas,der entschieden werden muss, da ja nur ein Wort gesprochen werden soll. Für diese
Konkurrenz gibt es mittlerweile eine Fülle von Belegen, die mit dem Bild-WortInterferenzparadigma erzielt wurden. Dabei benennen Versuchspersonen Bilder einfacher
Objekte (z.B. einen Tisch) und hören oder lesen kurz vorher ein Ablenkungswort (z.B. Stuhl).
Wenn wir in diesem Beispiel, Bild und Wort aus derselben Kategorie stammen, dauert die
Bildbenennung etwas länger, als wenn ein nchtverwandtes Wort (Milch) dargeboten wird.
Die Konkurrenz der Lemmas führt manchmal dazu, dass ein Lemma ausgewählt wird,
welches nicht dem intendierten lexikalen Konzept entspricht; das ergibt einen Versprecher:
Die Person sagt "Saft" statt "Kaffee". Meist bemerkt diese Person den Fehler und korrigiert
sich. Wir können solche "Versprecher" aber auch schon vor der Aussprache korrigieren.
Wird beim Verstehen und Sprechen auf die gleichen Informationen im Wortgedächtnis
zugegriffen?
Unser gesamtes Wissen über die Welt, welches in konzeptuellen Netzwerken im
Langzeitgedächtnis gespeichert ist, ist dasselbe, egal ob wir sprechen oder Sprache
verstehen. Ist es auch dasselbe sprachliche Wissen im mentalen Lexikon? Man ist sich einig,
dass Lemmas für Sprechen und Verstehen identisch sind. Das gilt auch für Morpheme. Die
52
Frage ist nur, ob sich die Wortformen für die Sprachproduktion und die
Sprachwahrnehmung unterscheiden.
Erkenntnisse aus Priming-Experimenten lassen zwei Interpretationen zu. Entweder sind die
Wortformen der Wahrnehmung und der Produktion grundsätzlich andere oder sie sind die
gleichen, werden aber bei der Wahrnehmung und dem Sprechen anders beansprucht und
verarbeitet.
Wenn es getrennte Wortformspeicher für Sprechen und Verstehen gibt, ist
erklärungsbedürftig, wie über Wahrnehmung verarbeitete Wortformen die Wortformen des
Sprechens überhaupt beeinflussen können.
In dem anderen Fall der gemeinsamen Wortformen könnte die Erklärung der divergenten
Effekte auf grundsätzlich unterschiedliche Funktionen der Wortformverarbeitung
zurückgehen. Bei der Sprachwahrnehmung muss auf der Ebene der Wortformen entscheiden
werden, welches Wort gehört oder gelesen wird. Das ist umso schwieriger, je mehr sich zwei
Begriffe ähneln (Keller und Kelle). In vielen Modellen wird für diese Entscheidung eine
Konkurrenz zwischen Wortformen angenommen. Diese Konkurrenz besteht beim Sprechen
nicht: Die Entscheidung welches Wort gesprochen werden soll, wird nicht auf Ebene der
Wortformen, sondern auf konzeptuellen sowie der Lemmaebene gefällt.
Aphasien
Der Begriff Sprachstörung (Aphasie) bezieht sich auf Störungen beim Schreiben
(Agraphie), beim Lesen (Alexie), beim Versuch Verstehen oder der Produktion von Sprache.
Störungen, die auf interlektuelle oder sensorische Beeinträchtgungen, Lähmungen oder
Fehlkoordinationen, z.B. des Mundes, zurückzuführen sind, gehören nicht zu Aphasien.
Aphasien entstehen durch Schädigungen der an der Sprachproduktion und
Sprachverständnis beteiligten Gehirnareale.
Die beiden bekanntesten Aphasien sind die Broca-Aphasie und die Wernicke-Aphasie, die
durch eine Läsion des Broca- bzw. Wernicke-Areal verursacht sind. Vereinfacht gesagt ist
das Broca Areal für grammatische Aspekte der Sprache zuständig, das Wernicke Areal für
das Sprachverständnis.
Als Leitungsaphasie bezeichnet man eine Störung des Fasciculus arcuatus, bei der sowohl
das Sprachverständnis als auch die Sprachproduktion intakt sind. Stark beeinträchtigt ist
53
lediglich die Fähigkeit zum Nachsprechen, da hierzu die Weiterleitung der verstandenen
Sequenzen vom Wernicke-Areal über den Fasciculus arcuatus in das für die
Sprachproduktion zuständige Broca-Areal notwendig ist.
Die wichtigsten Aphasien sind in der Tabell aufgeführt:
Denken
Ein häufig verwendeter Einstieg ist, das Denken als "Sprache unseres Geistes" zu verstehen.
Einerseits erleben wir in uns einen Gedankenstrom, den wir gewissermaßen im Geiste
"hören" können und der sprachliche Ähnlichkeit zeigt (vrgl "Mind's Ear"). Dieses Denken
wird als propositionales (bedeutungsbezogenes) Denken bezeichnet. Andererseits erleben
wir einen eher bildhaft ablaufenden Gedankenstrom, der it der Vorstellungen verbunden ist,
die wir im Geiste "sehen" können. es wird als bildhaftes Denken bezeichnet. Daneben lässt
sich eine weitere Gedankenart festmachen, die eher mit Bewegungsabläufen korrespondiert.
Dies wird als motorisches Denken (motoric thought) bezeichnet.
Man geht im Wesentlichen von zwei Arten der mentalen Repräsentation aus:
• eines bedeutungshaften, propositionalen Denken, das oft sprachlich ist (z.B. in
Gedanken dieses Skript wiederholen), oder
• ein bildhaftes oder analoges Denken, dass innere Vorstellungen von Dingen
betrachtet (z.B. sich Überlegen, wie man Fahrrad fährt).
Propositionales Denken
Das bedeungsbezogene Denken ist charakterisiert durch einen hohen Grad der Abstraktion,
die von der (sensorischen) Erfahrung, die ursprünglich zum Aufbau des Wissens geführt hat,
wegführt. Die Abstraktion umfasst die Löschung vieler wahrnehmungsbezogener Details
und das Extrahieren der wichtigsten Beziehungen zwischen den Inhaltselementen, die zum
Beispiel durch Propositionen und ihren Verbindungen repräsentiert sind. Statt mit der
ursprünglichen Wahrnehmung agieren wir im Denken vornehmlich mit Konzepten.
Konzepte sind ökonomisch, da wir nicht jedes Objekt separat einspeichern müssen, und
haben Vorhersagekraft, da ein Konzept eine Reihe von Merkmalen erwarten lässt.
Bildhaftes Denken
Es gibt einige Evidenzen, dass das bildhafte Denken auf einigen Prozessen beruht und auf
gleiche Repräsentationen zurückgreift, wie auch bei der Wahrnehmung eine Rolle spielen
(vrgl Shepard & Feng 1972, Shepard & Metzler 1971 zu mentaler Rotation oder
54
Manipulation von Objekten und Brooks 1968 zu mentaler "Abtastung" von Objekten). Bei
dieser Art von Denken betrachten wir geistige Repräsentationen von Objekten und können
diese metal manipulieren. Jedoch, die Repräsentationen sind auf die wichtigsten
Objektmerkmale reduziert und unwichtige Details fehlen, schon aus ökonomischen
Gründen. Auch können mentale Repräsentationen durch unsere Erfahrungen oder
Erwartungen verzerrt sein (vrgl Moar 1978 zur mentalen Repräsentation der Umrisse von
England)
Schlussfolgerndes Denken
Schlussfolgerndes oder logisches Denken, auch reasoning genannt, bezeichnet die
kognitiven Vorgänge, durch deren Verlauf aus vorhandenem Wissen neue oder weitere
Erkenntnisse gewonnen werden.
Deduktives Denken bezeichnet eine zwingende Form der Ableitung neuer Aussagen aus
vorgegebenen Aussagen. Letztere werden als Voraussetzungen, Prämissen oder Antecedens
(lat. antecedere - vorausgehen) bezeichnet, der daraus abgleitete Schluss als Konklusion.
Beispiel: Syllogismen:
1. Alle Kreter sind Lügner (Prämisse)
2. Epimenides ist ein Kreter (Prämisse)
3. Eoimenides ist ein Lügner (Konklusion)
Induktives Denken bezeichnet in der Logik der Schluss bezeichnet , der von einem oder
wenigen Fällen (dem Besonderen) auf alle Fälle einer Gesamtheit (das Allgemeine) schließt.
Induktives Denken ist zumeist unvollständig, dass heißt, dass wir niemals die Gesamtheit
aller Fälle prüfen können und der Aussage nur eine gewisse Wahrscheinlichkeit zukommt.
Ein Gegenbeispiel reicht, um die Aussage zu widerlegen.
Beispiel: Die Schwänne am See sind alle weiß. Daraus schließe ich, dass alle
Schwänne weiß sind. Ein einziger schwarzer Schwann genügt, um die Aussage zu
widerlegen, egal wie viele weiße Schwänne ich beobachtet habe.
Das Bayes-Theorem liefert einen Weg , um den Grad der Plausibilität zu bestimmen, mit der
bei konditionalen Syllogismen Fehlschlüsse auf das Eintreten der Konklusion auftreten. Der
Mensch ist üblicherweise weit davon entfernt, Wahrscheinlichkeiten auf der Basis solch
komplizierter Regeln zu schätzen und greift eher zu Heuristiken (Daumenregeln), um auf
der Basis weniger Fakten Entscheidungen zu treffen.
Problemlösen
Um einen erwünschten Zustand zu erreichen verwenden Tier üblicherweise reine VersuchIrrtums-Strategien. Menschliches Problemlösen ist zielgerichtet und besteht in der
Reduktion der Diskrepanz zwischen
(1) einem Ausgangszustand (Beginn des Problemlöseprozesses) und
(2) einem Zielzustand, der durch die Lösung erreicht werden soll, und
(3) den Operatoren (Regeln, Hilfen, Schritte), mit deren Hilfe die Diskrepanz
überwunden werden kann.
Zielgerichtete Problemlösen hat drei wesentliche Merkmale
• Es ist zielgerichtet
• Zerlegung in Teilziele
• Anwendung von Operatoren.
Gut definierte Probleme sind einfacher zu lösen, da Ausgangszustand, Zielzustand und
Operatoren klar umrissen sind (z.B. algebraische Problemlösung). Es ist klar, was man
machen muss, welche Regeln und Hilfsmittel erlaubt sind und wie man sie einsetzen darf.
Schlecht definierte Probleme entbehren solcher klarer Definitionen und lassen sich daher
schlecht erfassen (z.B. Bau eines Hauses).
55
Operatoren
Probanden tendieren dazu, Zustandswiederholungen zu vermeiden und zunächst den
Operator zu verwenden, der die größte Unterschiedsreduktion bewirkt (man tendiert also
zunächst zu der Unterschiedsreduktions-Methode)
Funktionale Fixierung
Funktionale Fixierung bezeichnet die Tendenz, wahrgenommene Objekte in ihrer üblichen
Problemlösefunktion kognitiv zu repräsentieren, wodurch das Erfassen auch anderer
möglichen Funktionen erschwert oder gar verhindert wird. Beispiel: Man soll eine Schlucht
überqueren und hat eine Leiter, Steine, Werkzeug und eine unendliche Menge Seil zur
Verfügung. Die Funktionale Fixierung verhindert, dass wir das Seil als Mittel erkennen, die
Schlucht aufzufüllen, da wir es als Kletterhilfe repräsentieren.
Problemlösestrategien
Methode der Unterschiedsreduktion: Wir vergleichen den Ausgangs- mit dem
Endzustand. Die Distanz zwischen dem Ausgangszustand und dem Zielzustand wird in
Teilziele unterteilt. Wir suchen Schritt für Schritt Operatoren aus, die den Unterschied
zwischen dem aktuellen und dem Zielzustand direkt reduziert. Die Gefahr besteht darin, auf
Abwege zu gelangen, wenn das Ziel nicht direkt, sondern nur auf Umwegen zu erreichen ist.
Methode der Mittel-Ziel-Analyse: Wir vergleichen den Augangs- mit dem Endzustand, um
die wichtigsten Unterschiede zu erfassen. Nun überlegen wir uns, welche Teilziele wir
bestimmen können und welche Operatoren am geeignetsten sind, um diese zu erreichen. Das
kann beinhalten ein Teilziel zu erreichen, dass einen Operator freischaltet, statt die
Diskrepanz zwischen Ausgang und Ziel zu verringern. Im Vergleich zur UnterschiedsReduktionsstrategie bedeutet das, dass auch Operatoren (Handlungen) zur Anwendung
kommen können, die nicht geradlinig zu einer Differenzreduktion beitragen, sondern im
Gegenteil zeitweilig die (Entfernungs-) Differenz sogar vergrößern. Dennoch verspricht
dieser Schritt die schnellstmögliche Problemlösung.
Methode der Rückwärtsanalyse: Bei dieser Methode wird versucht, die bestmögliche
Strategie ausfindig zu machen, indem man vom Zielzustand ausgeht und überlegt, welche
Teilziele und Operatoren am besten geeignet scheinen. Dieser Ansatz ist besonders
erfolgreich, wenn der Ansatz von der einen Seite leichter zu erkennen ist, als von der
anderen (wie bei manchen Labyrinth-Aufgaben).
56
Fragen:
Prüfungsfragen des Sommesemesters 2009:
1.) a) Definieren sie das sensorische Gedächtnis und erklären sie die Komponenten die
hierin vorkommen.
b) Beschreiben sie die klassischen Untersuchungen von Sperling (1963) zum sensorischen
Gedächtnis.
2.) a) Erklären sie das klassische Experiment zum Vergessen von Ebbinghaus.
b) Erklären sie die Theorien zum Vergessen und dazugehörige empirische Befunde.
3.) Erklären sie die Theorien von Kategorisierung und welchen Gültigkeitsbereich diese
Theorien nach ihrer Meinung haben.
Sonstige Fragen:
1.Beschreiben Sie das Arbeitsgedächtnismodell nach A.Baddeley
2.Welche Evidenz gibt es für die phonologische Schleife? In welchem Zusammenhang steht
die phonologische Schleife mit den anderen Komponenten von Baddeleys
Arbeitsgedächtnismodell?
3. Was ist der Wortlängeneffekt und wie wird er erklärt?
4. a) Erläutern sie die Ein-Speicher-Theorie und die Zwei-Speicher-Theorie.
b) Stellen sie die Unterschiede zwischen den beiden heraus.
5. a) Was versteht man unter seriellen Positionseffekten? Gehen Sie speziell auf den
Primacy- und den Recency-Effekt ein.
b)Wie werden diese Effekte beeinflusst durch die Variation des zeitlichen Abstandes
zwischen Einprägen und Abruf oder durch artikulatorische Suppression?
6. Welche Unterteilung des Langzeitgedächtnisses ist sinnvoll und Warum?
7. Was ist proaktive, was retroaktive Interferenz und wie könnte man diese empirisch
überprüfen?
57
8. a) Definieren Sie kurz den Begriff der Amnesie
b) Beschreiben sie, inwieweit die Befunde bei dem amnestischen Patienten H.M. zur
Auffassung geführt haben, beim Kurz- und beim Langzeitgedächtnis handele es sich um
verschiedene Systeme.
c) Wie kann man auch an gesunden Probanden zeigen, dass Kurz- und Langzeitgedächtnis
verschiedene Systeme sind?
9. Diskutieren Sie, inwieweit wir Fertigkeiten in ähnlicher Weise über die Zeit vergessen wie
Inhalte des expliziten Gedächtnisses.
10. Erläutern Sie, wie wir Sprachlaute produzieren. Gehen Sie dabei anhand ausgewählter
Beispiele auf die Unterscheidung nach „Art der Artikulation“ , „Ort der Artikulation“ und
„Stimmhaftigkeit“ ein.
11. Welche Theorien zur Kategorisierung gibt es und wie ist deren Gültigkeit einzuschätzen?
12. Welche Herausforderungen bestehen für den Menschen beim Verstehen von
gesprochener Sprache im Vergleich zum Verstehen von Schriftsprache?
13. Beschreiben Sie den Aufbau und die Auswertung eines typisches Priming-Experiments.
14. Beschreiben sie zielgerichtetes Problemlösen.
Keine Prüfungsfragen, aber um das Wissen zu "organisieren":
14. Du hast eine alphabetische Liste von 100 lateinischen Vokabeln mit Übersetzung. Wie
lernst Du sie am effektivsten?
Stichworte: Verarbeitungstiefe, release from proactive inhibition (weil alphabetisch
geordnet) begünstigt vergessen, Retrieval Cues in Form von Geschichten erfinden
(z.B. Gedächtnispalast, siehe Wikipedia), Organisation in Themenbereiche (vrgl
Bower et. al., 1969), phonologische Ähnlichkeit vermeiden (siehe Baddley 1966),
Abruf trainieren (siehe Tulvig 1967)
58
Herunterladen