Allgemeine Psychologie I Lernen, Gedächtnis, Sprache Dr. Wiese Sommersemester 2009 1 Vorwort Ich stelle meine zum Teil sehr ausführliche Mitschrift zur Verfügung, die um die entsprechenden Passagen der Lehrbücher ergänzt wurde. Sie beginnt mit einer kleinen Einführung und den wichtigsten Patienten, die man kennen sollte und folgt dann relativ konform der Vorlesung. Zu beachten ist, dass sich die Inhalte der Vorlesung von Jahr zu Jahr ändern können. Ich habe alles nochmal nachgelesen und vieles mehr oder weniger wörtlich aus den Büchern übernommen. Trotzdem kann ich nicht ausschließen, dass sich Fehler eingeschlichen haben. Wenn Du Kritik, Lob oder Verbesserungsvorschläge äußern möchtest, kannst Du mir eine E-Mail schicken: Janis.Etzel[ät]web.de Janis Etzel (SoSe 2009) Pflichtliteratur: • Baddeley, A.D. (1999). Essentials of Human Memory. Hove: Psychology Press, 1999. Hierin Kapitel 1,2,3,5,6,11. • Becker-Carus, C. (2004). Allgemeine Psychologie. Eine Einführung. Heidelberg: Spektrum Adademischer Verlag, 2004. (Hierin Kapitel 8, 10, 11) • Müsseler, J. & Prinz, W.. (2004). Allgemeine Psychologie. Heidelberg: Spektrum Adademischer Verlag, 2004. (Hierin Kapitel 4a) Vertiefende Literatur (fakultativ) • Baddeley, A.D. (1999). Essentials of Human Memory. Hove: Psychology Press, 1999. Hierin die Kapitel 9 und 10 (vormals Pflichtliteratur). • Baddeley, A. (2000) The episodic buffer: a new component of working memory? Trends in Cognitive Sciences, 4, 417–423. (vormals Pflichtliteratur) • Eichenbaum, H. (2002). The Cognitive Neuroscience of Memory. Oxford: Oxford University Press. • Ward, J. (2006). The Student´s Guide to Cognitive Neuroscience. Hove, New York: Psychology Press, 2006 (insbes. Kap. 9-11). • Tulving, E. (2002). Episodic memory: From mind to brain. Annual Review of Psychology, 53, 125. Es kann sich lohnen, den Artikel von Baddeley (2000) nachzulesen, da es zum Datum der Veröffentlichung seines Buches die Theorie des episodischen Puffers noch nicht gab, und dieser folgerichtig noch nicht beschrieben ist. Er wurde trotzdem in der Vorlesung behandelt. 2 Wie forschen Gedächtnispsychologen? Fragt man Probanden, wie sie Lernen und wie gut ihr Gedächtnis funktioniert, neigen sie dazu ihre Fähigkeit falsch einzuschätzen. Stattdessen untersuchen sie Probanden in Aufgaben, die Gedächtnisleistung erfordern, und bewerten wie gut oder schlecht sie in variierenden Bedingungen sind. Besonderes Interesse gilt systematischen Fehlern die auftreten. Eine andere Möglichkeit ist, Patienten zu untersuchen, die fokale neurologische Läsionen erlitten haben (z.B. Schlaganfall). Diese Patienten haben oft spezifische Ausfälle verschiedener Gedächtnis-Formen. So kann man untersuchen, wie Gedächtnisformen zusammenhängen. Ein solcher Patient ist der Patient H.M.. Eine dritte Möglichkeit sind neurochirurgische Studien an Tieren. Durch gezielte Läsion verschiedener Gehirnareale lassen sich Erkenntnisse über Neuroanatomie und Gedächtnisabläufe und -Leistung gewinnen. Warum nutzen so viele Studien verbales Material? 1) Sprache scheint eine wichtige Rolle für das menschliche Gedächtnis zu spielen. Menschen tendieren dazu, visuelle Stimuli verbal zu beschreiben. Ein visuell-präsentierter Stimulus wird also normalerweise nicht nur bildlich sondern auch verbal erinnert. 2) Verbales Material ist praktischer. Verbales Material ist viel einfacher auszuwählen und zu kontrollieren als visuelle, taktile oder akkustische Stimuli. Außerdem kann verbales Material gesprochen oder geschrieben präsentiert werden und in beiden Formen wieder abgerufen werden. Mit visuellem Material ist man für gewöhnlich auf wiedererkennenden Abruf (recognition) beschränkt. Patient Clive Wearing Patient Clive Wearing war ein talentierter Musiker, der an Herpes Simplex erkrankte. Das Virus überwand die Blut-Hirn-Schranke und verursachte Enzephalitis. Das Virus verursachte massive Schädigungen in seinem Gehirn, unter anderem am Hippocampus, Frontallappen und Temporallappen. Wearing ist so beeinträchtigt, dass er sich Dinge nur einige Minuten merken kann (schwere anterograde Amnesie). Er lebt in einem Zustand permanenter Gegenwart, unfähig Veränderungen zu bemerken oder ausgehend von Vergangenem Zukünftiges zu antizipieren. Sein Gedächtnis für Vergangenes ist weniger schwer betroffen. Er weiß, wer er ist und einen kurzen Überblick über sein Leben geben, jedoch mit wenig akkuraten Details (leichte retrograde Amnesie). Ebenso ist sein visuelles Gedächtnis geschädigt - Er verbrachte vier Jahre in Cambridge, aber er erkennt keine Bilder vom Campus. Sein Allgemeinwissen ist ebenfalls reduziert - zum Beispiel kann er nicht sagen, wer der Autor von "Romeo und Julia" ist. Ein bestimmtes Gebiet ist jedoch nicht geschädigt, nämlich sein musikalisches Talent. Er kann Noten lesen, eine Begleitung spielen und mit großem Talent und großer Hingabe Singen (unbeeintrachtigtes implizites motorisches Gedächtnis). 3 Patient H.M. Der Patient H.M. litt unter schweren epileptischen Anfällen. In einer Operation wurden ihm auf beiden Seiten Teile des Temporallappens, darunter der Hippocampus, entfernt. Nach der Operation litt H.M. an anterograder Amnesie, zeigte aber nur ein geringes Ausmaß an retrograder Amnesie. Die Operation hatte keine Auswirkungen auf die Intelligenz, motorisches Lernen, Priming oder das Kurzzeitgedächtnis (Test wie oben). Aus diesen Beobachtungen lassen sich folgende Schlüsse ziehen: Es gibt zwei verschiedene Arten von Gedächtnis, das KZG und das LZG. Das LZG wiederum lässt sich in Systeme mit deklaritiven (nicht-prozeduralen) und nicht-deklarativen (prozeduralen) Eigenschaften unterteilen. Der Hippocampus (und das umliegende Gewebe) ist nicht notwendig für kurzzeitige Speicherung, Priming oder motorisches Lernen, aber für die Konsolidierung episodischer und semantischen Gedächtnisinhalte. Er ist nicht endgültiger Speicherort der Erinnerungen und ist für den Abruf von Erinnerungen nicht notwendig. Patientin PV Nach einem Schlaganfall hatte die italienische Patientin PV starke Beeinträchtigungen im auditorischen Kurzzeitgedächtnis davongetragen. Semantisches und visuelles Gedächtnis waren unbeeinträchtigt, weshalb sie (vermutlich) normale Leistung in den meisten KZGAufgaben zeigte. An ihr wurden verschiedene Experimente zu geschriebener und gesprochener Sprache durchgeführt. Sie zeigte wenig Beeinträchtigung beim Lesen, woraus man schloss, dass die phonologische Schleife nicht unbedingt zum Lesen benötigt wird, diese aber eine Art Kontrollmechanismus (Fehler, Reihenfolge von Informationen) darstellt. Dann beschloss man, ihr russische Vokabeln beizubringen. Zwei Arten wurden ausprobiert: 1) Sie lernte zwei italienische Worte zu assoziieren (e.g. cavallo-libro, Pferd-Buch). Sie zeigte normale Leistung. 2) Dann sollte sie ein russisches Wort mit dem italienischen Äquivalent assoziieren. Sie zeigte Beeinträchtigungen und lernte in der Tat kein einziges russisches Wort. Daraus schloss man, dass die phonologische Schleife massgeblich beim Spracherwerb beteiligt ist. 4 Digit Span Personen werden Item-Sequenzen präsentiert und gebeten, sie in der genauen Reihenfolge zu wiederholen. Die Länge der Sequenzen wird stetig erhöht, bis der Punkt erreicht ist, an dem die Person immer scheitert. Die Halbe Sequenzlänge davon ist die Länge, die als Digit Span definiert ist. Selektive Interferenz Es gibt die Hypothese, dass sich Personen Zahlenlisten wie z.B. Telefonnummern durch interne Wiederholung (rehearsal) merken. Wenn die Personen daran gehindert werden, sollte die Gedächtnisleistung dramatisch sinken. Artikulatorische Suppression Eine Methode, Personen an der internen Wiederholung zu hindern, ist die "selektive Interferenz". Die Idee ist, dass das mehrmalige laute Aussprechen eines irrelevanten Wortes ("the") das interne Wiederholen verhindern und die Leistung dramatisch senken sollte. Zwar senkt die artikulatorische Suppression die Leistung, aber auch systematische Fehler, wie z.B. die Vertauschung ähnlich klingender Buchstaben (wie bei Conrad & Hull 1964) oder der Wortlängeneffekt (siehe Baddeley et al 1975) verschwinden. Neurophysiologie des Gedächtnisses Sensorische Informationen werden auf neuronaler Ebene repräsentiert. Man geht davon aus, dass eine Kette von elektrophysiologischen und neurochemischen Veränderungen im Gehirn an Lernprozessen beteiligt sind. Neuronen-Schleifen Die Schleifenbildung ist die Basis für das KZG. Neurone sind in Schleifen verschaltet. Die Aktivität der Schleifen-Neurone kann selbst dann weiterbestehen, wenn der sensorische Reiz nicht mehr besteht. Langzeitpotenzierung Unter Langzeitpotenzierung (LTP) versteht man eine langandauernde Verstärkung der synaptischen Übertragung. LTP benötigt Aktivität an beiden Rezeptoren auf beiden Seiten der Synapse. Wenn zwei Neurone oft miteinander feuern, dann kann dies zwei Auswirkungen haben: 1) Schon ein schwacher prä-synaptischer Stimulus bewirkt das Feuern des postsynaptischen Neurons und 2) die Art der "Verknüpfung" der beteiligten Neurone ändert sich. Besonders viele Zellen, die mit LTP assoziiert werden sind im Hippocampus lokalisiert, sodass angenommen wird, dass dieser eine entscheidende Rolle bei der Konsolidierung Frei nach der Hebb-Regel: "what fires together, wires together". Hebb Regel: „Wenn ein Axon der Zelle A […] Zelle B erregt und wiederholt und dauerhaft zur Erzeugung von Aktionspotenzialen in Zelle B beiträgt, so resultiert dies in Wachstumsprozessen oder metabolischen Veränderungen in einer oder in beiden Zellen, die bewirken, dass die Effizienz von Zelle A in Bezug auf die Erzeugung eines Aktionspotenzials in B größer wird.“ 5 Hippocampus Der Hippocampus ist nicht Speicherort von Erinnerungen aber eminent wichtig für die Gedächtniskonsolidierung, also die Verfestigung von Gedächtnisspuren nach initialem Erwerb. Es wurde nachgewiesen, dass sich im erwachsenen Gehirn im Hippocampus neue Verbindungen zwischen bestehenden Nervenzellen bilden (synaptische Plastizität) und dass diese Neubildung mit dem Erwerb neuer Gedächtnisinhalte zusammenhängt. Hier befinden sich spezielle Glutamat-Rezeptoren (NMDA), die an der Langzeit-Potenzierung beteiligt sind. Menschen, bei denen beide Hippocampi entfernt oder zerstört wurden, können keine neuen Erinnerungen formen und weisen somit eine anterograde Amnesie auf. Alte Erinnerungen bleiben jedoch meist erhalten. Kurz- und Langzeit-Habituation: Unter Habituation versteht man eine einfach nicht-assoziative Form des Lernens. Habituation ist die Abnahme der Reaktionsbereitschaft bei wiederholter folgenloser Darbietung des selben Stimulus. Die Habituation ist stimulus-spezifisch (single-eventlearning). Das Gegenteil ist die Sensitivierung, die erhöhte Reaktionsbereitschaft gegenüber einem (oft aversiven) Stimulus. Nicht die Reaktion wird habituiert, sondern die Reaktion als Folge des Stimulus (d.h. die Fähigkeit des Stimulus die Reaktion auszulösen sinkt, und nicht die Reaktionsfähigkeit sinkt). Der Lernprozess verläuft asymptotisch. Bei der Habituation gibt es keine Veränderung der Aktionspotentiale sensorischer Neurone. Bei kurfristiger Habituation findet die Veränderung in einer Reduktion der Transmitterbläschen in der präsynaptischen Endung statt und die Bläschen können schlechter mit der Membran verschmelzen. Langzeithabituation bei Aplysia: Bei Aplysia verlieren dabei 70% der sensorischen Neurone ihre synaptische Verbindung zu den motorischen Kiemenreflexneuronen. Die verbleibenden Neurone weisen ca. 35% weniger Synapsen mit den motorischen Neuronen auf. Die synaptische Verbindung zwischen diesen Neuronen ist so geschwächt, dass sie selbst bei 6 starker Reizung kaum oder gar nicht mehr gar nicht mehr aktiviert werden konnten. Subitizing Subitizing (Simultanerfassung): Fähigkeit, die Anzahl von visuellen Stimuli schnell und genau wiederzugeben, ohne zu zählen (z.B Augenzahl auf einem Würfel). Bei einem normalen Erwachsenen liegt die Grenze bei etwa 4-5 Items. Überschreite die Anzahl der gezeigten Stimuli diese Grenze, muss gezählt werden. Werden die Stimuli nur kurz präsentiert, kann der Proband die Stimuli kurz im ikonischen Gedächtnis behalten und dort zählen. Conrad & Hull (1964) In diesem Experiment sollten sich Probanden eine Reihe von Konsonanten einprägen (z.B. l, r, p, f, q, h). Anschließend wurden sie gebeten, diese Reihe laut zu wiederholen. Die meisten Buchstaben konnten korrekt wiedergegeben werden, es traten jedoch systematische Fehler auf. Die Probanden tendierten dazu, Buchstaben durch ähnlich klingende zu ersetzen (b für p oder s für f etc.). Daraus lässt sich schließen, dass die Buchstaben eher verbal oder akkustisch als visuell kodiert wurden. Wie viele Arten von Gedächtnis? Viele Wissenschaftler gehen heute von drei Arten von Gedächntis aus: Sensorisches Gedächtnis, Kurzzeitgedächtnis, Langzeitgedächtnis. Beruhen KZG und LZG auf unterschiedlichen Systemen? 1. Bei amnestischen Patienten kann das KZG völlig intakt sein: 1. intakte Zahlenmerkspanne (e.g. Baddeley & Warrington 1970). 2. intakter End-Effekt (Recency-Effekt) beim Lernen von Listen. 3. Normale Effekte in der Brown-Peterson Aufgabe 2. Umgekehrt gibt es Patienten, die ein gestörtes verbales KZG bei gleichzeitig intaktem LZG haben -> doppelte Dissoziation. (e.g., Shallice & Warrington, 1970). 3. Kodierung im KZG scheint eher nach phonologischen, im LZG eher nach semantischen Merkmalen zu erfolgen (Conrad, 1964; Baddeley, 1966) Model von Atkinson and Shiffrin (1968) Das Modell geht davon aus, dass sensorische Informationen der Umwelt parallel in verschiedenen sensorischen Gedächtnisspreichern (ikonisch, echoisch, haptisch) sehr kurz gespeichert wird. Das Kurzzeitgedächtnis oder Arbeitsgedächtnis empfängt Informationen vom Sensorischen Gedächtnis, verarbeitet diese und bezieht sie zu Inhalten des Langzeitgedächtnisses. Ohne aufrechterhaltendes oder elaboriertes Wiederholen verblassen die Informationen sehr schnell. Prozesse des KZGs sind u.a. interne Wiederholung, Organisation, Kodierung und Abrufung von Informationen. Sind Informationen konsolidiert worden, werden sie im LZG gespeichert. Im Langzeitgedächtnis ist ein langandauernder, fast unbegrenzter Speicher für Informationen. Aus ihm können Informationen ins KZG gelangen und verarbeitet werden. Das Modell wurde kritisiert, weil es wenig Aussagen machte, welche Informationen aus dem Sensorischen Gedächntis weiterverarbeitet werden und wann eine Information vom KZG ins LZG überführt wird. Es berücksichtigt keine neurologischen Grundlagen und einige Patienten, darunter autistische Inselbegabten widersprachen ihm sogar, da sie komplexe Informationen auch ohne rehearsal wiedergeben konnten. Außerdem impliziert das Modell, dass alleiniges Rehearsal genügt, um Informationen ins LZG zu überführen, entscheidende ist jedoch die Verarbeitungstiefe der Informationen. 7 Eigenschaften des Sensorisches Gedächtnis (auch Ultrakurzzeitgedächtnis) - Rasches verblassen der Informationen (ikonisches G. ca. 0,1-0,5s, echoisches G. ca. 20s) - sehr große Kapazität - sehr wahrscheinlich keine semantischen oder bedeutungshaltigen Repräsentationen - Inhalte sind normalerweise erst bewusst zugänglich, wenn sie ins KZG übertragen und dort verarbeitet werden. Segner 1749: Visuelle Persistenz Segner beschrieb 1740 eine Methode, um die Dauer der ikonischen Gedächtnisspur zu messen. Dabei wurde ein glühendes Kohlestück auf ein rotierendes Rad aufgebracht. Segner zeigte, dass ab einer bestimmten Rotationsgeschwindigkeit ein Betrachter gerade einen ganzen Kreis wahrnahm (während bei langsamerer Rotation nur ein Teilkreis gesehen wurde). Die Zeitdauer für eine Rotation diente Segner somit als Schätzung für die Dauer der ikonischen Gedächtnisspur, ~ 0.1 s. Dieses Phänomen heißt visuelle Persistenz. Sperling (1960) In diesem Experiment zum ikonischen Gedächtnis, zeigte Sperling den Probanden einen weißen Bildschirm, dann 3 Reihen mit 4 Buchstaben für 50 millisekunden und wieder einem weißen Bildschirm. Wenn die Probanden gefragt wurden, an wie viele Buchstaben sie sich erinnern konnten, konnten sie typischerweise nur 4 oder 5 der 12 Buchstaben nennen. In einem anderen Versuch zeigte Sperling die Buchstaben wie gewohnt und zeigte den Probanden anschließend durch Töne an, welche Reihe sie nun aufsagen sollten. Unter diesen Umständen konnten Probanden typischerweise 3 von 4 Buchstaben erinnern. Da die Probanden vorher nicht wussten, welche Reihe Sperling abfragen würde, konnte Sperling zeigen, dass zumindest 3/4 der Buchstaben wahrgenommen wurden, aber während des Abrufens schon wieder vergessen wurden. Sperling (1963) In diesem Experiment variierte Sperling die Dauer zwischen der Präsentation der Buchstaben und dem Hinweisreiz. Er vermutete, dass mit zerfallender Gedächtnisspur auch die Leistung absinken sollte. Wenn der Hinweisreiz erst 0,5s nach der Präsentation der Buchstaben kam, war die Leistung nicht besser als wenn er die Probanden nach allen Buchstaben fragte. In einer späteren Studie verwendete er vor und nach der Präsentation einen schwarzen 8 Bildschirm. Wenn vor und nach der Darbietung ein schwarzer Bildschirm schwarz war, zerfiel der sensorische Gedächtnisinhalt langsamer, als wenn der Bildschirm weiß war und die Probanden zeigten bessere Leistungen. Sperling vermutete, dass je größer der Kontraststimulus ist, desto besser bleiben die Gedächtnisspuren erhalten. Das Paradigma, dass geringe Kontraste die Gedächtnisspuren schneller zerfallen lassen, nennt man "Visuelles Maskieren". Crowder and Morton (1969) In diesem Experiment zum echoischen Gedächtnis wurden den Probanden Reihen mit 9 Nummern vorgelesen (auditorische Information) oder präsentiert (visuelle Präsentation). Zunächst zeigte sich, dass die Position der Nummer einen Einfluss darauf hatte, wie wahrscheinlich sie später erinnert wurde. Besonderst gut wurden die ersten und die letzten Nummern erinnert (serielle Positionseffekte). Die Wahrscheinlichkeit, die letzte Zahl korrekt zu erinnern war bei auditorischer Präsentation bedeutend größer. Daraus ließ sich schließen, dass die letzte Ziffer noch im echoischen Ultrakurzzeitgedächtnis war. Die letzten Items ließen sich also besser erinnern, weil das echoische Gedächtnis beständiger ist, als das ikonische Gedächtnis. Dieser Effekt ließ sich umgehen, wenn nach der akkustischen Präsentation ein weiteres, irrelevantes Item präsentiert wurde, z.B. die Silbe "bah". Das echoische Gedächtnis enthielt dann das irrelevante Item statt der letzten Zahl. Die Präsentation eines Tons jedoch hatte keinen Effekt. Anmerkung: Die hier gezeigten seriellen Positionseffekte (Recency- und PrimacyEffect) stehen an dieser Stelle nicht im Vordergrund. Wichtig ist, dass das auditorische Material besser erinnert wird als das visuelle Material, was dafür spricht, dass das echoische Gedächtnis eine längere Gedächtnisspanne hat, als das ikonische Gedächtnis. 9 Eigenschaften des Kurzzeitgedächtnisses (KZG) Insbesondere Studien an Patienten mit Läsionen im Gehirn (z.B. Patient HM) legen nahe, dass KZG und LZG zwei verschiedene Systeme sind, wenn sie auch eng zusammenarbeiten. Das KZG ist ein System für die (temporäre) Speicherung und Manipulation einer begrenzten Zahl von Informationen. Zahl der Items oder Ideen, die simultan repräsentiert sein können ist begrenzt (~ 7 ± 2), aber die Kapazität kann durch Mnemotechniken (z.B. chunking) erweitert werden. Das Kurzzeitgedächtnis fungiert aber auch als Arbeitsgedächtnis, in welchem die aus dem sensorischen Speicher sowie aus dem LZG kommenden Informationen (beide unbewusst) kognitiv gegenwärtig und bewusst bearbeitet werden kann. Digit Span Die längste Sequenz von Items, die sofort in der richtigen Reihenfolge wiedergegeben werden kann. Die Anzahl der Items ist konstant, der Informationsgehalt der Digit Span kann jedoch durch Chunking erhöht werden, Rehearsal Gedächtnisinhalte im KZG gehen anscheinend verloren, wenn sie nicht durch erhaltende Wiederholung (maintenance rehearsal) vor dem Zerfall oder dem Displacement geschützt werden. Durch langes wiederholen können Gedächtnisinhalte leichter konsolidiert werden. Brown (1958) und Peterson and Peterson (1959) Stellten fest, dass selbst wenige Items schnell vergessen wurden, wenn die Probanden daran gehindert wurden, die Items intern zu wiederholen (rehearsal). Versuch: Buchstaben wurden kurz präsentiert, dann mussten die Probanden Rechenaufgaben lösen, die an der internen Wiederholung hinderten (Interferenz). 10 Chunking Rhythmische, semantische oder lautmalerische Verknüpfung von Informationen. Da die Anzahl der repräsentierten Einheiten im KZG begrenzt ist, können durch Chunking wesentlich mehr Informationen im KZG gespeichert werden, als wenn diese Informationen einzeln gemerkt werden. Interferenz Proaktive Interferenz: Verwechseln und Verschlechterung der Leistung von Durchgang zu Durchgang bei gleichbleibender Kategorie, da vorherige items mit nachfolgenden interferieren. Release from proactive interference: Bei Kategorienwechsel können die neuen Items besser erinnert werden, da die nachfolgenden Items nicht mit den vorherigen verwechselt werden (interferieren). 11 Retroactive Interference: Nach hinten gerichtete Verwechslung; spätere Item können besser erinnert werden als vorhergehende. Serielle Positionseffekte bei seriellem Abruf (Siehe Experiment von Postman und Phillips, 1965) Serieller Abruf: Wiedergabe aller Items in richtiger Reihenfolge (Gegenteil: freier Abruf ohne Reihenfolge). Bei freiem Abruf werden die ersten und die letzten Items besonders gut erinnert. Die Leistung wird von mehreren Faktoren beeinflusst: • Vertraute Wörter werden generell besser erinnert als selten verwendete Wörter. • Langsame Präsentation der Wörter verbessert die Leistung allgemein • Wörter, die konkrete Objekte bezeichnen, werden besser erinnert als Wörter, die abstrakte Konzepte bezeichnen. Dies gilt nur für die ersten paar Items, nicht für den Recency-Effect. Primacy Effect: Effekt, dass bei seriellem Abruf die ersten Items besonders gut erinnert werden können, da diese durch rehearsal am Ende des Durchgangs im LZG gespeichert wurden. Recency Effect: Effekt, dass bei seriellem Abruf, die letzten Items besonders gut erinnert werden können, da diese durch rehearsal noch im KZG gespeichert sind. Wurden die Probanden vom rehearsal durch Interferenz abgehalten, blieb der Primacy Effect erhalten (Items waren bereits im LZG), aber der Recency Effect verschwand (durch Interferenz). Selbst eine Verzögerung von 30s war genug, um den Recency-Effect zu verhindern. 12 Baddley 1966 In diesem Experiment zeigte Baddley den Probanden mehrere Reihen von 5 Wörtern und bat sie, diese in der richtigen Reihenfolge aufzuschreiben. Es gab 4 Gruppen von Wörtern: • Phonologisch ähnlich (man, map, can, mad, cat…) • Phonologisch distinkt (pen, cow, pit, few, hot…) • Semantisch ähnlich (big, huge, wide, large, great,…) • Semantisch distinkt (old, late, strong, safe, thin…) Dieses Experiment zeigte, dass das Kurzzeitgedächtnis eher phonologisch als semantisch organisiert ist. Während phonologische Ähnlichkeiten die Leistung dramatisch verschlechterte, hatte semantische Ähnlichkeiten einen nur geringen Einfluss auf die Leistung. Um die Organisation des LZG zu untersuchen wurde ein ähnliches Experiment durchgeführt. In diesem umfassten die Reihen jeweils 10 statt 5 Wörtern und die Probanden wurden von interner Wiederholung abgehalten. Unter diesen Konditionen verschwand der phonologische Ähnlichkeitseffekt, jedoch wurden Wörter mit ähnlicher Bedeutung schlechter erinnert. Das bedeutet, dass das LZG eher semantisch organisiert ist. 13 Levels of Processing - Verarbeitungstiefe • Atkinson & Shiffrin (1968) nahmen an, dass die Wahrscheinlichkeit, mit der ein Item vom KZG ins LZG übertragen wird, von der Verweildauer im KZG abhängt. • Problem: Patienten mit extrem gestörtem KZG können annähernd normal lernen (Shallice & Warrington, 1970). • Maintenance Rehearsal hilft dabei, Items im Kurzzeitgedächtnis zu behalten, aber es steigert nicht unbedingt das Langzeitlernen. • Craik & Lockheart (1972): Die Übertragung eines Items vom KZG ind LZG hängt von der Verarbeitungstiefe ab; sie ist beispielsweise grösser, wenn ein Wort semantisch, hinsichtlich seiner Bedeutung verarbeitet wird („deep encoding“), im Vergleich zu einer rein phonologischen oder orthographischen Verarbeitung („shallow encoding“). 14 • Die Verarbeitungstiefe kann durch die Aufgabeninstruktion beim Lernen manipuliert werden Bsp: Bezeichnet das Wort ein belebtes oder unbelebtes Objekt? (semantische Aufgabe, deep encoding). Beinhaltet das Wort den Buchstaben „b“? (orthographische Aufgabe, shallow encoding) 15 Arbeitsgedächtnis Badley & Hitch, 1974 Kurzzeitgedächtnis hat eine limitierte Speicherkapazität. Die Hypothese war, dass wenn das KZG als Arbeitsgedächtnis funktioniert, sollten Probanden, deren Kapazität durch das Wiederholen von Buchstaben-Reihen aufgebraucht ist, große Schwierigkeiten haben, andere Aufgaben, die Informationsverarbeitung (nachdenken, verstehen etc.) beinhalten, simultan auszuführen. Um das zu prüfen wurden den Probanden eine Reihe von Sätzen präsentiert, die die Anordnung zweier Buchstaben A und B beschrieben. Auf jeden Satz folgte das Paar AB oder BA. Die Aufgabe der Probanden war, zu entscheiden, ob der Satz das Paar korrekt beschrieb. Die Sätze konnten aktiv-Sätze, passiv-Sätze, verneinende aktiv-Sätze oder verneinende passiv Sätze sein. Bereits in anderen Experimenten konnte gezeigt werden, dass aktiv-Sätze schneller verarbeitet werden konnten als passive oder verneinende Sätze. Während sie die Aufgaben bearbeiteten, sollten sie eine 6-stellige Ziffernfolge laut aufsagen. Baddley fand, dass die Probanden erstaunlich wenig Fehler machten, sowohl beim Wiederholen als auch beim Lösen der Aufgaben, und die Verabeitungsgeschwindigkeit nur wenig reduziert war. Daraus wurde geschlussfolgert, dass es im Arbeitsgedächtnis mehrere Teilsysteme gibt, die sich nur teilweise überlappen. Die Slave Systems entlasten das Central System, indem sie kurzzeitig Informationen speichern können. Arbeitsgedächtnis-Modell von Baddeley Das Modell von Baddeley nimmt ein zentrales Exekutiv-System (Central Executive) an, ein System, dass das gesamte Arbeitsgedächtnis kontrolliert. Der zentralen Exekutive stehen eine Reihe von Sklavensystemen (Slave Systems) zur Seite, die zum Teil die Speicherfunktion für Informationen übernehmen können, sodass Kapazitäten für gerade dringliche informationsverarbeitende Prozesse frei werden. • Eines dieser Sklavensysteme ist die artikulatorische oder phonologische Schleife 16 (phonocological loop). Für die Existenz einer solchen Schleife sprechen vier Hinweise: • Phonologischer Ähnlichkeitseffekt: Die Tendenz, dass Fehler der Probanden phonologisch ähnlich zum korrekten Item sind (F -> S, B -> G etc), und die Tatsache, dass phonologisch ähnliche Items schwieriger zu erinnern sind als phonologisch unterschiedliche Items (Baddeley, 1966). • Irrelevanter Spracheffekt: Präsentation von irrelevanter, zu ignorierender gesprochener Sprache beeinträchtigt das KZG für visuell präsentierte Ziffern. Der Effekt ist unabhängig davon ob die irrelevante Sprache englisch, deutsch oder arabisch ist; irrelevante nichtsprachliche Stimuli erzeugen ihn aber nicht (Salamé & Baddeley, 1982, 1989; vgl. allerdings die Arbeiten von Jones, 1994, 1995). Annahme daher: nur sprachliches Material kann in den phonologischen Speicher gelangen. • Der Effekt der Wortlänge auf die Gedächtnisspanne: Lange Worte ->kürzere Gedächtnisspanne; kurze Worte -> längere Gedächtnisspanne (Baddeley et al., 1975). Dieser Effekt liegt vermutlich am rehearsal (innerer Wiederholung), das für längere Worte länger dauert, so dass die Gedächtnisspur vorher präsentierter Wörter leichter zerfällt. Tatsächlich verschwindet der Wortlängeneffekt, wenn rehearsal durch sog. artikulatorische Supression mittels repetitiver lauter Sprache („das, das, das…“) verhindert wird. • Artikulatorische Suppression eliminiert den phonologischen Ähnlichkeitseffekt bei visueller Präsentation (Interpretation: visuelles Material kann nicht in den phonologischen Speicher transferiert werden), und es eliminiert auch den irrelevanten Spracheffekt (Interpretation: wenn Material nicht in den phonologischen Speicher gelangt, wird es auch nicht von irrelevantem Sprachmaterial gestört). (Kritik jedoch: Phonologischer Ähnlichkeitseffekt und irrelevanter Spracheffekt scheinen auf unterschiedlichen Mechanismen zu beruhen; Martin-Loeches, Schweinberger & Sommer, 1997) Anmerkung: etwas weiter unten findet sich ein aktuelleres Modell von badeley (2000), dass einen episodischen Puffer als drittes Slave System mit einschließt. Mind's Ear Das Mind's ear ist eine Art innere Sprache beim Lesen von Texten, die aber nicht das gleiche wie die phonologische Schleife ist. Es ist möglich das Mind's Ear zu unterdrücken und den 17 Text trotzdem zu verstehen. Wir lesen i.d.R. nicht, indem wir den Klang eines Wortes produzieren und ihn dann verstehen (was auch möglich ist, siehe Auditory Imagery). Jedoch, wenn wir subvocalization unterdrücken, fällt es uns schwerer Fehler zu entdecken, etwa wenn zwei Worte vertauscht sind. Die phonologische Schleife scheint daher eher ein Kontrollmechanismus beim Lesen zu sein, der gut die Abfolge der Informationen speichert. Auditory Imagery Wir haben die Möglichkeit, akkustische Repräsentationen von Tönen und Melodien vorzustellen, die wir selbst nie produzieren könnten. Es ist deshalb unwahrscheinlich, dass dieses Vorstellungsvermögen auf der phonologischen Schleife beruhen. Phonologische Schleife Rolle der phonologischen Schleife beim Spracherwerb • Kapazität der phonologischen Schleife kann die Effizienz des Fremdsprachenerwerbs vorhersagen und Baddeley hält die phonologische Schleife für eine entscheidende Komponente beim Neuspracherwerb (siehe Patienten PV und Baddley, Papagno & Vallar 1988) • Kinder mit verzögertem Spracherwerb haben oft eine stark reduzierte verbale Gedächtnisspanne und sind besonders beeinträchtigt bei der Wiederholung von Pseudowörtern („nonword repetition deficit“) Baddley, Papagno, Vallar 1988 In ihrem Versuch wollten Baddley et. al. die Beeinträchtigung der Patientin PV neue fremdsprachige Vokabeln zu lernen (da ihr auditorisches KZG gestört war) an gesunden Probanden nachstellen. Die Hypothese war, dass die phonologische Schleife unbedingt notwendig ist, um neue, fremdsprachige Vokabeln zu lernen und diese mit den entsprechenden Wörtern in der Muttersprache zu assoziieren. Sie baten also die Patienten die Artikulation zu unterdrücken. Während die Probanden bekannte Wörter in der Muttersprache gut assoziieren konnten, gelang ihnen das nicht sehr gut, wenn sie fremdsprachige Worte mit den entsprechenden Worten in der Muttersprache assoziieren sollten. Daraus schloss man, dass auditorisches Kurzzeitgedächtnis für phonologisches Langzeitlernen notwendig ist. Zentrale Exekutive Die Zentrale Exekutive ist ein Aufmerksamkeitssystem mit begrenzter Kapazität, dass die phonologische Schleife und den visuell-räumlichen Notizblock kontrolliert und eine Verbindung zum Langzeitgedächtnis herstellt. • U.U. identisch zu dem, was andere Wissenschaftler als supervisory attentional system (SAS) bezeichneten • Arbeitsgedächtnisspanne (working memory span; Daneman & Carpenter, 1980): Aufgabe: Lesen einer bestimmten Anzahl einfacher Sätze; Nach dem letzten Satz soll das letzte Wort jedes Satzes reproduziert werden • Leistung korreliert mit Leseverständnis (Oakhill et al., 1988) • Arbeitsgedächtnisspanne korreliert hoch mit schlussfolgerndem Denken (Kyllonen & Christal, 1990), evtl. Intelligenz Räumlich-Visueller-Notizblock Eine Kontroverse herrscht, ob das Bild direkt im Gedächtnis gespeichert wird oder ob es von abstrakteren Repräsentationen zusammengebaut wird. Befürworter der ersten Ansicht suchten Ähnlichkeiten zwischen dem Prozess des Lesens und dem Prozess des Wahrnehmens. Shepard (Shepard & Feng 1972, Shepard & Metzler 1971) suchten diese Ansicht zu belegen. Shepard & Feng, 1972 18 Den Probanden wurden Bildern von Faltvorlagen gezeigt. Sie sollten die Faltvorlagen gedanklich falten und entscheiden, ob die Pfeile sich treffen. Shepard und Feng fanden, dass die Zeit, die die Probanden brauchten systematisch mit der Anzahl der Arbeitsschritte, die gebraucht werden würden, wenn die Vorlage tatsächlich gefaltet werden würde, zusammenhing. Es war, als würden sie die Vorlage tatsächlich im Kopf falten. Shepard & Metzler 1971 In einem anderen Experiment sollten die Probanden Bilder von Figuren gedanklich rotieren und entscheiden, ob es sich um gleiche oder verschiedene Figuren handeln. Shepard's Probanden zeigten einen klaren Zusammenhang zwischen der Entscheidungszeit und wie sehr sich die Figuren im Winkel unterschieden. Es schien, als würden sie sich tatsächlich vorstellen, wie die Figuren rotieren. Die Experimente zeigten, dass sich visuelle Vorstellung wie visuelle Wahrnehmung, zu einem gewissen Grad. Jedoch, visuelle Vorstellung ist mehr als Bilder im Kopf zu haben (Detailtreue, Ressourcenaufwand etc.). Was hat visuelle Vorstellung nun mit Arbeitsgedächtnis zu tun? Baddley ist der Ansicht, dass räumliche Information im Langzeitspeicher abstrakt codiert vorliegt, aber um sich die Informationen anzeigen zu lassen und sie zu manipulieren mit Hilfe eines räumlichvisuellen-Sklaven-Systems abläuft. Dieses System nutzt viele Mechanismen, die auch bei der Wahrnehmung angewendet werden und ist abhängig von der zentralen Exekutive. Brooks (1968) Probanden wurde ein Großbuchstabe, wie z.B. ein F, gezeigt und wurden gebeten, diesen im Gedächtnis zu behalten. Nun sollten sie, angefangen von der linken unteren Ecke, sagen, ob die Ecke von der unteren oder oberen Linie gebildet wird. Probanden konnten antworten, indem sie entweder antworteten oder indem sie auf ein gedrucktes "Ja" oder "Nein" deuteten. Die Probanden fanden es sehr viel schwerer, zu antworten indem sie auf die Wörter deuten als wenn sie antworteten, als ob der Fingerzeig mit dem räumlichen Vorstellungsprozess interferieren würde. In einem anderen Experiment sollten sie den Satz „Ein Spatz in der Hand ist besser als die Taube auf dem Dach“ erinnern während sie entscheiden sollten, ob jedes Wort im Satz ein Nomen ist oder kein Nomen. Bei dieser Aufgabe waren die Probanden viel besser, wenn sie auf die Antwort zeigen konnten als wenn sie die Antwort aussprachen. Zeigen mit dem Finger wurde als räumlich-visuelle Aufgabe gewertet, weshalb sie mit der visuell-räumlicher Vorstellung interferierte,aber nicht mit sprachlicher Verarbeitung. Sprachliche Antwort interferiert mit sprachlichen Aufgaben, aber nicht mit visuellräumlicher Vorstellung . Episodischer Puffer Mit der Zeit entdeckte Baddeley Effekte, die sich mit dem Drei-Komponenten-Modell nicht mehr erklären lassen. Normalerweise kann man sich ca. 5 Wörter merken, wenn die Wörter aber einen Zusammenhang haben (z. B. einen Satz bilden, s. Chunking), kann man sich ca. 16 Wörter merken. Der ursprüngliche Gedanke, dass daran das Langzeitgedächtnis beteiligt ist, musste verworfen werden, da sich Menschen mit geschädigten Kurzzeitgedächtnis und funktionierendem Langzeitgedächtnis nur ca. 5 Wörter merken können. Das Langzeitgedächtnis ist also offensichtlich nicht beteiligt. Zur Erklärung hat Baddeley im Jahr 2000 den episodischen Puffer zu seinem Modell hinzugefügt. Es handelt sich dabei um ein multimodales Speichersystem mit begrenzter Kapazität, es kann sowohl visuelle als auch phonologische Informationen in Form von „Episoden“ speichern. 19 Das Displacement-Modell Die Beobachtung, dass die gespeicherten Elemente nur kurzzeitig erhalten bleiben und beim Aufnehmen neuer Information vornehmlich die älteren verloren gehen, hat zur Modellvorstellung eines Schieberegisters (displacement register) mit begrenzter Kapazität geführt. Dieses Register bietet Platz für etwa 7 Registerkärtchen. Jedes neu einkommende Item, zum Beispiel ein Tiername, benötigt einen Platz für sich. Dabei werden die bereits vorhandenen Kärtchen immer weiter über zum offenen Ende des Registers geschoben, in dem allerdings nur etwa 7 Kärtchen Platz finden. Solange also die Anzahl der Items die Anzahl der Registerfächer nicht überschreitet, können wir alle Items erinnern. Sobald aber alle vorhandenen Fächer gefüllt sind, der Gedächtnisspeicher also "voll" ist, kann ein neu eintretendes Kärtchen nur gespeichert werden, wenn ein bereits gefülltes Fach geleert wird bzw. aus dem Speicher geschoben wird. Es gibt die Tendenz, dass die ältesten Items zugunsten der neuen aus dem Speicher geschoben werden, wenn der Speicher voll ist. 20 Langzeitgedächtnis (LZG) Als Langzeitgedächtnis wird das System bezeichnet, der Informationen (auch ohne rehearsal) länger als einige Sekunden speichert. Man unterscheidet jedoch verschieden Arten von LZG: • Implizites Gedächtnis: Das prozedurale Gedächtnis, auch implizites Gedächtnis oder nichtdeklaratives Gedächtnis speichert Fertigkeiten, Erwartungen, Verhaltensweisen und die Ergebnisse von Konditionierungsvorgängen und Priming. Gemeinsam ist den Inhalten des prozeduralen Gedächtnisses, dass sie ohne Einschaltung des Bewusstseins das Verhalten beeinflussen können. • Explizites Gedächtnis: Das deklarative Gedächtnis, auch Wissensgedächtnis oder explizites Gedächtnis, speichert Tatsachen und Ereignisse, die bewusst wiedergegeben werden können. Bei der Wissensrepräsentation des expliziten Gedächtnisses unterscheidet man wiederum ein semantisches Gedächtnis, in dem Faktenwissen gespeichert wird, und ein episodisches Gedächtnis, das für die Speicherung von Erlebnissen verantwortlich ist. 21 Enkodierung von Langzeitgedächtnisinhalten Zwei-Speicher-Theorie Nach der Zwei-Speicher-Theorie wird angenommen, dass die in das Kurzzeitgedächtnis aufgenommenen Informationen hier nur erhalten werden, wenn sie durch mehrfache Erhaltungswiederholungen (maintenance rehearsal) aufrechterhalten wird - andernfalls geht sie dem stufenweisen displacement (Ersatz durch neue Inhalte) oder durch Zerfall verloren. Um die im Kurzzeitspeicher zunächst zwischengespeicherten Informationen auf Dauer zu erhalten, muss sie in irgendeiner Weise in das Langzeitgedächtnis transferiert werden. Hier wird angenommen, dass dieser Transfer durch integrative Wiederholung (integrative reheasal) oder elaboriertes Wiederholen, bei dem die verschiedenen Encodierungen ausgearbeitet werden, erfolgt. (Bild: 2 Speicher Modell) Das behalten von Informationen im (semantischen) LZG ist insbesondere von drei Faktoren abhängig: • Der Elaboration des Materials, z.B. in Form von Codierung oder in Zusammenhang mit der Verarbeitungstiefe. • von der Organisation es Wissens, das ebenfalls bei der Einspeicherung erfolgt. • von dem Kontext, in welchem das Material gelernt wurde. 22 Serielle Positionseffekte bei freier Reproduktion (Murdock 1962) Den Versuchspersonen wird eine Liste von unzusammenhängender Wörter einmalig zum Behalten präsentiert. 20 oder 40Wörter werden nacheinander visuell oder akkustisch angeboten, und die Versuchspersonen haben jeweils genau eine Sekunde Zeit, um jedes Wort zu betrachten. nach der einmaligen Vorgabe der gesamten Liste müssen die Versuchspersonen sofort möglichst viele Worte in beliebiger Reihenfolge - freier Abruf reproduzieren. Die gemittelten Daten aus mehreren Wortlisten ergeben die sogenannte serielle Positionskurve von U-förmiger Gestalt. Die letzten Wörter sind offensichtlich noch im KZG gespeichert und werden besser erinnert, der sogenannte Recency-Effekt. Aber auch Wörter vom Anfang werden mit höherer Wahrscheinlichkeit erinnert als der verbleibende große Mittelteil, was als Primacy-Effekt bezeichnet wird. Der Primacy-Effekt wird darauf zurückgeführt, dass die Items schon im LZG gespeichert wurden. Eine ablenkende Aufgabe direkt nach dem Lernen der Wortliste eliminiert den RecencyEffekt, da die kurzzeit-gespeicherten Worte durch andere Items verdrängt werden (displacement), nicht aber den Primacy-Effekt, da diese Worte schon ins LZG transferiert worden sind. Verarbeitungstiefe Studien zeigte, dass Maintenance Rehearsal zwar Informationen im Kurzzeitspeicher hielten, aber die Dauer der Maintenance Rehearsal nicht die Behaltensleistung erhöhte. Manche Autoren sind deshalb der Meinung, dass nicht die Dauer des Memorierens entscheidend sei, ob eine Information ins LZG überführt wird, sondern die Verarbeitungstiefe. Statt dem Zwei-Speicher-Modell schlugen sie ein Ein-Speicher-Modell vor, die sogenannte Theorie der Verarbeitungstiefe, die besagt, dass die zu speichernden Informationen in mehreren Stufen (levels of processing) bearbeitet werden können , wobei das Memorieren die Gedächtnisleistung nur dann verbessert, wenn das Material in einer bedeutungshaltigen (tiefen) Weise memoriert wird, wohingegen ein passives Memorieren 23 nicht zu einer besseren gedächtnisleistung führt. Die Art der Bearbeitung der zu lernenden Information bestimmt die Wahrscheinlichkeit mit der diese Information behalten wird. • Je tiefer die Verarbeitung während des Lernens („deep encoding“), desto besser die spätere Gedächtnisleistung, je oberflächlicher die Verarbeitung („shallow encoding“), desto schlechter die spätere Gedächtnisleistung. • Tiefere Verarbeitung dauerte auch länger. Ist also die Verarbeitungszeit und nicht die Verarbeitungstiefe entscheidend? • Craik und Tulving (1975) konnten zeigen, dass der Effekt der Verarbeitungstiefe auch dann erhalten blieb, wenn die Bearbeitungszeit der tiefen und oberflächlichen Aufgaben vergleichbar sind (z.B. Zählen der Vokale statt Entscheidung Groß- oder Kleinschreibung). • Ein anderer Ansatz ist, dass die Verarbeitungstiefe deshalb zu besseren Abrufleistunge führt, weil tiefere Verarbeitung stärkere Gedächtnisspuren legt und die Items angereichert und elaboriert wurden und das Item deshalb mit einem größeren Netzwerk verbunden ist. Craik & Lockhart 1972 Zur Operationalisierung unterschiedlicher Verarbeitungstiefen des Gedächtnisses, wie sie in der Theorie der verarbeitungstiefe angenommen werden, führten Craik und Lockhart einen Versuch durch, der die Erinnerung in Abhängigkeit verschiedener Verarbeitungsformen demonstrierte. Den Versuchspersonen wurden nacheinander einzelne Wörter blitzlichtartig für 0,2 Sekunden auf einem Schirm gezeigt, und sie mussten anschließend jeweils eine Frage beantworten, die sich auf diese Frage bezog. Es gab drei unterschiedliche Fragetypen • erste, oberflächige Ebene: Frage nach Schriftart der Wortes (z.B. ist das Wort in Großbuchstaben geschrieben?) -> geringe Verabeitungstiefe • zweite Ebene: Frage nach Klang/ Aussprache des Wortes (z.B. "Reimt sich das Wort auf Ofen?") -> tiefere Verarbeitungstiefe • dritte, tiefe Ebene: Frage nach semantischer Bedeutung des Wortes (z.B. "passt das Wort in den Satz") -> tiefste Verarbeitungstiefe Die Fragen wurden mit "ja" oder "nein" beantwortet. Bei einem späteren Behaltenstest wurde sowohl Rekognition als auch Reproduktion gemessen und es zeigte sich, dass die Behaltensleistung mit steigender Verarbeitungstiefe anstieg. Methodische Kritik: • Wie misst man die Tiefe der Verarbeitung? Reaktionszeit während der Bearbeitung ist offenbar kein geeignetes Maß! Theoretische Kritik: • Der Ansatz nimmt an, dass unterschiedliche Informationen seriell verarbeitet werden, z.B. bei Wörtern zuerst visuelle, dann phonologische, dann semantische Aspekte. Wenn „höhere“ Aspekte für die Aufgabe nicht benötigt werden, findet auch keine Analyse dieser höheren Aspekte statt. • Aber: Wie wahrscheinlich ist es, dass bei der Entscheidung ob das Wort HUND großgeschrieben ist, die Bedeutung des Wortes nicht auch verarbeitet wird? Die Rolle von Oranisation von Informationen beim Lernen De Groot (1966): In diesem Experiment betrachteten Schach-Großmeister und normale Spieler für 5 Sekunden eine Spielsituation und sollten dann versuchen, die Situation aus dem Gedächtnis 24 nachzustellen. Die Großmeister konnten 90% der Spielsteine korrekt aufstellen, die normalen Spieler lediglich 40%. De Groot interpretierte die Leistungsunterschiede wie folgt: Die überlegenen Spielfertigkeiten der Großmeister entstehen aus ihrer Fähigkeit, dass Schachbrett als ein organisiertes Ganzes und nicht als eine Ansammlung einzelner Bestandteile wahrzunehmen und zu erinnern. Allgemeiner: Experten sind in der Lage, das Material zu einem bedeutungsvollen und organisierten Muster zu organisieren. Bower et. al. (1969) In diesem Experiment wurden die Probanden gebeten, Wortlisten zu lernen. Manche davon waren hierarchisch organisiert (z.B. Mineralien -> Metalle (Edelmetalle, Metalle und Metalllegierungen) und Steine (Edelsteine, gewöhnliche Steine)) andere nicht. Anschließend sollten sie im freien Abruf so viele Wörter niederschreiben, wie möglich. Viele Probanden fanden es bedeutend leichter, sich Wörter zu merken, wenn sie hierarchisch organisiert waren. Aber auch visuelle-vorstellende Mnemotechnik kann helfen unzusammenhängende Wörter gut zu behalten, wenn sie in einer Geschichte verwoben werden. Eine eigene Geschichte zu erfinden führte zu besseren Gedächtnisleistungen als fremde zu übernehmen. Konsolidierung von Langzeitgedächtnisinhalten Unter Gedächtniskonsolidierung versteht man die Verfestigung von Gedächtnisspuren nach dem initialen Erwerb. Agranoff (1967) Besonders eindrucksvoll konnte Agranoff (1967) in verschiedenen Experimenten zeigen, dass die Langzeitspeicherung von bereits gelernten Inhalten nicht erfolgt, wenn während oder nach dem Training die cerebrale Proteinsynthese durch Injektion eines Syntheseblockers in den Liquor des Gehirns gehemmt wird. Bei allen Experimenten erlernten Goldfische konditioniertes Vermeidungsverhalten und erhielten zu zu unterschiedlichen Zeiten eine Injektion des Synthesblockers. Beobachtet wurde die Auswirkung des Syntheseblockers zu unterschiedlichen Zeiten der Injektion auf die Konsolidierung des gelernten: 1. Wird dem Goldfisch kein Syntheseblocker injiziert, so behalten sie das Gelernte für 3-30 Tage. 2. Wird ihnen der Syntheseblocker direkt nach dem Training injiziert, so wird die Konsolidierung verhindert und die Vermeidungsreaktion wird vergessen. 3. Wartet man nach dem Training etwa 1 Stunde und injiziert dann das Medikament, dann zeigte sich keine Wirkung mehr auf das Gedächtnis, da das Gelernte bereits konsolidiert war. 4. Besonders bedeutsam ist das Ergebnis, dass eine Injektion direkt vor dem Training das Lernen nicht behindert, aber das einmal Gelernte ist nach zwei Stunden wieder vollständig vergessen. Diese Ergebnisse indizieren also eine erste Phase der Informationsspeicherung, die einer funktionierenden Proteinsynthese nicht bedarf und die Lerninhalte nur für eine Zeit von weniger als drei Stunden zu speichern vermag. Weiterhin schloss man von den Experimenten, dass Konsolidierungsprozesse stattfinden, nachdem Informationen bereits ins Langzeitgedächtnis transferiert wurden. Die Konsolidierung benötigt eine gewisse Zeit und kann sie nicht stattfinden oder wird sie gestört, gehen die informationen wieder verloren. 25 Modell der Gedächtniskonsolidierung (Alvarez & Squire, 1994) • Unterschiedliche zu einer Episode gehörende Informationen sind in verschiedenen Arealen des Neokortex gespeichert. Die „Zuweisung“ während des Lernens und das „Zusammenfügen“ während des Abrufs leistet der MTL. • Konsolidierung entsteht innerhalb des Neokortex durch graduelles Zusammenfügen der neokortikalen Repräsentationen. • Vor der Konsolidierung ist das LZG also auf den MTL angewiesen. • Konsolidierung verläuft nach der Hebb‘schen Regel, tritt nämlich dann auf, wenn neuronale Aktivität im MTL getrennte Areale im Neokortex aktiviert. Bei wiederholter Koaktivierung führt dies zu einer stärker werdenden Verbindung dieser Areale. • Nach der Konsolidierung ist das LZG also nicht mehr auf den MTL angewiesen. 26 Abruf aus dem Langzeitgedächtnis Im Langzeitgedächtnis sind mehr Informationen gespeichert, als zu einem bestimmten Zeitpunkt abgerufen werden können. Ein wichtiger Faktor ist, dass die Information organisiert wird, damit sie im richtigen Moment abgerufen werden kann. Retrieval Cues können dabei helfen, Informationen abzurufen, die ansonsten nicht zugänglich wären, vielleicht weil zwar eine Gedächtnisspur besteht, aber diese nicht stark genug ist, um einen Abruf zuzulassen. Der Retrieval Cue erlaubt, zusammen mit der schwachen Gedächtnisspur, die Information abzurufen. Manchmal können wir Informationen nicht direkt abrufen, aber systematische Suche (z. B nach Assoziationen zur gesuchten Information) im Gedächtnisspeicher kann dazu führen, dass wir die Information wiederfinden und Abrufen können. Dieser Vorgang heißt recollection. Tulvig & Pearlstone (1966) Dieses Experiment untersuchte die Wirkung von Retrieval Cues (Hinweisreizen). Tulvig präsentierte den Probanden eine Wortliste von 28 Wörtern, die aus 7 Kategorien ausgewählt wurden (Metalle, Blumen, Spirituosen etc.). Dann wurden sie gebeten, so viele Wörter wie möglich frei abzurufen, einmal unter der Bedingung, dass die Retrieval Cues sichtbar waren und einmal unter der Bedingung, dass dies nicht der Fall war. Das Ergebnis war, dass die Probanden wesentlich mehr Wörter abrufen konnten, wenn die Retrieval Cues sichtbar waren. Tulvig (1967) Tulvig bat seine Probanden eine Liste von 36 Worten zu lernen und bat sie anschließend dreimal hintereinander so viele wie möglich frei abzurufen und das ganze zu wiederholen. Überraschenderweise lernten die Probanden genau so schnell, wie diejenigen, die abwechselnd lernten und abriefen. Es scheint, als würde der Vorgang des Suchens und Abrufens der Items tatsächlich zum Lernen beizutragen. Bei der Analyse der drei Durchgänge wurde gefunden, dass bei allen drei Abrufdurchgängen gleich viele Items abgerufen werden konnten, aber nur die Hälfte der Worte wurden konsistent in allen drei Durchgängen abgerufen. Man ging also davon aus, dass manche Items in den einzelnen Durchgängen nicht vergessen wurden, sondern lediglich temporär nicht abgerufen werden konnten. Auf der Zunge liegen (on the tip of the tongue) Wenn wir in einer Situation eine Information nicht abrufen können, von der wir sicher wissen, dass wir sie kennen, sagen wir üblicherweise "es liegt mir auf der Zunge". Brown & McNeill 1966 Brown und McNeill untersuchten, ob dieses Gefühl tatsächlich berechtigt ist oder auf 27 Täuschung basiert. Sie gaben den Probanden obskure Definitionen von Gegenständen und baten sie, die Gegenstände zu benennen. Manchmal passierte es, dass die Probanden sicher waren, den Gegenstand zu kennen, aber die Antwort nicht produzieren konnten. War dies der Fall, so baten Brown und McNeill die Probanden, zu raten, wie viele Silben das Wort habe und ob sie andere Informationen über das Wort geben konnten konnten, wie z.B. den Anfangsbuchstaben. Die Probanden zeigten überzufällig häufig korrekte Antworten in dieser Aufgabe. Tulving & Osler 1968 In diesem Experiement zu Retrieval Cues sollten Probanden Wortlisten lernen. Dabei war jedes Wort mit moderat assoziierten Wort gepaart (z.B. City - dirty). Danach sollten die Probanden die Wörter entweder frei abrufen oder sie bekamen das assoziierte Wort als Retrieval Cue (z.B. City - ?). Tulving und Osler fanden, dass Hinweisreize zu einer substantiell besseren Gedächtnisleistung führen, aber damit der Hinweisreiz wirksam war, musste er während des Lernens präsent sein. Tulving & Thomson 1973 Tulving und Thomson machten sich Wortassoziationseffekte zunutze ("Welches Wort kommt Ihnen als erstes in den Sinn wenn sie „kalt“ hören?") 1. Probanden lernten eine Wortliste. Zu jedem Wort (z.B.„kalt“)wurde ein mäßig assoziiertes Wort dargeboten (z.B.„kalt–Boden“). Beim anschließenden freien Abruf wurden nur wenige Items erinnert. 2. Assoziationsaufgabe: Vorgabe von solchen Wörtern, die mit den gelernten Items hoch assoziiert sind (z.B.„warm“‐?). Probanden produzierten die zuvor gelernten Wörter, erkannten diese aber häufig nicht als gelernte Worte wieder (Rekognitionstest). 3. CuedRecall: Bei Vorgabe des unter 1 gelernten Hinweisreizes („Boden ‐ ?“) konnten Probanden auch solche Items erinnern, die sie unter 2 nicht wiedererkannt haben. Erklärung: Während der ersten Phase des Experiments stellen die Probanden eine Verbindung zwischen den Wortpaaren her (sie erinnern sich zum Beispiel bildhaft, dass sie in einem Zelt auf kaltem Boden geschlafen haben). Wenn in der zweiten Phase das Wort „kalt“ generiert wird, hat dieser Vorgang wenig Überlappung mit den kognitiven Prozessen in der ersten Phase (es wird zum Beispiel das in der ersten Phase benutzte Bild nicht wiederverwendet, sondern auf allgemeines Weltwissen zurückgegriffen). Das Wort „kalt“ wird nicht wiedererkannt. Wenn aber in der dritten Phase das mäßig assoziierte Wort aus Phase 1 als Hinweisreiz benutzt wird, werden dadurch die Prozesse aus Phase 1 reaktiviert (z.B. wird das gleiche Bild wachgerufen) und das gelernte Wort „kalt“ kann erinnert werden. Godden & Baddeley (1975) In diesem Experiment untersuchten Godden & Baddeley Kontexteffekte auf den Gedächtnisabruf. Taucher lernten 40 nicht zusammenhängende Worte, und zwar entweder an Land oder unter Wasser. Der darauffolgende freie Abruf fand entweder in derselben Umgebung (an Land–anLand, unter Wasser – unter Wasser) oder in der jeweils anderen Umgebung statt (an Land – unter Wasser, unter Wasser – an Land).Es zeigte sich, dass die Wörter am besten im selben Kontext abgerufen werden konnten, in dem sie auch gelernt wurden. Bei Rekognitionsaufgaben fand sich der Kontexteffekt allerdings nicht, was darauf Hinweist, dass der Kontext die relevante Gedächtnisspur zu finden. Bei Rekognition ist die Wahrscheinlichkeit, die Spur zu finden so hoch, dass der Kontext kaum noch eine Rolle spielt. 28 Gardiner & Java Probanden lernen eine Wortliste und sollen diese in freiem Abruf wiedergeben. Weiterhin sollten die Probanden bei jedem Wort angeben, ob sie sich erinnern (remember ; konkrete Informationen aus der Lernphase sind abrufbar) oder ob das Item vertraut ist (know; Erinnerung auf Grundlage eines Bekanntheitsgefühls).Wurden die Probanden während der Lernphase abgelenkt, waren die remember-Antworten reduziert, nicht aber die knowAntworten. Das wurde wie folgt interpretiert: remember‐Antworten beruhen auf explizitem oder deklarativem Gedächtnis, während know‐Antworten eher auf implizitem oder non‐ deklarativem Gedächtnis beruhen. What can we learn from Computers? 29 Sternberg 1966 Bei diesem Experiment wurde die Abruf-Geschwindigkeit vom Kurzzeitgedächtnis getestet. Probanden bekamen Reihen mit 1-6 Ziffern präsentiert. Im Anschluss wurde ein "probe", also ein Testreiz gezeigt. Dieser bestand aus einer Ziffer. Die Probanden sollten nun per Knopfdruck möglichst schnell angeben, ob diese Ziffer in der Zahlenreihe vorhanden war oder nicht. Gemessen wurde die Antwortgeschwindigkeit in Abhängigkeit von der Länge der Zeichenkette und von der (korrekten) positiven oder negativen Antwort. Es zeigte sich, dass die Antwortgeschwindigkeit proportional mit der Anzahl der Ziffern anstieg, unabhängig davon, ob der Testreiz in der Ziffernreihe enthalten war oder nicht. Mit anderen Worten, Die Ergebnisse deuteten auf einen vollständigen seriellen Absuchprozess aller Speicherorte hin, unabhängig davon ob das gesuchte Item schon gefundenwurde. 30 Konnektionistische Netzwerkmodelle Dieses Modell geht davon aus, dass Informationen über Verbindungen einzelner Einheiten in einem Netzwerk gespeichert sind (Konnektionismus). In diesem Modell führt die Aktivierung einer Einheit zu einer Aktivierung aller angebundenen Einheiten. Die Stärken des Modells sind, dass aus dem Netzwerk sowohl spezifische, wie auch allgemeine Informationen abgerufen werden können. Beispielspielsweise können spezifische Einheiten abgerufen werden, aber auch alle Einheiten, die mit einer bestimmten Einheit verbunden sind. Womöglich lässt sich aus dem Modell auch erklären, dass wir manchmal Informationen abrufen, aber uns nicht sicher sind, ob die Information auch richtig ist. Die Sicherheit hängt davon ab, wie viele andere Einheiten zusätzlich aktiv sind, die mehr oder weniger die gleichen Verbindungen haben (d.h. die gleichen Eigenschaften haben). Ist die aktive Einheit die Einzige, die die klassifizierenden Verbindung haben, sind wir uns sehr sicher, dass die Information richtig ist. Auch Raten könnte ähnlich ablaufen: Wir suchen eine Einheit, die bestimmte Verbindungen zu Eigenschaften hat, aber mehrere Einheiten werden dadurch aktiviert, unter denen wir dann auswählen. Dieses Modell nutzt den Vorteil der graceful degradation, d.h. Teile des Systems können zerstört werden, ohne dass das ganze System zusammenbricht. Auch nutzt es die Vorteile der Content addressability, d.h. es gibt die Tendenz, dass die gesamte Erinnerung abgerufen werden kann, wenn nur ein Fragment aktiviert wird. Aber das Modell ist nicht unumstritten. Eine Kritik ist, dass das Modell Gedächtnisabläufe vereinfacht und oberflächlich darstellen, andere glauben, dass das Modell massive Probleme mit der Interferenz hätte, wenn es unter realistischen Umständen ablaufen würde. Semantisches Gedächtnis Definition Becker-Carus: Das semantische Gedächtnis bezieht sich ... auf allgemein gültige Wahrheiten und das allgemeine Weltwissen. Es wird auch kategorisches Gedächtnis genannt, das die grundlegende Bedeutung von Dingen speichert, ohne Berücksichtigung des räumlich-zeitlichen Erfahrungskontextes. Man geht davon aus, dass unser konzeptuelles Wissen wesentlich in Form so genannter semantischer Netzwerke sowie propositionaler Netzwerke gespeichert wird. Diese Art Netzwerk ist nach Quillian hierarchisch geordnet, so dass übergeordnete Sachverhalte auch für untergeordnete Kategorien gültig und diese somit aus ersteren ableitbar sind. Gilt für 31 eine untergeordnete Kategorie ein Merkmal der übergeordneten Kategorie nicht, dann muss dies extra eingespeichert werden (bsp.: Vögel können fliegen. Ein Pinguin ist ein Vogel, obwohl er nicht fliegen kann.) Loftus (1992) • Probanden bekamen sowohl einen Kategorieoberbegriff (z.B. „Frucht“), als auch einen Anfangsbuchstaben präsentiert (z.B. „P“) und sollten ein entsprechendes Wort generieren. • Dies fiel leichter wenn der Kategoriename zuerst präsentiert wurde. • Erklärung: Bei Einschränkung aller Wörter auf die Kategorie „Früchte“ erhält man eine überschaubare und kohärente Menge. Ein passendes Wort kann im nächsten Schritt relativ leicht gefunden werden. Die Kategorie „Anfangsbuchstabe P“ ist vermutlich deutlich größer und diffuser. Collins & Quillian 1969 / 1972 Nimmt man an, dass die einzelnen Sachverhalte (Merkmale), die für mehrere Unterbegriffe gelten, nur bei dem zugehörigen Oberbegriff gespeichert sind, so sollte die Abrufbarkeit auch von der Länge der zurückzulegenden Wegstrecke abhängig sein, was Collin und Quillian (1969) in ihrem Experiment belegen konnten. Ausgehend von drei Ebenen hierarchischer Organisation sollten Probanden Aussagen nach Richtigkeit beurteilen. Die Antwort sollte schnellstmöglich durch das Drücken einer von zwei Tasten erfolgen. Gemessen wurde die Reaktionszeit als abhängige Variable. Es zeigten sich deutliche Unterschiede, je nachdem, ob die Aussage sich auf ein und dieselbe Ebene bezog oder ob höhere Ebenen zur Beurteilung der Aussage notwendig waren. Das heißt, die Reaktionszeit nahm mit der Anzahl der aufzusuchenden Knoten zu. Tatsächlich war die Reaktionszeit umso länger, je mehr Ebenen aufgesuchten werden mussten, um die Aussage zu beurteilen. Beispiel: 1. Ein Kanarienvogel kann singen (gleiche Ebene - 1,31 s) 2. Ein Kanarienvogel hat Federn (zwei Ebenen - 1,38 s) 3. ein Kanarienvogel hat eine Haut (drei Ebenen - 1,47 s) Rosch 1973 32 Nach dem Netzwerkmodell sollten die Aussagen "Ein Spatz ist ein Vogel" und "Ein Pinguin ist ein Vogel" gleich schnell beurteilt werden, da beide auf der gleichen Ebene sind und die gleiche Entfernung zur übergeordneten Ebene besitzen. Tatsächlich brauchen Probanden aber länger, um den Pinguin als Vogel zu identifizieren. Psychologen wie z.B. Rosch argumentieren, dass wir bei so einfachen Fragen nicht die einzelnen Ebenen des semantischen Netzwerks absuchen, sondern vielmehr auf gespeicherte Prototypen zurückgreifen. Je ähnlicher das betreffende Item dem Prototypen ist, desto kürzer sollte die Reaktionszeit sein. So brauchen wir z.B. zur Bestätigung der Aussage: "Ein Strauß ist ein Vogel" zumeist mehr Zeit als für die Beantwortung "Ein Spatz ist ein Vogel", denn ein typischer Vogel sollte fliegen können, was ein Strauß nicht kann. Schemata Eine mentale Representation irgendeiner Handlung (mental oder körperlich), die an einem Gegenstand ausgeführt werden kann (Piaget, nach Solso 2005). Aber auch ähnlich wie Kategoriebegriff gebraucht. Achtung: Die Begriffe Kategorie, Schemata und Skript sind sich ähnlich und werden mitunter auch austauschbar verwendet. Dr. Wiese sagte, es gäbe keine großen Unterschiede, aber sicherheitshalber nochmal beim Dozenten nachfragen! Beispiel: Das Schema Junggeselle hat folgende Eigenschaften: männlich, jung, alleinstehend Bransford 1979 In seinem Experiment gab Bransford seinen Studenten einen obskuren Text, der einen Ablauf schilderte, ohne Details zu nennen, um was für eine Aufgabe es sich handele. Anschließend sollten die Studenten auf einer Skala von 1 - 5 bewerten, wie verständlich der Text sei. Ihre durchschnittliche Bewertung war 2,29. Außerdem zeigten sie eine sehr schlechte Leistung, wenn sie den Text aus dem Gedächtnis abrufen sollten. Von 18 möglichen Zwischenschritten erinnerten sie im Schnitt gerade mal 2,82. Eine zweite Gruppe las den Text und ihr wurde vor dem Abruf gesagt, es handele sich um einen Text ums Waschen von Wäsche. Dies jedoch verbesserte weder das Verständnis noch die Abrufleistung. Eine dritte Gruppe wurde vor dem Lesen darüber informiert, dass der Text von Wäschewaschen handele. Sie bewerteten die Verständlichkeit mit 4,5 von möglichen 5 Punkten und riefen etwa doppelt so viele Zwischenschritte ab, wie die Gruppen 1 und 2. Die schlechte Leistung der beiden ersten Gruppen beruhte nicht darauf, dass Autor und Leser des Textes unterschiedliche Konzepte von Wäschewaschen hatten, aber dass die Leser den Text nicht in einen Kontext einordnen konnten. Skripte Im Grunde genommen ist ein Skript ein Packet von Informationen, die es in einer Situation ermöglicht eine Situation zu verstehen oder zu interpretieren. Normalerweise ist ein Skript implizit verfügbar. Beispielsatz: „John reiste mit dem Bus nach New York“ Mögliche Interpretation des Programms von Schank und Abelson (1977): „John ging zu einer Bushaltestelle. Dort wartete er einige Minuten. Er stieg in einen Bus. Der Fahrer kontrollierte den Fahrschein. John ging zu einem Sitz. Er setzte sich. Der Fahrer fuhr den Bus nach New York. John stieg aus dem Bus.“ Schank ging weiterhin der Frage nach, wie und vor allem welche Informationen ein Skript enthalten muss. Auch wenn solche Fragen nach Details beantwontet werden können, scheint es unplausibel, dass alle Informationen, die ein Skript enthalten könnte, auch enthalten sind; 33 das wäre unökonomisch und unflexibel. Das Skript "Busfahren" enthält höchtswahrscheinlich nicht die Information, dass der Bus erst still stehen muss, bevor John einsteigen kann oder dass John während der Reise sitzen oder stehen kann. Schank 1982 In späteren Publikationen ging Schank davon aus, dass Skripte wesentlich dynamischer und interaktiver sind, als zunächst angedacht. Außerdem hat jedes gegebene Skript Elemente mit anderen Skripten gemeinsam. Diese gemeinsamen Elemente bezeichnet er als MOPs (Memory Organisation Packets). Das Skript "Busfahren" könnte beispielsweise eine Reihe von MOPs von den Skripten Reisen, Wetterbedingungen, Umgangsformen mit Fremden etc. beinhalten. Alles, dass nicht standardgemäß zu dem Skript gehört, wird separat gespeichert. Diese Mechanismen stellen die Basis für die Einspeicherung von episodische Gedächtnisinhalte dar. Außerdem führt er übergeordnete Konzepte ein, die er TOPs (Thematic Organisation Points) nennt. Sie beziehen sich auf breitere Kategorien, wie z.B. Wertvorstellungen oder Gelegenheiten, in denen man scheitert ein Ziel zu erreichen. Ist Wissen rein sprachlich? Semantisches Gedächtnis beschäftigt sich vermehrt mit semantischen Ideen oder Konzepten als mit Wortassoziationen, obwohl es mit Wörtern verbunden ist. Whorf 1956 Die Sapir-Whorf-Hypothese geht darüber hinaus davon aus, dass die semantische Struktur einer Sprache die Möglichkeiten der Begriffsbildung von der Welt entweder determiniert oder limitiert. Sie ist die „Annahme, dass die erlernte (Mutter-) Sprache die Erfahrung, das Denken und Handeln der Menschen determiniere, jede Sprache eine spezifische Weltsicht vermittle“; die These, dass die Sprache unser Weltbild prägt. Daraus folgt auch, dass zwei Menschen, die unterschiediche Sprachen sprechen, die Welt auch unterschiedlich wahrnehmen. Brown & Lenneberg 1954 Brown und Lenneberg demonstrierten, dass bestimmte Farben besonders einfach erkannt und erinnert werden können. Diese Farben sind fokal und werden von vielen Leuten sehr konsistent als eine Farbe erkannt. Die Namen tendieren dazu, kurz zu sein, wie Rot oder Grün, weniger fokale Farben tendieren dazu längere Namen zu haben. Interpretation nach der linguistischen Relativitätstheorie: Farben, die einem einfachen verbalen Labe entsprechen werden leicht wahrgenommen und erinnert. Rosch 1973 Rosch zeigte eine alternative Interpretation auf, wonach die Sprache aus der Wahrnehmung folgt. Sie untermauerte ihre Theorie mit einer Untersuchung an einem Volk aus Neuginea, die Dani sprachen. Diese Sprache hat nur zwei Farbbezeichnungen, ungefähr hell/ warm und dunkel/ kalt. Wenn Whorfs Theorie richtig wäre, dann sollten Dani-Sprecher keinen Vorteil beim Erinnern fokaler Farben zeigen. Obwohl die allgemeine Leistung geringer war, fand sie jedoch, dass sie fokale Farben einfacher unterscheiden und erinnern konnten. Moar 1978 Ein Typ von Wissen, der schwer in Worte zu fassen ist, ist räumliches Wissen. In einem Experiment untersuchte Moar, wie sich Probanden aus Cambridge und Glasgow in ihrem Wissen über die Form von England unterschieden. Probanden sollten von einem Startpunkt aus Linien zeichnen, die Städte miteinander verbinden. Aus den Vektoren der Linien wurde das räumliche Konzept von Großbritannien berechnet, eine Technik die er mental triangulation nennt. Es zeigte sich, dass die Cambridge-Gruppe die Distanzen in Süde 34 England überbetonten, während die Glasgow Gruppe Distanzen im Süden unterschätzte. Potter & Faulconer 1975 Probanden sollten entweder Bilder von Objekten oder die gedruckten Namen dieser Objekte kategorisieren (in Kategorien wie zum Beispiel Tiere, Werkzeuge etc.). Im Vergleich zur Namen-Bedingung fiel die Entscheidung, dass z.B. ein Hund ein Tier ist genauso schnell wenn ein Bild gezeigt wurde. Weiterhin erfolgte eine Kategorisierung von Bildern schneller als eine Benennung. Dies widerspricht der Ansicht, dass Kategorien lediglich sprachliche Labels sind. Ebenfalls scheint es bildlich-räumliche Konzepte zu geben. Nitsch Bisherige Studien untersuchten bereits bestehende Konzepte, diese geht darauf ein, wie neue entstehen. Nitsch, ein Schüler von Bransford, gab seinen Studenten die Definitionen einiger Konzepte, die sich auf soziale Situationen anwenden ließen, wie z.B.: • CRINCH - to make someone angry by performing an inappropiate act • MINGE - To gang up on a person or thing • RELL - To rescue someone from a dangerous or problematic situation Er interessierte sich nicht nur dafür, wie gut solche Konzepte gelernt wurden, sondern auch, wie gut sie generalisiert werden würden. In einem Experiment bildete er zwei Gruppen aus Studenten. Gruppe 1 lernte die Konzepte, so dass sie das Konzept benennen konnten, wann immer ihnen das Konzept begegnete. Gruppe 2 lernte die Begriffe anhand von Beispielen, bis sie jedes Beispiel korrekt kategorisieren konnten. Beide Gruppen wurden dann mit neuen Beispielen konfrontiert. Diejenigen, die die Definitionen gelernt hatten, waren wesentlich schlechter darin, die neuen Beispiele korrekt zu kategorisieren, als die, die Konzepte anhand von Beispielen erlernten. Wenn beide Gruppe die Bedeutungen der Konzepte gut verstanden hatten, bekamen sie neue Beispiele aus sozialen Kontexten, die sich von den bisherigen unterschieden. Auch diesmal war die zweite Gruppe besser darin, die Situation korrekt zu kategorisieren. Nitsch's Experiment zeigt, dass Konzepte besser gelernt werden, wenn eine große Anzahl an Beispielen gezeigt wird. Jedoch, eine schnellere, wenn auch weniger generalisierende Möglichkeit ist, diese durch Definitionen zu erlernen. Vergessen Traditionell gibt es zwei Theorien des Vergessens. Die eine geht davon aus, dass Gedächtnisspuren beim Vergessen schlichtweg verblassen und schließlich verschwinden. Sollte diese Theorie richtig sein, dann sollte Vergessen systematisch mit verstrichener Zeit zusammenhängen. Es gibt einige Befunde, die dagegen sprechen. • Baddeley & Hitch (1977) fragten Rugby-Spieler nach den Namen der Teams, gegen die sie in der vorherigen Saison gespielt hatten. Die meisten Spieler hatten aus verschiedenen Gründen nicht an allen Spielen teilgenommen. Für die Gedächtnisleistung war es relativ unwichtig wie viel Zeit verstrichen war, einen größeren Effekt hatte die Anzahl der Spiele, an denen die Spieler teilgenommen hatten. Dies lies sich so erklären, dass die Erinnerungen an die Spiele mit einander interferierten. Die andere geht davon aus, dass Vergessen eintritt, weil Gedächtnisspuren durch nachfolgende Lerninhalte gestört oder überschattet werden. Vergessen ist also ein Prozess der Interferenz. Wenn diese Theorie richtig sein sollte, dann sollte Vergessen nicht von der verstrichenen Zeit, sondern die Ereignisse, die währenddessen geschehen der entscheidende 35 Faktor sein, der zu Vergessen führt. • Jenkins & Dallenbach (1924) zeigten, dass Probanden, die nach dem Lernen zu Bett gingen, 24 h später bessere Gedächtnisleistung zeigten, als diejenigen, die die am Morgen lernten und dann am normalen Tagesgeschehen teilnahmen. • Allerdings ist es wahrscheinlich, dass hier andere Effekte, beispielsweise die Tageszeit, einen Einfluss haben. Es zeigte sich, dass Probanden genausoviel vergasen, wenn sie am Morgen lernten und schliefen, wie diejenigen, die am Tagesgeschehen teilnahmen. • Möglicherweise ist abendliches Lernen deshalb effektiver, weil zyklische Rhythmen zu dieser Zeit den biologischen Konsolidierungsprozess begünstigen. • In einem anderen Experiment baten McGeoch & McDonald (1931) Probanden Listen mit Adjektiven zu lernen. Ziel war es, herauszufinden, welche Effekte Interferenz hatte, indem sie die probanden unterschiedliche Aktivitäten zwischen Lernen und Abruf ausführen ließen. Sie fanden heraus, dass am wenigsten vergessen wurde, wenn die Probanden während dieses Intervalls ausruhten. Mehr wurde vergessen, wenn sie während des Intervalls Material lernten, dass nicht dazugehörte (z.B. sinnlose Silbenkombinationen). Weiterhin war das Vergessen größer, wenn in dem Intervall Adjektive gelernt wurden, die in der Bedeutung ähnlich den gelernten waren. Mit diesem Experiment konnte der Effekt von Interferenz auf die Gedächtnisleistung gezeigt werden, insbesondere dass je ähnlicher die interferierenden Lerninhalte sind, desto größer das Vergessen ist. Zum anderen unterscheidet man zwei Arten von Interferenz: Retroaktive interferenz und Proaktive Interferenz. Interferenz kann interpretiert werden, indem man annimmt, dass wir Erfahrungen mit einander verbinden. Je ähnlicher die Erfahrungen sind, desto wahrscheinlicher ist es, dass sie interagieren. • Alte Gedächtnisinhalte durch das Lernen von neuen zu verlieren nennt man Retroaktive Interferenz. Retroaktiv impliziert, dass die Interferenz rückwärts gerichtet ist. Allgemein, diese Typ Interferenz gewinnt mit der Menge an neuen Gedächtnisinhalten an Bedeutung und ist am bedeutendsten, wenn die neuen Lerninhalte mit schwachen, alten Gedächtnisspuren interferieren (siehe auch Slamecka 1960). • Wenn eine alte Gedächtnisspur plötzlich über neue Gedächtnisinhalte dominiert, nennt man dies Proaktive Interferenz. 36 Ebbinghaus ~1880 Ebbinghaus untersuchte als einer der ersten Gedächtnisleistung und Vergessen, indem er 169 Listen mit sinnlosen Silben lernte. Nach einem variablen Intervall (21 min bis zu 31 Tagen) lernte er diese Listen erneut und fand, dass anscheinend ein Teil wieder vergessen worden war. Die Zeit, die zum erneuten Lernen benötigt wurde, galt Ebbinghaus als Mass für das Vergessen. Es zeigte sich eine deutliche Beziehung zwischen Intervalldauer zwischen erstem und erneutem Lernen und der Rate des Vergessens. Vergessen geschieht zunächst zunächst rasch und nimmt dann graduell ab. Die Rate, mit der man vergisst ist eher logarithmisch als linear. Jost's Gesetz Wenn zwei Gedächtnisspuren zu einem Zeitpunkt gleich stark sind, dann wird die ältere beständiger bleiben und weniger schnell vergessen werden. Es scheint als würden Gedächtnisspuren resistenter gegen Verfall werden, je älter sie sind. Warrington & Sanders 1971 Obige Ergebnisse betreffen sinnloses Material mit Intervallszeiten von wenigen Minuten bis Tagen. Warrington & Sanders suchten sehr bedeutsame Schlagzeilen aus Zeitungen, die ein bis dreißig Jahren alt waren. Sie untersuchten nun das Gedächtnis ihrer Probanden, entweder durch recall- oder recognition- Bedingungen. Sie fanden, dass solche bedeutsamen Schlagzeilen durchaus vergessen wurden. Jüngere Menschen hatten allerdings eine bessere Gedächtnisleistung als alte Menschen, sowohl für nahe wie auch Entfernte Items. Bahrick, Bahrick, Wittlinge (1975) Bahrick et al. untersuchten das Gedächtnis von High-School-Absolventen nach mehr als 30 Jahren für Namen und Portraits ihrer Klassenkameraden. Sie zeigten, dass sich die Probanden noch außerordentlich gut Namen wiedererkannten (recognize) und die Namen Gesichtern zuordnen konnten. Jedoch zeigten sie, dass sie Namen weniger gut frei oder auf Hinweisreize hin abrufen konnten und mehr vergessen worden waren. In beiden Bedingungen sank die Leistung nach 50 Jahren, was impliziert, dass es Alter einen Einfluss auf die Intelligenz hat. 37 Bahrick & Phelps 1987 Bei den jährlichen Alumni-Treffen prüfte Bahrick wie in College-Zeiten erworbenes Wissen vergessen wurde. Das bedeutsamste Ergebnis ist, dass das meiste Wissen in den ersten paar Jahren vergessen wurde, danach gab es fast kein Vergessen mehr. Bahrick schlug vor, dass dieses Wissen im Permastore gespeichert wird, ein Speicher (fast) ohne Vergessen. Wie viel Wissen in das Permastore gelangt hängt davon ab, wie gut das Material gelernt wurde und wie gut die Lernmethode war. Vergessen von Fertigkeiten? • Fertigkeiten wie Fahrradfahren oder Schwimmen verlieren wir nicht mehr, wenn wir sie einmal gelernt haben, auch wenn wir diese Fertigkeiten lange nicht mehr eingesetzt haben. • In einer Studie von Fleischmann & Parker (1962) trainierten Probanden in einem Flugsimulator und wurden dann 9-24 Monate später nochmal getestet. Ihre Leistung fast gleich, was impliziert, dass kein Vergessen eintrat. • Dass Fertigkeiten nicht vergessen werden, scheint nicht für alle Fertigkeiten zu gelten. Es gibt gibt kontinuierliche Fertigkeiten (closed-loop-skills) und diskrete Fertigkeiten (open-loop skills) • Closed-loop skills, wie z.B. Fahrradfahren oder Fliegen haben einen kontinuierlichen Ablauf, bei dem jede Aktion den Hinweisreiz für die nächste Aktion bietet. Kontinuierliche, motorische Fertigkeiten scheinen (fast) nicht vergessen zu werden. • Open-loop skills, wie z.B. erste Hilfe leisten, bestehen aus einzelnen, unabhängigen Aktionen. Soll das Leistungsniveau bei solchen komplexen Fertigkeiten aufrechterhalten werden, so muss die Fertigkeit in regelmäßigen Abständen aufgefrischt werden. • Viele Fertigkeiten sind eine Kombination beider Fertigkeitsarten. 38 • McKennah & Glendon (1985) untersuchten Freiwillige, die einen erste Hilfe Kurs absolviert hatten nach einem Intervall, das von 3 Monaten bis zu 3 Jahren reichte. In diesem Fall scheint ein Wiedererlernen der Fertigkeit in regelmäßigen Abständen erforderlich zu sein. Amnesie Als reine Amnesie bezeichnet man ein zeitlich begrenztes oder permanentes selektives Defizit des explizite Langzeitgedächtnisses bei gleichzeitig erhaltenen anderen kognitiven Fähigkeiten wie Sprache und Intelligenz. Die Amnesie ist ein teilweiser Verlust der Erinnerungsfähigkeit oft aufgrund von neuronaler Schädigungen, wie sie z.B. entstehen bei • Gehirnverletzungen (Schlaganfall, Anoxie, traumat. Hirnläsion) • Chronische Alkoholintoxikation (Wernicke-Korsakoff-Syndrom) • Infektiöse Erkrankungen des Gehirns (Encephalitis) • Psychogene Amnesien Als retrograde Amnesie wird die Unfähigkeit bezeichnet, sich an Ereignisse zu erinnern, die mehr oder weniger kurz vor der Hirnverletzung oder der Erkrankung liegen. 39 Es handelt sich um eine anterograde Amnesie, wenn die Personen unfähig sind, neues Faktenwissen aufzunehmen oder zu erinnern, wie z.B. Tageserlebnisse. Hierher gehört z.B. der Patient H.M., der seinem behandelnden Arzt täglich neu vorgestellt werden musste (Verlust des semantischen LZGs). Sprache Was ist die Psycholinguistik? Erste psycholinguistische Erkenntniss gewann bereits Cattel im Jahr 1886. Er maß die Zeit, die zum Lesen und Benennen von Buchstaben, Wörtern, Sätzen und Bildern benötigt wird. Er zeigte, dass Buchstabenkombinationen, die ein Wort ergaben, schneller gelesen werden konnten, als solche, die kein Wort ergaben. Cattel fand ebenfalls, dass Wörter schneller in Sätzen gelesen werden, wenn die Sätze einen Sinn ergeben. Huey (1900) untersuchte Leseprozesse mit dem Ziel, die Lesegeschwindigkeit zu erhöhen. er maß die Anzahl von Augenfixationen (und Sakkaden) pro Zeile in Abhängigkeit von Schriftgröße und Zeilenlänge. Er fand, dass man beim Lesen nicht die Worte fixiert, die man gerade laut liest. Das laute Lesen hinkt dem Fixieren etwa 6-7 Worte hinterher. Die Psycholinguistik als eigene Disziplin entstand Mitte der 50er Jahre, in Folge der Kritik des Linguisten Chomsky an den verbreiteten behavioristischen Vorstellungen über Sprache. In der bahavioristischen Sprache stand der assoziative Aspekt der Sprache im Mittelpunkt. Danach lernen die Sprecher in welcher Situation bestimmtes sprachliches Verhalten eine Verstärkung oder Bestrafung nach sich zieht. Die Psycholinguistik ist an den strukturellen Aspekten und Reüräsentationen der Sprache interessiert. Gemessen werden Reaktionszeiten, Augenfixationen beim Lesen, ereigniskorrelierte Potentiale (EKPs) und Stoffwechselaktivitätem im Gehirn (funktionelle Magnetresonanztomographie (fMRT)). Grundlagen der Sprache Offensichtlich spielt Sprache eine wichtige Rolle bei Gedächtnisleistung und Denken (es gibt jedoch auch andere Formen von Denken und Gedächtnis, z.B. visuell-räumliches oder motorisches). Sowohl beim Sprachverständnis als auch bei der Sprachproduktion (dem Sprechen oder Schreiben) lassen sich in gleicher Weise verschiedene Ebenen unterscheiden auf denen der jeweilige Sprachprozess abläuft. Wenn wir etwas sagen wollen, beginnen wir zunächst innerlich mit einem Gedanken, den wir aussprechen wollen. Diesen transformieren wir dann in Phoneme und Morpheme eines sprachlichen Satzes (sentence) in einer uns geläufigen Sprache, den wir dann sprachlich artikulieren (aussprechen oder niederschreiben). Entsprechend umgekehrt beginnen wir beim Zuhören mit dem Hören der Sprachlaute, die wir als Wortkombinationen erkennen, die sich in Sätzen zusammenschließen, aus denen wir dann den Sinn entnehmen. 40 Beim Sprachverständniss spielen Erwartungen eine wichtige Rolle. Anhand von Erfahrungen über Propositionen können wir ganze Sätze erschließen, was besonders dann nützlich ist, wenn er undeutlich ausgesprochen wurde. Grundeinheiten der Sprache Die Grundeinheiten der Sprache sind Phoneme, Morpheme und Propositionen. Phoneme werden definiert als kleinste sprachliche Einheiten (basic speech sound), deren Veränderung unter Umständen zu einer Veränderung der Bedeutung der Äußerung führen kann. (Buchstaben sind Zeichen für Sprachlaute) Morpheme sind die kleinsten bedeutungstragenden Einheiten. So ist Hase zum Beispiel ein Morphem, das ein Objekt bezeichnet, und -te ein Morphem, das die Vergangenheitsform anzeigt. Aber auch Artikel (der, die, das) und Präpositionen (an, auf) sind Morpheme, da sie eine Bedeutung tragen. Propositionen sind (abstrakte) Bedeutungseinheiten (Vorstellungen), die eine Beziehung zwischen Konzepten, Gegenständen oder Ereignissen ausdrückt. Sie wird auch als kleinste Wissenseinheit bezeichnet. Es wird angenommen, dass Propositionen in unserem Gehirn in einer nicht sprachlichen, non-linguistischen Form repräsentiert sind. Hinweis darauf ist z.B. dass wir Propositionen mit unterschiedlichen Synonymen wiedergeben können. Konzepte, Begriffe und Skripte sind kognitive Repräsentationen von Arten von Dingen und ihren Eigenschaften. Konzepte resultieren aus der Fähigkeit, individuelle Erfahrungen zu kategorisieren, sie in eine Klasse zusammenzufassen und sie funktionell gleich zu behandeln. Sie umfassen die Eigenheiten oder Relationen, die eine Klasse von Objekten und Ideen gemeinsam sind. Konzepte haben also Vorhersagekraft. Die Zuordnung eines Objektes zu einem bestimmten Konzept wird Kategorisierung 41 bezeichnet. Zur Erinnerung, die wichtigsten Theorien: Kritische Merkmalstheorie: Ein Konzept wird charakterisiert durch das Vorhandensein einer genügenden Anzahl notwendiger Merkmale. Prototypentheorie: Ein Konzept wird charakterisiert durch einen Prototyp, welcher der zentralen Tendenz der Merkmale aller Exemplare des Konzepts entspricht. Exemplarbasierte Theorien: Ein Konzept wird charakterisiert durch eine Sammlung von Exemplaren. Wörter sind Konzepte, Begriffe oder ein oder mehrere Morpheme. Unser gesammtes Wissen über die Wörter unserer Sprache, d.h. unser Wortschatz, ist im Langzeitgedächtnis gespeichert. Psycholinguisten sprechen vom mentalen Lexikon. Wir kennen passiv mehr Worte als wir aktiv benutzen. Die Relation von Worten und ihrer Bedeutung ist relativ beliebig, so kann ein Objekt mit mehreren Worten bezeichnet werden oder ein Wort bezeichnet mehrere Konzepte: Hund = chien (franz.) = perro (span) Manche Konzepte werden mit mehreren Wörtern versprachlicht: sich verlieben, mit dem Hund Gassi gehen Idiome sind Ausdrücke, in denen Wörter zu nichtwörtlichen Bedeutungen kombiniert werden: Auf die Palme bringen, im Eimer sein, an die Decke gehen, etc. Auch gibt es Wörter, denen mehrere, unterschiedliche Konzepte zugeordnet sind: Schimmel = weißes Pferd oder Schimmelpilz Kommen neue Konzepte hinzu, dann werden neue Wörter gebildet oder aus einer anderen Sprache übernommen, e-mail, zappen oder simsen. Sprachproduktion: Jedes Wort ist eine -meist einzigartige- Kombination von Phonemen. Zwerchfell, Brustkorb, Zwischenrippenmuskulatur, Atmungsmuskulatur, Lungen, Bronchien, und Luftröhre erzeugen gemeinsam den für die Sprachproduktion nötigen Luftstrom. Die wesentlichen Lautartikulationen erfolgen im Mundraum, in geringerem Ausmaß in der Nasenhöhle bzw. im Rachen. Der Luftstrom, der bei der Produktion von Vokalen entsteht, wird außerhalb des Kehlkopfs nicht behindert. Unterschiedliche Vokale entstehen durch verschiedene Formungen von Rachen, Nasen- und Mundraum. Dagegen wird bei Konsonanten der Luftstrom im Mundraum, teilweise auch im Nasen- oder Rachenraum mehr oder weniger stark behindert. Die allermeisten Wortlaute entstehen durch exhalatorische Luftströme, die zuerst an den Stimmbändern modifiziert werden können. Durch bloße Öffnung, ohne weitere Beteiligung der Stimmbänder entstehen stimmlose Laute. Bei stimmhaften Lauten schwingen die Stimmbänder regelmäßig und versetzen den Luftstrom somit in Schwingungen. Orale und nasale Laute Die nächste Veränderung des Luftstroms kann durch den weichen Gaumen (Velum) erfolgen. Senkt sich der weiche Gaumen, strömt Luft in den Nasenraum, und es entstehen bei oralem Verschluss nasale Laute ([m], [n], [N]), bei oraler Öffnung, nasalierte Laute. Ist der Nasenraum verschlossen, werden orale Laute produziert ([p], [s], [a]). Artikulationsorte Was unterscheidet jetzt aber z.B. die beiden stimmhaften, nasalen Laute [n] und [m]? Es sind die verschiedenen Artikulationsorte, die zwischen Lippen und Zäpfchen liegen. Mit Ober- und Unterlippe werden labiale Laute gebildet. Wenn sich die Zunge am knöchernen Wulst hinter den Zähnen befindet, werden alveolare Laute gebildet. Velare Laute werden produziert, indem mit der Zunge der weiche Gaumen angesteuert wird. 42 Weitere Artikulationsorte sind: labiodental (Unterlippe und Zähne), interdental (Zunge zwischen den Zähnen), platal (Zunge am harten Gaumen hinter der Zahnwulst). Es gibt in der deutschen Sprache keine Laute, die mit Zäpfchen oder Rachen gebildet werden. 43 Art der Artikulation Noch können wir [s] und [t] nicht unterscheiden. Was diese beiden Laute unterscheidet ist die Art der Bloackade des Luftstroms, anders gesagt Art der Artikulation. Man unterscheidet: • Plosive: Bei den Lauten [p], [t] oder [k] wird der Luftstrom kurzfristig vollständig blockiert, er "explodiert". Man nennt diese Laute deshalb Plosive. • Frikative: Bei einer teilweisen Blockade des Luftstroms, wie beim [s], kommt es zu Turbulenzen des Luftstroms. Man nennt diese Laute Frikative. • Liquide: Gibt es eine teilweise Verengung des Luftstroms ohne richtige Turbulenzen, entstehen sogenannte Liquide, z.B. [l] und [r]. • Nasale: Senkt sich der weiche Gaumen, strömt Luft in den Nasenraum, und es entstehen bei oralem Verschluss nasale Laute, z.B. [m] und [n] • Vokale: Luftstrom ist ungehindert, z.B. [a] und [o] Die Tabelle fasst Art und Ort der Artikulation sowie Stimmhaftigkeit zusammen: Wie lesen wir? Anscheinend gibt es zwei Arten des Lesens: das Phonetische Lesen und die Ganzwortereknnung. Beim phonetischen Lesen werden die Buchstaben in lautliche Einheiten umgewandelt und die Einheiten werden zusammengesetzt. Hinweis darauf ist, dass wir auch Pseudowörter, bedeutungslose Buchstabenfolgen, lesen können, wie z.B. "Gemirf" und "Bofalka". Davon unabhängig gibt es auch die Ganzwort-Erkennung, bei der das Wort erkannt wird, ohne dass die Buchstaben einzeln in Laute umgewandelt werden. Versuche folgenden Satz zu lesen: Der Mnan kufat enie Zieutng. Die meisten Menschen können diesen Satz ohne nennenswerte Schwierigkeit schnell lesen. Möglicherweise ist bei jeder Wortform kodiert, aus welchen Silben sie aufgebaut ist. 44 Morphologie Worte sind kleinsten bedeutungstragenden Einheiten - den Morphemen - zusammengebaut. Man unterscheidet freie Morpheme (trinken), die alleine stehen können, von gebundenen Morphem (be-, -lich), die nicht alleine stehen können. Gebundene Morpheme, die am Anfang stehen, heißen Präfixe; die die am Ende stehen heißen Suffixe. Flexion: Die einfachste Form der morphologische Komplexität heißt Flexion, wozu die Deklination von Substantiven und Adjektiven (klein-er Hund, klein-e Hund-e), die Konjugation von Verben (macht-e, ge-macht), Diminutive (Kind-chen) sowie Komparative und Superlative (schön-er, schön-st) gezählt werden. dabei werden an den Wortstamm, d.h. den Teil des Wortes, der übrig bleibt, wenn alle Endungen entfernt sind, gebundene Morpheme angehängt. Bei Flexion bleibt die Wortklasse gleich (Adjektiv bleibt Adjektiv etc.). Derivation: Beim morphologischen Prozess der Derivation ändert sich meist die Wortklasse. Durch Suffixe wie -lich, -bar oder -sam werden aus Substantiven Adjektive oder Adverbien. Substantive entstehen, wenn dem Wortstamm Morpheme wie -heit oder -ung angehängt werden. Verben entstehen, wenn man dem Wortstamm -en oder -ieren anhängt. Manchmal wird ein Präfix wie be- oder ver- angehängt. Komposition: Kompositionen bezeichnen morphologische Prozesse, bei denen aus mehreren Substantive und/oder Adjektive und/oder Verben kombiniert werden (Merk-Zettel, wunder-schön, staub-saugen, etc.). Manchmal werden Fugenmorpheme eingebaut, wie -zuin zusammenzufassen. Auch bei Kompositionen kann sich die Wortklasse ändern. Eine viel diskutierte Frage ist, ob und wie sich diese morphologischen Zusammenstellungen im mentalen Lexikon widerspiegeln. Generell unterscheiden sich Modelle des mentalen Lexikons in ihren Annahmen, wie morphologisch komplexe Wörter - ob flektiert, deriviert 45 oder zusammengestellt - abgespeichert sind. In einigen Modellen sind komplexe und einfache Wörter im mentalen Lexikon gleich repräsentiert: sowohl Stuhl wie auch Rosenzüchterverein haben einen eigene Wortform. Andere gehen davon aus, dass nur einzelne Morpheme gespeichert sind, die beim sprechen zusammengefügt, bzw. beim Lesen oder Hören zergliedert werden. Auch Kombinationen der Modelle existieren, wie z.B. dualcoding Modelle Experimente haben z.B. gezeigt, dass bei Komposita, wie "Frauenzimmer" die Bedeutung der enthaltenen Wörter wie Zimmer aktivieren, trotz der Abwesenheit eines bedeutungsmäßigen Zusammenhangs zwischen den Wörtern. Strukturelle Wortmerkmale In unserem mentalen Lexikon ist auch gespeichert, welche Funktion Wörter in den Strukturen des Satzes einnehmen können. Die Wortklassenzugehörigkeit ist ein ersetztes strukturelles Merkmal, das für die Syntax des Satzes wichtig ist. Für jedes Wort ist kodiert, ob es sich um ein Substantiv, ein Verb ein Adjektiv/Adverb oder eine Präposition, einen Artikel etc. handelt. Auf dieser Ebene sind nicht einzelne Morpheme, sondern vollständige, komplexe Wörter wichtig. Subkategorisierungsinformationen bestimmen einen syntaktischen Rahmen, in denen die Wörter eine Rolle spielen. Wörter wie schlafen oder schenken unterscheiden sich hinsichtlich ihres Subkategorisierungsrahmens: Schlafen kann nur mit einem Substantiv, welches die Rolle eines Subjekts annimmt gepaart werden (Hans schläft). Schenken dahingegen kann mit einem Substantiv, dass die Rolle eines Objekts einnimmt, gepaart werden (Hans schenkte seiner Frau einen Blumenstrauß). Ein Lemma bezeichnet die strukturell-syntaktischen Merkmale eines Wortes. In einem lemma sind also Wortklasse, das Genus, der Subkategorisierungsrahmen etc. enthalten. 46 Wie viele mentale Lexika haben Bilinguale? Forscher gehen davon aus, dass jeder Sprecher nur ein konzeptuelles Gedächtnis besitzt, in dem das Wissen, welches versprachlicht werden kann, gespeichert ist. Bilinguale haben jedoch mehrere Worte für das selbe Konzept: Hund, chien, dog. Folglich unterscheiden sich Wortformen und unter Umständen auch die Lemmas. Anscheinend ergeben sich Unterschiede, je nachdem in welchem Alter man eine Sprache gelernt hat und wie gut man eine Sprache beherrscht. Wer seine zweite Sprach spät lernt und nicht gut beherrscht hat natürlich einen kleinen Wortschatz und direkte Verbindungen zwischen den Wortformen und der Muttersprache. Die Wortformen von L2 können anfänglich nur über Verbindungen zu den Wortformen in L1 mit dem konzeptuellen Gedächtnis in Verbindung treten. Mit zunehmender beherrschung der Zweitsprache bilden sich direkte Verbindungen zwischen den Wortformen von in L2 und den Konzepten. Bei Menschen, die fast perfekt zweisprachig sind, werden die Querverbindungen zwischen den Wortformen der beiden Sprachen schwächer. 47 Probleme bei auditiver Worterkennung Es geht darum, wie wir im kontinuierliche Fluss von Sprachklängen Worte erkennen und entdecken. Psycholinguisten nehmen an, dass für jedes Wort eine Beschreibung der lautlichen Zusammenstellung im mentalen Lexikon exisitert. Diese Beschreibung nennen wir Wortform. Wortformen müssen genügend abstrakt und variable sein, um die Variabilität gesprochener Sprache gerecht zu werden. Segmentierungsproblem: Bei geschriebener Sprache können wir Wörter mit Leerzeichen trennen. In der gesprochenen Sprache gibt es keine Entsprechung für die Leerzeichen, mit denen wir Wörter trennen. Es gibt keine systematischen Pausen, die das Ende eines Wortes (oder Phonems) anzeigen und der Sprachfluss ist zwischen Wörtern oft nicht unterbrochen. Außerdem besteht das Problem, dass Wörter nur aus einer endlichen Zahl an Silben bestehen; Wörter entahlten auch andere Wörter (wie Du in Duden) und es entstehen andere Wörter (Schund in Busch und... ). Variabilität gesprochener Sprache: Sprache ist variabel, wir reden laut, leise, schnell oder langsam, sorgfältig oder schludrig. Wir verstehen geflüsterte Sprache und Sprache mit leichtem Akzent. Von Tonlage, Stimmhaftigkeit, Intonation und Sprechgeschwindigkeit können wir mitunter auf soziale Informationen schließen. Sprecher artikulieren nicht ein Phonem nach dem anderen, sondern Phoneme werden vielfach überlappend artikuliert (Koartikulation). Die Bewegung der Artikulatoren spiegeln nicht nur das aktuell produzierte Phonem wieder, sondern auch das vorherige und das nachfolgende. Koartikulationen führen dazu, dass akustische Eigenschaften und phonetische Kategorien einander nicht eindeutig zugeordnet werden können. Menschen können etwa 4-7 Wörter pro Sekunde verstehen, abhängig von der Länge der Wörter. Das sind etwa 170-250 ms pro Wort. 48 Auditive Worterkennung: Kohortenmodell: Parallele Verarbeitungsmodelle dominieren derzeit das Forschungsgeschehen. Beim Kohortenmodell der Spracherkennung werden phonetische Eigenschaften werden extrahiert und auf unterspezifizierte lexikalische Repräsentationen abgebildet. Sobald Sprachsignal und lexikalische Repräsentation in wichtigen phonologischen Eigenschaften abweichen, wird die betreffende Repräsentation deaktiviert. Ein Selektionsmechanismus, der sicherstellt, dass nur ein Wort erkannt wird, wird über die Zeit zunehmend spezifischer. Beispiel: Im Deutschen sind alle Nasale [n], [m] oder [η] stimmhaft. Das Merkmal stimmhaft wird bei Nasalen Phonemen nicht gespeichert, es ist vorhersagbar. Markierte, also nicht erschließbare Information wird dahingegen gespeichert. Im Fall der eben aufgeführten Nasale ist der Ort der Artikulation für [m], labial, und [η], velar, spezifizierbar. Der Artikulationsort für [n], alveolar, ist vorhersagbar und deswegen nicht spezifiziert. Das Wort lebensmüde wird oft mit einem assimilierten [m] ausgesprochen, /le:bmsmydә/ statt /le:bnsmydә/. Während das erste [m] ein assimiliertes [n] ist, ist das zweite [m] nicht assimiliert. Ein einfacher Assoziationsmechanismus würde in beiden Fällen [m] zu [n] verändern. Das Kohortenmodell kann aber lernen, assimilierte und nichtassimilierte Phoneme zu unterscheiden. TRACE-Modell: Das interaktive Aktivierungsmodell TRACE unterscheidet drei Ebenen: die phonologische Merkmalsebene, die Phonemebene und die Wortebene. Auf jeder Ebene existiieren lokale Repräsentationen, d.h. die Aktivierung einer Einheit steht für das Vorhandensein einer Eigenschaft. Bidirektionale, aktivierende Verbindungen leiten die Aktivierung zwischen den Ebenen weiter. Es existieren zwischen den Verbindungen hemmende Verbindungen (laterale Hemmung), sodass auch minimale Paare unterscheidbar werden. Ein Sprachsignal wird auf erster Ebene abgebildet, die phonologischen Eigenschaften (Merkmale wie nasal oder plosiv) enthält. Je besser ein bestimmtes Merkmal zum Sprachsignal passt, desto stärker wird es aktiviert. Die Aktivierung der Merkmale wird an die Phonemebenen weitergeleitet. Je mehr Merkmale eine Phonemrepräsentation aktivieren, desto größer ist dessen Aktivierung. Die Phonemeinheiten ihrerseits aktivieren alle Worteinheiten, in denen sie enthalten sind. Durch die Verschaltung zwischen den Ebenen können Koartikulationseffekte kompensiert werden. Sobald eine Wortrepräsentation aktiviert wird, aktiviert sie rückwirkend (top-down-Aktivierung) die in ihr enthaltenen 49 Phoneme. Schließlich wird das Wort "erkannt", das am stärksten aktiviert wird. Im Gegensatz zum Kohortenmodell benötigt TRACE keine genaue Passung von Sprachsignal und lexikaler Repräsentation. Priming Das Priming-Paradigma: Ein Durchgang in einem Priming-Experiment besteht aus mindestens zwei Ereignissen: Zuerst wird ein Vorreiz (Prime) kurz dargeboten, auf den die Teilnehmer nicht reagieren müssen. Dann erscheint der Zielreiz (Target), auf den eine Reaktion erfolgen soll. Der Priming-Effekt wird typischerweise bestimmt, indem man die Reaktionszeit der verwandten Bedingung von der Reaktionszeit der unverwandten Bedingung abzieht. Die Differenz ist der Priming Effekt. Ist die Differenz positiv, spricht man von Erleichterung, ist sie negativ, von Hemmung (inhibition). Die Mechanismen, die zugrunde liegen, sind noch unklar. Für semantisches Priming werden häufig drei verschiedene Mechanismen herangezogen: automatische Ausbreitung von Aktivierung von verwandten Konzepten, Erwartungen, die Versuchsteilnehmer generieren, und semantischer Abgleich von Vor- und Zielreiz. Unter Priming versteht man in der Psychologie, dass die Reaktionszeit (Fehler, Identifikationsrate) auf einen Stimulus (Target, Zielreiz), auf den die Versuchsperson reagieren soll, durch einen vorangegangenen Stimulus (Prime, Vorreiz) beeinflusst wird. Das Bild-Wort-Paradigma: Die Aufgabe der Versuchsperson ist es, einzelne Bilder zu benennen, die als Zielreiz dienen. Der Vorreiz, hier fast immer Ablenker genannt, ist ein gesprochenes oder gedrucktes Wort. Häufig wird der zeitliche Abstand, die Asynchronie, zwischen den Darbietungen des Ablenkungswortes und des Bildes variiert (SOA, stimulus onset asynchrony). Es hat sich gezeigt, dass phonologische und morphologische Verwandtschaft zwischen Wort und Bild die Bildbenennung erleichtert. Bestimmte semantische Beziehungen verlangsamen die Bildbenennung. 50 51 Anwendung aller obigen Beispiele: Das Sprechen der Wörter, aus denen eine Äußerung besteht, erfolgt normalerweise schnell und mühelos. Trotzdem erbringt unser Sprachproduktionssystem auch bei einer einfacher Äußerung wie "Kaffee" auf die Frage, was man trinken möchte eine beachtliche Leistung. Zuerst muss auf der konzeptionellen Ebene entschieden werden, was wir nun tatsächlich trinken möchten: Tee, Wein, Saft oder eben doch Kaffee? Wenn wir uns für Kaffee entschieden haben, wird das lexikale Konzept KAFFEE bereitgestellt. Dieses lexikale Konzept ist mit mehreren verwandten lexikalen Konzepten verbunden, u.a. mit BOHNE, MILCH, ZUCKER, SCHWARZ. Wichtig ist, dass verwandte Konzepte sich gegenseitig aktivieren. Das lexikale Konzept KAFFEE aktiviert auf sprachlicher Ebene seine syntaktischen Merkmale, d.h. sein Lemma. Lemmas kodieren strukturelle, syntaktische Informationen, die für die Position und Funktion der Wörter im Satz notwendig sind. Sie enthalten keine semantischen Informationen - die sind im konzeptuellen Gedächtnis gespeichert -, haben aber eine direkte Verbindung zu den lexikalen Konzepten. Wenn nun das lexikale Konzept KAFFEE bereitgestellt und gleichzeitig auch verwandte lexikale Konzepte aktiv sind (BOHNE, ZUCKER etc.) führt dies aber automatisch zu einer teilweisen Aktivierung der Lemmas dieser Konzepte, obwohl die Konzepte nicht versprachlicht werden sollen! Das Ergebnis ist eine Konkurrenz zwischen aktivierten Lemmas,der entschieden werden muss, da ja nur ein Wort gesprochen werden soll. Für diese Konkurrenz gibt es mittlerweile eine Fülle von Belegen, die mit dem Bild-WortInterferenzparadigma erzielt wurden. Dabei benennen Versuchspersonen Bilder einfacher Objekte (z.B. einen Tisch) und hören oder lesen kurz vorher ein Ablenkungswort (z.B. Stuhl). Wenn wir in diesem Beispiel, Bild und Wort aus derselben Kategorie stammen, dauert die Bildbenennung etwas länger, als wenn ein nchtverwandtes Wort (Milch) dargeboten wird. Die Konkurrenz der Lemmas führt manchmal dazu, dass ein Lemma ausgewählt wird, welches nicht dem intendierten lexikalen Konzept entspricht; das ergibt einen Versprecher: Die Person sagt "Saft" statt "Kaffee". Meist bemerkt diese Person den Fehler und korrigiert sich. Wir können solche "Versprecher" aber auch schon vor der Aussprache korrigieren. Wird beim Verstehen und Sprechen auf die gleichen Informationen im Wortgedächtnis zugegriffen? Unser gesamtes Wissen über die Welt, welches in konzeptuellen Netzwerken im Langzeitgedächtnis gespeichert ist, ist dasselbe, egal ob wir sprechen oder Sprache verstehen. Ist es auch dasselbe sprachliche Wissen im mentalen Lexikon? Man ist sich einig, dass Lemmas für Sprechen und Verstehen identisch sind. Das gilt auch für Morpheme. Die 52 Frage ist nur, ob sich die Wortformen für die Sprachproduktion und die Sprachwahrnehmung unterscheiden. Erkenntnisse aus Priming-Experimenten lassen zwei Interpretationen zu. Entweder sind die Wortformen der Wahrnehmung und der Produktion grundsätzlich andere oder sie sind die gleichen, werden aber bei der Wahrnehmung und dem Sprechen anders beansprucht und verarbeitet. Wenn es getrennte Wortformspeicher für Sprechen und Verstehen gibt, ist erklärungsbedürftig, wie über Wahrnehmung verarbeitete Wortformen die Wortformen des Sprechens überhaupt beeinflussen können. In dem anderen Fall der gemeinsamen Wortformen könnte die Erklärung der divergenten Effekte auf grundsätzlich unterschiedliche Funktionen der Wortformverarbeitung zurückgehen. Bei der Sprachwahrnehmung muss auf der Ebene der Wortformen entscheiden werden, welches Wort gehört oder gelesen wird. Das ist umso schwieriger, je mehr sich zwei Begriffe ähneln (Keller und Kelle). In vielen Modellen wird für diese Entscheidung eine Konkurrenz zwischen Wortformen angenommen. Diese Konkurrenz besteht beim Sprechen nicht: Die Entscheidung welches Wort gesprochen werden soll, wird nicht auf Ebene der Wortformen, sondern auf konzeptuellen sowie der Lemmaebene gefällt. Aphasien Der Begriff Sprachstörung (Aphasie) bezieht sich auf Störungen beim Schreiben (Agraphie), beim Lesen (Alexie), beim Versuch Verstehen oder der Produktion von Sprache. Störungen, die auf interlektuelle oder sensorische Beeinträchtgungen, Lähmungen oder Fehlkoordinationen, z.B. des Mundes, zurückzuführen sind, gehören nicht zu Aphasien. Aphasien entstehen durch Schädigungen der an der Sprachproduktion und Sprachverständnis beteiligten Gehirnareale. Die beiden bekanntesten Aphasien sind die Broca-Aphasie und die Wernicke-Aphasie, die durch eine Läsion des Broca- bzw. Wernicke-Areal verursacht sind. Vereinfacht gesagt ist das Broca Areal für grammatische Aspekte der Sprache zuständig, das Wernicke Areal für das Sprachverständnis. Als Leitungsaphasie bezeichnet man eine Störung des Fasciculus arcuatus, bei der sowohl das Sprachverständnis als auch die Sprachproduktion intakt sind. Stark beeinträchtigt ist 53 lediglich die Fähigkeit zum Nachsprechen, da hierzu die Weiterleitung der verstandenen Sequenzen vom Wernicke-Areal über den Fasciculus arcuatus in das für die Sprachproduktion zuständige Broca-Areal notwendig ist. Die wichtigsten Aphasien sind in der Tabell aufgeführt: Denken Ein häufig verwendeter Einstieg ist, das Denken als "Sprache unseres Geistes" zu verstehen. Einerseits erleben wir in uns einen Gedankenstrom, den wir gewissermaßen im Geiste "hören" können und der sprachliche Ähnlichkeit zeigt (vrgl "Mind's Ear"). Dieses Denken wird als propositionales (bedeutungsbezogenes) Denken bezeichnet. Andererseits erleben wir einen eher bildhaft ablaufenden Gedankenstrom, der it der Vorstellungen verbunden ist, die wir im Geiste "sehen" können. es wird als bildhaftes Denken bezeichnet. Daneben lässt sich eine weitere Gedankenart festmachen, die eher mit Bewegungsabläufen korrespondiert. Dies wird als motorisches Denken (motoric thought) bezeichnet. Man geht im Wesentlichen von zwei Arten der mentalen Repräsentation aus: • eines bedeutungshaften, propositionalen Denken, das oft sprachlich ist (z.B. in Gedanken dieses Skript wiederholen), oder • ein bildhaftes oder analoges Denken, dass innere Vorstellungen von Dingen betrachtet (z.B. sich Überlegen, wie man Fahrrad fährt). Propositionales Denken Das bedeungsbezogene Denken ist charakterisiert durch einen hohen Grad der Abstraktion, die von der (sensorischen) Erfahrung, die ursprünglich zum Aufbau des Wissens geführt hat, wegführt. Die Abstraktion umfasst die Löschung vieler wahrnehmungsbezogener Details und das Extrahieren der wichtigsten Beziehungen zwischen den Inhaltselementen, die zum Beispiel durch Propositionen und ihren Verbindungen repräsentiert sind. Statt mit der ursprünglichen Wahrnehmung agieren wir im Denken vornehmlich mit Konzepten. Konzepte sind ökonomisch, da wir nicht jedes Objekt separat einspeichern müssen, und haben Vorhersagekraft, da ein Konzept eine Reihe von Merkmalen erwarten lässt. Bildhaftes Denken Es gibt einige Evidenzen, dass das bildhafte Denken auf einigen Prozessen beruht und auf gleiche Repräsentationen zurückgreift, wie auch bei der Wahrnehmung eine Rolle spielen (vrgl Shepard & Feng 1972, Shepard & Metzler 1971 zu mentaler Rotation oder 54 Manipulation von Objekten und Brooks 1968 zu mentaler "Abtastung" von Objekten). Bei dieser Art von Denken betrachten wir geistige Repräsentationen von Objekten und können diese metal manipulieren. Jedoch, die Repräsentationen sind auf die wichtigsten Objektmerkmale reduziert und unwichtige Details fehlen, schon aus ökonomischen Gründen. Auch können mentale Repräsentationen durch unsere Erfahrungen oder Erwartungen verzerrt sein (vrgl Moar 1978 zur mentalen Repräsentation der Umrisse von England) Schlussfolgerndes Denken Schlussfolgerndes oder logisches Denken, auch reasoning genannt, bezeichnet die kognitiven Vorgänge, durch deren Verlauf aus vorhandenem Wissen neue oder weitere Erkenntnisse gewonnen werden. Deduktives Denken bezeichnet eine zwingende Form der Ableitung neuer Aussagen aus vorgegebenen Aussagen. Letztere werden als Voraussetzungen, Prämissen oder Antecedens (lat. antecedere - vorausgehen) bezeichnet, der daraus abgleitete Schluss als Konklusion. Beispiel: Syllogismen: 1. Alle Kreter sind Lügner (Prämisse) 2. Epimenides ist ein Kreter (Prämisse) 3. Eoimenides ist ein Lügner (Konklusion) Induktives Denken bezeichnet in der Logik der Schluss bezeichnet , der von einem oder wenigen Fällen (dem Besonderen) auf alle Fälle einer Gesamtheit (das Allgemeine) schließt. Induktives Denken ist zumeist unvollständig, dass heißt, dass wir niemals die Gesamtheit aller Fälle prüfen können und der Aussage nur eine gewisse Wahrscheinlichkeit zukommt. Ein Gegenbeispiel reicht, um die Aussage zu widerlegen. Beispiel: Die Schwänne am See sind alle weiß. Daraus schließe ich, dass alle Schwänne weiß sind. Ein einziger schwarzer Schwann genügt, um die Aussage zu widerlegen, egal wie viele weiße Schwänne ich beobachtet habe. Das Bayes-Theorem liefert einen Weg , um den Grad der Plausibilität zu bestimmen, mit der bei konditionalen Syllogismen Fehlschlüsse auf das Eintreten der Konklusion auftreten. Der Mensch ist üblicherweise weit davon entfernt, Wahrscheinlichkeiten auf der Basis solch komplizierter Regeln zu schätzen und greift eher zu Heuristiken (Daumenregeln), um auf der Basis weniger Fakten Entscheidungen zu treffen. Problemlösen Um einen erwünschten Zustand zu erreichen verwenden Tier üblicherweise reine VersuchIrrtums-Strategien. Menschliches Problemlösen ist zielgerichtet und besteht in der Reduktion der Diskrepanz zwischen (1) einem Ausgangszustand (Beginn des Problemlöseprozesses) und (2) einem Zielzustand, der durch die Lösung erreicht werden soll, und (3) den Operatoren (Regeln, Hilfen, Schritte), mit deren Hilfe die Diskrepanz überwunden werden kann. Zielgerichtete Problemlösen hat drei wesentliche Merkmale • Es ist zielgerichtet • Zerlegung in Teilziele • Anwendung von Operatoren. Gut definierte Probleme sind einfacher zu lösen, da Ausgangszustand, Zielzustand und Operatoren klar umrissen sind (z.B. algebraische Problemlösung). Es ist klar, was man machen muss, welche Regeln und Hilfsmittel erlaubt sind und wie man sie einsetzen darf. Schlecht definierte Probleme entbehren solcher klarer Definitionen und lassen sich daher schlecht erfassen (z.B. Bau eines Hauses). 55 Operatoren Probanden tendieren dazu, Zustandswiederholungen zu vermeiden und zunächst den Operator zu verwenden, der die größte Unterschiedsreduktion bewirkt (man tendiert also zunächst zu der Unterschiedsreduktions-Methode) Funktionale Fixierung Funktionale Fixierung bezeichnet die Tendenz, wahrgenommene Objekte in ihrer üblichen Problemlösefunktion kognitiv zu repräsentieren, wodurch das Erfassen auch anderer möglichen Funktionen erschwert oder gar verhindert wird. Beispiel: Man soll eine Schlucht überqueren und hat eine Leiter, Steine, Werkzeug und eine unendliche Menge Seil zur Verfügung. Die Funktionale Fixierung verhindert, dass wir das Seil als Mittel erkennen, die Schlucht aufzufüllen, da wir es als Kletterhilfe repräsentieren. Problemlösestrategien Methode der Unterschiedsreduktion: Wir vergleichen den Ausgangs- mit dem Endzustand. Die Distanz zwischen dem Ausgangszustand und dem Zielzustand wird in Teilziele unterteilt. Wir suchen Schritt für Schritt Operatoren aus, die den Unterschied zwischen dem aktuellen und dem Zielzustand direkt reduziert. Die Gefahr besteht darin, auf Abwege zu gelangen, wenn das Ziel nicht direkt, sondern nur auf Umwegen zu erreichen ist. Methode der Mittel-Ziel-Analyse: Wir vergleichen den Augangs- mit dem Endzustand, um die wichtigsten Unterschiede zu erfassen. Nun überlegen wir uns, welche Teilziele wir bestimmen können und welche Operatoren am geeignetsten sind, um diese zu erreichen. Das kann beinhalten ein Teilziel zu erreichen, dass einen Operator freischaltet, statt die Diskrepanz zwischen Ausgang und Ziel zu verringern. Im Vergleich zur UnterschiedsReduktionsstrategie bedeutet das, dass auch Operatoren (Handlungen) zur Anwendung kommen können, die nicht geradlinig zu einer Differenzreduktion beitragen, sondern im Gegenteil zeitweilig die (Entfernungs-) Differenz sogar vergrößern. Dennoch verspricht dieser Schritt die schnellstmögliche Problemlösung. Methode der Rückwärtsanalyse: Bei dieser Methode wird versucht, die bestmögliche Strategie ausfindig zu machen, indem man vom Zielzustand ausgeht und überlegt, welche Teilziele und Operatoren am besten geeignet scheinen. Dieser Ansatz ist besonders erfolgreich, wenn der Ansatz von der einen Seite leichter zu erkennen ist, als von der anderen (wie bei manchen Labyrinth-Aufgaben). 56 Fragen: Prüfungsfragen des Sommesemesters 2009: 1.) a) Definieren sie das sensorische Gedächtnis und erklären sie die Komponenten die hierin vorkommen. b) Beschreiben sie die klassischen Untersuchungen von Sperling (1963) zum sensorischen Gedächtnis. 2.) a) Erklären sie das klassische Experiment zum Vergessen von Ebbinghaus. b) Erklären sie die Theorien zum Vergessen und dazugehörige empirische Befunde. 3.) Erklären sie die Theorien von Kategorisierung und welchen Gültigkeitsbereich diese Theorien nach ihrer Meinung haben. Sonstige Fragen: 1.Beschreiben Sie das Arbeitsgedächtnismodell nach A.Baddeley 2.Welche Evidenz gibt es für die phonologische Schleife? In welchem Zusammenhang steht die phonologische Schleife mit den anderen Komponenten von Baddeleys Arbeitsgedächtnismodell? 3. Was ist der Wortlängeneffekt und wie wird er erklärt? 4. a) Erläutern sie die Ein-Speicher-Theorie und die Zwei-Speicher-Theorie. b) Stellen sie die Unterschiede zwischen den beiden heraus. 5. a) Was versteht man unter seriellen Positionseffekten? Gehen Sie speziell auf den Primacy- und den Recency-Effekt ein. b)Wie werden diese Effekte beeinflusst durch die Variation des zeitlichen Abstandes zwischen Einprägen und Abruf oder durch artikulatorische Suppression? 6. Welche Unterteilung des Langzeitgedächtnisses ist sinnvoll und Warum? 7. Was ist proaktive, was retroaktive Interferenz und wie könnte man diese empirisch überprüfen? 57 8. a) Definieren Sie kurz den Begriff der Amnesie b) Beschreiben sie, inwieweit die Befunde bei dem amnestischen Patienten H.M. zur Auffassung geführt haben, beim Kurz- und beim Langzeitgedächtnis handele es sich um verschiedene Systeme. c) Wie kann man auch an gesunden Probanden zeigen, dass Kurz- und Langzeitgedächtnis verschiedene Systeme sind? 9. Diskutieren Sie, inwieweit wir Fertigkeiten in ähnlicher Weise über die Zeit vergessen wie Inhalte des expliziten Gedächtnisses. 10. Erläutern Sie, wie wir Sprachlaute produzieren. Gehen Sie dabei anhand ausgewählter Beispiele auf die Unterscheidung nach „Art der Artikulation“ , „Ort der Artikulation“ und „Stimmhaftigkeit“ ein. 11. Welche Theorien zur Kategorisierung gibt es und wie ist deren Gültigkeit einzuschätzen? 12. Welche Herausforderungen bestehen für den Menschen beim Verstehen von gesprochener Sprache im Vergleich zum Verstehen von Schriftsprache? 13. Beschreiben Sie den Aufbau und die Auswertung eines typisches Priming-Experiments. 14. Beschreiben sie zielgerichtetes Problemlösen. Keine Prüfungsfragen, aber um das Wissen zu "organisieren": 14. Du hast eine alphabetische Liste von 100 lateinischen Vokabeln mit Übersetzung. Wie lernst Du sie am effektivsten? Stichworte: Verarbeitungstiefe, release from proactive inhibition (weil alphabetisch geordnet) begünstigt vergessen, Retrieval Cues in Form von Geschichten erfinden (z.B. Gedächtnispalast, siehe Wikipedia), Organisation in Themenbereiche (vrgl Bower et. al., 1969), phonologische Ähnlichkeit vermeiden (siehe Baddley 1966), Abruf trainieren (siehe Tulvig 1967) 58