Prof. Becker / Kognitive Psychologie: Lehrbuch Anderson 1. Definition und Ziel: Die kognitive Psychologie beschäftigt sich mit den menschlichen Erkenntnisprozessen. Ziel ist, das Wesen der menschlichen Intelligenz und ihre Funktionsweise zu erfassen. 2. Leitvorstellung: Leitidee ist die Auffassung vom Menschen als ein informationsverarbeitenden Systems. 3. Eigenschaften eines informationsverarbeitenden Systems. - komplexe mentale Ereignisse lassen sich in elementare Ereignisse zerlegen, die Informationsverarbeitungsstufen mit jeweils eigenen Merkmalen darstellen und aufeinander folgen. - jede Stufe liefert einen Output, der den Input für die nächste Stufe darstellt. - Verarbeitet wird eine abstrakte Größe, Information genannt - Formal werden informationsverarbeitende Systeme als Flussdiagramme dargestellt. - Beispiel für ein sich an diesem Ansatz orientierendes Modell ist das Modell von Sternberg. 4. In anderer Form ist auch der Behaviorismus wieder aufgelebt. Vertreter des ökologischen Ansatzes und der situierten Kognition betonen, dass in der Struktur der Umwelt die adäquate Erklärung für menschliches Wahrnehmen und Erkennen liegt. 5. Situationen haben einen Aufforderungscharakter. Sie signalisieren Verhaltensmöglichkeiten, die unmittelbar erkannt werden können. 6. Akzeptiert man als Leitidee die Auffassung vom Menschen als informationsverarbeitendes System, stellt sich die Frage, auf welcher Ebene die Analyse einsetzt. Es ist nicht die physiologische Ebene. Zum einen ist diese Ebene technisch nicht realisierbar, wenn man von der plausiblen Annahme ausgeht, dass an einer mentalen Operation wie z.B. die Addition zweier Zahlen Millionen Nervenzellen oder Neurone beteiligt sind. Zum anderen ist diese Erklärungsebene viel zu detailliert, da als Erklärung eine Liste des Verhaltens von Millionen Neuronen erstellt werden müsste, die nicht mehr überschaubar ist. 7. Die Erklärungsebene, die die Psychologie gewählt hat, entspricht der Abstraktionsebene der höheren Programmiersprachen. Erklärungen entsprechen Programmen. Von physiologischen Details wird vollständig abgesehen. Man nennt diese Erklärungen auch Theorien der Symbolmanipulation. Denken aus dieser Sicht besteht darin, aus der Außenwelt aufgenommene Informationen durch Symbole zu repräsentieren und mittels mentaler Operationen zu manipulieren. 8. Ein alternativer Erklärungsansatz zur Symbolmanipulation ist der Konnektionismus. Er sucht Denken durch das Zusammenspiel von Elementen zu beschreiben, die wie Neurone miteinander verbunden sind und sich gegenseitig erregen oder hemmen können. Informationen sind durch Aktivationsmuster repräsentiert und mentale Operationen durch Veränderungen dieser Aktivationsmuster. 9. Basis der menschlichen „Hardware“ ist das Neuron, das aus Zellkörper, Dendriten und Axon besteht und zu vielen anderen Neuronen Kontakt hat. Die Kontaktstellen werden Synapsen genannt. Neurone erzeugen elektrische Impulse, die zu anderen Neuronen laufen und diese aktivieren oder hemmen. Bei einem bestimmten Ausmaß von Aktivation an einer Zelle erzeugt die Zelle einen Impulsstoß, der sich fortpflanzt. Impulsfrequenz und Erregung und Hemmung von Neuronen (Aktivationsmuster) sind die Mittel, mit denen das Nervensystem Informationen kodiert. 10. Das menschliche Gehirn setzt sich aus verschiedenen Komponenten zusammen, von denen der Cortex die wichtigste ist. 11. Kognitive Funktionen wie z.B. Sprache haben eine gewisse Lokalisation. 12. Im Cortex gibt es eine topographische Organisation. Benachbarte Körperteile sind im Cortex in benachbarten Regionen lokalisiert. Visuelle Wahrnehmung 1. Nach dem Eintreffen von Lichtstrahlen auf die Netzhaut beginnt die aktive Verarbeitung der im Licht enthaltenen Informationen. 2. Durch spezielle Zellen (on-off-Zellen, off-on-Zellen), die sich zu Kanten- und Balkendetektoren zusammenschließen, werden Umrisse ermittelt 3. In einem zweiten Verarbeitungsschritt wird die Lage der aus 1. resultierenden Oberflächen im Raum bestimmt. Informationen über Tiefe vermitteln unter anderem Textur, Stereopsis und Bewegungsparallaxe. Die daraus resultierende mentale Repräsentation wird in Anlehnung an Marr 2,1/2 D Skizze genannt. Sie ermöglicht noch keine genaue Objektbestimmung. 4. Im dritten Verarbeitungsschritt wird bestimmt, welche Kanten und Flächen zusammengehören, also ein Objekt bilden. Diese Segmentierung des Wahrnehmungsraums in Objekte oder Gestalten erfolgt auf der Basis der Gestaltgesetze beispielsweise Nähe oder glatter Verlauf. 5. Schließlich wird in einem letzten Schritt die Bedeutung eines Objektes bestimmt. Man bezeichnet diesen Schritt als Mustererkennung. Die dominierende Theorie der Mustererkennung ist die der Merkmalserkennung und –kombination. Ob es sich um einfache Muster wie Buchstaben oder komplexere Muster wie Tiere oder Häuser handelt, stets sind Elementarmerkmale (geons bei Biederman) zu erkennen (komponentiale Erkennung) und nach der Realisation einer Kombinationsregel zu suchen. Erkennen von Sprache 1. Wie das Erkennen von Objekten beruht auch das Erkennen von Sprache auf dem Erkennen von Konfigurationen von Einzelmerkmalen. 2. Von großer Bedeutung dabei ist die Segmentierung von Sprache in Wörter und der Wörter in Phoneme als den kleinsten bedeutungstragenden Spracheinheiten. Pausen sind kein zuverlässiger Segmentierungsindikator. 3. Analog zu Buchstaben bestehen auch Phoneme aus einzelnen Merkmalen: Konsonanzmerkmal, Stimmhaftigkeit und Artikulationsort. 4. Neben dem zu erkennenden Gegenstand bzw. der Sprachäußerung selbst wird auch der Kontext als erkennensrelevante Information genutzt. Man spricht von bottom-up und top-down-Verarbeitung. 5. Kontexteffekte sind der Wortüberlegenheitseffekt - im Kontext eines Wortes wird ein Buchstabe schneller erkannt als ohne Kontext- und das Phänomen des Satzkontextes- im Kontext eines Satzes wird ein Wort schneller erkannt als ohne Kontext. 6. Ebenfalls Kontexteffekte sind das Phänomen, dass Elemente von Gesichtern wie Nase, Ohren oder Mund im Kontext eines Gesicht wesentlich schneller erkannt werden als ohne Kontext und das Phänomen, dass Teile von sinnvollen Szenen besser behalten werden als von Szenen, deren Komponenten nach Zufall zusammengesetzt wurden. 7. Die Wirkung von Kontexten beruht darauf, dass sie zusätzliche, meist redundante Informationen für das Erkennen bereitstellen. Aufmerksamkeit 1. Das menschliche Informationsverarbeitungssystem hat eine eingeschränkte Kapazität. Sie muss anliegenden Aufgaben zugewiesen werden. In der Alltagssprache wird dies mit dem Begriff der Aufmerksamkeit bezeichnet. 2. Ein klassisches Untersuchungsparadigma der Verteilung von Aufmerksamkeit bei der auditiven Wahrnehmung sind Aufgaben zum dichotischen Hören. 3. Um den Beobachtungen zum dichotischen Hören Rechnung zu tragen, entwickelte Broadbent die Filtertheorie. Sensorische Informationen durchlaufen das System bis zu einer Verengung oder Flaschenhals. Hier muss entschieden werden, welche der Informationen ausgewählt werden. Das Broadbent-Modell ist ein early selection Modell. Nur die mit Aufmerksamkeit bedachte Information wird einer semantischen Analyse unterzogen. 4. Experimente zeigen jedoch, dass auch die nicht ausgewählte Information semantisch analysiert werden kann. Andere Autoren (Deutsch & Deutsch) haben deshalb ein late selection Modell vorgeschlagen, wonach beide Informationen semantisch analysiert werden, jedoch nur auf eine reagiert werden kann, beispielsweise in Form von Beschattung. 5. Treisman nimmt mit ihrer Dämpfungstheorie eine mittlere Position ein. Bestimmte Informationen werden gedämpft, aber nicht völlig herausgefiltert. Semantische Analyse ist dann schwieriger aber nicht unmöglich. 6. Untersuchungen zur visuellen Aufmerksamkeit haben gezeigt, dass maximale visuelle Verarbeitungskapazität in der Fovea vorliegt. Periphere Teile des visuellen Feldes können jedoch auch und sogar ohne Veränderung des Fixationspunktes beachtet werden durch Verlagerung der Aufmerksamkeit. 7. Ein informatives Bild für die visuelle Aufmerksamkeit ist die spotlight-Metapher. Das spotlight als der Teil des visuellen Feldes, der beachtet wird, kann in der Größe variieren. 8. Das visuelle System besitzt einen Speicher (sensorisches Gedächtnis), das sehr viele Informationen jedoch nur sehr kurz speichert. 9. Aufmerksamkeit ist nach der Merkmals-Integrationstheorie von Treisman notwendig, wenn Merkmale zu Mustern zusammengesetzt werden sollen. Automatisierung 1. Die Menge der Informationen, die verarbeitet werden kann, ist eine Funktion der Kapazität aber darüber hinaus auch des Automatisierungsgrades der Verarbeitungsprozesse. 2. Automatisierung ist eine Folge der Übung einer Tätigkeit. 3. Automatisierte Prozesse laufen mit weniger oder sogar keiner Aufmerksamkeitszuwendung ab, sind also anstrengungslos, schnell, oft unbewusst und nur zum Teil willentlich zu beeinflussen. 4. Kontrollierte Prozesse zeichnen sich durch die gegenteiligen Attribute aus. 5. Automatisierte Prozesse können mit kontrollierten Prozessen interferieren, wie das Beispiel StroopTest zeigt. 6. Das gleichzeitige Bearbeiten zweier Aufgaben ist mit Leistungsabfall verbunden, der jedoch verschwindet, wenn eine der Aufgaben automatisiert ist. 7. Die Auffassung, dass es eine einheitliche Kapazität des menschlichen Informationsverarbeitungssystems gibt, ist in den 70iger Jahren durch die Annahme multipler Ressourcen ersetzt worden. 8. Neuerdings wird das Konstrukt der Kapazität abgelehnt. Automatisiertheit wird stattdessen als Funktion des Gedächtnisses betrachtet. Wird ein Prozess wie Kopfrechnen geübt, wird er gespeichert und kann aus dem Gedächtnis abgerufen werden. Dieser Vorgang ist schneller und müheloser als die Generierung dieses Prozesses aufgrund eines Algorithmus. 9. Blindsicht ist eine neurologische Störung, bei der Menschen Objekte in bestimmten Teilen des visuellen Feldes nicht sehen, aber Aussagen über die Objekte machen können. 10. Unilaterale räumliche Vernachlässigung ist eine Störung, bei der Menschen ein Objekt sehen aber nicht auf das Objekt oder einen Teil des Objektes reagieren können. 11. Apperzeptive Agnosie ist eine Störung, bei der Menschen die Form eines Objektes nicht erkennen können. 12. Assoziative Agnosie ist eine Störung, bei der Menschen eine Form nicht mit dem Wissen über die Form verbinden können. 13. Prosopagnosie ist eine Störung, bei der Menschen Gesichter nicht wieder erkennen können, ohne dass dafür eine visuelle Störung verantwortlich gemacht werden kann. Wissensrepräsentationen 1. Informationen, die Eingang in das kognitive System gefunden haben, führen zum Aufbau von Wissensrepräsentationen. 2. Die Art der Repräsentation bestimmt, wie diese Informationen die weitere Informationsverarbeitung beeinflussen. 3. Die Forschung hat sich hauptsächlich mit seriellen wahrnehmungsbasierten und bedeutungsbezogenen Repräsentationen beschäftigt. 4. Die Theorie der dualen Kodierung postuliert verschiedene Repräsentationen für verbale und für visuelle Informationen. 5. Das Experiment von Santa zeigt, dass verbale und visuelle Informationen unterschiedlich verarbeitet werden. Neuere Forschungsergebnisse zeigen, dass sie in unterschiedlichen Hirnarealen verarbeitet werden. 6. Als Beleg für eine visuelle Repräsentation werden unsere anschaulichen Vorstellungen, häufig auch mentale Bilder genannt, gewertet. Sie enthalten neben visuellen Informationen jedoch auch räumliche Informationen, die unabhängig von einer sensorischen Modalität sind, beispielsweise den Eindruck, wo ein Objekt sich in unserer Umwelt befindet. 7. Ein Beispiel ist die mentale Rotation. Zwei gegeneinander gedrehte Objekte werden durch eine mentale Operation zur Deckung gebracht. Die Zeit, die diese mentale Operation beansprucht, ist eine lineare Funktion des Drehwinkels. Sie scheint analog zur physikalischen Rotation zu verlaufen. Man spricht daher von mentaler Rotation. 1. Eine weitere Analogie zwischen Umgang mit visuellen Vorstellungen und Handeln mit physikalischen Objekten ist das „Abtasten“ (scannen) von kognitiven Landkarten. Die Abtastzeit zwischen 2 Objekten ist eine lineare Funktion der Entfernung dieser Objekte. 2. Der Größenvergleich zweier vorgestellter Objekte ist umso schwieriger, je ähnlicher sich die Objekte hinsichtlich der Größe sind. 3. Das Abtasten mentaler Bilder wird behindert, wenn gleichzeitig räumliche Strukturen der Umgebung verarbeitet werden müssen. 4. Mentale Vorstellungen enthalten neben räumlichen Repräsentationen, die nicht an eine spezifische Modalität gebunden sind auch visuelle Repräsentationen z. B. von Farben. Die beiden Aspekte mentaler Vorstellungen werden in verschiedenen Hirnregionen verarbeitet. 5. Visuelle Vorstellungen und visuelle Wahrnehmungen haben gemeinsame Merkmale, z. B. Täuschungen. Ein Unterschied zwischen beiden ist der, dass Vorstellungen sehr viel schwieriger zu reinterpretieren sind als Wahrnehmungen. 6. Fazit: Visuelle Vorstellungen ähneln visuellen Wahrnehmungen sind aber nicht identisch mit ihnen. 7. Es gibt eine generelle Fähigkeit, serielle Ordnungen zu repräsentieren unabhängig von den zu ordnenden Objekten. 8. Die Tatsache, dass vom Anfang und vom Ende der Ordnung her besser auf Reihen zugegriffen werden kann (Absuchen einer Reihe von ihrem Anfang und ihrem Ende her ist leichter), wird als Anfangs- und Endankereffekt bezeichnet. 9. Neben wahrnehmungsbezogenen gibt es bedeutungsbezogene Repräsentationen, bei denen von den verbalen oder bildhaften Details (Stil, Form) abstrahiert wird zugunsten der Bedeutung. 10. Die von der konkreten Realisation abstrahierte Bedeutung von Sätzen und Texten kann als Proposition bzw. als propositionales Netz dargestellt werden. 11. Menschliches Wissen insgesamt kann als propositionales Netzwerk dargestellt werden mit den Verbindungen zwischen den einzelnen Propositionen als Repräsentation deren Assoziationen. 12. Propositionen stellen Abstraktionen von wahrnehmungsbezogenen Details dar. Daneben gibt es Wissen, dass durch eine Abstraktion von spezifischen Erfahrungen entstanden ist und zu Erfahrungsklassen oder Konzepten (Begriffen) führt. 13. Konzepte können als semantische Netzwerke oder Schemata repräsentiert sein. Konzeptuelle Repräsentationen 1. Schemata als Repräsentationen von Konzepten oder Kategorien bilden dieses Wissen in Form einer Struktur von Leerstellen (slots) oder Attributen ab, die Ausprägungen besitzen. Beispiel: Attribut: Material, Ausprägung: Holz, Stein. Eine solche Kombination spezifiert ein typisches Merkmal. Gegensatz zu einem typischen Merkmal ist ein notwendiges Merkmal. Typische Ausprägungen nennt man Voreinstellungen oder default-values. Enkodiert in Schemata sind also kategoriale Regelhaftigkeiten und nicht das, was für ein bestimmtes Exemplar gilt. 2. Schemata erlauben Schlüsse über die Mitglieder der Kategorie bzw. deren Attribute, auch wenn man diese nicht wahrgenommen hat. 3. Empirische Befunde belegen die psychische Realität von Schemata. 4. Die Mitglieder oder Exemplare eines Schemas (Kategorie) können Unterschiede aufweisen. Dabei gibt es typische und weniger typische bzw. untypische Mitglieder. Die Typikalität eines Kategorienmitgliedes beeinflusst verschiedene psychologische Maße wie z.B. die Schnelligkeit, mit der ein Gegenstand klassifiziert wird. 5. Die Grenzen von Kategorien sind vage und ändern sich permanent. 6. Ereigniskonzepte werden Skripts genannt. Sie enthalten das Wissen über stereotype Handlungssequenzen wie etwa ein Restaurantbesuch, das zu Schlussfolgerungen benutzt werden kann. 7. Wie Objekte klassifiziert werden, ist theoretisch umstritten. Exemplartheorien behaupten, dass Exemplare gespeichert werden und ein neues Objekt auf der Basis seiner mittleren Ähnlichkeit zu diesen Exemplaren klassifiziert wird. Abstraktionstheorien behaupten, dass aufgrund der Ähnlichkeit zu einem Prototypen bestehend aus den wichtigsten Attributen klassifiziert wird. Gedächtnis I 1. Nach Ebbinghaus haben Behaltenskurven einen typischen Verlauf: Schnelles Vergessen am Anfang, das sich immer mehr verlangsamt. Mit der Ersparnismethode lässt sich nachweisen, dass Gedächtnisspuren auch dann noch da sind, wenn nicht mehr erinnert werden kann. 2. Das klassische Modell des Gedächtnisses besteht aus sensorischem Speicher, Kurzzeitgedächtnis und Langzeitgedächtnis. 3. Wichtige Annahme des klassischen Modells: Wird der Inhalt des Kurzzeitgedächtnisses (der maximal mögliche Inhalt wird Gedächtnisspanne genannt) memoriert, erhöht sich seine Wahrscheinlichkeit, in das Langzeitgedächtnis überzutreten. 4. Heute wird die Existenz eines besonderen Kurzzeitgedächtnisses abgestritten. Die Schnelligkeit, mit der man vergisst, ist eine Funktion der Lernintensität. 5. Anders als im klassischen Modell wird Lernintensität nicht mit Ausmaß des Memorierens gleichgesetzt sondern mit Tiefe der Verarbeitung. Nur tiefe d.h. bedeutungshaltige Verarbeitung führt zu besserem Verhalten, d.h. langfristigem Behalten. 6. Der Umfang der Gedächtnisspanne hängt davon ab, wie viel wir in einer bestimmten Zeitdauer memorieren können. Etwa 1,5 Sekunden können wir mit verbalem Material füllen. Dann müssen wir wieder zum Anfang zurückkehren. Sonst ist die Information verloren. Man nennt dies die artikulatorische Schleife. Daneben gibt es einen räumlich-visuellen Notizblock und eine zentrale Exekutive, die beides koordiniert. 7. Neuronale Basis für das Arbeitsgedächtnis scheint der frontale Kortex zu sein. Bei Affen feuern in diesem Gebiet liegende Neuronen, wenn ein auf einem bestimmten Platz liegendes zu behaltendes Objekt nicht mehr zu sehen ist. 8. Die Verfügbarkeit von Gedächtnisinhalten (Zugänglichkeit) ist abhängig von ihrer Aktivationshöhe. 9. Die Aktivationshöhe eines Inhalts hängt von der seit der letzten Aktivation hängen verstrichenen Zeit ab und vom Übungsgrad des Inhalts (Benutzungshäufigkeit). 10. Die Geschwindigkeit und die Wahrscheinlichkeit des Zugriffs auf einen Gedächtnisinhalt werden durch die Aktivationshöhe bestimmt. 11. Aktivation breitet sich entlang der Pfade eines propositionalen Netzwerks aus. Dies führt zu Primingeffekten. 12. Die Aktivation baut sich etwa 50 ms nach der Reizpräsentation aus, erreicht ihre volle Stärke nach etwa 200 ms und baut dann ab. 13. Neben dem Aktivationsniveau einer Gedächtnisspur ist die Stärke der Spur ein weiterer Parameter, der über Abrufbarkeit entscheidet. Stärke ist ein sich langsam ändernder Parameter. 14. Die Stärke einer Gedächtnisspur steigert sich mit dem Ausmaß von Übung. 15. Die Beziehung zwischen Übung und Behaltensmaßen ist eine Potenzfunktion. Der Behaltenszuwachs ist anfänglich stark und sinkt mit zunehmender Übung. 16. Eine Entsprechung auf neuronaler Ebene findet das Potenzgesetz der Übung in der sog. Langzeitpotenzierung von Synapsen im Hippocampus und Arealen des Cortex. Reizung von Neuronen erhöht die Sensibilität für nachfolgende Stimulationen. Auch hier verringert sich der Sensibilitätszuwachs mit zunehmender „Übung“. 17. Neben Umfang des Lernens spielt auch die Art des Lernens für das Behalten eine Rolle. An der Bedeutung orientiertes Lernen erhöht die Behaltensleistung. 18. Die Absicht zu lernen (intentionales Lernen) bringt gegenüber Lernen ohne Absicht (inzidentelles Lernen) keinen Behaltensvorteil. 19. Die PQ4R Methode (Preview, Questions, Read, Reflect, Recite, Review) zwingt zu elaborativer Verarbeitung beim Lesen von Texten und erhöht daher die Behaltensleistung. 20. Analog zum Potenzgesetz der Übung gibt es ein Potenzgesetz des Vergessens. Der Erinnerungsverlust verlangsamt sich mit zunehmendem zeitlichem Abstand von der Lernphase. Diese Beziehung zeigt sich auch bei Vergessensanalysen über Zeitintervalle von 30 bis 50 Jahren. 21. Die neuronale Basis für diese psychologische Beziehung ist eine negativ beschleunigte Abnahme der Langzeitpotenzierung an der Synapse. Langzeitpotenzierung ist das Ergebnis von Lernen und wird als neuronale Entsprechung der Gedächtnisspur interpretiert. Die Stärke einer Gedächtnisspur zerfällt synchron zum Zerfall der durch Lernen verursachten Veränderungen an der Synapse. Diese Theorie des Vergessens nennt man daher auch Zerfallstheorie des Vergessens. 22. Neben dem Vergehen von Zeit wird als weiterer Faktor, der über den Verlust von Ge-dächtnisinhalten bestimmt, die Existenz von Interferenzen zwischen Gedächtnisinhalten postuliert. Werden zu einem Reiz zusätzliche Assoziationen gelernt, kann dies ein Vergessen alter Assoziationen bewirken. 23. Ein Beispiel für Interferenzen ist der Fächereffekt: Je mehr Fakten mit einem Begriff assoziiert sind, desto länger dauert der Abruf jedes einzelnen Faktums. Der Fächereffekt kann mit der Theorie der sich ausbreitenden Aktivation erklärt werden. 24. Dass Interferenzen die eigentliche Ursache für Vergessen sind, behauptet die Interferenztheorie des Vergessens. 25. Das Lernen von redundantem Material führt nicht zur Interferenz mit einem Gedächtnis-inhalt und kann dessen Abruf sogar erleichtern. 26. Kann man sich an einen Sachverhalt nicht mehr erinnern, besteht die Möglichkeit seiner Rekonstruktion aufgrund von Inferenzen, die zum Zeitpunkt des Abrufs vorgenommen werden. Solche Inferenzen werden auch auf der Basis von schematischem Wissen ge-macht, wobei der Prozess des Inferierens häufig automatisiert und ohne bewußte Kontrolle abläuft. 27. Die Aktivation von Schemata führt beim Erinnern zur Einpassung von Texten in die aktivierte Wissensstruktur. 28. Eine Strategie beim Abruf von Gedächtnisinhalten ist, nach solchen Sachverhalten zu suchen, die aus Plausibilitätsgründen als wahrscheinlich erscheinen. Gedächtnis II 1. Je mehr man elaboriert, desto besser behält man. Allerdings steigt auch die Zahl der Inferenzen, die man als Erinnerung wiedergibt. 2. Schematische Wissensstrukturen bilden eine Grundlage für Inferenzen, wenn gelerntes Material erinnert werden soll. 3. Der Abruf von Gedächtnisinhalten wird erleichtert, wenn es beim Lernen gelingt, dem Material eine hierarchische Organisation aufzuprägen. Mnemotechniken insbesondere die Methode der Orte basieren auf der Bildung einer Organisation des Lernmaterials, indem es an eine bestehende Organisation (Folge von Orten) angebunden (assoziiert) wird. Das Erinnern erleichternde Reize wie diese Orte bezeichnet man als Schlüsselreize. 4. Generell sind die Chancen, ein zurückliegendes Ereignis zu erinnern am größten, wenn die physikalischen, mentalen und emotionalen Umstände beim Erinnern denen beim Lernen entsprechen, anders formuliert der Kontext, in dem der Gedächtnisabruf stattfindet dem Lernkontext entspricht. Zum Kontext zählen Merkmale des Lernorts, Stimmung beim Lernen, körperlicher Zustand beim Lernen. Man spricht in diesem Zusammenhang von state dependent learning. 5. Das Prinzip der Enkodierspezifität besagt, dass Worte besser erinnert werden, wenn ihr Abruf im Kontext derselben Wörter getestet wird, in dem sie gelernt wurden. 6. Die in 4. und 5. angesprochenen Phänomene kommen dadurch zustande, dass Lernen Verbindungen zwischen Gedächtnisinhalten etabliert und diese Verbindungen als Abruf-wege dienen.Wege führen von einem Start zu einem Ziel, und um den Weg zu nutzen muss man den Anfang erwischen. Analog führt die Aktivation eines Gedächtnisinhalts über den Abrufweg zu einem weiteren Gedächtnisinhalt. Wenn jedoch das Ausgangsgedächtnis nicht aktiviert wird, ist ein Abrufweg keine Hilfe beim Auffinden eines Zielinhalts. 7. Analog sind Lernstrategien eine Hilfe für bestimmte Gedächtnistests, für andere Tests aber nicht. So führen einige Strategien zu ausgeprägtem Quellengedächtnis und weniger zu Vertrautheit, andere Strategien leisten das Gegenteil. Quellengedächtnis ist essentiell für Erinnern, Wieder erkennen basiert dagegen entweder auf Quellengedächtnis oder auf Vertrautheit plus Inferenz. 8. Neben Gedächtnisinhalten, zu denen wir einen bewussten Zugang haben, existieren auch Gedächtnisinhalte, deren Vorhandensein uns nicht bewusst ist (Beispiel Schreibmaschine). Auch wenn die Lage der einzelnen Buchstaben der Tastatur nicht erinnert werden kann, äußert sich das Wissen darum beim Schreiben. Implizites Gedächtnis (im Gegensatz zu explizitem Gedächtnis) äußert sich in Gedächtnistests, die keine Aufforderung sich zu erinnern enthalten (indirekte Gedächtnistests) nicht aber in direkten Gedächtnistests wie freies Erinnern, die mit einer Aufforderung verbunden sind. Gedächtnisinhalte, die im direkten Gedächtnistest nicht abrufbar sind, können sich durchaus im indirekten Test äußern. Man nennt dieses Phänomen eine Dissoziation. Meist ist der indirekte Test eine Form von priming (Bahnung, Erleichterung), z.B. Wortstammergänzung. Doch äußert sich das implizite Gedächtnis auch in einer Reihe von Gedächtnis basierten Täuschungen. 9. Implizites Gedächtnis kann als Konsequenz einer erhöhten Verarbeitungsflüssigkeit beschrieben werden, die durch die Begegnung mit einem bestimmten Reiz im Kontext einer bestimmten Aufgabe produziert wurde. Die Änderung der Flüssigkeit wird manchmal entdeckt als Gefühl eines mit dem Reiz verbundenen Zustands des Speziellen. Oft wird das „Spezielle“ auf eine Ursache zurückgeführt, die aber nicht unbedingt der Grund sein muss. Die Flüssigkeitsänderung ist reiz- und aufgabenspezifisch. Sie wirkt daher nur, wenn dem gleichen Reiz und der gleichen Aufgabe wieder begegnet wird. Daher wird die Behaltensleistung in einem indirekten Test wie perzeptuelle Identifikation durch eine perzeptuell orientierte Verarbeitung in der Lernphase gefördert, während Erinnern und Wieder erkennen als direkte Tests wie schon erwähnt von einer Bedeutungsorientierten Verarbeitung in der Lernphase profitieren. 10. Dissoziationen sind bei Normalen, besonders gut aber bei Amnestikern zu beobachten. Korsakoff-Amnestiker (Amnesie aufgrund einer bei Alkoholikern häufigen Fehlernährung) zeichnen sich durch eine starke anterograde Amnesie aus. Sie können keine neu aufgenommenen Informationen dauerhaft so speichern, dass sie diese Informationen bewusst erinnern können. In indirekten Gedächtnistests zeigt sich dann doch, dass sich eine Gedächtnisspur gebildet hat. 11. Neben implizitem Gedächtnis gibt es auch ein implizites Lernen. Man lernt Prozeduren (prozedurales Wissen) zur Ausführung von Aufgaben, ohne dass man beschreiben kann, worin sie bestehen, also keinen verbalen Zugriff auf sie hat. Denken 1. Kognitive Aktivitäten sind ihrem Grunde nach Problemlöseprozesse, da sie zweckgerichtet sind. Wesentliche Merkmale sind Zielgerichtetheit, Zerlegung in Teilziele und Anwendung von Operatoren, also Handlungen zur Erreichung von Teilzielen. 2. Problemlösen kann als Absuchen eines Problemraumes beschrieben werden, der aus verschiedenen Problemzuständen besteht. Es gibt einen Ausgangszustand, einen Zielzustand und intermediäre Zustände. Operatoren überführen einen Zustand des Raumes in einen anderen. 3. Operatoren werden hauptsächlich erworben durch Entdecken, Analogiebildung und direkte Instruktion. 4. Problemlösewissen bezeichnet man auch als prozedurales Wissen oder Wissen darüber, wie etwas zu tun ist im Gegensatz zu deklarativem Wissen oder Faktenwissen. 5. Prozedurales Wissen kann man als Produktionensystem formal repräsentieren. Diese bestehen aus einzelnen Produktionsregeln, die aus einem Bedingungsteil, einem Handlungsteil und einer „wenn, dann“ Beziehung zwischen den Teilen sich zusammensetzen. 6. Muß zwischen verschiedenen Operatoren gewählt werden, wenden Menschen häufig folgende Auswahlkriterien an, Vermeidung der Zustandswiederholung, Unterschiedsreduktion und Mittel-ZielAnalyse. 7. Um Probleme lösen zu können, müssen sie so repräsentiert werden, daß sich Lösungswege eröffnen. 8. Voraussetzung dafür ist, Objekte in neuen funktionalen Zusammenhängen sehen zu können und nicht der funktionalen Fixierung zu erliegen. 9. Ein anderes Hindernis für erfolgreiches Problemlösen sind sog. Einstellungseffekte. Bestimmte Operatoren werden aufgrund früherer Erfahrungen gegenüber anderen Operatoren bevorzugt. 10. Unter Inkubationseffekten versteht man das relativ schnelle Finden einer Lösung für ein Problem, nachdem man das Suchen nach einer Lösung für einige Zeit eingestellt hat. Inkubationseffekte treten bei sog. Einsichtsproblemen auf, Problemen, deren Lösung von einer einzigen entscheidenden Einsicht abhängt. 11. Problemlösekompetenzen für bestimmte Inhaltsbereiche lassen sich durch intensives Üben erwerben. Man spricht dann von Experten im Gegensatz zu Novizen. 12. Spezielle Fertigkeiten werden typischerweise in drei Phasen erworben, der kognitiven, der assoziativen und der autonomen Phase. 13. Der Leistungszuwachs durch Übung folgt einer Potenzfunktion sowohl bei einfachen als auch bei komplexen Problemen wie mathematische Beweisführungen. 14. Übung bezieht sich sowohl auf taktisches Lernen, also dem Lernen von Operationen, die der Lösung von Teilproblemen dienen, als auch auf strategisches Lernen, worunter man die optimale Organisation der Lösung des Gesamtproblems versteht. 15. Ein wichtiger Aspekt von Expertentum ist die angemessene Repräsentation von Problemen, die die Anwendung von effektiven Problemlöseprozeduren ermöglicht. 16. Experten sehen bei Problemen Muster aufeinander bezogener Elemente, die mit Lösungsmöglichkeiten verknüpft sind. 17. Experten sind besser in der Lage, problembezogene Informationen zu behalten und abzurufen. 18. Für einen Inhaltsbereich erworbene Fähigkeiten lassen sich nicht auf einen anderen Inhaltsbereich übertragen. Nach der Theorie der identischen Elemente ist ein positiver Transfer von Übung in einem Gebiet auf ein anderes Gebiet in dem Maße möglich, in dem die Gebiete gemeinsame Elemente haben. Elemente bezeichnen dabei abstrakte Wissenseinheiten. 19. Eine pädagogische Folgerung daraus ist, Inhalte auf ihre Grundbausteine hin zu analysieren und diese besonders intensiv zu üben (Komponentialanalyse). Dabei muß bei jeder Komponente die Beherrschung durch den Schüler begleitend kontrolliert werden (beherrschungsorientiertes Lernen). Intelligente Tutorensysteme können diese Kontrolle übernehmen. Kognitive Entwicklung 1. Nach der Theorie der kognitiven Entwicklung von Piaget, verläuft diese in vier Stufen, sensumotorische Stufe, präoperationale Stufe, konkret-operationale Stufe, formal-operationale Stufe. 2. Die Stufenkonzeption der kognitiven Entwicklung baut auf der Analyse der Lösungen von kognitiven Aufgaben der Kinder verschiedenen Alters auf. 3. Eine beispielhafte Klasse von Aufgaben sind Invarianzaufgaben. Mit ihnen wird das Wissen von Kindern darüber, welche Eigenschaften der Welt unter verschiedenen Änderungen erhalten bleiben. Es entwickelt sich über die Stufen hinweg. 4. In den ersten beiden Lebensjahren wird die kognitive Entwicklung stärker von der neuronalen Entwicklung getragen, danach stärker von dem Wissen, das in das Gehirn aufgenommen wird. 5. Die mentale Kapazität nimmt bis zur Pubertät zu. Es können mehr Informationen im Arbeitsgedächtnis gehalten werden, was für die Lösung geistiger Aufgaben von Bedeutung ist. Daran beteiligt sind eine Steigerung der Geschwindigkeit neuronaler Funktionen aber auch Übung, in deren Folge mentale Operationen effektiver ausgeführt werden können. 6. Die Bedeutung der Übung wird auch durch die Beobachtung gestützt, dass Kinder Experten auf bestimmten Gebieten werden können und dann bessere Leistungen erbringen als Erwachsene. 7. Mit zunehmendem Alter kommt es zu einem Rückgang der Informationsverarbeitungsgeschwindigkeit. Intelligenz 1. Intelligenzmaße haben den Charakter von Abweichungsmaßen und geben die Stellung einer Person in der Verteilung der Maße ihrer Altersgruppe an. 2. Intelligenztests sind gute Prädiktoren von Schulleistungen. 3. Zwillingsuntersuchungen haben gezeigt, dass Leistungen in Intelligenztests eine angeborene und eine erlernte Komponente haben. 4. Die Korrelation zwischen Expertise und Intelligenzquotient ist eher schwach. 5. Zu den der menschlichen Intelligenz zugrunde liegenden Faktoren gibt es unterschiedliche Auffassungen. Besonders heftig diskutier ist die Frage der Bedeutung eines allgemeinen Intelligenzfaktors. 6. Untersuchungen haben gezeigt, dass die Schnelligkeit, mit der elementare Operationen beim schlussfolgernden Denken, beim verbalen Denken und beim räumlichen Denken ausgeführt werden, mit Intelligenzmaßen korrelieren.