Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Hallo Studies, ich hatte das "Vergnügen" bei Herrn Bredenkamp, unteranderem über das Buch "Cognitive Psychologie - A Stundents Handbook" von Eysenk und Kean geprüft zu werden. Ich erstellte daher eine deutsche Lernvorlage. Diese ist jedoch sehr meinen persönlichen Lernbedürfnissen angepaßt. Daher gibt es diese auch auf Diskette. Das Format ist Winword (leider Office 97), aber ich wollte durch Portierung nicht meine wenigen Grafiken zerhackstücken. Ich bitte um sehr viel Nachsicht bei der Rechtschreibung, aber nach der Prüfung hat man nicht mehr den Elan für eine Korrekturdurchsicht. ;-) Kapitel 1 & 13 sind nur sehr oberflächlich beschrieben, Kapitel 14 gar nicht. Viel Spaß & Glück wünscht Euch Frank Leber ([email protected]) 1 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kognitive Psychologie Eysenck & Keane Die kognitive Psychologie versucht, das Wesen der menschlichen Intelligenz und des menschlichen Denkens zu verstehen ( Anderson ) Viele Ausprägungen der kognitiven Psychologie: n Wahrnehmung n Lernen n Gedächtnis n Sprache n Problem lösen n Denken Problem mit der traditionellen Sicht von Wissenschaft: n Objektivität n Fakten durch Beobachtung und Experiment n Verallgemeinerung zu Gesetzmäßigkeiten Zunächst Introspektion (Anderson): Selbstbeobachtung - viele subjektive Verfälschungen Behaviorismus ( Ausprägung logischer Positivismus, z.B. Watson & Skinner): Beschränkung auf beobachtbare Phänomene, Zurückweisung von hypothetischen mentalen Modellen. Reine Beobachtung von Reizen und Wirkungen sind jedoch oft unbefriedigend. (Was passiert dazwischen ?) Beobachtung ist nicht objektiv, sondern wird von Hypothesen und Theorien beeinflußt (Karl Popper): Grundlage von Wissenschaft ist nicht Verallgemeinerung sondern Widerlegung. Die zwei Zustände der Wissenschaft nach Thomas Kuhn: „normal“ (e) Perioden werden von einer Theorie, bzw. Modell dominiert. „revolutionär“ - alte Theorie lückenhaft, versagt => Integration von alten und neuen Modellen Historische Entwicklung der kognitiven Psychologie Der Informations-Verarbeitung Ansatz legte in den 50ziger den Grundstein der heutigen Kognitiven Psychologie (Mischung aus Bottom Up und Top Down): • Personen interagieren autonom mit ihrer Umwelt. • Der dazu verwendete Verstand ist ein universelles, symbolverarbeitendes System. • Symbole werden durch Prozesse verändert und beziehen sich auf Dinge der äußeren Welt. • Ziel der Kognitiven Psychologie ist die Symbole und Prozesse zu spezifizieren. Untersuchungsansätze • Experimentelle Psychologie (Versuche mit normalen VPn) • Kognitive Wissenschaftler, die Computermodelle entwickeln. • Neuropsychologen Computermodelle Flußdiagramme (Bild 1.1 S. 14) Sind häufig ungenau. Semantische Netzwerke (Bild 1.3 S. 17) Wissen in Form von Assoziationen ( a) gleichzeitiges auftreten, b) Ähnlichkeit, c) Gegensatz ). 2 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • Konzepte (Hund, Stuhl) durch Knoten dargestellt. • Verbindungen zwischen den Koten (spielt, tritt, beißt) mit verschiedenen Aktivierungsstärken. • Verarbeitungsprozesse verändern dir Aktivierungsstärken. Produktionssysteme (Bild 1.4 S. 19) • Eine Menge von Produktionen (IF .. THEN Regeln) • Arbeitsgedächtnis mit Informationen • Das Produktionssystem verändert die Inhalte des Arbeitsgedächtnisses, in dem es die Produktionen anwendet. ( Bei Modellerweiterung Änderungen der Produktionen möglich) Neuronale Netze, Parallele Verteilte Systeme, Connectionisten Netztwerke (Bild 15. S.21) Selbstlernende Systeme, die selbst ihre Programme ändern. • Neuronen ähnliche Einheiten (Knoten) • Ein Knoten gibt die gewichtete Summe aller seiner Inputs (oberhalb einer Schwelle) weiter (Aktivierungsausbreitung) • Ein Konzept ist verteilt abgespeichert (Viele Knoten/Verbindungen). • Lernen durch Rückkopplung / Erfolgskontrolle: Änderung der Verbindungsstärke. Neuropsychologie Nachweise durch: • Dissotiationen: Ein Patient ist schlecht bei einer, aber durchschnittlich bei einer anderen Aufgabe. • Doppelte Dissotiationen: Eine Patientengruppe gut bei der einen, schlecht bei der anderen Aufgabe. Eine weitere Patientengruppe genau umgekehrt. • Assotiationen: Beeinträchtigungen einer Fähigkeit ziehen bei allen (den meisten) Patienten, Beeinträchtigungen einer anderen Fähigkeit nach sich. Dadurch versucht man verschiedene Module beim Verarbeitungsprozeß nachzuweisen, und bei welchen Aufgaben sie benötigt werden. Bei Isomorphismen versucht man den Zusammenhang zwischen einer bestimmten physischen Schädigung eines Gehirnbereichs und eines/mehrerer Module nachzuweisen. Organisation der Kognitiven Theorien Einordnung der Verschiedenen Forschungsgebiete (Analog zu Physik, Chemie, Biologie). Marr´s Rahmen für Theorien (Tabelle 1.1 S. 32) Berechnungsebene Algorithmische Ebene Hardware Ebene Das Ziel/Sinn der Berechnung (Funktionsdefinition X2=Y) Abstrakte Beschreibung der Berechnung Physikalische Verwirklichung Empirische Methoden der Kognitiven Psychologie Subtraktionsmethode Zeit für mehre Aufgaben => Zeit für einzelne Aufgaben (Autofahren mit Pause: Pausenlänge bekannt => Länge der Fahrt ohne Pause berechenbar). Setzt voraus, daß die Prozesse diskret/seriell sind (oft falsch). Introspektion Bedingungen für „gute“ Introspektion: • Nur bewußte Prozesse (z.B. keine Neuronalen Vorgänge). • Retrospektion werden zusätzlich vom Erinnerungsprozeß und dessen Unzulänglichkeiten bestimmt. 3 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • Wertfreie, nicht interpretierende Introspektion nötig (schwierig) Kapitel 2 Muster Erkennung Einführung Wahrnehmung Bartley (1969): unmittelbare, kontextgebundene Reaktion des Organismus auf einen Sinnesreiz Roth (1986): Umwandlung der durch Sinnesorgane aufgenommenen Informationen in Erfahrungen von Objekten, Vorfällen, Klängen, Geschmäckern, usw. Hauptaugenmerk in diesem Buch auf Visuelle Wahrnehmung (Sprache später): 2D & 3D Traditionelle Ansätze Schablonenvergleich Direkter Vergleich durch Musterüberlagerung. Problem: Viele ( ∞ ) Objektvariationen ( Größe, Lage, Farbe,...) Prototypen ( oder Schemata ) Reizklassen anhand von Schlüsselattributen - Ähnlichkeiten zwischen verwandten Reizen. Bsp. Klasse Flugzeug: Röhre mit zwei Flügeln Reduzierung: weniger Schemata als Muster nötig. Nachweise von Franks und Bransford (1971): Experimente mit zusammengesetzten geometrischen Formen aus Kreisen, Sternen und Dreiecken. • Versuchspersonen waren sicher den Prototyp schon gesehen zu haben, wobei nur Abwandlungen des Prototyps zu sehen waren. ( Weniger Abwandlungen => mehr pseudo Erkennung, Bild 2.1 S.46) • Gleiche Bewertung von bereits vorgekommenen oder nicht vorgek. Objekten, bei gleicher Abweichung vom Prototyp. Die Theorie ist sehr ungenau bei den Details über den Verarbeitungsprozeß von der internen Repräsentation eines Reizes zu einen Prototyp. Liefert keine Erklärung für kontextuelle Einflüsse. Merkmalsanalyse Ein Muster setzt sich aus mehreren Merkmalen zusammen. (Bsp. „A“ Aus zwei Linien im 45O Winkel mit Verbindungslinie ) Gibson (1969) unterschied 12 Merkmale von Buchstaben ( z.B. geschlossene Ringe, vertikale / horizontale Linien). Dazu Untersuchungen zur Verwechslung von Buchstaben mit vielen gemeins. Merkmalen. Ebenso (1968) Zeitspanne zur Unterscheidung ob zwei Buchstaben gleich sind (schwer:P & R, leichter G &W ) Neisser (1964) Bild 2.2 S.48: Auffinden von bestimmten Buchstaben in Buchstabenfolgen. Lupker (1979 Kurz gezeigte Buchstaben werden auch Aufgrund ihres Umrisses verwechselt. Hinweise auf Merkmalsanalyse auch von stabilen retinalen Bildern: Auf die Netzhaut projizierte Bilder verschwinden in zusammenhängenden Einheiten (BEER zu PEEP, PEER, BEE, BE ...) Bewertung: Merkmalsanalyse vereinfacht zu stark und hängt vom Reiz ab (evtl. Top-Down Mechanismen verfügbar ?). - Kontext und Erwartungen müssen berücksichtigt werden Weisstein und Harris (1974) „Object-superiority Effect“: Eine Linie wird in einer 3D-Form besser erkannt als in einer unzusammenhängenden. - Experimente hauptsächlich zu Buchstaben, keine komplexen Formen ( Gesichter, Gebäude ) 4 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" - Interpretation von Buchstaben hängt nicht nur von Merkmalen ab (Bsp. „A“ oder „H“ in SHE und BAT Bild2.3 S. 50) Gestalt spielt oft eine große Rolle Neurophysiologisch sind visuelle Reize häufig unvollständig Nicht alle Merkmale müssen auf die gleiche Weise verarbeitet werden: Garner (1974) unterscheidet trennbare (z.B. Größe und Form) und integrale (z.B. Helligkeit und Farbe) Merkmale. Experiment hierzu: Drei Reize mit unterschiedlicher Ausprägung – Zuordnung des dritten zu den Vorhergehenden. ( Bei trennbaren Merkmalen nur Zuordnung bei identischen Merkmalen, bei integralen MM auch Zuordnung bei ähnlichen MM = Gruppierung der beiden ersten Reize) Gestalttheorie Muster Erkennung basiert mehr auf der gesamten Form (Gestalt) als auf den einzelnen Merkmalen. (Das Ganze ist mehr als die Summe seiner Teile). Es ist mögliche Teile des Ganzen zu ersetzen ohne die Gestalt zu verändern: Transposition. (Bsp. Transponierung einer Melodie) Experiment von Navon(1977) Bild 2.4 S.53: ein großer Buchstabe bestehend aus kleinen Buchstaben visuell, dazu Erkennung von gehörten Buchstaben. Gehörte Buchstaben wurden schneller erkannt bei Übereinstimmung mit großen visuellem Reiz, keine Veränderung bei Übereinstimmung mit kleinen Buchstaben (oft kleine Buchstaben nicht bemerkt). Entscheidung ob großer Buchstabe aus Hs oder Ss oder kleiner aus Hs und Ss: Entscheidungsgeschwindigkeit wurde beim Großen von kleinen nicht beeinträchtigt, aber umgekehrt. Demnach ist es nicht möglich sich nur auf Merkmalsanalyse zu konzentrieren. Relativierung der Ergebnisse durch Kinchla und Wolf (1979): Ähnliche Experimente wie Navon, aber mit unterschiedlich großen Buchstaben (gemessen im Visuellen Winkel), Bei >= 8O (Navon <= 5.5O) bessere Erkennung der kleinen Buchstaben. => Objekte mit optimaler Größe werden zuerst verarbeitet. (Gestaltgesetze s.u.) Objekt Erkennung Wahrnehmung ist wesentlich komplexer als bisher (nur 2D). David Marr’s Theorie Marr (1982) versucht Ansätze aus der Psychologie, der Physiologie und der künstlichen Intelligenz zu verbinden. Er unterteilt die Informationsverarbeitung in drei Ebenen Berechnungs Theorie Das Ziel der Berechnung, warum paßt sie, welche Logik steckt hinter der Strategie ? Algorithmische Ebene Wie kann die Berechnungs Theorie umgesetzt werden, die Darstellung der Eingabe, der Algorithmus Hardware Ebene Physikalische Umsetzung der Eingabe und des Algorithmus. (Gehirn) Der Prozeß der visuellen Wahrnehmung durchläuft hintereinander drei Arten der Darstellung: • Ursprungsskizze (primal Sketch) Zweidimensionale Beschreibung der Licht – Intensitätswechsel, einschließlich Informationen über Kanten, Umrisse und Kleckse. Beobachter-Zentriert • 2.5-D Skizze Tiefe und Orientierung der Sichtbaren Oberflächen durch Ihre Schattierung, Beschaffenheit, Bewegung, binoculares Sehen. Beobachter-Zentriert. • 3-D Modell Darstellung 3-D Formen der Objekte und ihre relative Lage, unabhängig vom Beobachter. Gesichts Erkennung Gesichtserkennung spielt im täglichen Leben eine große Rolle. Viele typische Prozesse aus der Objekterkennung fließen mit ein, aber keine Theorie ist für die Gesichtserkennung befriedigend. Bruce und Young füllten diese 5 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Lücke mit ihrer Theorie, die durch Tagebuchstudien, Laborexperimente und Beobachtungen an Gehirngeschädigten gestützt wird. Ihre Verarbeitungskomponenten für bekannte Gesichter stehen auf einer soliden Grundlage, während das Zusammenwirken bei unbekannten Gesichtern noch etwas wage ist. Daß bei Gesichtserkennung spezifische Verarbeitungsprozesse stattfinden, wurde durch Untersuchen an „Prosopagnosic“ Patienten deutlich, die bekannte Gesichter nicht erkannten, obwohl sie die Stimmen und Namen der Personen gut erkannten. Ebenso konnten diese Patienten feine Unterschiede erkennen (z.B. italienische <> andere Münzen, eigene <> andere Handschrift) Bruce und Young’s Modell (1986) Bild 2.7 S. 70 Zum Teil werden unterschiedliche Prozesse zum Erkennen von bekannten und unbekannten Gesichtern verwendet. Dies ergibt sich aus Untersuchungen von Patientengruppen die jeweils besser bekannte, bzw. unbekannte Gesichter erkennen konnten. Malone, Morris, Kay und Levin (1982): Eine Testperson konnte 14 von 17 Staatsmännern erkennen, war aber weitgehend unfähig die Gegenstücke zu unbekannten Gesichtern zu erkennen. Eine andere erkannte nur 5 von 22 bekannten Persönlichkeiten, hatte aber durchschnittliche Fähigkeiten im Erkennen von unbekannten Gesichtern. Gute Unterstützung der seriellen Natur des Modells bei bekannten Gesichtern durch: Young, Hay und Ellis (1985): Die VPn führten ein Tagebuch über Ihre täglichen Probleme bei der Erkennung von bekannten Gesichtern. 1008 Vorfälle wurden protokolliert. Nicht einmal eine Erkennung ohne Zusatzinformationen, aber 190 Fälle mit Zugriff auch Informationen über eine Person, ohne Namenserinnerung. 233 Fälle in denen Gesichter bekannt vorkamen, aber nicht zugeordnet werden konnten. Jedoch ist der Kontext in dem ein bekanntes oder Unbekanntes Gesicht gezeigt wird wichtig für die korrekte und schnelle Erkennung. (Bekannte im bekannten Rahmen, Unbekannte im selben Zusammenhang). Kapitel 3 Theoretische Streitfälle der Wahrnehmung Unbewußte Wahrnehmung findet bei einem sehr kurzen oder geringem Reiz statt, der unterhalb der bewußten Wahrnehmungsschwelle ist. ( Werbung ) Einige Gehirngeschädigte leiden unter dem Phänomen der Blindsicht. Das Paradoxon der nicht wahrgenommenen Wahrnehmung läßt sich nur auflösen, wenn die Wahrnehmung in mehrere Prozesse unterteilt werden kann. Hauptstreitpunkt ist die Gewichtung der VP-Berichte über ihre eigene Wahrnehmung Die relative Wichtigkeit von Konstruierter (Top-Down) oder Direkter (Bottom-Up) Wahrnehmung, ist je nach Reiz (kurz – lang) unterschiedlich. Unbewußte Wahrnehmung (ohne Aufmerksamkeit) Def. Dixon (1981) : Das Gehirn reagiert auf externe Reize, die nicht bewußt wahrgenommen werden. Symptome sind kortikale Spannungen, E.E.G. Veränderungen, elektrodermale Änderungen und Änderungen der Sinnesschwellen. Lexikalische Entscheidung ( Marcel 1983 ) : Das erste Wort sehr kurz gezeigt, führt zu einer Geschwindigkeitsänderung bei Erkennung des Folgewortes (Doktor nach Schwester, oder Bücherei). Aber auch wenn die VPn das erste Wort nicht wahrgenommen hatten – „raten“ Sie in 60% richtig, ob ein Wort gezeigt wurde. Stroop Effekt: geringere Benennungsgeschwindigkeit der Farbe (grün) bei z.B. ROT Marcel(1983): Farbfläche mit eingeblendetem Wort in der Mitte (wieder 60% raten) 6 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Cheesman und Merikle (1984): Kein Stroop Effekt mehr bei auf 50% raten justierter Schwelle => Unterscheidung Objektive (niedriger) / Subjektive (höher) Schwelle Eine mögliche Erklärung für unbewußte Wahrnehmung: Wahrnehmungsschutz. Hardy und Legge (1968): Ein schwacher akustischer Reiz war, bei gleichzeitig auf einer Tafel präsentierten emotionalen (obszönen) Ausdrücken, schwerer zu hören, als bei neutralen Wörtern. Blindsicht Einige Gehirngeschädigte können in Teilen ihres visuellen Feldes nichts bewußt wahrnehmen, aber einige Unterschiede der Reize erkennen. Weiskranz (1986) entdeckte, daß z.B. die Übereinstimmung zweier aufeinander folgenden Reize mit überdurchschnittlicher Wahrscheinlichkeit erkannt wurde. Die Patienten erklärten zwar, nichts gesehen zu haben, aber das „Gefühl“ zu haben, daß dort etwas war. Größter Kritiker der unbewußten Wahrnehmung ist Holender, der alle Ergebnisse, die auf subjektiven Schwellen beruhen, zurückweist. Konstruktive oder direkte Wahrnehmung ? Konstruktive Theorien Bruner(1957), Neisser(1967), Gregory(1972; 1980) stimmen überein: • Wahrnehmung ist aktiver und konstruktiver Prozeß • Ist ein Endprodukt (Interferenz) des Reizes mit internen Hypothesen, Erwartungen, und Erfahrungen • Daher neigt sie zu Fehlern Palmer(1975): zeigte eine Szene (z.B. eine Küche) gefolgt von einem kurzen Bild (Brotleib, Briefkasten, Trommel). Passender Kontext erhöhte die Erkennungskorrektheit. Ittelson und Cantril(1954): Wahrnehmungsfehler im Ames-distorted-Room Scheint aus einer Perspektive normal zu sein – Gegenbeweis durch sich hindurch bewegende Person wird ignoriert. Bruner und Postman (1949): ungewöhnliche Spielkarten (z.B. schwarze Herz) wurden bei kurzer Präsentation mit Erwartungen vermischt (Mischfarben: braune oder purpur Herz). Viele Wahrnehmungsfehler bei visueller Wahrnehmung laut Gregory durch dreidimensionale Fehlinterpretation von 2D Objekten. Beisp.: Müller-Leyer Illusion ( Bild 3.1 S. 86) interpretiert als innere Ecke eines Raumes, und als äußere Ecke eines Gebäudes. (Aber: Illusion bleibt auch bei Kreisen oder Rechtecken als Endpunkte erhalten!!) Kritik: Es gibt zwar Wahrnehmungsfehler, aber gewöhnlich ist sie korrekt. Fehler entstehen häufig unter künstlichen Laborbedingungen ( kurzer Reiz, geringe Intensität – keine „Daten“ zur Bottom Up Auswertung) Direkte Wahrnehmung Bibson(1966) entwickelte aus seinen Erfahrungen mit startenden und landenden Piloten seine Theorie: • Ein visuelles Array enthält alle visuellen Informationen (Lichtmuster) • Aus den Textur-Abstufungen, Optic-Flow-Pattern, Affordances Bestimmung der Raumlage von Objekten • Wahrnehmung als reines herauspicken der gegebenen Informationen ohne oder mit wenig Informationsverarbeitung. Textur-Abstufungen: (weniger Details in der Ferne- Bild 3.2 S.90) Optic-Flow-Pattern: (Bewegungswahrnehmung durch Fixpunkt/Zielpunkt, alle anderen Bezugspunkte bewegen sich davon weg) Affordances: (Potentielle Nutzung des Gegenstandes) 7 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Daß aus den visuellen Reizen mehr Informationen ableitbar sind, als bis dato angenommen, bildete eine Grundlage für Marr’s Verarbeitungstheorie. Kritik: Wahrnehmungsfehler lassen sich nicht erklären. Es gibt nicht nur unter Laborbedingungen Fehler => Vertikal-Horizontal Illusion Bild 3.3 S.92 (z.B. Löffel in Tasse wirkt vertikal länger). Synthese der Theorien Gewichtung der Wahrnehmungsformen konnte von Tulving, Mandler und Baumal (1964) gezeigt werden: Erkennung eines Wortes beeinflußt durch Präsentationsdauer (Bottom Up), Länge des Kontextsatzes (Top Down) Neisser‘s (1976) Wahrnehmungskreis (Bild 3.4 S. 93) beschreibt eine Wechselwirkung der Prozesse. Weitere Mischtheorien später (z.B. Kapitel 9 Begriffsvermögen gesprochener Sprache) Kapitel 4 Aufmerksamkeit und Leistungsbeschränkung Aufmerksamkeit: Nach William James (1890) Konzentration auf einen von mehreren Wahrnehmungsprozessen. Unterscheidung zwischen gerichteter (focused) Aufmerksamkeit und geteilter Aufmerksamkeit (mehrere überwachte Prozesse). Bild 4.1 S.99 zur Hierarchie (akustisch/visuell) Gerichtete akustische Aufmerksamkeit Die Theorien unterscheiden sich vor allem in der Plazierung des Bottlenecks innerhalb des Verarbeitungsprozesses Die Beschattungs-Technik Colin Cherry (1953) „Cocktail Party Problem“: Herausfiltern eines Gesprächs durch Merkmale (Geschlecht/ Position des Sprechers, Stimmintensität) – Inhalt nicht entscheidend. Eine Nachricht sollte beschattet (laut nachgesprochen) werden – nur wenige Informationen konnten aus einer zweiten Nachricht extrahiert werden (keine Bedeutung/Fremdsprache – aber ein reiner Ton wurde bemerkt) Moray (1959): auch 35fache Wiederholungen eines Wortes blieben unbemerkt. Broadbent (1958) (Dichotic Task): drei Paare von Zahlen gleichzeitig – werden meist Ohr für Ohr wiedergegeben (496 auf einem Ohr & 852 auf dem anderen => 496852 öfter als 489562) Broadbent’s Theorie: • Zwei Reize gelangen parallel in den Sensorischen Puffer • Einer wird auf Grung seiner physikalischen Charakteristik herausgefiltert, der andere bleibt im Puffer • Dies verhindert Überladung der Kapazität hinter dem Filter Diese Theorie versagt jedoch bei anderen Experimenten (Verarbeitung des nicht beschatteten Kanals): Underwood(1974): Erkennung besimmter Ziffern auf dem nicht beschatteten Kanal Normale VPs erkannten nur 8%, Neville Moray 67% (geübt) Allport, Antonis und Reynolds(1972): Beschattung eines Essays von George Orwell => schlechtes Lernen von parallel dazu akustisch dargebotenen Wörtern, aber gutes Lernen von Bildern. Von Wright et al.(1975): In einer Liste von Wörtern wurde ein bestimmtes Wort in Verbindung mit einem Elektroschock dargeboten – das Wort führte zum Teil auch im nicht beschatteten Kanal zu elektrodermalen Reaktionen. Underwood(1977): Wörter auf dem nicht beschatteten Kanal bleiben unzusammenhängend: Größe (Länge) der Kontextinformationen auf dem nicht beschatteten Kanal (im Gegensatz zum beschatteten) erhöht nicht die Verarbeitungsgeschwindigkeit passender Wörter. Gray und Wedderburn(1960) (Abwandlung der Dichotic Task): „Who 6 there“ und „4 goes 1“ werden zu „Who goes there“ und „4 6 1“ 8 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Alternative Theorien Treisman(1964) In ihrer Abwandlung von Broadbent’s Theorie wird die nicht beschattete Seite immerhin abgeschwächt verarbeitet. Die Plazierung des Bottlenecks ist variabel innerhalb einer Verarbeitungshierarchie (Physikalische- & Silben- Muster, bestimmte Wörter, grammatikalische Struktur und Bedeutung) Deutsch und Deutsch(1963) setzten das Bottleneck noch weiter ans Wahrnehmungsende. Die Reize werden voll verarbeitet, und dann der Situationsabhängig wichtigste gewählt. Treisman und Riley: Dazu Versuche mit Beschattung und Worterkennung auf beiden Kanälen (durch Fingerklopfen). Wörter auf dem überwachten Kanal 87% erkannt (anderer 8%). Nach Kritik von Deutsch & Deutsch, daß die Reize nicht gleich wichtig seinen (einer beschattet & Klopfen), Experiment mit gestoppter Beschattung: immer noch ehemals beschatteter Kanal besser. Johnston und Heinz Theorie Die Auswahl kann in vielen Verschiedenen Stufen erfolgen. • Mehr Stufen vor der Auswahl => Größere Anforderungen an die Verarbeitungskapazität. • Daher möglichst frühe Wahl unter Berücksichtigung der Umstände (des Zieles) Johnston und Heinz (1979): Aus zwei gleichzeitigen Wörtern ein Zielwort erkennen. Beide Worte von der gleichen Männerstimme => späte Auswahl, lange Verarbeitung Jeweils Männer/Frauenstimme => frühe Auswahl, kurze Verarbeitung Johnston und Wilson(1980): Identifizieren einer Wortgruppe (Kleidung: Socke), mit gleichzeitigem passendem(duftend), widersprüchlichem(schlagend) oder neutralen(Dienstag) Wort. Bild 4.2 S.105 Bei geteilter Aufmerksamkeit unterstützend – bei gerichteter kein Effekt. Gerichtete visuelle Aufmerksamkeit Ergebnisse ähnlich der akustischen Aufmerksamkeit. Der Bereich (Spotlight) kann sehr eng oder auch breit sein. ( minimaler Spotlight nach Humphreys: 0.5O im Zentrum der Retina – außerhalb 1O) LaBerge(1983) : Zeigte Wörter mit fünf Buchstaben, gefolgt von einem Reiz an der Position eines der Buchstaben. Die VPn sollten sich entweder auf den mittleren Buchstaben konzentrieren oder das ganze Wort kategorisieren. (Bild 4.3 S.106) Unbeaufsichtigte visuelle Reize Verarbeitung von Reizen außerhalb des Spotlights ist auf einfache Merkmale beschränkt. Johnston und Dark(1985): Die VPn sollten einen bestimmten Bereich überwachen. Innerhalb (außerhalb) des Bereichs wurde ein Initial-Wort kurz gezeigt ( 60 – 500 ms), gefolgt von einem langsam schärfer werdenden Test-Wort (entweder Initial-W. Bezug oder Identität). Sowohl sematische, wie identische Initial-Wörten innerhalb des Bereichs beschleunigten das Erkennen, während außerhalb semantische keine Wirkung und identische nur bei 500ms Beschleunigung zeigten. Treisman (1988) Theorie im Sinne der Merkmalsanalyse (Merkmale: Farbe, Größe, Linienorientierung): • Alle Merkmale der Objekte im visuellen Feld werden unabhängig von Aufmerksamkeit schnell & parallel aufgenommen • Ein anschließender serieller Prozeß formt daraus Objekte (großer, roter Stuhl) • Gerichtete Aufmerksamkeit bildet den „Klebstoff“ zur Objektkonstruktion aus den Merkmalen. • Konstruktion beeinflußt durch Erfahrung (Bananen sind meist gelb) • Ohne Gerichtete Aufmerksamkeit und ohne Kontexterfahrung ist die Konstruktion oft fehlerhaft. Treisman und Gelade: VPs suchen innerhalb von 1-30 Gegenständen ein Zielobjekt (grünes „T“) oder einzelnes Merkmal (blauer Buchstabe oder „S“). Anzahl der Gegenstände hatte keinen Einfluß auf die Erkennungsgeschwindigkeit bei einzelnen Merkmalen (keine gerichtete Aufmerksamkeit benötigt), aber bei ganzen Zielobjekten. 9 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Vaughn: Erkennung von Merkmalen ist weiter vom anvisierten Punkt möglich, als Erkennung von Objekten. Aber diese Sicht vereinfacht zu stark (parallel Verarbeitung bei Objektkonstruktion, Übung, Ergebnisse von LaBerge – Beobachtung eines Wortes ohne Beachtung der Merkmale). Humphreys, Riddoch und Quinlan: Erkennung eines auf dem Kopf stehenden T´s vor normalen T´s war nicht besonders abhängig von der Anzahl der normalen T´s. (Objekt mit gleichen Merkmalen => gerichtete Aufmerksamkeit zur Objektkonstruktion nötig) Das Feld für die visuelle Aufmerksamkeit kann auch komplexer sein. Egly und Homa untersuchten Aufmerksamkeit mit drei Ringen, wobei der mittlere Beobachtet werden sollte – dies schränkte nicht nur die Wahrnehmung im äußeren Ring, sondern auch im inneren Ring stark ein. Geteilte Aufmerksamkeit Zwei verschiedenartige, eingeübte und einfache Aufgaben lassen sich gut gleichzeitig ausführen, während dies bei gleichartigen, ungeübten und schwierigen Aufgaben kaum möglich ist. Die Möglichkeit zur Alternierung zwischen den Aufgaben ist von Vorteil. Einige Theoretiker favorisieren im Hinblick auf die Unzulänglichkeiten ein Einzel-Prozessor-Modell (aber Belastung oft mehr als die Summe der Einzelbelastungen) , während andere ein verteiltes System vorziehen. Die Synthese aus beiden bildet ein hierarchisches System mit einem Steuerungs- / Verteilungs- Prozeß über den parallelen Prozessen. Aufgabenähnlichkeit Zwei Aufgaben sind nach Wickens ähnlich, wenn sie die gleiche Reizmodalität besitzen (visuell, akustisch), die selben Prozesse erfordern (input, intern, output), und ihrer Speicherung (verbal, visuell). Treisman und Davies: Zwei Überwachungsaufgaben waren schwerer zu lösen in der gleichen Reizmodalität als in verschiedenen (visuell, akustisch). Übung Spelke, Hirst und Neisser. : Zwei Studenten üben 4 Monate 5 Stunden die Woche eine Kurzgeschichte für eine Zusammenfassung zu lesen, während sie ein Diktat schreiben. Die Lesegeschwindigkeit glich sich an und das Schriftliche verbesserte sich zunehmend, aber sie konnten sich kaum an die Wörter des Diktats erinnern. Sie trainierten daraufhin die Wörter des Diktates zu kategorisierten, was auch gelang. Dies veranlaßte Spelke zu der Vermutung, daß die Trainingsmöglichkeiten so groß seien, daß keine generellen Grenzen gesetzt werden können. Die Aufgaben wurden allerdings nicht ohne Interferenz gelöst, so machte eine VP nur halb so viele Fehler bei einem einzelnen Diktat. Außerdem erlaubt die relativ flexible Aufgabe des Text-Zusammenfassens ein Alternieren zwischen den Aufgaben. Weitere Beispiele: Pianisten können während sie vom Blatt spielen einen Text wiederholen (beschatten). Schreibmaschine schreiben und beschatten. Es werden neue Strategien entwickelt, um die Aufgaben mit geringst möglicher Interferenz zu bewältigen. Schwere der Aufgabe Norman und Bobrow unterscheiden zwischen Daten- (Reizqualität /Menge) und Ressourcen- Beschränkten Prozessen. Die Schwierigkeit zwei Aufgaben gleichzeitig zu lösen ist nicht nur die Summe der Einzelschwierigkeiten, sondern nimmt oft mehr in Anspruch. Duncan: Reaktion mit linker und rechter Hand auf zwei Reize. Korrespondierend (linker Finger für linken Reiz) oder gekreuzt (rechter Finger). Gleichzeitig korrespondierende und gekreuzte Reaktion war fast unmöglich. 10 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Automatische Prozesse Im Gegensatz zu kontrollierten Prozessen (mit Aufmerksamkeit) sind automatische Prozesse: • Schnell • Schränken andere Aufgaben nicht ein. • Sind unbewußt • Nicht zu verhindern Übung ist hierfür sehr wichtig, aber es ist noch unklar, wie daraus automatische Prozesse entstehen. Manche Prozesse sind nur teilweise automatisiert. Shiffrin und Schneiders Theorie • • Kontrollierte Prozesse sind von begrenzter Kapazität, benötigen Aufmerksamkeit und sind flexible anpassbar. (seriell) Automatische Prozesse haben keine begrenzte Kapazität, benötigen keine Aufmerksamkeit und sind nur schwer zu verändern. (parallel) VPn mußten sich ein, zwei, drei oder vier Buchstaben merken, dann in ein, zwei, drei oder vier Buchstaben nach irgendeiner Übereinstimmung suchen. Dabei wurden verschiedene Anordnungen benutzt: Konsistente oder vermischte Mengen von Zahlen und Konsonanten ( KBNT => 23B1 oder B2G5 => G3HM). Die Ergebnisse zeigten bessere Erkennungszeiten für konsistente Anordnungen (Bild 4.5 S.120 – aber nicht linear – nur teilweise automatisiert?). Shiffrin und Schneider brachten dies mit der jahrelangen Erfahrung (Übung) in Zusammenhang. Chang vermutete die Ergebnisse basierten auf simpler Umstrukturierung (einfache Suche nach Konsonanten) Shiffrin und Schneider: Neue Art von konsistenten Mengen ( Konsonanten B-L und Q-Z jeweils Menge). Im Verlauf von 2100 Versuchen verbesserte sich die Erkennungszeit dramatisch. (Dann Effekt Unflexibilität) Bei nachfolgenden 2400 Versuchen mit wieder vermischten Mengen benötigten die VPn 1000 um auf ihre anfängliche Rate zu gelangen. Schneider und Fisk: Zwei gleichzeitige Aufgaben. Vermischte und konsistente Anordnungen konnten genau so gut zusammen wie getrennt ausgeführt werden, zwei vermischte nicht. Norman und Shallice Theorie Unterscheidung zwischen vollautomatischen und teilweise automatischen Prozessen, sowie drei funktionalen Ebenen: • Vollautomatische Prozesse durch Schemata kontrolliert. • Teilweise automatische Prozesse benutzen ein Verteilungsverfahren zu Konfliktauflösung zwischen den Schemata ohne bewußte Kontrolle • Bewußte Kontrolle durch ein übergeordnetes System. Es existieren zwei getrennte Kontrollsysteme: Verteilungsverfahren (Konfliktauflösung) und übergeordnete Aufmerksamkeitssysteme. Logan Theorie Erklärungsversuch für den Übungseffekt: Automatische Prozesse sind schnell, da nur auf vergangene Lösungen im lanzeit Gedächtnis zurückgegriffen werden muß. Nur die Wissensbasis ändert sich im Verlauf von Übung – Anfänger sind durch unzureichendes Wissen eingeschränkt, nicht durch Ressourcen. Zerstreutheit und Handlungsversehen Die meisten Vorfälle aus den Tagebuch Studien können in Kategorien von hoch geübten Tätigkeiten eingeordnet werden. Diese können bis auf gewisse Entscheidungspunkte ohne Aufmerksamkeit ausgeführt werden. Die meisten Vorfälle sind Fehler an den Entscheidungspunkten, oder Erinnerungslücken. 11 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Tagebuch Studien Reason lies 35 VPn über 2 Wochen ihre Vorfälle von Zerstreutheit protokollieren. Es kamen 400 zusammen, von denen die meisten in 5 Kategorien passen: 40% 20% 18% 11% 5% Erinnerungslücken (Zweiten Kessel Wasser aufsetzten) Überwachungsfehler in Handlungssequenzen (statt Umziehen im Schlafzimmer, schlafen legen) Unterroutinen Fehler (Einfügungen, Auslassungen, Umordnungen von Abläufen: Lesebrille) Unterscheidungsfehler (Rasiercreme statt Zahnpasta) Montage Fehler (Bonbon Papier im Mund, Bonbon im Papierkorb) Nach Reason zwei Kontrollzustände für Bewegungsabläufe: • Geschlossener Kreislauf - Feedback (ständige Kontrolle) • Offener Kreislauf – durch Übung keine Überwachung nötig . Ursachen der Fehler: • Zentralprozessor wird entlastet • Wendet sich anderen Aufgaben zu und verpaßt den kritischen Rückschaltpunkt • Handlung fällt per default unter die Kontrolle von motorischen Programmen • Unbeachtete Information wird leicht und schnell vergessen 12 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 5 Gedächtnis: Strukturen und Verarbeitung Strukturen Im multi-store Modell drei Arten von Speichern: Sensorische Speicher, Kurzzeit- und Langzeit- Gedächtnis Unterscheiden sich in : Dauer, Kapazität, Vergessen, Effekte bei Gehirn-Schädigungen Annahme die Speicher seien uniform ist aber zu stark vereinfacht. Im working memory Modell arbeiten drei Komponenten (anstelle uniform. Kurzzeitgedächtnis): Zentrale Ausführungseinheit (schwammig), Artikulationsschleife (gut untersucht), visuell – räumlicher Schmierblock. Räumliche Metapher • • Erinnerungen werden als Objekte an bestimmten Orten abgelegt Erinnern als Suche durch den Raum Aber: Wir können oft sehr schnell entscheiden, daß wir etwas nicht wissen. Die möglichen Verknüpfungen zwischen den Objekten im 3D sind begrenzt. Indexe (Bücherei) zu unflexibel. Multi-Store Theorie Viele Theoretiker ( Attkinson & Shiffrin, Waugh & Norman) unterscheiden drei Speichertypen: • Sensorisch – Modus Abhängig, sehr kurz • Kurzzeit – Sehr begrenzte Kapazität • Langzeit – im wesentlichen unbegrenzte Kapazität, lange Dauer Außer Struktur gehört auch Verarbeitung zur Theorie ( Bild 5.1 S.136 ): Sensorisch => (Aufmerksamkeit) => Kurzzeit => (Wiederholung) => Langzeit Sensorische Speicher Sinnesreize bleiben auch nach ihrem Ende für kurze Zeit Wahrnehmbar Ganzberichtsverfahren: S G E K (50ms) OEHJ TMZI Meist nur Erinnerung an 4 oder 5 Buchstaben Teilberichtsverfahren von Sperling Tonhöhe eines Offset (-0.1 bis 1.0 sec) Tones gibt Reihe an: ≈gleichzeitiger Ton: ca 9 ( 3 pro Reihe) 0.3 sec 6 bis 1 sec 4,5 Allgemein akzeptiert: Iconisch Sensorisch 0,5 sec Speicherzeit. Information teilanalysiert: besser bei Wörtern aus vier Buchstaben. Ähnliche Ergebnisse für Akustik: „Was hast Du gesagt?“ mit gleichzeitigem erinnern. Treisman: Beim Beschatten werden zwei Nachrichten nur mit einer max. Abweichung von 2 sec. als identisch erkannt. Kurzzeit und Langzeit Gedächtnis William James (1890) unterschied als erster zwischen Kurzzeit und Langzeit Gedächtnis. Das Kurzzeit Gedächtnis hat nur eine sehr begrenzte Kapazität: ca. 7 Chunks (Bündel – Buchstaben, Wörter, kurze Phrasen). Aber auch Abhängigkeiten vom Langzeitgedächtnis ( Sequenzen von bekannten Zahlen, oder Wiederholungen) 13 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Die ersten und die letzten Zahlen einer Reihe werden am besten erinnert (free recall). Der Effekt verschwindet nach 10sec rückwärtszählen (Glanzer & Cunitz Bild 5.2 S.140), d.h. die letzten waren im Kurzzeit Gedächtnis. Einige Gehirngeschädigte haben ein normales Kurzzeit, aber defektes Langzeit Gedächtnis (Alkohol- Amnesie), einige wenige ein normales Langzeit, aber gestörtes Kurzzeit (nur 2 Chunks - Motorradunfall). Unterscheidungen bei Vergessen im Langzeit Gedächtnis: verlorene oder vorhandene unerreichbare Informationen. Kritik: Einheitliche Speicher Sicht des Langzeitgedächtnisses zu einfach: Gehirngeschädigter KF: akustische Reize wesentlich schlechter als optische & Wörter, Buchstaben, Zahlen schlechter als Klänge (Telefon, Katze). Nicht nur durch Wiederholung fließt Information in Langzeit Gedächtnis. (Außerdem keine Garantie). Working Memory Modell von Baddeley und Hitch Modell für Kurzzeitgedächtnis (Langzeit siehe Kapitel 6) Drei Komponenten: • Zentrale Ausführungseinheit ähnlich Wahrnehmung (begrenzte Kapazität) • Artikulations – Schleife (vergleichbar ca. 2 sec. Tonband - so viele Worte, wie laut aussprechbar) • Visueller/Räumlicher(wichtiger) Schmierblock Vorteile: • Unterstützung für aktives und flüchtiges Speichern • Erklärung für Mängel im Kurzzeit Gedächtnis • Neurologische Schädigungen von einer der drei Komponenten Inner Speach Die Artikulations Schleife nütz insbesondere zur Reihenfolgebestimmung von Wörtern. Unterdrückungseffekte durch wiederholte Phrasen („Hi-ya“ oder „the“) ist nur gering. Auch kleine Unterschiede in einfachen abgelesenen Sätzen werden gut erkannt. Baddeley: Wahrheitserkennung von Sätzen („Vögel haben Flügel“, „Vögel haben Schuppen“), aber große Probleme bei zwei vertauschten Wörtern. Neuropsychologie KF (s.o.): schlecht bei Worten, mittel bei Klängen. PV: Benutzt keine (stumme) Artikulation beim Lesen, keine Einflüsse durch wiederholte Phrasen. Anpassung des Working Memory Modells Feinere Aufteilung der Artikulations Schleife (Baddeley): • Passiver Speicher zur Sprachwahrnehmung (nicht notwendig bei visuellen Reizen, aber bei akustischen) • Artikulations Prozeß in Anlehnung an Sprechen Gedächtnis Prozesse Hyde und Jenkins Einen Wort-Erinnerungs Test unter verschiedenen Bedingungen: Gruppen mit versch. Wort-Einordnungs-Kriterien (wissend und unwissend vom folgenden Erinnerungs-Test ) 1. nach Gefühl (pleasentness) 2. nach Häufigkeit in der englischen Sprache 3. Auftreten von „e“ und „g“ in den Wörtern feststellen 4. Nach Wortart 5. Entscheiden ob sie in bestimmte Satzformen passen +Kontrollgruppe nur mit Lernziel. (Bild 5.3 S.149) assoziative(besser) und nicht assoziative Wortgruppen wichtig: unbeabsichtigtes/beabsichtigtes Lernen bei semantischen (ersten beiden) Aufgaben fast gleich gut. 14 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Verarbeitungsebenen Theorie ( Levels of Process ) Craik und Lockhart: Aufmerksamkeit und Wahrnehmung legen fest, welche Inhalte im Langzeit Gedächtnis gespeichert werden. Tiefere Analyse auf den Verarbeitungsebenen ergibt besseres Erinnern Elaboration (Durchdenken) Craik und Tulving: Weitere Angaben (Kontext) sind weitere Faktoren für die Erinnerbarkeit. VPs mußten entscheiden, ob ein Wort in einen Lückensatz paßt. Danach Erinnern an die Wörter; passende Wörter wurden besser erinnert. Nicht nur Menge der Angaben war entscheidend, sondern auch die Art (Witze besser: „Ein Moskito ist wie ein Doktor, beide saugen Blut“, als mehrfache Angaben „wie Biene, beide Beine, Flügel, Stachel“) Kennzeichen Unterscheidbarkeit ist nach Eysenck ebenfalls sehr wichtig: Wörter, deren Konsonanten in ihrer ursprünglichen Phonetik ausgesprochen werden müssen, werden besser erinnert. (Bild 5.4 S. 152) Kritik Es ist nur schwer zu sagen auf welcher Verarbeitungsebene ein Prozeß sich befindet, zum Teil unmöglich (Zirkuläre Beweisführung Eysenck – mehr beschreibend als erklärend). Morris et al.: Unterschiedliche Verarbeitungsprozesse führen zu unterschiedlichen Gewichtungen im Erinnerungsvermögen. Semantische & Reim Aufgaben (Bild 5.5 S. 154). Erinnern und Vergessen Broen und McNeil: lasen Studenten Lexikon Definitionen von Wörtern vor. Oft konnten sie das Wort nicht identifizieren, obwohl sie das Gefühl hatten, daß es ihnen auf der Zunge lag. Jede Erinnerung kann andere Vorgänge erfordern (Introspektion – Erinnern an) 1. eigenen Namen (sofort, automatisch) 2. treten eines Fußballs (genaue Handlungsbeschreibung, abhängig von Beschreibungsfähigkeiten) 3. Wo sind die Autoschlüssel? (längeres Nachdenken mit vielen Prozessen) Es existiert keine allgemeine, zufriedenstellende Theorie, wie Vergessen funktioniert, aber mehrere Faktoren sind bekannt und einige Phänomene verstanden. Permanentes Gedächtnis Vergessene Informationen können entweder einfach verloren sein, oder gespeichert - aber ohne Zugriff. In einer Umfrage (1980) unterstützten 84% der Psychologen die These, daß alles permanent gespeichert wird - nur oft der Zugriff darauf fehlt. Die Nachweise hierfür sind jedoch dürftig. Elektrische Stimulation Wilder Penfield stimulierte Patienten an der Gehirnoberfläche um das Zentrum der epileptischen Anfälle festzustellen. Dabei erlebten einige Patienten sich sehr genaue Vorfälle aus ihrer Kindheit. Aber nur bei 7.7% trat dies auf und es ist auch nicht nachzuvollziehen, inwieweit die Szenen nur rekonstruiert waren. Hypnose Polizei benutzt z.B. Hypnose zur Erinnerung an Nummernschilder oder Täterbeschreibungen. Hypnotisierte Personen sind aber häufig unkritisch und können sich z.B. auch an die Zukunft „erinnern“. Putman: führte VPn einen Film über einen Unfall (Auto mit Fahrrad) vor. Hypnotisierte VPn machten (besonders bei fehlleitenden Fragen) mehr Fehler. 15 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Zwei Prozeß Theorie Es ist einfacher etwas wiederzuerkennen als sich daran zu erinnern. Watkins und Gardiner (1979): • Erinnern ist ein Suchprozeß gefolgt von einem Entscheidungsprozeß. • Erkennen ist nur ein Entscheidungsprozeß Rabinowitz, Mandler und Patterson: Erinnern an kategorisierte Wortlisten. • Einmal normal. • Mit einer besonderen Anweisung wurden 23% mehr Wörter erinnert: Wörter aus den Kategorien erzeugen und dann diese verlauten lassen, falls die in der Liste vorkamen ( Erkennungstest ) Kritik: Nach Watkins (1973) ist Erinnern manchmal leichter als Erkennen. Er präsentierte Paare wie „EXPLO-RE“ und „SPANI-EL“. Mit Stichworten („EXPLO-?“, „SPANI-?“) wurden sich besser erinnert, als andere Teile wiedererkannt („RE“, „EL“). Aber hierbei hat er den Kontext bei Präsentation vernachlässigt. Erkennung von Objekten ist ebenfalls kontextsensitiv => ein Suchprozeß muß auch an Erkennung beteiligt sein. Encoding Specificity ( Verschlüsselungseinzelheiten ) Tulving unterscheidet nicht so sehr zwischen der Verarbeitung bei Erkennen und Erinnern. Je größer die Übereinstimmung (incl. Kontext) zwischen Lernen und Testen ist, desto besser. Stichwort Test mit assoziativen (White-Black) und nicht assoziativen (Train-Black) bei Lernen und Test. Ein Wechsel zwischen Lernen und Test ergab immer ein schlechteres Erinnern (Bild 5.6 S.161). Erinnern sei deshalb schwerer als Erkennen, da hier noch die Objekt - Benennung hinzukommt. Kritik: Es besteht die Gefahr eines zirkulären Schlusses, die Speicherung beruht auf Übereinstimmung (informational overlap) , die Test Performance ebenfalls. Information wird oft nicht in dieser einfachen Weise verglichen („Was hast Du vor 6 Tagen gemacht?“ – Antwort erfordert komplexeres Erinnnerungsmuster). Jones unterscheidet zwei Wege zur Erinnerung: • Direkt: (legal –Beer) (legal -?) • Indirekt: zusätzliche versteckte Information durch Wortumkehr (legal => Lager) Kontext beeinflußt auch nicht Erinnern und Erkennen in gleicher Weise. Baddeley unterscheidet zwischen innerem ( Intrinsic – Direkter Bedeutungseinfluß: z.B. Stachelbeer und Verkehrs – „Jam“) und äußerem Kontext (Extrinsic: z.B.Lern – Raum) Lernen einer Liste unter Wasser und an Land. Erinnerung war am selben Ort 50% besser, Erkennung zeigte keinen Einfluß. (Bild 5.7 S.164) Neuere Ansichten über Erinnern und Erkennen Möglicherweise gibt es noch mehrere unterschiedliche Strategien innerhalb Erkennung und Erinnerung (Jones s.o.). Außerdem zeichnen sich mehrere Kombinationen der zwei Prozeß und Encoding Theorie ab. Mandler´s Theorie zu Erkennung Zwei Unterscheidungsmechanismen: • Vertrautheit (sensorische/wahrgenommene Reize) • Identifikation (In Kontext setzten) Falls die Vertrautheit hoch oder niedrig ist, entscheidet man sich schnell, ansonsten kommt Identifikation ins Spiel. Beide Prozesse laufen parallel, aber Vertrautheit ist wesentlich schneller, aber auch vergänglicher. Mandler: Eine lange Liste von Worten soll in Kategorien (min 2, max 7) eingeteilt werden. Gefolgt von einem unerwarteten freien Erinnern.. Pro zusätzlicher Kategorie wurden ca. 4 Wörter mehr erinnert. 16 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Ein Erkennungstest folgte in unterschiedlichen Abständen (sofort, 2, bzw. 5 Wochen). Die Anzahl der Kategorien erhöhte ebenfalls die Trefferquote, die Erkennung war jedoch langsamer. Parallele verteilte Prozesse Forschung steckt noch in den Kinderschuhen (Siehe auch Bild 1.3 und 1.5) Informationen über eine Person oder ein Objekt sind nicht an einer Stelle, sondern verteilt abgelegt. Lernen verstärkt die Beziehungen. (McClelland) Sucht man beispielsweise nach einem männlichen, sehr dominanten Premierminister, der den Falkland Krieg gewonnen hat, so bringt man am ehesten „Thatcher“ damit in Verbindung, obwohl bei einer seriellen Verarbeitung nur männliche Personen in Betracht gekommen wären. Bei „spontaner Verallgemeinerung“ können wir aus uns bekannten Details Abstraktionen bilden. Bei einer „default Anweisung“ übertragen wir fehlende Informationen von ähnlichen Objekten. Turner präsentierte Alltagsgeschichten (Restaurant), es wurden Dinge erinnert, die nicht in den Geschichte vorkamen. Amnesie Patienten können oft allgemeine Eigenschaften von Objekten erlernen, aber keine Individuellen Informationen. Die individuellen Verbindungen sind zu schwach, aber durch Wiederholung werden die allgemeinen stark genug. 17 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 6 Gedächtnis Theorien und Amnesie Amnesie bildet eine gute Testgrundlage für Theorien bezüglich des „normalen“ Gedächtnisses (z.B. Kurzzeit – Langzeit Gedachtnis), und kann auch zu neuen Theorie Ansätzen führen. Die Gründe für die Amnesie können sehr unterschiedlich sein, aber es hat sich der Begriff des „Amnesie Syndroms“ eingebürgert: • Erinnerungsverlust nach Einsetzten des Amnesie • Erinnerungsverlust vor Einsetzten des Amnesie • Oft normale Intelligenz abgesehen vom Gedächtnis • Intaktes Mittel- oder Kurzzeit- Gedächtnis (normale Konversation möglich) • Noch einige übriggebliebene Lernfähigkeiten Amnesie Syndrom oder Syndrome Einheitliche Sicht der Amnesie Patienten vereinfacht zu stark. Parkin untersuchte die verschiedenen Symptome, bei unterschiedlicher Hirnschädigung. Patienten mit Korsakoff Syndrom haben häufig eine Schädigung des diencephalon (sub-kortikal) und/oder des Frontal-Lappens. Encephalitis Patienten (Gehirn Entzündung) an den Schläfen Lappen des Kortex. • • • Schläfen Lappen: schnelles Vergessen Diencephalon: kontextuelle Unterscheidungsprobleme ( Zeit und Ort ) Frontal Lappen: schlechte Selbsteinschätzung bei Gedächtnis, zeitliche Unterscheidung gestört Shinamura und Squire: Korsakoff Patienten überschätzen oft Ihr Erinnerungsvermögen und haben ein breiteres Spektrum an Gedächtnis Problemen Lhemitte und Signoret: Präsentation von 9 bekannten Objekten (3x3), dann mit veränderter Anordnung. Korsakoff Patienten konnten nach ca. 13 Lern - Versuchen die Objekte wieder in die richtige Reihenfolge bringen und auch länger behalten (nach 4 Tagen noch gute Erinnerung). 2 von 3 Schläfen Lappen Patienten konnten auch nach 20 Lernversuchen noch nicht richtig einordnen und vergaßen das meiste schon nach 3 Minuten. Verbliebene Lernkapazität Die meisten Amnesie Patienten haben ein normales Kurzzeit Gedächtnis (Korsakoff – digit span Task), bei nur wenigen ist es umgekehrt. Die Lernfähigkeiten von Amnesie Patienten werden häufig unterschätzt, da sie nur ein sehr geringes Bewußtsein über das Gelernte besitzen. Fähigkeiten Vor allen Dingen Fähigkeiten im Motorischen Bereich wurden auf Verbesserungsmöglichkeiten untersucht. z.B. Zielverfolgung, Spiegelschrift, Puzzle, Türme von Hanoi ( Fähigkeiten vor Einsetzen der Amnesie scheinen erhalten zu bleiben – Golf spielen) Cohen und Squire: Spiegelschrift, generelle Verbesserung, spezielle Verbesserung bei Wiederholung der gleichen Wortgruppe. Amnesie Patienten waren gleich bei der generellen Verbesserung, aber schlechter bei der speziellen Verbesserung. Moscovitch formulierte drei Charakteristika für gut verarbeitete Aufgaben: • Anforderungen müssen dem Patienten klar sein • Die geforderte Reaktion innerhalb der Möglichkeiten des Pat. • Kein Bezug auf spezielle Vergangene Ereignisse nötig Priming Effekt Der gleiche Reiz bei zwei Gelegenheiten wird bei der zweiten schneller erkannt. (auch ohne bewußte Kenntnis) 18 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Cermak, et al.: Zeigten eine Liste von Worten, gefolgt von einem Identifizierungs- und einem Wiedererkennungstest. Korsakoff Patienten waren beim Wiedererkennen wesentlich schlechter als Alkoholiker ohne Amnesie. Die Identifizierung wurde jedoch bei ihnen ähnlich beschleunigt (Priming Effekt – Bild 6.1 S.184) Unbewußtes Priming kann aber auch bei normalen Menschen vorkommen (Objekte in Kiste finden, Wiederholung nach 17 Monaten) Gedächtnistheorien und Amnesie Einige Theorien wurden mit Hilfe von Amnesie überprüft, andere neu entwickelt (Schachter: implizites und explizites Gedächtnis). Es folgen die wichtigsten Theorien in Bezug auf Amnesie und normale Menschen; es existieren viele Überschneidungen. Das multi-store Modell, levels of Processing (Kapitel 5) und die Unterscheidung zwischen semantischem und episodischen Gedächtnis werfen bei der Erklärung von Amnesie Probleme auf. Neuere Theorien, wie proceduales und deklaratives Wissen (Beschädigung von Gedächtnissystemen) , explizites und implizites Gedächtnis (Testform) sind vielversprechender. Episodisches und Semantisches Gedächtnis Tulving unterscheidet zwei verschiedene Langzeitgedächtnis Systemen (weiteres Kapitel 8): • Das episodische Gedächtnis enthält Informationen über bestimmte Ereignisse zu einer bestimmten Zeit und an einem bestimmten Ort (Was hatte man zum Frühstück?) • Das semantische Gedächtnis zusammenhänge zwischen Objekten (Thesaurus: Regeln, Formeln, Algorithmen zur Objekt Manipulation. Das episodische verwendet oft das semantische (Frühstück – Informationen über Bacon, Eier, Bohnen). Relevanz für Amnesie Patienten: • Geringes episodisches Gedächtnis (Korsakoff – Vergessen wann aufgestanden) • Gutes semantisches Gedächtnis (gute sprachliche Fähigkeiten ) Kritik: Es wurde jedoch klar gezeigt, das diese Sicht fehlerhaft ist. Hauptsächlich große Probleme mit neu zuerlernendem nach Amnesiebeginn (Nach Operation) Bild 6.1 S. 188 Gedächtnis System Semantisch Lern Zeitpunkt Vor Amnesie Gedächtnis Fähigkeiten Gut Semantisch Nach Amnesie Sehr schlecht Episodisch Vor Amnesie Ordentlich Episodisch Nach Amnesie Sehr schlecht Nachweis Intakte Sprache & Intelligenz Gabrieli et. Al. (Unfähigkeit neue Wörter zu erlernen) Zola-Morgan et. Al. (gleich viele spontane Erinnerungen zu Wortlisten wie normal) Duzende Laborstudien Kontext Mangel Theorie (Context Processing Deficit) Amnesie Patienten können Informationen über das zu Erinnernde speichern, aber nicht den Kontext. Huppert und Piercy zeigten an zwei aufeinanderfolgenden Tagen zum Teil verschiedene Bilder. Korsakoff Patienten konnten sich im Gegensatz zu normalen Menschen nicht so gut an den Tag erinnern (Temporärer Kontext), wohl aber gleich, ob sie das Bild überhaupt schon gesehen hatten. (Bild 6.2 S.190) Nach Mandler´s Theorie (Kapitel 5) scheint die Vertrautheit (familiarity) intakt, Identifizierung nicht. Theorie liefert aber keine Erklärung warum Patienten keine Kontext Informationen speichern können. 19 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Deklaratives und Prozeduales Lernen Ähnlich Theorie von Ryle: Wissen das (Eier zum Frühstück) und wissen wie (Klavierspielen). Cohen und Squire (weiteres Kapitel 8): • Deklarativ: Traditionelle Gedächtnissicht (Dekodierung, Speichern, Abrufen auf Anforderung) • Prozedual: Erfahrung führt zu Abläufen ohne bewußten Zugriff auf Wissen. Relevanz für Amnesie Patienten: • Beschädigtes deklaratives Lernsystem • Intaktes prozeduales Lernsystem Anekdote: Reichte Hand mit Nadel einer Amnesie Patientin. Sie wollte ihm danach nicht mehr die Hand geben, wußte aber nicht warum. Kritik: • Kategorisiert nur die Gedächtnis Fähigkeiten und liefert keine Erklärung. • Häufig treten Kombinationen von deklarativ/prozedual auf (Golf: Linken Arm gestreckt halten). • Nur prozeduales Intakt => keine Erklärung für intaktes Kurzzeit Gedächtnis • Viele Amnesie Patienten können deklarative Informationen lernen (Schachter: Fiktive Aussagen über berühmte Personen) Explizites und implizites Gedächtnis Schachter und Graf unterscheiden: • Implizites Gedächtnis, unbewußte Erinnerung • Explizites Gedächtnis, bewußte Erinnerung (free recall, cued recall und Wiedererkennen) Verschiedene Manipulationen an den Lernbedingungen zeigen unterschiedliche Ergebnisse für explizites und implizites Gedächtnis. Jacoby und Dallas: Wiedererkennung (Explizit) und Identifizierung (Implizit) von Wörtern. Die sollten zuvor unterschiedlich analysiert werden (physikalisch, Reim, Semantisch – ja, nein Antwort). VPs waren normale Menschen. Bei der Wiedererkennung steigt der Erkennungsanteil von physikalisch, Reim bis semantisch an. Bei Identifizierung bleibt er bei allen gleich hoch. (Bild 6.3 S.194) Schachter über Amnesie Patienten: • Schlechtes Explizites Gedächtnis • Gutes Implizites Gedächtnis Graf et al: Wort Listen nach Neigung bewerten, dann vier Gedächtnistest ( free recall, cued recall, Wiedererkennen – explizit und Wort Vervollständigung – implizit). Normale Menschen waren bei allen Aufgaben außer der Wortvervollständigung besser als die Amnesiepatienten. (Bild 6.4 S.195) Kritik: Deskriptiver Level, Kurzzeit Gedächtnis benutzt oft beides. Theoretische Betrachtungen Um alle unterschiedlichen Phänomene zu erklären sind mehrere Theorien nötig. Schachter führt drei Kategorien an: • Activation Theorie: Ein gezeigtes Wort führt zu einer automatischen Aktivierung seiner internen Repräsentation (nach Sekunden, Stunden, Tagen - => unterschiedlich schnell implizit). Explizite werden durch aktive Unterstützung beschleunigt. (Erklärung für Jacoby und Dallas, Bild 6.3 s.o.) • Processing Theorie: Daten-Getrieben durch externe Reize (implizit) und Konzept-Getrieben durch das Individuum selbst angestoßen (explizit) • Multiple-Memory: Procedual und Deklarativ (s.o.) 20 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 7 Mentale Repräsentation Einführung Bild 7.1 S. 202 gibt einen groben Überblick über das Kapitel – Die Aufteilung der Repräsentation in Extern (Bildlich und Sprachlich) und Intern (Symbolisch und Verteilt). Repräsentation Extern Bildlich Intern Sprachlich Symbolisch Analog (Bilder, mentale Modelle) Verteilt Propositional on(Book, Desk) Verteilte Repräsentation wird oft als detailliertere symbolische Repräsentation gesehen. Propositionen sind sprachähnliche Analogien werden manchmal als Propositionen aufgefaßt. Externe Repräsentation Etwas, das für etwas anderes steht ( Karte, Gemälde, Geschichte ). Entweder als Worte oder aufgeschrieben (Sprachlich) oder als Pictogramm/ Diagramm. Bsp.: Raumbelegung – Plan (Liefert natürlicherweise mehr Informationen, ist analog) versus sprachliche Beschreibung (Bild7.2 S. 203). Eigenschaften von sprachlicher und bildhafter Darstellung Ein Buch auf einem Tisch (Bild 7.3 S. 205): Sprachlich Diskrete Symbole (Es gibt kleinste Einheiten – Buchstaben) Explizit (Benötigt Symbol für Beziehung – „auf“ Grammatikalische Regeln (nicht: Ein Tisch Buch einem auf) Abstrakt (keine direkte Beziehung zu einem Sinn) Bildhaft Nicht diskret Implizit Nur lose Kombinationsregeln Konkret (Sinnesbeziehung – Hier: Sehen) Von Externer zu Interner Darstellung Die Unterschiede in der externen Darstellung können auf die mentale Übertragen werden. Propositionen (sprachlich) und Analogien (Bildhaft). Vorstellungsbilder als analoge Darstellung (Bilder im Kopf) Vorstellungsbilder wurden schon vor über 2000 Jahren von Aristoteles untersucht. Als der Behaviourismus Anfang dieses Jahrhunderts die Introspektion verwarf, waren die Untersuchungen bis zu Aufkommen des Informationsverarbeitungs-Ansatzes verpönt. Vorstellungsbilder sind das, was wir im Kopf haben, wenn wir uns etwas vorstellen. Einige Theoretiker gehen davon aus, daß sie Bildhaft und von Propositionen verschieden sind, andere daß sie eine verfeinerte Art von Proposition darstellen. Eine weitere Streitfrage ist, ob Vorstellungsbilder für normale Funktion vonnöten sind oder nur Indikatoren von Funktion (PC-LED Metapher). 21 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Paivio`s Duale Kodierungstheorie • • • • • Zwei unabhängige, aber zusammenhängende Systeme: verbal und nicht verbal Beide spezialisiert zu Verarbeitung ganz bestimmter Daten Beide weiter unterteilt (Bild 7.1 S. 209) Beide besitzen Grunddarstellungen: logongens/verbal und images(Vorstellungsbilder)/nicht verbal Es bestehen Verbindungen zwischen logongens und Vorstellungsbildern (Objekt – Benennung ). Beide sind modal spezifisch (Sound „Schnee“ anderes logongen als das Wort „S-c-h-n-e-e“) (siehe Bild 7.4 S.209) Unterstützung der Theorie auch durch Experimente zu semantischem und episodischem Gedächtnis (siehe auch Kapitel 6 & 8). Vorhersagen: Die beiden Systeme arbeiten entweder unabhängig, oder falls bei involviert sind entsteht ein additiver Effekt. Freie Erinnerung Paivio: Bildfolgen sind wesentlich besser zu erinnern als Wort Listen. (Laut Paivio rufen Bilder oft eine ad hoc Benennung hervor, ein additiver Lerneffekt entsteht). Die Instruktion sich die Wörter bildlich vorzustellen verbessert deren Erinnerung wesentlich. Bessere Erinnerung an konkretere Wörter als an abstrakte. Ein besserer Lern - Effekt tritt jedoch auch auf, wenn man die Wörter in einen kurzen Satz einbinden soll! Neuropsychologie Verarbeitungsunterschiede zwischen den Hemisphären: Piavio: Abstrakte Wörter werden im rechten visuellen Feld besser erkannt (Verarbeitung in linker Hemisphäre). Bei konkreteren Wörtern keine Unterscheidung möglich. Später werden wir sehen, daß Bilder aber auf kompliziertere Weise entstehen können. Struktur von Vorstellungsbildern Bisher nur wage: Was sind eigentlich Vorstellungsbilder? Wie funktionieren sie? Hauptsächlich zwei Arten von Experimenten zur Erklärung: Mentale Rotation (Transformation von Objekten) und Bildprüfen (Absuchen einer Landkarte). Danach sind Vorstellungsbilder enge Analogien ihrer original Objekte. Mentale Rotation Chopper und Shepard zeigten gedrehte, zum Teil gespiegelte Buchstaben (Bild 7.6 S. 217). Je mehr die Buchstaben gedreht waren, desto langsamer konnten die VPn entscheiden ob sie gespiegelt oder nicht gespiegelt waren. (Ähnliche Ergebnisse auch für andere Objekte) Bildprüfen Kosslyn et al.: Karte einüben bis sie ziemlich genau nachgezeichnet werden konnte. Dann Aufforderung nach einem bestimmten Objekt auf der Karte zu suchen und dann nach 5 Sekunden das nächste anzupeilen (über eine gedachte Linie). Je weiter die jeweiligen Positionen auseinander lagen, desto länger die Reaktionszeit beim Absuchen der mentalen Landkarte. Propositionale Darstellung Sprach- (Russisch, Chinesisch) und Modus- (visuell, akustisch, Geruch) Unabhängige Beschreibung. Explizit, diskret und abstrakt (s.o.). 22 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Prädikaten Logik (Computermodulation durch LISP & PROLOG): On(Book, Table) Hit(Mary, John, Stick) & Hard(Stick) Zweiter Ordnung: Cause[ Hit(Mary, John, Stick), Hurt(Mary, John) ] Siehe auch Semantische Netzwerke und Schemata (Kapitel 8) Die Vorstellungsbilder – Propositionen Debatte I Einige Psychologen, allen voran Pylyshyn, bezweifeln den Nutzten von Vorstellungsbildern und suchen Erklärungen rein propositionaler Natur. Dies führte auf Seiten der Vorstellungsbild – Befürworter zu genaueren Spezifikationen. Pylyshyn´s erste Kritik Welle Das Konzept der Vorstellungsbilder war Pylyshyn zu vage. Um das „Gedanken-Auge“ zu erklären müsse man wieder ein anderes heranziehen (Endlosschleife). Die unterschiedlichen Formate der verbalen und nicht verbalen Darstellung würden noch ein Austauschformat benötigen, warum also nicht gleich ein einheitliches Format auf Basis von Propositionen. Die Ergebnisse für mentale Rotation könnten auch wie folgt erklärt werden (wenn auch umständlich): Darstellung TOP(23O, „A“) - Änderung des Prädikates nicht in einem sondern in vielen kleineren Schritte => Zeit – Drehungs- Relation. Gegenargumente zur ersten Welle Vorstellungsbilder sind keine Bilder, sondern quasi- räumliche Einheiten aus Wahrnehmungserfahrungen. Wie Vorstellungsbilder ohne „mentale Augen“ erklärt werden können: nächster Abschnitt (Kosslyn) Kosslyn´s Theory und Computer Modell der Vorstellungsbilder Kosslyn entwarf eine Theorie in der Vorstellungsbilder sowohl propositionale als auch nicht propositionale Darstellungen in einem Medium mit speziellen Eigenschaften benutzen. Diese speziellen Eigenschaften wurden in Experimenten nachgewiesen und durch neuropsychologische Studien unterstützt. Modell (Bild 7.9 S. 225): • Visuelle Vorstellungsbilder werden in einem speziellen, räumlichen Medium erzeugt • 4 Eigenschaften des Mediums: (i) begrenzte räumliche Ausdehnung; (ii) Höchste Auflösung in der Mitte; (iii) Körnung, die Details verbirgt; (iv) das Vorstellungsbild verblaßt • Langzeit Gedächtnis enthält zwei Arten von Datenstrukturen: Vorstellungsbild Ordner(Files) in einem Analogie- Format und Porpositions Ordner mit Informationen zu Beziehungen zwischen Teilobjekten. Das räumliche Medium ist ähnlich einer Kathodenstrahlröhre: Punkte und Pixel an bestimmten Koordinaten. Die Vorstellung wird erzeugt in dem zunächst die Grobform aus dem Vorstellungsbild Ordner geladen wird (Enten Umriß). Dann werden Anhand der Propositionen (HAT FLÜGEL)(FLÜGEL AUF JEDER KÖRPERSEITE) weitere Bilder überlagert (Flügel). Bild 7.10 S.228 Image Tracing Aufgabe Test zur begrenzten Ausdehnung und zur Körnung des räumlichen Mediums (BILD 7.11a/b S. 230: Einen Hasen in Kontext mit einem Elefanten oder mit einer Fliege vorstellen. Details des Hasen sind schneller zu erkennen in Verbindung mit der Fliege. Beim Elefanten zeigt sich (intropektiv) ein Heranzoomen des Hasen. Begrenzte Ausdehnung 23 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" VPn sollten sich Tiere weit weg vorstellen und dann virtuell heranzoomen bis sie alles sehen konnten. Danach sollten sie die Entfernung zum Objekt schätzen, diese stieg linear zur Größe des Tieres an. (Bild 7.12 S.231) 24 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Neuropsychologie Patienten mit getrennten Hirnhälften können in der linken Hemisphäre Vorstellungsbilder erzeugen. Die rechte Hemisphäre kann alle Arten von visuellen Aufgaben bewältigen, außer der Erzeugung von Vorstellungsbildern. Die Vorstellungsbilder – Propositionen Debatte II Pylyshyn´s zweite Kritik Welle VPn tuten genau das, was man ihnen sagt und verfälschen so die Ergebnisse bezüglich der tatsächlichen Abläufe: Beim Bildprüfen (s.o.) verschwindet die Korrespondenz zwischen Wechselzeit und Objektentfernung, falls man die VPn instruiert zu den Objekten zu springen (und nicht einer gedachten Linie zu folgen) Der Verstand habe eine funktionale Architektur (Hardware-Level kann nicht durch High-Level/Software verändert werden). Falls Vorstellungsbilder in einem speziellen Hardware Medium arbeiten, so müssen sie selbst angepaßt/unveränderbar sein. Dies ist jedoch offensichtlich nicht der Fall. Gegenargumente Ihm wird Mißdeutung der Ergebnisse vorgeworfen. Johnson-Laird: Vorstellungsbilder und Anschauungen sind beide high-level Konstrukte. Daß sie sich beeinflussen, heißt nicht daß sie sich ausschließen. (nächster Abschnitt) Mentale Modelle als Analogie Darstellungen Johnson Laird führte zusätzlich eine dritte Art von Darstellung ein: Mentale Modelle, diese können völlig analog, teilweise analog oder teilweise propositional sein und sind mit Vorstellungsbildern verwandt. Wichtig: Der Begriff Mentales Modell wird von anderen Theoretikern in anderem Zusammenhang benutzt. Johnson-Laird benutzt ein andere Definition von Proposotion (mehr Philosophisch): mentale Darstellung von verbal ausdrückbaren Propositionen. Vorstellungsbilder und mentale Modelle sind Hochsprachen – propositionaler Code die Hardcode Sprache. Menschen benutzten unterschiedliche Darstellungen für unterschiedliche Aufgaben. (Denken und Schlußfolgern Kapitel 12) Mentale Modelle sind analog, festgelegt und konkret (Sinnesbezug), Propositionen sind nicht festgelegt: „Das Buch ist auf dem Regal“ kann vieles heißen: links, rechts, mittig, hochkant, aufgeklappt ... Das mentale Modell dazu: Ein bestimmtes Buch, das in einer bestimmten Lage/Position auf einem Regal liegt. Das Vorstellungsbild hierzu ist dieses Buch von einer bestimmten Betrachtungsposition. Experiment: VPn wurden Propositionen (Relative Lage von Geschirr/Besteck) und eine Bildliche Darstellung zur Überprüfung dargeboten (Tabelle 7.2 S.238 ). Danach folgte ein Erinnerungstest an die Propositionen. Waren diese nicht festgelegt (mehrere Anordnungsmöglichkeiten), dann ergänzten die VPn die Propositionen bis zu einem festgelegten mentalen Modell. Verteilte Darstellung und verteilte Verbindungen (Connectionism) Es gibt ein Anzahl von Schwierigkeiten beim Symbol Ansatz: • Schon einfache Aufgaben sind mit Symbol- Theorien nur komplex darstellbar • Verbindung zu untergeordneten Strukturen (Neuronen) unklar Der Connectionisten Ansatz basiert auf Netzen aus neuronenähnlichen Einheiten, Information auf Sub-Symbole verteilt: Verteilte Darstellung. 25 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Verteilte Darstellung der Ansicht und des Geruchs einer Rose Einfache Kodierung der Eingangsreize. Verschiedene Verbindungsstärken zwischen den Einheiten, diese aktivieren/deaktivieren andere. Ansicht einer Rose => Aktivierung des Geruchs (Bild 7.13a S.240) Verteilte Darstellung gegen Lokale Darstellung Einige Connectionisten Modelle verwenden lokale Darstellungen ähnlich Symbolen. Eine Einheit ist ein Objekt – bei Verteilten Systemen ist eine Einheit eine Menge von Objekten. Der aktuelle Status hängt vom Aktivierungsmuster ab. (Bild 7.14 S. 241) Verteilte Darstellung und Propositionen/Vorstellungsbilder Ob sich die Modelle wieder sprechen, oder ob symbolische Modelle ein gröbere Struktur oberhalb der verteilten Darstellung bilden, ist noch nicht ganz klar. Verteilte Systeme haben einige vielversprechende Eigenschaften: Inhalts- Adressierung (Erinnerungen rufen andere hervor – Genereller Zugriff auf alle Inhalte) Automatische Generalisierung (vgl. Kapitel 5) 26 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 8 Die Organisation von Wissen Einführung Die Frage „Was ist Wissen?“ läßt sich aufteilen: Welches Format benutzen mentale Darstellungen? – Wie sind mentale Darstellungen organisiert? Format: Bereits in Kapitel 7 wurde zwischen Analogien und Propositionen unterschieden. Die meisten Theorien in diesem Kapitel verwenden propositionale Darstellung. Organisation: Viele Arten wie die aktuelle Forschung unterteilt werden kann (Bild 8.1 S.249) Wissen Einfache Organisation Objekt Konzepte Komplexe Organisation Relationale Konzepte Schemata Ereignisse und andere Wissensstrukturen Frames Scripts Einfache Organisation: Gruppierung von verschiedenen Einheiten in ein Konzept (Hund&Katze: Tier) Objekt Konzept (Hund, Vogel, Stuhl, Möbel) und relationales Konzept (schlägt, gibt, frißt) Komplexe Organisation: Strukturierung von großen Grupen von Konzepten in komplexen, kognitiven Aufgaben (Zusammenfassen einer Geschichte) Ereignisse aus dem täglichen Leben und ihre Abläufe/Planungen in Wissenstrukturen(Schemata, Frames und Scripts) Keine strickte Einteilung, sondern Übersicht. Einzelne Konzepte aus der einfachen Organisation hängen von komplexer Organisation ab. Unterschiedliche Wissenstypen Die Unterscheidungen sind mehr Heuristisch als Inhaltlich zu sehen (viele Verflechtungen) Semantisches und Episodisches Gedächtnis Kapitel 6: Tulving Semantisches Gedächtnis speichert Fakten und Relationen Episodisches Gedächtnis speichert Episoden und Ereignisse (mit Zeit- Kontext) (Nicht offensichtlich: Wort Listen werden im episodischen Gedächtnis gespeichert.) Deklaratives und Prozeduales Wissen Kapitel 6: Wissen wie (Radfahren) und wissen das. Radfahren ist schwer zu beschreiben (allgemeines Problem bei prozedualem Wissen). Anderson (Kapitel 11): Wir lernen zunächst deklarativ, mit zunehmender Übung wird das Wissen prozedual. Traditionelle Theorien – Konzepte In dieser und den nächsten zwei Abschnitten folgen Traditionelle Modelle der einfachen Organisation. Das Kategoriesierungsspiel Die Einteilung von Objekten in (hierarchische) Kategorien erleichtert ihr Erlernen, Wahrnehmung und Wiedererkennen. 27 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Die Sicht der Definierenden Attribute Frege entwickelte ein Konzept basierend auf definierenden Attributen. Intensionen sind Mengen von Attributen, die eine Menge von Objekten einer Kategorie zuordnen (männlich, unverheiratet, erwachsen). Extensionen sind alle Elemente einer Kategorie (alle Junggesellen). Charakteristisch für die Theorie: • Bedeutung eines Konzeptes beschrieben durch eine Liste von Attributen. • Jedes Attribut ist zwingend notwendig, falls das Objekt als Instanz des Konzeptes erkannt werden soll. • Es gibt somit klare Grenzen zwischen Mitgliedern und Nicht- Mitgliedern. • Alle Mitglieder sind gleich repräsentativ. • Bei hierarchischen Konzepten werden alle Attribute vererbt Wir werden sehen das sich die Forderungen nach klaren Grenzen und Repräsentativität aller Mitglieder in der Praxis oft nicht bestätigen. Brunner et al. zeigten mit einem Reizfeld aus Objekten mit unterschiedlichen Attributen, daß Objekte nach Attributen geordnet werden. (Bild 8.2 S. 255) VPn mußten nur dem Versuchsleiter bekannte Attribute herausfinden, indem sie nachfragten ob bestimmte Objekte passend waren. Collins und Quillian´s Netzwerk Theorie Struktur des semantischen Gedächtnisses als hierarchisches Netzwerk (Bild 8.3 S.256): • Konzepte werden als Hierarchien von verbundenen Konzept- Knoten dargestellt (Tier, Vogel, Kanarienvogel) • Jedes Konzept besitzt Attribute (Hat Federn, kann fliegen) • Untergeordnete Konzepte erben alle Attribute von ihren Übergeordneten • Attribute können auch von der Vererbung ausgeschlossen werden (Strauß, kann nicht fliegen) • Verschiedene Prozesse suchen die Hierarchien von Knoten zu Knoten ab • Daher benötigen Fragen nach Konzept- Zugehörigkeit ( Ist ein Vogel ein Tier? ), oder nach Attributen (Kann ein Kanarienvogel fliegen?) je nach Entfernung in der Hierarchie mehr Zeit zur Beantwortung. Bei einer Satzverifikationsaufgabe (Ist ein Strauß ein Fisch?) – fanden Collins und Quillian der Zeit/Entfernungs- Zusammenhang. Leichte Kritik: Nicht alle Attribute sind für eine Zuordnung gleich wichtig. Ebenso sind nicht alle Mitglieder einer Kategorie gleich repräsentativ (Tarzan ein repräsentativer Junggeselle in Ermangelung weiblicher Gesellschaft?) Fundamentale Probleme: Es ist oft schwer die definierenden Attribute festzulegen. Manchmal scheinen Konzepte keine allgemeingültigen Attribute zu besitzen (Konzept: Spiel –viele verschiedene Arten von Spielen: Ball, Würfel, ein/mehrere Spieler) Die Grenzen einer Kategorie sind oft fließend. (Ein Stuhl ist ein Möbelstück, ein Banane nicht – Aber VPs sind sich uneinig bei einer Bücherstütze). Auch die Beziehung zwischen Hierarchie- Entfernung und Beantwortungszeit wurde widerlegt ( z.B. „Ist ein Huhn ein Tier“ schneller als „Ist ein Huhn ein Vogel?“). Diese Widersprüche führten zu zwei Modifikationen der Theorie, die nun folgen. Die erste versucht die definierenden Attribute zu erhalten, in dem sie charakteristische Attribute einführt. Die zweite ersetzt die Attribute durch Prototypen. Definierende und Charakteristische Attribute Versuchen den Schaden auf die Attribut Strategie zu begrenzen. Merkmals Vergleichs Theorie 28 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • • • • Ein Konzept wird durch definierende und charakterisierende Attribute definiert Definierende Attribute bilden den Kern der Definition, sind zwingend erforderlich. Charakteristische Attribute entscheiden, wie repräsentativ ein Mitglied ist. Der Entscheidungsprozeß (ob ein Spatz ein Vogel ist) findet in zwei Schritten statt: Erst werden alle Attribute verglichen (Ein Spatz ist ein Vogel), falls kein klares Ergebnis, dann werden nur die definierenden Attribute verglichen (Ein Strauß ist ein Vogel) Hiermit läßt sich nur auch erklären, warum „Ist ein Huhn ein Tier?“ schneller beantwortet wird als „Ist ein Huhn ein Vogel?“. Kritik: Ist zu stark an einfache Entscheidungssätze (Ist ETWAS etwas anderes?) gebunden. Immer noch das Problem die Attribute festzulegen (zum Teil nicht möglich). Es gibt immer noch klare Grenzen zwischen den Konzepten. Das Vertauschen von Substantiven (Ist ein Vogel ein Spatz?) sollte keine Änderung der Antwortzeit hervorrufen, tut es aber (Loftus) Prototyp (oder charakteristische Attribute) Theorien Kategorien werden um Prototypen herum gruppiert. Verschiedene Theorien beschreiben Prototypen auf verschiedene Weise: Einmal durch charakteristische Attribute mit unterschiedlichen Gewichtungen. Mitglieder sind alle, die mit den Attributen oberhalb einer Schwelle übereinstimmen. Zum anderen durch sogenannte beste Mitglieder. Eins oder mehrere (Möbel durch Stuhl oder durch Stuhl, Tisch, Bett). Hier gibt es keine Abstraktion durch Attribute! Prototyp Theorie • • • • • Prototypen werden durch charakteristische Attribute oder beste Beispiele festgelegt Es gibt keine Liste von notwendigen oder ausreichenden Attributen. Die Grenzen zwischen Konzepten sind verschwommen Die Mitglieder sind unterschiedlich typisch Kategorisierung durch Ähnlichkeit mit dem Prototyp Versuchs Nachweise Farben Kategorien In vielen Völker gibt es unterschiedliche Abstufungen in der Farbenzahl. Berlin und Kay vermuteten, daß es Grundfarben gibt, um die herum die andren Abstufungen gruppiert werden. Die Grundfarben sollten folgende Eigenschaften haben: 1. Ausgedrückt durch kleinste sprachliche Einheiten (Himmel- Blau fällt somit weg) 2. Nicht eingeschränkt auf bestimmte Objekte (kein blond, wg. Einschränkung auf Haare) 3. Muß häufig verwendet werden (grün eher als türkis) Bei der Untersuchung von 20 Sprachen (VPn) mit über 300 Farbkarten. Fanden sie heraus, daß es allgemein 11 Grundfarben gibt. Erst wurden die VPn gefragt, welche Karten sie einordnen wollen, dann welche davon die typischsten sind (z.B. rot oder blau). Die Konsistenz der Ergebnisse könnte jedoch besonders auf die gemeinsame physiologische Basis des visuellen System zurückzuführen sein. Natürliche und künstliche Kategorien Unterstützung durch natürliche (Vögel, Möbel) und künstliche ( Zahlen, Punkt Muster ) Kategorien. • Schnellere Erkennung von typischeren Mitglieder (Spatz eher als Vogel, als der Strauß). • Typische Mitglieder werden zuerst Aufgezählt (bei Auflistungsaufgabe einer Kategorie) 29 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • Kinder lernen zuerst die typischen Mitglieder Abstraktionsebenen in der Prototypen Theorie Rosch konzipierte eine drei Ebenen Struktur: • Hierarchien um Beziehungen und Inklusionen zwischen Kategorien auszudrücken. • Drei Ebenen von konzeptuellen Hierarchien: übergeordnet (Waffen, Möbel), Basis- Ebene (Gewehr, Stuhl) und untergeordnet (Sturmgewehr, Küchenstuhl) • Die Basis Ebene ist die wichtigste für kognitive Aktivitäten. Sie besitzt die am besten unterscheidenden Attribute und ist somit am leichtesten zu handhaben. • Je nach Erfahrung und kulturellem Umfeld kann die Basis Ebene sehr unterschiedlich sein Die zündende Idee für die Abstraktionsebenen kam aus anthropologischen Untersuchungen zu biologischen Kategorien. Rosch forderte alle Attribute einer der drei Ebenen aufzuzählen. Für die obere ergaben sich nur wenige, für die unterste ergaben sich viele Überschneidungen (Sessel, Liegestuhl). Die Basis Ebene bietet somit die beste Ausgewogenheit zwischen Inforation und guter Handhabbarkeit. Wir benennen Objekte spontan mit Kategorien der Basis Ebene und viele Verhaltensmuster (hinsetzen) sind für die untere Ebene gleich. Zoologen haben eine andere (feinere) Basis Ebene zur Klassifizierung von Tieren. Kritik an der Prototyp Sicht Nicht alles Konzepte haben ein Prototyp Charakteristik: Abstrakte Konzepte („Wissenschaft“, „Verbrechen“) Manche Abstrakte Konzepte erlauben Prototypen, andere nicht („Regeln“, „Glaube“, „Instinkt“). Es gibt eine unendliche Flexibilität in den Kategorien. Wie formen wir Kategorien (auch aus nur einem Objekt – Vogel Bsp. auf Galapagos)? Oft nicht nach Ähnlichkeit zusammenhängend (koscheres/ nicht koscheres). Von Netzwerken zu Schemata: relationale Konzepte als Schemata Bisher nur Objekt Konzepte (Katzen, Hunde, Stühle Tische), nun relationale Konzepte (schlagen, federn, Küssen). Collins und Loftus erweiterten ihr Netzwerkmodell um weitere Verbindungen zwischen den Konten, nunmehr nicht nur „ist“ Verbindungen, sondern auch „schlägt“, „tritt“. Auch neue Modelle für relationale Konzepte wurden entwickelt. Relationale Konzepte als Propositionen Ursprünglich wurden relationale Konzepte als Propositionen behandelt, dann im Prädikaten Kalkül. HIT(Agent, Object, Instrument) COLLIDE(Object1, Objekt2) Für Johnson-Laird war dieser Ansatz nicht geeignet, da die Bedeutung der Relationen nicht zwingend definiert sei (Jede Bedeutung kann in das Netzwerk interpretiert werden). Er unterschied zwischen intensionalen und extensionalen Aspekten von Konzepten und bemöngelte die geringe Aussagekraft über extensionale Aspekte. Semantische Zerlegung von relationalen Propositionen Als Antwort auf die Kritik von Johnson-Laird und anderen die den Relationen zugrundeliegenden semantischen Primitive genauer festzulegen. Nach Schank kann die Bedeutung jedes Verbs mit 12 bis 15 primitiven Aktionen umschrieben werden. Z.B.: ATRANS: Transfer von Besitz (geben, leihen, nehmen) PTRANS: Physischer Transfer von einem Ort zu anderen (bewegen, gehen, fahren) Kombinationen (z.B.: etwas bringen: PTRANS & ATRANS) 30 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Charakterisierung einer Besitzveränderung: Allgemeines Schema mit Variablen Aktion: Person Handlung: ATRANS Objekt: physikalisches Objekt Richtung ZU: Person-1 VON: Person-2 Variablenbelegung Aktion: John Handlung: ATRANS Objekt: Halskette Richtung ZU: Mary VON: John Da hier Kombinationen von Primitiven verwendet werden, ähnelt der Ansatz den definierenden Attributen. Wir werden sehen, daß dies ungünstig ist. Nachweise für semantische Zerlegung Untersuchungen, ob ein beim Verstehen eines Satzes, dieser in Primitive zerlegt wird. Zunächst negative Ergebnisse, das komplexere Sätze (mit mehr Primitiven) die Gleiche Verarbeitungszeit benötigten. Genter unterschied daraufhin zwischen zwei Arten von komplexen Sätzen: schwach-verbundene und starkverbundene. Daraus ergeben sich: „Ida gab ihren Eltern eine Uhr“ – einfacher Satz. „Ida schickte ihren Eltern eine Uhr“ – komplexer, schwach verbundener Satz. „Ida verkaufte ihren Eltern eine Uhr“ – komlpexer, stark verbundener Satz. (Ida bekommt Geld von den Eltern zurück – mehr Verbindungen) Stark verbundene Sätze werden besser erinnert als schwach verbundene. Untersuchungen zum Verb „lügen“ mit drei semantischen Komponenten: (i) Eine Aussage ist falsch (ii) Der Sprecher weiß sie ist falsch (iii) Der Sprecher will den Zuhörer betrügen. Unterschiedliche Geschichten führen zu unterschiedlichen Bewertungen des Begriffs „lügen“. Es sollte also eher eine an Prototypen angelehnte Variante in Betracht gezogen werden. Schemata, Frames und Scripte Das menschliche Wissen ist mehr als nur Attribut- ähnliche Information über einzelne Konzepte und Relationen. Wir benötigen komplexe klassenähnliche oder hierarchische Beziehungen zwischen den Konzepten. Historische Ansätze Ein Schema ist eine strukturierte Gruppe von Konzepten. Bartlett (1932) war überrascht wie weit Erwartungen, das Verständnis und die Erinnerungen von Personen beeinflussen können. (Indianische Geschichte von Engländern wiedererzählt/rekonstruiert in westlichem Sinn). Ab 1970 dann größeres Interesse an Schemata: Schank´s schwaches Schema um Konzepte mit Relationen zu organisieren (letzter Abschnitt). Schank und Abelson: Scripte als stereotypes Wissen über häufige Situationen. Minsky: frames bei visueller Wahrnehmung. Schemata und Scripte Die Definition von Schema ist sehr locker und es gibt viele verschiedene Formen bezüglich verschiedener Arten von Wissen. Die Charakteristika von Schemata sind: • Verschiedenen Relationen, Variablen und Variablen Werte • Einfache Relationen („ist ein“, „tritt“, „schlägt“) und komplexe „kausal“ Relationen („berechtigen zu“, „verursachen“, „verhindern“) • Variablen enthalten Konzepte oder andere Unter- Schemata. • Variablen Wertebereiche sind bestimmte Konzepte • Kodieren allgemeines Wissen, das in vielen Situationen verwendet werden kann • Variablen können frei bleiben und werden mit default Konzepten gefüllt (Heinz schlägt das Kind - => Hand oder Stock) Schank und Abelson´s Script Theorie 31 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Untersuchten die Inferenzen beim der Verarbeitung von Texten. Ein Script enthält Handlungssequenzen für häufige Situationen (Essen in einem Restaurant). Beispielsweise unterteilt in (Tabelle 8.2 S. 278) Essen in einem Restaurant Betreten Hineingehen einen Tisch suchen Sitzplatz aussuchen Zum Tisch gehen Hinsetzen Bestellen Karte nehmen Karte lesen Gericht auswählen Der Kellner kommt Bestellen ... Essen ... Verlassen ... Nachweise für die Script Theorie Bower et al.: VPn sollten ca. 20 Handlungen in einem Restaurant auflisten. Obwohl es sehr unterschiedliche Restaurants gibt, sind 15 Vorgänge fester Bestandteil der meisten Erwartungen. Andere Nachweise für Schemata Es gibt viele Nachweise daß Personen mit unterschiedlichen Erwartungen Ereignisse unterschiedlich interpretieren und erinnern. Friedman: Zeigte detaillierte Zeichnungen von verschiedenen Szenen (Küche, Büro). Unerwartete Gegenstände wurden beim ersten Blick doppelt so lange betrachtet. Unerwartete Gegenstände werden schlechter erinnert. Schema Erwerb Nur wenig darüber, wie Schemata entstehen. Es wird vermutet, daß wir von den ersten Restaurant Gemeinsamkeiten abstrahieren und (eventuell auf Basis anderer Situationen: Einkaufen) Schemata bilden. Schank´s dynamisches Gedächtnis Theorie Aus den Beschränkungen der frühen Scripttheorien, die durch psychologische Studien aufgezeigt wurden, entwickelte Schank seine Theorie des dynamischen Gedächtnisses. Somit konnte das Hauptproblem, die Unflexibilität der Script Strukturen umgangen werden. (Wir können gut mit unerwarteten Situationen umgehen – z.B. erster Besuch bei McDonalds: erst Zahlen dann Essen). Das Handeln ist eher vom jeweiligen Ziel abhängig als von der Situation. Scripte ist nur zu Teil verschieden. VPn vermischen oft Situationen (Arzt- , bzw. Zahnarzt- Besuch), obwohl das in der einfachen Script Theorie nicht vorgesehen ist. MOPs und TOPs/TAUs Memory Organisation Packets (MOP) bestehen aus verallgemeinerten Gruppen von Ereignissen, sogenannten Szenen. Szenen sind Zusammenfassungen von Komponenten der Scripte. (Betreten einer Zahnarzt Praxis / eines Restaurants). Die MOPs koordinieren flexibel die Szenen zu einer bestimmten Situation. Oberhalb der MOBs befinden sich die TOPs (Thematic Organisation Points), und bilden abstrakte Themen zu Ereignissen (Ähnlichkeit: Romeo und Julia, West Side Story). Dyer nannte diese auch Thematic Abstraktion Unit (TAU). Nachweise durch Schreiben lassen ähnlicher Geschichten => Übereinstimmung der TAUs. Die Undefiniertheit/Unvollständigkeit Schank´s Abgrenzungen reichen nicht aus, eine klar Umrissene Theorie zu bilden. Entweder müßte man alles möglichen Szenen, MOP und TOP spezifizieren (Unmengen von Informationen), oder man müßt wissen, wie diese Strukturen gebildet werden. Nur dann kann die Theorie wirklich überprüft werden. 32 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Probleme der Flexibilität und Connectionisten Schemata Nach Rumelhart sollten die Variablenbelegungen zwei Eigenschaften haben: Einen Test ob die Variable passend belegt wurde (realisiert) und einen Einfluß von Variablenbelegungen auf die default Werte noch nicht belegter Variablen (bisher nicht berücksichtigt). Beispiel Schema für einen Raum: Möbel: Küchentisch, Stühle Kleine Objekte: Kaffee Kanne, Brotschneider Größe: klein Eine Belegung wie Brotschneider sollte eine default Belegung von z.B. Küchentisch bei Möbeln nach sich ziehen. Realisierung durch eine Vernetzung der Variablen mit Aktivierungsmustern. Annäherung an die neueste Konzept Forschung Traditionell gibt es die beiden Forschungslinien der einfachen und der komplexen Organisation. Ideal wäre eine Verschmelzung der Theorien. Man tendiert dazu, daß einfache Attribut basierte Konzepte auch immer auf das komplexe Hintergrundwissen von Personen über Konzepte zurückgreifen. Konzept Zusammenhang : Theorien? Murphy und Medin beschäftigen sich mit der Frage, was Konzepte zusammenhält. Die bisherige Vermutung (durch Ähnlichkeit) ist nicht immer zutreffend. Die Zusammenhänge stammen oft aus Hintergrundwissen/Theorien der Personen in unterschiedlichen Situationen: z.B. koschere und nicht koschere Tiere (Alle Tiere im Wasser, die Gräten und Schuppen haben und schwimmen, sowie alle Landtiere mit vier Beinen oder fliegen mit Flügeln sind koscher). Unterschied zwischen Ähnlichkeit und gleiche Kategorie Nachweis von Rips: VPn sollten über eine mittel große Scheibe entscheiden: Scheibe sei ähnlicher einer Münze, wurde aber eher in die Kategorie Pizza eingeordnet. (Hintergrundwissen: Münzengröße gesetzlich geregelt, Pizzagröße eher variabel) Aber unklar wie genau Theorien entstehen. Konzept Kombination Kategorien Erweiterung durch Kombination von existierenden Konzepten (blau gestreiftes Hemd, pet fish). Nicht nur Adjektiv - Substantiv Kombinationen möglich, aber nur diese werden hier betrachtet. Die Kombination der Konzepte ist nicht einfach die Schnittmenge (Schreckschuß Pistole ist an für sich keine Pistole). Typische Mitglieder ein Kombination müssen nicht typische Mitglieder der jeweiligen Konzepte sein. (Guppies sind typische „pet fish“, aber keine typischen Haustiere oder Fische). Hintergrundwissen spielt scheinbar auch bei Konzept Kombinationen ein große Rolle. Konzept Instabilität Alle Arbeiten zu Wissensstrukturen (von Prototypen bis zu Frames) basieren auf der Voraussetzung, daß gespeichertes Wissen im Gedächtnis aus diskreten und relativ statischen Mengen von Information besteht. Laut Barsalou sind Konzepte aber instabil, d.h. die Konzept Zuordnung verändert sich mit verändertem Kontext. „Der Mann hob das Klavier“ wird besser erinnert mit dem Stichwort (Cue) „etwas schweres“, umgekehrt „Der Mann stimmte das Klavier“ besser mit „etwas mit einem guten Klang“. Wir können spontan ad hoc Kategorie bilden, an die wir vorher nicht gedacht haben. (Dinge für einen Garagenverkauf). 33 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Neurologische Nachweise zu Konzepten Es gibt spezifische Störungen im Semantischen Gedächtnis. Lesen und sprechen kann intakt sein, aber der Zugriff auf gespeicherte Informationen behindert. WLP konnte lesen aber nicht zusammenfassen. Sie konnte Bilder nur schwer benennen, bei falschen Benennungen waren diese doch häufig mit der korrekten Antwort verwandt.(Bürste als Kamm bezeichnet). Übergeordnete Konzepte sind weit weniger beeinträchtigt als untergeordnete. Alzheimer Patienten benennen Objekte oft fälschlicher weise mit dem Oberbegriff (Pelikan als Vogel). Es können spezifische Kategorien betroffen sein. Ein Patient hatte nur Schwierigkeiten mit der Kategorie „Körperteile“. Basis Konzepte scheinen nicht so bevorzugt zu sein wie angenommen. Diese Ergebnisse lassen sich am ehesten durch Netzwerk und verteilte Gedächtnis Modelle erklären. 34 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 9 Sprach Verarbeitung: Zuhören und Lesen Einleitung Trotz der Ähnlichkeiten zwischen Hören von Sprache und Lesen gibt ein wichtige unterschiede: Beim Lesen ist jedes Wort eine Einheit, während Zuhören einen Lautfluß zerteilen muß. Werden Wörter aus ihrem Satzkontext herausgenommen, verstehen wir nur die Hälfte der Wörter. Hören von Sprache Kontinuierlicher Sprachfluß mit wenigen Pausen. Sprache wird von der linken Hemisphäre besser verarbeitet (gilt nicht für andere Geräusche!) Laute die unterschiedlichen Kategorien angehören (ba, pa) werden besser unterschieden. (Japaner unterscheiden nicht zwischen [l] und [r] => Schwierigkeiten diese auseinander zu halten.) Wort Erkennung Interaktive Modelle Zwei Lager: Serielle Verarbeitung (sensorische Information vor Kontext Information) Interaktive Modelle (Marslen-Wilson und Tyler): größere Flexibilität, mehrere Verarbeitungsprozesse interagieren (Lexikalische, Syntaktische, und Semantische) zu gleichen Zeit. Kohorten Modell: • Eine Gruppe (Kohorte) von möglicherweise zum Klang passender Wörter wird aktiviert. • Weiter Klangauswertung und Kontext eliminieren weitere Wörter, bis nur eines übrigbleibt (muß nicht notwendigerweise ausgesprochen sein!) Wort Monitoring Aufgabe (Bild 9.1 S. 298): Wörter zu erkennen aus: Kategorie, Reim, Identität Kontext:normale Sätze, syntaktische Sätze (ohne Sinn), Zufalls Sätze (auch grammatisch falsch). Bei normalen Sätzen und Identität werden die Wörter schon vor ihrer kompletten Aussprache erkannt. ð Indiz für interaktive Modelle und gegen serielle. Aber: Wie gut lassen sich die künstlichen Bedingungen übertragen? Ist die Sprache etwas unverständlich werden auch Kontext – Informationen nach dem Wort ausgewertet. Weitere Nachweise: Worterkennung basiert auch auf Top-Down Verarbeitung (Kontext): In einem Satz wurde ein „s“ durch ein Husten ersetzt. Fast alle VPn nahmen die Veränderung nicht wahr. Warren & Warren (Ersetzung durch nicht sprachlichen Laut): Man konnte sehen, daß der (B)aum im Wald war. Man konnte sehen, daß der (R)aum im Haus war. Man konnte sehen, daß der (Z)aum im Stall war. Man konnte sehen, daß der (S)aum im Rock war. Lippenlesen Auf einem Videoband wiederholte jemand „ba“, der Ton dazu war „ga“. Normal hörende VPn hörten „da“. Neuropsychologie der Wort Verarbeitung Untersuchungen von Gehirn Geschädigten Patienten lassen vermuten, daß die einfache Wiedergabe eines gehörten Wortes auf drei verschiedenen Wegen erfolgen kann. Ellis & Young: Diese durchlaufen ein System von 5 Verarbeitungsstationen (Bild 9.2 S. 302): 35 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" 1. 2. 3. 4. 5. Akustische Analyse (nimmt Phoneme auf) Akustisches Eingabe Lexikon (erkennt bekannte Worte) Semantisches System (Wort Bedeutung) Sprach Ausgabe Lexikon (Sprachformen für Wörter) Phonem (Klang Erzeugung) Weg 1 (normale Verarbeitung): Weg 2 : Weg 3 : durch alle Stationen (1-5) Auslassen von 3. direkt von 1. nach 5. Nachweise: Patient kann Wörter besser wiederholen als Kunstwörter. (Weg 3 defekt, Weg 2 möglich). Patient kann Wörter wiederholen, erkennt aber deren Bedeutung nicht. (defekt in 3.) Patient kann Wörter wiederholen, hat aber ansonsten fast keine sprachlichen Fähigkeiten. (nur Weg 3 intakt) Deep Dyshasia Patienten mit Deep Dyshasia zeigen häufige semantische Wortverwechslungen beim Wiederholen, aber nicht beim Lesen. => Weg 3 defekt & Unterschiedliche Verarbeitung von Gehörtem und Gelesenem. (Deep Dyslexis s.u.) Grundlegende Lese Prozesse Beim Lesen sind Prozesse zum Identifizieren eines Wortes, eines Satzes und eines Themas einer ganzen Geschichte beteiligt. Augenbewegungen Fixieren (200-250ms) von Text wechselt sich ab mit schnellen Augenbewegungen (saccades). Es sind auch Rückwärts Bewegungen enthalten (10-15 %). Zwei Techniken, um die Menge des fixierten Textes zu Erfassen (foeva –Kapitel 4): • Ein sich bewegendes Fenster unterschiedlicher Größe. • Begrenzungstechnik mit sich ändernden Buchstaben im Sichtbereich => Wahrnehmungsgrenze Daraus folgende Ergebnisse (relative unabhängig von Textkomplexität und Schriftgröße): • 3-4 Buchstaben links von Fixpunkt • 15 Buchstaben rechts (Asymmetrie erlernt: Hebräisch umgekehrt) • Größe aber auch abhängig von Wortgrenzen Aber auch Verarbeitung außerhalb des fixierten Bereichs: Weglassen des Außenbereichs erhöht die Fixierzeit. Passender Kontext verkürzt die Fixierung, unpassender (Bsp.: Fischwettbewerb mit Bass Guitaristen) verlängert sie. Während der Augenbewegungen werden keine Informationen aufgenommen (Ein Blitz ist nicht störend). Wort Erkennung Basiert nicht auf simpler Bottom Up Auswertung: Word Superiority Effekt Sehr kurz eine Buchstabenfolge, dann eine Muster-Maske mit Buchstabenfragmenten. VPn müssen entscheiden, welcher von zwei Buchstaben an einer bestimmten Stelle gezeigt wurde. (Besser bei Wörtern als mit unzusammenhängenden Buchstaben => Wort zum Teil vor einzelnem Buchstaben verarbeitet) Interaktives Aktivierungs Modell von McClelland und Rummelhart: • Drei Verarbeitungsebenen: Merkmalsebene, Buchstabenebene, Wortebene • Wird ein Merkmal erkannt ( | | ) werden die entsprechenden Buchstaben (H, M, N) aktiviert und alle anderen gehemmt. 36 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • • Wird ein Buchstabe erkannt, werden die passenden Wörter aktiviert, alle anderen gehemmt. Aktivierte Wörter aktivieren ihrerseits die passenden Buchstaben. (Top Down) Connectionisten System (Kapitel 1). Kritik: Häufige Wörter werden schneller erkannt => Erklärung durch stärkere Verbindungen. Aber – Wort Superiority Effekt ist unabhängig, ob häufig oder selten gebrauchtes Wort. Wege von Gedrucktem zur Aussprache Es gibt viele Wege gedrucktes auszusprechen. Zwei krasse Formen: • Sehen und Sagen (Identifikation ganzer Wörter: Erwachsene) • Phonetische Methode (Buchstabe für Buchstabe: Kinder) Genauere Untersuchungen dazu bei Gehirngeschädigten. Neuropsychologie Ähnlich wie bei akustischer Wortverarbeitung gibt es laut Ellis und Young drei verschiedene Verarbeitungswege (Bild 9.3 S. 313). Jedoch sind die Ergebnisse nicht eindeutig und umstritten. Weg 1: Visuelle Analyse => Graphologisch – Phonem Umwandlung => Phonem Ebene Aussprache von unbekannten oder Nicht- Worten. Patient konnte 90% von regulären Wörtern korrekt aussprechen, aber nur 40% von irregulären Wörtern. (=> Fehlen von Weg 1). Weg 2: Normaler Weg von Erwachsenen Lesern. (Durch 5 Verarbeitungsprozesse). Patienten mit Deep Dyslexis begehen oft semantische Fehler. (Lesen verwandte Wörter). ð Weg 1 & Weg 3 nicht nutzbar + Fehler im semantischen System. Weg 3: Eingabe und Ausgabe Lexika werden benutzt, aber nicht das semantische System. Patientin konnte bekannte (reguläre und nicht reguläre) Wörter aussprechen, aber erkannte dabei nicht deren Bedeutung. Vortrag Verstehen und Gedächtnis Das Verständnis von Text und seine Speicherung hat ebenso Bedeutung für das Verstehen von Gesprochenem. Zugrundeliegenden Prozesse siehe letzter Abschnitt. Der Leser oder Zuhörer muß aber auch grammatikalische und semantische Informationen verarbeiten. Grammatik: Unterschied zwischen „Der Man beißt den Hund“ und „Der Hund beißt den Mann“. Semantik: Bezug des Textes zu Informationen im Langzeit Gedächtnis. Interessant ist die Frage inwieweit Text Erinnerung durch Prozesse während des Erinnerns, bzw. während des Text Lesens beeinflußt wird. Mehr als von einer seriellen geht man von einer komplexen Interaktion zwischen verschiedenen Prozessen aus (McClelland: Interaktives Modell zur Sprachverarbeitung. Bottom Up & Top Down). Grammatik Chomsky unterschied zwischen Produktivität (Erzeugung aller Phrasen) und Regelhaftigkeit (Zurückweisen fehlerhafter Phrasen). Regel Verstöße: Syntaktischer Verstoß: Die Jungen schlägt die Mädchen. Semantischer Verstoß: Farblose grüne Einfälle schlafen vehement. Phonologische Verstöße: Falsche Aussprache. Die Sätze „Der Mann schrieb das Buch“ und „Das Buch wurde von dem Mann geschrieben“ haben verschiedene Oberflächenstrukturen aber die gleiche Tiefenstruktur. 37 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kognitive Psychologen interessieren sich vor allem auch für Fehler, die während des Sprachgebrauchs begangen werden. Chomsky´s Theorien über das abstrakte Wissen über Sprache hat in dieser Beziehung nicht viel zu bieten. Das Parsing (Erarbeiten der grammatikalischen Struktur) scheint Wort für Wort abzulaufen: Grammatik Brüche in einem Satz verursachen an ihrer Stelle eine Lesepause: „Das Schiff transportierte ist teuer.“ Satzteile bilden eine Grenze beim Parsen: Satz gefolgt von Testwort (Ob im Satz) „Öl“: 1. Weil Künstler weniger arbeiten, sind Öl Gemälde rar. 2. Weil Künstler weniger in Öl arbeiten, sind Gemälde rar. Öl wird nach erstem Satz schneller erkannt, da im zweiten (letzten) Satzteil. (noch im Verarbeitungsgedächtnis) Sätze die einen bekannten Sachverhalt darstellen (semantischer Inhalt), werden schneller verstanden. (z.B. Ratte, Katze, Hund). Johnson- Laird: Gedächtnis Test ergaben eine extrem schlechte Erinnerung an die Syntax => fälschliche Erinnerungen an Sätze mit der gleichen Tiefenstruktur. (Aber auch Nachweise von guter Syntax Erinnerung bei persönlich wichtigen Aussagen) Inferenzen Inferenzen füllen Informationslücken im Text. (Kapitel 8) 1. 2. 3. Maria hörte den Eismann kommen. Sie erinnerte sich an die Geldbörse Sie rannte ins Haus. Impliziert z.B.: Maria will Eis kaufen. Eis kostet Geld. Die Geldbörse ist im Haus. Usw. Thorndyke: Erkennungstest von Sätzen einer Geschichte. Sätze der Geschichte wurden richtigerweise zu 85% erkannt. Konsistente Inferenzen wurden fälschlicherweise zu 58% als vorgekommen erkannt. Inkonstente Inferenzen mit 6%. Manchmal füllen Inferenzen auch Lücken zwischen den Zeilen (Ironie, Sarkasmus, Untertreibung). Manche Sätze implizieren nicht zwingend logische Inferenzen: „Julia zwang Romeo, die Bank auszurauben“ impliziert logisch „Romeo raubte die Bank aus.“ „Der gefährliche Flüchtige konnte das Land verlassen“ impliziert pragmatisch „Der Flüchtige verließ das Land.“ Pragmatische Inferenzen werden während der Sprachverarbeitung und nicht während des Erinnerns erzeugt: Wurde den VPs vor der Präsentation des Textabschnitts gesagt, daß ein Erinnerungstest folgen sollte, wurden weniger Inferenzen erzeugt. Dies war nicht der Fall, wenn es ihnen erst vor dem Erinnern mitgeteilt wurde. Schemata, Scripts und Frames Definitionen (Kapitel 8!) Schemata sind Wissensbündel über die Welt (Ereignisse, Personen, Handlungen). Scripte beziehen sich auf Ereignisse und Ereignis Folgen (Restaurant). Frames enthalten Eigenschaften von Objekten und Positionen (örtlich). Daraus formt man Erwartungen. Sprachverarbeitung Schemata können die Sprachverarbeitung beeinflussen. Bartlett (Kapitel 8) war der erste Psychologe, der Gedächtnisprozessen Schemata zugrunde legte. Er erzählte eine indianische Geschichte, die dann von Engländern mit ihrem eigenen Kulturellen Hintergrund nacherzählt wurde (z.B. Boot statt Kanu). Ein Problem von Bartlett: So wenig Instruktionen an die VPs, wie möglich, um sie nicht zu beeinflussen. 38 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Werden diese aber instruiert möglichst genau wiederzuerzählen, treten nur noch halb so viele Fehler auf. Weiteres Problem: Störungen laut Bartlett nur beim Erinnern. Schemata Einfluß bereits bei Sprachverarbeitung: Bransford und Johnson (Textauszug ohne erkennbaren Kontext/Schema nur schwer lesbar – Kaum Erinnerung – Kontext war „Kleider waschen“). Schema Einfluß beim Erinnern: Anderson und Pichert Lesen eines Textes aus Sicht eines Einbrechers oder aus Sicht ein Hauskäufers. Danach Erinnern. Dann Sichtwechsel. Dann Erinnern unter neuem Blickwinkel => unterschlagene Informationen traten zutage. Es ist aber sehr schwer Schemata experimentell zu überprüfen, da man bei Widersprüchen immer vermuten kann, daß das Schema sei nicht entwickelt oder das falsche von VP angewandt worden ist. Geschichtsstruktur Geschichten werden sehr selektiv zusammengefaßt. Es läßt sich meist nicht unterscheiden, ob von einer Schriftlichen Vorlage oder aus der Erinnerung zusammengefaßt wurde. (Konzentration auf wichtige Informationen) Verarbeitung von Geschichten Kintsch und van Dijk entwickelten eine Theorie, die zu den Phänomenen paßt, sich aber nur schwer nachweisen läßt, da jede VPn andere Erfahrungen mit einbringt. Aus dem Text werden Propositionen gebildet und im Kurzzeitgedächtnis abgelegt. Eine Anzahl von Propositionen wird dann sinnvoll zusammengefaßt. Die Länge der Zeit, die eine Proposition im Kurzzeitgedächtnis verweilt entscheidet über die Erinnerbarkeit (Transfer ins Langzeitgedächtnis). Experiment: Wird die Anzahl der Propositionen eines Satzes mit gleicher Wortzahl erhöht, erhöht sich die Verarbeitungszeit pro zusätzlicher Proposition um ca. 1 Sekunde. Zentrale Propositionen für das Verständnis werden im Kurzzeitgedächtnis gehalten => verweilen länger. Lesen Lehren Man vergleicht die Fähigkeiten von guten und schlechten Lesern, um die kritischen Fähigkeiten heraus zu filtern. Wort Erkennung Junge Kinder haben oft Schwierigkeiten mit der Worterkennung. Zwei Ansätze: • Ganz Wort Strategie • Buchstabe für Buchstabe Buchstabe für Buchstabe liefert die besseren Ergebnisse. Anhaltspunkt für die spätere Entwicklung gibt eher die Lese Geschwindigkeit, als die Korrektheit, da diese den Automatisierungsprozeß anzeigt. Erfolg in Korrektheit und Geschwindigkeit brachte es, häufige Wort – Untereinheiten zu trainieren. Sprach Verarbeitung/Verständnis Die Größe des Vokabulars ist für die Lesefähigkeit von entscheidender Bedeutung. Besser als das Erlernen von Wortdefinitionen waren Verbesserungen der Ableitungsfähigkeiten für neue Wörter aus dem Kontext. Kinder, die das Verständnis für das Hauptthema eines Textes trainierten, verbesserten ebenfalls stark ihr Text Verständnis. 39 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 10 Sprach Produktion: Sprechen und Schreiben Wir wissen mehr über das Sprechen als über das Schreiben, da es einen größeren Anteil an unserem Leben einnimmt. Sprechen Nach Grice liegt der Schlüssel zu einer gelungenen Kommunikation zwischen Sprecher und Zuhörer im Cooperations Prinzip. Dieses folgt vier Maximen: • Quantitätsmaxime: Sei so informativ wie erforderlich, aber nicht informativer wie nötig! • Qualitätsmaxime: Sei wahrhaftig! (keine versteckte Ironie) • Relevanzmaxime: Sage nur was wesentlich ist. (kein Abgleiten auf ein anderes Thema) • Ausdrucksmaxime: Sei deutlich! (keinen nicht bekannten Kontext voraussetzen) Prozesse der Sprach Produktion Obwohl Sprechen uns mühelos erscheint, sind komplexe Verarbeitungsschritte nötig. Man versucht herauszufinden, wie Sprechen abläuft, indem man die dabei auftretenden Fehler untersucht. Verschiedene Klassen von Fehlern deuten auf verschiedene Verarbeitungsstufen hin. Wir untersuchen zwei verwandte Ansätze auf ihre Erklärungsfähigkeit bei normalen zeitweisen Störungen und permanente Störungen bei Gehirngeschädigten. Garrett´s theoretischer Ansatz Sprechen beinhaltet eine Folge von Verarbeitungsebenen und erfordert genaue Planung vor Beginn des Sprechens. Vier Ebenen der Planung: 1. Nachrichten Ebene: Gesamt Bedeutung wird festgelegt. 2. Funktionale Ebene: Grammatikalische Struktur oder Syntax – Position von Subjekt und Objekt wird festgelegt, aber keine spezifischen Wörter. 3. Positionierungs- Ebene: a) Es werden Grundformen gewählt (z.B. die Wörter „lieben“, „geliebt“ , usw. werden durch „liebe“ repräsentiert). b) Die passende Beugung (Deklination/Konjugation) wird hinzugefügt („-n“, „ge- -t“). 4. Artikulations-/Phonetische Ebene: Umformung in Sprachmuster. Der Prozeßablauf ähnelt dem der Sprachverarbeitung in umgekehrter Reihenfolge. Liefert keine Erklärung für Feedback (Abstoppen und Neuformulieren eines fehlerhaften Satzes). Dell´s Theorie Ansatz Ähnelt sehr Garrett´s Ansatz. Vier Ebenen: 1. Semantische Ebene: Bedeutung des zu sagenden. (In Theorie nicht genau definiert) 2. Syntaktische Ebene: Grammatikalische Struktur. 3. Morphologische Ebene: Einsetzten von Bedeutungseinheiten. 4. Phonologische Ebene: Umsetzung in Phoneme. • Die Planung findet in allen Ebenen parallel statt, wobei typischer Weise die höheren Ebene weiter sind. Kategorische Regeln grenzen die aktivierbaren Konten auf jeder Ebene ein. Ein Lexikon in Form eines Netzwerkes enthält Knoten zu Konzepten, Worten, Morphemen, Phonemen. Wird ein Konten aktiviert, aktiviert er ebenfalls zusammenhängende Konten. Bis schließlich aufgrund von Einfüge Regeln der meist aktivierte Koten ausgewählt wird (dabei Aktivierung auf Null gesetzt). Fehler entstehen durch eine höhere Aktivierung eines nicht korrekten Knotens. Folgende Fehler werden von der Theorie vorhergesagt: • Fehler sollten der gleichen Kategorie angehören (Substantiv wird durch ein Substantiv ersetzt). • Bei frühzeitiger Aktivierung: Vorgezogene Wörter (Die Luft ist in der Luft – Aber „Nullsetzten“?) • Austausch Fehler: Vertauschen von Wörtern (Ich muß meinem Brief eine Frau schreiben.) • Austausch Fehler nur in kurzen Abständen im Satz. • Fehler auf Morphem Ebene nur bei Zusammensetzung zu neuen sinnvollen Wörtern. 40 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Dieses fehleranfällige System wird laut Dell benötigt, um flexible Leistungen, wie die Produktion von neuen Sätzen, zu ermöglichen. Fehler beim normalen Sprechen Die Sammlung von Fehlern wird durch Forscher vorgenommen. Manche Fehler sind schwerer zu entdecken als andere. Dadurch kann es zu tendenziösen Ergebnissen bei der Angabe von relativen Häufigkeiten von Fehlern kommen. Das „Auf der Zuge liegen“ Phänomen Brown und McNeil: Lasen Wörterbuch Definitionen vor. Oft gaben die VPn an, das Wort zu kennen, aber nicht sofort sagen zu können. Sie versuchten oft den Anfangsbuchstaben oder die Silbenzahl zu erraten, um sich zu erinnern. (Rieten mit 57% den Anfangsbuchstaben korrekt.) Zeigt die Existenz einer abstrakten Ebene unabhängig von der Benennung. Oft Zugriff auf Teile der Benennung. Wort - Vertauschung Fehler Auf funktionaler/syntaktischer Ebene oft Vertauschung Subjekt – Objekt. Zeigt daß eine Vorverarbeitung (Planung) stattfindet. Garrett fand, daß 85% der Vertauschungen in einem Satzteil (Klausel) stattfand. Morpheme - Vertauschung Fehler Die Grundbedeutungen werden vertauscht, die Beugung bleibt. Bei Garrett auf Positionierungs- Ebene zwischen a)Grundbedeutung und b)Beugung Bei Dell während der Errichtung der morphologischen Repräsentation durch falsche Aktivierung. Spoonerismen Vertauschen des Anfangsbuchstaben oder Buchstaben zwischen Wörtern. Spooner gab einige amüsante, aber wohl konstruierte Beispiele. Laut Garret traten 93% der Vertauschungen innerhalb eines Satzteiles auf. Positionierungs Ebene. Bei Dell Vertauschungen während der Konstruktion der phonologischen Repräsentation. Zögern und Pausen Pausen treten besonders zwischen grammatikalischen Einheiten auf und ermöglichen dem Redner ein weitere Planung. Sie werden manchmal mit Füllwörtern wie „ähm“ „öh“ ausgefüllt. Pausen auch vor Korrekturen bei Vergaloppierenungen. Sprech Fehler bei Patienten Zum Teil unklare Ergebnisse. Diese sind mit den Theorien von Garret und Dell zwar konsistent, bilden aber noch keinen klaren Nachweis. Anomia Viele der Patienten, die nicht normal sprechen können, leiden an Anomia. Diese bringt manchmal eine semantische Störung mit sich, manchmal auch nicht. Eine Patientin mit semantischer Störung konnte nur selten Objekte auf Bildern benennen, es sei denn man gab ihr die Anfangsbuchstaben. Falsche Anfangsbuchstaben von verwandten Wörtern führten zu einer falschen Benennung. Nicht verwandte wurden aber meist zurückgewiesen. Ein anderer Patient hatte keine dieser Schwierigkeiten, hatte aber große Schwierigkeiten, bei einer Bildbeschreibung, seine Grammatikalisch richtigen Strukturen mit den passenden Wörtern zu füllen. Oft vielen ihm nur die Oberbegriffe ein, obwohl ihm die genauen bekannt waren. (Eine Dauer - Form des „auf der Zunge Liegens“). 41 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Syntaktische Probleme: Einige Patienten können keine normalen grammatischen Strukturen bilden und reden aber bedeutungsmäßig zusammenhängende Wörter. Schreiben Schreiben ist komplex und mehrere Prozesse sind daran beteiligt. Hayes und Flower unterschieden zwischen Planung, Satz Erzeugung und Überarbeiten. Erfahrene Schreiber erzeugen komplexere Schreibpläne, die erzeugten Sätze sind länger und sie überarbeiten die gesamte Struktur ihrer Texte. Die Untersuchungen durch Protokollanalyse erfassen jedoch nicht die unterbewußten Prozesse. Neuropsychologen haben gezeigt, daß das Buchstabieren von Wörtern auf verschiedenen Wegen erfolgt. Ellis und Young entwickelten (überarbeiteten) daraus ein Modell. Die Neuropsychologie sagt aber nicht über die Planungs- und Überarbeitungsphase. Theoretische Betrachtungen Hayes und Flower überarbeiteten ihre Theorie, der Tatsache Rechnung tragend, daß Schreiben stark zielgebunden ist (verständlich, überzeugend, interessant, lernbar): • • • • Planung: Ideen Produktion und Organisation in Bezug auf das/die Ziele. Satz Erzeugung: Schreiben von Sätzen Überarbeiten: Speziell ( einzelne Wörter und Phrasen ) oder Allgemein ( Gesamt - Struktur ) Prozesse in dieser Reihenfolge, aber nicht nur strikt seriell. Nachweise durch Protokoll Analyse: Tonbandmitschnitt (VPn dachten laut) und Studium aller Notizen. Vergleich von geübten und ungeübten Schreibern. Planung Organisation des Wissens in Bezug auf die Ziele und Teilziele zu einem zusammenhängenden Schreib - Plan. Gute Schriftsteller verändern während des Schreibens oft ihren ursprünglichen Plan. Sie Produzieren mehr Ziele und verknüpfen diese stärker miteinander. Satz Erzeugung Der Aufsatz war ca. 8 mal länger als die Notizen. Vermutung: Textverarbeitung bildet Makrostrukturen aus Mikrostrukturen, während Satz Erzeugung Mikrostrukturen aus Makrostrukturen erzeugt. Überarbeitung Geübte Schreiben verbringen mehr Zeit mit der Überarbeitung. Dabei Beachten sie eher die Gesamtstruktur, als einzelne Wörter oder Phrasen – im Gegensatz zu ungeübten Schreibern. Dabei entdecken sie auch ca. 60% mehr Probleme als diese. Beide Gruppen schrieben oft Abschnitte neu, ohne angeben zu können, was ihnen an dem alten nicht gefiel. Kritik Keine Erfassung unbewußter Vorgänge. VPn können oft ihre Planungsvorgänge nicht richtig ausdrücken. Einige Zweifel ob die drei Prozesse überhaupt in dieser Art trennbar sind. Probleme mit Schreiben: Neuropsychologie Innere Sprache 42 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Es gab Kontroversen, ob innere Sprache zum Schreiben notwendig ist, oder nur ein „optionales Extra“. Neurologische Befunde deuten darauf hin, daß sie nicht unbedingt benötigt wird. Der Patient EB verlor bei einem Schlaganfall die Fähigkeit zu Sprechen, hatte aber gutes Verständnis für gesprochene und geschriebene Sprache. Ihm wurden ein Ziel und vier weitere Bilder gezeigt und er sollte entscheiden, welcher Begriff der vier sich auf den des ersten reimte. Er konnte die Namen buchstabieren, aber nicht korrekt entscheiden, welches sich reimte. => vermutlich keine innere Sprache. Seine Fähigkeiten zu schreiben waren aber zum großen Teil intakt. Die Ergebnisse sind ungewöhnlich klar, die meisten Patienten haben ein Schädigung in beiden Bereichen. Es gibt eine Patientengruppe, die Wörter nicht korrekt aussprechen können (ähnliche Nicht-Wörter), aber fehlerfrei Buchstabieren. Wege zu Buchstabieren Ellis und Young entwickelten ein Modell der verschiedene Verarbeitungsprozesse beim Buchstabieren. (Bild 10.1 S. 355) • Es gibt sehr viele verschiedene Signal-Wege in diesem Modell • Bekannte Wörter gehen über das semantische System und/oder das Sprachausgabe Lexikon zum graphemischen Lexikon. Beide Wege werden zur Fehlerreduktion normalerweise gleichzeitig benutzt. • Unbekannte Wörter müssen die phonemisch - graphemische Umwandlung durchlaufen (nach allgemeinen Regeln der Sprache). Fehleranfällig. Nachweise: Separates Sprachausgabe- und graphemisches Lexikon: EB (s.o.) konnte gut schreiben aber nicht sprechen. Es gibt viel mehr Patienten, die schlecht schreiben und gut sprechen können. Dies spricht für eine Trennung. Semantisches System: Patienten mit sogenannter „deep dysgraphics“: Patientin schrieb „Sonne“ wenn ihr „Himmel“ gesagt wurde. Sprachausgabe Lexikon: Häufig fälschliches Schreiben ähnliche klingender Wörter („DORT“ statt „DORF“). Aber selten sinnlos („DOLF“). Phonemisch – graphemische Umwandlung: Kinder benutzen diese oft bei noch unbekannten Wörtern => Fehlaussprachen. Ein Patient mit gutem Sprachverständnis konnte über 90% von bekannten Wörtern korrekt aufschreiben. Für Kunstwörter sank sie Fähigkeit diese plausibel aufzuschreiben auf unter 20%. Vergleich von Sprechen und Schreiben Neuropsychologen haben vor allem die Unterschiede zwischen den Prozessen untersucht (s.o.). Aber im Anfangsstadium ähneln sich beide Prozesse sehr und werden erst mit zunehmender Verarbeitung differenzierter. Das gleiche Wissen, die gleichen Planungsfähigkeiten (Sprachproduktion immer Satzteil für Satzteil) werden benutzt. Wir können wesentlich schneller Sprechen als Schreiben, sind aber selbst nach Training nur unwesentlich schneller im Diktat als beim freien Schreiben. Sprache und Denken Es wurden verschiedene Hypothesen aufgestellt, in wie weit Sprache das Denken beeinflußt. Die schwächste Form ist, daß sie das Gedächtnis beeinflußt. Hierzu gibt es widersprüchliche Ergebnisse zur Farb- Erinnerung: • Zuni – Sprecher machten mehr Fehler bei der Farberinnerung bezüglich Gelb und Orange (kein getrenntes Wort in Zuni). • Heider führte jedoch aus, daß das Farbunterscheidungsvermögen für bestimmte Grundfarben in allen Kulturen zumindest tendenziös Übereinstimmt. (Die Dani haben nur zwei Farbwerte hell/dunkel – können aber gut die 11 Grundfarben unterscheiden/erinnern.) Wie Denken unsere Sprache beeinflußt ist offensichtlicher. Oft unterscheidet das Umfeld über Begriffsbildung: Eskimos haben viele Wörter für verschiedene Formen von Schnee, Araber viele Wörter rund um das Kamel. 43 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 11 Problemlösen mit Wissen Einleitung Viele Problemlöse Prozesse sind unbewußt und nicht per Introspektion/Retrospektion zugänglich. Denken kann in verschiedenen Formen auftreten, wie ziellos oder stark zielgerichtet. Die meiste Forschung beschäftigt sich mit zielgerichteten Prozessen. Die Menge und Art des eingesetzten Wissens unterscheidet sich stark von Aufgabe zu Aufgabe. Aufgaben mit viel Hintergrundwissen sind komplexer und vielleicht auch deshalb weniger erforscht worden. Frühe Forschung: Die Gestalt Schule Gestalt Untersuchungen zu Problemlösen bei Tieren Frühe Assoziationisten/Behaviouristen bezeichneten Problem lösen als Versuch und Irrtum, sowie Wiederholen von Gelerntem. Hungrige Katzen in einem Käfig lernen durch Versuch und Irrtum einen Hebelmechanismus zu öffnen zu betätigen. Die Gestaltpsychologen zeigten, daß Wahrnehmung mehr als Assoziation ist (Kapitel 2). Nach ihnen benötigt man „Einsicht“ in die Problemstruktur und „Umstrukturierung“ um es zu lösen: • Problemlösen produziert und reproduziert. • Reproduktion ist Wiederanwendung von Erfahrung (– und kann hinderlich sein). • Produktivität durch Umstrukturierung nach Einsicht. • Einsicht kommt oft plötzlich. Kohler: Affen erreichen Bananen außerhalb ihres Käfigs mit selbst zusammengesteckten Stöcken. Nach Überlegung (Stille Phase nach gescheitertem Versuch-Irrtum) erfolgt Einsicht und Zielgerichtetes Handeln. Umstrukturierung, Einsicht, Funktionale Gebundenheit und Einstellungseffekte (Set). Umstrukturierung und Einsicht Meier`s „Zwei Seile“ oder „Pendel“ Problem: Zwei Seile hängen weit auseinander von der Decke und sollen zusammengebunden werden. Verschiedene Gegenstände stehen zur Verfügung. Meist kommen VPn erst auf die Pendel Lösung, wenn der Versuchsleiter „zufällig“ ein Seil streift und zum schwingen bringt. Funktionale Gebundenheit Das Kerzen Problem von Duncker: Eine Kerze soll an eine Wand befestigt werden. Es stehen zur Verfügung: Kerze, Streichhölzer, eine Schachtel Reiszwecken. Nur wenige benutzten die Schachtel als Kerzenhalter, weil sie zu sehr auf ihre normale Funktion „fixiert“ waren. Ähnlich Pendel Experiment: Nur schwer die „Zweckentfremdung“ der Gegenstände zum Beschweren des Seils. Bei der Aufgabe eine 3x3 Punkte Matrix, mit 4 graden Strichen ohne abzusetzten zu verbinden, schlägt oft Fehl weil implizit angenommen wird, es könnten keine Linien außerhalb der Matrix gezogen werden. Einstellungseffekte Wir werden auf Grund von Erfahrung dazu verleitet, bestimmte Lösungen anderen vorzuziehen. Wasserbehälter Experiment: Aufgabe z.B. Anfang 8/8 5/0 3/0, Ziel 8/4 5/4 3/0. Werden zwei Gruppen trainiert, ein mit immer der gleichen Lösungsstrategie, dann erkennt diese bei zwei Lösungsmöglichkeiten nur die trainierte, aber wesentlich kompliziertere Lösung. 44 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kritik Einsicht und Umstrukturierung sind leicht verständlich, aber stark unterspezifiziert. Die Bedingungen unter denen Einsicht auftritt sind unklar, ebenso bei Umstrukturierung. Wichtig wahr aber die Zielgerichtete Verarbeitung, die von späteren Theorien aufgegriffen wird. Newell und Simon´s Informations- Verarbeitungs- Theorie Problemraum Theorie Newell und Simon entwickelten mit der Problemraum Theorie das erste Computermodell über psychologische Phänomene: • Der Problemlöse–Prozeß kann durch eine Folge von Zuständen durch mentale Operatoren vom Anfangszustand zum Endzustand beschrieben werden. • Operatoren kodieren gültige Übergänge • Es gibt eine große Anzahl von alternativen Wegen. Alle Zustände, die von Anfangszustand über gültige Übergänge erreicht werden können, bilden den Problemraum. • Man benutzt Erfahrung und verschiedene Heuristiken, um einen kurzen Weg zum Endzustand zu finden. • Durch die Grenzen des kognitiven Systems ( begrenzter Arbeitsspeicher / Geschwindigkeit ) werden die Suchmöglichkeiten eingeschränkt. Daraus entstand der „General Problem Solver“ (G.P.S.). Anwendungsbeispiel: Die Türme von Hanoi Anfangszustand: Alle Scheiben auf der linken Stange. End-(Ziel-)zustand: Alle Scheiben auf der rechten Stange. Mentale Operatoren: Die oberste Scheibe kann auf eine andere Stange geschoben werden ( nur Kleinere auf Größere ). Unterschied: Algorithmus: Heuristik: Sucht den gesamten Problemraum ab (jeden Zustand) und findet immer die Lösung. Schränkt den Suchraum (sinnvoll) ein und findet nicht immer eine (optimale) Lösung. Die meist angewandte Heuristik ist die Unterschiedsreduktion: • Finde Unterschiede zwischen aktuellem Zustand und Endzustand. • Erzeuge ein Teilziel, daß den Unterschied verringert. • Wähle einen Operator der das Teilziel erreicht. Ziel und Teilziel Strukturen beim Problemlösen Teilziel- Strukturen können auf Grund von Erfahrung erstellt werden. Komplexe 5 und 6 Scheiben Varianten der Türme von Hanoi Aufgabe werden von trainierten (mit 3) VPn besser gelöst. Lernen von anderen Strategien Ein komplexes Problem kann in einfachere Unterprobleme überführt werden. Beim lösen des 5 Scheiben Problems werden Folgen von Zügen zusammengefaßt und erlernt. Dabei wird häufig eine SchleifenVermeidungs- Strategie verwendet. Anfänglich benutzt man Aufgaben unabhängige Heuristiken und erlernt dann Aufgaben spezifische. Isomorphe Probleme Ähnliche Probleme (Teezeremonie, Monster/Globus) werden durch Übertragung - je nach Ähnlichkeitsgrad – besser gelöst. 45 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Das Missionars und Kannibalen Rätsel Drei Missionare und drei Kannibalen sollen mit einem Boot, das maximal zwei Personen faßt, über einen Fluß gebracht werden. Dabei ist zu beachten, daß zu keinem Zeitpunkt mehr Kannibalen als Missionare auf einer Seite sind. Thomas untersuchte ein Variante (Hobbits und Orcs Bild 11.5 S.383). Zwei Übergänge benötigten besonders lange und führten häufiger zu Fehlern: Zustand 5: Schwer da es hier viele legale (5) Zugmöglichkeiten gibt. Zustand 8: nötiger Zug keine Unterschiedsreduktion sondern Ähnlichkeitsreduktion. (dadurch oft Backtracking) Wurde die Aufgabe ausgeweitet (5M-5K), so war die erste Strategie der VPs möglichst ein Gleichgewicht auf beiden Seiten zu halten. Erst durch die Schleifenvermeidung gab es dann einen Wechsel zur Unterschiedsreduktion Strategie. (benötigt: ca. 30 Züge obwohl in 11 lösbar) Hilfe durch die Vorgabe eines Teilzieles (mit ungleicher Verteilung) verursachte einen frühen Strategiewechsel (Lösung nach ca. 15 Zügen). Problemraum Modelle zu Wasserkrug Problemen Wasserkrug Problem s.o. ; dazu Untersuchungen mit unterschiedlichen Kruggrößen / Wassermengen von Atwood et al.: Einschränkungen der menschlichen Informationsverarbeitung: • In der Planung schauen VPn meist nur einen Zug voraus. • Züge werden nach Unterschiedsreduktion bewertet. • Schleifen Vermeidung • Beschränkung durch die Anzahl der Züge, die im Arbeits- Gedächtnis gespeichert werden. • Begrenzung des Informationstransfers ins Langzeitgedächtnis Wurde ein sichtbares Protokoll der bisherigen Züge geführt, benötigten VPn weniger Züge. Dies aber eher auf Grund Vermeidung zurückführender Züge, als durch frei werdende Kapazitäten zur Vorausplanung. Gut- und Schlecht- Definierte Probleme Die Problemraum Theorie ist sehr erfolgreich bei der Erklärung rätselartiger Probleme, hat aber ihre Mängel bei Problemen aus dem wirklichen Leben. In Rätseln sind Anfangszustand, Endzustand und die möglichen Übergänge klar definiert und beanspruchen oft nur kleine Mengen von Wissen. Schlecht- Definierte Probleme benötigen oft Unmengen von Wissen und haben oft keine klar zu definierenden Zustände. Experten und Anfänger: Wissensintensives Problemlösen Eine der Hauptmerkmale zwischen Gut- und Schlecht- Definierten Problemen ist die Menge an benötigtem Wissen. Das unterschiedliche Wissen zeigt sich im unterschiedlichen Verhalten von Experten und Anfängern. Die Fähigkeiten von Schachmeistern Schach kann interessanter weise einfach durch einen Problemraum beschrieben werden, benötigt aber auch große Mengen von Problem- Spezifischem Wissen. Kombinatorische Explosion Die Anzahl der Suchpfade steigt exponentiell. Auch viele schnelle Computerberechnungen garantieren keinen Erfolg, Menschen können diese Methode ohnehin nicht nutzen. DeGroot´s Schach Studien Seine Studien verdichteten zunächst den Nebel. Er verglich die Züge von fünf Großmeistern und fünf sehr guten Schachspielern, durch lautes Denken: Die Großmeister betrachteten nicht mehr Zugvarianten und benötigten nur unerheblich weniger Zeit, aber die gewählten Züge waren besser. Beide Gruppen benutzen Tiefensuche ( nur ca. 4 Alternativen für den ersten Zug ) bis ca. 6 Züge. 46 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Der Unterschied zwischen Großmeistern und den Experten bestand im Wissen über Brettpositionen. Ihnen wurde kurz ein Schachbrett gezeigt: Schach Meister konnten die Positionen zu 91%, die Experten nur zu 41% rekonstruieren. War die Aufstellung zufällig gewählt (ungewöhnlich) taten sich beide gleich schwer. Chunking im Schach Simon et al.: Erfahrene Spieler bilden bekannte Konstellationen von Figuren (Chunks). Die Chunks von Großmeistern enthalten mehr Figuren. Versuch: Rekonstruktion eines sichtbaren Bretts auf einem zweiten Brett. Anzahl der Figuren die bei einem Blickwechsel positioniert werden => Größe des Chunks. Simon entwickelte auch ein Computermodell. Größere Chunks => bessere Leistung bei Rekonstruktion. Brettpositionen zu kennen ist nicht alles Es existiert scheinbar auch spezielles heuristisches Wissen zur Zugbewertung. Großmeister können sich bei zufälligen Brettpositionen zwar nicht besser erinnern, wählen aber die besseren Züge. Physik Experten Typische Physikaufgabe: Block mit Masse m rutscht eine Schiefe Ebene der Länge l mit Winkel β und Reibungswiderstand k herunter. Wie groß ist seine Endgeschwindigkeit? Anfängern mangelt es am Schema, daß das Problem mit dem Prinzip verbindet. Unterschiede zwischen Anfängern und Experten in der Physik Anfänger und Experten sollten physikalische Aufgaben in Gruppen ordnen. Die Anfänger taten dies aufgrund der oberflächlichen Merkmale, Experten nach zugrundeliegenden Gesetzmäßigkeiten ( Energieerhaltungssatz ). Die Experten lösten die Aufgaben viermal schneller, verbrachten aber mehr Zeit mit der Anfangsanalyse. Experten lösten die Aufgaben vorwärts (Formel mit Anfangswerten), die Anfänger rückwärts (Formel mit Ergebniswerten). Computermodelle von physikalischen Fähigkeiten Lambert entwickelte ein Hybrid Modell aus Connectionisten und Produktionssysteme Modell. Das Gedächtnis wird durch ein verteiltes System dargestellt. Zunächst lernen der passenden Formeln durch Backtracking. Gelungene Lösungen führen zu Aktivierungsverbindungen zwischen den gegebenen/gesuchten Parametern und den verwendeten Formeln. Fähigkeiten bei Computer-Programmierung Experten entwickeln Skript- ähnliche Pläne aus stereotypen Chunks aus Code. Programmierer planen auf einer abstrakten Ebene. Ein lückenhaftes Programm sollte ergänzt werden. Anfänger konnten nur die Hälfte der Lücken füllen, Experten fast alles. Wird ein Programm mit vertauschten Sequenzen gezeigt, werden diese beim Erinnern automatisch korrigiert (Ähnlich wie bei Geschichten ). Die Möglichkeit abstrakt zu planen kann auch von der Sprache abhängen. BASIC Programmierer taten die erst nach einem Training (im Gegensatz zu PASCAL). Wie man zum Experten wird - Anderson´s Theorie des Fähigkeiten Erwerbs ACT* (Adaptive Control of Thought) besteht aus drei Verarbeitungskomponenten (Bild 11.6 S. 397): • Dekaratives Gedächtnis: Semantisches Netzwerk für Konzepte, bewußte Anwendung • Prozeduales Gedächtnis: Produktionssystem, automatische/unbewußte Anwendung 47 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" • Arbeits- Gedächtnis: Einhält aktuelle Informationen Der Lernprozeß läuft auf drei Ebenen, der deklarativen, der prozedualen, und der Feinabstimmung (Tuning): • Der Anfänger wendet auf der deklarativen Ebene zunächst Aufgaben unabhängige, schwache Strategien an (z.B. Unterschiedsreduktion ) • Nach der erfolgreichen Lösung eines Problems werden daraus aufgabenspezifische Produktionen gebildet (Prozeduale Ebene) • Ein Lernmechanismus, der überflüssige Produktionen aus Produktionssequenzen entfernt. • Feinabstimmung beim Wiederholen von Aufgaben: a) Stärkung der Aktivierungen bei erfolgreichen Versuchen. b) Verallgemeinerung (Einsetzten von Variablen für „IF“ Parameter). c) Schwächung bei Mißerfolg. Analogien, Modelle und Einsicht neu betrachtet Außer dem Anfänger/Experten Ansatz noch andere Erklärungsmodelle für Wissensnutzung beim Problemlösen. Kreativität und analoge Probleme Um neue unbekannte Aufgaben zu lösen und kreativ zu sein , werden oft zwei sehr unterschiedliche Bereiche zusammengebracht. Ein Beispiel ist das Atommodell von Rutherford, entstanden aus einer Analogie mit dem Sonnensystem (Bild 11.2 S. 400). Problemlösen durch Analogien: • Einige Aspekte der unterschiedlichen Bereiche werden zur Deckung gebracht. (Im Sonnensystem und im Atom ziehen sich Dinge an) • Einige Aspekte werden transferiert. (Drehung der Planeten um die Sonne) • Nicht übertragbare Informationen werden weggelassen. (Leben auf der Erde) Gick und Holyoak`s Analogie Versucht zu Duncker´s „Bestrahlungsproblem“: • Bestrahlungsproblem: Doktor muß Tumor durch Strahlung zerstören, ohne gesundes Gewebe zu schädigen. • Analoge Geschichte: General erobert eine Festung. Die Wege sind für große Truppenteile vermint. Er schickt kleine Truppenteile gleichzeitig auf verschiedenen Wegen zur Festung. Ohne Geschichte konnten nur 10%, mit 80% der VPs das Problem lösen. Wenn sie aber nicht angewiesen wurden, die Geschichte zu nutzen, stellten viele die Analogie nicht her. ð Kreativität ist selten, weil relevante, übertragbare Erfahrungen schwer erinnerbar sind. Einsicht neu betrachtet Versuche und Erklärungsmodelle aus dem Problemraum wirken sich auf die Arbeiten zur Gestalttheorie aus. Neun Punkt Problem Man stellte fest, daß auch mit dem Hinweis außerhalb der Gestalt zeichnen zu dürfen, nur 20% das Problem lösen konnten. Es wurde vermutet, daß die Erklärungen durch „Einsicht“ und „Fixierung“ falsch seien und vielmehr Problem spezifisches Wissen benötigt werde. Einsicht und Umstrukturierung unter Problemraum Gesichtspunkten Einsicht als Verständnis der Lösung neu interpretiert als: (Man erreicht einen Zustand, von dem aus der Zielzustand „sichtbar“ ist). Umstrukturierung neu interpretiert als Anpassung des Zustandes an mögliche Operatoren. (z.B. Zustand: Kanarienvogel, IF Bedingung im Operator: Vogel). Verschiedene Arten von Einsicht Laut Steinberg vermischen Menschen drei Arten von Einsicht: • Selektive Verschlüsselung: Unterscheidung von relevanten und nicht relevanten Fakten (Socken). • Selektive Kombination: Kombination von vorher nicht zusammenhängenden Informationen (Gleiches Geld, dann einer 10 Dollar mehr). • Selektiver Vergleich: Analogie zu Informationen aus der Vergangenheit (Seelilien) 48 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Mentale Modelle der Welt Menschen benutzen „naive Theorien“ oder „mentale Modelle“ um die Welt vereinfachend zu verstehen: • Nicht vollständig, nicht stabil, zum Teil ad hoc. • Simulieren das Verhalten eines physikalischen Systems • Unwissenschaftlich; „abergläubische“ Sicht, um den mentalen Aufwand klein zu halten. Gentner und Stevens charakterisieren mentale Modelle mit Propositionen, mehr ein theoretisches Konstrukt, als ein spezielles Repräsentationsformat. Nicht zu verwechseln mit mentalen Modellen (Johnson-Laird) aus Kapitel 7: analoge Repräsentation Mentale Modelle von Heizungen Zwei Modelle, die von VPn (auch vermischt) benutzt wurden: • Feedback Modell: Ein Thermostat kontrolliert die Raumtemperatur • Ventil Modell: Person als Regulator. Beide sind technisch nicht korrekt. Das Ventil Modell veranlaßt zum öfteren Nachregulieren und ist energiesparender. Naive Bewegungsmodelle Konsistente Modelle personenübergreifend, erstaunlich von der klassischen Physik abweichend. Flugzeug läßt einen Ball fallen (Bild 11.7 S. 409 – 4 Modellklassen), nur 40% zeichnen eine Parabel nach vorne – nicht immer unter dem Flugzeug endend. Mentale Modell als Schemata Streit um die Natur von Mentalen Modellen. Eine Möglichkeit: Unterschied zu bisherigen Schemata und ihren Instanzen – allgemeines Schema für kausale Verbindungen, das auf unbekannte kausale Zusammenhänge angewandt (Instanziiert wird). Bewertung der Problemlösungs- Forschung Ist Problemlösen Produktiv oder Reproduktiv? Wir besitzen eine Reihe von allgemeinen Problemlöse Strategien, diese sind oft schwach (Unteschiedsreduktion). Wir benutzen meist spezielles heuristisches Wissen (Schach), oft ist das Anwenden von Analogien aus der Vergangenheit nicht trivial. Relevanz für das tägliche Leben? Die frühe Forschung beschäftigte sich nur mit wohldefinierten Problemen. Experten – Anfänger Untersuchen haben zu anderen Lehrmethoden und Design von Computersprachen geführt. Mentale Modelle in Alltagssituationen (Energiesparen beim Heizen). Aber bisher wurde nur ein sehr geringer Teil betrachtet. Ist Wissen der Schlüssel? Man kann, auch wenn meist eine Kombination genutzt wird, Problemlösemethoden nach dem eingesetzten Wissen klassifizieren (Bild 11.8 S. 413): • Wissensschwache (Unterschiedsreduktion) • Relativ bekannte Probleme, aber ohne Lösungsschema (Divide&Conquer – allgemeine Lösungen) • Auf gut bekannte Probleme werden spezielle Lösungsschemata angewandt • Falls keine Lösungen bekannt sind, wird versucht anhand von Analogien, Lösungsstrategien zu übertragen Sind Problemlöse Theorien zu Ausdrucksstark? Die Methode und Formalismen der KI können fast jede Aufgabe modellieren, auch solche, die von Menschen nicht durchführbar sind. Ziel ist es also die Theorien weiter einzuschränken, um die Natur der menschlichen Verarbeitung besser nachzubilden. 49 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 12 Logisches Denken (Schlußfolgern) und Entscheidungen fällen(Hypothesen prüfen) Deduktives Schlußfolgern ist notwendig, ohne gäbe es keine Wissenschaft, Technologie, Kultur. Entscheidungen fällen ist das Abwägen von Wahrscheinlichkeiten für Ereignisse oder deren Folgen. Einführung Die Unterteilung zwischen Schlußfolgern und Entscheiden betrifft mehr die Forschungsgruppen, als die zugrundeliegenden Prozesse. Deduktion und Induktion Deduktiv folgert man was notwendigerweise folgt (keine neue semantische Information). Induktives Folgern verallgemeinert und interpretiert die Prämissen (neue semantische Informationen können hinzukommen). Gültige und ungültige Folgerungen (Bild 12.2 S. 423 - Fehler) Gültig Modus Ponens Modus Tollens Ungültig Bestätigung der Konsequenz Ablehnung der Ursache P => Q , P Dann: Q P => Q, not Q Dann: not P P => Q, Q Dann: P P => Q, not P Dann: not Q Wird meist korrekt und schnell angewandt Wird häufig falsch/nicht erkannt. Über 50% der VPs wenden fälschlich diese an. Theorie der abstrakten Regeln von propositionalem Schlußfolgern Falsche Schlüsse werden auf Grund von Mißinterpretation/Mißverstehen der Aufgabe gezogen. Nach dem anfänglichen Mißverständnis ist das Folgern logisch. Braine´s Theorie der natürlichen Deduktion • • • • • • • • Die Prämissen werden in abstrakte Schemata/Regeln codiert. Die elementaren Schemata (z.B. Modus ponens) erzeugen gültige Schlußfolgerungen. Strategien koordinieren die Folgerungen. Ist die Folgerung nicht erfolgreich, wird ein Satz von quasi-logischen Regeln angewandt (Vorurteile/Neigung). Drei Arten von Fehlern: Verständnisfehler: Prämissen oder Folgerungen werden mißverstanden. Unpassende Heuristik: die Strategien sind unzureichend: Problem zu schwer. Verarbeitungs Fehler: Unaufmerksamkeit, Verpassen der relevanten Information. Gültige Folgerungen mit abstrakten Regeln Danach sind Menschen natürliche Logiker mit einigen Mängeln im Grenzbereich. Wenn ich hungrig bin, gehe ich spazieren Wenn ich spazieren gehe, fühle ich mich besser. Ich bin hunrig. If P then Q If Q then R P Menschen folgern beim Modus Ponens so leicht, weil sie eine „eingebaute“ Regel besitzen, beim Modus Tollens hingegen nicht (dieser muß aus mehreren zusammengesetzt werden). Erklärungen der Fehler mit Hilfe von abstrakten Regeln Ablehnung der Ursache ( ¬P => Q, ¬P : ¬Q ): Die Prämisse wird interpretiert als ¬P => ¬Q. 50 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Bestätigung der Konsequenz (P => Q, Q : P): Prämisse als Q => P. Diese Änderungen basieren aus Erfahrungen. Co-operations Prinzip: Menschen erzählen nur, was der andere wissen muß. So impliziert „Wenn es regnet, wird sie naß“ meist auch den umgekehrten Fall. Der Ansatz mit abstrakten Regeln ist elegant auf Grund der präzisen, begrenzten Regeln (16 s.u.). Weitere Nachweise beim propositionalen Schlußfolgern Brain fand in Versuchen 16 Schemata (wie Modus Ponens), die im wesentlichen fehlerfreie Schlüsse erzielten. Die Schwierigkeit von daraus zusammengesetzten komplexeren Folgerungen war additiv zu den Einzelschwierigkeiten. Einige Forscher untersuchten das Entstehen von Fehlinterpretationen (Gesprächsbasis). Werden z.B. mehrere Ursachen im Kontext angeboten, wird die „Bestätigung der Konsequenz“ als falscher Schluß erkannt: Wenn es regnet, wird sie naß. Wenn es schneit, wird sie naß. Sie ist naß. Was folgt? If P then Q If R then Q Q ??? Bewertung der Theorie Die Eleganz wird bezahlt mit einer ungenauen Spezifikation des Interpretationsprozesses. Der Nachweis für die Unterdrückung der Fehlinterpretation bei zusätzlicher Information ist fraglich. Zusätzliche Information kann sogar gültige Folgerungen unterdrücken: Wenn sie einen Aufsatz schreibt, bleibt sie bis spät in der Bibliothek. If P then Q Wenn die Bibliothek lange geöffnet hat, bleibt sie bis spät in der Bibliothek. If R then Q Sie schreibt einen Aufsatz. P Also ? ??? Die Theorie ist nicht generell und nicht gut auf andere Aufgaben übertragbar (s.u.). Theorie der Konkreten Regeln bei Wason´s Auswahlaufgabe Die Leistungen im logischen Denken werden von der Art des Materials beeinflußt (abstrakt oder konkret). Die Theorie der abstrakten Regeln sagt keine Unterschiede voraus. Die Folgerung daraus war, daß Menschen eher konkrete als abstrakte Regeln verwenden. Wasons´s Auswahlaufgabe Die Aufgabe Vier Karten mit Buchstaben auf der einen und Nummern auf der anderen Seite. Folgende Regel sollte getestet werden, indem man möglichst wenig Karten herumdreht: „Wenn ein Vokal auf der einen Seite, dann ist eine gerade Nummer auf der anderen.“ E K 4 7 Die Korrekte Lösung ( E und 7 – modus tollens) wurde nur von 17% angegeben. 47% favorisierten E und 4. Eine konkrete Aufgabe (mit Briefen) führte zu wesentlich besseren Ergebnissen. Entwicklung der Erklärungen für diese Aufgabe Anfangs glaubte man die VPn würden eher versuchen, die Regel zu bestätigen als sie zu widerlegen. Ein anderer Ansatz erklärte, die VPn würden einfach nur die Symbole, die in der Regel vorkommen, untersuchen. (B=>¬3, Es wurden korrekter weise das B und die 3 umgedreht) „Wenn ein Brief versiegelt ist, dann muß er mit 50cent frankiert sein.“ (Bild 12.1 S.432) Hier waren 22 von 24 erfolgreich, indem sie den versiegelten und den mit 40cent frankierten Umschlag drehten. 51 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Man fand aber auch, daß bei anderem konkreten Material dieser Effekt nicht auftrat. Daraus folgerte man, Menschen müßten spezielle Erfahrungen (Instanzen bei denen die Regel nicht der Fall war) mitbringen. Dieses wurde allerdings durch Versuche in Frage gestellt, bei denen die Aufgaben nicht im Erfahrungsbereich lagen, die Ergebnisse aber trotzdem meist korrekt. („Ist ein Einkauf höher als 30$, dann muß der Manager die Quittung unterschreiben.“ – Eine mit 15$, eine mit 45$, eine unterschriebene, eine nicht unterschriebene) Um diesem zu begegnen, teilte man konkrete Regeln Klassen von Situationen (Schemata) zu. (s.u.) Pragmatische Denk Schemata Cheng und Holyak: • Konkrete Regeln gehören zu bestimmten Klassen von Situationen. • Zwei Arten von Regeln: • Erlaubnisschemata: „Wenn jemand X tun möchte, dann muß die Bedingung Y erfüllt sein.“ • Verpflichtungsschemata: „Falls Situation A eintritt, dann muß C getan werden.“ • Fehler: a) Situation paßt zu keinem Schema b) Die Regeln in Schemata sind nicht immer mit propositionaler Logik konform. Nachweise für pragmatische Schemata Manipulation der konkreten Erfahrungen (Hongkong – Erfahrung mit Briefbeispiel, Michigan nicht). Flughafen Beispiel (beide keine konkrete Erfahrung): „Steht auf der einen Seite des Formulars „Eingang“, dann steht auf der anderen Cholera in der Liste der Krankheiten.“ Weitere Manipulation durch eine (nicht) gegebene Begründung für die Regeln. Mit Begründung waren die Leistungen im allgemeinen wesentlich besser. (Bild 12.2 S. 437 ) Sie führten auch Trainingsstudien durch, wobei das Üben von Standardlogik nicht so erfolgreich war, wie das Üben von Regeln, die zu pragmatischen Schemata gehören. Theorie Probleme der Konkreten Regeln Nicht vollständig in seinen Vorhersagen. Nichts über Schlußfolgern mit anderen logischen Konstrukten (AND, OR). Wenig über Verarbeitungsgrenzen. Es ist nicht klar, wie Umgangssprache in passende Regeln geformt wird und ist somit frei für Interpretationen. Modell Theorie für Syllogismen Die Prämissen-/Konklusion- Umschreibungsverfahren der bisherigen Theorien können einige Phänomene nicht erklären. Wenn wir eine Geschichte lesen, fügen wir Informationen aus unserem allgemeinen Wissen hinzu. Ein Bär geht von seinem Haus 5 Meilen nach Süden, 3 Meilen nach Osten und 5 Meilen nach Norden. (Hinweis: der Bär ist weiß) Wir können das Modell der Situation (Flache Ebene > Gebogene Hemisphäre) verändern. Im Vergleich zu z.B. Venn Diagrammen haben die mentalen Modelle nach Johnson-Laird ein allgemeineres Format. (Gleiche Struktur wie die dargestellten Situationen. Ein Modell wird aus einer Anzahl von Prämissen gebildet: - Die Lampe ist rechts vom Schreibblock. - Das Buch ist links vom Schreibblock. - Die Uhr ist vor dem Buch. - Die Vase ist vor der Lampe. Modell: Buch Uhr 52 Schreibblock Lampe Vase Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" - Lampe und Buch beide links vom Schreibblock. Modell nicht eindeutig: Buch Lampe Schreibblock Uhr Vase oder Lampe Schreibblock Vase Uhr Buch Die Schlußfolgerung „Uhr links von der Vase“ gilt nur für das erste Modell – nicht allgemein. Soweit zu räumlichen Folgerungen. Die Modell Theorie • • • • • Deduktives Denken mit drei Ebenen Verständnis der Prämissen: Bilden von analogen Modellen. Schlußfolgern: Folgerungen durch Auswertung der Modelle. Überarbeitung: Suche nach alternativen Modellen, um Folgerungen zu wiederlegen. Fehler entstehen auf Grund begrenzten Arbeitsgedächtnisses, je mehr Modelle gebildet werden müssen, desto schwerer die Überarbeitung. Syllogistisches Denken Natur von Syllogismen Syllogismen bestehen aus zwei Prämissen und einer Folgerung. Die meisten Experimente benutzen Aristoteles kategorische Syllogismen: Alle Tiere sind sterblich Alle Menschen sind Tiere Also sind alle Menschen sterblich. Alle B sind A Alle C sind B Also sind alle C auch A Es gibt Quantoren (Alle, Einige, Keine, Einige sind nicht...) und Verschiedene Anordnungen: A-B B-A A-B B-A B-C C-B C-B B-C Die Anzahl der Syllogismen ist sehr groß und nur ein Teil ist korrekt. Viele werden aber Fälschlicher Weise akzeptiert: Einige B sind A. Einige C sind B. Also sind einige C auch A. (Falsch, aber oft akzeptiert.) Vorhergehende Erklärungen „Atmosphären Effekt“: • Eine Negative Prämisse erzeugt eine negative Atmosphäre. • Eine Teilmengen Prämisse führt zu einer Teilmengen (Einige) Atmosphäre • Der Effekt ist stärker bei gültigen Folgerungen. Dagegen spricht insbesondere, daß oft erwidert wird, daß nichts folgt: Einige B sind A Keine C sind B _ Einige A sind nicht C Nur 10% bestätigen diese korrekte Folgerung, 60% behaupten, es folge nichts. Eine Alternative behauptet die Prämissen würden fehlgedeutet. „Alle As sind Bs“ als „Alle Bs sind As“, sowie „Einige As sind keine Bs“ als „Einige Bs sind keine As“. Dies beschreibt jedoch mehr die Phänomene anstatt sie zu erklären. (Warum Fehldeutungen?) 53 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Modell Theorie zu Syllogistischem Denken Drei Stufen Verarbeitung (s.o.) Modelle aus Prämissen bilden (1) Einige Artisten sind Bienenzüchter. Modelle: Artist = 0Artist Bienenzüchter 0Bienenzüchter oder Artist = Artist = 0Artist Bienenzüchter Bienenzüchter 0Bienenzüchter 0Artist bedeutet: Es kann einen Artisten geben, der kein Bienenzüchter ist (optional). Einige kann auch alles heißen (Kann ich einige Gummibärchen haben? Ja! => erlaubt alle zu essen. J ) (2) Alle Bienenzüchter sind Chemiker. Hat eigenes Modell und kann mit (1) zu folgendem Modell kombiniert werden: Artist = 0Artist Bienenzüchter = 0Bienenzüchter = Chemiker Chemiker 0Chemiker Schlußfolgerungen aus dem Modell ziehen Die Folgerung: (3) Einige Artisten sind Chemiker ist mit dem Modell konform. Suchen nach alternativen Modellen In obigem Beispiel keine Alternative. Anderes Beispiel: (1) Alle Artisten sind Bienenzüchter. (2) Einige Bienenzüchter sind Chemiker. Es gibt ein Modell mit „Einige Artisten sind Chemiker“ aber ebenso eins, bei dem dies nicht der Fall ist. Nachweise für die Modell Theorie Fehler können auf allen drei Stufen auftreten – hier Konzentration auf die dritte (Suche nach alternativen Modellen). Verschiedene Aufgaben benötigen eine unterschiedliche Anzahl an Modelle. Auf Grund des begrenzten Arbeitsgedächtnisses sind viele Modelle schwerer zu handhaben. Es wurde nachgewiesen, daß viele Fehler auf Grund eines damit konsisten Modell und Vernachlässigung eines widersprechenden Modells entstehen. Bewertung der Modell Theorie Nach Johnson-Laird ist die Modell Theorie zentral für ein breites Spektrum an psychologischen Phänomenen. Die Theorie wurde auf dem Computer umgesetzt und ist somit gut spezifiziert. Kritik von Seiten der Abstrakten Regeln Psychologen, daß die Theorie auf einer höheren Ebene mit ihrer identisch sei. 54 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Die Theorie wurde auch für Propositionales Folgern umgesetzt („Wenn es einen Kreis gibt, gibt es ein Dreieck“) in Form von Wahrheitstabellen: 0 ¬0 ¬0 ∆ ∆ ¬∆ Oft verkürzt dargestellt: [0] ∆; dies führt zu Fehlern (modus tollens) Die Theorie sagt aber bisher nicht viel darüber, wie allgemeines Wissen die Aufgaben beeinflußt. Vergleich der Forschungen zu logischem Denken Sind wir Rational? Nach der Abstrakten Regel und der Modell Theorie sind Menschen im Prinzip rational. Ein reiner Konkrete Regeln Anhänger hat ein unrationale Sicht vom menschlichen Denken, alles basiert auf Erfahrungen. Abschätzen der Theorien Die Theorie der konkreten Regeln ist unpräzise und nur auf wenige Phänomene angewandt worden. Die Theorie der Abstrakten Regel ist präzise und viele Vorhersagen wurden bestätigt. Sie beschäftigte sich hauptsächlich mit propositionalem Schließen, für die Auswahlaufgabe liefert sie jedoch keine Erklärung. Die Modell Theorie wurde auf das breiteste Spektrum (Syllogismen, Propositionen, räumliche Folgerungen und auch auf die Auswahlaufgabe) angewandt. Johnson-Laird und Byrne untersuchten in letzter Zeit, daß abstrakte Regeln nicht konsistent mit einigen ihrer Untersuchungen sind. Entscheidungen Fällen ( Hypothesenprüfung ) Normative Theorien Die Forschung hat sich hauptsächlich mit statistischem Urteilen beschäftigt. Die Zugrundeliegenden Wissenschaften der Stochastik und der Statistik zeigen, wie Menschen idealer weise korrekt urteilen sollten, was sie natürlich mal wieder nicht tun. Also untersucht man die Abweichungen. Abweichungen bei statistischen Bewertungen Bayes´sches Theorem Bedingte Wahrscheinlichkeit: P( H / E ) = P( E / H ) × P( H ) P( E / H ) × P( H ) + P( E / H ) × P( H ) Die A-Posteriori-Wahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit eine Hypothese zutrifft, nachdem Evidenz für ein Ereignis E vorliegt. Edwards: Zwei Beutel mit 100 Spielchips. In einem 70 rote und 30 blaue. Im anderen 30 rote und 70 blaue. P(H) := Der gewählte Sack hat 70 rote Chips, P(E/H) := Es wird ein roter Chip gezogen. P( H ) = 0,5 P( H ) = 0,5 P( E / H ) = 0.7 P( E / H ) = 0.3 55 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Daraus ergibt sich eine Posteriori Wahrscheinlichkeit für den roten Sack von 0,7. Menschen schätzen typischer weise viel konservativer (0.6). Ignorieren der A-Priori Wahrscheinlichkeiten Taxiunfall mit Fahrerflucht vor Gericht: (a) 85% der Taxis in der Stadt sind grün und 15% blau (b) Ein Zeuge identifiziert das Taxi als blau. (c) Die Fähigkeit des Zeugen wird unter gleichen Sichtverhältnissen getestet. Er erkennt mit 80% die Farbe des Wagens, in 20% nicht. Nach Bayes ergibt sich eine Wahrscheinlichkeit für ein tatsächlich blaues Taxi von 41%., VPn tendieren aber daraufhin mit 80% Wahrscheinlichkeit anzunehmen, daß das Taxi blau war. Wird der kausale Zusammenhang klarer herausgestellt, werden 60% angenommen: (a) Beide Gesellschaften sind gleich groß, aber bei 85% der Unfälle sind die grünen verwickelt, nur 15% die blauen. Verfügbarkeits- Heuristiken Bei Beurteilungen von Wahrscheinlichkeiten/Anteilen greift man häufig auf bekannte Instanzen zurück. (Herzinfarkt Risiko bei Mittelalten Personen : Vergleich mit eigenem Bekanntenkreis). Aufgabe: Gibt es im Englischen mehr Wörter mit „r“ am Anfang oder als dritten Buchstaben? Die meisten tippen auf den Anfang, obwohl das Gegenteil der Fall ist. Repräsentative Heuristik Urteil, ob ein Objekt oder ein Ereignis zu einer bestimmten Klasse gehören: „... sehr zurückhaltend, gleichbleibend hilfsbereit, wenig Interesse an der realen Welt, Sinn für Ordnung ...“ ein Farmer, Pilot, Doktor oder Bibliothekar. Die größte Wahrscheinlichkeit wurde dem Bibliothekar gegeben. Hierbei sind Ähnlichkeiten zu Stereotypen entscheidend (siehe auch Konzepte Kapitel 8). Beurteilung der Hypothesenprüfung Entscheidungen über Wahrscheinlichkeiten von zukünftigen Ereignissen sind wichtig und oft nicht korrekt. Die Theorie muß noch besser spezifiziert werden, die erwähnten Heuristiken sind ungenau. 56 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Kapitel 13 Kognition, Emotion und Klinische Psychologie Mit dem Informationsverarbeitung Ansatz von Broadbent dominiert durch die Computermetapher (Kodieren, Speichern, abrufen) wurde die Beziehung zwischen Kognition und Emotion vernachlässigt. Die meisten Untersuchungen bemühen sich die emotionalen Faktoren konstant zu halten (damit sich vernachlässigt werden können). Einführung Es wurden Unterschiede der Kognitiven Verarbeitung zwischen Patienten mit Stimmungsstörungen (Beklemmungen, Phobien, Depressionen) und gesunden Menschen festgestellt. Benötigt ein Affekt Kognition ? Ein Reiz führt mit systematischer Abhängigkeit zu einer Affekt-Reaktion. Muß der Reiz dafür kognitiv verarbeitet werden? „Können reine Sinnesreizungen direkte emotionale Reaktionen hervorrufen?“ Zajonc’s Theoretische Position Hat emotionale Reaktionen auf unterschwellige Wahrnehmung nachgewiesen. Lazarus’s Theoretische Position Zeigte Angsteinflößende Filme (Beschneidungsritual, Arbeitsunfälle). Die kognitive Einschätzung wurde durch verschiedene Soundtracks beeinflußt. Die Vorstellung es handle sich um Schauspieler, oder man sei Anthropologe (Beschneidungsritual) führten zu einer erheblichen Streßreduzierung. Jeder Affektiven Reaktion soll somit Kognitive Einschätzung vorausgehen. Zusammenfassung Zajonc wies nach, daß affektive Reaktionen ohne bewußte Kognitive Prozesse auftreten können. Auch Lazarus bestritt nicht diese Möglichkeit. Kognition und Emotion beeinflussen sich gegenseitig. Allgemein kann man aber davon ausgehen, daß Kognitive Prozesse der Emotion vorausgehen, auch wenn dies nicht immer der Fall ist. Emotion, Lernen und Gedächtnis Zusammenfassung Verschiedene Ansätze zum Zusammenhang zwischen Emotion und Gedächtnis: Sigmund Freud vermutete, daß Angst erzeugende oder traumatische Erinnerungen nicht ins Bewußtsein gelangen können (Verdrängung). Labor Studien haben aber keinen Nachweis für Verdrängung ergeben. Es gibt aber Nachweise für ein verwandtes Phänomen, den Wahrnehmungsschutz: Bedrohliche Reize sind schwerer Wahrzunehmen als neutrale. Grodon Brower entwickelte ein Theorie auf Basis eines semantischen Netzwerkes für Emotion und Gedächtnis. (Bild 13.1 S.471) Emotionen sind Knoten im Semantischen Netz. Die Stimmung in der man sich befindet beeinflußt die Prozesse des Lernens und des Erinnerns. Danach folgt: Personen in positiver Stimmung erinnern positiv emotionale Fakten besser. Lernen ist am besten, wenn das Material die gleiche Stimmung ausstrahlt. Forschungen stützten dies. Trotzdem versucht man negative Stimmungszustände zu vermeiden, in denen man lernen und erinnern von negativen Informationen erleichtert. ( Darauf verwandte Brower zu wenig Aufmerksamkeit ) Untersuchungen haben gezeigt, daß Patienten mit Depressionen eine Tendenz zu negativen Erinnerungen haben, Angst Patienten jedoch nicht. Diese Machen es sich eher eine bewußte Vermeidung von negativen Informationen zu eigen. 57 Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook" Stimmungsstörungen, Wahrnehmung und Aufmerksamkeit Zusammenfassung Ängstliche unterscheiden sich von nicht ängstlichen Individuen bei vielen Arten von Aufmerksamkeit. Sie achten stärker auf bedrohliche Reize, sind schneller beunruhigt, haben eine größere Selektivität und begrenztere Kapazität an Aufmerksamkeit. Diese Unterschiede entstehen, da sie in aktivem Austausch mit der Umgebung stehen, auf der Suche nach Gefahrenanzeichen. Depressive Individuen werden nicht sehr stark durch die Reizinhalte beeinflußt, sind nicht so leicht zu beunruhigen und zeigen keine selektive Aufmerksamkeit. Sie verhalten sich zu ihrer Umgebung eher passiv und konzentrieren ihre Aufmerksamkeit auf innere Angelegenheiten. Kognitive Stimmungsstörungen: Kausale Zusammenhänge Zusammenfassung Die Unterschiede in der kognitiven Verarbeitung zwischen Stimmungsgestörten Patienten und normalen Kontrollgruppen lassen keinen Schluß auf die kausalen Zusammenhänge zu. Die veränderte kognitive Verarbeitung kann die Stimmungsstörungen hervorrufen (dann gäbe es einen kognitiven Verletzlichkeits-Faktor) oder aber die Stimmungsstörung selbst veranlaßt die veränderte kognitive Verarbeitung. Einige Klarheit hierüber können Untersuchungen an geheilten Patienten bringen: Bedrohliche Wörter werden von Angstpatienten besser im impliziten Gedächtnis gespeichert, beim expliziten kein Unterschied. Geheilte Patienten lagen im impliziten Test dazwischen ( Wort Vervollständigung – Indiz für Verletzlichkeits-Faktor ). Bei depressiven Patienten gibt es bisher nur sehr geringe Anzeichen für einen depressionsanfällig machenden Faktor. 58