Lernvorlage Eysenck and Kean Cognitive Psychology

Werbung
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Hallo Studies,
ich hatte das "Vergnügen" bei Herrn Bredenkamp, unteranderem über das Buch
"Cognitive Psychologie - A Stundents Handbook" von Eysenk und Kean geprüft zu werden.
Ich erstellte daher eine deutsche Lernvorlage. Diese ist jedoch sehr meinen persönlichen
Lernbedürfnissen angepaßt. Daher gibt es diese auch auf Diskette.
Das Format ist Winword (leider Office 97), aber ich wollte durch Portierung nicht meine
wenigen Grafiken zerhackstücken.
Ich bitte um sehr viel Nachsicht bei der Rechtschreibung, aber nach der Prüfung
hat man nicht mehr den Elan für eine Korrekturdurchsicht. ;-)
Kapitel 1 & 13 sind nur sehr oberflächlich beschrieben, Kapitel 14 gar nicht.
Viel Spaß & Glück wünscht Euch
Frank Leber
([email protected])
1
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kognitive Psychologie
Eysenck & Keane
Die kognitive Psychologie versucht, das Wesen der menschlichen Intelligenz und des menschlichen Denkens zu
verstehen ( Anderson )
Viele Ausprägungen der kognitiven Psychologie:
n Wahrnehmung
n Lernen
n Gedächtnis
n Sprache
n Problem lösen
n Denken
Problem mit der traditionellen Sicht von Wissenschaft:
n Objektivität
n Fakten durch Beobachtung und Experiment
n Verallgemeinerung zu Gesetzmäßigkeiten
Zunächst Introspektion (Anderson):
Selbstbeobachtung - viele subjektive Verfälschungen
Behaviorismus ( Ausprägung logischer Positivismus, z.B. Watson & Skinner):
Beschränkung auf beobachtbare Phänomene, Zurückweisung von hypothetischen mentalen Modellen.
Reine Beobachtung von Reizen und Wirkungen sind jedoch oft unbefriedigend. (Was passiert dazwischen ?)
Beobachtung ist nicht objektiv, sondern wird von Hypothesen und Theorien beeinflußt (Karl Popper):
Grundlage von Wissenschaft ist nicht Verallgemeinerung sondern Widerlegung.
Die zwei Zustände der Wissenschaft nach Thomas Kuhn:
„normal“ (e) Perioden werden von einer Theorie, bzw. Modell dominiert.
„revolutionär“ - alte Theorie lückenhaft, versagt => Integration von alten und neuen Modellen
Historische Entwicklung der kognitiven Psychologie
Der Informations-Verarbeitung Ansatz legte in den 50ziger den Grundstein der heutigen Kognitiven Psychologie
(Mischung aus Bottom Up und Top Down):
• Personen interagieren autonom mit ihrer Umwelt.
• Der dazu verwendete Verstand ist ein universelles, symbolverarbeitendes System.
• Symbole werden durch Prozesse verändert und beziehen sich auf Dinge der äußeren Welt.
• Ziel der Kognitiven Psychologie ist die Symbole und Prozesse zu spezifizieren.
Untersuchungsansätze
• Experimentelle Psychologie (Versuche mit normalen VPn)
• Kognitive Wissenschaftler, die Computermodelle entwickeln.
• Neuropsychologen
Computermodelle
Flußdiagramme (Bild 1.1 S. 14)
Sind häufig ungenau.
Semantische Netzwerke (Bild 1.3 S. 17)
Wissen in Form von Assoziationen ( a) gleichzeitiges auftreten, b) Ähnlichkeit, c) Gegensatz ).
2
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
• Konzepte (Hund, Stuhl) durch Knoten dargestellt.
• Verbindungen zwischen den Koten (spielt, tritt, beißt) mit verschiedenen Aktivierungsstärken.
• Verarbeitungsprozesse verändern dir Aktivierungsstärken.
Produktionssysteme (Bild 1.4 S. 19)
• Eine Menge von Produktionen (IF .. THEN Regeln)
• Arbeitsgedächtnis mit Informationen
• Das Produktionssystem verändert die Inhalte des Arbeitsgedächtnisses, in dem es die Produktionen
anwendet.
( Bei Modellerweiterung Änderungen der Produktionen möglich)
Neuronale Netze, Parallele Verteilte Systeme, Connectionisten Netztwerke (Bild 15. S.21)
Selbstlernende Systeme, die selbst ihre Programme ändern.
• Neuronen ähnliche Einheiten (Knoten)
• Ein Knoten gibt die gewichtete Summe aller seiner Inputs (oberhalb einer Schwelle) weiter
(Aktivierungsausbreitung)
• Ein Konzept ist verteilt abgespeichert (Viele Knoten/Verbindungen).
• Lernen durch Rückkopplung / Erfolgskontrolle: Änderung der Verbindungsstärke.
Neuropsychologie
Nachweise durch:
• Dissotiationen: Ein Patient ist schlecht bei einer, aber durchschnittlich bei einer anderen Aufgabe.
• Doppelte Dissotiationen: Eine Patientengruppe gut bei der einen, schlecht bei der anderen Aufgabe. Eine
weitere Patientengruppe genau umgekehrt.
• Assotiationen: Beeinträchtigungen einer Fähigkeit ziehen bei allen (den meisten) Patienten,
Beeinträchtigungen einer anderen Fähigkeit nach sich.
Dadurch versucht man verschiedene Module beim Verarbeitungsprozeß nachzuweisen, und bei welchen
Aufgaben sie benötigt werden. Bei Isomorphismen versucht man den Zusammenhang zwischen einer
bestimmten physischen Schädigung eines Gehirnbereichs und eines/mehrerer Module nachzuweisen.
Organisation der Kognitiven Theorien
Einordnung der Verschiedenen Forschungsgebiete (Analog zu Physik, Chemie, Biologie).
Marr´s Rahmen für Theorien (Tabelle 1.1 S. 32)
Berechnungsebene
Algorithmische Ebene
Hardware Ebene
Das Ziel/Sinn der Berechnung (Funktionsdefinition X2=Y)
Abstrakte Beschreibung der Berechnung
Physikalische Verwirklichung
Empirische Methoden der Kognitiven Psychologie
Subtraktionsmethode
Zeit für mehre Aufgaben => Zeit für einzelne Aufgaben (Autofahren mit Pause: Pausenlänge bekannt => Länge
der Fahrt ohne Pause berechenbar).
Setzt voraus, daß die Prozesse diskret/seriell sind (oft falsch).
Introspektion
Bedingungen für „gute“ Introspektion:
• Nur bewußte Prozesse (z.B. keine Neuronalen Vorgänge).
• Retrospektion werden zusätzlich vom Erinnerungsprozeß und dessen Unzulänglichkeiten bestimmt.
3
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
• Wertfreie, nicht interpretierende Introspektion nötig (schwierig)
Kapitel 2 Muster Erkennung
Einführung
Wahrnehmung
Bartley (1969): unmittelbare, kontextgebundene Reaktion des Organismus auf einen Sinnesreiz
Roth (1986):
Umwandlung der durch Sinnesorgane aufgenommenen Informationen in Erfahrungen von
Objekten, Vorfällen, Klängen, Geschmäckern, usw.
Hauptaugenmerk in diesem Buch auf Visuelle Wahrnehmung (Sprache später): 2D & 3D
Traditionelle Ansätze
Schablonenvergleich
Direkter Vergleich durch Musterüberlagerung. Problem: Viele ( ∞ ) Objektvariationen ( Größe, Lage, Farbe,...)
Prototypen ( oder Schemata )
Reizklassen anhand von Schlüsselattributen - Ähnlichkeiten zwischen verwandten Reizen.
Bsp. Klasse Flugzeug: Röhre mit zwei Flügeln
Reduzierung: weniger Schemata als Muster nötig.
Nachweise von Franks und Bransford (1971):
Experimente mit zusammengesetzten geometrischen Formen aus Kreisen, Sternen und Dreiecken.
• Versuchspersonen waren sicher den Prototyp schon gesehen zu haben, wobei nur Abwandlungen des
Prototyps zu sehen waren. ( Weniger Abwandlungen => mehr pseudo Erkennung, Bild 2.1 S.46)
• Gleiche Bewertung von bereits vorgekommenen oder nicht vorgek. Objekten, bei gleicher Abweichung vom
Prototyp.
Die Theorie ist sehr ungenau bei den Details über den Verarbeitungsprozeß von der internen Repräsentation
eines Reizes zu einen Prototyp.
Liefert keine Erklärung für kontextuelle Einflüsse.
Merkmalsanalyse
Ein Muster setzt sich aus mehreren Merkmalen zusammen. (Bsp. „A“ Aus zwei Linien im 45O Winkel mit
Verbindungslinie )
Gibson (1969) unterschied 12 Merkmale von Buchstaben ( z.B. geschlossene Ringe, vertikale / horizontale
Linien). Dazu Untersuchungen zur Verwechslung von Buchstaben mit vielen gemeins. Merkmalen.
Ebenso (1968) Zeitspanne zur Unterscheidung ob zwei Buchstaben gleich sind (schwer:P & R, leichter G &W )
Neisser (1964) Bild 2.2 S.48:
Auffinden von bestimmten Buchstaben in Buchstabenfolgen.
Lupker (1979
Kurz gezeigte Buchstaben werden auch Aufgrund ihres Umrisses verwechselt.
Hinweise auf Merkmalsanalyse auch von stabilen retinalen Bildern:
Auf die Netzhaut projizierte Bilder verschwinden in zusammenhängenden Einheiten (BEER zu PEEP, PEER,
BEE, BE ...)
Bewertung:
Merkmalsanalyse vereinfacht zu stark und hängt vom Reiz ab (evtl. Top-Down Mechanismen verfügbar ?).
- Kontext und Erwartungen müssen berücksichtigt werden
Weisstein und Harris (1974) „Object-superiority Effect“:
Eine Linie wird in einer 3D-Form besser erkannt als in einer unzusammenhängenden.
- Experimente hauptsächlich zu Buchstaben, keine komplexen Formen ( Gesichter, Gebäude )
4
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
-
Interpretation von Buchstaben hängt nicht nur von Merkmalen ab
(Bsp. „A“ oder „H“ in SHE und BAT Bild2.3 S. 50)
Gestalt spielt oft eine große Rolle
Neurophysiologisch sind visuelle Reize häufig unvollständig
Nicht alle Merkmale müssen auf die gleiche Weise verarbeitet werden:
Garner (1974) unterscheidet trennbare (z.B. Größe und Form) und integrale (z.B. Helligkeit und Farbe)
Merkmale. Experiment hierzu: Drei Reize mit unterschiedlicher Ausprägung – Zuordnung des dritten zu den
Vorhergehenden. ( Bei trennbaren Merkmalen nur Zuordnung bei identischen Merkmalen, bei integralen
MM auch Zuordnung bei ähnlichen MM = Gruppierung der beiden ersten Reize)
Gestalttheorie
Muster Erkennung basiert mehr auf der gesamten Form (Gestalt) als auf den einzelnen Merkmalen. (Das Ganze
ist mehr als die Summe seiner Teile). Es ist mögliche Teile des Ganzen zu ersetzen ohne die Gestalt zu
verändern: Transposition. (Bsp. Transponierung einer Melodie)
Experiment von Navon(1977) Bild 2.4 S.53:
ein großer Buchstabe bestehend aus kleinen Buchstaben visuell, dazu Erkennung von gehörten Buchstaben.
Gehörte Buchstaben wurden schneller erkannt bei Übereinstimmung mit großen visuellem Reiz, keine
Veränderung bei Übereinstimmung mit kleinen Buchstaben (oft kleine Buchstaben nicht bemerkt).
Entscheidung ob großer Buchstabe aus Hs oder Ss oder kleiner aus Hs und Ss:
Entscheidungsgeschwindigkeit wurde beim Großen von kleinen nicht beeinträchtigt, aber umgekehrt.
Demnach ist es nicht möglich sich nur auf Merkmalsanalyse zu konzentrieren.
Relativierung der Ergebnisse durch Kinchla und Wolf (1979): Ähnliche Experimente wie Navon, aber mit
unterschiedlich großen Buchstaben (gemessen im Visuellen Winkel), Bei >= 8O (Navon <= 5.5O) bessere
Erkennung der kleinen Buchstaben. => Objekte mit optimaler Größe werden zuerst verarbeitet.
(Gestaltgesetze s.u.)
Objekt Erkennung
Wahrnehmung ist wesentlich komplexer als bisher (nur 2D).
David Marr’s Theorie
Marr (1982) versucht Ansätze aus der Psychologie, der Physiologie und der künstlichen Intelligenz zu
verbinden.
Er unterteilt die Informationsverarbeitung in drei Ebenen
Berechnungs Theorie
Das Ziel der Berechnung, warum paßt sie, welche Logik steckt hinter der
Strategie ?
Algorithmische Ebene
Wie kann die Berechnungs Theorie umgesetzt werden, die Darstellung der
Eingabe, der Algorithmus
Hardware Ebene
Physikalische Umsetzung der Eingabe und des Algorithmus. (Gehirn)
Der Prozeß der visuellen Wahrnehmung durchläuft hintereinander drei Arten der Darstellung:
• Ursprungsskizze (primal Sketch)
Zweidimensionale Beschreibung der Licht – Intensitätswechsel, einschließlich Informationen über Kanten,
Umrisse und Kleckse. Beobachter-Zentriert
• 2.5-D Skizze
Tiefe und Orientierung der Sichtbaren Oberflächen durch Ihre Schattierung, Beschaffenheit, Bewegung,
binoculares Sehen. Beobachter-Zentriert.
• 3-D Modell Darstellung
3-D Formen der Objekte und ihre relative Lage, unabhängig vom Beobachter.
Gesichts Erkennung
Gesichtserkennung spielt im täglichen Leben eine große Rolle. Viele typische Prozesse aus der Objekterkennung
fließen mit ein, aber keine Theorie ist für die Gesichtserkennung befriedigend. Bruce und Young füllten diese
5
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Lücke mit ihrer Theorie, die durch Tagebuchstudien, Laborexperimente und Beobachtungen an
Gehirngeschädigten gestützt wird. Ihre Verarbeitungskomponenten für bekannte Gesichter stehen auf einer
soliden Grundlage, während das Zusammenwirken bei unbekannten Gesichtern noch etwas wage ist.
Daß bei Gesichtserkennung spezifische Verarbeitungsprozesse stattfinden, wurde durch Untersuchen an
„Prosopagnosic“ Patienten deutlich, die bekannte Gesichter nicht erkannten, obwohl sie die Stimmen und Namen
der Personen gut erkannten. Ebenso konnten diese Patienten feine Unterschiede erkennen (z.B. italienische <>
andere Münzen, eigene <> andere Handschrift)
Bruce und Young’s Modell (1986)
Bild 2.7 S. 70
Zum Teil werden unterschiedliche Prozesse zum Erkennen von bekannten und unbekannten Gesichtern
verwendet. Dies ergibt sich aus Untersuchungen von Patientengruppen die jeweils besser bekannte, bzw.
unbekannte Gesichter erkennen konnten.
Malone, Morris, Kay und Levin (1982):
Eine Testperson konnte 14 von 17 Staatsmännern erkennen, war aber weitgehend unfähig die Gegenstücke zu
unbekannten Gesichtern zu erkennen.
Eine andere erkannte nur 5 von 22 bekannten Persönlichkeiten, hatte aber durchschnittliche Fähigkeiten im
Erkennen von unbekannten Gesichtern.
Gute Unterstützung der seriellen Natur des Modells bei bekannten Gesichtern durch:
Young, Hay und Ellis (1985):
Die VPn führten ein Tagebuch über Ihre täglichen Probleme bei der Erkennung von bekannten Gesichtern. 1008
Vorfälle wurden protokolliert. Nicht einmal eine Erkennung ohne Zusatzinformationen, aber 190 Fälle mit
Zugriff auch Informationen über eine Person, ohne Namenserinnerung. 233 Fälle in denen Gesichter bekannt
vorkamen, aber nicht zugeordnet werden konnten.
Jedoch ist der Kontext in dem ein bekanntes oder Unbekanntes Gesicht gezeigt wird wichtig für die korrekte und
schnelle Erkennung. (Bekannte im bekannten Rahmen, Unbekannte im selben Zusammenhang).
Kapitel 3 Theoretische Streitfälle der Wahrnehmung
Unbewußte Wahrnehmung findet bei einem sehr kurzen oder geringem Reiz statt, der unterhalb der bewußten
Wahrnehmungsschwelle ist. ( Werbung )
Einige Gehirngeschädigte leiden unter dem Phänomen der Blindsicht.
Das Paradoxon der nicht wahrgenommenen Wahrnehmung läßt sich nur auflösen, wenn die Wahrnehmung in
mehrere Prozesse unterteilt werden kann.
Hauptstreitpunkt ist die Gewichtung der VP-Berichte über ihre eigene Wahrnehmung
Die relative Wichtigkeit von Konstruierter (Top-Down) oder Direkter (Bottom-Up) Wahrnehmung, ist je nach
Reiz (kurz – lang) unterschiedlich.
Unbewußte Wahrnehmung (ohne Aufmerksamkeit)
Def. Dixon (1981) :
Das Gehirn reagiert auf externe Reize, die nicht bewußt wahrgenommen werden. Symptome sind kortikale
Spannungen, E.E.G. Veränderungen, elektrodermale Änderungen und Änderungen der Sinnesschwellen.
Lexikalische Entscheidung ( Marcel 1983 ) :
Das erste Wort sehr kurz gezeigt, führt zu einer Geschwindigkeitsänderung bei Erkennung des Folgewortes
(Doktor nach Schwester, oder Bücherei).
Aber auch wenn die VPn das erste Wort nicht wahrgenommen hatten – „raten“ Sie in 60% richtig, ob ein Wort
gezeigt wurde.
Stroop Effekt: geringere Benennungsgeschwindigkeit der Farbe (grün) bei z.B. ROT
Marcel(1983): Farbfläche mit eingeblendetem Wort in der Mitte (wieder 60% raten)
6
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Cheesman und Merikle (1984): Kein Stroop Effekt mehr bei auf 50% raten justierter Schwelle
=> Unterscheidung Objektive (niedriger) / Subjektive (höher) Schwelle
Eine mögliche Erklärung für unbewußte Wahrnehmung: Wahrnehmungsschutz.
Hardy und Legge (1968): Ein schwacher akustischer Reiz war, bei gleichzeitig auf einer Tafel präsentierten
emotionalen (obszönen) Ausdrücken, schwerer zu hören, als bei neutralen Wörtern.
Blindsicht
Einige Gehirngeschädigte können in Teilen ihres visuellen Feldes nichts bewußt wahrnehmen, aber einige
Unterschiede der Reize erkennen.
Weiskranz (1986) entdeckte, daß z.B. die Übereinstimmung zweier aufeinander folgenden Reize mit
überdurchschnittlicher Wahrscheinlichkeit erkannt wurde.
Die Patienten erklärten zwar, nichts gesehen zu haben, aber das „Gefühl“ zu haben, daß dort etwas war.
Größter Kritiker der unbewußten Wahrnehmung ist Holender, der alle Ergebnisse, die auf subjektiven Schwellen
beruhen, zurückweist.
Konstruktive oder direkte Wahrnehmung ?
Konstruktive Theorien
Bruner(1957), Neisser(1967), Gregory(1972; 1980) stimmen überein:
• Wahrnehmung ist aktiver und konstruktiver Prozeß
• Ist ein Endprodukt (Interferenz) des Reizes mit internen Hypothesen, Erwartungen, und Erfahrungen
• Daher neigt sie zu Fehlern
Palmer(1975): zeigte eine Szene (z.B. eine Küche) gefolgt von einem kurzen Bild (Brotleib, Briefkasten,
Trommel). Passender Kontext erhöhte die Erkennungskorrektheit.
Ittelson und Cantril(1954): Wahrnehmungsfehler im Ames-distorted-Room
Scheint aus einer Perspektive normal zu sein – Gegenbeweis durch sich hindurch bewegende Person wird
ignoriert.
Bruner und Postman (1949): ungewöhnliche Spielkarten (z.B. schwarze Herz) wurden bei kurzer Präsentation
mit Erwartungen vermischt (Mischfarben: braune oder purpur Herz).
Viele Wahrnehmungsfehler bei visueller Wahrnehmung laut Gregory durch dreidimensionale Fehlinterpretation
von 2D Objekten.
Beisp.: Müller-Leyer Illusion ( Bild 3.1 S. 86) interpretiert als innere Ecke eines Raumes, und als äußere Ecke
eines Gebäudes. (Aber: Illusion bleibt auch bei Kreisen oder Rechtecken als Endpunkte erhalten!!)
Kritik: Es gibt zwar Wahrnehmungsfehler, aber gewöhnlich ist sie korrekt. Fehler entstehen häufig unter
künstlichen Laborbedingungen ( kurzer Reiz, geringe Intensität – keine „Daten“ zur Bottom Up Auswertung)
Direkte Wahrnehmung
Bibson(1966) entwickelte aus seinen Erfahrungen mit startenden und landenden Piloten seine Theorie:
• Ein visuelles Array enthält alle visuellen Informationen (Lichtmuster)
• Aus den Textur-Abstufungen, Optic-Flow-Pattern, Affordances Bestimmung der Raumlage von Objekten
• Wahrnehmung als reines herauspicken der gegebenen Informationen ohne oder mit wenig
Informationsverarbeitung.
Textur-Abstufungen:
(weniger Details in der Ferne- Bild 3.2 S.90)
Optic-Flow-Pattern:
(Bewegungswahrnehmung durch Fixpunkt/Zielpunkt, alle anderen Bezugspunkte bewegen sich davon weg)
Affordances:
(Potentielle Nutzung des Gegenstandes)
7
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Daß aus den visuellen Reizen mehr Informationen ableitbar sind, als bis dato angenommen, bildete eine
Grundlage für Marr’s Verarbeitungstheorie.
Kritik: Wahrnehmungsfehler lassen sich nicht erklären. Es gibt nicht nur unter Laborbedingungen Fehler =>
Vertikal-Horizontal Illusion Bild 3.3 S.92 (z.B. Löffel in Tasse wirkt vertikal länger).
Synthese der Theorien
Gewichtung der Wahrnehmungsformen konnte von Tulving, Mandler und Baumal (1964) gezeigt werden:
Erkennung eines Wortes beeinflußt durch Präsentationsdauer (Bottom Up), Länge des Kontextsatzes (Top
Down)
Neisser‘s (1976) Wahrnehmungskreis (Bild 3.4 S. 93) beschreibt eine Wechselwirkung der Prozesse.
Weitere Mischtheorien später (z.B. Kapitel 9 Begriffsvermögen gesprochener Sprache)
Kapitel 4 Aufmerksamkeit und Leistungsbeschränkung
Aufmerksamkeit: Nach William James (1890) Konzentration auf einen von mehreren
Wahrnehmungsprozessen.
Unterscheidung zwischen gerichteter (focused) Aufmerksamkeit und geteilter Aufmerksamkeit (mehrere
überwachte Prozesse). Bild 4.1 S.99 zur Hierarchie (akustisch/visuell)
Gerichtete akustische Aufmerksamkeit
Die Theorien unterscheiden sich vor allem in der Plazierung des Bottlenecks innerhalb des
Verarbeitungsprozesses
Die Beschattungs-Technik
Colin Cherry (1953) „Cocktail Party Problem“: Herausfiltern eines Gesprächs durch Merkmale (Geschlecht/
Position des Sprechers, Stimmintensität) – Inhalt nicht entscheidend.
Eine Nachricht sollte beschattet (laut nachgesprochen) werden – nur wenige Informationen konnten aus einer
zweiten Nachricht extrahiert werden (keine Bedeutung/Fremdsprache – aber ein reiner Ton wurde bemerkt)
Moray (1959): auch 35fache Wiederholungen eines Wortes blieben unbemerkt.
Broadbent (1958) (Dichotic Task): drei Paare von Zahlen gleichzeitig – werden meist Ohr für Ohr
wiedergegeben (496 auf einem Ohr & 852 auf dem anderen => 496852 öfter als 489562)
Broadbent’s Theorie:
• Zwei Reize gelangen parallel in den Sensorischen Puffer
• Einer wird auf Grung seiner physikalischen Charakteristik herausgefiltert, der andere bleibt im Puffer
• Dies verhindert Überladung der Kapazität hinter dem Filter
Diese Theorie versagt jedoch bei anderen Experimenten (Verarbeitung des nicht beschatteten Kanals):
Underwood(1974): Erkennung besimmter Ziffern auf dem nicht beschatteten Kanal
Normale VPs erkannten nur 8%, Neville Moray 67% (geübt)
Allport, Antonis und Reynolds(1972): Beschattung eines Essays von George Orwell => schlechtes Lernen von
parallel dazu akustisch dargebotenen Wörtern, aber gutes Lernen von Bildern.
Von Wright et al.(1975): In einer Liste von Wörtern wurde ein bestimmtes Wort in Verbindung mit einem
Elektroschock dargeboten – das Wort führte zum Teil auch im nicht beschatteten Kanal zu elektrodermalen
Reaktionen.
Underwood(1977): Wörter auf dem nicht beschatteten Kanal bleiben unzusammenhängend:
Größe (Länge) der Kontextinformationen auf dem nicht beschatteten Kanal (im Gegensatz zum beschatteten)
erhöht nicht die Verarbeitungsgeschwindigkeit passender Wörter.
Gray und Wedderburn(1960) (Abwandlung der Dichotic Task):
„Who 6 there“ und „4 goes 1“ werden zu „Who goes there“ und „4 6 1“
8
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Alternative Theorien
Treisman(1964) In ihrer Abwandlung von Broadbent’s Theorie wird die nicht beschattete Seite immerhin
abgeschwächt verarbeitet. Die Plazierung des Bottlenecks ist variabel innerhalb einer Verarbeitungshierarchie
(Physikalische- & Silben- Muster, bestimmte Wörter, grammatikalische Struktur und Bedeutung)
Deutsch und Deutsch(1963) setzten das Bottleneck noch weiter ans Wahrnehmungsende. Die Reize werden voll
verarbeitet, und dann der Situationsabhängig wichtigste gewählt.
Treisman und Riley: Dazu Versuche mit Beschattung und Worterkennung auf beiden Kanälen (durch
Fingerklopfen). Wörter auf dem überwachten Kanal 87% erkannt (anderer 8%). Nach Kritik von Deutsch &
Deutsch, daß die Reize nicht gleich wichtig seinen (einer beschattet & Klopfen), Experiment mit gestoppter
Beschattung: immer noch ehemals beschatteter Kanal besser.
Johnston und Heinz Theorie
Die Auswahl kann in vielen Verschiedenen Stufen erfolgen.
• Mehr Stufen vor der Auswahl => Größere Anforderungen an die Verarbeitungskapazität.
• Daher möglichst frühe Wahl unter Berücksichtigung der Umstände (des Zieles)
Johnston und Heinz (1979): Aus zwei gleichzeitigen Wörtern ein Zielwort erkennen.
Beide Worte von der gleichen Männerstimme => späte Auswahl, lange Verarbeitung
Jeweils Männer/Frauenstimme => frühe Auswahl, kurze Verarbeitung
Johnston und Wilson(1980): Identifizieren einer Wortgruppe (Kleidung: Socke), mit gleichzeitigem
passendem(duftend), widersprüchlichem(schlagend) oder neutralen(Dienstag) Wort. Bild 4.2 S.105
Bei geteilter Aufmerksamkeit unterstützend – bei gerichteter kein Effekt.
Gerichtete visuelle Aufmerksamkeit
Ergebnisse ähnlich der akustischen Aufmerksamkeit. Der Bereich (Spotlight) kann sehr eng oder auch breit sein.
( minimaler Spotlight nach Humphreys: 0.5O im Zentrum der Retina – außerhalb 1O)
LaBerge(1983) : Zeigte Wörter mit fünf Buchstaben, gefolgt von einem Reiz an der Position eines der
Buchstaben. Die VPn sollten sich entweder auf den mittleren Buchstaben konzentrieren oder das ganze Wort
kategorisieren. (Bild 4.3 S.106)
Unbeaufsichtigte visuelle Reize
Verarbeitung von Reizen außerhalb des Spotlights ist auf einfache Merkmale beschränkt.
Johnston und Dark(1985): Die VPn sollten einen bestimmten Bereich überwachen. Innerhalb (außerhalb) des
Bereichs wurde ein Initial-Wort kurz gezeigt ( 60 – 500 ms), gefolgt von einem langsam schärfer werdenden
Test-Wort (entweder Initial-W. Bezug oder Identität).
Sowohl sematische, wie identische Initial-Wörten innerhalb des Bereichs beschleunigten das Erkennen, während
außerhalb semantische keine Wirkung und identische nur bei 500ms Beschleunigung zeigten.
Treisman (1988) Theorie im Sinne der Merkmalsanalyse (Merkmale: Farbe, Größe, Linienorientierung):
• Alle Merkmale der Objekte im visuellen Feld werden unabhängig von Aufmerksamkeit schnell & parallel
aufgenommen
• Ein anschließender serieller Prozeß formt daraus Objekte (großer, roter Stuhl)
• Gerichtete Aufmerksamkeit bildet den „Klebstoff“ zur Objektkonstruktion aus den Merkmalen.
• Konstruktion beeinflußt durch Erfahrung (Bananen sind meist gelb)
• Ohne Gerichtete Aufmerksamkeit und ohne Kontexterfahrung ist die Konstruktion oft fehlerhaft.
Treisman und Gelade: VPs suchen innerhalb von 1-30 Gegenständen ein Zielobjekt (grünes „T“) oder einzelnes
Merkmal (blauer Buchstabe oder „S“). Anzahl der Gegenstände hatte keinen Einfluß auf die
Erkennungsgeschwindigkeit bei einzelnen Merkmalen (keine gerichtete Aufmerksamkeit benötigt), aber bei
ganzen Zielobjekten.
9
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Vaughn: Erkennung von Merkmalen ist weiter vom anvisierten Punkt möglich, als Erkennung von Objekten.
Aber diese Sicht vereinfacht zu stark (parallel Verarbeitung bei Objektkonstruktion, Übung, Ergebnisse von
LaBerge – Beobachtung eines Wortes ohne Beachtung der Merkmale).
Humphreys, Riddoch und Quinlan: Erkennung eines auf dem Kopf stehenden T´s vor normalen T´s war nicht
besonders abhängig von der Anzahl der normalen T´s. (Objekt mit gleichen Merkmalen => gerichtete
Aufmerksamkeit zur Objektkonstruktion nötig)
Das Feld für die visuelle Aufmerksamkeit kann auch komplexer sein. Egly und Homa untersuchten
Aufmerksamkeit mit drei Ringen, wobei der mittlere Beobachtet werden sollte – dies schränkte nicht nur die
Wahrnehmung im äußeren Ring, sondern auch im inneren Ring stark ein.
Geteilte Aufmerksamkeit
Zwei verschiedenartige, eingeübte und einfache Aufgaben lassen sich gut gleichzeitig ausführen, während dies
bei gleichartigen, ungeübten und schwierigen Aufgaben kaum möglich ist. Die Möglichkeit zur Alternierung
zwischen den Aufgaben ist von Vorteil.
Einige Theoretiker favorisieren im Hinblick auf die Unzulänglichkeiten ein Einzel-Prozessor-Modell (aber
Belastung oft mehr als die Summe der Einzelbelastungen) , während andere ein verteiltes System vorziehen. Die
Synthese aus beiden bildet ein hierarchisches System mit einem Steuerungs- / Verteilungs- Prozeß über den
parallelen Prozessen.
Aufgabenähnlichkeit
Zwei Aufgaben sind nach Wickens ähnlich, wenn sie die gleiche Reizmodalität besitzen (visuell, akustisch), die
selben Prozesse erfordern (input, intern, output), und ihrer Speicherung (verbal, visuell).
Treisman und Davies: Zwei Überwachungsaufgaben waren schwerer zu lösen in der gleichen Reizmodalität als
in verschiedenen (visuell, akustisch).
Übung
Spelke, Hirst und Neisser. : Zwei Studenten üben 4 Monate 5 Stunden die Woche eine Kurzgeschichte für eine
Zusammenfassung zu lesen, während sie ein Diktat schreiben. Die Lesegeschwindigkeit glich sich an und das
Schriftliche verbesserte sich zunehmend, aber sie konnten sich kaum an die Wörter des Diktats erinnern. Sie
trainierten daraufhin die Wörter des Diktates zu kategorisierten, was auch gelang. Dies veranlaßte Spelke zu der
Vermutung, daß die Trainingsmöglichkeiten so groß seien, daß keine generellen Grenzen gesetzt werden
können.
Die Aufgaben wurden allerdings nicht ohne Interferenz gelöst, so machte eine VP nur halb so viele Fehler bei
einem einzelnen Diktat. Außerdem erlaubt die relativ flexible Aufgabe des Text-Zusammenfassens ein
Alternieren zwischen den Aufgaben.
Weitere Beispiele: Pianisten können während sie vom Blatt spielen einen Text wiederholen (beschatten).
Schreibmaschine schreiben und beschatten.
Es werden neue Strategien entwickelt, um die Aufgaben mit geringst möglicher Interferenz zu bewältigen.
Schwere der Aufgabe
Norman und Bobrow unterscheiden zwischen Daten- (Reizqualität /Menge) und Ressourcen- Beschränkten
Prozessen.
Die Schwierigkeit zwei Aufgaben gleichzeitig zu lösen ist nicht nur die Summe der Einzelschwierigkeiten,
sondern nimmt oft mehr in Anspruch.
Duncan: Reaktion mit linker und rechter Hand auf zwei Reize. Korrespondierend (linker Finger für linken Reiz)
oder gekreuzt (rechter Finger). Gleichzeitig korrespondierende und gekreuzte Reaktion war fast unmöglich.
10
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Automatische Prozesse
Im Gegensatz zu kontrollierten Prozessen (mit Aufmerksamkeit) sind automatische Prozesse:
• Schnell
• Schränken andere Aufgaben nicht ein.
• Sind unbewußt
• Nicht zu verhindern
Übung ist hierfür sehr wichtig, aber es ist noch unklar, wie daraus automatische Prozesse entstehen. Manche
Prozesse sind nur teilweise automatisiert.
Shiffrin und Schneiders Theorie
•
•
Kontrollierte Prozesse sind von begrenzter Kapazität, benötigen Aufmerksamkeit und sind flexible
anpassbar. (seriell)
Automatische Prozesse haben keine begrenzte Kapazität, benötigen keine Aufmerksamkeit und sind nur
schwer zu verändern. (parallel)
VPn mußten sich ein, zwei, drei oder vier Buchstaben merken, dann in ein, zwei, drei oder vier Buchstaben nach
irgendeiner Übereinstimmung suchen. Dabei wurden verschiedene Anordnungen benutzt:
Konsistente oder vermischte Mengen von Zahlen und Konsonanten ( KBNT => 23B1 oder B2G5 => G3HM).
Die Ergebnisse zeigten bessere Erkennungszeiten für konsistente Anordnungen (Bild 4.5 S.120 – aber nicht
linear – nur teilweise automatisiert?). Shiffrin und Schneider brachten dies mit der jahrelangen Erfahrung
(Übung) in Zusammenhang.
Chang vermutete die Ergebnisse basierten auf simpler Umstrukturierung (einfache Suche nach Konsonanten)
Shiffrin und Schneider: Neue Art von konsistenten Mengen ( Konsonanten B-L und Q-Z jeweils Menge). Im
Verlauf von 2100 Versuchen verbesserte sich die Erkennungszeit dramatisch. (Dann Effekt Unflexibilität) Bei
nachfolgenden 2400 Versuchen mit wieder vermischten Mengen benötigten die VPn 1000 um auf ihre
anfängliche Rate zu gelangen.
Schneider und Fisk: Zwei gleichzeitige Aufgaben.
Vermischte und konsistente Anordnungen konnten genau so gut zusammen wie getrennt ausgeführt werden,
zwei vermischte nicht.
Norman und Shallice Theorie
Unterscheidung zwischen vollautomatischen und teilweise automatischen Prozessen, sowie drei funktionalen
Ebenen:
• Vollautomatische Prozesse durch Schemata kontrolliert.
• Teilweise automatische Prozesse benutzen ein Verteilungsverfahren zu Konfliktauflösung zwischen den
Schemata ohne bewußte Kontrolle
• Bewußte Kontrolle durch ein übergeordnetes System.
Es existieren zwei getrennte Kontrollsysteme: Verteilungsverfahren (Konfliktauflösung) und übergeordnete
Aufmerksamkeitssysteme.
Logan Theorie
Erklärungsversuch für den Übungseffekt:
Automatische Prozesse sind schnell, da nur auf vergangene Lösungen im lanzeit Gedächtnis zurückgegriffen
werden muß. Nur die Wissensbasis ändert sich im Verlauf von Übung – Anfänger sind durch unzureichendes
Wissen eingeschränkt, nicht durch Ressourcen.
Zerstreutheit und Handlungsversehen
Die meisten Vorfälle aus den Tagebuch Studien können in Kategorien von hoch geübten Tätigkeiten eingeordnet
werden. Diese können bis auf gewisse Entscheidungspunkte ohne Aufmerksamkeit ausgeführt werden. Die
meisten Vorfälle sind Fehler an den Entscheidungspunkten, oder Erinnerungslücken.
11
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Tagebuch Studien
Reason lies 35 VPn über 2 Wochen ihre Vorfälle von Zerstreutheit protokollieren. Es kamen 400 zusammen, von
denen die meisten in 5 Kategorien passen:
40%
20%
18%
11%
5%
Erinnerungslücken (Zweiten Kessel Wasser aufsetzten)
Überwachungsfehler in Handlungssequenzen (statt Umziehen im Schlafzimmer, schlafen legen)
Unterroutinen Fehler (Einfügungen, Auslassungen, Umordnungen von Abläufen: Lesebrille)
Unterscheidungsfehler (Rasiercreme statt Zahnpasta)
Montage Fehler (Bonbon Papier im Mund, Bonbon im Papierkorb)
Nach Reason zwei Kontrollzustände für Bewegungsabläufe:
• Geschlossener Kreislauf - Feedback (ständige Kontrolle)
• Offener Kreislauf – durch Übung keine Überwachung nötig .
Ursachen der Fehler:
• Zentralprozessor wird entlastet
• Wendet sich anderen Aufgaben zu und verpaßt den kritischen Rückschaltpunkt
• Handlung fällt per default unter die Kontrolle von motorischen Programmen
• Unbeachtete Information wird leicht und schnell vergessen
12
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 5 Gedächtnis: Strukturen und Verarbeitung
Strukturen
Im multi-store Modell drei Arten von Speichern:
Sensorische Speicher, Kurzzeit- und Langzeit- Gedächtnis
Unterscheiden sich in :
Dauer, Kapazität, Vergessen, Effekte bei Gehirn-Schädigungen
Annahme die Speicher seien uniform ist aber zu stark vereinfacht.
Im working memory Modell arbeiten drei Komponenten (anstelle uniform. Kurzzeitgedächtnis):
Zentrale Ausführungseinheit (schwammig), Artikulationsschleife (gut untersucht), visuell – räumlicher
Schmierblock.
Räumliche Metapher
•
•
Erinnerungen werden als Objekte an bestimmten Orten abgelegt
Erinnern als Suche durch den Raum
Aber:
Wir können oft sehr schnell entscheiden, daß wir etwas nicht wissen.
Die möglichen Verknüpfungen zwischen den Objekten im 3D sind begrenzt.
Indexe (Bücherei) zu unflexibel.
Multi-Store Theorie
Viele Theoretiker ( Attkinson & Shiffrin, Waugh & Norman) unterscheiden drei Speichertypen:
• Sensorisch – Modus Abhängig, sehr kurz
• Kurzzeit – Sehr begrenzte Kapazität
• Langzeit – im wesentlichen unbegrenzte Kapazität, lange Dauer
Außer Struktur gehört auch Verarbeitung zur Theorie ( Bild 5.1 S.136 ):
Sensorisch => (Aufmerksamkeit) => Kurzzeit => (Wiederholung) => Langzeit
Sensorische Speicher
Sinnesreize bleiben auch nach ihrem Ende für kurze Zeit Wahrnehmbar
Ganzberichtsverfahren: S G E K
(50ms)
OEHJ
TMZI
Meist nur Erinnerung an 4 oder 5 Buchstaben
Teilberichtsverfahren von Sperling Tonhöhe eines Offset (-0.1 bis 1.0 sec) Tones gibt Reihe an:
≈gleichzeitiger Ton:
ca 9 ( 3 pro Reihe)
0.3 sec
6
bis 1 sec
4,5
Allgemein akzeptiert: Iconisch Sensorisch 0,5 sec Speicherzeit.
Information teilanalysiert: besser bei Wörtern aus vier Buchstaben.
Ähnliche Ergebnisse für Akustik: „Was hast Du gesagt?“ mit gleichzeitigem erinnern.
Treisman: Beim Beschatten werden zwei Nachrichten nur mit einer max. Abweichung von 2 sec. als identisch
erkannt.
Kurzzeit und Langzeit Gedächtnis
William James (1890) unterschied als erster zwischen Kurzzeit und Langzeit Gedächtnis.
Das Kurzzeit Gedächtnis hat nur eine sehr begrenzte Kapazität: ca. 7 Chunks (Bündel – Buchstaben, Wörter,
kurze Phrasen). Aber auch Abhängigkeiten vom Langzeitgedächtnis ( Sequenzen von bekannten Zahlen, oder
Wiederholungen)
13
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Die ersten und die letzten Zahlen einer Reihe werden am besten erinnert (free recall). Der Effekt verschwindet
nach 10sec rückwärtszählen (Glanzer & Cunitz Bild 5.2 S.140), d.h. die letzten waren im Kurzzeit Gedächtnis.
Einige Gehirngeschädigte haben ein normales Kurzzeit, aber defektes Langzeit Gedächtnis (Alkohol- Amnesie),
einige wenige ein normales Langzeit, aber gestörtes Kurzzeit (nur 2 Chunks - Motorradunfall).
Unterscheidungen bei Vergessen im Langzeit Gedächtnis: verlorene oder vorhandene unerreichbare
Informationen.
Kritik:
Einheitliche Speicher Sicht des Langzeitgedächtnisses zu einfach: Gehirngeschädigter KF:
akustische Reize wesentlich schlechter als optische & Wörter, Buchstaben, Zahlen schlechter als Klänge
(Telefon, Katze).
Nicht nur durch Wiederholung fließt Information in Langzeit Gedächtnis. (Außerdem keine Garantie).
Working Memory Modell von Baddeley und Hitch
Modell für Kurzzeitgedächtnis (Langzeit siehe Kapitel 6)
Drei Komponenten:
• Zentrale Ausführungseinheit ähnlich Wahrnehmung (begrenzte Kapazität)
• Artikulations – Schleife (vergleichbar ca. 2 sec. Tonband - so viele Worte, wie laut aussprechbar)
• Visueller/Räumlicher(wichtiger) Schmierblock
Vorteile:
• Unterstützung für aktives und flüchtiges Speichern
• Erklärung für Mängel im Kurzzeit Gedächtnis
• Neurologische Schädigungen von einer der drei Komponenten
Inner Speach
Die Artikulations Schleife nütz insbesondere zur Reihenfolgebestimmung von Wörtern.
Unterdrückungseffekte durch wiederholte Phrasen („Hi-ya“ oder „the“) ist nur gering. Auch kleine Unterschiede
in einfachen abgelesenen Sätzen werden gut erkannt. Baddeley: Wahrheitserkennung von Sätzen („Vögel haben
Flügel“, „Vögel haben Schuppen“), aber große Probleme bei zwei vertauschten Wörtern.
Neuropsychologie
KF (s.o.): schlecht bei Worten, mittel bei Klängen.
PV:
Benutzt keine (stumme) Artikulation beim Lesen, keine Einflüsse durch wiederholte Phrasen.
Anpassung des Working Memory Modells
Feinere Aufteilung der Artikulations Schleife (Baddeley):
• Passiver Speicher zur Sprachwahrnehmung (nicht notwendig bei visuellen Reizen, aber bei akustischen)
• Artikulations Prozeß in Anlehnung an Sprechen
Gedächtnis Prozesse
Hyde und Jenkins Einen Wort-Erinnerungs Test unter verschiedenen Bedingungen:
Gruppen mit versch. Wort-Einordnungs-Kriterien (wissend und unwissend vom folgenden Erinnerungs-Test )
1. nach Gefühl (pleasentness)
2. nach Häufigkeit in der englischen Sprache
3. Auftreten von „e“ und „g“ in den Wörtern feststellen
4. Nach Wortart
5. Entscheiden ob sie in bestimmte Satzformen passen
+Kontrollgruppe nur mit Lernziel.
(Bild 5.3 S.149) assoziative(besser) und nicht assoziative Wortgruppen
wichtig: unbeabsichtigtes/beabsichtigtes Lernen bei semantischen (ersten beiden) Aufgaben fast gleich gut.
14
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Verarbeitungsebenen Theorie ( Levels of Process )
Craik und Lockhart: Aufmerksamkeit und Wahrnehmung legen fest, welche Inhalte im Langzeit Gedächtnis
gespeichert werden. Tiefere Analyse auf den Verarbeitungsebenen ergibt besseres Erinnern
Elaboration (Durchdenken)
Craik und Tulving: Weitere Angaben (Kontext) sind weitere Faktoren für die Erinnerbarkeit.
VPs mußten entscheiden, ob ein Wort in einen Lückensatz paßt. Danach Erinnern an die Wörter; passende
Wörter wurden besser erinnert.
Nicht nur Menge der Angaben war entscheidend, sondern auch die Art (Witze besser: „Ein Moskito ist wie ein
Doktor, beide saugen Blut“, als mehrfache Angaben „wie Biene, beide Beine, Flügel, Stachel“)
Kennzeichen
Unterscheidbarkeit ist nach Eysenck ebenfalls sehr wichtig:
Wörter, deren Konsonanten in ihrer ursprünglichen Phonetik ausgesprochen werden müssen, werden besser
erinnert. (Bild 5.4 S. 152)
Kritik
Es ist nur schwer zu sagen auf welcher Verarbeitungsebene ein Prozeß sich befindet, zum Teil unmöglich
(Zirkuläre Beweisführung Eysenck – mehr beschreibend als erklärend).
Morris et al.: Unterschiedliche Verarbeitungsprozesse führen zu unterschiedlichen Gewichtungen im
Erinnerungsvermögen. Semantische & Reim Aufgaben (Bild 5.5 S. 154).
Erinnern und Vergessen
Broen und McNeil: lasen Studenten Lexikon Definitionen von Wörtern vor. Oft konnten sie das Wort nicht
identifizieren, obwohl sie das Gefühl hatten, daß es ihnen auf der Zunge lag.
Jede Erinnerung kann andere Vorgänge erfordern (Introspektion – Erinnern an)
1. eigenen Namen (sofort, automatisch)
2. treten eines Fußballs (genaue Handlungsbeschreibung, abhängig von Beschreibungsfähigkeiten)
3. Wo sind die Autoschlüssel? (längeres Nachdenken mit vielen Prozessen)
Es existiert keine allgemeine, zufriedenstellende Theorie, wie Vergessen funktioniert, aber mehrere Faktoren
sind bekannt und einige Phänomene verstanden.
Permanentes Gedächtnis
Vergessene Informationen können entweder einfach verloren sein, oder gespeichert - aber ohne Zugriff. In einer
Umfrage (1980) unterstützten 84% der Psychologen die These, daß alles permanent gespeichert wird - nur oft
der Zugriff darauf fehlt. Die Nachweise hierfür sind jedoch dürftig.
Elektrische Stimulation
Wilder Penfield stimulierte Patienten an der Gehirnoberfläche um das Zentrum der epileptischen Anfälle
festzustellen. Dabei erlebten einige Patienten sich sehr genaue Vorfälle aus ihrer Kindheit.
Aber nur bei 7.7% trat dies auf und es ist auch nicht nachzuvollziehen, inwieweit die Szenen nur rekonstruiert
waren.
Hypnose
Polizei benutzt z.B. Hypnose zur Erinnerung an Nummernschilder oder Täterbeschreibungen. Hypnotisierte
Personen sind aber häufig unkritisch und können sich z.B. auch an die Zukunft „erinnern“.
Putman: führte VPn einen Film über einen Unfall (Auto mit Fahrrad) vor. Hypnotisierte VPn machten
(besonders bei fehlleitenden Fragen) mehr Fehler.
15
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Zwei Prozeß Theorie
Es ist einfacher etwas wiederzuerkennen als sich daran zu erinnern. Watkins und Gardiner (1979):
• Erinnern ist ein Suchprozeß gefolgt von einem Entscheidungsprozeß.
• Erkennen ist nur ein Entscheidungsprozeß
Rabinowitz, Mandler und Patterson: Erinnern an kategorisierte Wortlisten.
• Einmal normal.
• Mit einer besonderen Anweisung wurden 23% mehr Wörter erinnert: Wörter aus den Kategorien erzeugen
und dann diese verlauten lassen, falls die in der Liste vorkamen ( Erkennungstest )
Kritik:
Nach Watkins (1973) ist Erinnern manchmal leichter als Erkennen. Er präsentierte Paare wie „EXPLO-RE“ und
„SPANI-EL“. Mit Stichworten („EXPLO-?“, „SPANI-?“) wurden sich besser erinnert, als andere Teile
wiedererkannt („RE“, „EL“). Aber hierbei hat er den Kontext bei Präsentation vernachlässigt.
Erkennung von Objekten ist ebenfalls kontextsensitiv => ein Suchprozeß muß auch an Erkennung beteiligt sein.
Encoding Specificity ( Verschlüsselungseinzelheiten )
Tulving unterscheidet nicht so sehr zwischen der Verarbeitung bei Erkennen und Erinnern. Je größer die
Übereinstimmung (incl. Kontext) zwischen Lernen und Testen ist, desto besser.
Stichwort Test mit assoziativen (White-Black) und nicht assoziativen (Train-Black) bei Lernen und Test. Ein
Wechsel zwischen Lernen und Test ergab immer ein schlechteres Erinnern (Bild 5.6 S.161).
Erinnern sei deshalb schwerer als Erkennen, da hier noch die Objekt - Benennung hinzukommt.
Kritik:
Es besteht die Gefahr eines zirkulären Schlusses, die Speicherung beruht auf Übereinstimmung (informational
overlap) , die Test Performance ebenfalls.
Information wird oft nicht in dieser einfachen Weise verglichen („Was hast Du vor 6 Tagen gemacht?“ –
Antwort erfordert komplexeres Erinnnerungsmuster).
Jones unterscheidet zwei Wege zur Erinnerung:
• Direkt: (legal –Beer) (legal -?)
• Indirekt: zusätzliche versteckte Information durch Wortumkehr (legal => Lager)
Kontext beeinflußt auch nicht Erinnern und Erkennen in gleicher Weise. Baddeley unterscheidet zwischen
innerem ( Intrinsic – Direkter Bedeutungseinfluß: z.B. Stachelbeer und Verkehrs – „Jam“) und äußerem Kontext
(Extrinsic: z.B.Lern – Raum)
Lernen einer Liste unter Wasser und an Land. Erinnerung war am selben Ort 50% besser, Erkennung zeigte
keinen Einfluß. (Bild 5.7 S.164)
Neuere Ansichten über Erinnern und Erkennen
Möglicherweise gibt es noch mehrere unterschiedliche Strategien innerhalb Erkennung und Erinnerung (Jones
s.o.). Außerdem zeichnen sich mehrere Kombinationen der zwei Prozeß und Encoding Theorie ab.
Mandler´s Theorie zu Erkennung
Zwei Unterscheidungsmechanismen:
• Vertrautheit (sensorische/wahrgenommene Reize)
• Identifikation (In Kontext setzten)
Falls die Vertrautheit hoch oder niedrig ist, entscheidet man sich schnell, ansonsten kommt Identifikation ins
Spiel. Beide Prozesse laufen parallel, aber Vertrautheit ist wesentlich schneller, aber auch vergänglicher.
Mandler: Eine lange Liste von Worten soll in Kategorien (min 2, max 7) eingeteilt werden. Gefolgt von einem
unerwarteten freien Erinnern.. Pro zusätzlicher Kategorie wurden ca. 4 Wörter mehr erinnert.
16
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Ein Erkennungstest folgte in unterschiedlichen Abständen (sofort, 2, bzw. 5 Wochen). Die Anzahl der
Kategorien erhöhte ebenfalls die Trefferquote, die Erkennung war jedoch langsamer.
Parallele verteilte Prozesse
Forschung steckt noch in den Kinderschuhen (Siehe auch Bild 1.3 und 1.5)
Informationen über eine Person oder ein Objekt sind nicht an einer Stelle, sondern verteilt abgelegt. Lernen
verstärkt die Beziehungen. (McClelland)
Sucht man beispielsweise nach einem männlichen, sehr dominanten Premierminister, der den Falkland Krieg
gewonnen hat, so bringt man am ehesten „Thatcher“ damit in Verbindung, obwohl bei einer seriellen
Verarbeitung nur männliche Personen in Betracht gekommen wären.
Bei „spontaner Verallgemeinerung“ können wir aus uns bekannten Details Abstraktionen bilden.
Bei einer „default Anweisung“ übertragen wir fehlende Informationen von ähnlichen Objekten.
Turner präsentierte Alltagsgeschichten (Restaurant), es wurden Dinge erinnert, die nicht in den Geschichte
vorkamen.
Amnesie Patienten können oft allgemeine Eigenschaften von Objekten erlernen, aber keine Individuellen
Informationen. Die individuellen Verbindungen sind zu schwach, aber durch Wiederholung werden die
allgemeinen stark genug.
17
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 6 Gedächtnis Theorien und Amnesie
Amnesie bildet eine gute Testgrundlage für Theorien bezüglich des „normalen“ Gedächtnisses (z.B. Kurzzeit –
Langzeit Gedachtnis), und kann auch zu neuen Theorie Ansätzen führen.
Die Gründe für die Amnesie können sehr unterschiedlich sein, aber es hat sich der Begriff des „Amnesie
Syndroms“ eingebürgert:
• Erinnerungsverlust nach Einsetzten des Amnesie
• Erinnerungsverlust vor Einsetzten des Amnesie
• Oft normale Intelligenz abgesehen vom Gedächtnis
• Intaktes Mittel- oder Kurzzeit- Gedächtnis (normale Konversation möglich)
• Noch einige übriggebliebene Lernfähigkeiten
Amnesie Syndrom oder Syndrome
Einheitliche Sicht der Amnesie Patienten vereinfacht zu stark.
Parkin untersuchte die verschiedenen Symptome, bei unterschiedlicher Hirnschädigung. Patienten mit Korsakoff
Syndrom haben häufig eine Schädigung des diencephalon (sub-kortikal) und/oder des Frontal-Lappens.
Encephalitis Patienten (Gehirn Entzündung) an den Schläfen Lappen des Kortex.
•
•
•
Schläfen Lappen: schnelles Vergessen
Diencephalon: kontextuelle Unterscheidungsprobleme ( Zeit und Ort )
Frontal Lappen: schlechte Selbsteinschätzung bei Gedächtnis, zeitliche Unterscheidung gestört
Shinamura und Squire: Korsakoff Patienten überschätzen oft Ihr Erinnerungsvermögen und haben ein breiteres
Spektrum an Gedächtnis Problemen
Lhemitte und Signoret: Präsentation von 9 bekannten Objekten (3x3), dann mit veränderter Anordnung.
Korsakoff Patienten konnten nach ca. 13 Lern - Versuchen die Objekte wieder in die richtige Reihenfolge
bringen und auch länger behalten (nach 4 Tagen noch gute Erinnerung). 2 von 3 Schläfen Lappen Patienten
konnten auch nach 20 Lernversuchen noch nicht richtig einordnen und vergaßen das meiste schon nach 3
Minuten.
Verbliebene Lernkapazität
Die meisten Amnesie Patienten haben ein normales Kurzzeit Gedächtnis (Korsakoff – digit span Task), bei nur
wenigen ist es umgekehrt. Die Lernfähigkeiten von Amnesie Patienten werden häufig unterschätzt, da sie nur ein
sehr geringes Bewußtsein über das Gelernte besitzen.
Fähigkeiten
Vor allen Dingen Fähigkeiten im Motorischen Bereich wurden auf Verbesserungsmöglichkeiten untersucht.
z.B. Zielverfolgung, Spiegelschrift, Puzzle, Türme von Hanoi
( Fähigkeiten vor Einsetzen der Amnesie scheinen erhalten zu bleiben – Golf spielen)
Cohen und Squire: Spiegelschrift, generelle Verbesserung, spezielle Verbesserung bei Wiederholung der
gleichen Wortgruppe.
Amnesie Patienten waren gleich bei der generellen Verbesserung, aber schlechter bei der speziellen
Verbesserung.
Moscovitch formulierte drei Charakteristika für gut verarbeitete Aufgaben:
• Anforderungen müssen dem Patienten klar sein
• Die geforderte Reaktion innerhalb der Möglichkeiten des Pat.
• Kein Bezug auf spezielle Vergangene Ereignisse nötig
Priming Effekt
Der gleiche Reiz bei zwei Gelegenheiten wird bei der zweiten schneller erkannt. (auch ohne bewußte Kenntnis)
18
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Cermak, et al.: Zeigten eine Liste von Worten, gefolgt von einem Identifizierungs- und einem
Wiedererkennungstest. Korsakoff Patienten waren beim Wiedererkennen wesentlich schlechter als Alkoholiker
ohne Amnesie. Die Identifizierung wurde jedoch bei ihnen ähnlich beschleunigt (Priming Effekt – Bild 6.1
S.184)
Unbewußtes Priming kann aber auch bei normalen Menschen vorkommen (Objekte in Kiste finden,
Wiederholung nach 17 Monaten)
Gedächtnistheorien und Amnesie
Einige Theorien wurden mit Hilfe von Amnesie überprüft, andere neu entwickelt (Schachter: implizites und
explizites Gedächtnis). Es folgen die wichtigsten Theorien in Bezug auf Amnesie und normale Menschen; es
existieren viele Überschneidungen.
Das multi-store Modell, levels of Processing (Kapitel 5) und die Unterscheidung zwischen semantischem und
episodischen Gedächtnis werfen bei der Erklärung von Amnesie Probleme auf. Neuere Theorien, wie
proceduales und deklaratives Wissen (Beschädigung von Gedächtnissystemen) , explizites und implizites
Gedächtnis (Testform) sind vielversprechender.
Episodisches und Semantisches Gedächtnis
Tulving unterscheidet zwei verschiedene Langzeitgedächtnis Systemen (weiteres Kapitel 8):
• Das episodische Gedächtnis enthält Informationen über bestimmte Ereignisse zu einer bestimmten Zeit und
an einem bestimmten Ort (Was hatte man zum Frühstück?)
• Das semantische Gedächtnis zusammenhänge zwischen Objekten (Thesaurus: Regeln, Formeln,
Algorithmen zur Objekt Manipulation.
Das episodische verwendet oft das semantische (Frühstück – Informationen über Bacon, Eier, Bohnen).
Relevanz für Amnesie Patienten:
• Geringes episodisches Gedächtnis (Korsakoff – Vergessen wann aufgestanden)
• Gutes semantisches Gedächtnis (gute sprachliche Fähigkeiten )
Kritik:
Es wurde jedoch klar gezeigt, das diese Sicht fehlerhaft ist. Hauptsächlich große Probleme mit neu
zuerlernendem nach Amnesiebeginn (Nach Operation) Bild 6.1 S. 188
Gedächtnis System
Semantisch
Lern Zeitpunkt
Vor Amnesie
Gedächtnis Fähigkeiten
Gut
Semantisch
Nach Amnesie
Sehr schlecht
Episodisch
Vor Amnesie
Ordentlich
Episodisch
Nach Amnesie
Sehr schlecht
Nachweis
Intakte Sprache &
Intelligenz
Gabrieli et. Al.
(Unfähigkeit neue Wörter
zu erlernen)
Zola-Morgan et. Al.
(gleich viele spontane
Erinnerungen zu
Wortlisten wie normal)
Duzende Laborstudien
Kontext Mangel Theorie (Context Processing Deficit)
Amnesie Patienten können Informationen über das zu Erinnernde speichern, aber nicht den Kontext.
Huppert und Piercy zeigten an zwei aufeinanderfolgenden Tagen zum Teil verschiedene Bilder. Korsakoff
Patienten konnten sich im Gegensatz zu normalen Menschen nicht so gut an den Tag erinnern (Temporärer
Kontext), wohl aber gleich, ob sie das Bild überhaupt schon gesehen hatten. (Bild 6.2 S.190)
Nach Mandler´s Theorie (Kapitel 5) scheint die Vertrautheit (familiarity) intakt, Identifizierung nicht.
Theorie liefert aber keine Erklärung warum Patienten keine Kontext Informationen speichern können.
19
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Deklaratives und Prozeduales Lernen
Ähnlich Theorie von Ryle: Wissen das (Eier zum Frühstück) und wissen wie (Klavierspielen).
Cohen und Squire (weiteres Kapitel 8):
• Deklarativ: Traditionelle Gedächtnissicht (Dekodierung, Speichern, Abrufen auf Anforderung)
• Prozedual: Erfahrung führt zu Abläufen ohne bewußten Zugriff auf Wissen.
Relevanz für Amnesie Patienten:
• Beschädigtes deklaratives Lernsystem
• Intaktes prozeduales Lernsystem
Anekdote: Reichte Hand mit Nadel einer Amnesie Patientin. Sie wollte ihm danach nicht mehr die Hand geben,
wußte aber nicht warum.
Kritik:
• Kategorisiert nur die Gedächtnis Fähigkeiten und liefert keine Erklärung.
• Häufig treten Kombinationen von deklarativ/prozedual auf (Golf: Linken Arm gestreckt halten).
• Nur prozeduales Intakt => keine Erklärung für intaktes Kurzzeit Gedächtnis
• Viele Amnesie Patienten können deklarative Informationen lernen (Schachter: Fiktive Aussagen über
berühmte Personen)
Explizites und implizites Gedächtnis
Schachter und Graf unterscheiden:
• Implizites Gedächtnis, unbewußte Erinnerung
• Explizites Gedächtnis, bewußte Erinnerung (free recall, cued recall und Wiedererkennen)
Verschiedene Manipulationen an den Lernbedingungen zeigen unterschiedliche Ergebnisse für explizites und
implizites Gedächtnis.
Jacoby und Dallas: Wiedererkennung (Explizit) und Identifizierung (Implizit) von Wörtern. Die sollten zuvor
unterschiedlich analysiert werden (physikalisch, Reim, Semantisch – ja, nein Antwort). VPs waren normale
Menschen.
Bei der Wiedererkennung steigt der Erkennungsanteil von physikalisch, Reim bis semantisch an.
Bei Identifizierung bleibt er bei allen gleich hoch. (Bild 6.3 S.194)
Schachter über Amnesie Patienten:
• Schlechtes Explizites Gedächtnis
• Gutes Implizites Gedächtnis
Graf et al: Wort Listen nach Neigung bewerten, dann vier Gedächtnistest ( free recall, cued recall,
Wiedererkennen – explizit und Wort Vervollständigung – implizit). Normale Menschen waren bei allen
Aufgaben außer der Wortvervollständigung besser als die Amnesiepatienten. (Bild 6.4 S.195)
Kritik:
Deskriptiver Level, Kurzzeit Gedächtnis benutzt oft beides.
Theoretische Betrachtungen
Um alle unterschiedlichen Phänomene zu erklären sind mehrere Theorien nötig. Schachter führt drei Kategorien
an:
• Activation Theorie: Ein gezeigtes Wort führt zu einer automatischen Aktivierung seiner internen
Repräsentation (nach Sekunden, Stunden, Tagen - => unterschiedlich schnell implizit). Explizite werden
durch aktive Unterstützung beschleunigt. (Erklärung für Jacoby und Dallas, Bild 6.3 s.o.)
• Processing Theorie: Daten-Getrieben durch externe Reize (implizit) und Konzept-Getrieben durch das
Individuum selbst angestoßen (explizit)
• Multiple-Memory: Procedual und Deklarativ (s.o.)
20
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 7 Mentale Repräsentation
Einführung
Bild 7.1 S. 202 gibt einen groben Überblick über das Kapitel – Die Aufteilung der Repräsentation in Extern
(Bildlich und Sprachlich) und Intern (Symbolisch und Verteilt).
Repräsentation
Extern
Bildlich
Intern
Sprachlich
Symbolisch
Analog
(Bilder, mentale Modelle)
Verteilt
Propositional
on(Book, Desk)
Verteilte Repräsentation wird oft als detailliertere symbolische Repräsentation gesehen. Propositionen sind
sprachähnliche Analogien werden manchmal als Propositionen aufgefaßt.
Externe Repräsentation
Etwas, das für etwas anderes steht ( Karte, Gemälde, Geschichte ). Entweder als Worte oder aufgeschrieben
(Sprachlich) oder als Pictogramm/ Diagramm.
Bsp.: Raumbelegung – Plan (Liefert natürlicherweise mehr Informationen, ist analog) versus sprachliche
Beschreibung (Bild7.2 S. 203).
Eigenschaften von sprachlicher und bildhafter Darstellung
Ein Buch auf einem Tisch (Bild 7.3 S. 205):
Sprachlich
Diskrete Symbole (Es gibt kleinste Einheiten –
Buchstaben)
Explizit (Benötigt Symbol für Beziehung – „auf“
Grammatikalische Regeln (nicht: Ein Tisch Buch
einem auf)
Abstrakt (keine direkte Beziehung zu einem Sinn)
Bildhaft
Nicht diskret
Implizit
Nur lose Kombinationsregeln
Konkret (Sinnesbeziehung – Hier: Sehen)
Von Externer zu Interner Darstellung
Die Unterschiede in der externen Darstellung können auf die mentale Übertragen werden.
Propositionen (sprachlich) und Analogien (Bildhaft).
Vorstellungsbilder als analoge Darstellung (Bilder im Kopf)
Vorstellungsbilder wurden schon vor über 2000 Jahren von Aristoteles untersucht. Als der Behaviourismus
Anfang dieses Jahrhunderts die Introspektion verwarf, waren die Untersuchungen bis zu Aufkommen des
Informationsverarbeitungs-Ansatzes verpönt.
Vorstellungsbilder sind das, was wir im Kopf haben, wenn wir uns etwas vorstellen. Einige Theoretiker gehen
davon aus, daß sie Bildhaft und von Propositionen verschieden sind, andere daß sie eine verfeinerte Art von
Proposition darstellen.
Eine weitere Streitfrage ist, ob Vorstellungsbilder für normale Funktion vonnöten sind oder nur Indikatoren von
Funktion (PC-LED Metapher).
21
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Paivio`s Duale Kodierungstheorie
•
•
•
•
•
Zwei unabhängige, aber zusammenhängende Systeme: verbal und nicht verbal
Beide spezialisiert zu Verarbeitung ganz bestimmter Daten
Beide weiter unterteilt (Bild 7.1 S. 209)
Beide besitzen Grunddarstellungen: logongens/verbal und images(Vorstellungsbilder)/nicht verbal
Es bestehen Verbindungen zwischen logongens und Vorstellungsbildern (Objekt – Benennung ). Beide sind
modal spezifisch (Sound „Schnee“ anderes logongen als das Wort „S-c-h-n-e-e“)
(siehe Bild 7.4 S.209)
Unterstützung der Theorie auch durch Experimente zu semantischem und episodischem Gedächtnis (siehe auch
Kapitel 6 & 8).
Vorhersagen: Die beiden Systeme arbeiten entweder unabhängig, oder falls bei involviert sind entsteht ein
additiver Effekt.
Freie Erinnerung
Paivio: Bildfolgen sind wesentlich besser zu erinnern als Wort Listen. (Laut Paivio rufen Bilder oft eine ad hoc
Benennung hervor, ein additiver Lerneffekt entsteht). Die Instruktion sich die Wörter bildlich vorzustellen
verbessert deren Erinnerung wesentlich. Bessere Erinnerung an konkretere Wörter als an abstrakte.
Ein besserer Lern - Effekt tritt jedoch auch auf, wenn man die Wörter in einen kurzen Satz einbinden soll!
Neuropsychologie
Verarbeitungsunterschiede zwischen den Hemisphären:
Piavio: Abstrakte Wörter werden im rechten visuellen Feld besser erkannt (Verarbeitung in linker Hemisphäre).
Bei konkreteren Wörtern keine Unterscheidung möglich.
Später werden wir sehen, daß Bilder aber auf kompliziertere Weise entstehen können.
Struktur von Vorstellungsbildern
Bisher nur wage: Was sind eigentlich Vorstellungsbilder? Wie funktionieren sie?
Hauptsächlich zwei Arten von Experimenten zur Erklärung: Mentale Rotation (Transformation von Objekten)
und Bildprüfen (Absuchen einer Landkarte). Danach sind Vorstellungsbilder enge Analogien ihrer original
Objekte.
Mentale Rotation
Chopper und Shepard zeigten gedrehte, zum Teil gespiegelte Buchstaben (Bild 7.6 S. 217). Je mehr die
Buchstaben gedreht waren, desto langsamer konnten die VPn entscheiden ob sie gespiegelt oder nicht gespiegelt
waren. (Ähnliche Ergebnisse auch für andere Objekte)
Bildprüfen
Kosslyn et al.: Karte einüben bis sie ziemlich genau nachgezeichnet werden konnte. Dann Aufforderung nach
einem bestimmten Objekt auf der Karte zu suchen und dann nach 5 Sekunden das nächste anzupeilen (über eine
gedachte Linie). Je weiter die jeweiligen Positionen auseinander lagen, desto länger die Reaktionszeit beim
Absuchen der mentalen Landkarte.
Propositionale Darstellung
Sprach- (Russisch, Chinesisch) und Modus- (visuell, akustisch, Geruch) Unabhängige Beschreibung. Explizit,
diskret und abstrakt (s.o.).
22
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Prädikaten Logik (Computermodulation durch LISP & PROLOG):
On(Book, Table)
Hit(Mary, John, Stick) & Hard(Stick)
Zweiter Ordnung: Cause[ Hit(Mary, John, Stick), Hurt(Mary, John) ]
Siehe auch Semantische Netzwerke und Schemata (Kapitel 8)
Die Vorstellungsbilder – Propositionen Debatte I
Einige Psychologen, allen voran Pylyshyn, bezweifeln den Nutzten von Vorstellungsbildern und suchen
Erklärungen rein propositionaler Natur. Dies führte auf Seiten der Vorstellungsbild – Befürworter zu genaueren
Spezifikationen.
Pylyshyn´s erste Kritik Welle
Das Konzept der Vorstellungsbilder war Pylyshyn zu vage. Um das „Gedanken-Auge“ zu erklären müsse man
wieder ein anderes heranziehen (Endlosschleife).
Die unterschiedlichen Formate der verbalen und nicht verbalen Darstellung würden noch ein Austauschformat
benötigen, warum also nicht gleich ein einheitliches Format auf Basis von Propositionen.
Die Ergebnisse für mentale Rotation könnten auch wie folgt erklärt werden (wenn auch umständlich):
Darstellung TOP(23O, „A“) - Änderung des Prädikates nicht in einem sondern in vielen kleineren Schritte =>
Zeit – Drehungs- Relation.
Gegenargumente zur ersten Welle
Vorstellungsbilder sind keine Bilder, sondern quasi- räumliche Einheiten aus Wahrnehmungserfahrungen.
Wie Vorstellungsbilder ohne „mentale Augen“ erklärt werden können: nächster Abschnitt (Kosslyn)
Kosslyn´s Theory und Computer Modell der Vorstellungsbilder
Kosslyn entwarf eine Theorie in der Vorstellungsbilder sowohl propositionale als auch nicht propositionale
Darstellungen in einem Medium mit speziellen Eigenschaften benutzen. Diese speziellen Eigenschaften wurden
in Experimenten nachgewiesen und durch neuropsychologische Studien unterstützt.
Modell (Bild 7.9 S. 225):
• Visuelle Vorstellungsbilder werden in einem speziellen, räumlichen Medium erzeugt
• 4 Eigenschaften des Mediums: (i) begrenzte räumliche Ausdehnung; (ii) Höchste Auflösung in der Mitte;
(iii) Körnung, die Details verbirgt; (iv) das Vorstellungsbild verblaßt
• Langzeit Gedächtnis enthält zwei Arten von Datenstrukturen: Vorstellungsbild Ordner(Files) in einem
Analogie- Format und Porpositions Ordner mit Informationen zu Beziehungen zwischen Teilobjekten.
Das räumliche Medium ist ähnlich einer Kathodenstrahlröhre: Punkte und Pixel an
bestimmten Koordinaten. Die Vorstellung wird erzeugt in dem zunächst
die Grobform aus dem Vorstellungsbild Ordner geladen wird (Enten
Umriß). Dann werden Anhand der Propositionen (HAT
FLÜGEL)(FLÜGEL AUF JEDER KÖRPERSEITE) weitere Bilder
überlagert (Flügel). Bild 7.10 S.228
Image Tracing Aufgabe
Test zur begrenzten Ausdehnung und zur Körnung des räumlichen Mediums (BILD 7.11a/b S. 230:
Einen Hasen in Kontext mit einem Elefanten oder mit einer Fliege vorstellen. Details des Hasen sind schneller
zu erkennen in Verbindung mit der Fliege. Beim Elefanten zeigt sich (intropektiv) ein Heranzoomen des Hasen.
Begrenzte Ausdehnung
23
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
VPn sollten sich Tiere weit weg vorstellen und dann virtuell heranzoomen bis sie alles sehen konnten. Danach
sollten sie die Entfernung zum Objekt schätzen, diese stieg linear zur Größe des Tieres an. (Bild 7.12 S.231)
24
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Neuropsychologie
Patienten mit getrennten Hirnhälften können in der linken Hemisphäre Vorstellungsbilder erzeugen. Die rechte
Hemisphäre kann alle Arten von visuellen Aufgaben bewältigen, außer der Erzeugung von Vorstellungsbildern.
Die Vorstellungsbilder – Propositionen Debatte II
Pylyshyn´s zweite Kritik Welle
VPn tuten genau das, was man ihnen sagt und verfälschen so die Ergebnisse bezüglich der tatsächlichen Abläufe:
Beim Bildprüfen (s.o.) verschwindet die Korrespondenz zwischen Wechselzeit und Objektentfernung, falls man
die VPn instruiert zu den Objekten zu springen (und nicht einer gedachten Linie zu folgen)
Der Verstand habe eine funktionale Architektur (Hardware-Level kann nicht durch High-Level/Software
verändert werden). Falls Vorstellungsbilder in einem speziellen Hardware Medium arbeiten, so müssen sie selbst
angepaßt/unveränderbar sein. Dies ist jedoch offensichtlich nicht der Fall.
Gegenargumente
Ihm wird Mißdeutung der Ergebnisse vorgeworfen. Johnson-Laird: Vorstellungsbilder und Anschauungen sind
beide high-level Konstrukte. Daß sie sich beeinflussen, heißt nicht daß sie sich ausschließen. (nächster
Abschnitt)
Mentale Modelle als Analogie Darstellungen
Johnson Laird führte zusätzlich eine dritte Art von Darstellung ein: Mentale Modelle, diese können völlig
analog, teilweise analog oder teilweise propositional sein und sind mit Vorstellungsbildern verwandt.
Wichtig:
Der Begriff Mentales Modell wird von anderen Theoretikern in anderem Zusammenhang benutzt.
Johnson-Laird benutzt ein andere Definition von Proposotion (mehr Philosophisch): mentale Darstellung von
verbal ausdrückbaren Propositionen.
Vorstellungsbilder und mentale Modelle sind Hochsprachen – propositionaler Code die Hardcode Sprache.
Menschen benutzten unterschiedliche Darstellungen für unterschiedliche Aufgaben. (Denken und Schlußfolgern
Kapitel 12)
Mentale Modelle sind analog, festgelegt und konkret (Sinnesbezug), Propositionen sind nicht festgelegt:
„Das Buch ist auf dem Regal“ kann vieles heißen: links, rechts, mittig, hochkant, aufgeklappt ...
Das mentale Modell dazu: Ein bestimmtes Buch, das in einer bestimmten Lage/Position auf einem Regal liegt.
Das Vorstellungsbild hierzu ist dieses Buch von einer bestimmten Betrachtungsposition.
Experiment:
VPn wurden Propositionen (Relative Lage von Geschirr/Besteck) und eine Bildliche Darstellung zur
Überprüfung dargeboten (Tabelle 7.2 S.238 ). Danach folgte ein Erinnerungstest an die Propositionen. Waren
diese nicht festgelegt (mehrere Anordnungsmöglichkeiten), dann ergänzten die VPn die Propositionen bis zu
einem festgelegten mentalen Modell.
Verteilte Darstellung und verteilte Verbindungen (Connectionism)
Es gibt ein Anzahl von Schwierigkeiten beim Symbol Ansatz:
• Schon einfache Aufgaben sind mit Symbol- Theorien nur komplex darstellbar
• Verbindung zu untergeordneten Strukturen (Neuronen) unklar
Der Connectionisten Ansatz basiert auf Netzen aus neuronenähnlichen Einheiten, Information auf Sub-Symbole
verteilt: Verteilte Darstellung.
25
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Verteilte Darstellung der Ansicht und des Geruchs einer Rose
Einfache Kodierung der Eingangsreize. Verschiedene Verbindungsstärken zwischen den Einheiten, diese
aktivieren/deaktivieren andere. Ansicht einer Rose => Aktivierung des Geruchs (Bild 7.13a S.240)
Verteilte Darstellung gegen Lokale Darstellung
Einige Connectionisten Modelle verwenden lokale Darstellungen ähnlich Symbolen. Eine Einheit ist ein Objekt
– bei Verteilten Systemen ist eine Einheit eine Menge von Objekten. Der aktuelle Status hängt vom
Aktivierungsmuster ab. (Bild 7.14 S. 241)
Verteilte Darstellung und Propositionen/Vorstellungsbilder
Ob sich die Modelle wieder sprechen, oder ob symbolische Modelle ein gröbere Struktur oberhalb der verteilten
Darstellung bilden, ist noch nicht ganz klar.
Verteilte Systeme haben einige vielversprechende Eigenschaften: Inhalts- Adressierung (Erinnerungen rufen
andere hervor – Genereller Zugriff auf alle Inhalte) Automatische Generalisierung (vgl. Kapitel 5)
26
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 8 Die Organisation von Wissen
Einführung
Die Frage „Was ist Wissen?“ läßt sich aufteilen: Welches Format benutzen mentale Darstellungen? – Wie sind
mentale Darstellungen organisiert?
Format:
Bereits in Kapitel 7 wurde zwischen Analogien und Propositionen unterschieden. Die meisten Theorien in
diesem Kapitel verwenden propositionale Darstellung.
Organisation:
Viele Arten wie die aktuelle Forschung unterteilt werden kann (Bild 8.1 S.249)
Wissen
Einfache Organisation
Objekt Konzepte
Komplexe Organisation
Relationale Konzepte
Schemata
Ereignisse und andere
Wissensstrukturen
Frames
Scripts
Einfache Organisation: Gruppierung von verschiedenen Einheiten in ein Konzept (Hund&Katze: Tier)
Objekt Konzept (Hund, Vogel, Stuhl, Möbel) und relationales Konzept (schlägt, gibt, frißt)
Komplexe Organisation: Strukturierung von großen Grupen von Konzepten in komplexen, kognitiven Aufgaben
(Zusammenfassen einer Geschichte)
Ereignisse aus dem täglichen Leben und ihre Abläufe/Planungen in Wissenstrukturen(Schemata, Frames und
Scripts)
Keine strickte Einteilung, sondern Übersicht. Einzelne Konzepte aus der einfachen Organisation hängen von
komplexer Organisation ab.
Unterschiedliche Wissenstypen
Die Unterscheidungen sind mehr Heuristisch als Inhaltlich zu sehen (viele Verflechtungen)
Semantisches und Episodisches Gedächtnis
Kapitel 6: Tulving
Semantisches Gedächtnis speichert Fakten und Relationen
Episodisches Gedächtnis speichert Episoden und Ereignisse (mit Zeit- Kontext) (Nicht offensichtlich: Wort
Listen werden im episodischen Gedächtnis gespeichert.)
Deklaratives und Prozeduales Wissen
Kapitel 6: Wissen wie (Radfahren) und wissen das. Radfahren ist schwer zu beschreiben (allgemeines Problem
bei prozedualem Wissen).
Anderson (Kapitel 11): Wir lernen zunächst deklarativ, mit zunehmender Übung wird das Wissen prozedual.
Traditionelle Theorien – Konzepte
In dieser und den nächsten zwei Abschnitten folgen Traditionelle Modelle der einfachen Organisation.
Das Kategoriesierungsspiel
Die Einteilung von Objekten in (hierarchische) Kategorien erleichtert ihr Erlernen, Wahrnehmung und
Wiedererkennen.
27
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Die Sicht der Definierenden Attribute
Frege entwickelte ein Konzept basierend auf definierenden Attributen. Intensionen sind Mengen von Attributen,
die eine Menge von Objekten einer Kategorie zuordnen (männlich, unverheiratet, erwachsen). Extensionen sind
alle Elemente einer Kategorie (alle Junggesellen).
Charakteristisch für die Theorie:
• Bedeutung eines Konzeptes beschrieben durch eine Liste von Attributen.
• Jedes Attribut ist zwingend notwendig, falls das Objekt als Instanz des Konzeptes erkannt werden soll.
• Es gibt somit klare Grenzen zwischen Mitgliedern und Nicht- Mitgliedern.
• Alle Mitglieder sind gleich repräsentativ.
• Bei hierarchischen Konzepten werden alle Attribute vererbt
Wir werden sehen das sich die Forderungen nach klaren Grenzen und Repräsentativität aller Mitglieder in der
Praxis oft nicht bestätigen.
Brunner et al. zeigten mit einem Reizfeld aus Objekten mit unterschiedlichen Attributen, daß Objekte nach
Attributen geordnet werden. (Bild 8.2 S. 255) VPn mußten nur dem Versuchsleiter bekannte Attribute
herausfinden, indem sie nachfragten ob bestimmte Objekte passend waren.
Collins und Quillian´s Netzwerk Theorie
Struktur des semantischen Gedächtnisses als hierarchisches Netzwerk (Bild 8.3 S.256):
• Konzepte werden als Hierarchien von verbundenen Konzept- Knoten dargestellt (Tier, Vogel,
Kanarienvogel)
• Jedes Konzept besitzt Attribute (Hat Federn, kann fliegen)
• Untergeordnete Konzepte erben alle Attribute von ihren Übergeordneten
• Attribute können auch von der Vererbung ausgeschlossen werden (Strauß, kann nicht fliegen)
• Verschiedene Prozesse suchen die Hierarchien von Knoten zu Knoten ab
• Daher benötigen Fragen nach Konzept- Zugehörigkeit ( Ist ein Vogel ein Tier? ), oder nach Attributen
(Kann ein Kanarienvogel fliegen?) je nach Entfernung in der Hierarchie mehr Zeit zur Beantwortung.
Bei einer Satzverifikationsaufgabe (Ist ein Strauß ein Fisch?) – fanden Collins und Quillian der Zeit/Entfernungs- Zusammenhang.
Leichte Kritik:
Nicht alle Attribute sind für eine Zuordnung gleich wichtig. Ebenso sind nicht alle Mitglieder einer Kategorie
gleich repräsentativ (Tarzan ein repräsentativer Junggeselle in Ermangelung weiblicher Gesellschaft?)
Fundamentale Probleme:
Es ist oft schwer die definierenden Attribute festzulegen. Manchmal scheinen Konzepte keine allgemeingültigen
Attribute zu besitzen (Konzept: Spiel –viele verschiedene Arten von Spielen: Ball, Würfel, ein/mehrere Spieler)
Die Grenzen einer Kategorie sind oft fließend. (Ein Stuhl ist ein Möbelstück, ein Banane nicht – Aber VPs sind
sich uneinig bei einer Bücherstütze).
Auch die Beziehung zwischen Hierarchie- Entfernung und Beantwortungszeit wurde widerlegt ( z.B. „Ist ein
Huhn ein Tier“ schneller als „Ist ein Huhn ein Vogel?“).
Diese Widersprüche führten zu zwei Modifikationen der Theorie, die nun folgen. Die erste versucht die
definierenden Attribute zu erhalten, in dem sie charakteristische Attribute einführt. Die zweite ersetzt die
Attribute durch Prototypen.
Definierende und Charakteristische Attribute
Versuchen den Schaden auf die Attribut Strategie zu begrenzen.
Merkmals Vergleichs Theorie
28
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
•
•
•
•
Ein Konzept wird durch definierende und charakterisierende Attribute definiert
Definierende Attribute bilden den Kern der Definition, sind zwingend erforderlich.
Charakteristische Attribute entscheiden, wie repräsentativ ein Mitglied ist.
Der Entscheidungsprozeß (ob ein Spatz ein Vogel ist) findet in zwei Schritten statt: Erst werden alle
Attribute verglichen (Ein Spatz ist ein Vogel), falls kein klares Ergebnis, dann werden nur die definierenden
Attribute verglichen (Ein Strauß ist ein Vogel)
Hiermit läßt sich nur auch erklären, warum „Ist ein Huhn ein Tier?“ schneller beantwortet wird als „Ist ein Huhn
ein Vogel?“.
Kritik:
Ist zu stark an einfache Entscheidungssätze (Ist ETWAS etwas anderes?) gebunden.
Immer noch das Problem die Attribute festzulegen (zum Teil nicht möglich).
Es gibt immer noch klare Grenzen zwischen den Konzepten.
Das Vertauschen von Substantiven (Ist ein Vogel ein Spatz?) sollte keine Änderung der Antwortzeit hervorrufen,
tut es aber (Loftus)
Prototyp (oder charakteristische Attribute) Theorien
Kategorien werden um Prototypen herum gruppiert. Verschiedene Theorien beschreiben Prototypen auf
verschiedene Weise:
Einmal durch charakteristische Attribute mit unterschiedlichen Gewichtungen. Mitglieder sind alle, die mit den
Attributen oberhalb einer Schwelle übereinstimmen.
Zum anderen durch sogenannte beste Mitglieder. Eins oder mehrere (Möbel durch Stuhl oder durch Stuhl, Tisch,
Bett). Hier gibt es keine Abstraktion durch Attribute!
Prototyp Theorie
•
•
•
•
•
Prototypen werden durch charakteristische Attribute oder beste Beispiele festgelegt
Es gibt keine Liste von notwendigen oder ausreichenden Attributen.
Die Grenzen zwischen Konzepten sind verschwommen
Die Mitglieder sind unterschiedlich typisch
Kategorisierung durch Ähnlichkeit mit dem Prototyp
Versuchs Nachweise
Farben Kategorien
In vielen Völker gibt es unterschiedliche Abstufungen in der Farbenzahl. Berlin und Kay vermuteten, daß es
Grundfarben gibt, um die herum die andren Abstufungen gruppiert werden. Die Grundfarben sollten folgende
Eigenschaften haben:
1. Ausgedrückt durch kleinste sprachliche Einheiten (Himmel- Blau fällt somit weg)
2. Nicht eingeschränkt auf bestimmte Objekte (kein blond, wg. Einschränkung auf Haare)
3. Muß häufig verwendet werden (grün eher als türkis)
Bei der Untersuchung von 20 Sprachen (VPn) mit über 300 Farbkarten. Fanden sie heraus, daß es allgemein 11
Grundfarben gibt. Erst wurden die VPn gefragt, welche Karten sie einordnen wollen, dann welche davon die
typischsten sind (z.B. rot oder blau).
Die Konsistenz der Ergebnisse könnte jedoch besonders auf die gemeinsame physiologische Basis des visuellen
System zurückzuführen sein.
Natürliche und künstliche Kategorien
Unterstützung durch natürliche (Vögel, Möbel) und künstliche ( Zahlen, Punkt Muster ) Kategorien.
• Schnellere Erkennung von typischeren Mitglieder (Spatz eher als Vogel, als der Strauß).
• Typische Mitglieder werden zuerst Aufgezählt (bei Auflistungsaufgabe einer Kategorie)
29
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
•
Kinder lernen zuerst die typischen Mitglieder
Abstraktionsebenen in der Prototypen Theorie
Rosch konzipierte eine drei Ebenen Struktur:
• Hierarchien um Beziehungen und Inklusionen zwischen Kategorien auszudrücken.
• Drei Ebenen von konzeptuellen Hierarchien: übergeordnet (Waffen, Möbel), Basis- Ebene (Gewehr, Stuhl)
und untergeordnet (Sturmgewehr, Küchenstuhl)
• Die Basis Ebene ist die wichtigste für kognitive Aktivitäten. Sie besitzt die am besten unterscheidenden
Attribute und ist somit am leichtesten zu handhaben.
• Je nach Erfahrung und kulturellem Umfeld kann die Basis Ebene sehr unterschiedlich sein
Die zündende Idee für die Abstraktionsebenen kam aus anthropologischen Untersuchungen zu biologischen
Kategorien.
Rosch forderte alle Attribute einer der drei Ebenen aufzuzählen. Für die obere ergaben sich nur wenige, für die
unterste ergaben sich viele Überschneidungen (Sessel, Liegestuhl). Die Basis Ebene bietet somit die beste
Ausgewogenheit zwischen Inforation und guter Handhabbarkeit.
Wir benennen Objekte spontan mit Kategorien der Basis Ebene und viele Verhaltensmuster (hinsetzen) sind für
die untere Ebene gleich.
Zoologen haben eine andere (feinere) Basis Ebene zur Klassifizierung von Tieren.
Kritik an der Prototyp Sicht
Nicht alles Konzepte haben ein Prototyp Charakteristik: Abstrakte Konzepte („Wissenschaft“, „Verbrechen“)
Manche Abstrakte Konzepte erlauben Prototypen, andere nicht („Regeln“, „Glaube“, „Instinkt“). Es gibt eine
unendliche Flexibilität in den Kategorien.
Wie formen wir Kategorien (auch aus nur einem Objekt – Vogel Bsp. auf Galapagos)? Oft nicht nach
Ähnlichkeit zusammenhängend (koscheres/ nicht koscheres).
Von Netzwerken zu Schemata: relationale Konzepte als Schemata
Bisher nur Objekt Konzepte (Katzen, Hunde, Stühle Tische), nun relationale Konzepte (schlagen, federn,
Küssen).
Collins und Loftus erweiterten ihr Netzwerkmodell um weitere Verbindungen zwischen den Konten, nunmehr
nicht nur „ist“ Verbindungen, sondern auch „schlägt“, „tritt“.
Auch neue Modelle für relationale Konzepte wurden entwickelt.
Relationale Konzepte als Propositionen
Ursprünglich wurden relationale Konzepte als Propositionen behandelt, dann im Prädikaten Kalkül.
HIT(Agent, Object, Instrument)
COLLIDE(Object1, Objekt2)
Für Johnson-Laird war dieser Ansatz nicht geeignet, da die Bedeutung der Relationen nicht zwingend definiert
sei (Jede Bedeutung kann in das Netzwerk interpretiert werden). Er unterschied zwischen intensionalen und
extensionalen Aspekten von Konzepten und bemöngelte die geringe Aussagekraft über extensionale Aspekte.
Semantische Zerlegung von relationalen Propositionen
Als Antwort auf die Kritik von Johnson-Laird und anderen die den Relationen zugrundeliegenden semantischen
Primitive genauer festzulegen.
Nach Schank kann die Bedeutung jedes Verbs mit 12 bis 15 primitiven Aktionen umschrieben werden. Z.B.:
ATRANS: Transfer von Besitz (geben, leihen, nehmen)
PTRANS: Physischer Transfer von einem Ort zu anderen (bewegen, gehen, fahren)
Kombinationen (z.B.: etwas bringen: PTRANS & ATRANS)
30
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Charakterisierung einer Besitzveränderung:
Allgemeines Schema mit Variablen
Aktion:
Person
Handlung:
ATRANS
Objekt:
physikalisches Objekt
Richtung ZU:
Person-1
VON: Person-2
Variablenbelegung
Aktion:
John
Handlung:
ATRANS
Objekt:
Halskette
Richtung ZU:
Mary
VON: John
Da hier Kombinationen von Primitiven verwendet werden, ähnelt der Ansatz den definierenden Attributen. Wir
werden sehen, daß dies ungünstig ist.
Nachweise für semantische Zerlegung
Untersuchungen, ob ein beim Verstehen eines Satzes, dieser in Primitive zerlegt wird. Zunächst negative
Ergebnisse, das komplexere Sätze (mit mehr Primitiven) die Gleiche Verarbeitungszeit benötigten.
Genter unterschied daraufhin zwischen zwei Arten von komplexen Sätzen: schwach-verbundene und starkverbundene. Daraus ergeben sich:
„Ida gab ihren Eltern eine Uhr“ – einfacher Satz.
„Ida schickte ihren Eltern eine Uhr“ – komplexer, schwach verbundener Satz.
„Ida verkaufte ihren Eltern eine Uhr“ – komlpexer, stark verbundener Satz. (Ida bekommt Geld von den Eltern
zurück – mehr Verbindungen)
Stark verbundene Sätze werden besser erinnert als schwach verbundene.
Untersuchungen zum Verb „lügen“ mit drei semantischen Komponenten: (i) Eine Aussage ist falsch (ii) Der
Sprecher weiß sie ist falsch (iii) Der Sprecher will den Zuhörer betrügen. Unterschiedliche Geschichten führen
zu unterschiedlichen Bewertungen des Begriffs „lügen“. Es sollte also eher eine an Prototypen angelehnte
Variante in Betracht gezogen werden.
Schemata, Frames und Scripte
Das menschliche Wissen ist mehr als nur Attribut- ähnliche Information über einzelne Konzepte und Relationen.
Wir benötigen komplexe klassenähnliche oder hierarchische Beziehungen zwischen den Konzepten.
Historische Ansätze
Ein Schema ist eine strukturierte Gruppe von Konzepten.
Bartlett (1932) war überrascht wie weit Erwartungen, das Verständnis und die Erinnerungen von Personen
beeinflussen können. (Indianische Geschichte von Engländern wiedererzählt/rekonstruiert in westlichem Sinn).
Ab 1970 dann größeres Interesse an Schemata:
Schank´s schwaches Schema um Konzepte mit Relationen zu organisieren (letzter Abschnitt).
Schank und Abelson: Scripte als stereotypes Wissen über häufige Situationen.
Minsky: frames bei visueller Wahrnehmung.
Schemata und Scripte
Die Definition von Schema ist sehr locker und es gibt viele verschiedene Formen bezüglich verschiedener Arten
von Wissen.
Die Charakteristika von Schemata sind:
• Verschiedenen Relationen, Variablen und Variablen Werte
• Einfache Relationen („ist ein“, „tritt“, „schlägt“) und komplexe „kausal“ Relationen („berechtigen zu“,
„verursachen“, „verhindern“)
• Variablen enthalten Konzepte oder andere Unter- Schemata.
• Variablen Wertebereiche sind bestimmte Konzepte
• Kodieren allgemeines Wissen, das in vielen Situationen verwendet werden kann
• Variablen können frei bleiben und werden mit default Konzepten gefüllt (Heinz schlägt das Kind - => Hand
oder Stock)
Schank und Abelson´s Script Theorie
31
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Untersuchten die Inferenzen beim der Verarbeitung von Texten. Ein Script enthält Handlungssequenzen für
häufige Situationen (Essen in einem Restaurant). Beispielsweise unterteilt in (Tabelle 8.2 S. 278)
Essen in einem Restaurant Betreten
Hineingehen
einen Tisch suchen
Sitzplatz aussuchen
Zum Tisch gehen
Hinsetzen
Bestellen Karte nehmen
Karte lesen
Gericht auswählen
Der Kellner kommt
Bestellen
...
Essen
...
Verlassen ...
Nachweise für die Script Theorie
Bower et al.: VPn sollten ca. 20 Handlungen in einem Restaurant auflisten. Obwohl es sehr unterschiedliche
Restaurants gibt, sind 15 Vorgänge fester Bestandteil der meisten Erwartungen.
Andere Nachweise für Schemata
Es gibt viele Nachweise daß Personen mit unterschiedlichen Erwartungen Ereignisse unterschiedlich
interpretieren und erinnern.
Friedman: Zeigte detaillierte Zeichnungen von verschiedenen Szenen (Küche, Büro). Unerwartete Gegenstände
wurden beim ersten Blick doppelt so lange betrachtet. Unerwartete Gegenstände werden schlechter erinnert.
Schema Erwerb
Nur wenig darüber, wie Schemata entstehen. Es wird vermutet, daß wir von den ersten Restaurant
Gemeinsamkeiten abstrahieren und (eventuell auf Basis anderer Situationen: Einkaufen) Schemata bilden.
Schank´s dynamisches Gedächtnis Theorie
Aus den Beschränkungen der frühen Scripttheorien, die durch psychologische Studien aufgezeigt wurden,
entwickelte Schank seine Theorie des dynamischen Gedächtnisses. Somit konnte das Hauptproblem, die
Unflexibilität der Script Strukturen umgangen werden. (Wir können gut mit unerwarteten Situationen umgehen –
z.B. erster Besuch bei McDonalds: erst Zahlen dann Essen).
Das Handeln ist eher vom jeweiligen Ziel abhängig als von der Situation. Scripte ist nur zu Teil verschieden.
VPn vermischen oft Situationen (Arzt- , bzw. Zahnarzt- Besuch), obwohl das in der einfachen Script Theorie
nicht vorgesehen ist.
MOPs und TOPs/TAUs
Memory Organisation Packets (MOP) bestehen aus verallgemeinerten Gruppen von Ereignissen, sogenannten
Szenen. Szenen sind Zusammenfassungen von Komponenten der Scripte. (Betreten einer Zahnarzt Praxis / eines
Restaurants). Die MOPs koordinieren flexibel die Szenen zu einer bestimmten Situation.
Oberhalb der MOBs befinden sich die TOPs (Thematic Organisation Points), und bilden abstrakte Themen zu
Ereignissen (Ähnlichkeit: Romeo und Julia, West Side Story). Dyer nannte diese auch Thematic Abstraktion
Unit (TAU).
Nachweise durch Schreiben lassen ähnlicher Geschichten => Übereinstimmung der TAUs.
Die Undefiniertheit/Unvollständigkeit
Schank´s Abgrenzungen reichen nicht aus, eine klar Umrissene Theorie zu bilden. Entweder müßte man alles
möglichen Szenen, MOP und TOP spezifizieren (Unmengen von Informationen), oder man müßt wissen, wie
diese Strukturen gebildet werden.
Nur dann kann die Theorie wirklich überprüft werden.
32
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Probleme der Flexibilität und Connectionisten Schemata
Nach Rumelhart sollten die Variablenbelegungen zwei Eigenschaften haben: Einen Test ob die Variable passend
belegt wurde (realisiert) und einen Einfluß von Variablenbelegungen auf die default Werte noch nicht belegter
Variablen (bisher nicht berücksichtigt).
Beispiel Schema für einen Raum:
Möbel:
Küchentisch, Stühle
Kleine Objekte: Kaffee Kanne, Brotschneider
Größe:
klein
Eine Belegung wie Brotschneider sollte eine default Belegung von z.B. Küchentisch bei Möbeln nach sich
ziehen.
Realisierung durch eine Vernetzung der Variablen mit Aktivierungsmustern.
Annäherung an die neueste Konzept Forschung
Traditionell gibt es die beiden Forschungslinien der einfachen und der komplexen Organisation. Ideal wäre eine
Verschmelzung der Theorien. Man tendiert dazu, daß einfache Attribut basierte Konzepte auch immer auf das
komplexe Hintergrundwissen von Personen über Konzepte zurückgreifen.
Konzept Zusammenhang : Theorien?
Murphy und Medin beschäftigen sich mit der Frage, was Konzepte zusammenhält. Die bisherige Vermutung
(durch Ähnlichkeit) ist nicht immer zutreffend.
Die Zusammenhänge stammen oft aus Hintergrundwissen/Theorien der Personen in unterschiedlichen
Situationen: z.B. koschere und nicht koschere Tiere (Alle Tiere im Wasser, die Gräten und Schuppen haben und
schwimmen, sowie alle Landtiere mit vier Beinen oder fliegen mit Flügeln sind koscher).
Unterschied zwischen Ähnlichkeit und gleiche Kategorie Nachweis von Rips:
VPn sollten über eine mittel große Scheibe entscheiden: Scheibe sei ähnlicher einer Münze, wurde aber eher in
die Kategorie Pizza eingeordnet. (Hintergrundwissen: Münzengröße gesetzlich geregelt, Pizzagröße eher
variabel)
Aber unklar wie genau Theorien entstehen.
Konzept Kombination
Kategorien Erweiterung durch Kombination von existierenden Konzepten (blau gestreiftes Hemd, pet fish).
Nicht nur Adjektiv - Substantiv Kombinationen möglich, aber nur diese werden hier betrachtet.
Die Kombination der Konzepte ist nicht einfach die Schnittmenge (Schreckschuß Pistole ist an für sich keine
Pistole). Typische Mitglieder ein Kombination müssen nicht typische Mitglieder der jeweiligen Konzepte sein.
(Guppies sind typische „pet fish“, aber keine typischen Haustiere oder Fische).
Hintergrundwissen spielt scheinbar auch bei Konzept Kombinationen ein große Rolle.
Konzept Instabilität
Alle Arbeiten zu Wissensstrukturen (von Prototypen bis zu Frames) basieren auf der Voraussetzung, daß
gespeichertes Wissen im Gedächtnis aus diskreten und relativ statischen Mengen von Information besteht.
Laut Barsalou sind Konzepte aber instabil, d.h. die Konzept Zuordnung verändert sich mit verändertem Kontext.
„Der Mann hob das Klavier“ wird besser erinnert mit dem Stichwort (Cue) „etwas schweres“, umgekehrt „Der
Mann stimmte das Klavier“ besser mit „etwas mit einem guten Klang“.
Wir können spontan ad hoc Kategorie bilden, an die wir vorher nicht gedacht haben. (Dinge für einen
Garagenverkauf).
33
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Neurologische Nachweise zu Konzepten
Es gibt spezifische Störungen im Semantischen Gedächtnis. Lesen und sprechen kann intakt sein, aber der
Zugriff auf gespeicherte Informationen behindert. WLP konnte lesen aber nicht zusammenfassen. Sie konnte
Bilder nur schwer benennen, bei falschen Benennungen waren diese doch häufig mit der korrekten Antwort
verwandt.(Bürste als Kamm bezeichnet).
Übergeordnete Konzepte sind weit weniger beeinträchtigt als untergeordnete. Alzheimer Patienten benennen
Objekte oft fälschlicher weise mit dem Oberbegriff (Pelikan als Vogel).
Es können spezifische Kategorien betroffen sein. Ein Patient hatte nur Schwierigkeiten mit der Kategorie
„Körperteile“.
Basis Konzepte scheinen nicht so bevorzugt zu sein wie angenommen.
Diese Ergebnisse lassen sich am ehesten durch Netzwerk und verteilte Gedächtnis Modelle erklären.
34
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 9 Sprach Verarbeitung: Zuhören und Lesen
Einleitung
Trotz der Ähnlichkeiten zwischen Hören von Sprache und Lesen gibt ein wichtige unterschiede: Beim Lesen ist
jedes Wort eine Einheit, während Zuhören einen Lautfluß zerteilen muß. Werden Wörter aus ihrem Satzkontext
herausgenommen, verstehen wir nur die Hälfte der Wörter.
Hören von Sprache
Kontinuierlicher Sprachfluß mit wenigen Pausen.
Sprache wird von der linken Hemisphäre besser verarbeitet (gilt nicht für andere Geräusche!)
Laute die unterschiedlichen Kategorien angehören (ba, pa) werden besser unterschieden. (Japaner unterscheiden
nicht zwischen [l] und [r] => Schwierigkeiten diese auseinander zu halten.)
Wort Erkennung
Interaktive Modelle
Zwei Lager:
Serielle Verarbeitung (sensorische Information vor Kontext Information)
Interaktive Modelle (Marslen-Wilson und Tyler): größere Flexibilität, mehrere Verarbeitungsprozesse
interagieren (Lexikalische, Syntaktische, und Semantische) zu gleichen Zeit. Kohorten Modell:
• Eine Gruppe (Kohorte) von möglicherweise zum Klang passender Wörter wird aktiviert.
• Weiter Klangauswertung und Kontext eliminieren weitere Wörter, bis nur eines übrigbleibt (muß nicht
notwendigerweise ausgesprochen sein!)
Wort Monitoring Aufgabe (Bild 9.1 S. 298):
Wörter zu erkennen aus: Kategorie, Reim, Identität
Kontext:normale Sätze, syntaktische Sätze (ohne Sinn), Zufalls Sätze (auch grammatisch falsch).
Bei normalen Sätzen und Identität werden die Wörter schon vor ihrer kompletten Aussprache erkannt.
ð Indiz für interaktive Modelle und gegen serielle.
Aber: Wie gut lassen sich die künstlichen Bedingungen übertragen? Ist die Sprache etwas unverständlich werden
auch Kontext – Informationen nach dem Wort ausgewertet.
Weitere Nachweise: Worterkennung basiert auch auf Top-Down Verarbeitung (Kontext):
In einem Satz wurde ein „s“ durch ein Husten ersetzt. Fast alle VPn nahmen die Veränderung nicht wahr.
Warren & Warren (Ersetzung durch nicht sprachlichen Laut):
Man konnte sehen, daß der (B)aum im Wald war.
Man konnte sehen, daß der (R)aum im Haus war.
Man konnte sehen, daß der (Z)aum im Stall war.
Man konnte sehen, daß der (S)aum im Rock war.
Lippenlesen
Auf einem Videoband wiederholte jemand „ba“, der Ton dazu war „ga“. Normal hörende VPn hörten „da“.
Neuropsychologie der Wort Verarbeitung
Untersuchungen von Gehirn Geschädigten Patienten lassen vermuten, daß die einfache Wiedergabe eines
gehörten Wortes auf drei verschiedenen Wegen erfolgen kann.
Ellis & Young: Diese durchlaufen ein System von 5 Verarbeitungsstationen (Bild 9.2 S. 302):
35
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
1.
2.
3.
4.
5.
Akustische Analyse (nimmt Phoneme auf)
Akustisches Eingabe Lexikon (erkennt bekannte Worte)
Semantisches System (Wort Bedeutung)
Sprach Ausgabe Lexikon (Sprachformen für Wörter)
Phonem (Klang Erzeugung)
Weg 1 (normale Verarbeitung):
Weg 2 :
Weg 3 :
durch alle Stationen (1-5)
Auslassen von 3.
direkt von 1. nach 5.
Nachweise:
Patient kann Wörter besser wiederholen als Kunstwörter. (Weg 3 defekt, Weg 2 möglich).
Patient kann Wörter wiederholen, erkennt aber deren Bedeutung nicht. (defekt in 3.)
Patient kann Wörter wiederholen, hat aber ansonsten fast keine sprachlichen Fähigkeiten. (nur Weg 3 intakt)
Deep Dyshasia
Patienten mit Deep Dyshasia zeigen häufige semantische Wortverwechslungen beim Wiederholen, aber nicht
beim Lesen. => Weg 3 defekt & Unterschiedliche Verarbeitung von Gehörtem und Gelesenem.
(Deep Dyslexis s.u.)
Grundlegende Lese Prozesse
Beim Lesen sind Prozesse zum Identifizieren eines Wortes, eines Satzes und eines Themas einer ganzen
Geschichte beteiligt.
Augenbewegungen
Fixieren (200-250ms) von Text wechselt sich ab mit schnellen Augenbewegungen (saccades). Es sind auch
Rückwärts Bewegungen enthalten (10-15 %).
Zwei Techniken, um die Menge des fixierten Textes zu Erfassen (foeva –Kapitel 4):
• Ein sich bewegendes Fenster unterschiedlicher Größe.
• Begrenzungstechnik mit sich ändernden Buchstaben im Sichtbereich => Wahrnehmungsgrenze
Daraus folgende Ergebnisse (relative unabhängig von Textkomplexität und Schriftgröße):
• 3-4 Buchstaben links von Fixpunkt
• 15 Buchstaben rechts (Asymmetrie erlernt: Hebräisch umgekehrt)
• Größe aber auch abhängig von Wortgrenzen
Aber auch Verarbeitung außerhalb des fixierten Bereichs: Weglassen des Außenbereichs erhöht die Fixierzeit.
Passender Kontext verkürzt die Fixierung, unpassender (Bsp.: Fischwettbewerb mit Bass Guitaristen) verlängert
sie.
Während der Augenbewegungen werden keine Informationen aufgenommen (Ein Blitz ist nicht störend).
Wort Erkennung
Basiert nicht auf simpler Bottom Up Auswertung: Word Superiority Effekt
Sehr kurz eine Buchstabenfolge, dann eine Muster-Maske mit Buchstabenfragmenten. VPn müssen entscheiden,
welcher von zwei Buchstaben an einer bestimmten Stelle gezeigt wurde. (Besser bei Wörtern als mit
unzusammenhängenden Buchstaben => Wort zum Teil vor einzelnem Buchstaben verarbeitet)
Interaktives Aktivierungs Modell von McClelland und Rummelhart:
• Drei Verarbeitungsebenen: Merkmalsebene, Buchstabenebene, Wortebene
• Wird ein Merkmal erkannt ( | | ) werden die entsprechenden Buchstaben (H, M, N) aktiviert und alle anderen
gehemmt.
36
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
•
•
Wird ein Buchstabe erkannt, werden die passenden Wörter aktiviert, alle anderen gehemmt.
Aktivierte Wörter aktivieren ihrerseits die passenden Buchstaben. (Top Down)
Connectionisten System (Kapitel 1).
Kritik: Häufige Wörter werden schneller erkannt => Erklärung durch stärkere Verbindungen.
Aber – Wort Superiority Effekt ist unabhängig, ob häufig oder selten gebrauchtes Wort.
Wege von Gedrucktem zur Aussprache
Es gibt viele Wege gedrucktes auszusprechen. Zwei krasse Formen:
• Sehen und Sagen (Identifikation ganzer Wörter: Erwachsene)
• Phonetische Methode (Buchstabe für Buchstabe: Kinder)
Genauere Untersuchungen dazu bei Gehirngeschädigten.
Neuropsychologie
Ähnlich wie bei akustischer Wortverarbeitung gibt es laut Ellis und Young drei verschiedene Verarbeitungswege
(Bild 9.3 S. 313). Jedoch sind die Ergebnisse nicht eindeutig und umstritten.
Weg 1: Visuelle Analyse => Graphologisch – Phonem Umwandlung => Phonem Ebene
Aussprache von unbekannten oder Nicht- Worten. Patient konnte 90% von regulären Wörtern korrekt
aussprechen, aber nur 40% von irregulären Wörtern. (=> Fehlen von Weg 1).
Weg 2: Normaler Weg von Erwachsenen Lesern. (Durch 5 Verarbeitungsprozesse).
Patienten mit Deep Dyslexis begehen oft semantische Fehler. (Lesen verwandte Wörter).
ð Weg 1 & Weg 3 nicht nutzbar + Fehler im semantischen System.
Weg 3: Eingabe und Ausgabe Lexika werden benutzt, aber nicht das semantische System.
Patientin konnte bekannte (reguläre und nicht reguläre) Wörter aussprechen, aber erkannte dabei nicht deren
Bedeutung.
Vortrag Verstehen und Gedächtnis
Das Verständnis von Text und seine Speicherung hat ebenso Bedeutung für das Verstehen von Gesprochenem.
Zugrundeliegenden Prozesse siehe letzter Abschnitt. Der Leser oder Zuhörer muß aber auch grammatikalische
und semantische Informationen verarbeiten.
Grammatik:
Unterschied zwischen „Der Man beißt den Hund“ und „Der Hund beißt den Mann“.
Semantik:
Bezug des Textes zu Informationen im Langzeit Gedächtnis.
Interessant ist die Frage inwieweit Text Erinnerung durch Prozesse während des Erinnerns, bzw. während des
Text Lesens beeinflußt wird.
Mehr als von einer seriellen geht man von einer komplexen Interaktion zwischen verschiedenen Prozessen aus
(McClelland: Interaktives Modell zur Sprachverarbeitung. Bottom Up & Top Down).
Grammatik
Chomsky unterschied zwischen Produktivität (Erzeugung aller Phrasen) und Regelhaftigkeit (Zurückweisen
fehlerhafter Phrasen).
Regel Verstöße:
Syntaktischer Verstoß: Die Jungen schlägt die Mädchen.
Semantischer Verstoß: Farblose grüne Einfälle schlafen vehement.
Phonologische Verstöße: Falsche Aussprache.
Die Sätze „Der Mann schrieb das Buch“ und „Das Buch wurde von dem Mann geschrieben“ haben verschiedene
Oberflächenstrukturen aber die gleiche Tiefenstruktur.
37
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kognitive Psychologen interessieren sich vor allem auch für Fehler, die während des Sprachgebrauchs begangen
werden. Chomsky´s Theorien über das abstrakte Wissen über Sprache hat in dieser Beziehung nicht viel zu
bieten.
Das Parsing (Erarbeiten der grammatikalischen Struktur) scheint Wort für Wort abzulaufen: Grammatik Brüche
in einem Satz verursachen an ihrer Stelle eine Lesepause: „Das Schiff transportierte ist teuer.“
Satzteile bilden eine Grenze beim Parsen: Satz gefolgt von Testwort (Ob im Satz) „Öl“:
1. Weil Künstler weniger arbeiten, sind Öl Gemälde rar.
2. Weil Künstler weniger in Öl arbeiten, sind Gemälde rar.
Öl wird nach erstem Satz schneller erkannt, da im zweiten (letzten) Satzteil. (noch im Verarbeitungsgedächtnis)
Sätze die einen bekannten Sachverhalt darstellen (semantischer Inhalt), werden schneller verstanden. (z.B. Ratte,
Katze, Hund).
Johnson- Laird: Gedächtnis Test ergaben eine extrem schlechte Erinnerung an die Syntax => fälschliche
Erinnerungen an Sätze mit der gleichen Tiefenstruktur. (Aber auch Nachweise von guter Syntax Erinnerung bei
persönlich wichtigen Aussagen)
Inferenzen
Inferenzen füllen Informationslücken im Text. (Kapitel 8)
1.
2.
3.
Maria hörte den Eismann kommen.
Sie erinnerte sich an die Geldbörse
Sie rannte ins Haus.
Impliziert z.B.: Maria will Eis kaufen. Eis kostet Geld. Die Geldbörse ist im Haus. Usw.
Thorndyke: Erkennungstest von Sätzen einer Geschichte.
Sätze der Geschichte wurden richtigerweise zu 85% erkannt.
Konsistente Inferenzen wurden fälschlicherweise zu 58% als vorgekommen erkannt.
Inkonstente Inferenzen mit 6%.
Manchmal füllen Inferenzen auch Lücken zwischen den Zeilen (Ironie, Sarkasmus, Untertreibung).
Manche Sätze implizieren nicht zwingend logische Inferenzen:
„Julia zwang Romeo, die Bank auszurauben“ impliziert logisch „Romeo raubte die Bank aus.“
„Der gefährliche Flüchtige konnte das Land verlassen“ impliziert pragmatisch „Der Flüchtige verließ das Land.“
Pragmatische Inferenzen werden während der Sprachverarbeitung und nicht während des Erinnerns erzeugt:
Wurde den VPs vor der Präsentation des Textabschnitts gesagt, daß ein Erinnerungstest folgen sollte, wurden
weniger Inferenzen erzeugt. Dies war nicht der Fall, wenn es ihnen erst vor dem Erinnern mitgeteilt wurde.
Schemata, Scripts und Frames
Definitionen (Kapitel 8!)
Schemata sind Wissensbündel über die Welt (Ereignisse, Personen, Handlungen).
Scripte beziehen sich auf Ereignisse und Ereignis Folgen (Restaurant).
Frames enthalten Eigenschaften von Objekten und Positionen (örtlich).
Daraus formt man Erwartungen.
Sprachverarbeitung
Schemata können die Sprachverarbeitung beeinflussen. Bartlett (Kapitel 8) war der erste Psychologe, der
Gedächtnisprozessen Schemata zugrunde legte. Er erzählte eine indianische Geschichte, die dann von
Engländern mit ihrem eigenen Kulturellen Hintergrund nacherzählt wurde (z.B. Boot statt Kanu).
Ein Problem von Bartlett: So wenig Instruktionen an die VPs, wie möglich, um sie nicht zu beeinflussen.
38
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Werden diese aber instruiert möglichst genau wiederzuerzählen, treten nur noch halb so viele Fehler auf.
Weiteres Problem: Störungen laut Bartlett nur beim Erinnern.
Schemata Einfluß bereits bei Sprachverarbeitung: Bransford und Johnson (Textauszug ohne erkennbaren
Kontext/Schema nur schwer lesbar – Kaum Erinnerung – Kontext war „Kleider waschen“).
Schema Einfluß beim Erinnern: Anderson und Pichert
Lesen eines Textes aus Sicht eines Einbrechers oder aus Sicht ein Hauskäufers. Danach Erinnern. Dann
Sichtwechsel. Dann Erinnern unter neuem Blickwinkel => unterschlagene Informationen traten zutage.
Es ist aber sehr schwer Schemata experimentell zu überprüfen, da man bei Widersprüchen immer vermuten
kann, daß das Schema sei nicht entwickelt oder das falsche von VP angewandt worden ist.
Geschichtsstruktur
Geschichten werden sehr selektiv zusammengefaßt. Es läßt sich meist nicht unterscheiden, ob von einer
Schriftlichen Vorlage oder aus der Erinnerung zusammengefaßt wurde. (Konzentration auf wichtige
Informationen)
Verarbeitung von Geschichten
Kintsch und van Dijk entwickelten eine Theorie, die zu den Phänomenen paßt, sich aber nur schwer nachweisen
läßt, da jede VPn andere Erfahrungen mit einbringt.
Aus dem Text werden Propositionen gebildet und im Kurzzeitgedächtnis abgelegt.
Eine Anzahl von Propositionen wird dann sinnvoll zusammengefaßt.
Die Länge der Zeit, die eine Proposition im Kurzzeitgedächtnis verweilt entscheidet über die Erinnerbarkeit
(Transfer ins Langzeitgedächtnis).
Experiment: Wird die Anzahl der Propositionen eines Satzes mit gleicher Wortzahl erhöht, erhöht sich die
Verarbeitungszeit pro zusätzlicher Proposition um ca. 1 Sekunde.
Zentrale Propositionen für das Verständnis werden im Kurzzeitgedächtnis gehalten => verweilen länger.
Lesen Lehren
Man vergleicht die Fähigkeiten von guten und schlechten Lesern, um die kritischen Fähigkeiten heraus zu filtern.
Wort Erkennung
Junge Kinder haben oft Schwierigkeiten mit der Worterkennung. Zwei Ansätze:
• Ganz Wort Strategie
• Buchstabe für Buchstabe
Buchstabe für Buchstabe liefert die besseren Ergebnisse.
Anhaltspunkt für die spätere Entwicklung gibt eher die Lese Geschwindigkeit, als die Korrektheit, da diese den
Automatisierungsprozeß anzeigt.
Erfolg in Korrektheit und Geschwindigkeit brachte es, häufige Wort – Untereinheiten zu trainieren.
Sprach Verarbeitung/Verständnis
Die Größe des Vokabulars ist für die Lesefähigkeit von entscheidender Bedeutung. Besser als das Erlernen von
Wortdefinitionen waren Verbesserungen der Ableitungsfähigkeiten für neue Wörter aus dem Kontext.
Kinder, die das Verständnis für das Hauptthema eines Textes trainierten, verbesserten ebenfalls stark ihr Text
Verständnis.
39
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 10 Sprach Produktion: Sprechen und Schreiben
Wir wissen mehr über das Sprechen als über das Schreiben, da es einen größeren Anteil an unserem Leben
einnimmt.
Sprechen
Nach Grice liegt der Schlüssel zu einer gelungenen Kommunikation zwischen Sprecher und Zuhörer im Cooperations Prinzip. Dieses folgt vier Maximen:
• Quantitätsmaxime: Sei so informativ wie erforderlich, aber nicht informativer wie nötig!
• Qualitätsmaxime: Sei wahrhaftig! (keine versteckte Ironie)
• Relevanzmaxime: Sage nur was wesentlich ist. (kein Abgleiten auf ein anderes Thema)
• Ausdrucksmaxime: Sei deutlich! (keinen nicht bekannten Kontext voraussetzen)
Prozesse der Sprach Produktion
Obwohl Sprechen uns mühelos erscheint, sind komplexe Verarbeitungsschritte nötig. Man versucht
herauszufinden, wie Sprechen abläuft, indem man die dabei auftretenden Fehler untersucht. Verschiedene
Klassen von Fehlern deuten auf verschiedene Verarbeitungsstufen hin.
Wir untersuchen zwei verwandte Ansätze auf ihre Erklärungsfähigkeit bei normalen zeitweisen Störungen und
permanente Störungen bei Gehirngeschädigten.
Garrett´s theoretischer Ansatz
Sprechen beinhaltet eine Folge von Verarbeitungsebenen und erfordert genaue Planung vor Beginn des
Sprechens. Vier Ebenen der Planung:
1. Nachrichten Ebene: Gesamt Bedeutung wird festgelegt.
2. Funktionale Ebene: Grammatikalische Struktur oder Syntax – Position von Subjekt und Objekt wird
festgelegt, aber keine spezifischen Wörter.
3. Positionierungs- Ebene: a) Es werden Grundformen gewählt (z.B. die Wörter „lieben“, „geliebt“ , usw.
werden durch „liebe“ repräsentiert). b) Die passende Beugung (Deklination/Konjugation) wird hinzugefügt
(„-n“, „ge- -t“).
4. Artikulations-/Phonetische Ebene: Umformung in Sprachmuster.
Der Prozeßablauf ähnelt dem der Sprachverarbeitung in umgekehrter Reihenfolge.
Liefert keine Erklärung für Feedback (Abstoppen und Neuformulieren eines fehlerhaften Satzes).
Dell´s Theorie Ansatz
Ähnelt sehr Garrett´s Ansatz. Vier Ebenen:
1. Semantische Ebene: Bedeutung des zu sagenden. (In Theorie nicht genau definiert)
2. Syntaktische Ebene: Grammatikalische Struktur.
3. Morphologische Ebene: Einsetzten von Bedeutungseinheiten.
4. Phonologische Ebene: Umsetzung in Phoneme.
• Die Planung findet in allen Ebenen parallel statt, wobei typischer Weise die höheren Ebene weiter sind.
Kategorische Regeln grenzen die aktivierbaren Konten auf jeder Ebene ein. Ein Lexikon in Form eines
Netzwerkes enthält Knoten zu Konzepten, Worten, Morphemen, Phonemen. Wird ein Konten aktiviert, aktiviert
er ebenfalls zusammenhängende Konten. Bis schließlich aufgrund von Einfüge Regeln der meist aktivierte Koten
ausgewählt wird (dabei Aktivierung auf Null gesetzt).
Fehler entstehen durch eine höhere Aktivierung eines nicht korrekten Knotens. Folgende Fehler werden von der
Theorie vorhergesagt:
• Fehler sollten der gleichen Kategorie angehören (Substantiv wird durch ein Substantiv ersetzt).
• Bei frühzeitiger Aktivierung: Vorgezogene Wörter (Die Luft ist in der Luft – Aber „Nullsetzten“?)
• Austausch Fehler: Vertauschen von Wörtern (Ich muß meinem Brief eine Frau schreiben.)
• Austausch Fehler nur in kurzen Abständen im Satz.
• Fehler auf Morphem Ebene nur bei Zusammensetzung zu neuen sinnvollen Wörtern.
40
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Dieses fehleranfällige System wird laut Dell benötigt, um flexible Leistungen, wie die Produktion von neuen
Sätzen, zu ermöglichen.
Fehler beim normalen Sprechen
Die Sammlung von Fehlern wird durch Forscher vorgenommen. Manche Fehler sind schwerer zu entdecken als
andere. Dadurch kann es zu tendenziösen Ergebnissen bei der Angabe von relativen Häufigkeiten von Fehlern
kommen.
Das „Auf der Zuge liegen“ Phänomen
Brown und McNeil: Lasen Wörterbuch Definitionen vor. Oft gaben die VPn an, das Wort zu kennen, aber nicht
sofort sagen zu können. Sie versuchten oft den Anfangsbuchstaben oder die Silbenzahl zu erraten, um sich zu
erinnern. (Rieten mit 57% den Anfangsbuchstaben korrekt.)
Zeigt die Existenz einer abstrakten Ebene unabhängig von der Benennung. Oft Zugriff auf Teile der Benennung.
Wort - Vertauschung Fehler
Auf funktionaler/syntaktischer Ebene oft Vertauschung Subjekt – Objekt.
Zeigt daß eine Vorverarbeitung (Planung) stattfindet.
Garrett fand, daß 85% der Vertauschungen in einem Satzteil (Klausel) stattfand.
Morpheme - Vertauschung Fehler
Die Grundbedeutungen werden vertauscht, die Beugung bleibt.
Bei Garrett auf Positionierungs- Ebene zwischen a)Grundbedeutung und b)Beugung
Bei Dell während der Errichtung der morphologischen Repräsentation durch falsche Aktivierung.
Spoonerismen
Vertauschen des Anfangsbuchstaben oder Buchstaben zwischen Wörtern. Spooner gab einige amüsante, aber
wohl konstruierte Beispiele.
Laut Garret traten 93% der Vertauschungen innerhalb eines Satzteiles auf. Positionierungs Ebene.
Bei Dell Vertauschungen während der Konstruktion der phonologischen Repräsentation.
Zögern und Pausen
Pausen treten besonders zwischen grammatikalischen Einheiten auf und ermöglichen dem Redner ein weitere
Planung. Sie werden manchmal mit Füllwörtern wie „ähm“ „öh“ ausgefüllt.
Pausen auch vor Korrekturen bei Vergaloppierenungen.
Sprech Fehler bei Patienten
Zum Teil unklare Ergebnisse. Diese sind mit den Theorien von Garret und Dell zwar konsistent, bilden aber
noch keinen klaren Nachweis.
Anomia
Viele der Patienten, die nicht normal sprechen können, leiden an Anomia. Diese bringt manchmal eine
semantische Störung mit sich, manchmal auch nicht.
Eine Patientin mit semantischer Störung konnte nur selten Objekte auf Bildern benennen, es sei denn man gab
ihr die Anfangsbuchstaben. Falsche Anfangsbuchstaben von verwandten Wörtern führten zu einer falschen
Benennung. Nicht verwandte wurden aber meist zurückgewiesen.
Ein anderer Patient hatte keine dieser Schwierigkeiten, hatte aber große Schwierigkeiten, bei einer
Bildbeschreibung, seine Grammatikalisch richtigen Strukturen mit den passenden Wörtern zu füllen. Oft vielen
ihm nur die Oberbegriffe ein, obwohl ihm die genauen bekannt waren. (Eine Dauer - Form des „auf der Zunge
Liegens“).
41
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Syntaktische Probleme:
Einige Patienten können keine normalen grammatischen Strukturen bilden und reden aber bedeutungsmäßig
zusammenhängende Wörter.
Schreiben
Schreiben ist komplex und mehrere Prozesse sind daran beteiligt.
Hayes und Flower unterschieden zwischen Planung, Satz Erzeugung und Überarbeiten. Erfahrene Schreiber
erzeugen komplexere Schreibpläne, die erzeugten Sätze sind länger und sie überarbeiten die gesamte Struktur
ihrer Texte. Die Untersuchungen durch Protokollanalyse erfassen jedoch nicht die unterbewußten Prozesse.
Neuropsychologen haben gezeigt, daß das Buchstabieren von Wörtern auf verschiedenen Wegen erfolgt. Ellis
und Young entwickelten (überarbeiteten) daraus ein Modell. Die Neuropsychologie sagt aber nicht über die
Planungs- und Überarbeitungsphase.
Theoretische Betrachtungen
Hayes und Flower überarbeiteten ihre Theorie, der Tatsache Rechnung tragend, daß Schreiben stark
zielgebunden ist (verständlich, überzeugend, interessant, lernbar):
•
•
•
•
Planung: Ideen Produktion und Organisation in Bezug auf das/die Ziele.
Satz Erzeugung: Schreiben von Sätzen
Überarbeiten: Speziell ( einzelne Wörter und Phrasen ) oder Allgemein ( Gesamt - Struktur )
Prozesse in dieser Reihenfolge, aber nicht nur strikt seriell.
Nachweise durch Protokoll Analyse: Tonbandmitschnitt (VPn dachten laut) und Studium aller Notizen.
Vergleich von geübten und ungeübten Schreibern.
Planung
Organisation des Wissens in Bezug auf die Ziele und Teilziele zu einem zusammenhängenden Schreib - Plan.
Gute Schriftsteller verändern während des Schreibens oft ihren ursprünglichen Plan. Sie Produzieren mehr Ziele
und verknüpfen diese stärker miteinander.
Satz Erzeugung
Der Aufsatz war ca. 8 mal länger als die Notizen. Vermutung: Textverarbeitung bildet Makrostrukturen aus
Mikrostrukturen, während Satz Erzeugung Mikrostrukturen aus Makrostrukturen erzeugt.
Überarbeitung
Geübte Schreiben verbringen mehr Zeit mit der Überarbeitung. Dabei Beachten sie eher die Gesamtstruktur, als
einzelne Wörter oder Phrasen – im Gegensatz zu ungeübten Schreibern. Dabei entdecken sie auch ca. 60% mehr
Probleme als diese. Beide Gruppen schrieben oft Abschnitte neu, ohne angeben zu können, was ihnen an dem
alten nicht gefiel.
Kritik
Keine Erfassung unbewußter Vorgänge. VPn können oft ihre Planungsvorgänge nicht richtig ausdrücken.
Einige Zweifel ob die drei Prozesse überhaupt in dieser Art trennbar sind.
Probleme mit Schreiben: Neuropsychologie
Innere Sprache
42
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Es gab Kontroversen, ob innere Sprache zum Schreiben notwendig ist, oder nur ein „optionales Extra“.
Neurologische Befunde deuten darauf hin, daß sie nicht unbedingt benötigt wird.
Der Patient EB verlor bei einem Schlaganfall die Fähigkeit zu Sprechen, hatte aber gutes Verständnis für
gesprochene und geschriebene Sprache. Ihm wurden ein Ziel und vier weitere Bilder gezeigt und er sollte
entscheiden, welcher Begriff der vier sich auf den des ersten reimte. Er konnte die Namen buchstabieren, aber
nicht korrekt entscheiden, welches sich reimte. => vermutlich keine innere Sprache.
Seine Fähigkeiten zu schreiben waren aber zum großen Teil intakt. Die Ergebnisse sind ungewöhnlich klar, die
meisten Patienten haben ein Schädigung in beiden Bereichen.
Es gibt eine Patientengruppe, die Wörter nicht korrekt aussprechen können (ähnliche Nicht-Wörter), aber
fehlerfrei Buchstabieren.
Wege zu Buchstabieren
Ellis und Young entwickelten ein Modell der verschiedene Verarbeitungsprozesse beim Buchstabieren.
(Bild 10.1 S. 355)
• Es gibt sehr viele verschiedene Signal-Wege in diesem Modell
• Bekannte Wörter gehen über das semantische System und/oder das Sprachausgabe Lexikon zum
graphemischen Lexikon. Beide Wege werden zur Fehlerreduktion normalerweise gleichzeitig benutzt.
• Unbekannte Wörter müssen die phonemisch - graphemische Umwandlung durchlaufen (nach allgemeinen
Regeln der Sprache). Fehleranfällig.
Nachweise:
Separates Sprachausgabe- und graphemisches Lexikon:
EB (s.o.) konnte gut schreiben aber nicht sprechen. Es gibt viel mehr Patienten, die schlecht schreiben und gut
sprechen können. Dies spricht für eine Trennung.
Semantisches System:
Patienten mit sogenannter „deep dysgraphics“: Patientin schrieb „Sonne“ wenn ihr „Himmel“ gesagt wurde.
Sprachausgabe Lexikon:
Häufig fälschliches Schreiben ähnliche klingender Wörter („DORT“ statt „DORF“). Aber selten sinnlos
(„DOLF“).
Phonemisch – graphemische Umwandlung:
Kinder benutzen diese oft bei noch unbekannten Wörtern => Fehlaussprachen.
Ein Patient mit gutem Sprachverständnis konnte über 90% von bekannten Wörtern korrekt aufschreiben. Für
Kunstwörter sank sie Fähigkeit diese plausibel aufzuschreiben auf unter 20%.
Vergleich von Sprechen und Schreiben
Neuropsychologen haben vor allem die Unterschiede zwischen den Prozessen untersucht (s.o.). Aber im
Anfangsstadium ähneln sich beide Prozesse sehr und werden erst mit zunehmender Verarbeitung differenzierter.
Das gleiche Wissen, die gleichen Planungsfähigkeiten (Sprachproduktion immer Satzteil für Satzteil) werden
benutzt.
Wir können wesentlich schneller Sprechen als Schreiben, sind aber selbst nach Training nur unwesentlich
schneller im Diktat als beim freien Schreiben.
Sprache und Denken
Es wurden verschiedene Hypothesen aufgestellt, in wie weit Sprache das Denken beeinflußt. Die schwächste
Form ist, daß sie das Gedächtnis beeinflußt. Hierzu gibt es widersprüchliche Ergebnisse zur Farb- Erinnerung:
• Zuni – Sprecher machten mehr Fehler bei der Farberinnerung bezüglich Gelb und Orange (kein getrenntes
Wort in Zuni).
• Heider führte jedoch aus, daß das Farbunterscheidungsvermögen für bestimmte Grundfarben in allen
Kulturen zumindest tendenziös Übereinstimmt. (Die Dani haben nur zwei Farbwerte hell/dunkel – können
aber gut die 11 Grundfarben unterscheiden/erinnern.)
Wie Denken unsere Sprache beeinflußt ist offensichtlicher. Oft unterscheidet das Umfeld über Begriffsbildung:
Eskimos haben viele Wörter für verschiedene Formen von Schnee, Araber viele Wörter rund um das Kamel.
43
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 11 Problemlösen mit Wissen
Einleitung
Viele Problemlöse Prozesse sind unbewußt und nicht per Introspektion/Retrospektion zugänglich.
Denken kann in verschiedenen Formen auftreten, wie ziellos oder stark zielgerichtet. Die meiste Forschung
beschäftigt sich mit zielgerichteten Prozessen.
Die Menge und Art des eingesetzten Wissens unterscheidet sich stark von Aufgabe zu Aufgabe.
Aufgaben mit viel Hintergrundwissen sind komplexer und vielleicht auch deshalb weniger erforscht worden.
Frühe Forschung: Die Gestalt Schule
Gestalt Untersuchungen zu Problemlösen bei Tieren
Frühe Assoziationisten/Behaviouristen bezeichneten Problem lösen als Versuch und Irrtum, sowie Wiederholen
von Gelerntem. Hungrige Katzen in einem Käfig lernen durch Versuch und Irrtum einen Hebelmechanismus zu
öffnen zu betätigen.
Die Gestaltpsychologen zeigten, daß Wahrnehmung mehr als Assoziation ist (Kapitel 2).
Nach ihnen benötigt man „Einsicht“ in die Problemstruktur und „Umstrukturierung“ um es zu lösen:
• Problemlösen produziert und reproduziert.
• Reproduktion ist Wiederanwendung von Erfahrung (– und kann hinderlich sein).
• Produktivität durch Umstrukturierung nach Einsicht.
• Einsicht kommt oft plötzlich.
Kohler: Affen erreichen Bananen außerhalb ihres Käfigs mit selbst zusammengesteckten Stöcken.
Nach Überlegung (Stille Phase nach gescheitertem Versuch-Irrtum) erfolgt Einsicht und Zielgerichtetes
Handeln.
Umstrukturierung, Einsicht, Funktionale Gebundenheit und Einstellungseffekte (Set).
Umstrukturierung und Einsicht
Meier`s „Zwei Seile“ oder „Pendel“ Problem: Zwei Seile hängen weit auseinander von der Decke und sollen
zusammengebunden werden. Verschiedene Gegenstände stehen zur Verfügung. Meist kommen VPn erst auf die
Pendel Lösung, wenn der Versuchsleiter „zufällig“ ein Seil streift und zum schwingen bringt.
Funktionale Gebundenheit
Das Kerzen Problem von Duncker: Eine Kerze soll an eine Wand befestigt werden. Es stehen zur Verfügung:
Kerze, Streichhölzer, eine Schachtel Reiszwecken. Nur wenige benutzten die Schachtel als Kerzenhalter, weil sie
zu sehr auf ihre normale Funktion „fixiert“ waren.
Ähnlich Pendel Experiment: Nur schwer die „Zweckentfremdung“ der Gegenstände zum Beschweren des Seils.
Bei der Aufgabe eine 3x3 Punkte Matrix, mit 4 graden Strichen ohne abzusetzten zu verbinden, schlägt oft Fehl
weil implizit angenommen wird, es könnten keine Linien außerhalb der Matrix gezogen werden.
Einstellungseffekte
Wir werden auf Grund von Erfahrung dazu verleitet, bestimmte Lösungen anderen vorzuziehen.
Wasserbehälter Experiment: Aufgabe z.B. Anfang 8/8 5/0 3/0, Ziel 8/4 5/4 3/0.
Werden zwei Gruppen trainiert, ein mit immer der gleichen Lösungsstrategie, dann erkennt diese bei zwei
Lösungsmöglichkeiten nur die trainierte, aber wesentlich kompliziertere Lösung.
44
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kritik
Einsicht und Umstrukturierung sind leicht verständlich, aber stark unterspezifiziert. Die Bedingungen unter
denen Einsicht auftritt sind unklar, ebenso bei Umstrukturierung.
Wichtig wahr aber die Zielgerichtete Verarbeitung, die von späteren Theorien aufgegriffen wird.
Newell und Simon´s Informations- Verarbeitungs- Theorie
Problemraum Theorie
Newell und Simon entwickelten mit der Problemraum Theorie das erste Computermodell über psychologische
Phänomene:
• Der Problemlöse–Prozeß kann durch eine Folge von Zuständen durch mentale Operatoren vom
Anfangszustand zum Endzustand beschrieben werden.
• Operatoren kodieren gültige Übergänge
• Es gibt eine große Anzahl von alternativen Wegen. Alle Zustände, die von Anfangszustand über gültige
Übergänge erreicht werden können, bilden den Problemraum.
• Man benutzt Erfahrung und verschiedene Heuristiken, um einen kurzen Weg zum Endzustand zu finden.
• Durch die Grenzen des kognitiven Systems ( begrenzter Arbeitsspeicher / Geschwindigkeit ) werden die
Suchmöglichkeiten eingeschränkt.
Daraus entstand der „General Problem Solver“ (G.P.S.).
Anwendungsbeispiel: Die Türme von Hanoi
Anfangszustand: Alle Scheiben auf der linken Stange.
End-(Ziel-)zustand: Alle Scheiben auf der rechten Stange.
Mentale Operatoren: Die oberste Scheibe kann auf eine andere Stange geschoben werden ( nur Kleinere auf
Größere ).
Unterschied:
Algorithmus:
Heuristik:
Sucht den gesamten Problemraum ab (jeden Zustand) und findet immer die Lösung.
Schränkt den Suchraum (sinnvoll) ein und findet nicht immer eine (optimale) Lösung.
Die meist angewandte Heuristik ist die Unterschiedsreduktion:
• Finde Unterschiede zwischen aktuellem Zustand und Endzustand.
• Erzeuge ein Teilziel, daß den Unterschied verringert.
• Wähle einen Operator der das Teilziel erreicht.
Ziel und Teilziel Strukturen beim Problemlösen
Teilziel- Strukturen können auf Grund von Erfahrung erstellt werden. Komplexe 5 und 6 Scheiben Varianten der
Türme von Hanoi Aufgabe werden von trainierten (mit 3) VPn besser gelöst.
Lernen von anderen Strategien
Ein komplexes Problem kann in einfachere Unterprobleme überführt werden. Beim lösen des 5 Scheiben
Problems werden Folgen von Zügen zusammengefaßt und erlernt. Dabei wird häufig eine SchleifenVermeidungs- Strategie verwendet.
Anfänglich benutzt man Aufgaben unabhängige Heuristiken und erlernt dann Aufgaben spezifische.
Isomorphe Probleme
Ähnliche Probleme (Teezeremonie, Monster/Globus) werden durch Übertragung - je nach Ähnlichkeitsgrad –
besser gelöst.
45
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Das Missionars und Kannibalen Rätsel
Drei Missionare und drei Kannibalen sollen mit einem Boot, das maximal zwei Personen faßt, über einen Fluß
gebracht werden. Dabei ist zu beachten, daß zu keinem Zeitpunkt mehr Kannibalen als Missionare auf einer
Seite sind.
Thomas untersuchte ein Variante (Hobbits und Orcs Bild 11.5 S.383). Zwei Übergänge benötigten besonders
lange und führten häufiger zu Fehlern:
Zustand 5: Schwer da es hier viele legale (5) Zugmöglichkeiten gibt.
Zustand 8: nötiger Zug keine Unterschiedsreduktion sondern Ähnlichkeitsreduktion. (dadurch oft Backtracking)
Wurde die Aufgabe ausgeweitet (5M-5K), so war die erste Strategie der VPs möglichst ein Gleichgewicht auf
beiden Seiten zu halten. Erst durch die Schleifenvermeidung gab es dann einen Wechsel zur
Unterschiedsreduktion Strategie. (benötigt: ca. 30 Züge obwohl in 11 lösbar)
Hilfe durch die Vorgabe eines Teilzieles (mit ungleicher Verteilung) verursachte einen frühen Strategiewechsel
(Lösung nach ca. 15 Zügen).
Problemraum Modelle zu Wasserkrug Problemen
Wasserkrug Problem s.o. ; dazu Untersuchungen mit unterschiedlichen Kruggrößen / Wassermengen von
Atwood et al.:
Einschränkungen der menschlichen Informationsverarbeitung:
• In der Planung schauen VPn meist nur einen Zug voraus.
• Züge werden nach Unterschiedsreduktion bewertet.
• Schleifen Vermeidung
• Beschränkung durch die Anzahl der Züge, die im Arbeits- Gedächtnis gespeichert werden.
• Begrenzung des Informationstransfers ins Langzeitgedächtnis
Wurde ein sichtbares Protokoll der bisherigen Züge geführt, benötigten VPn weniger Züge. Dies aber eher auf
Grund Vermeidung zurückführender Züge, als durch frei werdende Kapazitäten zur Vorausplanung.
Gut- und Schlecht- Definierte Probleme
Die Problemraum Theorie ist sehr erfolgreich bei der Erklärung rätselartiger Probleme, hat aber ihre Mängel bei
Problemen aus dem wirklichen Leben.
In Rätseln sind Anfangszustand, Endzustand und die möglichen Übergänge klar definiert und beanspruchen oft
nur kleine Mengen von Wissen.
Schlecht- Definierte Probleme benötigen oft Unmengen von Wissen und haben oft keine klar zu definierenden
Zustände.
Experten und Anfänger: Wissensintensives Problemlösen
Eine der Hauptmerkmale zwischen Gut- und Schlecht- Definierten Problemen ist die Menge an benötigtem
Wissen. Das unterschiedliche Wissen zeigt sich im unterschiedlichen Verhalten von Experten und Anfängern.
Die Fähigkeiten von Schachmeistern
Schach kann interessanter weise einfach durch einen Problemraum beschrieben werden, benötigt aber auch
große Mengen von Problem- Spezifischem Wissen.
Kombinatorische Explosion
Die Anzahl der Suchpfade steigt exponentiell. Auch viele schnelle Computerberechnungen garantieren keinen
Erfolg, Menschen können diese Methode ohnehin nicht nutzen.
DeGroot´s Schach Studien
Seine Studien verdichteten zunächst den Nebel. Er verglich die Züge von fünf Großmeistern und fünf sehr guten
Schachspielern, durch lautes Denken:
Die Großmeister betrachteten nicht mehr Zugvarianten und benötigten nur unerheblich weniger Zeit, aber die
gewählten Züge waren besser.
Beide Gruppen benutzen Tiefensuche ( nur ca. 4 Alternativen für den ersten Zug ) bis ca. 6 Züge.
46
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Der Unterschied zwischen Großmeistern und den Experten bestand im Wissen über Brettpositionen. Ihnen
wurde kurz ein Schachbrett gezeigt:
Schach Meister konnten die Positionen zu 91%, die Experten nur zu 41% rekonstruieren.
War die Aufstellung zufällig gewählt (ungewöhnlich) taten sich beide gleich schwer.
Chunking im Schach
Simon et al.: Erfahrene Spieler bilden bekannte Konstellationen von Figuren (Chunks). Die Chunks von
Großmeistern enthalten mehr Figuren.
Versuch: Rekonstruktion eines sichtbaren Bretts auf einem zweiten Brett. Anzahl der Figuren die bei einem
Blickwechsel positioniert werden => Größe des Chunks.
Simon entwickelte auch ein Computermodell. Größere Chunks => bessere Leistung bei Rekonstruktion.
Brettpositionen zu kennen ist nicht alles
Es existiert scheinbar auch spezielles heuristisches Wissen zur Zugbewertung.
Großmeister können sich bei zufälligen Brettpositionen zwar nicht besser erinnern, wählen aber die besseren
Züge.
Physik Experten
Typische Physikaufgabe: Block mit Masse m rutscht eine Schiefe Ebene der Länge l mit Winkel β und
Reibungswiderstand k herunter. Wie groß ist seine Endgeschwindigkeit?
Anfängern mangelt es am Schema, daß das Problem mit dem Prinzip verbindet.
Unterschiede zwischen Anfängern und Experten in der Physik
Anfänger und Experten sollten physikalische Aufgaben in Gruppen ordnen. Die Anfänger taten dies aufgrund
der oberflächlichen Merkmale, Experten nach zugrundeliegenden Gesetzmäßigkeiten ( Energieerhaltungssatz ).
Die Experten lösten die Aufgaben viermal schneller, verbrachten aber mehr Zeit mit der Anfangsanalyse.
Experten lösten die Aufgaben vorwärts (Formel mit Anfangswerten), die Anfänger rückwärts (Formel mit
Ergebniswerten).
Computermodelle von physikalischen Fähigkeiten
Lambert entwickelte ein Hybrid Modell aus Connectionisten und Produktionssysteme Modell. Das Gedächtnis
wird durch ein verteiltes System dargestellt.
Zunächst lernen der passenden Formeln durch Backtracking. Gelungene Lösungen führen zu
Aktivierungsverbindungen zwischen den gegebenen/gesuchten Parametern und den verwendeten Formeln.
Fähigkeiten bei Computer-Programmierung
Experten entwickeln Skript- ähnliche Pläne aus stereotypen Chunks aus Code. Programmierer planen auf einer
abstrakten Ebene.
Ein lückenhaftes Programm sollte ergänzt werden. Anfänger konnten nur die Hälfte der Lücken füllen, Experten
fast alles.
Wird ein Programm mit vertauschten Sequenzen gezeigt, werden diese beim Erinnern automatisch korrigiert
(Ähnlich wie bei Geschichten ).
Die Möglichkeit abstrakt zu planen kann auch von der Sprache abhängen. BASIC Programmierer taten die erst
nach einem Training (im Gegensatz zu PASCAL).
Wie man zum Experten wird - Anderson´s Theorie des Fähigkeiten Erwerbs
ACT* (Adaptive Control of Thought) besteht aus drei Verarbeitungskomponenten (Bild 11.6 S. 397):
• Dekaratives Gedächtnis:
Semantisches Netzwerk für Konzepte, bewußte Anwendung
• Prozeduales Gedächtnis:
Produktionssystem, automatische/unbewußte Anwendung
47
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
•
Arbeits- Gedächtnis:
Einhält aktuelle Informationen
Der Lernprozeß läuft auf drei Ebenen, der deklarativen, der prozedualen, und der Feinabstimmung (Tuning):
• Der Anfänger wendet auf der deklarativen Ebene zunächst Aufgaben unabhängige, schwache Strategien an
(z.B. Unterschiedsreduktion )
• Nach der erfolgreichen Lösung eines Problems werden daraus aufgabenspezifische Produktionen gebildet
(Prozeduale Ebene)
• Ein Lernmechanismus, der überflüssige Produktionen aus Produktionssequenzen entfernt.
• Feinabstimmung beim Wiederholen von Aufgaben: a) Stärkung der Aktivierungen bei erfolgreichen
Versuchen. b) Verallgemeinerung (Einsetzten von Variablen für „IF“ Parameter). c) Schwächung bei
Mißerfolg.
Analogien, Modelle und Einsicht neu betrachtet
Außer dem Anfänger/Experten Ansatz noch andere Erklärungsmodelle für Wissensnutzung beim Problemlösen.
Kreativität und analoge Probleme
Um neue unbekannte Aufgaben zu lösen und kreativ zu sein , werden oft zwei sehr unterschiedliche Bereiche
zusammengebracht. Ein Beispiel ist das Atommodell von Rutherford, entstanden aus einer Analogie mit dem
Sonnensystem (Bild 11.2 S. 400).
Problemlösen durch Analogien:
• Einige Aspekte der unterschiedlichen Bereiche werden zur Deckung gebracht. (Im Sonnensystem und im
Atom ziehen sich Dinge an)
• Einige Aspekte werden transferiert. (Drehung der Planeten um die Sonne)
• Nicht übertragbare Informationen werden weggelassen. (Leben auf der Erde)
Gick und Holyoak`s Analogie Versucht zu Duncker´s „Bestrahlungsproblem“:
• Bestrahlungsproblem: Doktor muß Tumor durch Strahlung zerstören, ohne gesundes Gewebe zu schädigen.
• Analoge Geschichte: General erobert eine Festung. Die Wege sind für große Truppenteile vermint. Er
schickt kleine Truppenteile gleichzeitig auf verschiedenen Wegen zur Festung.
Ohne Geschichte konnten nur 10%, mit 80% der VPs das Problem lösen. Wenn sie aber nicht angewiesen
wurden, die Geschichte zu nutzen, stellten viele die Analogie nicht her.
ð Kreativität ist selten, weil relevante, übertragbare Erfahrungen schwer erinnerbar sind.
Einsicht neu betrachtet
Versuche und Erklärungsmodelle aus dem Problemraum wirken sich auf die Arbeiten zur Gestalttheorie aus.
Neun Punkt Problem
Man stellte fest, daß auch mit dem Hinweis außerhalb der Gestalt zeichnen zu dürfen, nur 20% das Problem
lösen konnten. Es wurde vermutet, daß die Erklärungen durch „Einsicht“ und „Fixierung“ falsch seien und
vielmehr Problem spezifisches Wissen benötigt werde.
Einsicht und Umstrukturierung unter Problemraum Gesichtspunkten
Einsicht als Verständnis der Lösung neu interpretiert als: (Man erreicht einen Zustand, von dem aus der
Zielzustand „sichtbar“ ist).
Umstrukturierung neu interpretiert als Anpassung des Zustandes an mögliche Operatoren. (z.B. Zustand:
Kanarienvogel, IF Bedingung im Operator: Vogel).
Verschiedene Arten von Einsicht
Laut Steinberg vermischen Menschen drei Arten von Einsicht:
• Selektive Verschlüsselung: Unterscheidung von relevanten und nicht relevanten Fakten (Socken).
• Selektive Kombination: Kombination von vorher nicht zusammenhängenden Informationen (Gleiches Geld,
dann einer 10 Dollar mehr).
• Selektiver Vergleich: Analogie zu Informationen aus der Vergangenheit (Seelilien)
48
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Mentale Modelle der Welt
Menschen benutzen „naive Theorien“ oder „mentale Modelle“ um die Welt vereinfachend zu verstehen:
• Nicht vollständig, nicht stabil, zum Teil ad hoc.
• Simulieren das Verhalten eines physikalischen Systems
• Unwissenschaftlich; „abergläubische“ Sicht, um den mentalen Aufwand klein zu halten.
Gentner und Stevens charakterisieren mentale Modelle mit Propositionen, mehr ein theoretisches Konstrukt, als
ein spezielles Repräsentationsformat.
Nicht zu verwechseln mit mentalen Modellen (Johnson-Laird) aus Kapitel 7: analoge Repräsentation
Mentale Modelle von Heizungen
Zwei Modelle, die von VPn (auch vermischt) benutzt wurden:
• Feedback Modell: Ein Thermostat kontrolliert die Raumtemperatur
• Ventil Modell: Person als Regulator.
Beide sind technisch nicht korrekt. Das Ventil Modell veranlaßt zum öfteren Nachregulieren und ist
energiesparender.
Naive Bewegungsmodelle
Konsistente Modelle personenübergreifend, erstaunlich von der klassischen Physik abweichend.
Flugzeug läßt einen Ball fallen (Bild 11.7 S. 409 – 4 Modellklassen), nur 40% zeichnen eine Parabel nach vorne
– nicht immer unter dem Flugzeug endend.
Mentale Modell als Schemata
Streit um die Natur von Mentalen Modellen. Eine Möglichkeit:
Unterschied zu bisherigen Schemata und ihren Instanzen – allgemeines Schema für kausale Verbindungen, das
auf unbekannte kausale Zusammenhänge angewandt (Instanziiert wird).
Bewertung der Problemlösungs- Forschung
Ist Problemlösen Produktiv oder Reproduktiv?
Wir besitzen eine Reihe von allgemeinen Problemlöse Strategien, diese sind oft schwach
(Unteschiedsreduktion). Wir benutzen meist spezielles heuristisches Wissen (Schach), oft ist das Anwenden von
Analogien aus der Vergangenheit nicht trivial.
Relevanz für das tägliche Leben?
Die frühe Forschung beschäftigte sich nur mit wohldefinierten Problemen. Experten – Anfänger Untersuchen
haben zu anderen Lehrmethoden und Design von Computersprachen geführt. Mentale Modelle in
Alltagssituationen (Energiesparen beim Heizen). Aber bisher wurde nur ein sehr geringer Teil betrachtet.
Ist Wissen der Schlüssel?
Man kann, auch wenn meist eine Kombination genutzt wird, Problemlösemethoden nach dem eingesetzten
Wissen klassifizieren (Bild 11.8 S. 413):
• Wissensschwache (Unterschiedsreduktion)
• Relativ bekannte Probleme, aber ohne Lösungsschema (Divide&Conquer – allgemeine Lösungen)
• Auf gut bekannte Probleme werden spezielle Lösungsschemata angewandt
• Falls keine Lösungen bekannt sind, wird versucht anhand von Analogien, Lösungsstrategien zu übertragen
Sind Problemlöse Theorien zu Ausdrucksstark?
Die Methode und Formalismen der KI können fast jede Aufgabe modellieren, auch solche, die von Menschen
nicht durchführbar sind. Ziel ist es also die Theorien weiter einzuschränken, um die Natur der menschlichen
Verarbeitung besser nachzubilden.
49
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 12 Logisches Denken (Schlußfolgern)
und Entscheidungen fällen(Hypothesen prüfen)
Deduktives Schlußfolgern ist notwendig, ohne gäbe es keine Wissenschaft, Technologie, Kultur.
Entscheidungen fällen ist das Abwägen von Wahrscheinlichkeiten für Ereignisse oder deren Folgen.
Einführung
Die Unterteilung zwischen Schlußfolgern und Entscheiden betrifft mehr die Forschungsgruppen, als die
zugrundeliegenden Prozesse.
Deduktion und Induktion
Deduktiv folgert man was notwendigerweise folgt (keine neue semantische Information). Induktives Folgern
verallgemeinert und interpretiert die Prämissen (neue semantische Informationen können hinzukommen).
Gültige und ungültige Folgerungen (Bild 12.2 S. 423 - Fehler)
Gültig
Modus Ponens
Modus Tollens
Ungültig
Bestätigung der
Konsequenz
Ablehnung der Ursache
P => Q , P
Dann: Q
P => Q, not Q
Dann: not P
P => Q, Q
Dann: P
P => Q, not P
Dann: not Q
Wird meist korrekt und schnell
angewandt
Wird häufig falsch/nicht erkannt.
Über 50% der VPs wenden
fälschlich diese an.
Theorie der abstrakten Regeln von propositionalem Schlußfolgern
Falsche Schlüsse werden auf Grund von Mißinterpretation/Mißverstehen der Aufgabe gezogen. Nach dem
anfänglichen Mißverständnis ist das Folgern logisch.
Braine´s Theorie der natürlichen Deduktion
•
•
•
•
•
•
•
•
Die Prämissen werden in abstrakte Schemata/Regeln codiert.
Die elementaren Schemata (z.B. Modus ponens) erzeugen gültige Schlußfolgerungen.
Strategien koordinieren die Folgerungen.
Ist die Folgerung nicht erfolgreich, wird ein Satz von quasi-logischen Regeln angewandt
(Vorurteile/Neigung).
Drei Arten von Fehlern:
Verständnisfehler: Prämissen oder Folgerungen werden mißverstanden.
Unpassende Heuristik: die Strategien sind unzureichend: Problem zu schwer.
Verarbeitungs Fehler: Unaufmerksamkeit, Verpassen der relevanten Information.
Gültige Folgerungen mit abstrakten Regeln
Danach sind Menschen natürliche Logiker mit einigen Mängeln im Grenzbereich.
Wenn ich hungrig bin, gehe ich spazieren
Wenn ich spazieren gehe, fühle ich mich besser.
Ich bin hunrig.
If P then Q
If Q then R
P
Menschen folgern beim Modus Ponens so leicht, weil sie eine „eingebaute“ Regel besitzen, beim Modus Tollens
hingegen nicht (dieser muß aus mehreren zusammengesetzt werden).
Erklärungen der Fehler mit Hilfe von abstrakten Regeln
Ablehnung der Ursache ( ¬P => Q, ¬P : ¬Q ): Die Prämisse wird interpretiert als ¬P => ¬Q.
50
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Bestätigung der Konsequenz (P => Q, Q : P): Prämisse als Q => P.
Diese Änderungen basieren aus Erfahrungen. Co-operations Prinzip: Menschen erzählen nur, was der andere
wissen muß. So impliziert „Wenn es regnet, wird sie naß“ meist auch den umgekehrten Fall.
Der Ansatz mit abstrakten Regeln ist elegant auf Grund der präzisen, begrenzten Regeln (16 s.u.).
Weitere Nachweise beim propositionalen Schlußfolgern
Brain fand in Versuchen 16 Schemata (wie Modus Ponens), die im wesentlichen fehlerfreie Schlüsse
erzielten. Die Schwierigkeit von daraus zusammengesetzten komplexeren Folgerungen war
additiv zu den Einzelschwierigkeiten.
Einige Forscher untersuchten das Entstehen von Fehlinterpretationen (Gesprächsbasis). Werden z.B. mehrere
Ursachen im Kontext angeboten, wird die „Bestätigung der Konsequenz“ als falscher Schluß erkannt:
Wenn es regnet, wird sie naß.
Wenn es schneit, wird sie naß.
Sie ist naß.
Was folgt?
If P then Q
If R then Q
Q
???
Bewertung der Theorie
Die Eleganz wird bezahlt mit einer ungenauen Spezifikation des Interpretationsprozesses.
Der Nachweis für die Unterdrückung der Fehlinterpretation bei zusätzlicher Information ist fraglich. Zusätzliche
Information kann sogar gültige Folgerungen unterdrücken:
Wenn sie einen Aufsatz schreibt, bleibt sie bis spät in der Bibliothek.
If P then Q
Wenn die Bibliothek lange geöffnet hat, bleibt sie bis spät in der Bibliothek. If R then Q
Sie schreibt einen Aufsatz.
P
Also ?
???
Die Theorie ist nicht generell und nicht gut auf andere Aufgaben übertragbar (s.u.).
Theorie der Konkreten Regeln bei Wason´s Auswahlaufgabe
Die Leistungen im logischen Denken werden von der Art des Materials beeinflußt (abstrakt oder konkret). Die
Theorie der abstrakten Regeln sagt keine Unterschiede voraus. Die Folgerung daraus war, daß Menschen eher
konkrete als abstrakte Regeln verwenden.
Wasons´s Auswahlaufgabe
Die Aufgabe
Vier Karten mit Buchstaben auf der einen und Nummern auf der anderen Seite. Folgende Regel sollte getestet
werden, indem man möglichst wenig Karten herumdreht:
„Wenn ein Vokal auf der einen Seite, dann ist eine gerade Nummer auf der anderen.“
E
K
4
7
Die Korrekte Lösung ( E und 7 – modus tollens) wurde nur von 17% angegeben. 47% favorisierten E und 4.
Eine konkrete Aufgabe (mit Briefen) führte zu wesentlich besseren Ergebnissen.
Entwicklung der Erklärungen für diese Aufgabe
Anfangs glaubte man die VPn würden eher versuchen, die Regel zu bestätigen als sie zu widerlegen. Ein anderer
Ansatz erklärte, die VPn würden einfach nur die Symbole, die in der Regel vorkommen, untersuchen. (B=>¬3,
Es wurden korrekter weise das B und die 3 umgedreht)
„Wenn ein Brief versiegelt ist, dann muß er mit 50cent frankiert sein.“ (Bild 12.1 S.432)
Hier waren 22 von 24 erfolgreich, indem sie den versiegelten und den mit 40cent frankierten Umschlag drehten.
51
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Man fand aber auch, daß bei anderem konkreten Material dieser Effekt nicht auftrat. Daraus folgerte man,
Menschen müßten spezielle Erfahrungen (Instanzen bei denen die Regel nicht der Fall war) mitbringen.
Dieses wurde allerdings durch Versuche in Frage gestellt, bei denen die Aufgaben nicht im Erfahrungsbereich
lagen, die Ergebnisse aber trotzdem meist korrekt. („Ist ein Einkauf höher als 30$, dann muß der Manager die
Quittung unterschreiben.“ – Eine mit 15$, eine mit 45$, eine unterschriebene, eine nicht unterschriebene)
Um diesem zu begegnen, teilte man konkrete Regeln Klassen von Situationen (Schemata) zu. (s.u.)
Pragmatische Denk Schemata
Cheng und Holyak:
• Konkrete Regeln gehören zu bestimmten Klassen von Situationen.
• Zwei Arten von Regeln:
• Erlaubnisschemata: „Wenn jemand X tun möchte, dann muß die Bedingung Y erfüllt sein.“
• Verpflichtungsschemata: „Falls Situation A eintritt, dann muß C getan werden.“
• Fehler: a) Situation paßt zu keinem Schema b) Die Regeln in Schemata sind nicht immer mit propositionaler
Logik konform.
Nachweise für pragmatische Schemata
Manipulation der konkreten Erfahrungen (Hongkong – Erfahrung mit Briefbeispiel, Michigan nicht).
Flughafen Beispiel (beide keine konkrete Erfahrung):
„Steht auf der einen Seite des Formulars „Eingang“, dann steht auf der anderen Cholera in der Liste der
Krankheiten.“
Weitere Manipulation durch eine (nicht) gegebene Begründung für die Regeln. Mit Begründung waren die
Leistungen im allgemeinen wesentlich besser. (Bild 12.2 S. 437 )
Sie führten auch Trainingsstudien durch, wobei das Üben von Standardlogik nicht so erfolgreich war, wie das
Üben von Regeln, die zu pragmatischen Schemata gehören.
Theorie Probleme der Konkreten Regeln
Nicht vollständig in seinen Vorhersagen. Nichts über Schlußfolgern mit anderen logischen Konstrukten (AND,
OR).
Wenig über Verarbeitungsgrenzen.
Es ist nicht klar, wie Umgangssprache in passende Regeln geformt wird und ist somit frei für Interpretationen.
Modell Theorie für Syllogismen
Die Prämissen-/Konklusion- Umschreibungsverfahren der bisherigen Theorien können einige Phänomene nicht
erklären. Wenn wir eine Geschichte lesen, fügen wir Informationen aus unserem allgemeinen Wissen hinzu.
Ein Bär geht von seinem Haus 5 Meilen nach Süden, 3 Meilen nach Osten und 5 Meilen nach Norden. (Hinweis:
der Bär ist weiß)
Wir können das Modell der Situation (Flache Ebene > Gebogene Hemisphäre) verändern. Im Vergleich zu z.B.
Venn Diagrammen haben die mentalen Modelle nach Johnson-Laird ein allgemeineres Format. (Gleiche Struktur
wie die dargestellten Situationen.
Ein Modell wird aus einer Anzahl von Prämissen gebildet:
- Die Lampe ist rechts vom Schreibblock.
- Das Buch ist links vom Schreibblock.
- Die Uhr ist vor dem Buch.
- Die Vase ist vor der Lampe.
Modell:
Buch
Uhr
52
Schreibblock
Lampe
Vase
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
-
Lampe und Buch beide links vom Schreibblock.
Modell nicht eindeutig:
Buch Lampe Schreibblock
Uhr
Vase
oder
Lampe Schreibblock
Vase
Uhr
Buch
Die Schlußfolgerung „Uhr links von der Vase“ gilt nur für das erste Modell – nicht allgemein.
Soweit zu räumlichen Folgerungen.
Die Modell Theorie
•
•
•
•
•
Deduktives Denken mit drei Ebenen
Verständnis der Prämissen: Bilden von analogen Modellen.
Schlußfolgern: Folgerungen durch Auswertung der Modelle.
Überarbeitung: Suche nach alternativen Modellen, um Folgerungen zu wiederlegen.
Fehler entstehen auf Grund begrenzten Arbeitsgedächtnisses, je mehr Modelle gebildet werden müssen,
desto schwerer die Überarbeitung.
Syllogistisches Denken
Natur von Syllogismen
Syllogismen bestehen aus zwei Prämissen und einer Folgerung. Die meisten Experimente benutzen Aristoteles
kategorische Syllogismen:
Alle Tiere sind sterblich
Alle Menschen sind Tiere
Also sind alle Menschen sterblich.
Alle B sind A
Alle C sind B
Also sind alle C auch A
Es gibt Quantoren (Alle, Einige, Keine, Einige sind nicht...) und Verschiedene Anordnungen:
A-B
B-A
A-B
B-A
B-C
C-B
C-B
B-C
Die Anzahl der Syllogismen ist sehr groß und nur ein Teil ist korrekt. Viele werden aber Fälschlicher Weise
akzeptiert:
Einige B sind A.
Einige C sind B.
Also sind einige C auch A. (Falsch, aber oft akzeptiert.)
Vorhergehende Erklärungen
„Atmosphären Effekt“:
• Eine Negative Prämisse erzeugt eine negative Atmosphäre.
• Eine Teilmengen Prämisse führt zu einer Teilmengen (Einige) Atmosphäre
• Der Effekt ist stärker bei gültigen Folgerungen.
Dagegen spricht insbesondere, daß oft erwidert wird, daß nichts folgt:
Einige B sind A
Keine C sind B
_
Einige A sind nicht C
Nur 10% bestätigen diese korrekte Folgerung, 60% behaupten, es folge nichts.
Eine Alternative behauptet die Prämissen würden fehlgedeutet. „Alle As sind Bs“ als „Alle Bs sind As“, sowie
„Einige As sind keine Bs“ als „Einige Bs sind keine As“. Dies beschreibt jedoch mehr die Phänomene anstatt sie
zu erklären. (Warum Fehldeutungen?)
53
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Modell Theorie zu Syllogistischem Denken
Drei Stufen Verarbeitung (s.o.)
Modelle aus Prämissen bilden
(1) Einige Artisten sind Bienenzüchter.
Modelle:
Artist =
0Artist
Bienenzüchter
0Bienenzüchter
oder
Artist =
Artist =
0Artist
Bienenzüchter
Bienenzüchter
0Bienenzüchter
0Artist bedeutet: Es kann einen Artisten geben, der kein Bienenzüchter ist (optional). Einige kann auch alles
heißen (Kann ich einige Gummibärchen haben? Ja! => erlaubt alle zu essen. J )
(2) Alle Bienenzüchter sind Chemiker.
Hat eigenes Modell und kann mit (1) zu folgendem Modell kombiniert werden:
Artist =
0Artist
Bienenzüchter =
0Bienenzüchter =
Chemiker
Chemiker
0Chemiker
Schlußfolgerungen aus dem Modell ziehen
Die Folgerung:
(3) Einige Artisten sind Chemiker
ist mit dem Modell konform.
Suchen nach alternativen Modellen
In obigem Beispiel keine Alternative. Anderes Beispiel:
(1) Alle Artisten sind Bienenzüchter.
(2) Einige Bienenzüchter sind Chemiker.
Es gibt ein Modell mit „Einige Artisten sind Chemiker“ aber ebenso eins, bei dem dies nicht der Fall ist.
Nachweise für die Modell Theorie
Fehler können auf allen drei Stufen auftreten – hier Konzentration auf die dritte (Suche nach alternativen
Modellen).
Verschiedene Aufgaben benötigen eine unterschiedliche Anzahl an Modelle. Auf Grund des begrenzten
Arbeitsgedächtnisses sind viele Modelle schwerer zu handhaben. Es wurde nachgewiesen, daß viele Fehler auf
Grund eines damit konsisten Modell und Vernachlässigung eines widersprechenden Modells entstehen.
Bewertung der Modell Theorie
Nach Johnson-Laird ist die Modell Theorie zentral für ein breites Spektrum an psychologischen Phänomenen.
Die Theorie wurde auf dem Computer umgesetzt und ist somit gut spezifiziert.
Kritik von Seiten der Abstrakten Regeln Psychologen, daß die Theorie auf einer höheren Ebene mit ihrer
identisch sei.
54
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Die Theorie wurde auch für Propositionales Folgern umgesetzt („Wenn es einen Kreis gibt, gibt es ein Dreieck“)
in Form von Wahrheitstabellen:
0
¬0
¬0
∆
∆
¬∆
Oft verkürzt dargestellt: [0] ∆; dies führt zu Fehlern (modus tollens)
Die Theorie sagt aber bisher nicht viel darüber, wie allgemeines Wissen die Aufgaben beeinflußt.
Vergleich der Forschungen zu logischem Denken
Sind wir Rational?
Nach der Abstrakten Regel und der Modell Theorie sind Menschen im Prinzip rational. Ein reiner Konkrete
Regeln Anhänger hat ein unrationale Sicht vom menschlichen Denken, alles basiert auf Erfahrungen.
Abschätzen der Theorien
Die Theorie der konkreten Regeln ist unpräzise und nur auf wenige Phänomene angewandt worden.
Die Theorie der Abstrakten Regel ist präzise und viele Vorhersagen wurden bestätigt. Sie beschäftigte sich
hauptsächlich mit propositionalem Schließen, für die Auswahlaufgabe liefert sie jedoch keine Erklärung.
Die Modell Theorie wurde auf das breiteste Spektrum (Syllogismen, Propositionen, räumliche Folgerungen und
auch auf die Auswahlaufgabe) angewandt. Johnson-Laird und Byrne untersuchten in letzter Zeit, daß abstrakte
Regeln nicht konsistent mit einigen ihrer Untersuchungen sind.
Entscheidungen Fällen ( Hypothesenprüfung )
Normative Theorien
Die Forschung hat sich hauptsächlich mit statistischem Urteilen beschäftigt. Die Zugrundeliegenden
Wissenschaften der Stochastik und der Statistik zeigen, wie Menschen idealer weise korrekt urteilen sollten, was
sie natürlich mal wieder nicht tun. Also untersucht man die Abweichungen.
Abweichungen bei statistischen Bewertungen
Bayes´sches Theorem
Bedingte Wahrscheinlichkeit:
P( H / E ) =
P( E / H ) × P( H )
P( E / H ) × P( H ) + P( E / H ) × P( H )
Die A-Posteriori-Wahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit eine Hypothese zutrifft, nachdem
Evidenz für ein Ereignis E vorliegt.
Edwards: Zwei Beutel mit 100 Spielchips.
In einem 70 rote und 30 blaue. Im anderen 30 rote und 70 blaue.
P(H) := Der gewählte Sack hat 70 rote Chips, P(E/H) := Es wird ein roter Chip gezogen.
P( H ) = 0,5
P( H ) = 0,5
P( E / H ) = 0.7
P( E / H ) = 0.3
55
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Daraus ergibt sich eine Posteriori Wahrscheinlichkeit für den roten Sack von 0,7. Menschen schätzen typischer
weise viel konservativer (0.6).
Ignorieren der A-Priori Wahrscheinlichkeiten
Taxiunfall mit Fahrerflucht vor Gericht:
(a) 85% der Taxis in der Stadt sind grün und 15% blau
(b) Ein Zeuge identifiziert das Taxi als blau.
(c) Die Fähigkeit des Zeugen wird unter gleichen Sichtverhältnissen getestet. Er erkennt mit 80% die Farbe des
Wagens, in 20% nicht.
Nach Bayes ergibt sich eine Wahrscheinlichkeit für ein tatsächlich blaues Taxi von 41%., VPn tendieren aber
daraufhin mit 80% Wahrscheinlichkeit anzunehmen, daß das Taxi blau war.
Wird der kausale Zusammenhang klarer herausgestellt, werden 60% angenommen:
(a) Beide Gesellschaften sind gleich groß, aber bei 85% der Unfälle sind die grünen verwickelt, nur 15% die
blauen.
Verfügbarkeits- Heuristiken
Bei Beurteilungen von Wahrscheinlichkeiten/Anteilen greift man häufig auf bekannte Instanzen zurück.
(Herzinfarkt Risiko bei Mittelalten Personen : Vergleich mit eigenem Bekanntenkreis).
Aufgabe: Gibt es im Englischen mehr Wörter mit „r“ am Anfang oder als dritten Buchstaben?
Die meisten tippen auf den Anfang, obwohl das Gegenteil der Fall ist.
Repräsentative Heuristik
Urteil, ob ein Objekt oder ein Ereignis zu einer bestimmten Klasse gehören:
„... sehr zurückhaltend, gleichbleibend hilfsbereit, wenig Interesse an der realen Welt, Sinn für Ordnung ...“
ein Farmer, Pilot, Doktor oder Bibliothekar. Die größte Wahrscheinlichkeit wurde dem Bibliothekar gegeben.
Hierbei sind Ähnlichkeiten zu Stereotypen entscheidend (siehe auch Konzepte Kapitel 8).
Beurteilung der Hypothesenprüfung
Entscheidungen über Wahrscheinlichkeiten von zukünftigen Ereignissen sind wichtig und oft nicht korrekt.
Die Theorie muß noch besser spezifiziert werden, die erwähnten Heuristiken sind ungenau.
56
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Kapitel 13 Kognition, Emotion und Klinische Psychologie
Mit dem Informationsverarbeitung Ansatz von Broadbent dominiert durch die Computermetapher (Kodieren,
Speichern, abrufen) wurde die Beziehung zwischen Kognition und Emotion vernachlässigt. Die meisten
Untersuchungen bemühen sich die emotionalen Faktoren konstant zu halten (damit sich vernachlässigt werden
können).
Einführung
Es wurden Unterschiede der Kognitiven Verarbeitung zwischen Patienten mit Stimmungsstörungen
(Beklemmungen, Phobien, Depressionen) und gesunden Menschen festgestellt.
Benötigt ein Affekt Kognition ?
Ein Reiz führt mit systematischer Abhängigkeit zu einer Affekt-Reaktion. Muß der Reiz dafür kognitiv
verarbeitet werden? „Können reine Sinnesreizungen direkte emotionale Reaktionen hervorrufen?“
Zajonc’s Theoretische Position
Hat emotionale Reaktionen auf unterschwellige Wahrnehmung nachgewiesen.
Lazarus’s Theoretische Position
Zeigte Angsteinflößende Filme (Beschneidungsritual, Arbeitsunfälle). Die kognitive Einschätzung wurde durch
verschiedene Soundtracks beeinflußt. Die Vorstellung es handle sich um Schauspieler, oder man sei
Anthropologe (Beschneidungsritual) führten zu einer erheblichen Streßreduzierung.
Jeder Affektiven Reaktion soll somit Kognitive Einschätzung vorausgehen.
Zusammenfassung
Zajonc wies nach, daß affektive Reaktionen ohne bewußte Kognitive Prozesse auftreten können. Auch Lazarus
bestritt nicht diese Möglichkeit. Kognition und Emotion beeinflussen sich gegenseitig.
Allgemein kann man aber davon ausgehen, daß Kognitive Prozesse der Emotion vorausgehen, auch wenn dies
nicht immer der Fall ist.
Emotion, Lernen und Gedächtnis
Zusammenfassung
Verschiedene Ansätze zum Zusammenhang zwischen Emotion und Gedächtnis:
Sigmund Freud vermutete, daß Angst erzeugende oder traumatische Erinnerungen nicht ins Bewußtsein
gelangen können (Verdrängung). Labor Studien haben aber keinen Nachweis für Verdrängung ergeben.
Es gibt aber Nachweise für ein verwandtes Phänomen, den Wahrnehmungsschutz: Bedrohliche Reize sind
schwerer Wahrzunehmen als neutrale.
Grodon Brower entwickelte ein Theorie auf Basis eines semantischen Netzwerkes für Emotion und Gedächtnis.
(Bild 13.1 S.471) Emotionen sind Knoten im Semantischen Netz. Die Stimmung in der man sich befindet
beeinflußt die Prozesse des Lernens und des Erinnerns.
Danach folgt: Personen in positiver Stimmung erinnern positiv emotionale Fakten besser. Lernen ist am besten,
wenn das Material die gleiche Stimmung ausstrahlt. Forschungen stützten dies.
Trotzdem versucht man negative Stimmungszustände zu vermeiden, in denen man lernen und erinnern von
negativen Informationen erleichtert. ( Darauf verwandte Brower zu wenig Aufmerksamkeit )
Untersuchungen haben gezeigt, daß Patienten mit Depressionen eine Tendenz zu negativen Erinnerungen haben,
Angst Patienten jedoch nicht. Diese Machen es sich eher eine bewußte Vermeidung von negativen Informationen
zu eigen.
57
Lernvorlage Eysenck und Kean "Cognitive Psychology - A Stundents Handbook"
Stimmungsstörungen, Wahrnehmung und Aufmerksamkeit
Zusammenfassung
Ängstliche unterscheiden sich von nicht ängstlichen Individuen bei vielen Arten von Aufmerksamkeit. Sie
achten stärker auf bedrohliche Reize, sind schneller beunruhigt, haben eine größere Selektivität und begrenztere
Kapazität an Aufmerksamkeit. Diese Unterschiede entstehen, da sie in aktivem Austausch mit der Umgebung
stehen, auf der Suche nach Gefahrenanzeichen.
Depressive Individuen werden nicht sehr stark durch die Reizinhalte beeinflußt, sind nicht so leicht zu
beunruhigen und zeigen keine selektive Aufmerksamkeit. Sie verhalten sich zu ihrer Umgebung eher passiv und
konzentrieren ihre Aufmerksamkeit auf innere Angelegenheiten.
Kognitive Stimmungsstörungen: Kausale Zusammenhänge
Zusammenfassung
Die Unterschiede in der kognitiven Verarbeitung zwischen Stimmungsgestörten Patienten und normalen
Kontrollgruppen lassen keinen Schluß auf die kausalen Zusammenhänge zu. Die veränderte kognitive
Verarbeitung kann die Stimmungsstörungen hervorrufen (dann gäbe es einen kognitiven Verletzlichkeits-Faktor)
oder aber die Stimmungsstörung selbst veranlaßt die veränderte kognitive Verarbeitung.
Einige Klarheit hierüber können Untersuchungen an geheilten Patienten bringen: Bedrohliche Wörter werden
von Angstpatienten besser im impliziten Gedächtnis gespeichert, beim expliziten kein Unterschied. Geheilte
Patienten lagen im impliziten Test dazwischen ( Wort Vervollständigung – Indiz für Verletzlichkeits-Faktor ).
Bei depressiven Patienten gibt es bisher nur sehr geringe Anzeichen für einen depressionsanfällig machenden
Faktor.
58
Herunterladen