Vordiplom Allgemeine 1

Werbung
VL 2 Basale Prozesse der visuellen Wahrnehmung
Erklären Sie das Phänomen der „lateralen Inhibition“ anhand des HermannGitters
Visuelle Rezeptoren feuern propotional zur Intensität des Lichtes, dass sie erreicht,
intensiveres Licht führt zu mehr Entladungen. Dabei hemmen sich die Rezeptoren
wechselseitig; diese sich lateral ausbreitende Hemmung nennt man „laterale
Inhibition“.
Im Hermann-Gitter erscheinen nun die Kreuzungspunkte dunkler, diese grauen
Stellen sind eine optische Illusion.
Zeichnung: vier Blocks, A in der Mitte, von B-E eingeschlossen
Rezeptor A liegt hier im Kreuzungspunkt des Gitters. Jeder Rezeptor ist mit einer
Bipolarzelle verbunden. Die benachbarten Rezeptoren von A erhalten aus ihrer
Umgebung wenig Hemmung und hemmen A stark, sodass A am Schwächsten feuert.
Dort sieht man die „graue Stelle“.
Zeichnung: A liegt zwischen 2 Blocks, von B-E eingeschlossen, aber am äußeren
Blockrand
Hier liegt der Rezeptor A in einem weißen Streifen des Gitters.Zwei benachbarte
Rezeptoren liegen allerdings auf den schwarzen Flächen und nehmen nur sehr
geringe Helligkeit auf; sie hemmen kaum, da sie geringe laterale Inhibition auf
Bipolarzelle B senden. A wird hier weniger gehemmt und die Korridore des Gitters
scheinen weißer.
Die Stärke der Reaktion der bipolaren Zellen hängt also davon ab, wie stark die
Signale sind, die von den Rezeptoren kommen und wie stark die Signale sind, die
lateral hemmenden Signale sind. Die Stärke der Zellen A und A´ sind hier
unterschciedlich groß, deswegen nehmen wir graue Punkte als Phänomen wahr.
Skizzieren Sie die Funktion der dorsalen/parietalen Bahn und der
ventalen/temporalen Bahn und zeigen Sie ein Experiment, dass diese Trennung
nachweist (nicht Einzelfall D.F.)
Die Parietalbahn ist die „Wo“-Bahn bzw. die „Wie“-Bahn und hilft bei der
Objektlokalisierung. Ihr Weg geht von der Retina (M-Ganglienzellen) zum CGL
(magnozelluläre Schichten) zum Cortex (visuelle Areale) zum mediotemp. Cortex
zum parietalen Cortex. Sie beinhaltet den magnozellulären Pfad, zuständig für
Bewegung.Der Input kommt hauptsächlich durch Stäbchen.
Die temporale Bahn ist die „Was“-Bahn zur Objekterkennung. Sie verläuft von den PGanglienzellen der Retina zum CGL (parozelluläre Schichten) zum vis. Cortex zum
inferotemp. Cortex. Sie ist zuständig für Farbwahrnehmung, Details, auch Textur etc.
Der Input kommt hauptsächlich durch Zapfen.
Im Ungerleider-Affenexperiment wurde die Trennung der Bahnen nachgewiesen.
Affen mit Temporallappenläsion wurden mit den würfelförmigen Objekten auf
Brettchen vertraut gemacht. Sie müssen später das würfelförmige Objekt wählen, um
Belohung zu erhalten. Das ist für sie aber sehr schwierig, da die Objekterkennung
scheitert. Affen mit Parietallappenläsion wurden mit einer Anordnung vertraut
gemacht, bei der die Belohnung erfolgt, wenn der Affe das Futter wählte, dass nahe
bei einem zylinderförmigen Objekt war. Das gelingt kaum. Der dorsale Pfad scheint
auch daran beteiligt zu sein, wie wir Dinge ausführen. Z.B. Feuern beim Affen
dieselben Neurone, wenn er auf ein Objekt blickt, wie wenn er danach greift. Die
dorsale Bahn steuert also auch die visuellen Handlungen, aber dies muss nicht
notwendig bewusst sein, z.B. beim Ergreifen einer Tasse (Objektlokalisierung und
Wahrnehmungskontrolle des Armes).
Die Objekterkennung durch die temporale Bahn ist bewusst.
Temporal: Wiedererkennen/Identifikation
Parietal: visuell gesteuerte
Handlungen
Skizzieren Sie ein Experiment, dass die Dissoziation von
Wahrnehmungsurteilen und motorischen Reaktionen verdeutlicht.
Titchener-Illusion: Zwei gleichgroße Scheiben erscheinen unterschiedlich groß, weil
eine Scheibe im Zentrum von kleinen Scheiben, die andere von großen Scheiben
umgeben ist.
In einem Experiment wurde nun mit Hilfe dieser Illusion eine a) Anordnung
konstruiert, in der sich die Scheiben zwar physikalisch unterscheiden, aber dennoch
als gleich groß wahrgenommen werden sowie b) eine Anordnung, in der die Scheibe
(links) größer scheint, sie aber mit der anderen identisch ist.
Die Probanden wurden nun nach ihrer Einschätzung gefragt, außerdem wurde die
Größe der Greifbewegung gemessen, wenn sie nach der rechten Scheibe griffen.
Ihrer Einschätzung nach waren in a) die Scheiben gleich, die Greifbewegung
orientierte sich allerdings mit ihrer Handöffnung an der tatsächlichen Größe der
Scheibe. In b) schätzten sie die gleich großen Scheiben unterschiedlich ein, griffen
aber mit gleich weiter Handöffnung nach einer der Scheiben.
Somit kann man zeigen, dass es hier eine Dissoziation im Wahrnehmungsurteil und
der motorischen Reaktion gibt. Die Probanden greifen mit einer max. Handöffnung
der physikalischen Größe, nicht aufgrund ihres Wahrnehmungseindrucks.
Nennen Sie Beispiele für die zunehmende Spezialisierung visueller Neurone
und nennen Sie Studien (Stichwort: Modularität)
Im mediotemporalen Areal findet man bewegungssensible Neurone. Dies wurde in
einem Affenexperiment verdeutlicht: Den Tieren werden Zufallsmuster sich
bewegender Punkte gezeigt, die zu einem gewissen Grad in der Richtung korrelieren
oder nicht (keine Kohärenz/50% Kohärenz oder 10% Kohärenz der
Bewegungsrichtung).
Die Affen hatten die vorherrschende Richtung der Punktbewegung anzugeben und
konnten die Richtung in Mustern mit nur 1-2% Kohärenz angeben. Affen mit einem
zerstörten MT-Areal brauchen jedoch mindestens 10-20% >die Entdeckungsschwelle
für die Bewegungsrichtung ist also deutlich angehoben.
Im inferotemporalen Areal findet man formsensible Neurone. Sie antworten neben
anderen Formen (Quadrate, Ellipsen etc.) bevorzugt auf Gesichter. Die Antwortrate
eines Neurons im IT-Cortex einees Affen ist hoch bei einem Gesicht und auch hoch
bei einer ganzen Person. Die Anwort wird aber fast ganz eingestellt, wenn das
Gesicht verdeckt ist.
VL 3 Wahrnehmung und Bewusstsein
Was besagt die klassische Schwellentheorie?
An einer absoluten Schwelle passiert ein plötzliches Umschlagen von einem „Reiznicht-entdecken“ zu „entdecken“. Man hat diese Schwelle nur, wenn man alle
Faktoren konstant hält. Das ist in der Realität nie der Fall, denn es schwankt z.B. Die
Empfindlichkeit der Rezeptoren, die Aufmerksamkeit schwankt etc.
Welche 3 Methoden zur Schwellenbestimmung werden diskutiert? (Fechner?)
a) die Grenzwertmethode - „der eben merkliche Unterschied“. Experiment: Die
Schwelle der Entdeckung eines Lichtpunktes : Es wird ein Lichtpunkt dargeboten bei
einer Schwelle von z.B. 98,5 (Mittelwert der Grenzen). Der Proband sieht ihn. In allen
weiteren Durchgängen wird das Licht verringert (= absteigende Reihen), bis er nichts
mehr sieht = Schwellenwert. In den aufsteigenden Reihen wird der Punkt immer
heller, bis ihn die VP erkennen kann. Normalerweise wechseln aufsteigende und
absteigende Reihen sich ab (gegen Perseverationstendenz der VP, gleich u
antworten, wie im Durchgang zuvor).
b) die Herstellungsmethode - „Methode des mittleren Fehlers“. Hier nimmt der VL
oder die VP eine graduelle Veränderung des Reizes vor, bis er/sie eben schon (bei
ansteigendem Level) oder eben nicht mehr sieht (absteigendes Level). Die
Reizveränderung ist also kontinuierlich.
c) die Konstanzmethode - „Methode der richtigen und falschen Fälle“. Hier erhält die
VP eine zufällige Vorgabe von Reizen unterschiedlicher Stärke. Bei der Intensität, bei
der die Entdeckung des Probanden 50% beträgt, liegt die Schwelle.
Erläutern Sie die Signalentdeckungstheorie in ihrer Anwendung auf das
Problem der Wahrnehmungsschwellen
Die Signalentdeckungstheorie trennt die tatsächliche Reizdiskrimination von
Urteilstendenzen. Die Erkennbarkeit eines Reizes unterliegt
Sensitivitätsschwankungen (Sehschärfe/Aufmerksamkeit etc.) Nach der
Signalentdeckungstheorie gibt es zwei Zustände, („Signal+Rauschen“ und
„Rauschen“). Man muss, um ein Signal zu erkennen, also vom Rauschen trennen
können.
Wenn nun der Sensitivitätsparameter d´ groß genug ist, hat man kein Problem der
Signalentdeckung. Wenn es aber klein ist und das Signal kurz und knapp, stellt sich
die Frage, ab wann man den Reiz entdeckt (Wahrnehmungsschwelle).
Ermittelt man die Bedingten Wahrscheinlichkeiten der Treffer und falschen Alarme,
so resultiert daraus die Distanz der Verteilungsmittelwerte in Form des
„Sensitivitätsparameters“
d´. > d´= Z (Treffer)- z (falsche Alarme). d´ wäre also 0, wenn der Beobachter nicht
zwischen S+R/R unterscheiden kann, d.h. T=FA ist. d´ wächst mit zunehmender
Diskriminierbatkeit, wenn z.B. Die Reizintensität erhöht wird. Also müssen wir
schauen, wo d´=0 ist, um die Schwelle zu ermitteln.
--> je größer d´ ist, desto weiter auseinander liegen die Verteilungen, desto besser
kann ich diskriminieren.
Nennen Sie ein experimentelles Beispiel für unbewusste Wahrnehmung und
gehen Sie dabei auch auf die Parameter der SET ein
Priminig-Experiment/indirekte Tests: Den Probanden werden auf dem Bildschirm
Reize dargeboten. Ein maskiertes Primewort (Zahl) wird für mehrere ms dargeboten
(durch Maske unter der Wahrnehmungsschwelle). Nach einem weiteren Reiz
(Zufallsbuchstaben) wird ein Zahlwort präsentiert und der Proband soll schnell
reagieren und sagen, ob die Zahl kleiner oder größer als 5 ist. Die Probanden
antworten schneller, wenn im kongruenten Zahlenbereich mit der Primezahl liegt,
obwohl sie sich nicht bewusst erinnern. Bei direkter Abfrage können sie sich nicht
erinnern. Gleiches gilt z.B. Auch für Wortergänzungsaufgaben: Wenn Wörter
präsentiert werden und zwischendrin ist ein Primewort (maskiert, z.B. „Regel“), dann
erhalten die Probanden kurz darauf ein Wortfragment (z.B. „REG...) und sollen
ergänzen; jedoch mit der Instruktion nicht die Wörter zu verwenden, die zuvor
eingeblendet waren. Wenn der Prime jedoch unterhalb der Wahrnehmungssschwelle
war, ergänzen sie jedoch signifikant häufiger mit ihm, als wenn er lange und
wahrnehmbar präsentiert wurde. Das zeigt, dass sie ihn also nicht bewusst
wahrgenommen haben. Der mittlere Sensitivitätsparameter d´ der Probanden ist für
das direkte Erkennen des Primes = 0, das mittlere d´ für die indirekte Wirkung des
Primes ist > 0.
Was besagt das Potenzgesetz von Stevens?
Es trifft Aussagen über die Beziehung zwischen objektiver und subjektiver
Intensitätsveränderung.
Bei Stevens Methode der direkten Größeneinschätzung wird einem Standardreiz ein
Wert zugewiesen. Dann werden Reize verschiedener objektiver Intensität
vorgegeben und der Proband soll deren Größe, auf den Standardreiz bezogen,
angeben. Es kommt jedoch auf die Art des Reizes an, ob Probanden einen doppelt
so großen Vergelichsreiz auch doppelt so groß einschätzen!
Bei Längeneinschätzungen entsprechen sich die Größenzunahme und die
Einschätzung ssehr gut, als Kurve abgetragen ergibt sich eine lineare Beziehung. Bei
Helligkeit jedoch zeigt sich eine Verdichtung der Antwortdimension: die Verdoppelung
der Helligkeit des Reizes im Vergleich zum Standardreiz bewirkt noch keine
Verdoppelung der subjektiven Einschätzung des Probanden. Licht muss etwa 9 mal
so hell sein, damit der Proband es doppelt so hell einschätzt. Bei Stromschlägen
zeigt sich ein Spreizung der Antwortdimension: Die Verdoppelung eines
Stromstosses bewirkt beim Probanden eine höhere Einschätzung der Stärke als
„doppelt so stark“, die Kurve zeigt beschleunigten Anstieg. Nach dem Potenzgesetz
errechnet sich die Wahrnehmung so:
W = K*S (hoch n)
W = wahrgenommene Reizintensität, K = Konstante, S = tatsächliche Reizintensität
VL 4 räumliche Tiefe und Größenkonstanz
Welche Arten monokularer Informationen gibt es um räumliche Tiefe
wahrzunehmen?
–Verdecken
von Objekten: Info für relative räumliche Tiefe, ein Objekt ist vor einem
anderen
–relative Höhe im Gesichtsfeld: Objekte, die sich im Blickfeld höher befinden, werden als
weiter entfernt gesehen. Jedoch nur unterhalb der Horizontlinie; je näher oberhalb dieser
Linie, desto weiter weg.
–relative Größe im Gesichtsfeld: wenn zwei Objekte gleich groß sind, nimmt das nähere
einen größeren Teil des Gesichtsfeldes ein.
–lineare Perspektive: Linien konvergieren in einem Fluchtpunkt in der Ferne
(Eisenbahnschienen)
–gewohnte
Größe: Wissen über die Größe eines Objektes beeinflusst die
Wahrnehmung. Das funktioniert am Besten, wen andere Informationen fehlen
(monokular).
–atmosphärische Perspektive: Wir sehen weiter entfernte Objekte weniger scharf (Staub,
Wassertröpfchen)
–Texturgradient: gleich weit voneinander entfernte Objekte, z.B. Muster auf dem
Fußboden, scheinen mit zunehmendem Abstand des Beobachters entfernter, immer
dichter gepackt.
–
Was ist der Texturgradient?
Der Texturgradient gehört zu den monokularen Informationen, die zur Wahrnehmung
räumlicher Tiefe führen. Meist ist er an den Boden gebunden: Objekte, die den
gleichen Abstand voneinander haben (z.B. Muster auf dem Fußboden), erscheinen
dem Beobachter mit zunehmender Entfernung immer dichter „gepackt“. Wenn man
den Boden wegnimmt, wie in dem folgenden Experiment, verschlechtert sich die
Tiefenwahrnehmung:
Die VPN waren vor einer Grube, der Texturgradient fehlte also. Sie sollten sich nun
vor der Grube so positionieren, dass sie den gleichen Abstand zur Grube wie ein
Target dahinter einnahmen. Es zeigt sich, dass die Personen den Abstand
überschätzten, wenn der Texturgradient fehlte. Ohne die Grube schätzen sie korrekt.
Auch die Größe der Grube an sich wurde überschätzt.
Auch wenn ein VL hinter der Grube stand und die VP ihn instruieren sollte, wo das
Objekt zu platzieren sei, so dass es den gleichen Abstand zur Grube hat, wie die VP,
überschätzten sie den Abstand im Gegensatz zur Bedingung ohne Grube. Die
Distanz wird also nur richtig wahrgenommen, wenn die Beschaffenheit des Bodens
gleichförmig ist.
Beschreiben Sie die Bewegungsparallaxe als Quelle der Wahrnehmung von
räumlicher Tiefe
Die Bewegungsparallaxe ist ein Prozess, bei dem räumliche Tiefe durch
bewegungsinduzierte Information wahrgenommen wird. Sie bezieht sich auf den
Geschwindigkeitsunterschied, mit dem nahe und ferne Objekte an uns vorbeiziehen,
wenn wir uns bewegen.
Am Beispiel eines Auges: Wenn das Auge sich von Pos. 1 zu Pos. 2 bewegt, legt das
nahe Objekt A1 eine viel größere Strecke zurück, die Bewegung wird als schneller
wahrgenommen als die von Objekt B, dass eine kürzere Strecke zurücklegt. Dieser
relative Geschwindigkeitsunterscheid zwischen uns und den Objekten dient uns als
Kriterium der Bestimmung räumlicher Tiefe.
Nennen Sie ein Experiment, das die Rolle der bewegungsinduzierten
Information bei der Wahrnehmung räumlicher Tiefe verdeutlicht
Visual cliff: in einer Versuchsanordnung wurden Kinder an die Kante einer Fläche
gesetzt, hinter der ein Abgrund zu sein scheint, welcher jedoch von einer
Plexiglasplatte bedeckt ist. Der Texturgradient ist durch ein Schachbrettmuster
gleichbleibend zur Fläche oberhalb und unterhalb des Abgrundes konstruiert. Kinder,
die schon krabbeln können, weigern sich, über die Platte, also über den „Abgrund“ zu
krabbeln. Kinder, die noch nicht gekrabbelt sind und über den Abgrund gehalten
werden, zeigen eine erniedrigte Herzfrequenz. Die Krabbelkinder zeigten bei Anblick
des Abgrundes erhöhten Puls: Die Reaktion dreht sich also für die unterschiedlich
alten Kinder um.
Das alels ist ein starker Beleg dafür, dass die Kinder, die ihre Umwelt bereits durch
Bewegung exploriert haben, diese auch zur Bewegungswahrnehmung nutzen. Die
jüngeren Kinder, die noch nicht gekrabbelt sind, zeigen durch die unterschiedliche
Pulsfrequenz auf Tiefendiskriminierung, aber keine Furchtreaktion.
Erläutern Sie das Prinzip der Querdisparation
Die Querdisparation gehört zu den stereoskopischen Informationen zum
Wahrnehmen räumlicher Tiefe. Die leicht unterschiedlichen Bilder derselben Szene
auf den Netzhäuten beider Augen werden verrechnet zur Tiefenwahrnehmung.
Wenn ich ein Objekt fixiere, denke ich mir, ausgehend von diesem Objekt, einen
Kreis, der also durch den Fixationspunkt verläuft und die optischen Mittelpunkte
durch beide Augen führt. Alle Objekte auf dem Horopter werden auf
korrespondierenden Netzhautstellen abgebildet, im Gegensatz zu Objekten
außerhalb, also vor und hinter dem Horapter. Ihre Bilder leigen auf disparaten, nicht
korrespondierenden Punkten. Der Winkel zwischen einem Netzhautpunkt, auf dem
das Objekt abgebildet wurd und dem Punkt, wo es abgebildet würde, wenn es mit
dem Abbildungspunkt des anderen Auges korrespondieren würde, nennt man
Querdisparationswinkel. Je weiter ein Objekt vom Horopter entfernt ist, desto größer
ist der Querdisparationswinkel (trotzdem kann das Objekt zum Beobachter sehr nahe
sein).
Vor dem Horapter liegende Objekte führen zu gekreuzter Querdisparation
(Abbildungen auf den temporalen Bereichen der Netzhäute).
Hinter dem Horopter liegende Objekte führen zu ungekreuzter Querdisparation und je
weiter weg, desto mehr innen auf der Netzhaut, also nasal.
Gekreute Q. zeigt also an, dass das Objekt vor dem Horopter und mir nahe ist,
ungekreuzte zeigt an, dass es hinter dem Horopter und weiter weg ist.
Des Weiteren werden nur die Objekte, die im Panum-Areal leigen, zu einem Objekt
auf der Netzhaut fusioniert. Der Horopter ist nämlich genau genommen keine Linie,
sondern umfasst ein Areal gewisser Breite (Außerhalb dieses Areals, dem PanumAreal, sehen wir Doppelbilder).
Wie kann man zeigen, dass allein aufgrund von Querdisparation
Tiefenwahrnehmung möglich ist?
Die Julesz-Stereogramme konnten zeigen, dass auch bei vollkommener Abwesenheit
anderer Teiefeninformation allein mit Querdisparation räumliches Sehen möglich ist.
Diese Stereogramme waren zufällige Punktmuster: Zuerst wurden 2 identischen
Muster erstellt, dann wurde in einem der Muster ein quadratischer Ausschnitt nach
rechts verschoben um 1 Einheit (die frei gewordenen Punkte einer Seite werden
wieder mit Zufallspunkten ausgefüllt). Man hat dann quasi ein künstlich hergestelltes
Querdisparationsbild, so wie Querdisparation immer entsteht, wenn wenn wir unsere
Umwelt betrachten. Wenn man diese Bilder in einem Steroskop sieht, nimmt man
z.B. ein kleines Quadrat wahr, das vor dem Hintergrund schwebt. Da die künstliche
Querdisparation die einzige Tiefeninformation in den Stereogrammen war, muss sie
es sein, die uns den Eindruck räumlicher Tiefe vermittelt hat.
Erläutern Sie die Rolle der Tiefenwahrnehmung aus der Umwelt anhand des
Experimentes von Holway und Boring (Größenkonstanz)
In diesem Experiment saßen die Probanden in der Ecke eines L-förmigen Flures. In
einem Arm des Flures wurden in verschiedenen Größenabständen Testkreisscheiben
dargeboten. Im anderen Arm war eine Vergleichskreisscheibe in immer konstanter
Distanz und sollte auf die Größe der Testkreisscheibe eingestellt werden.
Die Testkreisscheiben haben hier alle den gleichen Sehwinkel von 1 Grad, sie
erzeugen also die selbe Abbildung auf der Netzhaut und müssen, je weiter weg,
immer größer werden, um den Sehwinkel beizubehalten.
Die Probanden können in so einer Anordnung die Testkreisscheiben gut einschätzen
und stellen die richtige Größe ein. Es herrscht also Größenkonstanz, denn trotz des
gleichen Sehwinkels erkennen sie die physische Größe der Reize. Die VL
reduzierten dann im Flur bei der Testkreisscheibe die vorhandenen Tiefen- und
Entfernungsinformationen immer mehr (z.B. nur einäugig sehen, durch eine
Lochblende sehen, den Korridor mit Stoff bespannen). Es zeigte sich, dass die
Probanden immer schlechter die Größe korrekt einschätzen konnten und näherten
sich mit ihrer Einschätzung immer mehr den Ergebnissen an, die man erwarten
würde, wenn man nur den Sehwinkel noch schätzt.
Bei vollständiger Eliminierung = Sehwinkel, ungleich Größenkonstanz.
Erklären Sie das Phänomen der Mondtäuschung (kommt wohl nicht dran?)
Die Mondtäuschung ist eine Wahrehmungstäuschung, nach der der Mond als größer
wahrgenommen wird, wenn er am Hirizont steht, als wenn er hoch am Himmel steht.
Erklärt werden kann dies durch die wahrgenommene Enfernung: Eigentlich wirken
Objekte, die näher an der Horizontlinie sind und somit näher zu reichhaltiger
Tiefeninformation aus der Umgebung, weiter weg, als Objekte im leeren, tiefen- und
entfernungsarmen Raum. Der Horizontmond sollte als als weiter entfernt als der
Zenitmond wahrgenommen werden.
Aber: Der tiefstehende und der hochstehende Mond haben beide den selben
Sehwinkel und bei 2 Objekten im selben Sehwinkel, aber unterschiedlicher
Entfernung wird das als größer wahrgenommen, was weiter weg ist. Der
Horizontmond erscheint uns weiter weg, daher nehmen wir ihn als größer wahr.
(Zeichnung: Auge „1-Grad-Sehwinkel“ schaut gerade auf 2 hintereinander stehende
Kaninchen, das hintere wird als größer wahrgenommen).
Experiment: In Stereogramm-Anordnung sollten die Probanden 2 Horizont- oder 2
Zenitmonde durch Veränderung der Querdisparation auf subjektiv halbe Entfernung
zuneinander bringen. Der Horizontmond wird von den Probanden um den Faktor 4,2
weiter entfernt dargestellt als der Zenitmond.
Das spricht dafür, dass die Distanz des Horizontmondes als größer wahrgenommen
wird. Das bewusste Urteil, der Horizontmond sei näher, ist die top-down-Korrektur
(denn man weiß ja eigentlich, dass es der gleiche Mond ist).
VL 5 Objekterkennung
Erklären Sie mehrere Objekterkennungsprinzipien aus Sicht der
Gestaltpsychologen. Welche Probleme ergeben sich aus den Gestaltfaktoren?
„Das Ganze ist mehr als die Summe seiner Teile, d.h., mehr, als die kleinsten
elementaren Verbindungen, aus denen es zusammengesetzt ist“.
Figur-Grund-Trennung: Rubins Becher (Vexierbild) Wie nehmen die dinghafte
Figur und den ungeformten Hintergrund getrennt wahr.
Schein-Konturen: Kanisza-Dreieck (ist physikalisch nicht vorhanden)
Kontexteinflüsse: manchmal nur erkennen imKontexdt möglich (Bsp.: „Bs“ unter
Flecken)
1. Prägnanz (gute Gestalt): Übergeordnetes Prinzip der Gestaltpsychologie. Wir
sehen z.B. kein Polygon (Vieleck), sondern 2 geometrische Formen jedes
Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie möglich
ist.
2. Ähnlichkeit: ähnliche Dinge scheinen zu zusammen gehörenden Gruppen
geordnet (4*4 Kreise nimmt man in Spalten und Reihe zusammen gehörend wahr,
sind dazwischen Xe, nimmt man z.B. nur noc die Spalten als zusammen gehörend
wahr).
3. Nähe: nahe beieinander liegende Dinge erscheinen zusammen gehörig. Überwiegt
den Faktor der Ähnlichkeit.
4. Kontinuität: Punkte, die als gerade oder sanft geschwungene Linien gesehen
werden, wenn man sie verbindet, werden als zusammen gehörig wahrgenommen.
Linien werden tendenzielle so gesehen, als folgten sie dem einfachsten weg
(linienkreuzendes x wir sehen 2 Linien, nicht 4).
5. Geschlossenheit: Kanisza-Figur (Kontur wird als geschlossen wahrgenommen,
auch wenn wir ergänzen müssen (3 Pacmens als Dreieck)
6. Gemeinsames Schicksal: Dinge, die sich in die gleiche Richtung bewegen,
erscheinen zusammen gehörig.
neuere Vorschläge:
7. gemeinsame Region: Elemente, die inenrhalb einer gemeinsamen Region liegen,
werden zusammen gruppiert.
8. Verbundenheit: Elemente, die verbunden sind, werden als Einheit gesehen.
9.zeitliche Synchronizität: Leuchtpunkte,, die gemeinsam aufleuchten, werden als
Einheit erkannt. Durch zeitliche Synchronizität wird die Zusammengehörigkeit
erkannt.
Probleme:
-Die Gestaltfaktoren beschreiben, aber erklären nicht
-Mnachmal post-hoc
-Konvexität (Verwölbung) schlägt Symmetrie
-Die Faktoren funktionieren gut auf ausgewählte Beispiele, aber in der Realität?
Was ist z.B. „Einfachheit“ in der Realität?
-Was ist „Ähnlichkeit“? manchmal ist die Orientierung ähnlicher als die Form
-zu große Bedeutung von Bottom-up-Prozessen
Erläutern Sie die Rolle von top-down-Prozessen bei der Objekterkennung
anhand eines geeigneten Experimentes. Was meint „Sehen im Kontext“?
Experiment von Vacera und Farah: Die Probanden sollten angeben, ob kleine Xes
sich af demselben Punkt zweier übereinander präsentierter Buchstaben befinden,
oder nicht. Sie können die Aufgabe leichter lösen, wenn die Xe auf dem gleichen,
nicht-rotierten Buchstaben sind (Reaktionszeit ist kürzer als bei dem umgedrehten A
mit F).
Erklärung: Die Probanden sind aufrechte Buchstaben gewohnt, dem Vorwissen und
top-down-Prozessen kommt hier große Bedeutung zu.
Ebenso beim „Sehen im Kontext“: Wenn man ein spezielles zweideutiges Bild in der
Umgebung von Tieren sieht, sieht man eher eine Maus, im Kotext von Gesichtern
eher einen Mann top-down
Erworbene Schemata dominieren die Wahrnehmung.
Beschreiben Sie die drei Stufen des algorithmischen Ansatzes von Marr
Der Ausagngspunkt ist hier ein Netzhautbild
1.Primäre Rohskizze: Merkmalsextraktion, d.h. man muss Elementarmerkmale
extrahieren (Kontur, Kanten, Ecken, offene/geschlossene Formen)
Ecken und Kanten werden zuerst identifiziert. Um die tatsächlichen Grenzen
auszumachen werden Licht/Schatten betrachtet -> durch abrupte Übergänge
sieht man Kanten. Allmähliche Intensitätsveränderungen lassen auf
allmähliche Übergänge schließen
Gleichzeitige Analyse von Klecksen, Flecken, Streifen, Kanten, Konturen
Das Ergebnis wird nicht bewusst wahrgenommen
Zero-crossings ist der Prozess, der Intensitätsveränderungen im retinalen
Abbild in Zeichen für Kanten und Konturen überführt. Die Berechnung der
Zero-Crossings (2. Ableitung) ist ähnlich wie die Fowier-Analyse, also die
Anwendung von neuronalen Filtermechanismen.
die primäre Rohskizze eines Objektes ist eine zweidimensionale Beschreibung von
Kanten, Ecken, dunklen und hellen Bereichen.
Daraus folgt
2.
die 2-einhalb-dimensionale Skizze: hier kommt die Tiefeninformation
dazu.
Elementarmerkmale, die in Größe und Orientierung ähnlich sind, werden
nach Gestaltgesetzen gruppiert
Punkt-für-Punkt-Verarbeitung von Tiefeninformationen von Oberflächen der
Szene
Konvexe und konkave Verbindungen zwischen den Oberflächen
Nutzung der Information von Schatten, Bewegung, Tectur, Form und
Querdisparation
Es entsteht eine grobe Tiefencharakteristik, aber es gibt noch keine Informationen
über nicht sichtbare Teile des Objektes, d.h. es gibt noch keinen Bezug zur externen
Umwelt.
3.
3-D-Repräsentation
sie ist perspektivisch beobachterunabhängig
sie ist die letztendliche Wahrnehmung
es kommt zu einer 3-D-Modellbildung, einem Vergleich mit bereits
gespeicherten Exeplaren
das Modell ist aus Blockkörpern (Zylinder) geformt, bei Bedarf wird die
Analyse verfeinert. Diese „Primitive“ sind also unsere interne Repräsentation;
ihre Hauptachse repräsentiert die Ausrichtung des Objektes
die „Primitive“ sind hierarchisch organisiert -> bewusste Wahrnehmung
-----------------------------------------------------------------------------Kriterien für Marrs Ansatz:
1. Zugänglichkeit: die Repräsentation kann leicht konstruiert werden
2. Bandbreite/Einzigartigkeit: in einer gegebenen Kategorie ist die Repräsentation auf
alle Gebilde anwendbar, alle unterscheidlichen Blickwinkel führen zur selben
Repräsentation
3. Stabilität/Empfindlichkeit: die Ähnlichkeiten unter den Objekten werden mit
einbezogen und die herausstechenden Unterschiede werden auch mit einbezogen
Kritik an Marr: zu sehr bottom-up, kein top-down
Was besagt die Theorie der Objekterkennung nach Biedermann?
Biedermann ist ein Gestaltpsychologe. Die Objekterkennung ist nach Biedermann
nicht angeboren, sondern erlernt durch Erfahrung ungleich Marr mit seiner
Helligkeitsvariation
Kanten-Extraktion/2-D-Netzhautbild
Analyse von nicht-zufälligen Eigenschaften
Regionen
Analyse von konkaven
Bestimmung der Komponenten
Vergleich der Komponenten mit der Objektrepräsentation
Objekterkennung
Analyse von nicht-zufälligen Eigenschaften:
- Netzhautbilder haben überzufällig oft bestimmte Kanteneigenschaften, diese lassen
durch Erfahrung auf 3-D-Objekte schließen
- das sind die nicht-zufälligen Merkmale, sie sind perspektivenunabhängig (gerade
Linien = gerader Körper, gekrümmte Linien = gekrümmter Körper, parallele Linien =
parallele Linien)
Analyse von konkaven Regionen/Zerlegung der Umrisskontur an konkaven
Diskontinuitäten:
- Zusammentreffen zweier Linien. Das lässt auf Zusammentreffen zweier Teile des 3D-Körpers schleißen
Bestimmung der Geone:
- Kombination der o.g. Merkmale zeigt auf der Netzhaut elementare 3-D-Körper an
Geone
- Geone sind durch ihre nicht-zufälligen Merkmale bestimmt
- 36 Stück
- Identifikation des Objektes durch Analyse der Beziehung der Geone
Vergleich der Komponeneten mit der Objektrepräsentation:
- Gedächtnis Erkennung: (hier ist eine Katze gemalt) es ist eine Katze
Experiment:
Es gibt kritische Merkmale (= nicht-zufällige) und weniger kritische
Löschung von Komponenten
Es gab entweder noch die nicht-zufälligen oder die weniger kritischen
Linien, in beiden Bedingungen aber prozentual gleich viel
Die Objektrepräsentation ist nur möglich, wenn es nicht-zufällige Linien sind
Nennen Sie 2 experimentelle Beispiele, die zeigen, dass Marrs und
Biedermanns Annahme von perspektivenunabhängiger Objekterkennung
angezweifelt werden kann
Mentale Rotation: bei typischen Figuren, die für mentale Rotationexperimente
verwendet werden, dauert der Abgleich umso länger, je größer der Rotationswinkel
ist. D.h., nicht aus jeder Perspektive erkennt man das Objekt gleich schnell.
Experiment von Vanné et al.:
Mentale Rotation
Bedingung
a)invariance condition: ca. 2 Komponenten weren 10° versetzt in non-matchingtrails, außerdem Objektdrehung
b)rotation condition: Komponenten-Hauptachse versetzt andere Seite in nonmatching trails, quasi Spiegelbild
in a) zeigt sich keine Abhängigkeit vom Drehwinkel, die Probanden sind gleich
schnell
perspektivenunabhängig
In b) zeigt sich eine Abhängigkeit vom Drehwinkel, die Probanden sind schneller bei
kleiner
Winkeldisparität
Ergo: wenn ich ein Objekt von seinem „Spiegelbild“ trennen muss, muss ich mental
rotieren (rotation condition), wenn ich anhand einfacher Merkmale auseinanderhalten
kann, muss ich nicht rotieren (invariance condition).
Gesichterwahrnehmung hat gegenüber der Wahrnehmung anderer Objekte
eine spezifische Eigenschaft. Welche? Wie zeigt man sie? Warum ist diese
Eigenschat letztlichaber nicht so spezifisch?
Gesichtererkennung basiert vor allem auf holistischen Prozessen (Konfiguration wird
verarbeitet, Teilen wird weniger Bedeutung beigemessen, sie lösen sich eher im
Ganzen auf).
Experiment von Farah: verschiedene Items werden dargeboten, die Probanden
sollen entscheiden, ob das 1.und das letzte Item gleich sind
1.Bedingung: zwischen den Items kommt eine „Ganz“-Maske, volständiges Item,
real
2.Bedingung: zwischendrin kommt eine „Teil“-Maske, unvollständid, verdreht,
nicht real
1. Wörter: Ganz-Maske (z.B. „King“), Teil-Maske (z.B. Nikg)
kein Unterschied in der Fehleranzahl. Wörter scheinen eher der
Komponentenanalyse
zu unterliegen
2. Gesichter: Ganz-Maske: normales Gesicht, Teil-Maske: „scrambled face“
Hypothese: wenn die Gesichtererkennung als Ganzes passiert, sollten „scrambled
faces“ als Maske zwischen den Trails das Weidererkennunen weniger stören!
trifft zu, besseres Erkennen bei Teil-Maske
3. Häuser: Ganz-Maske: normales Haus, Teil-Maske: scrambled Haus
auh hier gibt es keinen signifikanten Unterschied. (Zwar kleiner als bei
Gesichtern, aber signifikant!) Wenn eine Teil-Maske dargeboten wird, dan gint es
eine bessere Wiedererkennung
--- Gesichtererkennung doch nicht so speziell, denn ..
...wie Gauthier zeigte, ist nach Training des Weidererkennens computererzeugter
Objekte (Greebles) die Antwortrate im Gyrus fusiformis gleich derer für Gesichter
(vorher gab es einen signifikanten Unterschied
...wir (europ., am.) sind zwar Experten für die Erkennung der eigenen Ethnie, aber
z.B. nicht für afrikanische Gesichtererkennung
... Prosopagnostiker zeigen oft „convert recognition“, zeigen Hautleitwiderstand auf
bekannte Gesichter, ohne bewusstes Erkennen. Prosopagnostiker scheinen
außerdem eine generelles Problem zu haben, spezifische Objekte zu erkennen, die
komplexen Klassen angehören. Z.B. erkannte ein prosopagnostischer Vogelexperte
seine Vögel nicht mehr.
Was zeigte Gauthier in seiner Griebels-Studie?
Gauthier erstellte mit PC „Greebles“ (kleine Objekte, die die gleiche Grundform
haben und unterscheidliche Merkmale aufweisen) und maß die Aktivität im Gyrus
fusiformis vor und nach einem Training im Wiedererkennen der Greebles und
normaler Objekte.
Vor dem Lernen der Greebles-Merkmale feuerten die G.f.-Neuronen signifikant
weniger, nach dem Training näherte sich die Antwortrate der Neuronen sehr derere
für normale Gesichter.
spricht gegen den „speziellen Gesichterfall“
VL 6 Bewegung und Handeln
Beschreiben Sie die ökologische Perspektive von Gilson sowie deren Stärken
und Schwächen
- direkte Wahrnehmung: die Information steckt direkt in der Anordnung, die sich dem
Betrachter, v.a. dem sich bewegenden, bietet (Gilson war Rebell und fand die
Wahrnehmungsstudien seiner Zeit zu artifiziell).
- Wahrnehmung und Handeln sind direkt untrennbar verknüpft
- Wahrnehmung durch Bewegung (umgebende optische Anornung ändert sich)
- Welche Umgebungsinformation ist verfügbar? Was nutze ich?
- Oberflächen werden in ihrer Struktur wahrgenommen wichtig: Texturgradient
- Beobachtung/Training Piloten: Oberflächenstruktur vermittelt Information
(Landeanflug)
- wesentlich für die Wahrnehmung sind die Veränderungen im optsichen Feld, die
durch meine Bewegungen hevorgerufen werden.
optisches Fließen! Man sieht ein bewegtes Feld, einen Gradienten der Bewegung,
die Geschwindigkeit im Vordergrud ist hoch, im Hintergrund geringer. Das optische
Fließen liefert Informationen über die Richtung, in der ich mich bewege. Oder, bei
einem Piloten: er sieht die Geschwindigkeit des Fleißens und den FOE, den „focus of
expansion“ = Zentrum des Auseianderfließens. Dort ist keine Bewegung. Dort wird
Information über die Zielrichtung geliefert, auf die der Pilot zusteuert.
Nutzung des optischen Fließens: Um Kurs zu halten , z.B. bei Autofahren wird die
Fortbewegungshauptlinie für das Kurshalten benutzt, bei Kurven schaut man auf die
stärkste Krümmung.
Es handelt sich um eine reziproke Beziehung: die Bewegung führt zu optischem
Fluß, der optische Fluß steuert die Bewegung
Affordances: Objekte/Oberfächen werden nicht intern repräsentiert, sondern haben
einen direkten Aufforderungsgehalt: ihre Möglichkeiten werden direkt vom
Beobachter mit seinen Zielen wahrgenommen (z.B. benutzerfreundliches Design;
man weiß intuitiv, wie man ein Objekt zu seinen Zielen gebrauchen kann).
Vorteile: - philosophisch wichtig (Mensch-Umwelt)
- Umwelt/visuelle Reize bieten mehr Informationen als gedacht
- wurde nicht empirisch widerlegt
Nachteile/Schwächen: - Wahrnehmung komplizierter
- nicht alle Wahrnehmungsaspekte einbezogen
- das Gedächtnis/die interne Repräsentation spielen
doch
eine Rolle
Wie kann man neuronale Korrespondenz der Bewegungswahrnehmung
nachweisen?
Affen erhielten wieder Punktemuster (bewegte). Das Bild wurde so präsentiert, dass
es optimal mit dem rezeptiven Fels eines MT-Neurons übereinstimmt (Variation
Kohärenz/Richtung). Die Antwort der MT-Neurone wurde abgeleitet, außerdem
wurde der Affe trainiert, auf Lämpchen zu blicken, die zur Richtung korrespondierten.
Ergebnis: Die Beziehung zwischen der Neuronenentladung und dem Verhalten
desAffen war so stark, dass dessen Fähigkeit, die Bewegungsrichtung anzugeben,
sich aus der Ableitung weniger Neurone vorhersagen ließ. Je stärker die Kohärenz,
desto stärker feuerten die Neurone.
Reafferenz-Prinzip: Wie vererchnet das kognitive System Augen- und
Objektbewegungen?
Das visuelle System muss irgendwie unterscheiden können, ob die Bewegung auf
der Retina auf eine reale Bewegung oder eine Bewegung der Augen oder beides
zurückgeht.
Das funktioniert so: ich bewege meine Augen efferentes Signal (Gehirn an Augen)
und Kopie an den Komparator (Efferenz-Kopie) eine Kopie des efferenten Signals
geht an den Komparator (hypothetische Struktur), wodurch auch die Information über
die retinale Bildverschiebung, also des efferenten Signals erfolgt (Auga an Gehirn)
die Efferenz-Kopie sagt aus: Hatte das Auge Befehl, sich zu bewegen? sodann
erfolgt eine Addition mit dem Retinasignal.
Wenn ein efferentes und ein afferentes Signal gegenläufig sind, heben sie sich auf,
dann gelangt die Information nicht in den Cortex und es erfolgt keine
Bewegungswahrnehmung.
Erläutern Sie das Korrespondenzproblem der Bewegungswahrnehmung
anhand der Johannson-Figuren
Das Korrespondenzproblem bedeutet: Wie komme es, dass wir die Elemente eines
Einzelbildes in den folgenden Bildern korrekt zuordnen? Wie können wir Bewegung
sehen?
Eine große Rolle spielen Algorithmen und Heuristiken sowie Bewegungsschemata.
Denn Objekte bewegen sich nicht chaotisch, sondern in charakteristischer und
vorhersagbarer Weise.
Vor allem Bewegungsschemata führen zur Wahrnehmung biologisches Bewegung
bei den Johannson-Figuren (point-light-walker = Wahrnehmung einer Figur
ausschließlich durch Lichter, wurde erstellt durch Lämpchen an Menschen und
größtmögliches Reduktion, d.h. ca. 11-15 Lämpchen).
Die komplexen Bewegungen sind zerlegt in Komponenten. Trotzdem sehen wir
Menschen und keine Punkte, Erklärung: Das visuelle System zerlegt in die einzelnen
Komponenten von ballistischen und Pendelbewegungen des Körpers. Wir nehmen
aufgrund charakteristischer Bewgungsschemata wahr, d.h. top-down. Bei Johannson
sind männlich/weiblich, Gewicht, Anspannung und Stimmung kategorisierbar.
Das visuelle System ordnet die Punkte einander zu und erst beim Zusammenfügen
entsteht eine Form/ein Objekt, das sich bewegt. Bewegt sich die Johannson-Figur
nicht, sehen wir nur Zufallspunkte. Wenn sie sich bewegt, sehen wir eine Form
(bedeutungshaltige Struktur, Bewegungsschemata).
Welche Aufmerksamkeitsprozesse spielen bei der bewegungswahrnehmung
eine Rolle?
a) inattentional blindness: Gorilla-Film: Beobachter bemerken ein unerwartetes,
unbeachtetes Objekt nicht.
b) change blindness: Blindheit für Veränderungen: Szene, in der sehr langsam ein
Gebäude eingeblendet wird wir sehen aber nix.
1. Vorübergehende Verdeckung. Exp. Fremder fragt nach dem Weg. Bei
vorheriger Verdeckung bemerken wir nicht, dass eine neue Person vor uns ist.
die Veränderung wird kurz versteckt
2. sakkadische Suppression: Die Wahrnehmungsempfindung ist während
einer Sakade stark verringert.
3. während des Blinzelns
4. kurze Unterbrechung flacker-Paradigma (Flackerbilder)
all dies sind Beispiele, dass wir Bewegung nur wahrnehmen, wenn wir die Objekte
mit Aufmerksamkeit bedenken. Wenn wir einem Bereich eine beobachteten Szene
keine Aufmerksamkeit schenken, bemerken wir auch keine Veränderungen.
VL 7 selektive Aufmerksamkeit
Erläutern Sie (frühe) Theorien zur auditiven Aufmerksamkeit (Broadbent,
Treisman, Deutsch und Deutsch) einschließlich empirischer Studien, die
durchgeführt wurden, um zwischen ihnen zu unterscheiden
1. Broadbent-Filtertheorie: Die Information aus beiden Kanälen kommt kurz in einen
Zwischenspeicher. Aufgrund physikalischer Merkmale (z.B.
Geschlechtsunterschiede) wird das Signal einer Quelle herausgefiltert, um eine
Überbelastung des Systems zu vermeiden (Mechnismen jenseits des Filters sind
kapazitätslimitiert). Frühe Auswahl. Das, was ich nicht brauche, wird ausgefiltert und
zwar ohne weitere Verabeitung.
Experiment: immer getestet im Paradigma „dichotomisches Hören“: beide Ohren
erhalten unterschiedliche Informationen gleichzeitig, eine shadowed message (laut
wiederholen) und eine nicht zu beachtende.
Es wurde schon früh nachgewiesen, dass Probanden nur die menschliche Stimme
vs. Geräusche, männl./weibl., Wechsel der Stimme im unbeachteten Kanal
bemerken, nicht ob diese Stimme eine fremde oder die eigene Sprache spricht oder
rückwärts etc.
Evidenz zur Filtertheorie von Broadbent: jeweils 3 Zahlen werden den Ohren
gleichzeitig vorgespielt. Beim Erinenrungsdurchgang wird „ohrweise“ wiedergegeben,
nicht der Zeit nach (744357, spricht dafür, dass physikalische Merkmale (Ohr)
Vorrang haben. Spricht auch für sensory buffer. Beides bleibt kurz da und ist
abrufbar.
2. Treismann-Dämpfungstheorie: Das Signal des unbeachteten Kanals wird
minimiert, abei nicht vollständig eliminiert. Die semantische Verarbeitung der
unbeachteten Information ist schwierig, aber prinzipiell möglich. Die Relevanz der
Information scheint meine Verarbeitung zu beeinflussen durch a) große physikalische
Stärke (sehr lautes Geräusch), b) momentane Passung (gerade aktuell für mich), c)
persönliche Relevanz (cocktail-party-Phänomen)
B sensory attennater short-term-memory
B register (hier wird gedämpft) short.term-memory
Die irrelevanten Informationen werden minimiert.
Evidenz: 1. Gray und Wedderburn
Ohne shadowing: dichotomisches Hören, Instruktion. Spreche die
bedeutunghaltige Information nach (links: „Hunde sechs Flöhe“, rechts:
„vier Kratzen acht“). Die Bedeutung ergab sich aus den Wörtern beider
Ohren
„Hunde kratzen Flöhe“
die Probanden sind in der Lage, nach der Bedeutung, nicht nach einem
physikalischen Merkmal zu beschatten!
2. Treismann: Shadowing-Aufgabe: Die bedeutungshaltige Information
wechselte zwischen den Ohren. Das wurde manchmal entgegen der
Instruktion wahrgenommen, in 6% der Fälle gab es einen Durchbruch.
Das spricht für die Dämpfung bei gleichzeitigem Vorhandensein der
Information des unbeachteten Kanals Aspekt der momentanen Passung
3. Bargh: Shadowing-Aufgabe: Die Versuchspersonen sollten Substantive
nachsprechen. Auf dem unbeachteten Kanal wurden ab und zu Adjektive
dargeboten, die für 50% der Probanden selbstrelevant war. Sie sollten auf
ein Lichtsignal reagieren, das parallel zu diesen Wörtern erschien. Die VPN
reagierten viel langsamer, wenn auf dem anderen Ohr Selbstkonzept-Wörter
kamen
das spricht für Treismann (persönliche Relevanz)
3 Deutsch und Deutsch:Theorie der späten Auswahl
Die gesamte Information wurde ungedämpft verarbeitet. Hier ist nicht die
Begrenzung des Wahrnehmungssystems, sondern die des Reaktionssystems
entscheidend. Der Flaschenhals ist hier also viel näher an den Antwortsystemen als
bei Broadbent und Treismann.
Beschreiben Sie die Perceptual-Load-Theorie
Ob eine frühe oder eine späte Selektion stattfindet, hängt von den situationalen
Bedingungen ab. Wieviel Aufmerksamkeit wird benötigt? Hoher perceptual load:
dann wird viel Aufmerksamkeit benötigt frühe Selektion. Niedriger perceptual load:
dann wird wenig Aufmerksamkeit benötigt späte Selektion
Evidenz: Probanden solltenTargetbuchstaben ( X oder N) in einer Kriesanordnung
finden
Faktoren: 1. high load: Target umgeben von anderen Buchstaben + Distraktor (X/N)
2. low load: Target umgeben von Nullen + Distraktor (X/N)
kongruent: Target = Distraktor, inkongruent: Target ungleich Distrakor
Ergebnis: 1. Bei high load ist man immer kangsamer als bei low load
2. im high load war die Reaktionszeit für kongruent/inkongruent gleich. Der
Distraktor wird also nicht mitverarbeitet, die Reaktionszeit ist gleich
Im low load: langsamer in inkongruenten Trials. Braucht man weniger
Aufmerksamkeit, so werden die Distraktoren mitverarbeitetdas spricht alles für die Percetual-load-theory
Schildern Sie die spotlight-Metapher der Aufmerksamkeit von Posner
Spotlight-Metapher bedeutet: die visuelle Aufmerksamkeit ist eine Art Scheinwerfer
nicht-fovealer Verarbeitung. Ein Scheinwerfer beleuchtet einen bestimmte Ort. Die
Stimuli dort werden rascher und gründlicher verarbeitet. Die Größe des Spotlights ist
konstant. Es wird in kontinuierlicher, analoger Weise von einem Auge zum anderen
verlagert.
Nennen und beschreiben Sie ein Experiment, das Evidenz für das zoom-lensModell der visuell-räumlichen Aufmerksamkeit liefert. Was sind die Aussagen
des zoom-lens-Modells?
Das zoom-lens-Modell besagt, dass der Kegel eines Scheinwerfers unterschiedlich
breit gezoomt werden kann. Beim Fokus auf einen kleinen Bereich besteht die größte
Verabreitungskapazität und eine „hohe Auflösung“. Je breiter der zoom ist, desto
mehr verringert sich die Aufmerksamkeit (unfokussierte Einstellung)
Experiment von La Berge:Man soll ein Wort mit 5 Buchstaben fokussieren und
Kategorisieren. Danach erscheint eine Zahl („probe“), die schnell genannt werden
soll.
1.Bedingung: (letter-task): Beim präsentierten Wort wird die Aufmerksamkeit durch
die Kategorisierungsaufgabe auf die Mittel gelenkt [LACIE –aufs C, gehört das zur 1.
oder 2. Hälfte des Alphabets] [*F**** ist das ein F oder ein T oder ein Z?]
2.Bedingung: (word-task): Das vollständige Wort soll kategorisiert werden. Die
Aufmerksamkeit ist hier breit eingestellt [TABLE, ist das ein Möbesltück] [*F***** ist
das ein F oder ein T oder ein Z?]
Hypothesen: In der letter-task sollten die Probanden je langsamer sein, je weiter die
probe-Position von der Mitte entfernt ist (als Fokus der Aufmerksamkeit/Spotlight).
In der word-task sollte es keinen Unterscheid geben, wo Probe ist, wenn die
Aufmerksamkeit laut zoom-lens-Modell breit eingestellt werden kann.
Das Ergebnis bestätigte diese Hypothesen! Auf probe wird schneller geantowortet,
wenn „central attentional Fokus“. Ist probe in der letter task an gleicher Stelle wie der
kategorsisierte Buchstabe, erfolgt eine schnellere Reaktion.
In der word-task ist man immer schneller, der Fokus ist auf dem ganzen Wort. Es gibt
hier keinen Unterscheid für die probe-Position.
Beschreiben Sie ein Experiment, das Evidenz dafür liefert, das die
Aufmerksamkeit auch auf 2 Stellen fokussiert sein kann (split attention)
Experiment von Awh und Pashler: Es wird ein 5x5-Display mit 23 Buchstaben und 2
Zahlen dargeboten. Die Probanden sollen die Zahlen benennen. Kurz vor der
Präsentation der Matrix werden 2 cues gezeigt und zwar dort, wo die Zahlen
wahrscheinlich sein werden (zu 80% valide Trials)
Hypothese: Wenn die Aufmerksamkeit zoom-lens ist, die einen bestimmten Bereich
wahrnimmt, sollte die obere Zahl in den invaliden Trials genauso gut erinnert werden
(die Zahl liegt dann zwischen den 2 cued locations oder im Bereich, der gecuet wird).
die Performanz sollte für diese Zahl laut zoom-lens also genauso hoch sein.
Wenn die Aufmerksamkeit jedoch geteilt ist, sollte die schlechter sein als bei den
validen Trials.
Ergebnis: Die Leistung für die ungecuete Zahl in der Mitte der 2 gecueten Zahl ist
schlechter. Anscheinend war dort keine Aufmerksamkeit, spli-attention, möglich.
Nennen Sie 2 Experimente, die Evidenz für objektzentrierte Aufmerksamkeit
liefern
1.Neisser und Becklen: visuelle Aufgabe, die analog zur auditiven
Beschattungsaufgabe ist. Die Probanden sahen 2 Filme, in Überblendtechnik
übereinander gelegt (z.B. Handschlagspiel/Ballspiel). Gruppe 1 sollte 1 Film
beschatten und auf ungewöhnliche Ereignisse achten das klappte gut
Gruppe 2 sollte beide Filme gleichzeitig nach ungewöhnlichen Ereignissen
überwachen viele verpassten die kritischen Ereignisse
2.Behrmann et al.: Zwei gekreuzte Holzstücke mit jeweils einer Ausbuchtung an
einem Ende bzw. 2 Holzstücke, bei denen nur eines eine Ausbuchtung aufwies.
Frage: Ist die Anzahl der Ausbuchtungen gleich an den beiden Enden? die Antwort
wird schneller gegeben,wenn die Kerben auf dem gleichen Objektstreifen sind und
nicht, wenn der Ort der gleiche ist.
das beweist die objektbasierte Aufmerksamkeit. Die Aufmerksamkeit musste nicht
vom einen auf das andere Objekt verlagert werden = schneller
Aufmerksamkeit kann orts- oder objektbasiert sein. Erläutern Sie eine
experimentelle Anordnung, die beides belegt
Experiment von Egly et al.: (zeigt, dass beides nebeneinander exisitieren kann).
Ein Display wurde präsentiert. Der Targetstimulus musste so schnell wie möglich
erkannt werden. Davor wurde ein cue gesetzt: valide/invalide, gleiches Objekt oder
anderes
Ergebnisse:
1.Reaktionszeit ist für das Targetfinden bei invaliden Trials immer langsamer als bei
validen
2.In den invalide Trials war das Auffinden des Targets langsamer, wenn der cue an
einem anderen Ort, aber am gleichen Objekt war ortsbasierte Aufmerksamkeit
3.Die Reaktionszeit ist noch langsamer, wenn es ein anderes Objekt ist Anteil der
objektbasierten Aufmerksamkeit
Steuerung der Aufmerksamkeit: Gibt es Reizeigenschaften, die auf jeden Fall
Aufmerksamkeit auf sich ziehen? Beschreiben sie ein Experiment
Das ist die alte Sicht auf „attentional capture“: d.h. unabhängig von den Zielen der
Person, unflexibel, fest verdrahtet.
Experiment von Folk et al. Attentional capture und Aufgabenrelevanz
Entweder waren die cues farbig oder onset. Die Targets ebenso.
abrupter onset.cue
Target
abruptes onset-target
(valide)
Farb-cue
target
abruptes onset-target
(invalide)
Farb(invalide)
Farb(valide)
Ergebnisse:
1. Wenn die VPN nach abrupten onset-targets suchten, konnten nur onset-cues die
Aufmerksamkeit „fangen“, nicht die Farb-cues!
2.Wenn die VPN nach Farb-targets suchten, konnten nu die Farb-cues die
Aufmerksamkeit „fangen“.
es zeigt sich ein Validitätseffekt nur dann, wenn cue und target durch das gleiche
Merkmal definiert sind. D.h., automatisierte atetntional-capture-Prozesse hängen von
der Beziehung zwischen cue und target ab! Nicht nur vom cue alleine! Das spricht für
die wechselseitige Beeinfllussung (stimulus-driven/goal-directes system).
Wir können durch top-down Zieleinstellung bestimmen, welchen Merkmalen
wir dann Aufmerksamkeit schenken
neue Sicht auf attentional capture: Die Aufmerksamkeit wird gemäß den
Zielen/Aufgaben konfiguriert. Aufgabenrelevante Merkmale haben „attentionalcapture-Potential“, aufgabenirrelevante nicht.
Was ist das Bindungsproblem?
-die verschiedenen Merkmale eines Objektes werden in verschiedenen
Cortexbereichen (vis.) verarbeitet und repräsentiert (Farbe, Form etc. funktionelle
Säulen)
wie schafft das Gehirn es, die neuronale Aktivität dieser verschiedenen
Cortexbereiche zur Wahrnehmung ein- und desselben Objektes zu verknüpfen?
Wie wird versucht, im Paradigma der visuellen Suche zwischen automatischen,
nicht der Aufmerksamkeit bedürfenden Prozesse sowie
aufmerksamkeitsgesteuerten Prozessen zu unterscheiden?
Die Merkmalsintergrationstheorie von Treisman untersucht im Paradigma der
visuellen Suche:
Die VPN sollen möglichst schnell entscheiden, ob ein target in einer Menge von
Distraktoren ist oder nicht. Faktoren sind hier vor allem: ist das target vorhanden oder
nicht und die Anzahl der Distraktoren
Schlussfolgerungen:
1.bei der einfachen Merkmalsssuche: flache Gerade, prä-attentiver, paralleler
Prozess. Das target springt ins Auge. Hier ist die Anzahl der Distrakoren egal. Die
Suchfunktion kann flach bleiben alles kann parallel abegsucht werden, das geht
schnell
2. bei der Merkmalskonjunktionsuche : es gibt hier eine deutlich steigende Gerade.
Je mehr Distraktoren vorhanden sind, desto länger dauert die Suche: seriell,
aufmerksamkeitsbedürfend. Die Suche ist seriell-erschöpfend in negativen
Durchgängen (target abwesend) und selbst-abbrechend in positiven Durchgängen
(target anwesend).
Die Suche ist auch langsam. Die Merkmale werden zu Objekten integriert. Das
Steigerungsverhältnis zwischen negativen und positiven trials ist 2:1.
Beschreiben Sie die Merkmalsintegartionstheorie von Treisman
Das ist eine Theorie, die auf das Bindungsproblem antwortet. Sie schlägt
„Aufmerksamkeit“ als „Klebstoff“ zwischen den verschiedenen Merkmalen eines
Objektes zur ganzheitlichen Repräsentation vor.
1.schneller, initialer, prä-attentiver Prozess. Einfache Merkmalsssuche, braucht keine
Aufmerksamkeit, Verarbeitung parallel.
2. langsamer, serieller Prozess bei mehreren Merkmalen gleichzeitig.
Aufmerksamkeitsgesteuert. Merkmale werden zu einem Objekt kombiniert. Je größer
die Anzahl der Distraktoren (Umweltreize) desto langsamer
3.Merkmalsinformation muss sich im Aufmerksamkeitszentrum befinden, um zu
einem Objekt kombiniert zu werden.
4.Kombination der Merkmale kann durch Vorwissen beeinflusst sein (Bananen sind
immer gelb),
5.Ohne Aufmerksamkeit können die Merkmale auch falsch kombiniert werden
illusionäre Konjunktionen
Objekt
1. Elementarmerkmale identifizieren (Farbkarten/Orientierungskarten etc.) präattentiv, schnell
2. Merkmale kombinieren, Gegenstand aufbauen (Hauptkarte der Orte)
Aufmerksamkeit wird fokussiert, langsam, Verknüpfung parietal „wo“ und temporal
„was“ werden durch Aufmerksamkeit verknüpft
3. temporäre Objektrepräsentation haben, 3-dimensional (Zeit, Ort, Identität, Name
etc.)
4. mit Gedächtnis vergleichen, wenn ein Vergleichsobjekt gefunden wird
5. Objekt erkennen
Gedächtnis
Beschreiben Sie die Theorie der gesteuerten Suche von Wolfe. Welche
Unterschiede bestehen zur MIT?
Wolfe entwickelte seine GST als Antwort auf Treismans MIT-Probleme (idealisierte
Ergebnisse, serielle/parallele Suche).
Es gibt 2 wesentliche Prozessarten
1. salienzgesteuert, bottom-up (ähnlich der einfachen Merkmalssuche)
2. top-down-Prozesse
(ähnlich der Konjunktionssuche)
zu 1. -Je mehr sich ein Display-Item von anderen Items unterscheidet, desto größer
ist die mSalienz in der betreffenden Dimension (hier = Farbe). Salienzsignale werden
dann aufsummiert.
-Die Aufmerksamkeit wird vom Ort der höchsten Hauptkartenaktivitäten angezogen.
zu 2. –Das Target ist das einzige Item, das höhere Aktivation in beiden Dimensionen
bekommt. Die Aktivationsdifferenz ist allerdings geringer als bei der bottom-upSuche; je ähnlicher sich Target und Distraktoren sind, desto geringer sind die
Salienzdifferenzen, desto störanfälliger ist die Suche es kann passieren, dass nonTargets vorher inspiziert werden. Die Salienzberechnungsprozesse an sich sind auch
störanfällig; mit abnehmender Aktivationsdifferenz steigt die Wahrnehmungsfähigkeit,
das Target wird als erstes gesehen.
Wolfe: ähnlich MIT ist initiale, effiziente Verarbeitung von Merkmalen gefolgt von
ineffizienter Suche. Es ist Aufgabe des strengen, parallel-seriellen Systems.
Aufmerksamkeit kann orts- und objektbasiert sein. Erläutern Sie die
experimentellen Anordnungen, die orts- und objektbasierte Aufmerksamkeit
belegen
ortsbasierte Aufmerksamkeit: z.B. LaBerge word task/letter task oder Awh und
Pashler split attention
objektbasierte Aufmerksamkeit: z.B. Filme in Überblendtechnik/Kerben in konische
Streifen
Erklären Sie, inwieweit ein negative-priming-Experiment Annahmen der frühen
Selektion von visueller Information widerlegen kann
Francolini und Egeth: Kreis mit abwechselnd insg. 4 roten Dreiern und insg. 4
schwarzen Ns.
Frage: „Wieviele rote Stimuli gibt es?“ Hier steht das Zahlwort in Konflikt mit der
Anzahl dieser Zahlen. Es gint einen Stroop-Effekt.
Dann Kreis mit insg. 4 schwarzen Dreiern und 4 roten Ss. Gleiche Frage. Die 3 wird
hier nicht beachtet, es gibt keinen Stroop-Effekt.
all dies spricht zwar für eine frühe Selektion, aber wenn im Experiment zuerst die 3
roten Dreier und dann erst die roten Ss kommen, dann gibt es für die „Ss“ eine
höhere Reaktionszeit, da man die Zahl sagen muss, die man im Trial davor
unterdrückt hat. Denn man muss „3“ zu sagen bei den 4 roten Dreiern unterdrücken.
die höhere Reaktionszeit im Folgedurchgang, bei dem man das sagen muss,
spricht dafür, dass die nicht beachtetet Information möglicherweise sehr weit
verarbeitet wird, um dann gehemmt zu werden. Wenn es frühe Selektion gäbe,
würde die Information gar nicht verarbeitet und könnte im nächsten Durchgang
keinen negative-priming-Effekt verursachen.
VL 8 Geteilte Aufmerksamkeit
Nennen Sie Faktoren, die laut modularer Theorien der Aufmerksamkeit zu
schlechterer Leistung in zwei Aufgaben führen und nennen Sie ein Beispiel
-gleiche Stimulus-Modalität (2 Leute sprechen zu mir)
-gleicher Verarbeitungsprozess (frühe vs. späte Selektion)
-gleiche Gedächtniscodes (räumlich oder verbal)
-gleiche Antwortmodalität (z.B. 2 Tasten drücken, „1“ für 1. Antowort, „2“ für 2.
Antwort“
Experiment zur Rolle der Ähnlichkeit: Segal und Fusella: Entdecke ein Signal, visuell
oder auditiv! Stelle Dir ein akustisches oder ein visuelles Ereignis vor! Und zwar
beides gleichzeitig!
Ergebnis: Die Probanden entdecken das Signal viel besser (höheres d´), wenn sie
sich parallel die andere Stimulusmodalität vorstellen. Die Ähnlichkeit von Signal und
Imagination führt zu Interferenz
Was ist die Performance-Ressourcen-Funktion?
Diagramm, drei ansteigende Kurven übereinander, A,B,C.
Die Aufgaben nehmen in ihrer Schweirigkeit ab (von A C), denn ich brauche die
gleichen Ressourcen zur Bewältigung. Die Leistung nimmt trotzdem zu.
Man sagt, die Aufgabe ist datenlimitiert, ab einem gewissen Punkt macht es keinen
Sinn, weitere Ressourcen hineinzustecken. Bis zu diesem Punkt allerdings, wenn
sich also Leistung und Ressourcenverbrauch beide erhöhen, ist die Aufgabe
ressourcenlimitiert.
Was besagt die Performanz-operating-Charakteristik?
das ist die Abbildung einer Leistung in einer Aufgabe als Funktion der Leistung in
einer anderen Aufgabe.
sind beide Aufgaben ressourcenlimitiert, ergibt sich eine Ausgleichsbeziehung: die
Leistungserhöhung in A führt zu einer Verschlechterung in B.
verändert sich die Leistung von A nicht, wenn die Leistung in b verändert wird, ist A
datenlimitiert.
die Rolle der Aufgabenschwierigkeit (übergeordneter Bereich)
Wie wird versucht, die Theorie der generellen Aufmerksamkeitskapazität in der
Tradition von Kahnemann zu testen? Was bestehen dabei für grundsätzliche
Probleme?
Kahnemann: entwickelte eine Theorie mit der Annahme einer zentralen
Aufmerksamkeitskapazität. Diese kann durch Anstrengung und Motivation variieren.
Alle Aufgaben partizipieren an dieser Kapazität. Wenn man eine Doppelaufgabe
lösen will, gilt Folgendes: Übersteigen die kombinierten Anforderungen die
Gesamtressourcen, so entsteht Interferenz ( kritische Determinante ist also die
Aufgabenschwierigkeit für Performanz, das Maß für Interferenz lässt auf die
Aufgabenschwierigkeit schließen).
Experiment von Bourke et al.: 4 Aufgaben, die so gewählt sind, dass sie ganz
unterschiedlich sind und offensichtlich keine spezifischen Interferenzen produzieren:
1. Zufallsbuchstaben generieren, 2. Prototyp lernen, 3. Manuelle Aufgabe, 4. Ziel-Ton
entdecken
Kapazitätsanforderung: absteigend: 1. Random generation, 2. Prototyp lernen, 3.
manual task, 4. tone-task
die VPN sollten immer 2 Aufgaben machen. Eine davon wurde als wichtiger
gekennzeichnet.
Hypothesen: Wenn es eine zentrale Aufmerksamkeitskapazität gibt, dann sollte die
Aufgabe, die die meiste Kapazität erfordert, alle anderen behindern (immer). Die
Aufgabe, die am wenigsten Kapazität benötigt, sollte immer am Wenigsten
behindern.
Ergebnisse:
1.Die Aufgaben interferieren trotz ihrer Unterschiedlichkeit.
2.Die Zufallsbuchstaben-Generierung interferierte am meisten, d.h., die Leistung
dieser und der 2. Aufgabe war immer am Schlechtesten. Die Ton-Aufgabe
interferierte am Wenigsten.
3.Die Zufallsbuchstaben-Generierung interferierte auch unabhängig von der
Relevanz: Ob Erst- oder Zweitaufgabe, das war egal; ebensolches galt für die
Tonaufgabe.
all dies spricht für eine zentrale Aufmerksamkeitskapazität, die Ressourcen für alle
Aufgabentypen bereitstellt.
Erläutern Sie das Verständnis automatischer und kontrollierter Prozesse der
Aufmerksamkeit nach Schneider und Shiffrin und stellen Sie ein Experiment
dazu vor.
kontrollierte Prozesse: - limitierte Kapazität, - benötigen Aufmerksamkeit, - flexibel
automatische Prozesse: - nicht kapazitätsbegrenzt, - keine Aufmerksamkeit nötig, unflexibel (schwer zu beeinflussen und schwer zu modifizieren).
Experiment: Visuelles Suchparadigma:
memory-set 1-4 Buchstaben/Zahlen
display-set ist einer hiervon vom memory-set?
Ergebnisse: 1. Die Anzahl der Distraktoren beeinflusste nur bei varied-mapping die
Reaktionszeit kontrollierter Suchprozess (wie bei Treisman, seriell).
2. Bei der consistent-mapping-Bedingung ist die Anzahl der Distraktoren egal
parallele Suche, ein automatischer Prozess, der aufgrund von Jahren der Praxis im
Unterscheiden von Buchstaben und Zahlen entsteht.
um Automatisierung zu zeigen, machten Schneider und Shiffrin Folgendes:
-im memory-set waren immer die Buchstaben B-L
-im display-set waren immer die Buchstaben Q-Z (Distraktoren)
-nur consistent mapping
es gab große Übungseffekte nach 2100 trails
Automatisierung der Prozesse
dann drehten sie die Bedingung um, d.h es waren jetzt im
-memory-set waren die Buchstaben Q-Z
-display-set waren die Buchstaben B-L (Distraktoren)
es gab jetzt eine schelchtere Leistung als zu Beginn. Die Probanden brauchten
1000 trials, um auf das Ausgangsniveau zurück zu kehren Inflexibilität von
automatischen Prozessen
(auch gutes Beispiel: Reverse-Stroop)
VL 1-1 Gedächtnis-Einführung
Was bezeichnet man als „Blitzlicht-Gedächtnis“? Nennen Sie ein Experiment,
das Evidenz dafür liefert, dass das Gedächtnis kein eigenständiges Phänomen
ist.
Blitzlicht-Gedächtnis: - z.B. gutes Gedächtnis/Erinnern an den 11.9.2001, -z.B. gutes
Erinnern an alle Begleitumstände (was machte man gerade etc.), sehr lebendig,
akkurat, detailliert.
Bedingungen: Vorabwissen --> wird darin eingegliedert, persönliche Relevanz -->
Ereignis sollte große Relevanz haben
emotionale Reaktionen-> förderlich: offener Wiederabruf (z.B. Ereignis oft erzählen)
umstritten: eigener Mechanismus/eigenes Phänomen im Vergleich zum übrigen
Gedächtnis.
Experiment Bohannon:
-Erinnerungsleistung in Abhängigkeit vom Retentionsintervall (2 Wochen, 8 Monate),
vom emotionalen Zustand (ruhig/aufgeregt) und von der Häufigkeit des
Wiederholens.
Ergebnisse: Nur Haupteffekt Zeit (nach 8 Monaten schlechter). Keine
Wechselwirkung bzgl. „aufgeregt/viel“ (müsste es geben, wenn die Annahme des
Blitzlichtgedächtnisses stimmt).
Es zeigt sich also eine normale Vergessensfunktion auch im Blitzlichtgedächtnis. Das
spricht gegen das BG als separates Phänomen.
Experiment Talarico und Rubin: Sie maßen die Konsistenz und Lebendigkeit der
Erinnerung nach 1,7,42,224 Tagen getrennt.
Ergebnis: flashbulb-memories zerfielen wie everyday-memeories, blieben aber
lebendiger
Die gefühlte detailgetreue Erinnerung entspricht nicht objektiv einer gut-detaillierten
Erinnerung. Die o.g. Faktoren begünstigen aber, das Erinnerung sehr viel lebhaften
und näher erscheint.
Nennen Sie die Mnemonics-Methoden
Mnemonics=Gedächtniskünstler
Es gibt 3 Faktoren: 1. sinnvolles Enkodieren (verbunden mit Vorwissen), 2.
spezifische Abruf-Hilfen mit enkodieren (Enkodierspezifität), 3. Übung
Methoden:
-Methode der Orte
-Chunking (Einheiten zusammenfassen)
-Bilder zuordnen
-Reimen
Nennen Sie Einflüsse/Prozesse des Gedächtnisses, die korrekte
Zeugenaussagen erschweren. Welche Alternativen gibt es, um sie valider zu
machen?
Zeugenaussagen sind beeinflusst von:
-Pre- und Postereignissen (Quellenkonfusion: Wo kommt die Information her?
Vergessen/Überschreiben der Gedächtnisspur:Erinnerung nicht mehr vorhanden.
Interferenz: mangelnde Diskriminierbarkeit, prinzipiell sind beide vorhanden, aber
sie unterscheiden sich in Stärke und Zugänglichkeit. Aufforderungseffekt –
Suggestivfragen/“falsche“ Frage, Erwartungen/Schemata)
-Waffeneffekt (Aufmerksamkeitseffekt: Loftus: Die Probanden achten auf die Waffe,
die Aufmerksamkeit attrahiert und nicht auf den Täter)
Alternative: Kognitives Interview.
Das funktioniert nach dem Prinzip der Enkodierspezifität: Je mehr der
Abrufschlüssel mit Erinnerungsinformation überlappt sind, desto effektiver ist er.
Deswegen werden den Personen mehrere „Schlüssel'“ gegeben:
1. den Kontext wieder herstellen, 2. alles berichten, was einem einfällt, 3. Details des
fraglichen Ereignisses in verschiedener Reihenfolge erzählen, 4. das Ereignis aus
verschiedenen Perspektiven erzählen.
Was versteht man unter dem sog. „Falschinformationseffekt“? Wie sieht ein
Experiment dazu aus?
Die Gedächtnisleistung bzgl. eines bestimmten Ereignisses ist zerbrechlich und
anfällig für post-event-falsche Informationen. Sie wird durch ereigniskonsistente
Postinformation verzerrt.
Dies wurde im klassischen Falschinfiormationsparadigma gezeigt: die OriginalInformation war ein „Vorfahrt-beachten“-Schild (z.B. im Film)und dann die gezielte
Frage: „Fuhr ein anderer Wagen vorbei, als der rote Golf am Stop-Schild hielt?“ Die
Pbn bauen die Fehlinformation in die Erinnerung ein, und glauben, sich gut daran
erinnern zu können.
Es konnte gezeigt werden, dass der Falschinformationseffekt kein
sozialpsychologisches Phänomen im Sinne von fehlleitenden „Falschfragen“ ist:
Während im klassischen Paradigma die Frage nicht neutral ist, wurde nun ein
Handwerker mit Hammer gezeigt. In der Experimentalgruppe war die Informations
dann „Handwerker mit Zange“ (Fehlinformation), in der Kontrollgruppe dann
„Handwerker mit Werkzeug“. Im Test „Was für ein Werkzeug? Hammer oder
Schraubenzieher“ zeigte sich immer noch ein Falschinformationseffekt, wenn auch
reduziert. Das zeigt, dass ein Gedächtniseffekt vorliegt.
Auch Überschreibung durch Suggestivfragen spielt eine Rolle (Loftus).: Im
klassischen Experiment sahen die Probanden einen Film, eines Auffahrunfalles. Die
Experimentalgruppe 1 wurde darauf hin gefragt: „Wie schnell waren die Autos, als sie
ineinander krachten?“ Die EG 2 bekam eine ähnliche Frage aber mit : „aneiander
stießen“. Und zwei Wochen später wurde die Frage gestellt: „Haben Sie
zerbrochenes Glas gesehen?“. Die EG 1 glaubte signifikant häufiger an das
Vorhandensein von zerbrochenem Glas.
Des Weiteren spielt auch Quellenkonfusion eine Rolle. Wir speichern auch die Quelle
eines Ereignisses ab, wenn aber die Abspeicherung der Reiz-Quelle-Verbindung
schwach ist, kann es zu Fehlzuschreibungen kommen. Die gegenseitige
Beeinflussung zweier Informationen bei der Falschinformation nennt man auch
„Interferenz“.
VL 2 -1 Prozesse und Strukturen: Sensorisches Gedächtnis und Kurzzeitgedächtnis
Was ist das ikonische Gedächtnis?. Skizzieren Sie einen Experimentalaufbau.
Das ikonische Gedächtnis ist ein Teil des sensorischen Speichers in
Mehrspeichermodellen. Es speichert visuelle Information und hat eine Speicherdauer
von ca. 500 ms (=schneller Verfall). „Ikon“ ist hierbei eine visuelle Einheit (Ikons
werden wie ein Daumenkino zusammengesetzt. Alte Annahme: präkategorial.
Klassisches Experiment von Sperling: Ganzberichtsverfahren: Buchstabenmatrix
(4x3 Buchstaben, 50 ms dargeboten). Dann Abruf. Die Probanden können nur ca. 4
Buchstaben erinnern, wissen aber, dass da mehr waren
Teilberichtsverfahren: gleiche Matrix 50 ms, dann ein Ton (hoch, mittel, tief) für die
Reihe. Die Probanden können die Reihe gut erinnern, egal welche.
--> das ist ein Nachweis für den Speicher, aus dem Items noch erinnert werden
können.
Welche Probleme ergaben sich aus der Annahme eines ikonischen
Gedächtnisses? Wie konnten sie widerlegt werden?
Es stellt sich die Frage, ob es überhaupt ein Gedächtnis ist (Informations-Persistenz)
oder ob es nur ein retinales Nachbild ist (Stimulus-Persistenz). Eine StimulusPersistenz hätte eine neuronale Grundlage.
Das kann man demonstrieren, in dem man auf den Schriftzug „ROT“ schaut (2
Minuten)und dann auf eine weiße Wand. --> grünes Nachbild. Oder durch zu
schnelles An- und Abschalten von Lichtern (Kontinuitätsillusion).
Dass es sich beim ikonischen Gedächtnis nicht allein um eine Stimulus-Persistenz
handelt, konnte gezeigt werden in einem Experiment, in dem als Abruf-cue genutzt
wurde. Nachbilder sind ja komplementär, also hätten in den Antworten systematische
Fehler auftreten müssen. Das war aber nicht der Fall.
Außerdem hat die Präsentationsdauer der Stimuli keinen Einfluss auf die
Erinnerung (50 vs 500 ms). Das spricht für die Informationspersistenz, denn
Stimulus-Persistenz ist abhängig von der Dauer (Reaktion der Zapfen auf Farbe).
Des Weiteren wurde früher angenommen, dass das ikonsiche Gedächtnis
präkategorial verarbeitet. Das konnte widerlegt werden, denn Zahlen und
Buchstaben können als Abruf.cue verwendet werden. Die Leistung ist hier so gut wie
bei räumlichen cues.
weitere Probleme:
Abruf-Interferenz: bei Ganzberichtsverfahren entsteht Interferenz durch die Menge
der Items, für das erste Item gibt es den Effekt nicht.
Art der Fehler:
Identität und Position werden nicht gleich gut erinnert. Das widerspricht der
Ursprungsidee des Ikons.
Was ist ein echoisches Gedächtnis? Nennen Sie ein Experiment, dass Evidenz
liefert für die Informations-Persistenz im ech. G.
Das echoische Gedächtnis speichert auditive Information im sensorischen Speicher.
Dieser ist Teil des Mehrspeichermodells. Die Speicherung erfolgt für ca. 2 Sekunden,
danach verfällt die Information.
Evidenz: z.B. Broadbent --> Experiment zum dichtischen Hören (Probanden gegen
Ohr-weise wieder). Alltagsbeispiel: jemanden fragen, was er gerade gesagt hat. Im
selben Augenblick weiß man es aber auch selbst wieder.
Stimulus-Persistenz wäre das Phänomen, bei dem es eagl ist, ob der Ton 30 oder
130 ms präsentiert wird: Er ist für uns gleich lang. Da es jedoch auch InformationsPersistenz gibt, zeigt sich der Suffuix-Effekt: Es wird eine Reihe von Zahlen
präsentiert. Nach einem Signal „buzzer“ oder einem Sprachbefehl sollen die
Personen erinnern. Das gelingt ihnen viel besser bei „buzzer“, die letzten Items
werden sehr gut erinnert. Idee: Sprachbefehl überschriebt die letzte Information. Das
Geräusch „buzzer“ interferiert aber weniger mit den Items.
Für die Kapazität des KZG prägte Miller (1956) den Begriff der „magical number
7 (plus or minus 2)“. Wie kann man z.B. die Kapazität des KZG bestimmen?
Waws müsste man dabei beachten?
Die Bestimmung des KZG erfolgt typischerweise durch „Digit-Spam“-Aufgaben:
D.h., es werden Zahlen dargetoten z.B. 4719. Es wird z.B. mit 4 Stück gestartet, nach
wenigen ms kommt die Abfrage. Es wird bis auf 10 Zahlen gesteigert. Die Anzahl, ab
der dann nicht mehr erinnert wird, ist die Grenze des KZG (Am Besten werden viele
Trials durchgeführt und dann die Ergebnisse gemittelt).
Zu beachten ist, dass...
-chunking möglich ist
-es verschiedene Lerneffekte gibt
-es primacy- und recency-Effekte gibt
- wenig Zeit zwischen Darbietung und Abruf ist rehearsal verhindern, denn
man will ja nicht, dass die Zahlen in LZG überführt werden
Bestimmt das Ausmaß des Memorierens die Übernahme ins LZG? Schildern
Sie ein Experiment, dass diese Annahme unplausibel macht
Exeriment von Glenberg et al.:
Es wird eine Zahl präsentiert „4852“ (2 Sek.), dann ein Wort „Gurke“ (2 oder 18
Sekunden memorieren), dann kommt die Frage nach der Zahl – „Zahl?“, dann wird
eine neue Zahl dargeboten „5718“.
Am Ende: Wörter erinnern ist bei 2 oder 18 Sekunden gleich. Die Proabnden
dachten, das wäre die Störaufgabe und sie bildeten keine Strategien. Dies widerlegt
die Annahme, dass die Länge des Memorierens die Übernahme ins LZG fördert.
Wichtiger für die Übernahme ins LZG ist es, das zu Erinnernde in vorhandene
Strukturen einzubinden (Verarbeitungsziele).
Beschreiben Sie die Sternbergsuche und deren Ergebnisse
Die Sternbergsuche it eine Experiment zum Verständnis der Verarbeitung im KZG. Es
wird eine Zahl präsentiert „4853“. Dann die Frage „Kam die 8 vor?“ Ja/nein. Die
Reaktionszeit leigt bei etwa 400 ms + 40 ms/Zahl. Je mehr Items dargeboten
werden, desto länger ist die Reaktionszeit.
Das ergint eine lineare Suchfunktion und spricht für die sequentielle Suche (=Zahl für
Zahl). Es gibt keinen Unterschied für ja/nein-Trials: die Suche scheint immer
exhausiv (erschöpfend) zu sein. D.h., auch wenn das Item gefunden wird, wird die
Liste bis zum Ende durchgegangen.
Erläutern Sie an einem KZG-Experiment, dass auch Vergessen nicht nur durch
Spurenzerfall (decay) erklärt werden kann
Beim KZG kann auch Interferenz als Vergessensursache auftreten. Das wird in
einem Experiment gezeigt, in dem man z.B. 3 Tiere präsentiert bekommt (als Wort),
dann 7 Rechenaufgaben und die Frage nach dem Ergebnis gestellt wird. Dann soll
man sich an die Tiere erinnern.
Katze
Fuchs
5
-8
+3 .....
Ergebnis?
Recall
Zebra
Dass erfolgt mehrmals (verschiedene Tiere) und dann der Wechsel:
Pflaume
Apfel
................................................
Zitrone
Ergebnisse: Je mehr trials mit Tieren es gint, desto schlechter wird die
Erinnerungsleistung!
Wenn ein Kategoriewechsel erfolgt, erhöht sich die Leistung wieder.
Das Abrufen von Tieren (also die Aktivierung der immer gleichen Kategorie) führt zu
Interferenz. Je mehr trials es gibt, desto schelchter kann man zwischen den
Gedächtnisspuren unterscheiden, es entsteht Interferenz. Die Informationen
konkurrieren und stören einander. Wird eine neue Kategorie dargeboten, aus der
erinnert werden soll, steigt die Leistung wieder. Dies spricht dafür, dass das LZG
beteiligt ist, denn es wurde eine neue Repräsentation aus dem LZG aktiviert, die die
proaktiven Interferenz der vorangehenden Items aufhebt.
Was bedeutet der Begriff „Mehrspeichermodell“?
Mehrspeichermodell meint die Annahme von spezifischen Gedächtnisstrukturen/systemen als Module, die hierarchsich geordenet sind (klassisches
Mehrspeichermodell).
Annahmen: limitierte Kapazität, Zerfall/Vergessen/Interferenz
Sensorischer Speicher Dämpfung irrelevanter Information
(Pfeil nach unten)
KZG limitierte Kapazität/Zerfall
Memoriren/innerliche Wiederholung/rehearsal
(Pfeil nach unten)
LZG kaum limitiert, aber Interferenz
Experiment: siehe vorherige Frage
VL 3 Arbeitsgedächtnis 1
Skizzieren Sie das klassische WM-Modell von Baddeley und die Funktion der
Komponenten
Phonologische Schleife
central executive (ce)
visual-spatial-sketch-pad (vssp)
Phonologische Schleife: Hilssystem der ce, hält die Informationen kurz in einem
sprachnahen, artikulatorischen Format aufrecht. Ist limitiert.
VSSP: Hilfssystem der CE, hält die Informationen in visuell-räumlichen Format
CE: modalitätsunspezifisches Kontrollsystem, das die beiden Hilfssysteme verwaltet
-Vorgabe von Verarbeitungsprioritäten
-Unterbrechen von Routineaufgaben bei Bedarf
-Überwachung nicht-routinisierter Prozesse
-Vergleich von Handlungsergebnis und Ziel
-Wechsel von Abrufplänen
-Timesharing in Mehrfachaufgaben
-Selektive Aufmerksamkeit
-Aktivierung des LZG
-Antowrt-Hemmung
-ist ebenfalls kapazitätsbegrenzt
Welche Komponenten postuliert Baddeley als Bestandteile seine
Arbeitsgedächtnismodells? Schildern Sie für eine Komponente ein Experiment,
dass die Annahme seiner Komponente plausibel macht
wie oben:
Phonologische Schleife
central executive (ce)
visual-spatial-sketch-pad (vssp)
(Pfeil nach oben und nach unten)
(episodic buffer [eb]) neue Version
EB: wandelt die Information in einen multimodalen Code. Aus mehreren
Quellen/Systemen wird zu einer Episode zusammengeführt
Experiment als Evidenz für VSSP:
Probanden wird ein Bild kurz dargeboten „Stellen Sie sich ein solches F vor“ (F mit
Innenraum) dann erfolgt die Frage: Start unten links. Gehört die Ecke zur oberen,
unteren oder zur dicken Linie.
3 Antwortmodi:
1.zeigen „ja/nein“ auf dem Display für die Ecken des F
nacheinander
2.klopfen (links „ja“, rechts „nein“)
3.sprechen „ja/nein“
Ergebnis: Haupteffekt für den Antwortmodus RT zeigen > RT klopfen > RT
sprechen
Das Scannen des Buchstabens (mental) und das Zeigen der Antowrt interferieren am
Meisten! D.h., die Interferenz ist vor allem räumlicher Art. Das spricht für die
Annahme eines Systems, dass für visuell-räumliche Speicherung zuständig ist, denn
bei einer sprachlichen Aufgabe (d.h. ein verwirrender Satz muss bejaht oder verneint
werden) zeigt sich ein gegenläufiges Muster der Antwortmodi:
RT sprechen >
RT zeigen > RT klopfen
Was ist die sog. Ähnlichkeitseffekt?
Ähnlich klingende Wörter sind schwieriger zu merken (Beil, Keil, Seil etc.). Das gilt
sowohl für visuell als auch für auditiv dargebotene Wörter.
Und es gilt als Evidenz für die Übersetzung visueller Information in einen
artikulatorischen Code (durch einen Kontrollprozess, quasi subvokales Sprechen).
Was ist im Bereich KZG/WM mit dem sog. Wortlängeneffekt gemeint? Der
Effekt verschwindet bei visueller Präsentation und gleichzeitiger
artikulatorischer Unterdrückung. Wie erklärt Baddeley das?
Wortlängeneffekt meint, dass wir uns mehr kurze als lange Wörter kurzzeitig merkren
können. Die unmittelbare Wiedergabe ist eine Funktion des Memorierens (rehearsal).
Von kurzen Wörtern werden mehr memoriert. Es gint eine ziemlich präszise
Bestimmung zwischen Leserate und Leistung (time-based-word-length-effect). Es
wird angenommen, dass PL (phonologic loop, phonologische Schleife) durch die
langen Wörter schneller voll ist, die letzten Wörter überschreiben die ersten.
Dass der Effekt bei visueller Präsentation und gleichzeitiger artikulatorischer
Unterdrückung verschwindet, erklärt sich so:
Die auditive Information hat einen direkten Zugang zum Speicher. Die visuellsprachliche muss erst durch den artikulatorischen Kontrollprozess (quasi subvokales,
inneres Sprechen) übersetzt werden, um Zugang zu bekommen. Ist dieser
Übersetzungsprozess gestört durch eine Zweitaufgabe (artikulatorische Suppression,
z.b. immer „see-saw“ sagen) bricht der Wortlängeneffekt zusammen. Weder kurze
noch lange Wörter werden noch gut erinnert, man ist in beiden Bedingungen
schlecht.
Wozu ist die phonologische Schelife nützlich (praktische Relevanz)?
Patienten mit gezeilten Ausfall der PL haben wenig Einbußen im Alltag. Sie zeigen
kaum Defizite im Experiment „Paarassoziationslernen“ mit bekannten Wörtern. Wenn
aber unbekannte Wörter verwendet werden, ist die Leistung = 0. Die PL scheint sehr
wichtig beim Spracherwerb zu sein (Übergang ins LZG, verbinden mit vorhandenem
Wortschatz?) und zeigt sich in Verbindung mit dem „Nicht-Wörter-Wiederholungstest“
(NWW) als bester Prädikator für den Wortschatz.
Was vesteht man unter „mentaler Rotation?“
„Mentale Rotation“: es werden zwei geometrische Formen dargeboten, die gleich
oder verschieden sind. Eine davon ist um einen bestimmten Winkel im Raum gedreht
(die Figuren sind dreidimensional und „schweben“ im Raum). Die Probanden sollen
dann die zwei Figuren vergleichen und entscheiden, ob sie verschieden sind.
Es findet sich ein typischer Befund: die benötigte Reaktionszeit ist abhängig von der
Größe der Winkeldisparität der beiden Objekte. Je mehr das Vergleichsobjekt sich in
seiner Ausrichtung unterscheidet, desto länger braucht der Pb., um zu entscheiden.
Dies spricht dafür, dass wir das Objekt „mental rotieren“, sodass wir vergleichen
können.
Das gilt als Evidenz für das Vorhandensein eines visuell-räumlichen Moduls, evtl.
sogar für das Vorhandensein eines Gedächtnissystems (VSSP, Baddeley). Und als
Evidenz, dass die Objekterkenung teilweise doch perspektivisch ist.
Was ist die „zentrale Exekutive“ und welche Aufgaben übernimmt sie?
Beschreiben Sie ein klassisches Experiment, um CE-Anteile zu messen
Die „zentrale Exekutive“ ist ein modalitätsspezifisches Kontrollsystem zur Verwaltung
der beiden Hilfssysteme PL=phonologische Schleife und VSSP. Es hat keine
Speicherkapazität!!
es vermittelt, lenkt/hemmt die selektive Aufmerksamkeit, aktiviert zeitweilig das
LZG, lenkt die Aufmerksamkeit von einer Aufgabe zur anderen, aktualisiert und
erkennt die Inhalte des Arbeitsgedächtnisses und wechselt zwischen
Abrufplänen/Timesharing in Mehrfachaufgaben.
Experiment: Zufallszahlen generieren
Baddeley: Man soll Zufallszahlen auf einer Tastatur eintippen
-ohne Zusatz
-Alphabet aufsagen
-aufwärts zählen
-abwechselnd einen Buchstaben und eine Zahl aufsagen (A1, B2, C3...)
Ergebnis: Zufallszahlen generieren und abwechselnd einen Buchstaben und eine
Zahl aufsagen produziert am Meisten Kosten in Performanz. Das scheint am
Wechsel zwischen den Abrufplänen zu leigen, der die CE in beiden Aufgaben
beansprucht.
Welche Probleme ergab das klassische WM-Modell von Baddeley? Welche
Komponente unter der Annahme welcher Funktion wurde hinzugefügt, um das
Modell wieder plausibel zu machen?
Problem: Die Leistung in Aufgaben mit artikulatorischer Unterdrückung war teilweise
noch zu gut, um mit diesem Modell erklärt werden zu können.
Im Experiment zeigt sich zum Beispiel zwar ein Zusammenbruch des
Wortlängeneffektes bei visueller Präsentation und Unterdrückung. Kurze Wörter
werden immer noch besser erinnert, die Leistung insgesamt ist zu gut, um
ausschließlich mit einem auditiv-sprachnahen Gedächtnismodul erklärt werden zu
können. Nach dem alten Modell zerfällt aber die Information ohne artikulatorisches
rehearsal.
Lösung: Episodic buffer
-wird angenommen als multimodales, multidimensionales System, das zwischen
den anderen 2 Systemen vermittelt. Er macht aus Informationen unterscheidlicher
Quellen Episoden.
-erklärt z.B. auch, warum wir mehr zusammenhängende Wörter als einzelne,
unverbundene Wörter erinnern semantische, syntaktische Funtion des episodic
buffer
-wird vom CE kontrolliert
-speichert mehr als die phonologische Schleife
VL 4 Arbeitsgedächtnis 2
Wie die CE zum Speichern genutzt? Nennen Sie ein Experiment, das
Gegenevidenz liefert. Wofür scheint die CE zuständig zu sein?
2 Experimente:
1. Schachexperimente: Hier gab es Doppelaufgaben, nämlich Schachspielen un
a) „see-saw“-sagen (phonetische Schleife)
b) Tasten im Uhrzeigersinn drücken (VSSP)
c) Zufallszahlen generieren (CE)
d) keine
Ergebnis: -Haupteffekte für Anfänger/Experten: Exp. erreichen ein generell höheres
Niveau
-Haupteffekt Zweitaufgabe: bei der Zweitaufgabe sind b und c signifikant schlechter
-die Aufgabe 1 hatte keinerlei Asuwirkungen auf die Leistung
Denn beim Schachspielen wird vor allem VSSP und CE genutzt. Da die
Zweitaufgabe den gleichen Gedächtniscode beansprucht, kommt es zu
Interferenz.
Die Ergebnisse zeigen, dass das Arbeitsgedächtnis von Anfängern und
Experten auf die gleiche Weise genutzt wird, nur sind Experten auf einem
höheren Niveau. Die Zweitaufgaben, die bewältigt werden müssen,
benötigen Aufmerksamkeit!
2. Experiment Bourke et al.: 4 verschiedene Aufgaben: 1. Zufallszahlen generieren,
2. Prototypen lernen, 3. Manuelle Aufgabe, 4. Signalentdeckung.
Es sollte immer eine dieser Aufgaben gelöst werden und eine Zweitaufgabe. Einer
der beiden wurde als wichtiger gekennzeichnet.
Ergebnisse:
-Zufallsbuchstaben generieren interferiert am Meisten mit allen anderen, die
Tonaufgabe am Wenigsten
dieses Experiment kommt aus dem Zusammenhang der Theorie der „limitierten
Aufmerksamkeitskapazität“. Die Aufgabe, die am Meisten mit den anderen
interferiert, benötigt am Meisten aus dieser. Die Aufgabe, die am Wenigsten
interferiert, benötigt am Wenigsten Aufmerksamkeit.
In diesem Fall benötigt die Zufallsbuchstabengenerierung am meisten
Aufmerksamkeit – eine „klassische CE-Aufgabe“!
Das spricht dafür, das das CE nicht zum Speichern, sondern zur
Steuerung/Bereitstellung der Aufmerksamkeit zuständig ist.
Vergleich working-memory (CE) – Aufmerksamkeit (working attantion).
-beide führen zentrale, kognitive Operationen durch
-beide werden nicht zum Speichern benutzt
-es gibt jeweils eine beschränkte Kapazität (bestimmte Modelle)
- in Studien zeigen sich die gleichen Ergebnisse zu den gleichen Hypothesen.
Schildern Sie Cowans Modell eines WM-Systems
Das Arbeitsgedächtnis/WM besteht aus den momentan aktivierten Elementen des
LZG. Daraus bildet eine Teilmenge dieser aktivierten Elemente den Fokus der
Aufmerksamkeit. Das Modell trägt somit der Relevanz der Aufmerksamkeit für die
Leistung in Doppelaufgabenexperimenten Rechnung (z.B. Schachexperiment von
Bourke et al.).
-Wenn bekannte Stimuli von geringer Relevanz in das sensorische Gedächtnis
kommen, aktivieren sie darauf hin einen Gedächtniseintrag, ziehen aber nicht
unbedingt Aufmerksamkeit auf sich.
Willentlich kann auf diese Stimuli natürlich Aufmerksamkeit gerichtet werden die
zentrale Exekutive gibt eine Meldung vom aktivierten Bereich im Fokus der
Aufmerksamkeit = top-down-Prozess
-neue Stimuli oder sehr wichtige ziehen automatisch aufmerksamkeit auf sich =
bottom-up
-manche aktivierten Einträge führen zu automatischen Reaktionen
-andere Reaktionen sind kontrolliert (auf der Basis aktivierter Einträge).
!Priming-Effekte könnten entstehen durch die Aktivierung im nicht-fokussierten
Bereich (unbewusst). Das erklärt auch Lernen ohne Aufmerksamkeit: Verknüpfungen
im nicht-fokussierten, aber aktivierten Bereich werden erstellt und abgespeichert, um
darauf zurückgreifen zu können.
Beschreiben Sie ein Experiment, das zeigt, dass das „cocktail-party“Phänomen eher als Fehlleistung des Arbeitsgedächtnisses zu betrachten ist
Experiment von Wood und Cowan: Es gab eine dichotische Höraufgabe. Der Name
des Pbn kam an einer bestimmten Stelle auf dem nicht zu beschattenden Ohr. Die
Aufteilung der Probanden erfolgte in high WM span/bzw. WM-span
Ergebnisse:
-nur wenige high-spans bemerken den Namen, sie zeigten einen kurzen
Aufmerksamkeitsshift für 2 Items (shadowing)
-viele low-spans entdeckten den Namen, machten dann viele Fehler in der
Beschattungsaufgabe
Als Personenvariable high/low-span kann man zeigen, dass es an der
Spanne und der Fähigkeit, Aufmerksamkeit gegen Distraktoren abzuschirmen,
liegt, ob man Namen entdeckt. Bei einer hohen Spanne tritt der Effekt nicht
auf, das ist eher ein Aufmerksamkeitsdefizit.
VL 5 Langzeitgedächtnis 1 – Strukturen
Unterscheiden Sie die deklarativen Gedächtnissysteme von
prozeduralen/nondeklarativen. Nennen Sie ein klassiches Fallbeispiel, dass die
Annahme des prozeduralen Systems rechtfertigt
deklarativ
semantisch
non-deklarativ
episodisch
prozedural
perzeptuell
klassisches Fallbeispiel: Patient H.M.
Er erlitt eine bilaterale medio-temporale Lobektomie (Epilepsie). Danach bekam er
eine schwere anterograde Amnesie und hatte kein LZG mehr. Außerdem litt er dann
an einer retrograden Amnesie für einen Zeitraum von ca. 11 Jahren vor der
Operation. Er war unfähig, Neues zu lernen. Das Kurzzeitgedächtnis ist nicht
beeinträchtigt.
H.M. nimmt bis heute an psychologischen Experimenten teil. Er zeigte in klassischen
Aufgaben wie dem Spiegelzeichnen eine Verbesserung über mehrere Tage, konnte
sich aber nicht bewusst erinnern Vorhandensein eines non-deklarativen
Gedächtnissystems.
Beschreiben Sie ein Experiment und seine Ergebnisse, das zeigt, dass man
Perzeptuelles vom Deklarativem trennen kann. Gilt dies auch für perzeptuelle
und prozedurale Strukturen? Erläutern Sie am Beispiel
perzeptuell non-deklarativ
vs. deklarativ
Experiment von Cermak et al.
-Karsakoff-/ bzw. C2-Patienten wurde eine Liste mit Wörtern präsentiert. Es gab 2
Tests: einen Wiedererkennungstest (deklarativ) und eine Primingaufgabe:
Identifikationszeit (perzeptuell)
Ergebnis: Es gab einen Haupteffekt für Listenwörter/Nichtlsitenwörter (bei
Nichtlistenwörtern waren die Pbn immer langsamer). Außerdem gab es einen
Haupteffekt für die Patientengruppe. Die Korsakoff-Patienten waren in der
deklarativen Aufgabe schlechter
Als die C2-Probanden- Das lässt auf ein Defizit des deklarativen Gedächtnisses
schließen (Amnesie).
In der perzeptuellen Aufgabe gab es keinen signifikanten Unterschied zwischen den
Gruppen.
Amnestiker sind immer schlechter im free recall, im cued recall und in der recognition
memory, bei Wortergänzungen gibnt es jedoch keine Einbußen.
perzeptuell vs. prozedural
Experiment von Butters et al.
-Alzheimer/Huntington-Patienten wurde eine rotary-pursuittask/Wortergänzungaaufgabe vorgelegt.
Ergebnis: Die Alzheimer-Patienten sind besser in der rotary-task (prozedural). Die
Huntington-Patienten sind dorts ehr schlecht. Sie sind dafür etwas besser in der
Wortergänzung (perzeptuell).
Deklaratives und explizites Gedächtnis swoie prozendurales und implizites
Wissen werden oft gleichgesetzt, sind aber nicht synonym. Zeigen Sie dies an
einem Experiment
„explizit“ und „implizit“ beziehen sich mehr auf den Prozess (bewusst/unbewusst)
neuere Auffassung:
-das deklarative Gedächtnis speichert Beziehungen zwischen Merkmalen/Objekten
-im prozeduralen Gedächtnis sind einzelne, unverbundene Komponenten
Schachter et al. (Stimmenexperiment)
Amnestikern/Kontrollgruppe wurden Wörter auditiv dargeboten. Im Test wurde alte
und neue Wörter präsentiert. Die alten wörter wurden entweder mit einer neuen oder
der alten Stimme gesprochen (repaires 50%, same voice 50%)
Dann gab es 2 Tests: Das Wiedererkennen (direkt) und das Wort bei gefilterter
Darbietung erkennen (indirekt) die Wörter waren sehr schlecht zu hören durch den
Filter, deshalb indirekter Test
Ergebnisse:
-im direkten Test erkennen die Amnestiker weniger Wörter wieder als die
Kontrollgruppe
wie erwartet. „Same“ und „different“ voice machte keinen Unterschied (Haupteffekt
für die Gruppen).
-in der Filteraufgabe,dem indirekten Test gab es einen unerwarteten Unterschied in
der „same-voice“-Bedingung
-in der Bedingung, in der die Wörter zwar von Stimmen, die sie vorher gehört hatten,
gesprochen wurden, die aber in der Lernphase nicht dieses Wort gesprochen habenn
(„repaired condition“ = re-gepaart) zeigte sich, kein Unterschied der Pbn. Amnestiker
waren sogar ein bisschen besser.
In der „same-voice“-Bedingung waren sie jedoch wesentlich schlechter, d.h., sie
erinenrten sich nicht so gut wie die Kontrollgruppe, dass die Stimme das Wort vorher
gesagt hat.
Schlussfolgerung:
Man hätte nach alter Auffassung erwartet, dass Amnestiker im direkten Test
schlechter abschneiden (das tun sie auch) und im indirekten Test keinen
Leistungsunterschied zeigen. Weder für „re-paired“- noch für „same voices“. Sie
zeigen jedoch Defizite in der Bedingung, in der Stimme und Wort gleich sind, was
bedeutet, dass die Kontrollgruppe einen Vorteil aus der Relation Wort-Stimme zieht.
Die Amnestiker sind nicht in der Lage, Verbindungenherzustellen als deklarativen
Vorgang. Sie können nur die Items einzeln verarbeiten Fehler im deklarativen
Gedächtnis.
Der indirekte Test testet in diesem Fall also auch Erfahrungsnachwirkungen des
expliziten Gedächtnisses.
VL 6 – 1 Langzeitgedächtnis 2 – Prozesse 1
Beschreiben Sie die Lern-/Vergessenskurve als Potenzfunktion. Geben Sie ein
Besipiel für die neuronale Entsprechung dieser Funktion
Lernkurven sind in der Regel Potenzfunktionen. D.h., wenn man ein Leistungsmaß
(aV) mit einem Übungsmaß (uV) logarithmiert, ergibt sich eine lineare Beziehung
-die Übung eines Inhaltes steigert die Stärke der entsprechenden Gedächtnisspur
-die Lern- und Vergessenskurve ist negativ beschleunigt. Mit der Zeit erfolgt das
Vergessen immer langsamer bzw. der Anteil der Verbesserung wird irgendwann
stabil/stagniert.
Bsp. neuronal:
Die Anwortrate der hippocampalen Neurone von Ratten steigt mit den Übungstagen
an. D.h., die Stimulation macht die Neurone sensibler und erhöht sensitiv für erneute
Stimulation. Die erhöhte Sensitivität ist lang anhaltend.
Langzeitpotenzierung!! Ist eine Form des neuronalen Lernens, die mit
verhaltensbasierten Lernmaßen im Zusammenhang steht = Neurone lernen nach
Potenzfunktion.
Man kann hier also das Potenzgesetz des Verhaltens 1:1 auf das Potenzgesetz der
Neurone übertragen.
Welche Probleme ergeben sich beim Test auf Spurenzerfall und
Konsolidierung?
Das sind Tests über längere Zeiträume, um das Behalten und Vergessen zu
überprüfen. Sie sind immer mit den Erlebnissen in den Intervallen konfundiert! Es ist
deshalb schwierig, dies experimentell zu testen.
Im Albor wurde z.B. mit Schlaf-Wach-Zyklen getestet, dort gibt es eine Konfundierung
mit der Tageszeit.
Was bedeutet Elaboration? Erläutern Sie an einem Experiment die Rolle der
Elaboration
„Elaboration“ meint, dass zwischen den Items Verbindungen hergestellt werden
(mental).
Experiment von Anderson et al.
Die Leute sollten Sätze präsentieren z.B.: „Der Arzt hasste den Rechtsanwalt“.
Dann die Gruppe 1 ohne Elaboration, die Gruppe 2 mit einer eigenen Eleboration
(„..., weil er ihn wegen eines Kunstfehlers anzeigte.“)
Abruf: „Der Arzt hasste...“
Ergebnis:
Bei Abruf ist die Gruppe 2 besser, da durch die Elaboration tiefer verankert wird
Verarbeitung
Ein weiteres Experiment zeigt....
............schlechte Leistung für unpräzise Elaboration
............beste Leistung für präzise Elaboration
Was bedeutet „Verarbeitungstiefe“? Nennen Sie ein Experiment, in dem die
Ergebnisse mit dem Verarbeitungstiefeansatz erklärt werden. Welche Probleme
ergeben sich?
„Verarbeitungstiefe“ meint, dass man sich auf die Art der Verarbeitung einzelner
Items konzentriert (nicht auf die Verbindung zwischen ihnen, das wäre Elaboration).
Dazu exisitiert folgenden Rahmentheorie:
Levels of processing:
-es gibt verschiedene Levels, auf denen verarbeitet wird oberflächlich-physikalisch
bis tief-semantisch
-je tiefer die Verarbeitung ist, desto besser ist die Erinnerung
-tiefe Verarbeitung führt zu elaborierteren (verknüpfteren), länger bestehenden und
stärkeren Gedächtnisspuren
Experiment von Hyde et al.: Man sollte eine Liste von Wörtern bearbeiten unter 4
Bedingungen: 1. E oder G checken sind E oder G im Wort?
2. Part of speech Substantiv? Adjektiv?
3. Häufugkeit wie oft wird das Wort im Wortschatz benutzt?
4. Gefallen ist das Wort für mich positiv oder negativ?
Die Bedingungen 3 und 4 zielen auf semantische Verarbeitung. Sie bringen im Recall
auch die höchste Leistung (HR für 4 Bedingungen). Indiz für tiefe Verarbeitung
Probleme:
-Zirkelschluss! Man ist besser, wenn mqn tief verarbeitet, eine tiefe Verarbeitung
zeigt sich in besserer Leistung es gibt kein unabhängiges Maß für die
Verarbeitungstiefe
-liegt es vielleicht auch an der Distinktheit/TAP, wenn besonders gut/schlecht erinnert
wird?
Beschreiben Sie ein Experiment, das zeigt, dass der Selbstreferenzeffekt kein
eigenständiges Phänomen ist, sondern mit dem Verarbeitungstiefeansatz
erklärt werden kann
Experiment von Rogers et al.: es gab eine Liste von Adjektiven und 4 Bedingungen
der Bearbeitung:
1.strukturell – ist das Wort in Großbuchstaben?
2.phonemisch – reimt es sich mit ...?
3. semantisch – bedeutet es dasselbe wie ...?
4.selbstbezogen – beschreibt es mich?
Ergebnis:
-Es gibt einen Haupteffekt für die Bearbeitung, semantisch gut, selbstbezogen
doppelt so gut
Erklärung mit Verarbeitungstiefeansatz: Semantische Verarbeitung der
selbstbezogenen Adjektive wird im schon vorhandene, eh schon starke
Gedächtnisspuren eingegeliedert.
Skizzieren Sie ein Experiment, dass die Rolle der Distinktheit in
Verarbeitungtiefe-Effekten zeigt
Experiment von Eysenck und Eysenck:
distinkt
semantisch
nicht semantisch
nicht distinkt
Ergebnis: Haupteffekt für beide Faktoren! Ein Teil des Verarbeitungstiefeansatzes
scheint auf Distinktheit zurück zu gehen. Auch in der nicht-semantischen Bedingung
zeigte sich ein Vorteil bei distinkter Verarbeitung. In der semantischen Aufagbe waren
die Probanden am Besten, wenn das Wort distinkt verarbeitet wurde.
Diese Ergebnisse sprechen dafür, dass die Besonderheit und Abgrenzbarkeit
ebenfalls für eine bessere Erinnerungsfähigkeit verantwortlich ist.
Was versteht man unter dem Prinzip der Enkodierspezifität? Schildern Sie ein
Experiment dazu. Inwieweit hilft es uns, „Vergessen“ zu verstehen?
„Enkodierspezifität“ meint, dass die Gedächtnisspur eines Items aus der eigentlichen
Information und der Kontextinformation besteht.
Wenn der Kontext in Abruf- und Lernsituationen der gleiche ist, fungiert der
Abrufkontext als Schlüssel. Es gibt mehrere Arten von Schlüsseln:
-externe Schlüssel: z.B. die Umwelt (Experiment Taucher)
-interne Schlüssel – z.B. Stimmung (Experiment happy/sad), Körperzustand
(Experiment Zigaretten/Marihuana)
Bsp.: Experiment Godden und Baddeley: Es ging um Lernen an Land oder unter
Wasser und den folgenden Abruf an Land oder unter Wasser
Ergebnis: (disordinale Wechselwirkung)
Die Probanden waren, wenn sie an Land gelernt hatten, schlecht beim Recall unter
Wasser, sehr gut an Land. Gleiches gilt entsprechende für die Unter-Wasser-Lerner
D.h., der Umweltkontext fungiert als Abrufschlüssel
Das Prinzip der Enkodoerspezifität hilft uns, Vergessen zu verstehen, wenn wir z.B.
in Lern- und Abrufsituationen nicht mehr im gleichen Kontext sind. Die Abrufschlüssel
von Zeitpunkt 2, also der neuen Situation, sind nicht mehr mit dem zu Erinnernden
assoziiiert.
Da sich unsere Kontexte (Umgebung, Stimmung etc.) über die Zeit verändern, ist die
Erklärung plausibel.
Was bedeutet TAP? Beschreiben Sie ein typisches Experiment, dass TAPAnnahmen illustriert.
TAP bedeutet: „transfer-appropriate-processing (Je besser Prozesse
übereinstimmen, umso besser ist die Leistung). D.h., das, wovon ich denke, dass es
später wichtig ist, merke ich mir an einer Sache. Ich verarbeite das, wonach gefragt
wird, stärker und kann mich dann besser daran erinnern.
Verschiedene Aufgabe führen also dazu, dass ich verschiedene Informationen über
ein Item enkodiere.
Die Leistung in einem späteren Test wird dadurch bestimmt, wie relevant die
Informationen im ersten Test waren.
Experiment von Morris et al.: Es wurde Wörter präsentiert und dann 2 Fragen dazu
gestellt
1.Lernphase: a) „reimt sich mit ..“ nicht-sematisch
b) semantisch (Fragen, die sich auf Semantik beziehen)
2.Testphase: a) „Kreuze alle Wörter an, die sich mit dem Lernwort reimen“
Test-Recognition
b) Standardtest (Recognition)
Reim-
Ergebnis: Wechselwirkung (hybrid), HE für die Testart, die Standardtestleistung ist
immer besser (üblicher Verarbeitungstiefeeffekt), im Reimtest ist man besser, wenn
man etwas reimgelernt hatte, im Standardtest ist man besser, wenn man etwas
semantisch gelernt hatte.
Das spricht für TAP
Die Leistung im Test ist besser, wenn der Test das in der Lernsituation
relevante abfragt. Das widerspricht dem Verabreitungstiefeansatz, der ja
annimmt, dass semantisch immer besser ist.
Was bedeutet „cue-depended-forgetting“? (Bsp)
Die Information ist prinzipiell im Gedächtnis verfügbar, aber der Abrufschlüssel ist
unzureichend.
CDF zeigt sich z.B. in Experimenten mit free+cues recall: Wenn die Kategorien als
Abrufschlüssel gegeben werden, ist die Leistung oft signifikant besser als im free
recall.
Skizzieren Sie ein klassisches Experimentaldesign, um pro- und retroaktive
Interferenz zu prüfen. Sind Menschen mit hoher WM-Spanne generell
resistenter gegenüber Interferenz?
Hab ich nicht gemacht, da ich mit word nichts aufzeichnen kann.
Interferenz entsteht durch mangelnde Diskriminierbarkeit von Spuren. Die Spuren,
die miteinander konkurrieren, sind unterschiedlich stark und unterschiedlich
zugänglich.
Im Experiment zeigen sich Menschen mit hoher WM-Spanne resistenter gegenüber
proaktiver Interferent. Alelrdings nur, solange keine Zweitaufgabe hinzukommt („no
load“). Wenn ihr Arbeitsgedächtnis zusätzlich belastet wird, findet sich kein
Unterschied mehr in der Leistung von niedrigen/hohen WM_span-Menschen.
Aufmerksamkeit spielt also eine wichtige Rolle.
VL 7 Langzeitgedächtnis 3 – Prozesse 2
Nennen Sie direkte und indirekte Gedächtnistests
Direkt:
Recall -free
-cued (beide Wiedergabe)
Recognition -two altern forced choice (Welches der beiden Items
wurde in
der Lernphase …?)
-ja/nein (Standard)
Indirekt:
beide Wiedererkennen
-Repetition priming (Standard)
z.B. Wortfragment ergänzen im Test
Skizzieren Sie das 2-Hochschwellenmodell und gehen Sie auch auf die
Parameterhergleitung ein
Trefferrate: Pb = r + (1-r)*g
Rate falscher Alarm: Pn = (1-r)*g
Sensitivitätsparameter: Pr = Pb-Pn Rateparameter: Br = g = Pn/(1-Pr)
Das 2-Hochschwellenmodell ist die Alternative zu d´ und ß
1.Gesichter zeigen
2.Fotostapel hast Du die Gesichter schon mal gesehen
In der Gedächtnispsychologie unterscheidet man zwischen „intentionalen“ und
„inzidentellen“ Lernbedingungen. Was ist gemeint? Wie kann man erklären,
dass die Gedächtnisleistung bei freier Wiedergabe relativ besser unter
intentionalem, bei Wiedererkennen relativ besser unter inzidentellem Lernen
ist?
intentional:
Klausur
absichtsvoll, ich weiß, dass später abgefragt wird, wie Lernen für eine
inzidentell:
Spaß
ohne Absicht, ohne Wissen um den Test, einfach z.B. ein Sachbuch aus
lesen
Hierzu sagt die 2-Prozess-Theorie, dass beim Erinnern zwei mögliche Prozesse
bestehen:
1.Abrufprozess
2.Verteilungsprozess
Wiedergabe-Tests benötigen hiernach beide Prozesse, Wiedererkennen nur den
zweiten.
Man stellt sich vor, die Items sind quasi durch Verbindung geknüpft und durch
Kontextmarker gekennzeichnet. Es gint starke und schwache Verbindungen und
Marker.
Beschreiben Sie den „recognition failure“. Wieso stellt er ein Problem dar für
die 2-Prozess-Theorie?
Die 2-Prozess-Theorie nimmt an, dass die Rekognitionsleistung immer besser ist, da
nur der Urteilsprozess stattfinden muss.
Es zeigt sich jedoch in manchen Aufgaben, dass die Pbn den Recall gut schaffen,
aber nur 50% dieser Wörter wiedererkennen.
Man erklärt dies mit der Enkodierspezifität: die freie Wiedergabe hat den besseren
Kontextcue. Dieses Ergebnis führte dazu, zwischen „alt“- und „neu“-Urteilen der
Wiedererkennung zu unterscheiden, nämlich in „remember“ und „know“
Zu welcher Unterscheidung führte das Phänomen des „recognition failure“?
Wie konnte die Dissoziation im Experiment empirisch belegt werden?
Dieses Phänomen führte zu der Unterscheidung .....
....remember: bewusstes Erinnern an das Item, man erinnert die Enkodierphase
....know: Wissen, dass man es kennt (alt), aber ohne bewusstes Erinnern an die
Enkodierphase
Es gibt experimentelle Manipulationen, die Unterschiede in den beiden Urteilen
aufzeigen.
Man fragt den Probanden dann: „Hast Du Dich erinnert, oder hast Du das irgendwie
gewusst?“
Ergebnis: Es gibt einen Bildüberlegenheits- und Verarbeitungstiefeeffekt für
„remember“, das heißt, bewusste Erinnerung ist größer für semantisch verarbeitete
Items und Bilder. „Unbewusstes“ Wiedererkennen ist immer schlechter und zeigt
relativ in Reim- und Wortaufgabe eine bessere Leistung.
Erläutern Sie ein Experiment zum „false-fame“-Effekt unter Verwendung und
Erklärung der Begriffe „Recollection“ und „Familiarity“
Experiment von Jacoby et al.:
1. Namen auf dem Bildschirm: Nachsprechen der Namen
a) ... mit voller Aufmerksamkeit
b) mit einer Doppelaufgabe (Zahlen)
nicht berühmte Personen (Pbn wussten das)
2.Testphase: Präsentation von Namen (dabei Wiedererkennen), berühmt oder nicht
berühmt?
2 Möglichkeiten:
a)„Ich erinnere mich, dass der Name auf der Liste war, also ist er nicht berühmt
(wäre recollection)
b)„Der Name kommt mir irgendwie vertraut vor. Ich kann mich nicht erinnern, dass
er auf
der Liste war. Er muss berühmt sein“ (wäre familiarity).
Ergebnisse: Es gibt einen Interaktionseffekt. Unter voller Aufmerksamkeit scheint
recollection zu funktionieren, unter geteilter scheint eher ein Vertrautheitseffekt
einzusetzen. Die Wahrscheinlichkeit, einen Namen für berühmt zu erklären, obwohl
er auf der Lernliste stand, wird unter Doppelaufgabenbedingung sehr hoch
eingeschätzt.
Familiarity bezeichnet Wiedererkennen auf der Basis von Vertrautheit , ist eher
implizit (remember).
Recollection meint Wiedererkennen auf der Basis von Erinnerung an die
Enkodierphase („know“). Es ist eher explizit:
Beim false-fame-Effekt liegt also Familiarity vor „ohne Recollection“. Es besteht eine
Vertautheit mit dem Namen, aber durch die geteilte Aufmerksamkeit kann man sich
nicht bewusst erinnern, warum er vertaut ist.
Skizzieren Sie kurz ein repetition-priming-Experiment und erklären Sie, worauf
man in der Lern- und Testphase achten muss
Indirektes Gedächtnismaß, Standardmaß
Stimuli
Stichprobe A
Stichprobe B
Brot
Tanz
Hecht
Stift
Stuhl
Tisch
B_O_
ST_ _ L
Lernphase: inzidenziell, die Pbn wissen nicht, dass sie später abgefragt werden
Testphase: ohne Hinweis, dass Stimuli in vorhergehender schon vorkamen
Priming: (allgemein): Die Verarbeitung eines Reizes profitiert bei wiederholter
Darbietung (bewusst und unbewusst).
Eine wichtige Unterscheidung in der Gedächtnispsychologie besteht zwischen
explizitem und implizitem Gedächtnis. Erläutern Sie die Unterschiede! Wie
gelangte man zu der Vermutung, dass unterschiedliche Strukturen oder
Prozesse hinter dieser Unterscheidung stecken?
explizit: bewusster Prozess, Leistung hängt ab von der bewussten Erinnerung der
Enkodierphase, Test direkt
implizit: unbewusster Prozess, Leistung wird durch die vorherige Lernepisode
gesteigert, ohne dass man sich bewusst an die Lernepisode erinnert, Test indirekt
Bei direkten und indirekten Tests enstehen im Experiment Dissoziationen!
D.h., die Leistungen unterscheiden sich je nach Test.
Das wurde z.B. gezeigt im Repetition-Priming-Experiment von Tulving et al.:
1.Lernen von seltenen Wörtern
2. Test nach 1 Stunde bzw. 7 Tagen auf 3 Arten:
a) Wiedererkennen
b) Wortfragmentierungsergänzung
c) Wahrscheinlichkeit Ergänzung neues, seltenes Wort
Ergebnisse:
-die Wahrscheinlichkeit der Ergänzung neuer Wörter ist immer schlecht, quasi
baseline, egal ob nach 1 Stunde oder nach 7 Tagen getestet wird kein Effekt
-die Wortfragmentergänzung zielt auf das implizite Gedächtnis ab. Dieses bleibt über
die Zeit stabil, auch wen die Leistung nach 1 Stunde etwas schlechter ist als nach
einem direkten Test
-das Wiedererkennen testet das implizite Gedächtnis. Es ist sehr gut nach 1 Stunde
und nach 7 Tagen am Schlechtesten
-es zeigt sich also eine Dissoziation zwischen den Leistungen des expliziten und des
impliziten Gedächtnisses
Was ist der Unterschied zwischen direkten und indirekten Tests? Welcher
wichtige Unterschied kommt ihnen auf der Gesdächtnisebene zu?
Erklären bewusst/unbewusst
Testarten aufzählen
Explizite/implizite Prozesse
Dissoziationen in Experimenten beschreiben
Was ist das Kontaminationsproblem? Beschreibe Sie ein Experiment, dass von
Jacoby entworfen wurde, um diesem Problem auf die Spur zu kommen
Das Kontaminationsproblem: Wie kann man sicher sein, dass man in einem
indirekten Test nur das implizite Gedächtnis erfasst? Es könnte doch sein, dass ich
mich bewusst erinnere!
Dazu Jacoby: Prozess-Dissoziations-Prozedur:
Das ist ein Experiment, in dem deutlich wird, dass auch das implizite Gedächtnis (bei
voller Aufmerksamkeit in der Lernsituation und dem Wissen um einen späteren Test)
eine Rolle spielt bei der Leistung. Selbst wenn man nur nach expliziten Erinenrungen
fragt.
1.Lernliste von Wörtern, volle oder geteilte Aufmerksamkeit
2.Die Probanden bekommen Wortstämme, es gibt 2 Testbedingungen
a)Inklusionstest: „Ergänze mit Wörtern der Lernliste, wenn Dir keins
einfällt, nimmt irgendeins.“
b)Exklusionstest: „Ergänze nicht mit Wörtern der Lernliste!“
Hypothesen: Wenn die Probanden perfekte explizite Erinnerungen haben,
produzieren sie 100% in der Inklusionsbedingung und 0% in der
Exklusionsbedingung.
Ergebnisse:
-in der Bedingung mit geteilter Aufmerksamkeit produzieren die Pbn bei Exklusion
trotzdem Listenwörter lässt auf implizites Gedächtnis schließen!
-bei voller Aufmerksamkeit produzieren sie in der Inklusionsbedingung viele
Listenwörter. Die Leistung ist also besser als bei geteilter Aufmerksamkeit. In der
Exklusionsbedingung jedoch benutzen sie auch Listenwörter. Und zwar mehr als in
der Kontrollbedingung.
Wenn sie nur ein explizites Gedächtnis nutzen würden, würden sie jedoch weniger
Listenwörter als die Zufallswahrscheinlichkeit produzieren. Also scheint auch hier
noch das implizite, nicht bewusste Erinnern eine Rolle bei den Antoworten zu
spielen-
das implizite Gedächtnis spielt bei voller und geteilter Aufmerksamkeit eine
Rolle!
Welches Problem spricht das Reliabilitätsproblem an?
„Reliabilität“ ist der Grad der Genauigkeit, mit dem Test ein Merkmal misst,
unabhängig davon, ob er es zu messen beansprucht.
-> Wie genau messe ich impliztes und explizites Gedächtnis?
-Tests zum impliziten Gedächtnis sind häufig unreliabler als Tests zum expliziten
Gedächtnis
--Man kann morgen ein anderes Ergebnis haben als heute, das Messinstrument ist
ungenau
Welche 2 Prozesse unterscheidet TAP? Nennen und beschreiben Sie ein
Experiment, dass Evidenz für einen solchen Prozess liefert
TAP unterscheidet ...
.....datengetriebene Prozesse: Merkmalsanalyse, wahrnehmungsnahe Merkmale
bottom-up verarbeiten, perzeptuell
----konzeptgetriebene Prozesse: Analyse von Bedeutung, top-down, semantisch
Nach der TAP-Annahme ist die Leistung im Test umso besser, je mehr Lern-und
Abrufprozesse übereinstimmen
dazu das Experiment von Perrig et al.:
1.in der ersten Phase sieht die Experimentalgruppe Bilder mit eingebetteten Figuren,
die nicht bewusst zu sehen sind. Die KG sieht „normale“ Bilder
2. Testphase: Die Bilder mit den eingebetteten Figuren wurden gezeigt, diese Figuren
traten langsam aus dem Bild heraus. Die Probanden sollten eine Taste drücken,
wenn sie es erkennen!
Ergebnis:
-Die EG erkennt die eingebetteten Figuren viel schneller, die KG die Kontrollfiguren
Das die EG einen Erkennungsvorteil bei der Identifikation der eingebetteten
Figuren zeigt, spricht dafür, dass sie vorher schon „perzeptuell-datengetrieben“
verarbeitet wurden (nicht konzeptgetrieben, denn dann hätten sie eine bewustte
Erinnerung).
Schildern Sie das Experiment von Blaxton, dass die Unterscheidung von
implizitem und explizitem Gedächtnis in Frage stellt. Sollte man nur noch
konzeptuell/perzeptuell unterscheiden? Begründen Sie
Experiment von Blaxton:
1)2 Lernprozesse: Lesen (perzeptuell) vs. Generieren (konzeptuell).
2)2*2 Testbedingungen:
Implizit: a) perzeptuell: „Ergänze das Wortfragment _rt_t zu einen deutschen
Wort.“
b) konzeptuell: „Wofür wurde das Ehep. Guillaume 1975 zu Haft verurteilt?
der Test zielt darauf ab, Fragen zu stellen, auf die eigentlich ohne
Lernphase keine schnelle Antwort möglich ist. Die Pbn sind sich aber nicht
bewusst, dass Wörter aus der Lernphase Antworten sind.
Explizit: a) perzeptuell: „Erinnere dich an das Wort aus der Lernphase,
welches so
ähnlich aussah wie „Vertrag.“
b) konzeptuell: „Erinnere dich an das Wort aus der Lernphase,
welches
Ähnliches bedeutete wie ….“
bewusstes Erinnern an die Enkodierphase ist gefragt!
Hypothesen: 1) Wenn es die Unterscheidung implizit/explizit auf Gedächtnisebene
gibt, sollte perzeptuell=konzeptuell sein.
2) Wenn man zwischen den Prozessen perzeptuell/konzeptuell
unterscheiden sollte, sollte im impliziten und im expliziten Gedächtnis für beide das
gleiche Muster entstehen. D.h., perzeptuell=1, konzeptuell=2 usw.
Das ist auch genau das, was passiert!
Jedoch ist die Unterscheidung implizit/explizit nicht obsolet. Nach dem oben
gefundenen Ergebnis könnte man z.B. annehmen, Amnestiker wären immer
schlechter, wenn im Test ein konzeptueller Schlüssel gegeben wird und sie
assoziieren müssen, egal ob es ein direkter oder ein indirekter Test ist (also egal ob
implizit oder explizit).
Sie zeigen sich aber schlechter, wenn im direkten Test ein perzeptueller oder ein
konzeptueller Schlüssel gegeben wird. D.h., sie leiden an Defiziten im expliziten
Gedächtnis, egal welcher TAP-Prozess.
VL 8 Kategorien und Konzepte 1 und 2
Beschreiben Sie den „klassischen Ansatz“ der Theorien zu Kategorien und
Konzepten
In den Studien von Brenner et al. Zum regelgeleiteten Kategorisieren wurde viel
darüber herausgefunden, wie die Pbn Hypothesen zu möglichen Kategorien bilden
und welche Strategien sie dabei entwickeln. Sie erhielten geometrisches
Reizmaterial in verschiedenen Formen/Anzahl und lernten durch Feedback, in
welche Kategorie es einzuordnen war (Kat. „zwei“, Kat. „blau“ etc.).
Es entstanden folgende Merkmale des klassischen Ansatzes:
-Bedeutung der Kategorie ist über Konjunktive + Liste von Atributen gegeben
-diese Attribute sind der Grundbaustein der Kategorien
-es gibt klare Grenzen zwischen den Exemplaren der Kategorien und denen der
Non-Kategorien
-alle Mitglieder der Kategorie sind „gleichberechtigt“, gleich repräsentativ.
-die extensionelle (=nach außen hin) Bedeutung ist über die Menge der Exemplare
gegeben.
-jedes Attribut ist notwendig und alle zusammen sind hinreichend, um ein Objekt zu
identifizieren.
Welche Befunde zur Kategorisierung kennen Sie, die den sog. „klassischen
Ansatz“ innerhalb der Theorien zu Kategorie und Konzentration unplausibel
machen
1. Widerspruch zum hierarchischen Netzwerkmodell:
Satzverifikations-/falsifikationszeiten zu Sätzen: „Ein Kanarienvogel ist ein Stein“ geht
zu schnell!
„Ist ein Pinguin ein Vogel“ dauert länger als „Ist eine Amsel ein Vogel?“.
diese Art von Experimenten zeigt nur teilweise, dass die Distanz im semantischen
Netzwerk ein Prädiktor der Antwortzeit ist.
2. Kategorien als sprachtheoretische Einheit
Lassen sich für Alttagskategorien oft nicht fassen. Bsp. Wittgenstein: „Spiel“.
es ist nicht möglich, nach dem klassischen Ansatz zu definieren, weil es so viele
verschiedene Spiele gibt.
3. Typikalität/Familienähnlichkeit
Familienähnlichkeit: Wie typisch ist ein Objekt für eine Kategorie?
Für die meisten Menschen sind einige wenige Objekte typische Vertreter einer
Kategorie, die ihnen sofort einfallen (Bsp. Blume: Rose, Werkzeug: Hammer).
Das spricht gegen den klassischen Ansatz, denn danach sollten alle Mitglieder gleich
repräsentativ sein.
Familienähnlichkeit errechnet sich aus den Objekten einer Kategorie über die
Merkmale ein Objekt hat einen Familienähnlichkeitsscore von 30, wenn es zwei
Merkmale gelistet hat, von denen es eines mit 14 anderen, eines mit 16 anderen teilt.
Je höher Typ. Und Familienähn. miteinander korrelieren, desto prototypischer sind
sie für eine Kategorie.
4. unklare Grenzen/Kontextabhängigkeit
Was ist ein „Prototyp“? Wie lässt er sich in einem Experiment nachweisen?
Welche Befunde kann der Prototyp-Ansatz nicht erklären?
-Ein Prototyp ist quasi eine Abstaktion der Mitglieder einer Kategorie, eine
Verkörperung der zentralen Tendenz. Er beinhaltet alle typischen Merkmale, von
denen alle Mitglieder etwas haben, aber jeweils nicht alles. Der Prototyp kann auch
das beste Exemplar sein.
-Laut dem Prototyp-Ansatz gibt es keine feste Liste von notwendigen und
hinreichenden Merkmalen.
-Die Zuschreibung zu einer Kategorie erfolgt über charakteristische, nichtnotwendige Merkmale Familienähnlichkeit
-Die Grenzen zwischen den Kategorien sind nicht so klar.
-es gibt Typikalitätsabstufungen; manche Exemplare sind typischer als andere
-die Zuschreibung der Kategorien erfolgt über die Ähnlichkeit zum Prototyp
2 mögliche Experimente sind zu nennen:
Solso et al.
1.Lernphase: Vorgabe einzelner Gesichter
2.Vorgabe von Bildern aus der Phase 1 + neue Gesichter.
Wiedererkennen: „Wie sicher sind Sie, dieses Gesicht schon einmal gesehen
zu haben?“
der Trick dabei:
zu den neuen Gesichtern wurde ein Prototyp gemischt, der ein Mischtyp aus den
Gesichtern der Phase 1 ist. Die anderen Gesichter hatten anteilig 0, 25, 50 oder 75%
mit dem Prototyp gemeinsam.
Ergebnisse:
-Haupteffekt für Bilder
-Prototyp wurde immer am Besten erkannt, obwohl man ihn noch nie zuvor gesehen
hatte
-danach wurde die bekannten Gesichter in der Reihenfolge nach ihren
Anteilsprozenten am Prototyp erkannt
-neue Gesichter wurden zwat schneller als alle, aber auch anteilig ihrer
Prototypähnlichkeit wiedererkannt
Dieses Ergebnis spricht dafür, dass die Pbn einen Prototyp aus den Bildern
aggregiert haben, also eine interne Repräsentation.
Je niedriger die Änlichkeit der Testbilder ist, umso geringer fallen die
Wiedererkennensvorteile aus. Der Ähnlichkeitsgradient ist der beste Prädiktor für
das Wiedererkennen.
2. mögliches Experiment: Posner et al.
1.Material herstellen: Zufallsmuster (Punkte) werden verzerrt, pro „Prototyp“ 4 Mal
2.Pbn bekommen die Verzerrungen und müssen lernen, sie zu kategorisieren (im
Hinblick auf die Ursprungsmuster, die sie quasi „mental“ bilden müssen).
3.Nach der Lernaufgabe erfolgt der Test entweder sofort oder verzögert: Erkennt man
die Muster hinsichtlich der Kategorie korrekt?
Nach 2 Tagen erkennen die Pbn den Prototyp besser als die Lernexemplare! Das
spricht dafür, dass sie eine innere Repräsentation gebildet haben, allerdings nicht
sofort.
Was kann der Prototyp-Ansatz nicht erklären?
1) Attributzuordnungen sind kontextabhängig! (z.B. Klavier ist „schwer“ beim Umzug
und „klangvoll“ beim Konzert.
2) Typikalitätszuordnungen sind kontextabhängig! (z.B. die typische Uhrzeit für das
Abendessen ist in Deutschland eine andere als in Spanien).
3) es gint Ad-hoc-Kategorien (z.B. Flohmarktverkauf; Dinge die man zuerst aus der
brenneden Wohnung rettet).
4) es wird zwar die zentrale Tendenz gespeichert, aber nicht die Variabilität und
Größe einer Kategorie
Was kann der Prototyp-Ansatz gut erklären?
- Bildung einer internen Repräsentation Ergebnisse der Experimente von solso,
Posner
-Typikalitätsratings
-Verifikationszeiten
-Generierung von Exemplaren (Blume: Rose, Werkzeug: Hammer).
Was ist mit dem Exemplar- im Gegensatz zum Prototyp-Ansatz gemeint?
Welche Befunde sind nur mit dem Exemplaransatz erklärbar? Lasseb sich
beide Ansätze „versöhnen“?
-Konzepte bestehen laut Exemplar-Ansatz aus einer gespeicherten Menge von
Exemplaren. Es gibt keine Abstaktionen/Prototypen.
-die Exemplare sind nach Ähnlichkeit gruppiert.
-Kategorisierung wird realisiert über Mechanismen des Parallel-Vergleichs des
wahrgenommenen Exemplars mit den abgerufenen Exemplaren: Ich sehe ein neues
Objekt und vergleiche mit schon vorhandenen Exemplaren
Der Exemplaransatz erklärt auch......
....die Kontextabhängigkeit (Exemplare werden in mehreren Zusammenhängen
abgespeichert)
....die Variablilität: wird vom Prototyp-Ansatz ignoriert, der Exemplaransatz trägt die
Variabilität automatisch durch die Menge der gespeicherten Exemplare (
Variabilität=ein Merkmal kann variieren)
....(alles, was der Prototyp-Ansatz auch erklärt
Beschreiben Sie ein Experiment, das als Evidenz gilt für den Exemplar-Ansatz
Experiment von Storms et al.:
1)Datengewinnung: a) Prototyp (P-Indikator): charakteristische Merkmale
aufzählen, daraus Prototypen erstellen
b) Exemplar (E-Indikator): Ähnlichkeitsbeurteilung der
häufigsten
aufgezählten Exemplare: Daraus die 10 typischensten Exemplare
2)Die beiden Ansätze wurden dann in 4 Aufgaben direkt verglichen, um
herauzufinden, welcher der beiden Indikatoren die 4 folgenden Verhaltensmaße
besser vorhersagt (korreliert). D.h., die Exemplare und Prototypen wurden in den
folgenden Aufgaben verwendet:
a) Kategorie benennen: Zu welcher Kategorie gehört das
Exemplar?
b) Exemplare generieren: Welche Exemplare gehören in diese
Kategorie?
c) Typikalitätsabstufungen: Rating der Exemplare
d) schnelle Kategorisierung: Pbn sahen eine Kategorie und danach Wörter
schnelle Entscheidung, ob das Wort in die Kategorie gehört
Ergebnisse: -Haupteffekt für die Theorie: Exemplar-Theorie ist immer ein bisschen
besser und sogar sehr viel besser als in der Bedingung „Exemplar generieren“.
E-Indikator ist ein besserer Präsdiktor, das Verhalten der Probanden wird besser
von ihm vorhergesagt.
Welche Kritik an ähnlichkeitsbasierten Ansätzen besteht?
1) Typikalitäts- und Familienähnlichkeitsscores varrieren nicht immer perfekt (dann,
wenn alles auf Ähnlichkeit beruhen würde, würden beide perfekt korrellieren und man
bräuchte nur einen Begriff)
2) Verifizierung einfacher Inklusionsbeziehungen („Alle Vögel sind Lebewesen“)
scheinen eher auf generellem Wissen zu basieren
3) Manchmal haben wir nur Wissen über die Beziehung zwischen Attributen, nicht
aber über die Attribute selbst
4) ad-hoc-Kategorien sind wenig kohärent
5) Wie entstehen Kategorien nach dem Exemplar-Ansatz?
6) Gibt es eine unendliche Speicherkapazität für Exemplare?
7) Typikalitäts- und Kategorisierungseinschätzungen variieren nicht immer perfekt,
die Dinge mögen typisch, aber nicht ähnlich sein
8) oft ist nicht klar, was ähnlicher ist.
9) Kategorisieren hängt auch stark vom Vergleichsmaterial ab
10) Die Anzahl gemeinsamer Merkmale ist grundsätzlich unendlich groß.
Beschreiben Sie die Annahmen des Theorie-Ansatzes und ein Evidenz
lieferndes Experiment
Der Theorie-Ansatz trägt der Tatsache Rechnung, dass Vorwissen, Kontexteffekte
und Beziehungen zwischen Merkmalen eine Rolle spielen beim Kategorisieren
-Die Attribute haben Relationen zueinander und erklärenden Charakter (Flügel,
Federn etc. zum Fliegen
-Konzepte sind nicht statisch abgespeichert, sondern können im Arbeitsgedächtnis
unter Abruf von Attributdefinitionen konstruiert werden
-Konzeptuelle Kohärenz ergibt sich aufgrund von theoretischem Wissen, nicht nur
aufgrund von Ähnlichkeit
-Kontexteffekte ergeben sich aufgrund des Konstruktionscharakters von Konzepten
im Theorie-Ansatz; unterschiedliche Gewichtung von Hintergrundwissen aufgrund
von Voraktivierung
Experiment von Palmeri et al.:
Material : 2 Gruppen von Zeichnungen, die aufgrund konkreter Regeln (Armhaltung
der Figuren, Haare etc.) oder abstrakter Regeln (detailliert, ungewöhnlich) eingeteilt
werden können.
SP1/SP2: Stichprobe 1 wird gesagt, die Zeichnungen A seien von kreativen, die
Zeichnungen B von unkreativen Kindern.
Stichprobe 2 wird nur gesagt, dass die Zeichnungen von 2 verschiedenen
Kindergruppen stammen.
dann sollten die Bilder kategorisiert werden.
Ergebnis:
Stichprobe 1 kategorisiert eher nach abstrakten Regeln
Hintergrundwissens (kreativ/nicht kreativ)
Stichprobe 2 kategorisiert eher nach konkreten Regeln
Hintergrundwissens
Einfluss des
Einfluss des neutralen
Das Ergebnis zeigt den Einfluss impliziter Persönlichkeitstheorien auf die
Kategorisierung.
VL 9 Kategorien und Konzepte (Empirisches): Schemata, wahrnehmungsbasierte
Wissensrepräsentation
Charakterisieren Sie natürliche und artifizielle Kategorien und beschreiben Sie
ein Experiment, dass die Unterscheidung art.-nat. sinnvoll erscheinen lässt
artifiziell: semantische Repräsentation über funktionale Merkmale; keine innere
Essenz; meist kein Prototyp; Kontextinformation ist meist nicht nützlich zum
Verarbeiten: längere Benennzeiten
natürlich: semantische Repräsentation über visuelle Merkmale; innere Essenz;
Prototyp; Kontextinformation hilft beim Verarbeiten: schnellere Benennzeiten
Experiment: Drücke die zutreffende Taste (artif./natürl. Kategorisierung/Farbe variiert)
Ergebnis: Wenn es Objekte aus natürlichen Kategorien waren, war die Reaktionszeit
viel schneller, wenn die Farbe stimmig war. Die Farbe ist meist invariant,
hochdiagnostisch (Banane gelb). Wenn keine Farbe da war, war man viel langsamer.
Bei unbelebten Objekten ist die Farbe egal, die Reaktionszeiten sind gleich für
farbig/grau
die Kontextinformation „Farbe“ ist diagnostisch für Objekte. Das führt zu
schnelleren Reaktionszeiten.
Beschreiben Sie den Begriff des Schemas und verschiedene Arten von
Schemata
Schemata sind komplexe Konzepte. Sie stellen den begrifflichen Rahmen dar für
Wissen über Gegenstände, Personen, Ereignisse und Ereignissequenzen. Sie
bestehen aus einer Reihe von Relationen und Variablen, sowie Worten für diese
Variablen.
Relationen: einfach (hat ein…, ist ein…)
Variablen: die Küche hat einen variablen Herd, eine variable Spüle etc.
Variablenwerte: Die Merkmale ändern sich je nach Kontext (Küche des Studenten ist
anders als eine Profiküche)
Somit repräsentieren Schemata abstraktes wissen, das für die Bedeutung konkreter
Objekte, Ereignisse und Personen gefüllt wird.
Je nachdem, welche Variablen aktiviert sind, ändert sich mein Schema.
„Skripts“ sind Schemata für bestimmte Ereignisabläufe (Bsp.: Restaurantbesuch)
Generell leiten Schemata unsere Wahrnehmung und man erinnert sich besser an
Dinge, die nicht ins Schema passen
Selbstschemata: sind kognitive Generalisierungen über das Selbst, abgeleite aus
Erfahrungen. Sie strukturieren und leiten die Verarbeitung selbstbezogener
Informationen.
Sie enthalten spezifische Erinnerungen, Überzeugungen und Generalisierungen über
das eigene Verhalten in einem bestimmten Bereich (Bsp.: Experiment zum
dichotomischen Hören von Bargh)
VL 10 Sprache: Lesen,Hören, Textverstehen
Erläutern Sie das interactive Activation Model der Worterkennung. Wie wird
damit der Wortüberlegenheitseffekt erklärt?
Das IAM ist ein konnektionistisches Modell, das in 3 Ebenen gegliedert ist. Zwischen
diesen Ebenen sind fördernde und hemmende Strukturen.
Auf der feature-Ebene werden die kleinsten Einheiten der Buchstaben verarbeitet.
Ein „T“ hat z.B. 2 Features: (hier steht ein Kreis mit einem senkrechten Strich) und
(Kreis,waager. Strich)
Wenn diese beiden Feature entdeckt werden, werden alle Units, die diesen
entsprechen, aktiviert und alle, die dem nicht entsprechen, gehemmt.
Die Features aktivieren dementsprechend den passenden Buchstaben auf der
nächsten Ebene, andere werden gehemmt. Auf der Wortebene passiert Analoges zu
den beiden unteren Ebenen. Es gibt allerdings auch top-down-Verbindungen von der
Wortebene zur Buchstaben-Ebene als Erkennungshilfe.
Das Modell kann den Wortüberlegenheitseffekt gut erklären. Wenn ein Wort sehr
kurz präsentiert wird, und daruf hin die Aufgabe darin besteht, herauszufinden, ob „U“
oder „O“ vorkam, sind wir besser als bei Pseudo- und Nichtwörtern. Wir scheinen bei
Bekannten Wörtern nicht Buchstabe für Buchstabe zu prozessieren, sondern durch
die top-down-Modulation erkennen wir das Wort schnell als Ganzes. Wenn „Blume“
gezeigt wird, hemmt die Wortebene gleichzeitig unpassende Buchstaben auf der
Buchstabenebene.
Was ist der Pseudowortüberlegenheitseffekt? Wie wird er erklärt?
Wenn uns sehr kurz ein Pseudowort (z.B. „Pluze“) präsentiert wird und die Frage
folgt, ob ein „O“ oder „U“ enthalten war, sind wir schneller, als wenn ein nichtwort
präsentiert wird (z.B. „PLND“) bzw. ein nicht aussprechbares Pseudo-Wort.
Dies wird mit dem Interactive Activation Model erklärt: Wennn uns ein
aussprechbares Wort pärsentiert wird, werden auch sicher gewisse Überlappungen
mit gespeicherten normalen Wörtern vorhanden sein. Diese Aktivierung der
überlappenden Wörter erzeugt wieder eine top-down-Aktivierung der Buchstaben, wir
erkennen es also leichter.
Welche Befunde kann das IAM-Modell nicht erklären? Was sind die Schwächen
des Modells?
Schwächen: laut Modell müssen die Buchstaben in der korrekten Reihenfolge
stehen. Es ist nur anwendbar auf 4-Buchstaben-Wörter.
Der „jumbled-words“-Effekt ist somit nicht gut erklärbar, denn die Buchstaben stehen
ja nicht in der korrekten Reihenfolge. (Lösungsvorschlag: es gibt auch eine Ebene
von Buchstabenpaaren).
Die Rolle der Phonologie (Klang des Wortes) ist nicht berücksichtigt.
„Phonologische Verarbeitung ist obligatorisch beim Lesen von Wörtern“ lautet
die starke Hypothese von Frost. Erläutern Sie ein Experiment, das diese
Hypothese stützt.
------------------------------------------------hier muss was eingefügt werden!!!
aber deswegen verstehen wir noch nicht deren Bedeutung! Wenn diese Route
geschädigt ist, sind irreguläre auszusprechende Wörter ein Problem, denn hier sind
die allgemeinen Ausspracheregeln gespeichert, die dazu benötigt werden.
In Route 2 sind Repräsentationen von tausenden bekaannten Wörtern im
orthographischen Lexikon, die beim Lesen aktiviert werden. Dann kommt die
Semantik hinzu.
Route 3 ist ähnlich Route 2, aber die Semantik wird umgangen.
Route 2und 3 sind lexikalisch, route 1 phonologisch
Dyslektische Störungen:
1.Phonologische Dyslexie: Route 1 (nonlex.) ist zerstört, die Übersetzungsregeln
fehlen. Alles läuft über die lexikalische Route (+häufig vorkommende reguläre
und irreguläre Wörter, -- seltende Wörter, Non-Wörter)
2.Oberflächendyslexie: Route 2 (lex.) ist zerstört (+ reguläre Wörter und NonWörter können durch route 1 gelesen werden, -- irreguläre Wörter [werden oft
regulär ausgesprochen).
3.Tiefendyslexie: Route 1 und Teile von Route 2 und 3 sind zerstört (+ bekannte
Wörter, - seltene Wörter/Nichtwörter). Phänomen: semantische Paralexien (
mangelnde Inhibition der semantischen Einträge? „Krug statt Flasche“).
Welche Probleme ergeben sich bei der auditiven Sprachwahrnehmung? Was
erleichtert Sprachwahrnehmung auf der anderen Seite?
Problem: Wie erkennen wir die Wörter im kontinuierlichen Fluss der Sprache?
Während des Sprechens machen wir selten Pausen!
Wir sprechen ca. 10 Phoneme pro Sekunde, 50-60 Stück können noch verständlich
sein.
Das Problem der Segmentierung verschärft sich noch:
-Koartikulation (Überlappung der Phoneme)
-Weglassungen (Elision) „gehen“ [ge:n]
-Hinzufügungen (Epenthese) „kommst“ [kampst]
-Anpassungen (Assimilation) „Leben“ [le:bn]
Erleichterung des Problems: Wir scheinen auch die Lippenbewegungen als
Informationen zu verarbeiten, kombinieren also akustische und visuelle
Informationen. Dazu der MCGurk-Effekt:
Frau im Fernsehen macht Lippenbewegungen: gaga
Lautsprecher des Fernsehens macht aber „bla-bla“
der Hörer hört „da-da“.
Beschreiben Sie die Hauptprozesse der Sprachwahrnehmung und des
Sprachverständnisses
Integration: Satzbedeutung in vorangehende Sprache
Interpretation der Äußerung: Bedeutung des Satzes durch die Information über
einzelne Wörter und ihre Stellung im Satz
Indentifikation der einzelnen Wörter (durch Aktivation lexikalischer Einträge)
Indentifikation der einzelnen Sprachsignale
Sprache vom Hintergrundgeräusch selktieren
auditorischer Input
Beschreiben Sie die Annahmen des Kohortenmodells zur auditiven
Sprachwahrnehmung (und schildern sie ein Experiment, dass diese Annahmen
stützt)
Das Kohortenmodell ist ein Modell zur auditiven Spracherkennung
-ein Wort wird gehört initiale „Wort-Kohorte“. Alle Worteinträge, die zum gehörten
akustischen Input passen, werden intern parallel aktiviert.
-das Wort wird aus der Kohorte eliminiert, wenn die sukzessiven Inputs nicht mehr
passen
-recognition/“uniquenesspoint“: nur noch 1 Wort passt, alle anderen sind eliminiert:
Zuesrt alles, was mit „K“ anfängt, dann alles mit „Kü“, „…“, „Küche“.
Wenn zwischen den möglichen Kandidaten selektiert wird, muss eine kritische
Differenz zwischen den zwei am Höchsten aktivierten Repräsentationen erreicht
werden, dann kommt das Erkennen.
Annahme: lexikalische, semantische und syntaktische Ressourcen werden
gleichzeitig aktiviert.
Welches experimentelle Paradigma wird zur Worterkennung im Kontext häufig
eingesetzt? Erklären Sie?
Semantisches Priming: Prime: „Blume“. Target: „Tulpe“ Wort oder Nicht-Wort. Das
eght schneller, wenn ein semantisch verwandtes Wort vorangeht (Prime)
Triviale Deutung: Die Pbn erkennen, dass häufig ein semantisch verwandtes wort
erscheint und bilden Erwartungen aus.
Schildern Sie ein Experiment, das zeigt, dass die Daten aus semanstischen
Priming-Experimenten nicht auf der Erwartunghaltung der Probanden beruht
Experiment von Neely:
Primes: Kategorienamen „Body“, „Building“
Targets: Exemplare „Heart“, „Door“
Erwartungsinduzierung: die Probanden erwarteten, dass nach der
Kategorie “Körper” überwiegende z.B. ein Gebäudeteil folgte
unpassende, aber erwartete Beziehung
in den übrigen Trials passten Prime und Target semantisch zusammen
(Körper Herz). Falls Priming also durch eine Erwartungshaltung
entsteht, sollte die unpassende Beziehung Prime – Target schneller
sein als die semantisch passende!
SOA: variiert wurde das Zeitintervall Prime – Target
Bschreiben Sie die „moving-window“-Technik und die Erkenntnisse über
parafoveale Verarbeitung beim Lesen, die man damit erlangt hat
„moving-window-“ Technik: Blickbewegungsapparatur, misst die Spanne, die wir
lesen, bzw. Genauer: Die Menge Text, aus der wir Information ziehen, also
semantisch verarbeiten, während einer Fixation des Auges.
Unser Auge springt in Sakkaden. Die Information wird während der Fixation erlangt,
die 200-250 ms dauert. Durch unsere Blickbewegung wird das Textfenster, in dem in
der „morning-window-Technik“ ein Textausschnit steht, gesteuert. Durch die
Veränderung der Größe/Lage des Ausschnitts kann erfasst werden, welcher
Ausschnitt für verlustloses Lesen notwendig ist.
Es gibt 3 Spans:
1)perceptual span: Spane des verlustlosen Lesens (längste) meist 3-4
Buchstaben links und bis 15 Buchstaben rechts
2)letter-identification-span: Buchstabeninformation
3)word-identificatuion-span: Wortspanne, Kürzeste; Areal, in dem noch relevante
Informationen zur Wortidentifikation enthalten sein können.
Wenn man wissen will, was im parafovealen Bereich passiert:
Man tauscht das Wort, kurz bevor der Leser mit seiner Augenbewegung dort
ankommt, aus. Bzw. Das Wort wird während der Sakkade ausgetauscht. Der Leser
merkt das nicht bewusst!
Aber er fixiert das nächste Wort dann länger.Wenn dieses Wort phonologisch oder
visuell ähnlich ist, ist der Effekt weniger ausgeprägt.
Semantische Ähnlichkeit bringt nichts.
--> das spricht für die parafoveale Verarbeitung des Wortes, denn sonst würde der
Leser es beim Austausch nicht länger fixieren. Semantische Verarbeitung findet
jedoch nicht statt.
Erklären Sie das E-Z-Reader-Modell einschleißlich der Effekte beim Textlesen,
die es erklären will
Wir verarbeiten ein Wort nur semantisch, wenn wir es fixieren. Es werden jedoch ...
...nur 80% der inhalttragenden Wörter
...nur 20% der Funktionswörter
fixiert!
Wieso?
Weitere Leseeigenschaften:
-seltene Wörter werden länger fixiert
-aus dem Kontext vorhersagbare Wörter werden kürzer fixiert
-nicht-fixierte Wörter sind kurz, üblich, vorhersagbar
-jedes Wort, das nach einem seltenen kommt, wird länger fixiert --> spill-over-Effekt)
Was ist im constuction-integration-Modell mit propositionalen
Repräsentationen gemeint? Beschreiben Sie ein Experiment, das Evidenz gibt
für das Modell
Propositionen: Wir repräsentieren den Inhalt eines Textes in bestimmten
Sinneinheiten (=Propositionen). Der semantische Gehalt eines Textes wird also v.a.
in propositionalen Repräsentationen abgebildet. Propositionen bilden ein Netz und
werden mit dem Langzeitgedächtnis verknüpft. Sie sehen so aus: (Prädikatenkalkül)
Relation (Argument 1, Argument 2, …)
z.B. „John küsste Mary mit einer Tomate im Mund“
küssen (Mary, John, Tomate)
(Relation oft = Prädikat; Präsdikat = Zustand, Tätigkeit, Eigenschaft eines Objektes)
Experiment von McKoor und Ratcliff
Die Probanden bekamen zwei Texte zu lesen:
The businessman gestured to a waiter
The waiter….
Dann wurde ein Priming-Experiment durchgeführt: Es wurde ein Prime präsentiert,
der ein wort aus einer der Geschichten war. Dann sollte das Target klassifiziert
werden: Kam das Wort in einer der Geschichten vor? (primingaufgabe kam nach der
Präsentation von Sätzen der Geschichte).
Ergebnisse:
-Es gab einen Haupteffekt für EG/KG (die Kontrollgruppe bekam Primes aus einem
bekannten Text).
-Es gab einen Haupteffekt für den Propositionsabstand
Die Wörter sind umso zugänglicher, je näher die Propositionen miteinander in
Verbindung stehen. Ein propositionales Netz hat sich intern gebildet.
Wenn sie einen Text lesen und verstehen, können wir 3 Arten von inneren
Repräsentationen unterscheiden. Welche? Nennen Sie bitte ein Experiement
dazu
Es gibt 3 Ebene der Textrepräsentation:
1. Oberflächenrepräsentation: der Text selbst, also in sprachlicher Form
2. propositionale Repräsentation: Propositionen, die ich aufgrund des Textes bilde
3. Situationsrepräsentation, mentales Modell: beschreibt die Situation im Text.
Schemata können bei der Konstruktion helfen.
Experiment:
Textpräsentation auf dem Bildschirm
……John stellt die Blume in die Vase (bzw. Knopfloch)
Test 1
……er verlässt das Haus, er geht einkaufen
Test 2
an nicht vorhersagbaren Stellen wird der Text unterbrochen und es wird gefragt, wo
die Blume ist.
Bei Test 1 ist die Blume präsent: entweder Vase oder Knopfloch. Bei Test 2 ist die
Blume nur noch denen präsent, die die Bedingung „Knopfloch“ haben. Die interne
Repräsentation (mentales Modell) hat die Blume gespeichert, sie geht mit einkaufen.
Bei den anderen (Bedingung „Vase“) ist die Blume nicht mehr gespeichert.
Mentale Modelle:
-repräsentieren das, wovon der Text/Film handelt
-hat Qualitäten bildhafter/propositionaler Formate.
VL 11 Problemlösen
Was versteht man in der Gestaltung unter „funktionaler Fixierung“? Wie lässt
sie sich experimentell nachweisen?
Funktionale Fixierung ist ein Problem, das auftritt, wenn ich auf eine Funktion eines
Gegenstandes fixiert bin, ichn aber anders repräsentieren müsste, um ein
gegnwärtiges Problem zu lösen. Meist ist man auf die gewohnte Funktion des
Objektes fixiert. So sieht man z.B. eine Zange beim klassischen 2-Seile-Problem
nicht als Gewicht, das man braucht, um das Problem zu lösen.
Die Lösung wird allerdings besser gefunden, wenn die Einsicht stimuliert wird oder
Analogiebildung möglich ist (Einsicht: VL bringt das Seil zum Schwingen, Analogie:
Bsp.: Strahlenproblem/Diktatorgesschichte).
Was versteht man unter „Einstellungseffekten“ in der Denkpsychologie?
Erläutern Sie anhand der Wasserumschüttaufgaben von Ludung
Einstellungseffekte sind reproduktive Problemlöseversuche, bei denen mich meine
Einstellung behindert bei Folgeproblemen, die evtl. nicht nach dem gleichen Muster
gelöst werden müssen/können.
Wasserumschüttaufgaben:
Die Probanden haben 3 Krüge mit unterschiedlichem Fassungsvermögen. Durch
Umschütten des Wassers soll eine bestimmte Menge Wasser abgemessen werden.
Die Krüge dürfen nur vollständig geleert oder gefüllt werden.
Bsp.:
Krug A
Krug B
Krug C
geforderte
Menge
18 Tassen
43 Tassen
10 Tassen 5 Tassen
Lösung: B-2C-A
Wenn die Probanden jetzt in mehreren solcher Probleme die gleiche Lösung
herausfinden, also merken, dass die Lösung immer nach B-2C-A funktioniert, bilden
sie eine Einstellung gegenüber dem Problem aus. Dies wird deutlich, wenn man
ihnen ab einem gewissen Zeitpunkt (hier: nach 5 Aufgaben) eine Aufgabe gibt, die
zwar auch nach der alten Formel, aber auch einfacher (z.B. A-C) zu lösen ist. 83%
der Probanden nutzen die alte Formel, wohingegen die Kontrollgruppe, die die ersten
Aufgabenstellungen nicht bekam, unter 1% liegt.
Bei einem Problem, das nicht mehr (es ging nur mit der einfachen) mit der alten
Lösung gelöst werden kann, versagen viele aus der Experimentalgruppe, nur 36%
lösen es, aber 95% aus der Kontrollgruppe.
dies zeigt, dass die Probanden der Kontrollgruppe anscheinend keine
Voreinstellungen gegenüber den Problemen gebildet haben. Sie lösen die Aufgaben
besser als die Experimentalgruppe, die durch ihre Einstellung behindert ist.
Was besagt die reprentational-change-theory?
Die RCT ist ein Versuch, die Erkenntnisse der Gestaltpsychologie in ein Modell der
Informationsverarbeitung beim Problemlösen zu integrieren.
1) Die Art, wie wir ein Problem gerade repräsentieren, ist ein retrieval cue, um
relevantes Wissen aus dem Langzeitgedächtnis abzurufen.
2) Die Art, wie dieses Wissen aus dem Langzeitgedächtnis abgerufen wird, basiert
auf Aktivierungsausbreitung unter gespeicherten Konzepten oder Wissenseinheiten.
3) Wir sind blockiert, wenn die retrieval cues nicht zur Aktivierung notwendiger
Operatoren führen.
4) Die Blockierung wird aufgehoben durch: -Elaboration und Hinzufügen neuer
Information
-Aufhebung von einschränkenden
Randbedingungen
-Re-Enkodierung/-Interpretation eines Teil der
Problemrepräsentation
Was sind Heuristiken/Algorithmen im Zusammenhang mit Problemlösen?
Algorithmen: mathematische Vorgehensweise, führen auf jeden Fall zum Ziel,
genutzt z.B. von PC-Programmierern, festes Schema
Heuristiken: Daumenregeln, erfahrungsgeleitet, oft nützlich, führen aber nicht immer
zum Ziel.
Welche Faktoren machen ein Problem zu einem komplexen Problem (Bsp.
Tanaland)? Welche Probleme haben Menschen in komplexen beim Lösen?
Komplexe Probleme sind in der Regel alltagsnäher, aber auch ill-defined: Wie
beschreibe ich korrekt den initialen Zustand? Was ist das Ziel? Welche Operatoren
sind möglich? Etc.
Sie zeichnen sich aus durch folgende Eigenschaften:
1. große Komplexität hohe Anzahl von Variablen (z.B. in der Schneiderwerkstatt:
Lohn, Verkauf, Werbung, Preis etc.)
2. hohe Variablenvernetzung nicht-lineare Zusammenhänge
3) Intransparenz Undurchschaubarkeit. Man weiß nicht, was durch was beeinflusst
wird
4) Eigendynamik Variablen verändern sich ohne Eingriff, als Spätfolge vorheriger
Handlungen z.B.
5) Polytehé es gint nicht nur ein Ziel, sondern mehrere
Die Performanz in einem solchen System korreliert mit der WM-Spanne der
Menschen
Vor allem Transparenz ist wichtig für Erfolg.
Menschen haben oft Probleme mit der Eigendynamik des Systems, die Maßnahmen
wirken oft zeitverzögert (Bsp.: Kühlhaus. Probanden müssen etwas warten, bis die
Temparatureinstellung greift).
Wir denken außerdem in der Regel in linearen Zusammenhängen, nicht exponentiell.
Was ist mit „Verfügbarkeits- und Repräsentativitätsheuristik“ gemeint?
Erläutern Sie an Beispielen
Repräsentativitätsheuristik: siehe oben in der Nähe des Anfangs
Verfügbarkeitsheuristik: Die Leichtigkeit, mit der Ereignisse abrufbar sind, bestimmt
die Wahrscheinlichkeitseinschätzung.
Bsp.: zufällig bWörter aus einem Text greifen. Was ist wahrscheinlich: Ein „R“ an
erster oder an dritter Stelle des Wortes
Richtig wäre: an dritter Stelle. Die Probanden sagen aber oft „an 1.Stelle“, denn
die Vorstellung über „R“ an der 1. Stelle ist leichter und verfügbarer.
VL 12 Entscheiden
Was sind Take.the-best-Heuristiken und wie funktionieren sie? Bitte geben Sie
ein Beispiel an
Allgemein meint Heuristik eine Daumenregel. Heuristiken sind erfahrungsgeleitet und
führen nicht immer zum Ziel. Sie sind schnell, einfach, ökologisch und „frugal“ (d.h.,
sie benötigen weniger Informationen, sie sind bescheiden).
Take the best meint, dass Prädiktoren nach ihrer Vorhersagegüt geordnet werden
ich nehme zuerst das, was am Erfolgversprechendsten ist. Das Objekt mit der
höheren Wertigkeit erhält in der Kategorie die „1“, das andere Objekt die „0“.
Die Werte des besten Prädiktors werden untersucht. Wenn der Unterschied „1“/“0“
festgetsellt wird, wird das bessere genommen.
Beispiel: Guppie-Weibchen nehmen am Liebsten orange Männchen.Wenn keines da
ist, dann nehmen sie das sozial beliebteste (=Abbruchregel).
Es gibt drei einfache Regeln:
-Suchregel
-Abbruchregel
-Entscheidungsregel
Was ist die Rekognitions-Heuristik?
Wenn zwei Objekte da sind und eines davon wiedererkannt wird und das andere
nicht, ziehe ich den Schluss, dass das bekannte Objekt den höhheren Wert hat. Die
Rekognitions-Heuristik basiert auf der Fähigkeit zur Wiedererkennung
Beispiel: Welche Stadt hat mehr Einwohner, San Diego oder San Antonio?
nehmen San Diego, da diese Stadt bekannter ist.
Wir
Allerdings ist ein gesundes Maß an Ignoranz wichtig, den zuviel Information kann
stören.
Beispiel: Welche Stadt hat mehr Einwohner, Jena oder Heidelberg? Wir sind uns
nicht ganz sicher, da wir über so viele Informationen verfügen. Die Frage ist z.B. für
Kubaner leichter.
Die Rekognition muss mit dem Kriterium korelliert sein.
Was ist in der Psychologie der Entscheidungsfindung mit „Rahmungseffekten“
gemeint?
Für uns ist der Nutzen von Gewinn und Verlusten proportional nicht derselbe. Sie
sind nicht symmetrisch verteilt.
D.h., wir empfinden die Freude über einen Gewinn, also den positiven Nutzen, nicht
so stark wie den Frust über Verlust, den negativen Nutzen. Der Gewinnbereich steigt
unterproportional an, der Nutzen im Verlustbereich überproportional.
Wenn es um Gewinne geht, bverhalten wir uns eher risikoaversiv, wenn es um
Verluste geht, eher risikoaffirmativ.
Beispiel: In einem Geschäft gibt es etwas für a) 15 €, in einem anderen das gleiche
für 10 €.
b) jetzt die gleiche Situation mit Preisen von 120 € und 125 €.
bei Aufgabenstellung A geht man höchstwahrscheinlich in das günstigere
Geschäft, in B) nicht. Der utzen scheint verschieden zu sein, auch wenn beide Male
eine Preisdifferenz von
5 € besteht. Die Nutzenkurve ist im Gewinnbereich negativ beschleunigt. Deswegen
erscheinen die Situationen unterschiedlich.
Herunterladen