VL 2 Basale Prozesse der visuellen Wahrnehmung Erklären Sie das Phänomen der „lateralen Inhibition“ anhand des HermannGitters Visuelle Rezeptoren feuern propotional zur Intensität des Lichtes, dass sie erreicht, intensiveres Licht führt zu mehr Entladungen. Dabei hemmen sich die Rezeptoren wechselseitig; diese sich lateral ausbreitende Hemmung nennt man „laterale Inhibition“. Im Hermann-Gitter erscheinen nun die Kreuzungspunkte dunkler, diese grauen Stellen sind eine optische Illusion. Zeichnung: vier Blocks, A in der Mitte, von B-E eingeschlossen Rezeptor A liegt hier im Kreuzungspunkt des Gitters. Jeder Rezeptor ist mit einer Bipolarzelle verbunden. Die benachbarten Rezeptoren von A erhalten aus ihrer Umgebung wenig Hemmung und hemmen A stark, sodass A am Schwächsten feuert. Dort sieht man die „graue Stelle“. Zeichnung: A liegt zwischen 2 Blocks, von B-E eingeschlossen, aber am äußeren Blockrand Hier liegt der Rezeptor A in einem weißen Streifen des Gitters.Zwei benachbarte Rezeptoren liegen allerdings auf den schwarzen Flächen und nehmen nur sehr geringe Helligkeit auf; sie hemmen kaum, da sie geringe laterale Inhibition auf Bipolarzelle B senden. A wird hier weniger gehemmt und die Korridore des Gitters scheinen weißer. Die Stärke der Reaktion der bipolaren Zellen hängt also davon ab, wie stark die Signale sind, die von den Rezeptoren kommen und wie stark die Signale sind, die lateral hemmenden Signale sind. Die Stärke der Zellen A und A´ sind hier unterschciedlich groß, deswegen nehmen wir graue Punkte als Phänomen wahr. Skizzieren Sie die Funktion der dorsalen/parietalen Bahn und der ventalen/temporalen Bahn und zeigen Sie ein Experiment, dass diese Trennung nachweist (nicht Einzelfall D.F.) Die Parietalbahn ist die „Wo“-Bahn bzw. die „Wie“-Bahn und hilft bei der Objektlokalisierung. Ihr Weg geht von der Retina (M-Ganglienzellen) zum CGL (magnozelluläre Schichten) zum Cortex (visuelle Areale) zum mediotemp. Cortex zum parietalen Cortex. Sie beinhaltet den magnozellulären Pfad, zuständig für Bewegung.Der Input kommt hauptsächlich durch Stäbchen. Die temporale Bahn ist die „Was“-Bahn zur Objekterkennung. Sie verläuft von den PGanglienzellen der Retina zum CGL (parozelluläre Schichten) zum vis. Cortex zum inferotemp. Cortex. Sie ist zuständig für Farbwahrnehmung, Details, auch Textur etc. Der Input kommt hauptsächlich durch Zapfen. Im Ungerleider-Affenexperiment wurde die Trennung der Bahnen nachgewiesen. Affen mit Temporallappenläsion wurden mit den würfelförmigen Objekten auf Brettchen vertraut gemacht. Sie müssen später das würfelförmige Objekt wählen, um Belohung zu erhalten. Das ist für sie aber sehr schwierig, da die Objekterkennung scheitert. Affen mit Parietallappenläsion wurden mit einer Anordnung vertraut gemacht, bei der die Belohnung erfolgt, wenn der Affe das Futter wählte, dass nahe bei einem zylinderförmigen Objekt war. Das gelingt kaum. Der dorsale Pfad scheint auch daran beteiligt zu sein, wie wir Dinge ausführen. Z.B. Feuern beim Affen dieselben Neurone, wenn er auf ein Objekt blickt, wie wenn er danach greift. Die dorsale Bahn steuert also auch die visuellen Handlungen, aber dies muss nicht notwendig bewusst sein, z.B. beim Ergreifen einer Tasse (Objektlokalisierung und Wahrnehmungskontrolle des Armes). Die Objekterkennung durch die temporale Bahn ist bewusst. Temporal: Wiedererkennen/Identifikation Parietal: visuell gesteuerte Handlungen Skizzieren Sie ein Experiment, dass die Dissoziation von Wahrnehmungsurteilen und motorischen Reaktionen verdeutlicht. Titchener-Illusion: Zwei gleichgroße Scheiben erscheinen unterschiedlich groß, weil eine Scheibe im Zentrum von kleinen Scheiben, die andere von großen Scheiben umgeben ist. In einem Experiment wurde nun mit Hilfe dieser Illusion eine a) Anordnung konstruiert, in der sich die Scheiben zwar physikalisch unterscheiden, aber dennoch als gleich groß wahrgenommen werden sowie b) eine Anordnung, in der die Scheibe (links) größer scheint, sie aber mit der anderen identisch ist. Die Probanden wurden nun nach ihrer Einschätzung gefragt, außerdem wurde die Größe der Greifbewegung gemessen, wenn sie nach der rechten Scheibe griffen. Ihrer Einschätzung nach waren in a) die Scheiben gleich, die Greifbewegung orientierte sich allerdings mit ihrer Handöffnung an der tatsächlichen Größe der Scheibe. In b) schätzten sie die gleich großen Scheiben unterschiedlich ein, griffen aber mit gleich weiter Handöffnung nach einer der Scheiben. Somit kann man zeigen, dass es hier eine Dissoziation im Wahrnehmungsurteil und der motorischen Reaktion gibt. Die Probanden greifen mit einer max. Handöffnung der physikalischen Größe, nicht aufgrund ihres Wahrnehmungseindrucks. Nennen Sie Beispiele für die zunehmende Spezialisierung visueller Neurone und nennen Sie Studien (Stichwort: Modularität) Im mediotemporalen Areal findet man bewegungssensible Neurone. Dies wurde in einem Affenexperiment verdeutlicht: Den Tieren werden Zufallsmuster sich bewegender Punkte gezeigt, die zu einem gewissen Grad in der Richtung korrelieren oder nicht (keine Kohärenz/50% Kohärenz oder 10% Kohärenz der Bewegungsrichtung). Die Affen hatten die vorherrschende Richtung der Punktbewegung anzugeben und konnten die Richtung in Mustern mit nur 1-2% Kohärenz angeben. Affen mit einem zerstörten MT-Areal brauchen jedoch mindestens 10-20% >die Entdeckungsschwelle für die Bewegungsrichtung ist also deutlich angehoben. Im inferotemporalen Areal findet man formsensible Neurone. Sie antworten neben anderen Formen (Quadrate, Ellipsen etc.) bevorzugt auf Gesichter. Die Antwortrate eines Neurons im IT-Cortex einees Affen ist hoch bei einem Gesicht und auch hoch bei einer ganzen Person. Die Anwort wird aber fast ganz eingestellt, wenn das Gesicht verdeckt ist. VL 3 Wahrnehmung und Bewusstsein Was besagt die klassische Schwellentheorie? An einer absoluten Schwelle passiert ein plötzliches Umschlagen von einem „Reiznicht-entdecken“ zu „entdecken“. Man hat diese Schwelle nur, wenn man alle Faktoren konstant hält. Das ist in der Realität nie der Fall, denn es schwankt z.B. Die Empfindlichkeit der Rezeptoren, die Aufmerksamkeit schwankt etc. Welche 3 Methoden zur Schwellenbestimmung werden diskutiert? (Fechner?) a) die Grenzwertmethode - „der eben merkliche Unterschied“. Experiment: Die Schwelle der Entdeckung eines Lichtpunktes : Es wird ein Lichtpunkt dargeboten bei einer Schwelle von z.B. 98,5 (Mittelwert der Grenzen). Der Proband sieht ihn. In allen weiteren Durchgängen wird das Licht verringert (= absteigende Reihen), bis er nichts mehr sieht = Schwellenwert. In den aufsteigenden Reihen wird der Punkt immer heller, bis ihn die VP erkennen kann. Normalerweise wechseln aufsteigende und absteigende Reihen sich ab (gegen Perseverationstendenz der VP, gleich u antworten, wie im Durchgang zuvor). b) die Herstellungsmethode - „Methode des mittleren Fehlers“. Hier nimmt der VL oder die VP eine graduelle Veränderung des Reizes vor, bis er/sie eben schon (bei ansteigendem Level) oder eben nicht mehr sieht (absteigendes Level). Die Reizveränderung ist also kontinuierlich. c) die Konstanzmethode - „Methode der richtigen und falschen Fälle“. Hier erhält die VP eine zufällige Vorgabe von Reizen unterschiedlicher Stärke. Bei der Intensität, bei der die Entdeckung des Probanden 50% beträgt, liegt die Schwelle. Erläutern Sie die Signalentdeckungstheorie in ihrer Anwendung auf das Problem der Wahrnehmungsschwellen Die Signalentdeckungstheorie trennt die tatsächliche Reizdiskrimination von Urteilstendenzen. Die Erkennbarkeit eines Reizes unterliegt Sensitivitätsschwankungen (Sehschärfe/Aufmerksamkeit etc.) Nach der Signalentdeckungstheorie gibt es zwei Zustände, („Signal+Rauschen“ und „Rauschen“). Man muss, um ein Signal zu erkennen, also vom Rauschen trennen können. Wenn nun der Sensitivitätsparameter d´ groß genug ist, hat man kein Problem der Signalentdeckung. Wenn es aber klein ist und das Signal kurz und knapp, stellt sich die Frage, ab wann man den Reiz entdeckt (Wahrnehmungsschwelle). Ermittelt man die Bedingten Wahrscheinlichkeiten der Treffer und falschen Alarme, so resultiert daraus die Distanz der Verteilungsmittelwerte in Form des „Sensitivitätsparameters“ d´. > d´= Z (Treffer)- z (falsche Alarme). d´ wäre also 0, wenn der Beobachter nicht zwischen S+R/R unterscheiden kann, d.h. T=FA ist. d´ wächst mit zunehmender Diskriminierbatkeit, wenn z.B. Die Reizintensität erhöht wird. Also müssen wir schauen, wo d´=0 ist, um die Schwelle zu ermitteln. --> je größer d´ ist, desto weiter auseinander liegen die Verteilungen, desto besser kann ich diskriminieren. Nennen Sie ein experimentelles Beispiel für unbewusste Wahrnehmung und gehen Sie dabei auch auf die Parameter der SET ein Priminig-Experiment/indirekte Tests: Den Probanden werden auf dem Bildschirm Reize dargeboten. Ein maskiertes Primewort (Zahl) wird für mehrere ms dargeboten (durch Maske unter der Wahrnehmungsschwelle). Nach einem weiteren Reiz (Zufallsbuchstaben) wird ein Zahlwort präsentiert und der Proband soll schnell reagieren und sagen, ob die Zahl kleiner oder größer als 5 ist. Die Probanden antworten schneller, wenn im kongruenten Zahlenbereich mit der Primezahl liegt, obwohl sie sich nicht bewusst erinnern. Bei direkter Abfrage können sie sich nicht erinnern. Gleiches gilt z.B. Auch für Wortergänzungsaufgaben: Wenn Wörter präsentiert werden und zwischendrin ist ein Primewort (maskiert, z.B. „Regel“), dann erhalten die Probanden kurz darauf ein Wortfragment (z.B. „REG...) und sollen ergänzen; jedoch mit der Instruktion nicht die Wörter zu verwenden, die zuvor eingeblendet waren. Wenn der Prime jedoch unterhalb der Wahrnehmungssschwelle war, ergänzen sie jedoch signifikant häufiger mit ihm, als wenn er lange und wahrnehmbar präsentiert wurde. Das zeigt, dass sie ihn also nicht bewusst wahrgenommen haben. Der mittlere Sensitivitätsparameter d´ der Probanden ist für das direkte Erkennen des Primes = 0, das mittlere d´ für die indirekte Wirkung des Primes ist > 0. Was besagt das Potenzgesetz von Stevens? Es trifft Aussagen über die Beziehung zwischen objektiver und subjektiver Intensitätsveränderung. Bei Stevens Methode der direkten Größeneinschätzung wird einem Standardreiz ein Wert zugewiesen. Dann werden Reize verschiedener objektiver Intensität vorgegeben und der Proband soll deren Größe, auf den Standardreiz bezogen, angeben. Es kommt jedoch auf die Art des Reizes an, ob Probanden einen doppelt so großen Vergelichsreiz auch doppelt so groß einschätzen! Bei Längeneinschätzungen entsprechen sich die Größenzunahme und die Einschätzung ssehr gut, als Kurve abgetragen ergibt sich eine lineare Beziehung. Bei Helligkeit jedoch zeigt sich eine Verdichtung der Antwortdimension: die Verdoppelung der Helligkeit des Reizes im Vergleich zum Standardreiz bewirkt noch keine Verdoppelung der subjektiven Einschätzung des Probanden. Licht muss etwa 9 mal so hell sein, damit der Proband es doppelt so hell einschätzt. Bei Stromschlägen zeigt sich ein Spreizung der Antwortdimension: Die Verdoppelung eines Stromstosses bewirkt beim Probanden eine höhere Einschätzung der Stärke als „doppelt so stark“, die Kurve zeigt beschleunigten Anstieg. Nach dem Potenzgesetz errechnet sich die Wahrnehmung so: W = K*S (hoch n) W = wahrgenommene Reizintensität, K = Konstante, S = tatsächliche Reizintensität VL 4 räumliche Tiefe und Größenkonstanz Welche Arten monokularer Informationen gibt es um räumliche Tiefe wahrzunehmen? –Verdecken von Objekten: Info für relative räumliche Tiefe, ein Objekt ist vor einem anderen –relative Höhe im Gesichtsfeld: Objekte, die sich im Blickfeld höher befinden, werden als weiter entfernt gesehen. Jedoch nur unterhalb der Horizontlinie; je näher oberhalb dieser Linie, desto weiter weg. –relative Größe im Gesichtsfeld: wenn zwei Objekte gleich groß sind, nimmt das nähere einen größeren Teil des Gesichtsfeldes ein. –lineare Perspektive: Linien konvergieren in einem Fluchtpunkt in der Ferne (Eisenbahnschienen) –gewohnte Größe: Wissen über die Größe eines Objektes beeinflusst die Wahrnehmung. Das funktioniert am Besten, wen andere Informationen fehlen (monokular). –atmosphärische Perspektive: Wir sehen weiter entfernte Objekte weniger scharf (Staub, Wassertröpfchen) –Texturgradient: gleich weit voneinander entfernte Objekte, z.B. Muster auf dem Fußboden, scheinen mit zunehmendem Abstand des Beobachters entfernter, immer dichter gepackt. – Was ist der Texturgradient? Der Texturgradient gehört zu den monokularen Informationen, die zur Wahrnehmung räumlicher Tiefe führen. Meist ist er an den Boden gebunden: Objekte, die den gleichen Abstand voneinander haben (z.B. Muster auf dem Fußboden), erscheinen dem Beobachter mit zunehmender Entfernung immer dichter „gepackt“. Wenn man den Boden wegnimmt, wie in dem folgenden Experiment, verschlechtert sich die Tiefenwahrnehmung: Die VPN waren vor einer Grube, der Texturgradient fehlte also. Sie sollten sich nun vor der Grube so positionieren, dass sie den gleichen Abstand zur Grube wie ein Target dahinter einnahmen. Es zeigt sich, dass die Personen den Abstand überschätzten, wenn der Texturgradient fehlte. Ohne die Grube schätzen sie korrekt. Auch die Größe der Grube an sich wurde überschätzt. Auch wenn ein VL hinter der Grube stand und die VP ihn instruieren sollte, wo das Objekt zu platzieren sei, so dass es den gleichen Abstand zur Grube hat, wie die VP, überschätzten sie den Abstand im Gegensatz zur Bedingung ohne Grube. Die Distanz wird also nur richtig wahrgenommen, wenn die Beschaffenheit des Bodens gleichförmig ist. Beschreiben Sie die Bewegungsparallaxe als Quelle der Wahrnehmung von räumlicher Tiefe Die Bewegungsparallaxe ist ein Prozess, bei dem räumliche Tiefe durch bewegungsinduzierte Information wahrgenommen wird. Sie bezieht sich auf den Geschwindigkeitsunterschied, mit dem nahe und ferne Objekte an uns vorbeiziehen, wenn wir uns bewegen. Am Beispiel eines Auges: Wenn das Auge sich von Pos. 1 zu Pos. 2 bewegt, legt das nahe Objekt A1 eine viel größere Strecke zurück, die Bewegung wird als schneller wahrgenommen als die von Objekt B, dass eine kürzere Strecke zurücklegt. Dieser relative Geschwindigkeitsunterscheid zwischen uns und den Objekten dient uns als Kriterium der Bestimmung räumlicher Tiefe. Nennen Sie ein Experiment, das die Rolle der bewegungsinduzierten Information bei der Wahrnehmung räumlicher Tiefe verdeutlicht Visual cliff: in einer Versuchsanordnung wurden Kinder an die Kante einer Fläche gesetzt, hinter der ein Abgrund zu sein scheint, welcher jedoch von einer Plexiglasplatte bedeckt ist. Der Texturgradient ist durch ein Schachbrettmuster gleichbleibend zur Fläche oberhalb und unterhalb des Abgrundes konstruiert. Kinder, die schon krabbeln können, weigern sich, über die Platte, also über den „Abgrund“ zu krabbeln. Kinder, die noch nicht gekrabbelt sind und über den Abgrund gehalten werden, zeigen eine erniedrigte Herzfrequenz. Die Krabbelkinder zeigten bei Anblick des Abgrundes erhöhten Puls: Die Reaktion dreht sich also für die unterschiedlich alten Kinder um. Das alels ist ein starker Beleg dafür, dass die Kinder, die ihre Umwelt bereits durch Bewegung exploriert haben, diese auch zur Bewegungswahrnehmung nutzen. Die jüngeren Kinder, die noch nicht gekrabbelt sind, zeigen durch die unterschiedliche Pulsfrequenz auf Tiefendiskriminierung, aber keine Furchtreaktion. Erläutern Sie das Prinzip der Querdisparation Die Querdisparation gehört zu den stereoskopischen Informationen zum Wahrnehmen räumlicher Tiefe. Die leicht unterschiedlichen Bilder derselben Szene auf den Netzhäuten beider Augen werden verrechnet zur Tiefenwahrnehmung. Wenn ich ein Objekt fixiere, denke ich mir, ausgehend von diesem Objekt, einen Kreis, der also durch den Fixationspunkt verläuft und die optischen Mittelpunkte durch beide Augen führt. Alle Objekte auf dem Horopter werden auf korrespondierenden Netzhautstellen abgebildet, im Gegensatz zu Objekten außerhalb, also vor und hinter dem Horapter. Ihre Bilder leigen auf disparaten, nicht korrespondierenden Punkten. Der Winkel zwischen einem Netzhautpunkt, auf dem das Objekt abgebildet wurd und dem Punkt, wo es abgebildet würde, wenn es mit dem Abbildungspunkt des anderen Auges korrespondieren würde, nennt man Querdisparationswinkel. Je weiter ein Objekt vom Horopter entfernt ist, desto größer ist der Querdisparationswinkel (trotzdem kann das Objekt zum Beobachter sehr nahe sein). Vor dem Horapter liegende Objekte führen zu gekreuzter Querdisparation (Abbildungen auf den temporalen Bereichen der Netzhäute). Hinter dem Horopter liegende Objekte führen zu ungekreuzter Querdisparation und je weiter weg, desto mehr innen auf der Netzhaut, also nasal. Gekreute Q. zeigt also an, dass das Objekt vor dem Horopter und mir nahe ist, ungekreuzte zeigt an, dass es hinter dem Horopter und weiter weg ist. Des Weiteren werden nur die Objekte, die im Panum-Areal leigen, zu einem Objekt auf der Netzhaut fusioniert. Der Horopter ist nämlich genau genommen keine Linie, sondern umfasst ein Areal gewisser Breite (Außerhalb dieses Areals, dem PanumAreal, sehen wir Doppelbilder). Wie kann man zeigen, dass allein aufgrund von Querdisparation Tiefenwahrnehmung möglich ist? Die Julesz-Stereogramme konnten zeigen, dass auch bei vollkommener Abwesenheit anderer Teiefeninformation allein mit Querdisparation räumliches Sehen möglich ist. Diese Stereogramme waren zufällige Punktmuster: Zuerst wurden 2 identischen Muster erstellt, dann wurde in einem der Muster ein quadratischer Ausschnitt nach rechts verschoben um 1 Einheit (die frei gewordenen Punkte einer Seite werden wieder mit Zufallspunkten ausgefüllt). Man hat dann quasi ein künstlich hergestelltes Querdisparationsbild, so wie Querdisparation immer entsteht, wenn wenn wir unsere Umwelt betrachten. Wenn man diese Bilder in einem Steroskop sieht, nimmt man z.B. ein kleines Quadrat wahr, das vor dem Hintergrund schwebt. Da die künstliche Querdisparation die einzige Tiefeninformation in den Stereogrammen war, muss sie es sein, die uns den Eindruck räumlicher Tiefe vermittelt hat. Erläutern Sie die Rolle der Tiefenwahrnehmung aus der Umwelt anhand des Experimentes von Holway und Boring (Größenkonstanz) In diesem Experiment saßen die Probanden in der Ecke eines L-förmigen Flures. In einem Arm des Flures wurden in verschiedenen Größenabständen Testkreisscheiben dargeboten. Im anderen Arm war eine Vergleichskreisscheibe in immer konstanter Distanz und sollte auf die Größe der Testkreisscheibe eingestellt werden. Die Testkreisscheiben haben hier alle den gleichen Sehwinkel von 1 Grad, sie erzeugen also die selbe Abbildung auf der Netzhaut und müssen, je weiter weg, immer größer werden, um den Sehwinkel beizubehalten. Die Probanden können in so einer Anordnung die Testkreisscheiben gut einschätzen und stellen die richtige Größe ein. Es herrscht also Größenkonstanz, denn trotz des gleichen Sehwinkels erkennen sie die physische Größe der Reize. Die VL reduzierten dann im Flur bei der Testkreisscheibe die vorhandenen Tiefen- und Entfernungsinformationen immer mehr (z.B. nur einäugig sehen, durch eine Lochblende sehen, den Korridor mit Stoff bespannen). Es zeigte sich, dass die Probanden immer schlechter die Größe korrekt einschätzen konnten und näherten sich mit ihrer Einschätzung immer mehr den Ergebnissen an, die man erwarten würde, wenn man nur den Sehwinkel noch schätzt. Bei vollständiger Eliminierung = Sehwinkel, ungleich Größenkonstanz. Erklären Sie das Phänomen der Mondtäuschung (kommt wohl nicht dran?) Die Mondtäuschung ist eine Wahrehmungstäuschung, nach der der Mond als größer wahrgenommen wird, wenn er am Hirizont steht, als wenn er hoch am Himmel steht. Erklärt werden kann dies durch die wahrgenommene Enfernung: Eigentlich wirken Objekte, die näher an der Horizontlinie sind und somit näher zu reichhaltiger Tiefeninformation aus der Umgebung, weiter weg, als Objekte im leeren, tiefen- und entfernungsarmen Raum. Der Horizontmond sollte als als weiter entfernt als der Zenitmond wahrgenommen werden. Aber: Der tiefstehende und der hochstehende Mond haben beide den selben Sehwinkel und bei 2 Objekten im selben Sehwinkel, aber unterschiedlicher Entfernung wird das als größer wahrgenommen, was weiter weg ist. Der Horizontmond erscheint uns weiter weg, daher nehmen wir ihn als größer wahr. (Zeichnung: Auge „1-Grad-Sehwinkel“ schaut gerade auf 2 hintereinander stehende Kaninchen, das hintere wird als größer wahrgenommen). Experiment: In Stereogramm-Anordnung sollten die Probanden 2 Horizont- oder 2 Zenitmonde durch Veränderung der Querdisparation auf subjektiv halbe Entfernung zuneinander bringen. Der Horizontmond wird von den Probanden um den Faktor 4,2 weiter entfernt dargestellt als der Zenitmond. Das spricht dafür, dass die Distanz des Horizontmondes als größer wahrgenommen wird. Das bewusste Urteil, der Horizontmond sei näher, ist die top-down-Korrektur (denn man weiß ja eigentlich, dass es der gleiche Mond ist). VL 5 Objekterkennung Erklären Sie mehrere Objekterkennungsprinzipien aus Sicht der Gestaltpsychologen. Welche Probleme ergeben sich aus den Gestaltfaktoren? „Das Ganze ist mehr als die Summe seiner Teile, d.h., mehr, als die kleinsten elementaren Verbindungen, aus denen es zusammengesetzt ist“. Figur-Grund-Trennung: Rubins Becher (Vexierbild) Wie nehmen die dinghafte Figur und den ungeformten Hintergrund getrennt wahr. Schein-Konturen: Kanisza-Dreieck (ist physikalisch nicht vorhanden) Kontexteinflüsse: manchmal nur erkennen imKontexdt möglich (Bsp.: „Bs“ unter Flecken) 1. Prägnanz (gute Gestalt): Übergeordnetes Prinzip der Gestaltpsychologie. Wir sehen z.B. kein Polygon (Vieleck), sondern 2 geometrische Formen jedes Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie möglich ist. 2. Ähnlichkeit: ähnliche Dinge scheinen zu zusammen gehörenden Gruppen geordnet (4*4 Kreise nimmt man in Spalten und Reihe zusammen gehörend wahr, sind dazwischen Xe, nimmt man z.B. nur noc die Spalten als zusammen gehörend wahr). 3. Nähe: nahe beieinander liegende Dinge erscheinen zusammen gehörig. Überwiegt den Faktor der Ähnlichkeit. 4. Kontinuität: Punkte, die als gerade oder sanft geschwungene Linien gesehen werden, wenn man sie verbindet, werden als zusammen gehörig wahrgenommen. Linien werden tendenzielle so gesehen, als folgten sie dem einfachsten weg (linienkreuzendes x wir sehen 2 Linien, nicht 4). 5. Geschlossenheit: Kanisza-Figur (Kontur wird als geschlossen wahrgenommen, auch wenn wir ergänzen müssen (3 Pacmens als Dreieck) 6. Gemeinsames Schicksal: Dinge, die sich in die gleiche Richtung bewegen, erscheinen zusammen gehörig. neuere Vorschläge: 7. gemeinsame Region: Elemente, die inenrhalb einer gemeinsamen Region liegen, werden zusammen gruppiert. 8. Verbundenheit: Elemente, die verbunden sind, werden als Einheit gesehen. 9.zeitliche Synchronizität: Leuchtpunkte,, die gemeinsam aufleuchten, werden als Einheit erkannt. Durch zeitliche Synchronizität wird die Zusammengehörigkeit erkannt. Probleme: -Die Gestaltfaktoren beschreiben, aber erklären nicht -Mnachmal post-hoc -Konvexität (Verwölbung) schlägt Symmetrie -Die Faktoren funktionieren gut auf ausgewählte Beispiele, aber in der Realität? Was ist z.B. „Einfachheit“ in der Realität? -Was ist „Ähnlichkeit“? manchmal ist die Orientierung ähnlicher als die Form -zu große Bedeutung von Bottom-up-Prozessen Erläutern Sie die Rolle von top-down-Prozessen bei der Objekterkennung anhand eines geeigneten Experimentes. Was meint „Sehen im Kontext“? Experiment von Vacera und Farah: Die Probanden sollten angeben, ob kleine Xes sich af demselben Punkt zweier übereinander präsentierter Buchstaben befinden, oder nicht. Sie können die Aufgabe leichter lösen, wenn die Xe auf dem gleichen, nicht-rotierten Buchstaben sind (Reaktionszeit ist kürzer als bei dem umgedrehten A mit F). Erklärung: Die Probanden sind aufrechte Buchstaben gewohnt, dem Vorwissen und top-down-Prozessen kommt hier große Bedeutung zu. Ebenso beim „Sehen im Kontext“: Wenn man ein spezielles zweideutiges Bild in der Umgebung von Tieren sieht, sieht man eher eine Maus, im Kotext von Gesichtern eher einen Mann top-down Erworbene Schemata dominieren die Wahrnehmung. Beschreiben Sie die drei Stufen des algorithmischen Ansatzes von Marr Der Ausagngspunkt ist hier ein Netzhautbild 1.Primäre Rohskizze: Merkmalsextraktion, d.h. man muss Elementarmerkmale extrahieren (Kontur, Kanten, Ecken, offene/geschlossene Formen) Ecken und Kanten werden zuerst identifiziert. Um die tatsächlichen Grenzen auszumachen werden Licht/Schatten betrachtet -> durch abrupte Übergänge sieht man Kanten. Allmähliche Intensitätsveränderungen lassen auf allmähliche Übergänge schließen Gleichzeitige Analyse von Klecksen, Flecken, Streifen, Kanten, Konturen Das Ergebnis wird nicht bewusst wahrgenommen Zero-crossings ist der Prozess, der Intensitätsveränderungen im retinalen Abbild in Zeichen für Kanten und Konturen überführt. Die Berechnung der Zero-Crossings (2. Ableitung) ist ähnlich wie die Fowier-Analyse, also die Anwendung von neuronalen Filtermechanismen. die primäre Rohskizze eines Objektes ist eine zweidimensionale Beschreibung von Kanten, Ecken, dunklen und hellen Bereichen. Daraus folgt 2. die 2-einhalb-dimensionale Skizze: hier kommt die Tiefeninformation dazu. Elementarmerkmale, die in Größe und Orientierung ähnlich sind, werden nach Gestaltgesetzen gruppiert Punkt-für-Punkt-Verarbeitung von Tiefeninformationen von Oberflächen der Szene Konvexe und konkave Verbindungen zwischen den Oberflächen Nutzung der Information von Schatten, Bewegung, Tectur, Form und Querdisparation Es entsteht eine grobe Tiefencharakteristik, aber es gibt noch keine Informationen über nicht sichtbare Teile des Objektes, d.h. es gibt noch keinen Bezug zur externen Umwelt. 3. 3-D-Repräsentation sie ist perspektivisch beobachterunabhängig sie ist die letztendliche Wahrnehmung es kommt zu einer 3-D-Modellbildung, einem Vergleich mit bereits gespeicherten Exeplaren das Modell ist aus Blockkörpern (Zylinder) geformt, bei Bedarf wird die Analyse verfeinert. Diese „Primitive“ sind also unsere interne Repräsentation; ihre Hauptachse repräsentiert die Ausrichtung des Objektes die „Primitive“ sind hierarchisch organisiert -> bewusste Wahrnehmung -----------------------------------------------------------------------------Kriterien für Marrs Ansatz: 1. Zugänglichkeit: die Repräsentation kann leicht konstruiert werden 2. Bandbreite/Einzigartigkeit: in einer gegebenen Kategorie ist die Repräsentation auf alle Gebilde anwendbar, alle unterscheidlichen Blickwinkel führen zur selben Repräsentation 3. Stabilität/Empfindlichkeit: die Ähnlichkeiten unter den Objekten werden mit einbezogen und die herausstechenden Unterschiede werden auch mit einbezogen Kritik an Marr: zu sehr bottom-up, kein top-down Was besagt die Theorie der Objekterkennung nach Biedermann? Biedermann ist ein Gestaltpsychologe. Die Objekterkennung ist nach Biedermann nicht angeboren, sondern erlernt durch Erfahrung ungleich Marr mit seiner Helligkeitsvariation Kanten-Extraktion/2-D-Netzhautbild Analyse von nicht-zufälligen Eigenschaften Regionen Analyse von konkaven Bestimmung der Komponenten Vergleich der Komponenten mit der Objektrepräsentation Objekterkennung Analyse von nicht-zufälligen Eigenschaften: - Netzhautbilder haben überzufällig oft bestimmte Kanteneigenschaften, diese lassen durch Erfahrung auf 3-D-Objekte schließen - das sind die nicht-zufälligen Merkmale, sie sind perspektivenunabhängig (gerade Linien = gerader Körper, gekrümmte Linien = gekrümmter Körper, parallele Linien = parallele Linien) Analyse von konkaven Regionen/Zerlegung der Umrisskontur an konkaven Diskontinuitäten: - Zusammentreffen zweier Linien. Das lässt auf Zusammentreffen zweier Teile des 3D-Körpers schleißen Bestimmung der Geone: - Kombination der o.g. Merkmale zeigt auf der Netzhaut elementare 3-D-Körper an Geone - Geone sind durch ihre nicht-zufälligen Merkmale bestimmt - 36 Stück - Identifikation des Objektes durch Analyse der Beziehung der Geone Vergleich der Komponeneten mit der Objektrepräsentation: - Gedächtnis Erkennung: (hier ist eine Katze gemalt) es ist eine Katze Experiment: Es gibt kritische Merkmale (= nicht-zufällige) und weniger kritische Löschung von Komponenten Es gab entweder noch die nicht-zufälligen oder die weniger kritischen Linien, in beiden Bedingungen aber prozentual gleich viel Die Objektrepräsentation ist nur möglich, wenn es nicht-zufällige Linien sind Nennen Sie 2 experimentelle Beispiele, die zeigen, dass Marrs und Biedermanns Annahme von perspektivenunabhängiger Objekterkennung angezweifelt werden kann Mentale Rotation: bei typischen Figuren, die für mentale Rotationexperimente verwendet werden, dauert der Abgleich umso länger, je größer der Rotationswinkel ist. D.h., nicht aus jeder Perspektive erkennt man das Objekt gleich schnell. Experiment von Vanné et al.: Mentale Rotation Bedingung a)invariance condition: ca. 2 Komponenten weren 10° versetzt in non-matchingtrails, außerdem Objektdrehung b)rotation condition: Komponenten-Hauptachse versetzt andere Seite in nonmatching trails, quasi Spiegelbild in a) zeigt sich keine Abhängigkeit vom Drehwinkel, die Probanden sind gleich schnell perspektivenunabhängig In b) zeigt sich eine Abhängigkeit vom Drehwinkel, die Probanden sind schneller bei kleiner Winkeldisparität Ergo: wenn ich ein Objekt von seinem „Spiegelbild“ trennen muss, muss ich mental rotieren (rotation condition), wenn ich anhand einfacher Merkmale auseinanderhalten kann, muss ich nicht rotieren (invariance condition). Gesichterwahrnehmung hat gegenüber der Wahrnehmung anderer Objekte eine spezifische Eigenschaft. Welche? Wie zeigt man sie? Warum ist diese Eigenschat letztlichaber nicht so spezifisch? Gesichtererkennung basiert vor allem auf holistischen Prozessen (Konfiguration wird verarbeitet, Teilen wird weniger Bedeutung beigemessen, sie lösen sich eher im Ganzen auf). Experiment von Farah: verschiedene Items werden dargeboten, die Probanden sollen entscheiden, ob das 1.und das letzte Item gleich sind 1.Bedingung: zwischen den Items kommt eine „Ganz“-Maske, volständiges Item, real 2.Bedingung: zwischendrin kommt eine „Teil“-Maske, unvollständid, verdreht, nicht real 1. Wörter: Ganz-Maske (z.B. „King“), Teil-Maske (z.B. Nikg) kein Unterschied in der Fehleranzahl. Wörter scheinen eher der Komponentenanalyse zu unterliegen 2. Gesichter: Ganz-Maske: normales Gesicht, Teil-Maske: „scrambled face“ Hypothese: wenn die Gesichtererkennung als Ganzes passiert, sollten „scrambled faces“ als Maske zwischen den Trails das Weidererkennunen weniger stören! trifft zu, besseres Erkennen bei Teil-Maske 3. Häuser: Ganz-Maske: normales Haus, Teil-Maske: scrambled Haus auh hier gibt es keinen signifikanten Unterschied. (Zwar kleiner als bei Gesichtern, aber signifikant!) Wenn eine Teil-Maske dargeboten wird, dan gint es eine bessere Wiedererkennung --- Gesichtererkennung doch nicht so speziell, denn .. ...wie Gauthier zeigte, ist nach Training des Weidererkennens computererzeugter Objekte (Greebles) die Antwortrate im Gyrus fusiformis gleich derer für Gesichter (vorher gab es einen signifikanten Unterschied ...wir (europ., am.) sind zwar Experten für die Erkennung der eigenen Ethnie, aber z.B. nicht für afrikanische Gesichtererkennung ... Prosopagnostiker zeigen oft „convert recognition“, zeigen Hautleitwiderstand auf bekannte Gesichter, ohne bewusstes Erkennen. Prosopagnostiker scheinen außerdem eine generelles Problem zu haben, spezifische Objekte zu erkennen, die komplexen Klassen angehören. Z.B. erkannte ein prosopagnostischer Vogelexperte seine Vögel nicht mehr. Was zeigte Gauthier in seiner Griebels-Studie? Gauthier erstellte mit PC „Greebles“ (kleine Objekte, die die gleiche Grundform haben und unterscheidliche Merkmale aufweisen) und maß die Aktivität im Gyrus fusiformis vor und nach einem Training im Wiedererkennen der Greebles und normaler Objekte. Vor dem Lernen der Greebles-Merkmale feuerten die G.f.-Neuronen signifikant weniger, nach dem Training näherte sich die Antwortrate der Neuronen sehr derere für normale Gesichter. spricht gegen den „speziellen Gesichterfall“ VL 6 Bewegung und Handeln Beschreiben Sie die ökologische Perspektive von Gilson sowie deren Stärken und Schwächen - direkte Wahrnehmung: die Information steckt direkt in der Anordnung, die sich dem Betrachter, v.a. dem sich bewegenden, bietet (Gilson war Rebell und fand die Wahrnehmungsstudien seiner Zeit zu artifiziell). - Wahrnehmung und Handeln sind direkt untrennbar verknüpft - Wahrnehmung durch Bewegung (umgebende optische Anornung ändert sich) - Welche Umgebungsinformation ist verfügbar? Was nutze ich? - Oberflächen werden in ihrer Struktur wahrgenommen wichtig: Texturgradient - Beobachtung/Training Piloten: Oberflächenstruktur vermittelt Information (Landeanflug) - wesentlich für die Wahrnehmung sind die Veränderungen im optsichen Feld, die durch meine Bewegungen hevorgerufen werden. optisches Fließen! Man sieht ein bewegtes Feld, einen Gradienten der Bewegung, die Geschwindigkeit im Vordergrud ist hoch, im Hintergrund geringer. Das optische Fließen liefert Informationen über die Richtung, in der ich mich bewege. Oder, bei einem Piloten: er sieht die Geschwindigkeit des Fleißens und den FOE, den „focus of expansion“ = Zentrum des Auseianderfließens. Dort ist keine Bewegung. Dort wird Information über die Zielrichtung geliefert, auf die der Pilot zusteuert. Nutzung des optischen Fließens: Um Kurs zu halten , z.B. bei Autofahren wird die Fortbewegungshauptlinie für das Kurshalten benutzt, bei Kurven schaut man auf die stärkste Krümmung. Es handelt sich um eine reziproke Beziehung: die Bewegung führt zu optischem Fluß, der optische Fluß steuert die Bewegung Affordances: Objekte/Oberfächen werden nicht intern repräsentiert, sondern haben einen direkten Aufforderungsgehalt: ihre Möglichkeiten werden direkt vom Beobachter mit seinen Zielen wahrgenommen (z.B. benutzerfreundliches Design; man weiß intuitiv, wie man ein Objekt zu seinen Zielen gebrauchen kann). Vorteile: - philosophisch wichtig (Mensch-Umwelt) - Umwelt/visuelle Reize bieten mehr Informationen als gedacht - wurde nicht empirisch widerlegt Nachteile/Schwächen: - Wahrnehmung komplizierter - nicht alle Wahrnehmungsaspekte einbezogen - das Gedächtnis/die interne Repräsentation spielen doch eine Rolle Wie kann man neuronale Korrespondenz der Bewegungswahrnehmung nachweisen? Affen erhielten wieder Punktemuster (bewegte). Das Bild wurde so präsentiert, dass es optimal mit dem rezeptiven Fels eines MT-Neurons übereinstimmt (Variation Kohärenz/Richtung). Die Antwort der MT-Neurone wurde abgeleitet, außerdem wurde der Affe trainiert, auf Lämpchen zu blicken, die zur Richtung korrespondierten. Ergebnis: Die Beziehung zwischen der Neuronenentladung und dem Verhalten desAffen war so stark, dass dessen Fähigkeit, die Bewegungsrichtung anzugeben, sich aus der Ableitung weniger Neurone vorhersagen ließ. Je stärker die Kohärenz, desto stärker feuerten die Neurone. Reafferenz-Prinzip: Wie vererchnet das kognitive System Augen- und Objektbewegungen? Das visuelle System muss irgendwie unterscheiden können, ob die Bewegung auf der Retina auf eine reale Bewegung oder eine Bewegung der Augen oder beides zurückgeht. Das funktioniert so: ich bewege meine Augen efferentes Signal (Gehirn an Augen) und Kopie an den Komparator (Efferenz-Kopie) eine Kopie des efferenten Signals geht an den Komparator (hypothetische Struktur), wodurch auch die Information über die retinale Bildverschiebung, also des efferenten Signals erfolgt (Auga an Gehirn) die Efferenz-Kopie sagt aus: Hatte das Auge Befehl, sich zu bewegen? sodann erfolgt eine Addition mit dem Retinasignal. Wenn ein efferentes und ein afferentes Signal gegenläufig sind, heben sie sich auf, dann gelangt die Information nicht in den Cortex und es erfolgt keine Bewegungswahrnehmung. Erläutern Sie das Korrespondenzproblem der Bewegungswahrnehmung anhand der Johannson-Figuren Das Korrespondenzproblem bedeutet: Wie komme es, dass wir die Elemente eines Einzelbildes in den folgenden Bildern korrekt zuordnen? Wie können wir Bewegung sehen? Eine große Rolle spielen Algorithmen und Heuristiken sowie Bewegungsschemata. Denn Objekte bewegen sich nicht chaotisch, sondern in charakteristischer und vorhersagbarer Weise. Vor allem Bewegungsschemata führen zur Wahrnehmung biologisches Bewegung bei den Johannson-Figuren (point-light-walker = Wahrnehmung einer Figur ausschließlich durch Lichter, wurde erstellt durch Lämpchen an Menschen und größtmögliches Reduktion, d.h. ca. 11-15 Lämpchen). Die komplexen Bewegungen sind zerlegt in Komponenten. Trotzdem sehen wir Menschen und keine Punkte, Erklärung: Das visuelle System zerlegt in die einzelnen Komponenten von ballistischen und Pendelbewegungen des Körpers. Wir nehmen aufgrund charakteristischer Bewgungsschemata wahr, d.h. top-down. Bei Johannson sind männlich/weiblich, Gewicht, Anspannung und Stimmung kategorisierbar. Das visuelle System ordnet die Punkte einander zu und erst beim Zusammenfügen entsteht eine Form/ein Objekt, das sich bewegt. Bewegt sich die Johannson-Figur nicht, sehen wir nur Zufallspunkte. Wenn sie sich bewegt, sehen wir eine Form (bedeutungshaltige Struktur, Bewegungsschemata). Welche Aufmerksamkeitsprozesse spielen bei der bewegungswahrnehmung eine Rolle? a) inattentional blindness: Gorilla-Film: Beobachter bemerken ein unerwartetes, unbeachtetes Objekt nicht. b) change blindness: Blindheit für Veränderungen: Szene, in der sehr langsam ein Gebäude eingeblendet wird wir sehen aber nix. 1. Vorübergehende Verdeckung. Exp. Fremder fragt nach dem Weg. Bei vorheriger Verdeckung bemerken wir nicht, dass eine neue Person vor uns ist. die Veränderung wird kurz versteckt 2. sakkadische Suppression: Die Wahrnehmungsempfindung ist während einer Sakade stark verringert. 3. während des Blinzelns 4. kurze Unterbrechung flacker-Paradigma (Flackerbilder) all dies sind Beispiele, dass wir Bewegung nur wahrnehmen, wenn wir die Objekte mit Aufmerksamkeit bedenken. Wenn wir einem Bereich eine beobachteten Szene keine Aufmerksamkeit schenken, bemerken wir auch keine Veränderungen. VL 7 selektive Aufmerksamkeit Erläutern Sie (frühe) Theorien zur auditiven Aufmerksamkeit (Broadbent, Treisman, Deutsch und Deutsch) einschließlich empirischer Studien, die durchgeführt wurden, um zwischen ihnen zu unterscheiden 1. Broadbent-Filtertheorie: Die Information aus beiden Kanälen kommt kurz in einen Zwischenspeicher. Aufgrund physikalischer Merkmale (z.B. Geschlechtsunterschiede) wird das Signal einer Quelle herausgefiltert, um eine Überbelastung des Systems zu vermeiden (Mechnismen jenseits des Filters sind kapazitätslimitiert). Frühe Auswahl. Das, was ich nicht brauche, wird ausgefiltert und zwar ohne weitere Verabeitung. Experiment: immer getestet im Paradigma „dichotomisches Hören“: beide Ohren erhalten unterschiedliche Informationen gleichzeitig, eine shadowed message (laut wiederholen) und eine nicht zu beachtende. Es wurde schon früh nachgewiesen, dass Probanden nur die menschliche Stimme vs. Geräusche, männl./weibl., Wechsel der Stimme im unbeachteten Kanal bemerken, nicht ob diese Stimme eine fremde oder die eigene Sprache spricht oder rückwärts etc. Evidenz zur Filtertheorie von Broadbent: jeweils 3 Zahlen werden den Ohren gleichzeitig vorgespielt. Beim Erinenrungsdurchgang wird „ohrweise“ wiedergegeben, nicht der Zeit nach (744357, spricht dafür, dass physikalische Merkmale (Ohr) Vorrang haben. Spricht auch für sensory buffer. Beides bleibt kurz da und ist abrufbar. 2. Treismann-Dämpfungstheorie: Das Signal des unbeachteten Kanals wird minimiert, abei nicht vollständig eliminiert. Die semantische Verarbeitung der unbeachteten Information ist schwierig, aber prinzipiell möglich. Die Relevanz der Information scheint meine Verarbeitung zu beeinflussen durch a) große physikalische Stärke (sehr lautes Geräusch), b) momentane Passung (gerade aktuell für mich), c) persönliche Relevanz (cocktail-party-Phänomen) B sensory attennater short-term-memory B register (hier wird gedämpft) short.term-memory Die irrelevanten Informationen werden minimiert. Evidenz: 1. Gray und Wedderburn Ohne shadowing: dichotomisches Hören, Instruktion. Spreche die bedeutunghaltige Information nach (links: „Hunde sechs Flöhe“, rechts: „vier Kratzen acht“). Die Bedeutung ergab sich aus den Wörtern beider Ohren „Hunde kratzen Flöhe“ die Probanden sind in der Lage, nach der Bedeutung, nicht nach einem physikalischen Merkmal zu beschatten! 2. Treismann: Shadowing-Aufgabe: Die bedeutungshaltige Information wechselte zwischen den Ohren. Das wurde manchmal entgegen der Instruktion wahrgenommen, in 6% der Fälle gab es einen Durchbruch. Das spricht für die Dämpfung bei gleichzeitigem Vorhandensein der Information des unbeachteten Kanals Aspekt der momentanen Passung 3. Bargh: Shadowing-Aufgabe: Die Versuchspersonen sollten Substantive nachsprechen. Auf dem unbeachteten Kanal wurden ab und zu Adjektive dargeboten, die für 50% der Probanden selbstrelevant war. Sie sollten auf ein Lichtsignal reagieren, das parallel zu diesen Wörtern erschien. Die VPN reagierten viel langsamer, wenn auf dem anderen Ohr Selbstkonzept-Wörter kamen das spricht für Treismann (persönliche Relevanz) 3 Deutsch und Deutsch:Theorie der späten Auswahl Die gesamte Information wurde ungedämpft verarbeitet. Hier ist nicht die Begrenzung des Wahrnehmungssystems, sondern die des Reaktionssystems entscheidend. Der Flaschenhals ist hier also viel näher an den Antwortsystemen als bei Broadbent und Treismann. Beschreiben Sie die Perceptual-Load-Theorie Ob eine frühe oder eine späte Selektion stattfindet, hängt von den situationalen Bedingungen ab. Wieviel Aufmerksamkeit wird benötigt? Hoher perceptual load: dann wird viel Aufmerksamkeit benötigt frühe Selektion. Niedriger perceptual load: dann wird wenig Aufmerksamkeit benötigt späte Selektion Evidenz: Probanden solltenTargetbuchstaben ( X oder N) in einer Kriesanordnung finden Faktoren: 1. high load: Target umgeben von anderen Buchstaben + Distraktor (X/N) 2. low load: Target umgeben von Nullen + Distraktor (X/N) kongruent: Target = Distraktor, inkongruent: Target ungleich Distrakor Ergebnis: 1. Bei high load ist man immer kangsamer als bei low load 2. im high load war die Reaktionszeit für kongruent/inkongruent gleich. Der Distraktor wird also nicht mitverarbeitet, die Reaktionszeit ist gleich Im low load: langsamer in inkongruenten Trials. Braucht man weniger Aufmerksamkeit, so werden die Distraktoren mitverarbeitetdas spricht alles für die Percetual-load-theory Schildern Sie die spotlight-Metapher der Aufmerksamkeit von Posner Spotlight-Metapher bedeutet: die visuelle Aufmerksamkeit ist eine Art Scheinwerfer nicht-fovealer Verarbeitung. Ein Scheinwerfer beleuchtet einen bestimmte Ort. Die Stimuli dort werden rascher und gründlicher verarbeitet. Die Größe des Spotlights ist konstant. Es wird in kontinuierlicher, analoger Weise von einem Auge zum anderen verlagert. Nennen und beschreiben Sie ein Experiment, das Evidenz für das zoom-lensModell der visuell-räumlichen Aufmerksamkeit liefert. Was sind die Aussagen des zoom-lens-Modells? Das zoom-lens-Modell besagt, dass der Kegel eines Scheinwerfers unterschiedlich breit gezoomt werden kann. Beim Fokus auf einen kleinen Bereich besteht die größte Verabreitungskapazität und eine „hohe Auflösung“. Je breiter der zoom ist, desto mehr verringert sich die Aufmerksamkeit (unfokussierte Einstellung) Experiment von La Berge:Man soll ein Wort mit 5 Buchstaben fokussieren und Kategorisieren. Danach erscheint eine Zahl („probe“), die schnell genannt werden soll. 1.Bedingung: (letter-task): Beim präsentierten Wort wird die Aufmerksamkeit durch die Kategorisierungsaufgabe auf die Mittel gelenkt [LACIE –aufs C, gehört das zur 1. oder 2. Hälfte des Alphabets] [*F**** ist das ein F oder ein T oder ein Z?] 2.Bedingung: (word-task): Das vollständige Wort soll kategorisiert werden. Die Aufmerksamkeit ist hier breit eingestellt [TABLE, ist das ein Möbesltück] [*F***** ist das ein F oder ein T oder ein Z?] Hypothesen: In der letter-task sollten die Probanden je langsamer sein, je weiter die probe-Position von der Mitte entfernt ist (als Fokus der Aufmerksamkeit/Spotlight). In der word-task sollte es keinen Unterscheid geben, wo Probe ist, wenn die Aufmerksamkeit laut zoom-lens-Modell breit eingestellt werden kann. Das Ergebnis bestätigte diese Hypothesen! Auf probe wird schneller geantowortet, wenn „central attentional Fokus“. Ist probe in der letter task an gleicher Stelle wie der kategorsisierte Buchstabe, erfolgt eine schnellere Reaktion. In der word-task ist man immer schneller, der Fokus ist auf dem ganzen Wort. Es gibt hier keinen Unterscheid für die probe-Position. Beschreiben Sie ein Experiment, das Evidenz dafür liefert, das die Aufmerksamkeit auch auf 2 Stellen fokussiert sein kann (split attention) Experiment von Awh und Pashler: Es wird ein 5x5-Display mit 23 Buchstaben und 2 Zahlen dargeboten. Die Probanden sollen die Zahlen benennen. Kurz vor der Präsentation der Matrix werden 2 cues gezeigt und zwar dort, wo die Zahlen wahrscheinlich sein werden (zu 80% valide Trials) Hypothese: Wenn die Aufmerksamkeit zoom-lens ist, die einen bestimmten Bereich wahrnimmt, sollte die obere Zahl in den invaliden Trials genauso gut erinnert werden (die Zahl liegt dann zwischen den 2 cued locations oder im Bereich, der gecuet wird). die Performanz sollte für diese Zahl laut zoom-lens also genauso hoch sein. Wenn die Aufmerksamkeit jedoch geteilt ist, sollte die schlechter sein als bei den validen Trials. Ergebnis: Die Leistung für die ungecuete Zahl in der Mitte der 2 gecueten Zahl ist schlechter. Anscheinend war dort keine Aufmerksamkeit, spli-attention, möglich. Nennen Sie 2 Experimente, die Evidenz für objektzentrierte Aufmerksamkeit liefern 1.Neisser und Becklen: visuelle Aufgabe, die analog zur auditiven Beschattungsaufgabe ist. Die Probanden sahen 2 Filme, in Überblendtechnik übereinander gelegt (z.B. Handschlagspiel/Ballspiel). Gruppe 1 sollte 1 Film beschatten und auf ungewöhnliche Ereignisse achten das klappte gut Gruppe 2 sollte beide Filme gleichzeitig nach ungewöhnlichen Ereignissen überwachen viele verpassten die kritischen Ereignisse 2.Behrmann et al.: Zwei gekreuzte Holzstücke mit jeweils einer Ausbuchtung an einem Ende bzw. 2 Holzstücke, bei denen nur eines eine Ausbuchtung aufwies. Frage: Ist die Anzahl der Ausbuchtungen gleich an den beiden Enden? die Antwort wird schneller gegeben,wenn die Kerben auf dem gleichen Objektstreifen sind und nicht, wenn der Ort der gleiche ist. das beweist die objektbasierte Aufmerksamkeit. Die Aufmerksamkeit musste nicht vom einen auf das andere Objekt verlagert werden = schneller Aufmerksamkeit kann orts- oder objektbasiert sein. Erläutern Sie eine experimentelle Anordnung, die beides belegt Experiment von Egly et al.: (zeigt, dass beides nebeneinander exisitieren kann). Ein Display wurde präsentiert. Der Targetstimulus musste so schnell wie möglich erkannt werden. Davor wurde ein cue gesetzt: valide/invalide, gleiches Objekt oder anderes Ergebnisse: 1.Reaktionszeit ist für das Targetfinden bei invaliden Trials immer langsamer als bei validen 2.In den invalide Trials war das Auffinden des Targets langsamer, wenn der cue an einem anderen Ort, aber am gleichen Objekt war ortsbasierte Aufmerksamkeit 3.Die Reaktionszeit ist noch langsamer, wenn es ein anderes Objekt ist Anteil der objektbasierten Aufmerksamkeit Steuerung der Aufmerksamkeit: Gibt es Reizeigenschaften, die auf jeden Fall Aufmerksamkeit auf sich ziehen? Beschreiben sie ein Experiment Das ist die alte Sicht auf „attentional capture“: d.h. unabhängig von den Zielen der Person, unflexibel, fest verdrahtet. Experiment von Folk et al. Attentional capture und Aufgabenrelevanz Entweder waren die cues farbig oder onset. Die Targets ebenso. abrupter onset.cue Target abruptes onset-target (valide) Farb-cue target abruptes onset-target (invalide) Farb(invalide) Farb(valide) Ergebnisse: 1. Wenn die VPN nach abrupten onset-targets suchten, konnten nur onset-cues die Aufmerksamkeit „fangen“, nicht die Farb-cues! 2.Wenn die VPN nach Farb-targets suchten, konnten nu die Farb-cues die Aufmerksamkeit „fangen“. es zeigt sich ein Validitätseffekt nur dann, wenn cue und target durch das gleiche Merkmal definiert sind. D.h., automatisierte atetntional-capture-Prozesse hängen von der Beziehung zwischen cue und target ab! Nicht nur vom cue alleine! Das spricht für die wechselseitige Beeinfllussung (stimulus-driven/goal-directes system). Wir können durch top-down Zieleinstellung bestimmen, welchen Merkmalen wir dann Aufmerksamkeit schenken neue Sicht auf attentional capture: Die Aufmerksamkeit wird gemäß den Zielen/Aufgaben konfiguriert. Aufgabenrelevante Merkmale haben „attentionalcapture-Potential“, aufgabenirrelevante nicht. Was ist das Bindungsproblem? -die verschiedenen Merkmale eines Objektes werden in verschiedenen Cortexbereichen (vis.) verarbeitet und repräsentiert (Farbe, Form etc. funktionelle Säulen) wie schafft das Gehirn es, die neuronale Aktivität dieser verschiedenen Cortexbereiche zur Wahrnehmung ein- und desselben Objektes zu verknüpfen? Wie wird versucht, im Paradigma der visuellen Suche zwischen automatischen, nicht der Aufmerksamkeit bedürfenden Prozesse sowie aufmerksamkeitsgesteuerten Prozessen zu unterscheiden? Die Merkmalsintergrationstheorie von Treisman untersucht im Paradigma der visuellen Suche: Die VPN sollen möglichst schnell entscheiden, ob ein target in einer Menge von Distraktoren ist oder nicht. Faktoren sind hier vor allem: ist das target vorhanden oder nicht und die Anzahl der Distraktoren Schlussfolgerungen: 1.bei der einfachen Merkmalsssuche: flache Gerade, prä-attentiver, paralleler Prozess. Das target springt ins Auge. Hier ist die Anzahl der Distrakoren egal. Die Suchfunktion kann flach bleiben alles kann parallel abegsucht werden, das geht schnell 2. bei der Merkmalskonjunktionsuche : es gibt hier eine deutlich steigende Gerade. Je mehr Distraktoren vorhanden sind, desto länger dauert die Suche: seriell, aufmerksamkeitsbedürfend. Die Suche ist seriell-erschöpfend in negativen Durchgängen (target abwesend) und selbst-abbrechend in positiven Durchgängen (target anwesend). Die Suche ist auch langsam. Die Merkmale werden zu Objekten integriert. Das Steigerungsverhältnis zwischen negativen und positiven trials ist 2:1. Beschreiben Sie die Merkmalsintegartionstheorie von Treisman Das ist eine Theorie, die auf das Bindungsproblem antwortet. Sie schlägt „Aufmerksamkeit“ als „Klebstoff“ zwischen den verschiedenen Merkmalen eines Objektes zur ganzheitlichen Repräsentation vor. 1.schneller, initialer, prä-attentiver Prozess. Einfache Merkmalsssuche, braucht keine Aufmerksamkeit, Verarbeitung parallel. 2. langsamer, serieller Prozess bei mehreren Merkmalen gleichzeitig. Aufmerksamkeitsgesteuert. Merkmale werden zu einem Objekt kombiniert. Je größer die Anzahl der Distraktoren (Umweltreize) desto langsamer 3.Merkmalsinformation muss sich im Aufmerksamkeitszentrum befinden, um zu einem Objekt kombiniert zu werden. 4.Kombination der Merkmale kann durch Vorwissen beeinflusst sein (Bananen sind immer gelb), 5.Ohne Aufmerksamkeit können die Merkmale auch falsch kombiniert werden illusionäre Konjunktionen Objekt 1. Elementarmerkmale identifizieren (Farbkarten/Orientierungskarten etc.) präattentiv, schnell 2. Merkmale kombinieren, Gegenstand aufbauen (Hauptkarte der Orte) Aufmerksamkeit wird fokussiert, langsam, Verknüpfung parietal „wo“ und temporal „was“ werden durch Aufmerksamkeit verknüpft 3. temporäre Objektrepräsentation haben, 3-dimensional (Zeit, Ort, Identität, Name etc.) 4. mit Gedächtnis vergleichen, wenn ein Vergleichsobjekt gefunden wird 5. Objekt erkennen Gedächtnis Beschreiben Sie die Theorie der gesteuerten Suche von Wolfe. Welche Unterschiede bestehen zur MIT? Wolfe entwickelte seine GST als Antwort auf Treismans MIT-Probleme (idealisierte Ergebnisse, serielle/parallele Suche). Es gibt 2 wesentliche Prozessarten 1. salienzgesteuert, bottom-up (ähnlich der einfachen Merkmalssuche) 2. top-down-Prozesse (ähnlich der Konjunktionssuche) zu 1. -Je mehr sich ein Display-Item von anderen Items unterscheidet, desto größer ist die mSalienz in der betreffenden Dimension (hier = Farbe). Salienzsignale werden dann aufsummiert. -Die Aufmerksamkeit wird vom Ort der höchsten Hauptkartenaktivitäten angezogen. zu 2. –Das Target ist das einzige Item, das höhere Aktivation in beiden Dimensionen bekommt. Die Aktivationsdifferenz ist allerdings geringer als bei der bottom-upSuche; je ähnlicher sich Target und Distraktoren sind, desto geringer sind die Salienzdifferenzen, desto störanfälliger ist die Suche es kann passieren, dass nonTargets vorher inspiziert werden. Die Salienzberechnungsprozesse an sich sind auch störanfällig; mit abnehmender Aktivationsdifferenz steigt die Wahrnehmungsfähigkeit, das Target wird als erstes gesehen. Wolfe: ähnlich MIT ist initiale, effiziente Verarbeitung von Merkmalen gefolgt von ineffizienter Suche. Es ist Aufgabe des strengen, parallel-seriellen Systems. Aufmerksamkeit kann orts- und objektbasiert sein. Erläutern Sie die experimentellen Anordnungen, die orts- und objektbasierte Aufmerksamkeit belegen ortsbasierte Aufmerksamkeit: z.B. LaBerge word task/letter task oder Awh und Pashler split attention objektbasierte Aufmerksamkeit: z.B. Filme in Überblendtechnik/Kerben in konische Streifen Erklären Sie, inwieweit ein negative-priming-Experiment Annahmen der frühen Selektion von visueller Information widerlegen kann Francolini und Egeth: Kreis mit abwechselnd insg. 4 roten Dreiern und insg. 4 schwarzen Ns. Frage: „Wieviele rote Stimuli gibt es?“ Hier steht das Zahlwort in Konflikt mit der Anzahl dieser Zahlen. Es gint einen Stroop-Effekt. Dann Kreis mit insg. 4 schwarzen Dreiern und 4 roten Ss. Gleiche Frage. Die 3 wird hier nicht beachtet, es gibt keinen Stroop-Effekt. all dies spricht zwar für eine frühe Selektion, aber wenn im Experiment zuerst die 3 roten Dreier und dann erst die roten Ss kommen, dann gibt es für die „Ss“ eine höhere Reaktionszeit, da man die Zahl sagen muss, die man im Trial davor unterdrückt hat. Denn man muss „3“ zu sagen bei den 4 roten Dreiern unterdrücken. die höhere Reaktionszeit im Folgedurchgang, bei dem man das sagen muss, spricht dafür, dass die nicht beachtetet Information möglicherweise sehr weit verarbeitet wird, um dann gehemmt zu werden. Wenn es frühe Selektion gäbe, würde die Information gar nicht verarbeitet und könnte im nächsten Durchgang keinen negative-priming-Effekt verursachen. VL 8 Geteilte Aufmerksamkeit Nennen Sie Faktoren, die laut modularer Theorien der Aufmerksamkeit zu schlechterer Leistung in zwei Aufgaben führen und nennen Sie ein Beispiel -gleiche Stimulus-Modalität (2 Leute sprechen zu mir) -gleicher Verarbeitungsprozess (frühe vs. späte Selektion) -gleiche Gedächtniscodes (räumlich oder verbal) -gleiche Antwortmodalität (z.B. 2 Tasten drücken, „1“ für 1. Antowort, „2“ für 2. Antwort“ Experiment zur Rolle der Ähnlichkeit: Segal und Fusella: Entdecke ein Signal, visuell oder auditiv! Stelle Dir ein akustisches oder ein visuelles Ereignis vor! Und zwar beides gleichzeitig! Ergebnis: Die Probanden entdecken das Signal viel besser (höheres d´), wenn sie sich parallel die andere Stimulusmodalität vorstellen. Die Ähnlichkeit von Signal und Imagination führt zu Interferenz Was ist die Performance-Ressourcen-Funktion? Diagramm, drei ansteigende Kurven übereinander, A,B,C. Die Aufgaben nehmen in ihrer Schweirigkeit ab (von A C), denn ich brauche die gleichen Ressourcen zur Bewältigung. Die Leistung nimmt trotzdem zu. Man sagt, die Aufgabe ist datenlimitiert, ab einem gewissen Punkt macht es keinen Sinn, weitere Ressourcen hineinzustecken. Bis zu diesem Punkt allerdings, wenn sich also Leistung und Ressourcenverbrauch beide erhöhen, ist die Aufgabe ressourcenlimitiert. Was besagt die Performanz-operating-Charakteristik? das ist die Abbildung einer Leistung in einer Aufgabe als Funktion der Leistung in einer anderen Aufgabe. sind beide Aufgaben ressourcenlimitiert, ergibt sich eine Ausgleichsbeziehung: die Leistungserhöhung in A führt zu einer Verschlechterung in B. verändert sich die Leistung von A nicht, wenn die Leistung in b verändert wird, ist A datenlimitiert. die Rolle der Aufgabenschwierigkeit (übergeordneter Bereich) Wie wird versucht, die Theorie der generellen Aufmerksamkeitskapazität in der Tradition von Kahnemann zu testen? Was bestehen dabei für grundsätzliche Probleme? Kahnemann: entwickelte eine Theorie mit der Annahme einer zentralen Aufmerksamkeitskapazität. Diese kann durch Anstrengung und Motivation variieren. Alle Aufgaben partizipieren an dieser Kapazität. Wenn man eine Doppelaufgabe lösen will, gilt Folgendes: Übersteigen die kombinierten Anforderungen die Gesamtressourcen, so entsteht Interferenz ( kritische Determinante ist also die Aufgabenschwierigkeit für Performanz, das Maß für Interferenz lässt auf die Aufgabenschwierigkeit schließen). Experiment von Bourke et al.: 4 Aufgaben, die so gewählt sind, dass sie ganz unterschiedlich sind und offensichtlich keine spezifischen Interferenzen produzieren: 1. Zufallsbuchstaben generieren, 2. Prototyp lernen, 3. Manuelle Aufgabe, 4. Ziel-Ton entdecken Kapazitätsanforderung: absteigend: 1. Random generation, 2. Prototyp lernen, 3. manual task, 4. tone-task die VPN sollten immer 2 Aufgaben machen. Eine davon wurde als wichtiger gekennzeichnet. Hypothesen: Wenn es eine zentrale Aufmerksamkeitskapazität gibt, dann sollte die Aufgabe, die die meiste Kapazität erfordert, alle anderen behindern (immer). Die Aufgabe, die am wenigsten Kapazität benötigt, sollte immer am Wenigsten behindern. Ergebnisse: 1.Die Aufgaben interferieren trotz ihrer Unterschiedlichkeit. 2.Die Zufallsbuchstaben-Generierung interferierte am meisten, d.h., die Leistung dieser und der 2. Aufgabe war immer am Schlechtesten. Die Ton-Aufgabe interferierte am Wenigsten. 3.Die Zufallsbuchstaben-Generierung interferierte auch unabhängig von der Relevanz: Ob Erst- oder Zweitaufgabe, das war egal; ebensolches galt für die Tonaufgabe. all dies spricht für eine zentrale Aufmerksamkeitskapazität, die Ressourcen für alle Aufgabentypen bereitstellt. Erläutern Sie das Verständnis automatischer und kontrollierter Prozesse der Aufmerksamkeit nach Schneider und Shiffrin und stellen Sie ein Experiment dazu vor. kontrollierte Prozesse: - limitierte Kapazität, - benötigen Aufmerksamkeit, - flexibel automatische Prozesse: - nicht kapazitätsbegrenzt, - keine Aufmerksamkeit nötig, unflexibel (schwer zu beeinflussen und schwer zu modifizieren). Experiment: Visuelles Suchparadigma: memory-set 1-4 Buchstaben/Zahlen display-set ist einer hiervon vom memory-set? Ergebnisse: 1. Die Anzahl der Distraktoren beeinflusste nur bei varied-mapping die Reaktionszeit kontrollierter Suchprozess (wie bei Treisman, seriell). 2. Bei der consistent-mapping-Bedingung ist die Anzahl der Distraktoren egal parallele Suche, ein automatischer Prozess, der aufgrund von Jahren der Praxis im Unterscheiden von Buchstaben und Zahlen entsteht. um Automatisierung zu zeigen, machten Schneider und Shiffrin Folgendes: -im memory-set waren immer die Buchstaben B-L -im display-set waren immer die Buchstaben Q-Z (Distraktoren) -nur consistent mapping es gab große Übungseffekte nach 2100 trails Automatisierung der Prozesse dann drehten sie die Bedingung um, d.h es waren jetzt im -memory-set waren die Buchstaben Q-Z -display-set waren die Buchstaben B-L (Distraktoren) es gab jetzt eine schelchtere Leistung als zu Beginn. Die Probanden brauchten 1000 trials, um auf das Ausgangsniveau zurück zu kehren Inflexibilität von automatischen Prozessen (auch gutes Beispiel: Reverse-Stroop) VL 1-1 Gedächtnis-Einführung Was bezeichnet man als „Blitzlicht-Gedächtnis“? Nennen Sie ein Experiment, das Evidenz dafür liefert, dass das Gedächtnis kein eigenständiges Phänomen ist. Blitzlicht-Gedächtnis: - z.B. gutes Gedächtnis/Erinnern an den 11.9.2001, -z.B. gutes Erinnern an alle Begleitumstände (was machte man gerade etc.), sehr lebendig, akkurat, detailliert. Bedingungen: Vorabwissen --> wird darin eingegliedert, persönliche Relevanz --> Ereignis sollte große Relevanz haben emotionale Reaktionen-> förderlich: offener Wiederabruf (z.B. Ereignis oft erzählen) umstritten: eigener Mechanismus/eigenes Phänomen im Vergleich zum übrigen Gedächtnis. Experiment Bohannon: -Erinnerungsleistung in Abhängigkeit vom Retentionsintervall (2 Wochen, 8 Monate), vom emotionalen Zustand (ruhig/aufgeregt) und von der Häufigkeit des Wiederholens. Ergebnisse: Nur Haupteffekt Zeit (nach 8 Monaten schlechter). Keine Wechselwirkung bzgl. „aufgeregt/viel“ (müsste es geben, wenn die Annahme des Blitzlichtgedächtnisses stimmt). Es zeigt sich also eine normale Vergessensfunktion auch im Blitzlichtgedächtnis. Das spricht gegen das BG als separates Phänomen. Experiment Talarico und Rubin: Sie maßen die Konsistenz und Lebendigkeit der Erinnerung nach 1,7,42,224 Tagen getrennt. Ergebnis: flashbulb-memories zerfielen wie everyday-memeories, blieben aber lebendiger Die gefühlte detailgetreue Erinnerung entspricht nicht objektiv einer gut-detaillierten Erinnerung. Die o.g. Faktoren begünstigen aber, das Erinnerung sehr viel lebhaften und näher erscheint. Nennen Sie die Mnemonics-Methoden Mnemonics=Gedächtniskünstler Es gibt 3 Faktoren: 1. sinnvolles Enkodieren (verbunden mit Vorwissen), 2. spezifische Abruf-Hilfen mit enkodieren (Enkodierspezifität), 3. Übung Methoden: -Methode der Orte -Chunking (Einheiten zusammenfassen) -Bilder zuordnen -Reimen Nennen Sie Einflüsse/Prozesse des Gedächtnisses, die korrekte Zeugenaussagen erschweren. Welche Alternativen gibt es, um sie valider zu machen? Zeugenaussagen sind beeinflusst von: -Pre- und Postereignissen (Quellenkonfusion: Wo kommt die Information her? Vergessen/Überschreiben der Gedächtnisspur:Erinnerung nicht mehr vorhanden. Interferenz: mangelnde Diskriminierbarkeit, prinzipiell sind beide vorhanden, aber sie unterscheiden sich in Stärke und Zugänglichkeit. Aufforderungseffekt – Suggestivfragen/“falsche“ Frage, Erwartungen/Schemata) -Waffeneffekt (Aufmerksamkeitseffekt: Loftus: Die Probanden achten auf die Waffe, die Aufmerksamkeit attrahiert und nicht auf den Täter) Alternative: Kognitives Interview. Das funktioniert nach dem Prinzip der Enkodierspezifität: Je mehr der Abrufschlüssel mit Erinnerungsinformation überlappt sind, desto effektiver ist er. Deswegen werden den Personen mehrere „Schlüssel'“ gegeben: 1. den Kontext wieder herstellen, 2. alles berichten, was einem einfällt, 3. Details des fraglichen Ereignisses in verschiedener Reihenfolge erzählen, 4. das Ereignis aus verschiedenen Perspektiven erzählen. Was versteht man unter dem sog. „Falschinformationseffekt“? Wie sieht ein Experiment dazu aus? Die Gedächtnisleistung bzgl. eines bestimmten Ereignisses ist zerbrechlich und anfällig für post-event-falsche Informationen. Sie wird durch ereigniskonsistente Postinformation verzerrt. Dies wurde im klassischen Falschinfiormationsparadigma gezeigt: die OriginalInformation war ein „Vorfahrt-beachten“-Schild (z.B. im Film)und dann die gezielte Frage: „Fuhr ein anderer Wagen vorbei, als der rote Golf am Stop-Schild hielt?“ Die Pbn bauen die Fehlinformation in die Erinnerung ein, und glauben, sich gut daran erinnern zu können. Es konnte gezeigt werden, dass der Falschinformationseffekt kein sozialpsychologisches Phänomen im Sinne von fehlleitenden „Falschfragen“ ist: Während im klassischen Paradigma die Frage nicht neutral ist, wurde nun ein Handwerker mit Hammer gezeigt. In der Experimentalgruppe war die Informations dann „Handwerker mit Zange“ (Fehlinformation), in der Kontrollgruppe dann „Handwerker mit Werkzeug“. Im Test „Was für ein Werkzeug? Hammer oder Schraubenzieher“ zeigte sich immer noch ein Falschinformationseffekt, wenn auch reduziert. Das zeigt, dass ein Gedächtniseffekt vorliegt. Auch Überschreibung durch Suggestivfragen spielt eine Rolle (Loftus).: Im klassischen Experiment sahen die Probanden einen Film, eines Auffahrunfalles. Die Experimentalgruppe 1 wurde darauf hin gefragt: „Wie schnell waren die Autos, als sie ineinander krachten?“ Die EG 2 bekam eine ähnliche Frage aber mit : „aneiander stießen“. Und zwei Wochen später wurde die Frage gestellt: „Haben Sie zerbrochenes Glas gesehen?“. Die EG 1 glaubte signifikant häufiger an das Vorhandensein von zerbrochenem Glas. Des Weiteren spielt auch Quellenkonfusion eine Rolle. Wir speichern auch die Quelle eines Ereignisses ab, wenn aber die Abspeicherung der Reiz-Quelle-Verbindung schwach ist, kann es zu Fehlzuschreibungen kommen. Die gegenseitige Beeinflussung zweier Informationen bei der Falschinformation nennt man auch „Interferenz“. VL 2 -1 Prozesse und Strukturen: Sensorisches Gedächtnis und Kurzzeitgedächtnis Was ist das ikonische Gedächtnis?. Skizzieren Sie einen Experimentalaufbau. Das ikonische Gedächtnis ist ein Teil des sensorischen Speichers in Mehrspeichermodellen. Es speichert visuelle Information und hat eine Speicherdauer von ca. 500 ms (=schneller Verfall). „Ikon“ ist hierbei eine visuelle Einheit (Ikons werden wie ein Daumenkino zusammengesetzt. Alte Annahme: präkategorial. Klassisches Experiment von Sperling: Ganzberichtsverfahren: Buchstabenmatrix (4x3 Buchstaben, 50 ms dargeboten). Dann Abruf. Die Probanden können nur ca. 4 Buchstaben erinnern, wissen aber, dass da mehr waren Teilberichtsverfahren: gleiche Matrix 50 ms, dann ein Ton (hoch, mittel, tief) für die Reihe. Die Probanden können die Reihe gut erinnern, egal welche. --> das ist ein Nachweis für den Speicher, aus dem Items noch erinnert werden können. Welche Probleme ergaben sich aus der Annahme eines ikonischen Gedächtnisses? Wie konnten sie widerlegt werden? Es stellt sich die Frage, ob es überhaupt ein Gedächtnis ist (Informations-Persistenz) oder ob es nur ein retinales Nachbild ist (Stimulus-Persistenz). Eine StimulusPersistenz hätte eine neuronale Grundlage. Das kann man demonstrieren, in dem man auf den Schriftzug „ROT“ schaut (2 Minuten)und dann auf eine weiße Wand. --> grünes Nachbild. Oder durch zu schnelles An- und Abschalten von Lichtern (Kontinuitätsillusion). Dass es sich beim ikonischen Gedächtnis nicht allein um eine Stimulus-Persistenz handelt, konnte gezeigt werden in einem Experiment, in dem als Abruf-cue genutzt wurde. Nachbilder sind ja komplementär, also hätten in den Antworten systematische Fehler auftreten müssen. Das war aber nicht der Fall. Außerdem hat die Präsentationsdauer der Stimuli keinen Einfluss auf die Erinnerung (50 vs 500 ms). Das spricht für die Informationspersistenz, denn Stimulus-Persistenz ist abhängig von der Dauer (Reaktion der Zapfen auf Farbe). Des Weiteren wurde früher angenommen, dass das ikonsiche Gedächtnis präkategorial verarbeitet. Das konnte widerlegt werden, denn Zahlen und Buchstaben können als Abruf.cue verwendet werden. Die Leistung ist hier so gut wie bei räumlichen cues. weitere Probleme: Abruf-Interferenz: bei Ganzberichtsverfahren entsteht Interferenz durch die Menge der Items, für das erste Item gibt es den Effekt nicht. Art der Fehler: Identität und Position werden nicht gleich gut erinnert. Das widerspricht der Ursprungsidee des Ikons. Was ist ein echoisches Gedächtnis? Nennen Sie ein Experiment, dass Evidenz liefert für die Informations-Persistenz im ech. G. Das echoische Gedächtnis speichert auditive Information im sensorischen Speicher. Dieser ist Teil des Mehrspeichermodells. Die Speicherung erfolgt für ca. 2 Sekunden, danach verfällt die Information. Evidenz: z.B. Broadbent --> Experiment zum dichtischen Hören (Probanden gegen Ohr-weise wieder). Alltagsbeispiel: jemanden fragen, was er gerade gesagt hat. Im selben Augenblick weiß man es aber auch selbst wieder. Stimulus-Persistenz wäre das Phänomen, bei dem es eagl ist, ob der Ton 30 oder 130 ms präsentiert wird: Er ist für uns gleich lang. Da es jedoch auch InformationsPersistenz gibt, zeigt sich der Suffuix-Effekt: Es wird eine Reihe von Zahlen präsentiert. Nach einem Signal „buzzer“ oder einem Sprachbefehl sollen die Personen erinnern. Das gelingt ihnen viel besser bei „buzzer“, die letzten Items werden sehr gut erinnert. Idee: Sprachbefehl überschriebt die letzte Information. Das Geräusch „buzzer“ interferiert aber weniger mit den Items. Für die Kapazität des KZG prägte Miller (1956) den Begriff der „magical number 7 (plus or minus 2)“. Wie kann man z.B. die Kapazität des KZG bestimmen? Waws müsste man dabei beachten? Die Bestimmung des KZG erfolgt typischerweise durch „Digit-Spam“-Aufgaben: D.h., es werden Zahlen dargetoten z.B. 4719. Es wird z.B. mit 4 Stück gestartet, nach wenigen ms kommt die Abfrage. Es wird bis auf 10 Zahlen gesteigert. Die Anzahl, ab der dann nicht mehr erinnert wird, ist die Grenze des KZG (Am Besten werden viele Trials durchgeführt und dann die Ergebnisse gemittelt). Zu beachten ist, dass... -chunking möglich ist -es verschiedene Lerneffekte gibt -es primacy- und recency-Effekte gibt - wenig Zeit zwischen Darbietung und Abruf ist rehearsal verhindern, denn man will ja nicht, dass die Zahlen in LZG überführt werden Bestimmt das Ausmaß des Memorierens die Übernahme ins LZG? Schildern Sie ein Experiment, dass diese Annahme unplausibel macht Exeriment von Glenberg et al.: Es wird eine Zahl präsentiert „4852“ (2 Sek.), dann ein Wort „Gurke“ (2 oder 18 Sekunden memorieren), dann kommt die Frage nach der Zahl – „Zahl?“, dann wird eine neue Zahl dargeboten „5718“. Am Ende: Wörter erinnern ist bei 2 oder 18 Sekunden gleich. Die Proabnden dachten, das wäre die Störaufgabe und sie bildeten keine Strategien. Dies widerlegt die Annahme, dass die Länge des Memorierens die Übernahme ins LZG fördert. Wichtiger für die Übernahme ins LZG ist es, das zu Erinnernde in vorhandene Strukturen einzubinden (Verarbeitungsziele). Beschreiben Sie die Sternbergsuche und deren Ergebnisse Die Sternbergsuche it eine Experiment zum Verständnis der Verarbeitung im KZG. Es wird eine Zahl präsentiert „4853“. Dann die Frage „Kam die 8 vor?“ Ja/nein. Die Reaktionszeit leigt bei etwa 400 ms + 40 ms/Zahl. Je mehr Items dargeboten werden, desto länger ist die Reaktionszeit. Das ergint eine lineare Suchfunktion und spricht für die sequentielle Suche (=Zahl für Zahl). Es gibt keinen Unterschied für ja/nein-Trials: die Suche scheint immer exhausiv (erschöpfend) zu sein. D.h., auch wenn das Item gefunden wird, wird die Liste bis zum Ende durchgegangen. Erläutern Sie an einem KZG-Experiment, dass auch Vergessen nicht nur durch Spurenzerfall (decay) erklärt werden kann Beim KZG kann auch Interferenz als Vergessensursache auftreten. Das wird in einem Experiment gezeigt, in dem man z.B. 3 Tiere präsentiert bekommt (als Wort), dann 7 Rechenaufgaben und die Frage nach dem Ergebnis gestellt wird. Dann soll man sich an die Tiere erinnern. Katze Fuchs 5 -8 +3 ..... Ergebnis? Recall Zebra Dass erfolgt mehrmals (verschiedene Tiere) und dann der Wechsel: Pflaume Apfel ................................................ Zitrone Ergebnisse: Je mehr trials mit Tieren es gint, desto schlechter wird die Erinnerungsleistung! Wenn ein Kategoriewechsel erfolgt, erhöht sich die Leistung wieder. Das Abrufen von Tieren (also die Aktivierung der immer gleichen Kategorie) führt zu Interferenz. Je mehr trials es gibt, desto schelchter kann man zwischen den Gedächtnisspuren unterscheiden, es entsteht Interferenz. Die Informationen konkurrieren und stören einander. Wird eine neue Kategorie dargeboten, aus der erinnert werden soll, steigt die Leistung wieder. Dies spricht dafür, dass das LZG beteiligt ist, denn es wurde eine neue Repräsentation aus dem LZG aktiviert, die die proaktiven Interferenz der vorangehenden Items aufhebt. Was bedeutet der Begriff „Mehrspeichermodell“? Mehrspeichermodell meint die Annahme von spezifischen Gedächtnisstrukturen/systemen als Module, die hierarchsich geordenet sind (klassisches Mehrspeichermodell). Annahmen: limitierte Kapazität, Zerfall/Vergessen/Interferenz Sensorischer Speicher Dämpfung irrelevanter Information (Pfeil nach unten) KZG limitierte Kapazität/Zerfall Memoriren/innerliche Wiederholung/rehearsal (Pfeil nach unten) LZG kaum limitiert, aber Interferenz Experiment: siehe vorherige Frage VL 3 Arbeitsgedächtnis 1 Skizzieren Sie das klassische WM-Modell von Baddeley und die Funktion der Komponenten Phonologische Schleife central executive (ce) visual-spatial-sketch-pad (vssp) Phonologische Schleife: Hilssystem der ce, hält die Informationen kurz in einem sprachnahen, artikulatorischen Format aufrecht. Ist limitiert. VSSP: Hilfssystem der CE, hält die Informationen in visuell-räumlichen Format CE: modalitätsunspezifisches Kontrollsystem, das die beiden Hilfssysteme verwaltet -Vorgabe von Verarbeitungsprioritäten -Unterbrechen von Routineaufgaben bei Bedarf -Überwachung nicht-routinisierter Prozesse -Vergleich von Handlungsergebnis und Ziel -Wechsel von Abrufplänen -Timesharing in Mehrfachaufgaben -Selektive Aufmerksamkeit -Aktivierung des LZG -Antowrt-Hemmung -ist ebenfalls kapazitätsbegrenzt Welche Komponenten postuliert Baddeley als Bestandteile seine Arbeitsgedächtnismodells? Schildern Sie für eine Komponente ein Experiment, dass die Annahme seiner Komponente plausibel macht wie oben: Phonologische Schleife central executive (ce) visual-spatial-sketch-pad (vssp) (Pfeil nach oben und nach unten) (episodic buffer [eb]) neue Version EB: wandelt die Information in einen multimodalen Code. Aus mehreren Quellen/Systemen wird zu einer Episode zusammengeführt Experiment als Evidenz für VSSP: Probanden wird ein Bild kurz dargeboten „Stellen Sie sich ein solches F vor“ (F mit Innenraum) dann erfolgt die Frage: Start unten links. Gehört die Ecke zur oberen, unteren oder zur dicken Linie. 3 Antwortmodi: 1.zeigen „ja/nein“ auf dem Display für die Ecken des F nacheinander 2.klopfen (links „ja“, rechts „nein“) 3.sprechen „ja/nein“ Ergebnis: Haupteffekt für den Antwortmodus RT zeigen > RT klopfen > RT sprechen Das Scannen des Buchstabens (mental) und das Zeigen der Antowrt interferieren am Meisten! D.h., die Interferenz ist vor allem räumlicher Art. Das spricht für die Annahme eines Systems, dass für visuell-räumliche Speicherung zuständig ist, denn bei einer sprachlichen Aufgabe (d.h. ein verwirrender Satz muss bejaht oder verneint werden) zeigt sich ein gegenläufiges Muster der Antwortmodi: RT sprechen > RT zeigen > RT klopfen Was ist die sog. Ähnlichkeitseffekt? Ähnlich klingende Wörter sind schwieriger zu merken (Beil, Keil, Seil etc.). Das gilt sowohl für visuell als auch für auditiv dargebotene Wörter. Und es gilt als Evidenz für die Übersetzung visueller Information in einen artikulatorischen Code (durch einen Kontrollprozess, quasi subvokales Sprechen). Was ist im Bereich KZG/WM mit dem sog. Wortlängeneffekt gemeint? Der Effekt verschwindet bei visueller Präsentation und gleichzeitiger artikulatorischer Unterdrückung. Wie erklärt Baddeley das? Wortlängeneffekt meint, dass wir uns mehr kurze als lange Wörter kurzzeitig merkren können. Die unmittelbare Wiedergabe ist eine Funktion des Memorierens (rehearsal). Von kurzen Wörtern werden mehr memoriert. Es gint eine ziemlich präszise Bestimmung zwischen Leserate und Leistung (time-based-word-length-effect). Es wird angenommen, dass PL (phonologic loop, phonologische Schleife) durch die langen Wörter schneller voll ist, die letzten Wörter überschreiben die ersten. Dass der Effekt bei visueller Präsentation und gleichzeitiger artikulatorischer Unterdrückung verschwindet, erklärt sich so: Die auditive Information hat einen direkten Zugang zum Speicher. Die visuellsprachliche muss erst durch den artikulatorischen Kontrollprozess (quasi subvokales, inneres Sprechen) übersetzt werden, um Zugang zu bekommen. Ist dieser Übersetzungsprozess gestört durch eine Zweitaufgabe (artikulatorische Suppression, z.b. immer „see-saw“ sagen) bricht der Wortlängeneffekt zusammen. Weder kurze noch lange Wörter werden noch gut erinnert, man ist in beiden Bedingungen schlecht. Wozu ist die phonologische Schelife nützlich (praktische Relevanz)? Patienten mit gezeilten Ausfall der PL haben wenig Einbußen im Alltag. Sie zeigen kaum Defizite im Experiment „Paarassoziationslernen“ mit bekannten Wörtern. Wenn aber unbekannte Wörter verwendet werden, ist die Leistung = 0. Die PL scheint sehr wichtig beim Spracherwerb zu sein (Übergang ins LZG, verbinden mit vorhandenem Wortschatz?) und zeigt sich in Verbindung mit dem „Nicht-Wörter-Wiederholungstest“ (NWW) als bester Prädikator für den Wortschatz. Was vesteht man unter „mentaler Rotation?“ „Mentale Rotation“: es werden zwei geometrische Formen dargeboten, die gleich oder verschieden sind. Eine davon ist um einen bestimmten Winkel im Raum gedreht (die Figuren sind dreidimensional und „schweben“ im Raum). Die Probanden sollen dann die zwei Figuren vergleichen und entscheiden, ob sie verschieden sind. Es findet sich ein typischer Befund: die benötigte Reaktionszeit ist abhängig von der Größe der Winkeldisparität der beiden Objekte. Je mehr das Vergleichsobjekt sich in seiner Ausrichtung unterscheidet, desto länger braucht der Pb., um zu entscheiden. Dies spricht dafür, dass wir das Objekt „mental rotieren“, sodass wir vergleichen können. Das gilt als Evidenz für das Vorhandensein eines visuell-räumlichen Moduls, evtl. sogar für das Vorhandensein eines Gedächtnissystems (VSSP, Baddeley). Und als Evidenz, dass die Objekterkenung teilweise doch perspektivisch ist. Was ist die „zentrale Exekutive“ und welche Aufgaben übernimmt sie? Beschreiben Sie ein klassisches Experiment, um CE-Anteile zu messen Die „zentrale Exekutive“ ist ein modalitätsspezifisches Kontrollsystem zur Verwaltung der beiden Hilfssysteme PL=phonologische Schleife und VSSP. Es hat keine Speicherkapazität!! es vermittelt, lenkt/hemmt die selektive Aufmerksamkeit, aktiviert zeitweilig das LZG, lenkt die Aufmerksamkeit von einer Aufgabe zur anderen, aktualisiert und erkennt die Inhalte des Arbeitsgedächtnisses und wechselt zwischen Abrufplänen/Timesharing in Mehrfachaufgaben. Experiment: Zufallszahlen generieren Baddeley: Man soll Zufallszahlen auf einer Tastatur eintippen -ohne Zusatz -Alphabet aufsagen -aufwärts zählen -abwechselnd einen Buchstaben und eine Zahl aufsagen (A1, B2, C3...) Ergebnis: Zufallszahlen generieren und abwechselnd einen Buchstaben und eine Zahl aufsagen produziert am Meisten Kosten in Performanz. Das scheint am Wechsel zwischen den Abrufplänen zu leigen, der die CE in beiden Aufgaben beansprucht. Welche Probleme ergab das klassische WM-Modell von Baddeley? Welche Komponente unter der Annahme welcher Funktion wurde hinzugefügt, um das Modell wieder plausibel zu machen? Problem: Die Leistung in Aufgaben mit artikulatorischer Unterdrückung war teilweise noch zu gut, um mit diesem Modell erklärt werden zu können. Im Experiment zeigt sich zum Beispiel zwar ein Zusammenbruch des Wortlängeneffektes bei visueller Präsentation und Unterdrückung. Kurze Wörter werden immer noch besser erinnert, die Leistung insgesamt ist zu gut, um ausschließlich mit einem auditiv-sprachnahen Gedächtnismodul erklärt werden zu können. Nach dem alten Modell zerfällt aber die Information ohne artikulatorisches rehearsal. Lösung: Episodic buffer -wird angenommen als multimodales, multidimensionales System, das zwischen den anderen 2 Systemen vermittelt. Er macht aus Informationen unterscheidlicher Quellen Episoden. -erklärt z.B. auch, warum wir mehr zusammenhängende Wörter als einzelne, unverbundene Wörter erinnern semantische, syntaktische Funtion des episodic buffer -wird vom CE kontrolliert -speichert mehr als die phonologische Schleife VL 4 Arbeitsgedächtnis 2 Wie die CE zum Speichern genutzt? Nennen Sie ein Experiment, das Gegenevidenz liefert. Wofür scheint die CE zuständig zu sein? 2 Experimente: 1. Schachexperimente: Hier gab es Doppelaufgaben, nämlich Schachspielen un a) „see-saw“-sagen (phonetische Schleife) b) Tasten im Uhrzeigersinn drücken (VSSP) c) Zufallszahlen generieren (CE) d) keine Ergebnis: -Haupteffekte für Anfänger/Experten: Exp. erreichen ein generell höheres Niveau -Haupteffekt Zweitaufgabe: bei der Zweitaufgabe sind b und c signifikant schlechter -die Aufgabe 1 hatte keinerlei Asuwirkungen auf die Leistung Denn beim Schachspielen wird vor allem VSSP und CE genutzt. Da die Zweitaufgabe den gleichen Gedächtniscode beansprucht, kommt es zu Interferenz. Die Ergebnisse zeigen, dass das Arbeitsgedächtnis von Anfängern und Experten auf die gleiche Weise genutzt wird, nur sind Experten auf einem höheren Niveau. Die Zweitaufgaben, die bewältigt werden müssen, benötigen Aufmerksamkeit! 2. Experiment Bourke et al.: 4 verschiedene Aufgaben: 1. Zufallszahlen generieren, 2. Prototypen lernen, 3. Manuelle Aufgabe, 4. Signalentdeckung. Es sollte immer eine dieser Aufgaben gelöst werden und eine Zweitaufgabe. Einer der beiden wurde als wichtiger gekennzeichnet. Ergebnisse: -Zufallsbuchstaben generieren interferiert am Meisten mit allen anderen, die Tonaufgabe am Wenigsten dieses Experiment kommt aus dem Zusammenhang der Theorie der „limitierten Aufmerksamkeitskapazität“. Die Aufgabe, die am Meisten mit den anderen interferiert, benötigt am Meisten aus dieser. Die Aufgabe, die am Wenigsten interferiert, benötigt am Wenigsten Aufmerksamkeit. In diesem Fall benötigt die Zufallsbuchstabengenerierung am meisten Aufmerksamkeit – eine „klassische CE-Aufgabe“! Das spricht dafür, das das CE nicht zum Speichern, sondern zur Steuerung/Bereitstellung der Aufmerksamkeit zuständig ist. Vergleich working-memory (CE) – Aufmerksamkeit (working attantion). -beide führen zentrale, kognitive Operationen durch -beide werden nicht zum Speichern benutzt -es gibt jeweils eine beschränkte Kapazität (bestimmte Modelle) - in Studien zeigen sich die gleichen Ergebnisse zu den gleichen Hypothesen. Schildern Sie Cowans Modell eines WM-Systems Das Arbeitsgedächtnis/WM besteht aus den momentan aktivierten Elementen des LZG. Daraus bildet eine Teilmenge dieser aktivierten Elemente den Fokus der Aufmerksamkeit. Das Modell trägt somit der Relevanz der Aufmerksamkeit für die Leistung in Doppelaufgabenexperimenten Rechnung (z.B. Schachexperiment von Bourke et al.). -Wenn bekannte Stimuli von geringer Relevanz in das sensorische Gedächtnis kommen, aktivieren sie darauf hin einen Gedächtniseintrag, ziehen aber nicht unbedingt Aufmerksamkeit auf sich. Willentlich kann auf diese Stimuli natürlich Aufmerksamkeit gerichtet werden die zentrale Exekutive gibt eine Meldung vom aktivierten Bereich im Fokus der Aufmerksamkeit = top-down-Prozess -neue Stimuli oder sehr wichtige ziehen automatisch aufmerksamkeit auf sich = bottom-up -manche aktivierten Einträge führen zu automatischen Reaktionen -andere Reaktionen sind kontrolliert (auf der Basis aktivierter Einträge). !Priming-Effekte könnten entstehen durch die Aktivierung im nicht-fokussierten Bereich (unbewusst). Das erklärt auch Lernen ohne Aufmerksamkeit: Verknüpfungen im nicht-fokussierten, aber aktivierten Bereich werden erstellt und abgespeichert, um darauf zurückgreifen zu können. Beschreiben Sie ein Experiment, das zeigt, dass das „cocktail-party“Phänomen eher als Fehlleistung des Arbeitsgedächtnisses zu betrachten ist Experiment von Wood und Cowan: Es gab eine dichotische Höraufgabe. Der Name des Pbn kam an einer bestimmten Stelle auf dem nicht zu beschattenden Ohr. Die Aufteilung der Probanden erfolgte in high WM span/bzw. WM-span Ergebnisse: -nur wenige high-spans bemerken den Namen, sie zeigten einen kurzen Aufmerksamkeitsshift für 2 Items (shadowing) -viele low-spans entdeckten den Namen, machten dann viele Fehler in der Beschattungsaufgabe Als Personenvariable high/low-span kann man zeigen, dass es an der Spanne und der Fähigkeit, Aufmerksamkeit gegen Distraktoren abzuschirmen, liegt, ob man Namen entdeckt. Bei einer hohen Spanne tritt der Effekt nicht auf, das ist eher ein Aufmerksamkeitsdefizit. VL 5 Langzeitgedächtnis 1 – Strukturen Unterscheiden Sie die deklarativen Gedächtnissysteme von prozeduralen/nondeklarativen. Nennen Sie ein klassiches Fallbeispiel, dass die Annahme des prozeduralen Systems rechtfertigt deklarativ semantisch non-deklarativ episodisch prozedural perzeptuell klassisches Fallbeispiel: Patient H.M. Er erlitt eine bilaterale medio-temporale Lobektomie (Epilepsie). Danach bekam er eine schwere anterograde Amnesie und hatte kein LZG mehr. Außerdem litt er dann an einer retrograden Amnesie für einen Zeitraum von ca. 11 Jahren vor der Operation. Er war unfähig, Neues zu lernen. Das Kurzzeitgedächtnis ist nicht beeinträchtigt. H.M. nimmt bis heute an psychologischen Experimenten teil. Er zeigte in klassischen Aufgaben wie dem Spiegelzeichnen eine Verbesserung über mehrere Tage, konnte sich aber nicht bewusst erinnern Vorhandensein eines non-deklarativen Gedächtnissystems. Beschreiben Sie ein Experiment und seine Ergebnisse, das zeigt, dass man Perzeptuelles vom Deklarativem trennen kann. Gilt dies auch für perzeptuelle und prozedurale Strukturen? Erläutern Sie am Beispiel perzeptuell non-deklarativ vs. deklarativ Experiment von Cermak et al. -Karsakoff-/ bzw. C2-Patienten wurde eine Liste mit Wörtern präsentiert. Es gab 2 Tests: einen Wiedererkennungstest (deklarativ) und eine Primingaufgabe: Identifikationszeit (perzeptuell) Ergebnis: Es gab einen Haupteffekt für Listenwörter/Nichtlsitenwörter (bei Nichtlistenwörtern waren die Pbn immer langsamer). Außerdem gab es einen Haupteffekt für die Patientengruppe. Die Korsakoff-Patienten waren in der deklarativen Aufgabe schlechter Als die C2-Probanden- Das lässt auf ein Defizit des deklarativen Gedächtnisses schließen (Amnesie). In der perzeptuellen Aufgabe gab es keinen signifikanten Unterschied zwischen den Gruppen. Amnestiker sind immer schlechter im free recall, im cued recall und in der recognition memory, bei Wortergänzungen gibnt es jedoch keine Einbußen. perzeptuell vs. prozedural Experiment von Butters et al. -Alzheimer/Huntington-Patienten wurde eine rotary-pursuittask/Wortergänzungaaufgabe vorgelegt. Ergebnis: Die Alzheimer-Patienten sind besser in der rotary-task (prozedural). Die Huntington-Patienten sind dorts ehr schlecht. Sie sind dafür etwas besser in der Wortergänzung (perzeptuell). Deklaratives und explizites Gedächtnis swoie prozendurales und implizites Wissen werden oft gleichgesetzt, sind aber nicht synonym. Zeigen Sie dies an einem Experiment „explizit“ und „implizit“ beziehen sich mehr auf den Prozess (bewusst/unbewusst) neuere Auffassung: -das deklarative Gedächtnis speichert Beziehungen zwischen Merkmalen/Objekten -im prozeduralen Gedächtnis sind einzelne, unverbundene Komponenten Schachter et al. (Stimmenexperiment) Amnestikern/Kontrollgruppe wurden Wörter auditiv dargeboten. Im Test wurde alte und neue Wörter präsentiert. Die alten wörter wurden entweder mit einer neuen oder der alten Stimme gesprochen (repaires 50%, same voice 50%) Dann gab es 2 Tests: Das Wiedererkennen (direkt) und das Wort bei gefilterter Darbietung erkennen (indirekt) die Wörter waren sehr schlecht zu hören durch den Filter, deshalb indirekter Test Ergebnisse: -im direkten Test erkennen die Amnestiker weniger Wörter wieder als die Kontrollgruppe wie erwartet. „Same“ und „different“ voice machte keinen Unterschied (Haupteffekt für die Gruppen). -in der Filteraufgabe,dem indirekten Test gab es einen unerwarteten Unterschied in der „same-voice“-Bedingung -in der Bedingung, in der die Wörter zwar von Stimmen, die sie vorher gehört hatten, gesprochen wurden, die aber in der Lernphase nicht dieses Wort gesprochen habenn („repaired condition“ = re-gepaart) zeigte sich, kein Unterschied der Pbn. Amnestiker waren sogar ein bisschen besser. In der „same-voice“-Bedingung waren sie jedoch wesentlich schlechter, d.h., sie erinenrten sich nicht so gut wie die Kontrollgruppe, dass die Stimme das Wort vorher gesagt hat. Schlussfolgerung: Man hätte nach alter Auffassung erwartet, dass Amnestiker im direkten Test schlechter abschneiden (das tun sie auch) und im indirekten Test keinen Leistungsunterschied zeigen. Weder für „re-paired“- noch für „same voices“. Sie zeigen jedoch Defizite in der Bedingung, in der Stimme und Wort gleich sind, was bedeutet, dass die Kontrollgruppe einen Vorteil aus der Relation Wort-Stimme zieht. Die Amnestiker sind nicht in der Lage, Verbindungenherzustellen als deklarativen Vorgang. Sie können nur die Items einzeln verarbeiten Fehler im deklarativen Gedächtnis. Der indirekte Test testet in diesem Fall also auch Erfahrungsnachwirkungen des expliziten Gedächtnisses. VL 6 – 1 Langzeitgedächtnis 2 – Prozesse 1 Beschreiben Sie die Lern-/Vergessenskurve als Potenzfunktion. Geben Sie ein Besipiel für die neuronale Entsprechung dieser Funktion Lernkurven sind in der Regel Potenzfunktionen. D.h., wenn man ein Leistungsmaß (aV) mit einem Übungsmaß (uV) logarithmiert, ergibt sich eine lineare Beziehung -die Übung eines Inhaltes steigert die Stärke der entsprechenden Gedächtnisspur -die Lern- und Vergessenskurve ist negativ beschleunigt. Mit der Zeit erfolgt das Vergessen immer langsamer bzw. der Anteil der Verbesserung wird irgendwann stabil/stagniert. Bsp. neuronal: Die Anwortrate der hippocampalen Neurone von Ratten steigt mit den Übungstagen an. D.h., die Stimulation macht die Neurone sensibler und erhöht sensitiv für erneute Stimulation. Die erhöhte Sensitivität ist lang anhaltend. Langzeitpotenzierung!! Ist eine Form des neuronalen Lernens, die mit verhaltensbasierten Lernmaßen im Zusammenhang steht = Neurone lernen nach Potenzfunktion. Man kann hier also das Potenzgesetz des Verhaltens 1:1 auf das Potenzgesetz der Neurone übertragen. Welche Probleme ergeben sich beim Test auf Spurenzerfall und Konsolidierung? Das sind Tests über längere Zeiträume, um das Behalten und Vergessen zu überprüfen. Sie sind immer mit den Erlebnissen in den Intervallen konfundiert! Es ist deshalb schwierig, dies experimentell zu testen. Im Albor wurde z.B. mit Schlaf-Wach-Zyklen getestet, dort gibt es eine Konfundierung mit der Tageszeit. Was bedeutet Elaboration? Erläutern Sie an einem Experiment die Rolle der Elaboration „Elaboration“ meint, dass zwischen den Items Verbindungen hergestellt werden (mental). Experiment von Anderson et al. Die Leute sollten Sätze präsentieren z.B.: „Der Arzt hasste den Rechtsanwalt“. Dann die Gruppe 1 ohne Elaboration, die Gruppe 2 mit einer eigenen Eleboration („..., weil er ihn wegen eines Kunstfehlers anzeigte.“) Abruf: „Der Arzt hasste...“ Ergebnis: Bei Abruf ist die Gruppe 2 besser, da durch die Elaboration tiefer verankert wird Verarbeitung Ein weiteres Experiment zeigt.... ............schlechte Leistung für unpräzise Elaboration ............beste Leistung für präzise Elaboration Was bedeutet „Verarbeitungstiefe“? Nennen Sie ein Experiment, in dem die Ergebnisse mit dem Verarbeitungstiefeansatz erklärt werden. Welche Probleme ergeben sich? „Verarbeitungstiefe“ meint, dass man sich auf die Art der Verarbeitung einzelner Items konzentriert (nicht auf die Verbindung zwischen ihnen, das wäre Elaboration). Dazu exisitiert folgenden Rahmentheorie: Levels of processing: -es gibt verschiedene Levels, auf denen verarbeitet wird oberflächlich-physikalisch bis tief-semantisch -je tiefer die Verarbeitung ist, desto besser ist die Erinnerung -tiefe Verarbeitung führt zu elaborierteren (verknüpfteren), länger bestehenden und stärkeren Gedächtnisspuren Experiment von Hyde et al.: Man sollte eine Liste von Wörtern bearbeiten unter 4 Bedingungen: 1. E oder G checken sind E oder G im Wort? 2. Part of speech Substantiv? Adjektiv? 3. Häufugkeit wie oft wird das Wort im Wortschatz benutzt? 4. Gefallen ist das Wort für mich positiv oder negativ? Die Bedingungen 3 und 4 zielen auf semantische Verarbeitung. Sie bringen im Recall auch die höchste Leistung (HR für 4 Bedingungen). Indiz für tiefe Verarbeitung Probleme: -Zirkelschluss! Man ist besser, wenn mqn tief verarbeitet, eine tiefe Verarbeitung zeigt sich in besserer Leistung es gibt kein unabhängiges Maß für die Verarbeitungstiefe -liegt es vielleicht auch an der Distinktheit/TAP, wenn besonders gut/schlecht erinnert wird? Beschreiben Sie ein Experiment, das zeigt, dass der Selbstreferenzeffekt kein eigenständiges Phänomen ist, sondern mit dem Verarbeitungstiefeansatz erklärt werden kann Experiment von Rogers et al.: es gab eine Liste von Adjektiven und 4 Bedingungen der Bearbeitung: 1.strukturell – ist das Wort in Großbuchstaben? 2.phonemisch – reimt es sich mit ...? 3. semantisch – bedeutet es dasselbe wie ...? 4.selbstbezogen – beschreibt es mich? Ergebnis: -Es gibt einen Haupteffekt für die Bearbeitung, semantisch gut, selbstbezogen doppelt so gut Erklärung mit Verarbeitungstiefeansatz: Semantische Verarbeitung der selbstbezogenen Adjektive wird im schon vorhandene, eh schon starke Gedächtnisspuren eingegeliedert. Skizzieren Sie ein Experiment, dass die Rolle der Distinktheit in Verarbeitungtiefe-Effekten zeigt Experiment von Eysenck und Eysenck: distinkt semantisch nicht semantisch nicht distinkt Ergebnis: Haupteffekt für beide Faktoren! Ein Teil des Verarbeitungstiefeansatzes scheint auf Distinktheit zurück zu gehen. Auch in der nicht-semantischen Bedingung zeigte sich ein Vorteil bei distinkter Verarbeitung. In der semantischen Aufagbe waren die Probanden am Besten, wenn das Wort distinkt verarbeitet wurde. Diese Ergebnisse sprechen dafür, dass die Besonderheit und Abgrenzbarkeit ebenfalls für eine bessere Erinnerungsfähigkeit verantwortlich ist. Was versteht man unter dem Prinzip der Enkodierspezifität? Schildern Sie ein Experiment dazu. Inwieweit hilft es uns, „Vergessen“ zu verstehen? „Enkodierspezifität“ meint, dass die Gedächtnisspur eines Items aus der eigentlichen Information und der Kontextinformation besteht. Wenn der Kontext in Abruf- und Lernsituationen der gleiche ist, fungiert der Abrufkontext als Schlüssel. Es gibt mehrere Arten von Schlüsseln: -externe Schlüssel: z.B. die Umwelt (Experiment Taucher) -interne Schlüssel – z.B. Stimmung (Experiment happy/sad), Körperzustand (Experiment Zigaretten/Marihuana) Bsp.: Experiment Godden und Baddeley: Es ging um Lernen an Land oder unter Wasser und den folgenden Abruf an Land oder unter Wasser Ergebnis: (disordinale Wechselwirkung) Die Probanden waren, wenn sie an Land gelernt hatten, schlecht beim Recall unter Wasser, sehr gut an Land. Gleiches gilt entsprechende für die Unter-Wasser-Lerner D.h., der Umweltkontext fungiert als Abrufschlüssel Das Prinzip der Enkodoerspezifität hilft uns, Vergessen zu verstehen, wenn wir z.B. in Lern- und Abrufsituationen nicht mehr im gleichen Kontext sind. Die Abrufschlüssel von Zeitpunkt 2, also der neuen Situation, sind nicht mehr mit dem zu Erinnernden assoziiiert. Da sich unsere Kontexte (Umgebung, Stimmung etc.) über die Zeit verändern, ist die Erklärung plausibel. Was bedeutet TAP? Beschreiben Sie ein typisches Experiment, dass TAPAnnahmen illustriert. TAP bedeutet: „transfer-appropriate-processing (Je besser Prozesse übereinstimmen, umso besser ist die Leistung). D.h., das, wovon ich denke, dass es später wichtig ist, merke ich mir an einer Sache. Ich verarbeite das, wonach gefragt wird, stärker und kann mich dann besser daran erinnern. Verschiedene Aufgabe führen also dazu, dass ich verschiedene Informationen über ein Item enkodiere. Die Leistung in einem späteren Test wird dadurch bestimmt, wie relevant die Informationen im ersten Test waren. Experiment von Morris et al.: Es wurde Wörter präsentiert und dann 2 Fragen dazu gestellt 1.Lernphase: a) „reimt sich mit ..“ nicht-sematisch b) semantisch (Fragen, die sich auf Semantik beziehen) 2.Testphase: a) „Kreuze alle Wörter an, die sich mit dem Lernwort reimen“ Test-Recognition b) Standardtest (Recognition) Reim- Ergebnis: Wechselwirkung (hybrid), HE für die Testart, die Standardtestleistung ist immer besser (üblicher Verarbeitungstiefeeffekt), im Reimtest ist man besser, wenn man etwas reimgelernt hatte, im Standardtest ist man besser, wenn man etwas semantisch gelernt hatte. Das spricht für TAP Die Leistung im Test ist besser, wenn der Test das in der Lernsituation relevante abfragt. Das widerspricht dem Verabreitungstiefeansatz, der ja annimmt, dass semantisch immer besser ist. Was bedeutet „cue-depended-forgetting“? (Bsp) Die Information ist prinzipiell im Gedächtnis verfügbar, aber der Abrufschlüssel ist unzureichend. CDF zeigt sich z.B. in Experimenten mit free+cues recall: Wenn die Kategorien als Abrufschlüssel gegeben werden, ist die Leistung oft signifikant besser als im free recall. Skizzieren Sie ein klassisches Experimentaldesign, um pro- und retroaktive Interferenz zu prüfen. Sind Menschen mit hoher WM-Spanne generell resistenter gegenüber Interferenz? Hab ich nicht gemacht, da ich mit word nichts aufzeichnen kann. Interferenz entsteht durch mangelnde Diskriminierbarkeit von Spuren. Die Spuren, die miteinander konkurrieren, sind unterschiedlich stark und unterschiedlich zugänglich. Im Experiment zeigen sich Menschen mit hoher WM-Spanne resistenter gegenüber proaktiver Interferent. Alelrdings nur, solange keine Zweitaufgabe hinzukommt („no load“). Wenn ihr Arbeitsgedächtnis zusätzlich belastet wird, findet sich kein Unterschied mehr in der Leistung von niedrigen/hohen WM_span-Menschen. Aufmerksamkeit spielt also eine wichtige Rolle. VL 7 Langzeitgedächtnis 3 – Prozesse 2 Nennen Sie direkte und indirekte Gedächtnistests Direkt: Recall -free -cued (beide Wiedergabe) Recognition -two altern forced choice (Welches der beiden Items wurde in der Lernphase …?) -ja/nein (Standard) Indirekt: beide Wiedererkennen -Repetition priming (Standard) z.B. Wortfragment ergänzen im Test Skizzieren Sie das 2-Hochschwellenmodell und gehen Sie auch auf die Parameterhergleitung ein Trefferrate: Pb = r + (1-r)*g Rate falscher Alarm: Pn = (1-r)*g Sensitivitätsparameter: Pr = Pb-Pn Rateparameter: Br = g = Pn/(1-Pr) Das 2-Hochschwellenmodell ist die Alternative zu d´ und ß 1.Gesichter zeigen 2.Fotostapel hast Du die Gesichter schon mal gesehen In der Gedächtnispsychologie unterscheidet man zwischen „intentionalen“ und „inzidentellen“ Lernbedingungen. Was ist gemeint? Wie kann man erklären, dass die Gedächtnisleistung bei freier Wiedergabe relativ besser unter intentionalem, bei Wiedererkennen relativ besser unter inzidentellem Lernen ist? intentional: Klausur absichtsvoll, ich weiß, dass später abgefragt wird, wie Lernen für eine inzidentell: Spaß ohne Absicht, ohne Wissen um den Test, einfach z.B. ein Sachbuch aus lesen Hierzu sagt die 2-Prozess-Theorie, dass beim Erinnern zwei mögliche Prozesse bestehen: 1.Abrufprozess 2.Verteilungsprozess Wiedergabe-Tests benötigen hiernach beide Prozesse, Wiedererkennen nur den zweiten. Man stellt sich vor, die Items sind quasi durch Verbindung geknüpft und durch Kontextmarker gekennzeichnet. Es gint starke und schwache Verbindungen und Marker. Beschreiben Sie den „recognition failure“. Wieso stellt er ein Problem dar für die 2-Prozess-Theorie? Die 2-Prozess-Theorie nimmt an, dass die Rekognitionsleistung immer besser ist, da nur der Urteilsprozess stattfinden muss. Es zeigt sich jedoch in manchen Aufgaben, dass die Pbn den Recall gut schaffen, aber nur 50% dieser Wörter wiedererkennen. Man erklärt dies mit der Enkodierspezifität: die freie Wiedergabe hat den besseren Kontextcue. Dieses Ergebnis führte dazu, zwischen „alt“- und „neu“-Urteilen der Wiedererkennung zu unterscheiden, nämlich in „remember“ und „know“ Zu welcher Unterscheidung führte das Phänomen des „recognition failure“? Wie konnte die Dissoziation im Experiment empirisch belegt werden? Dieses Phänomen führte zu der Unterscheidung ..... ....remember: bewusstes Erinnern an das Item, man erinnert die Enkodierphase ....know: Wissen, dass man es kennt (alt), aber ohne bewusstes Erinnern an die Enkodierphase Es gibt experimentelle Manipulationen, die Unterschiede in den beiden Urteilen aufzeigen. Man fragt den Probanden dann: „Hast Du Dich erinnert, oder hast Du das irgendwie gewusst?“ Ergebnis: Es gibt einen Bildüberlegenheits- und Verarbeitungstiefeeffekt für „remember“, das heißt, bewusste Erinnerung ist größer für semantisch verarbeitete Items und Bilder. „Unbewusstes“ Wiedererkennen ist immer schlechter und zeigt relativ in Reim- und Wortaufgabe eine bessere Leistung. Erläutern Sie ein Experiment zum „false-fame“-Effekt unter Verwendung und Erklärung der Begriffe „Recollection“ und „Familiarity“ Experiment von Jacoby et al.: 1. Namen auf dem Bildschirm: Nachsprechen der Namen a) ... mit voller Aufmerksamkeit b) mit einer Doppelaufgabe (Zahlen) nicht berühmte Personen (Pbn wussten das) 2.Testphase: Präsentation von Namen (dabei Wiedererkennen), berühmt oder nicht berühmt? 2 Möglichkeiten: a)„Ich erinnere mich, dass der Name auf der Liste war, also ist er nicht berühmt (wäre recollection) b)„Der Name kommt mir irgendwie vertraut vor. Ich kann mich nicht erinnern, dass er auf der Liste war. Er muss berühmt sein“ (wäre familiarity). Ergebnisse: Es gibt einen Interaktionseffekt. Unter voller Aufmerksamkeit scheint recollection zu funktionieren, unter geteilter scheint eher ein Vertrautheitseffekt einzusetzen. Die Wahrscheinlichkeit, einen Namen für berühmt zu erklären, obwohl er auf der Lernliste stand, wird unter Doppelaufgabenbedingung sehr hoch eingeschätzt. Familiarity bezeichnet Wiedererkennen auf der Basis von Vertrautheit , ist eher implizit (remember). Recollection meint Wiedererkennen auf der Basis von Erinnerung an die Enkodierphase („know“). Es ist eher explizit: Beim false-fame-Effekt liegt also Familiarity vor „ohne Recollection“. Es besteht eine Vertautheit mit dem Namen, aber durch die geteilte Aufmerksamkeit kann man sich nicht bewusst erinnern, warum er vertaut ist. Skizzieren Sie kurz ein repetition-priming-Experiment und erklären Sie, worauf man in der Lern- und Testphase achten muss Indirektes Gedächtnismaß, Standardmaß Stimuli Stichprobe A Stichprobe B Brot Tanz Hecht Stift Stuhl Tisch B_O_ ST_ _ L Lernphase: inzidenziell, die Pbn wissen nicht, dass sie später abgefragt werden Testphase: ohne Hinweis, dass Stimuli in vorhergehender schon vorkamen Priming: (allgemein): Die Verarbeitung eines Reizes profitiert bei wiederholter Darbietung (bewusst und unbewusst). Eine wichtige Unterscheidung in der Gedächtnispsychologie besteht zwischen explizitem und implizitem Gedächtnis. Erläutern Sie die Unterschiede! Wie gelangte man zu der Vermutung, dass unterschiedliche Strukturen oder Prozesse hinter dieser Unterscheidung stecken? explizit: bewusster Prozess, Leistung hängt ab von der bewussten Erinnerung der Enkodierphase, Test direkt implizit: unbewusster Prozess, Leistung wird durch die vorherige Lernepisode gesteigert, ohne dass man sich bewusst an die Lernepisode erinnert, Test indirekt Bei direkten und indirekten Tests enstehen im Experiment Dissoziationen! D.h., die Leistungen unterscheiden sich je nach Test. Das wurde z.B. gezeigt im Repetition-Priming-Experiment von Tulving et al.: 1.Lernen von seltenen Wörtern 2. Test nach 1 Stunde bzw. 7 Tagen auf 3 Arten: a) Wiedererkennen b) Wortfragmentierungsergänzung c) Wahrscheinlichkeit Ergänzung neues, seltenes Wort Ergebnisse: -die Wahrscheinlichkeit der Ergänzung neuer Wörter ist immer schlecht, quasi baseline, egal ob nach 1 Stunde oder nach 7 Tagen getestet wird kein Effekt -die Wortfragmentergänzung zielt auf das implizite Gedächtnis ab. Dieses bleibt über die Zeit stabil, auch wen die Leistung nach 1 Stunde etwas schlechter ist als nach einem direkten Test -das Wiedererkennen testet das implizite Gedächtnis. Es ist sehr gut nach 1 Stunde und nach 7 Tagen am Schlechtesten -es zeigt sich also eine Dissoziation zwischen den Leistungen des expliziten und des impliziten Gedächtnisses Was ist der Unterschied zwischen direkten und indirekten Tests? Welcher wichtige Unterschied kommt ihnen auf der Gesdächtnisebene zu? Erklären bewusst/unbewusst Testarten aufzählen Explizite/implizite Prozesse Dissoziationen in Experimenten beschreiben Was ist das Kontaminationsproblem? Beschreibe Sie ein Experiment, dass von Jacoby entworfen wurde, um diesem Problem auf die Spur zu kommen Das Kontaminationsproblem: Wie kann man sicher sein, dass man in einem indirekten Test nur das implizite Gedächtnis erfasst? Es könnte doch sein, dass ich mich bewusst erinnere! Dazu Jacoby: Prozess-Dissoziations-Prozedur: Das ist ein Experiment, in dem deutlich wird, dass auch das implizite Gedächtnis (bei voller Aufmerksamkeit in der Lernsituation und dem Wissen um einen späteren Test) eine Rolle spielt bei der Leistung. Selbst wenn man nur nach expliziten Erinenrungen fragt. 1.Lernliste von Wörtern, volle oder geteilte Aufmerksamkeit 2.Die Probanden bekommen Wortstämme, es gibt 2 Testbedingungen a)Inklusionstest: „Ergänze mit Wörtern der Lernliste, wenn Dir keins einfällt, nimmt irgendeins.“ b)Exklusionstest: „Ergänze nicht mit Wörtern der Lernliste!“ Hypothesen: Wenn die Probanden perfekte explizite Erinnerungen haben, produzieren sie 100% in der Inklusionsbedingung und 0% in der Exklusionsbedingung. Ergebnisse: -in der Bedingung mit geteilter Aufmerksamkeit produzieren die Pbn bei Exklusion trotzdem Listenwörter lässt auf implizites Gedächtnis schließen! -bei voller Aufmerksamkeit produzieren sie in der Inklusionsbedingung viele Listenwörter. Die Leistung ist also besser als bei geteilter Aufmerksamkeit. In der Exklusionsbedingung jedoch benutzen sie auch Listenwörter. Und zwar mehr als in der Kontrollbedingung. Wenn sie nur ein explizites Gedächtnis nutzen würden, würden sie jedoch weniger Listenwörter als die Zufallswahrscheinlichkeit produzieren. Also scheint auch hier noch das implizite, nicht bewusste Erinnern eine Rolle bei den Antoworten zu spielen- das implizite Gedächtnis spielt bei voller und geteilter Aufmerksamkeit eine Rolle! Welches Problem spricht das Reliabilitätsproblem an? „Reliabilität“ ist der Grad der Genauigkeit, mit dem Test ein Merkmal misst, unabhängig davon, ob er es zu messen beansprucht. -> Wie genau messe ich impliztes und explizites Gedächtnis? -Tests zum impliziten Gedächtnis sind häufig unreliabler als Tests zum expliziten Gedächtnis --Man kann morgen ein anderes Ergebnis haben als heute, das Messinstrument ist ungenau Welche 2 Prozesse unterscheidet TAP? Nennen und beschreiben Sie ein Experiment, dass Evidenz für einen solchen Prozess liefert TAP unterscheidet ... .....datengetriebene Prozesse: Merkmalsanalyse, wahrnehmungsnahe Merkmale bottom-up verarbeiten, perzeptuell ----konzeptgetriebene Prozesse: Analyse von Bedeutung, top-down, semantisch Nach der TAP-Annahme ist die Leistung im Test umso besser, je mehr Lern-und Abrufprozesse übereinstimmen dazu das Experiment von Perrig et al.: 1.in der ersten Phase sieht die Experimentalgruppe Bilder mit eingebetteten Figuren, die nicht bewusst zu sehen sind. Die KG sieht „normale“ Bilder 2. Testphase: Die Bilder mit den eingebetteten Figuren wurden gezeigt, diese Figuren traten langsam aus dem Bild heraus. Die Probanden sollten eine Taste drücken, wenn sie es erkennen! Ergebnis: -Die EG erkennt die eingebetteten Figuren viel schneller, die KG die Kontrollfiguren Das die EG einen Erkennungsvorteil bei der Identifikation der eingebetteten Figuren zeigt, spricht dafür, dass sie vorher schon „perzeptuell-datengetrieben“ verarbeitet wurden (nicht konzeptgetrieben, denn dann hätten sie eine bewustte Erinnerung). Schildern Sie das Experiment von Blaxton, dass die Unterscheidung von implizitem und explizitem Gedächtnis in Frage stellt. Sollte man nur noch konzeptuell/perzeptuell unterscheiden? Begründen Sie Experiment von Blaxton: 1)2 Lernprozesse: Lesen (perzeptuell) vs. Generieren (konzeptuell). 2)2*2 Testbedingungen: Implizit: a) perzeptuell: „Ergänze das Wortfragment _rt_t zu einen deutschen Wort.“ b) konzeptuell: „Wofür wurde das Ehep. Guillaume 1975 zu Haft verurteilt? der Test zielt darauf ab, Fragen zu stellen, auf die eigentlich ohne Lernphase keine schnelle Antwort möglich ist. Die Pbn sind sich aber nicht bewusst, dass Wörter aus der Lernphase Antworten sind. Explizit: a) perzeptuell: „Erinnere dich an das Wort aus der Lernphase, welches so ähnlich aussah wie „Vertrag.“ b) konzeptuell: „Erinnere dich an das Wort aus der Lernphase, welches Ähnliches bedeutete wie ….“ bewusstes Erinnern an die Enkodierphase ist gefragt! Hypothesen: 1) Wenn es die Unterscheidung implizit/explizit auf Gedächtnisebene gibt, sollte perzeptuell=konzeptuell sein. 2) Wenn man zwischen den Prozessen perzeptuell/konzeptuell unterscheiden sollte, sollte im impliziten und im expliziten Gedächtnis für beide das gleiche Muster entstehen. D.h., perzeptuell=1, konzeptuell=2 usw. Das ist auch genau das, was passiert! Jedoch ist die Unterscheidung implizit/explizit nicht obsolet. Nach dem oben gefundenen Ergebnis könnte man z.B. annehmen, Amnestiker wären immer schlechter, wenn im Test ein konzeptueller Schlüssel gegeben wird und sie assoziieren müssen, egal ob es ein direkter oder ein indirekter Test ist (also egal ob implizit oder explizit). Sie zeigen sich aber schlechter, wenn im direkten Test ein perzeptueller oder ein konzeptueller Schlüssel gegeben wird. D.h., sie leiden an Defiziten im expliziten Gedächtnis, egal welcher TAP-Prozess. VL 8 Kategorien und Konzepte 1 und 2 Beschreiben Sie den „klassischen Ansatz“ der Theorien zu Kategorien und Konzepten In den Studien von Brenner et al. Zum regelgeleiteten Kategorisieren wurde viel darüber herausgefunden, wie die Pbn Hypothesen zu möglichen Kategorien bilden und welche Strategien sie dabei entwickeln. Sie erhielten geometrisches Reizmaterial in verschiedenen Formen/Anzahl und lernten durch Feedback, in welche Kategorie es einzuordnen war (Kat. „zwei“, Kat. „blau“ etc.). Es entstanden folgende Merkmale des klassischen Ansatzes: -Bedeutung der Kategorie ist über Konjunktive + Liste von Atributen gegeben -diese Attribute sind der Grundbaustein der Kategorien -es gibt klare Grenzen zwischen den Exemplaren der Kategorien und denen der Non-Kategorien -alle Mitglieder der Kategorie sind „gleichberechtigt“, gleich repräsentativ. -die extensionelle (=nach außen hin) Bedeutung ist über die Menge der Exemplare gegeben. -jedes Attribut ist notwendig und alle zusammen sind hinreichend, um ein Objekt zu identifizieren. Welche Befunde zur Kategorisierung kennen Sie, die den sog. „klassischen Ansatz“ innerhalb der Theorien zu Kategorie und Konzentration unplausibel machen 1. Widerspruch zum hierarchischen Netzwerkmodell: Satzverifikations-/falsifikationszeiten zu Sätzen: „Ein Kanarienvogel ist ein Stein“ geht zu schnell! „Ist ein Pinguin ein Vogel“ dauert länger als „Ist eine Amsel ein Vogel?“. diese Art von Experimenten zeigt nur teilweise, dass die Distanz im semantischen Netzwerk ein Prädiktor der Antwortzeit ist. 2. Kategorien als sprachtheoretische Einheit Lassen sich für Alttagskategorien oft nicht fassen. Bsp. Wittgenstein: „Spiel“. es ist nicht möglich, nach dem klassischen Ansatz zu definieren, weil es so viele verschiedene Spiele gibt. 3. Typikalität/Familienähnlichkeit Familienähnlichkeit: Wie typisch ist ein Objekt für eine Kategorie? Für die meisten Menschen sind einige wenige Objekte typische Vertreter einer Kategorie, die ihnen sofort einfallen (Bsp. Blume: Rose, Werkzeug: Hammer). Das spricht gegen den klassischen Ansatz, denn danach sollten alle Mitglieder gleich repräsentativ sein. Familienähnlichkeit errechnet sich aus den Objekten einer Kategorie über die Merkmale ein Objekt hat einen Familienähnlichkeitsscore von 30, wenn es zwei Merkmale gelistet hat, von denen es eines mit 14 anderen, eines mit 16 anderen teilt. Je höher Typ. Und Familienähn. miteinander korrelieren, desto prototypischer sind sie für eine Kategorie. 4. unklare Grenzen/Kontextabhängigkeit Was ist ein „Prototyp“? Wie lässt er sich in einem Experiment nachweisen? Welche Befunde kann der Prototyp-Ansatz nicht erklären? -Ein Prototyp ist quasi eine Abstaktion der Mitglieder einer Kategorie, eine Verkörperung der zentralen Tendenz. Er beinhaltet alle typischen Merkmale, von denen alle Mitglieder etwas haben, aber jeweils nicht alles. Der Prototyp kann auch das beste Exemplar sein. -Laut dem Prototyp-Ansatz gibt es keine feste Liste von notwendigen und hinreichenden Merkmalen. -Die Zuschreibung zu einer Kategorie erfolgt über charakteristische, nichtnotwendige Merkmale Familienähnlichkeit -Die Grenzen zwischen den Kategorien sind nicht so klar. -es gibt Typikalitätsabstufungen; manche Exemplare sind typischer als andere -die Zuschreibung der Kategorien erfolgt über die Ähnlichkeit zum Prototyp 2 mögliche Experimente sind zu nennen: Solso et al. 1.Lernphase: Vorgabe einzelner Gesichter 2.Vorgabe von Bildern aus der Phase 1 + neue Gesichter. Wiedererkennen: „Wie sicher sind Sie, dieses Gesicht schon einmal gesehen zu haben?“ der Trick dabei: zu den neuen Gesichtern wurde ein Prototyp gemischt, der ein Mischtyp aus den Gesichtern der Phase 1 ist. Die anderen Gesichter hatten anteilig 0, 25, 50 oder 75% mit dem Prototyp gemeinsam. Ergebnisse: -Haupteffekt für Bilder -Prototyp wurde immer am Besten erkannt, obwohl man ihn noch nie zuvor gesehen hatte -danach wurde die bekannten Gesichter in der Reihenfolge nach ihren Anteilsprozenten am Prototyp erkannt -neue Gesichter wurden zwat schneller als alle, aber auch anteilig ihrer Prototypähnlichkeit wiedererkannt Dieses Ergebnis spricht dafür, dass die Pbn einen Prototyp aus den Bildern aggregiert haben, also eine interne Repräsentation. Je niedriger die Änlichkeit der Testbilder ist, umso geringer fallen die Wiedererkennensvorteile aus. Der Ähnlichkeitsgradient ist der beste Prädiktor für das Wiedererkennen. 2. mögliches Experiment: Posner et al. 1.Material herstellen: Zufallsmuster (Punkte) werden verzerrt, pro „Prototyp“ 4 Mal 2.Pbn bekommen die Verzerrungen und müssen lernen, sie zu kategorisieren (im Hinblick auf die Ursprungsmuster, die sie quasi „mental“ bilden müssen). 3.Nach der Lernaufgabe erfolgt der Test entweder sofort oder verzögert: Erkennt man die Muster hinsichtlich der Kategorie korrekt? Nach 2 Tagen erkennen die Pbn den Prototyp besser als die Lernexemplare! Das spricht dafür, dass sie eine innere Repräsentation gebildet haben, allerdings nicht sofort. Was kann der Prototyp-Ansatz nicht erklären? 1) Attributzuordnungen sind kontextabhängig! (z.B. Klavier ist „schwer“ beim Umzug und „klangvoll“ beim Konzert. 2) Typikalitätszuordnungen sind kontextabhängig! (z.B. die typische Uhrzeit für das Abendessen ist in Deutschland eine andere als in Spanien). 3) es gint Ad-hoc-Kategorien (z.B. Flohmarktverkauf; Dinge die man zuerst aus der brenneden Wohnung rettet). 4) es wird zwar die zentrale Tendenz gespeichert, aber nicht die Variabilität und Größe einer Kategorie Was kann der Prototyp-Ansatz gut erklären? - Bildung einer internen Repräsentation Ergebnisse der Experimente von solso, Posner -Typikalitätsratings -Verifikationszeiten -Generierung von Exemplaren (Blume: Rose, Werkzeug: Hammer). Was ist mit dem Exemplar- im Gegensatz zum Prototyp-Ansatz gemeint? Welche Befunde sind nur mit dem Exemplaransatz erklärbar? Lasseb sich beide Ansätze „versöhnen“? -Konzepte bestehen laut Exemplar-Ansatz aus einer gespeicherten Menge von Exemplaren. Es gibt keine Abstaktionen/Prototypen. -die Exemplare sind nach Ähnlichkeit gruppiert. -Kategorisierung wird realisiert über Mechanismen des Parallel-Vergleichs des wahrgenommenen Exemplars mit den abgerufenen Exemplaren: Ich sehe ein neues Objekt und vergleiche mit schon vorhandenen Exemplaren Der Exemplaransatz erklärt auch...... ....die Kontextabhängigkeit (Exemplare werden in mehreren Zusammenhängen abgespeichert) ....die Variablilität: wird vom Prototyp-Ansatz ignoriert, der Exemplaransatz trägt die Variabilität automatisch durch die Menge der gespeicherten Exemplare ( Variabilität=ein Merkmal kann variieren) ....(alles, was der Prototyp-Ansatz auch erklärt Beschreiben Sie ein Experiment, das als Evidenz gilt für den Exemplar-Ansatz Experiment von Storms et al.: 1)Datengewinnung: a) Prototyp (P-Indikator): charakteristische Merkmale aufzählen, daraus Prototypen erstellen b) Exemplar (E-Indikator): Ähnlichkeitsbeurteilung der häufigsten aufgezählten Exemplare: Daraus die 10 typischensten Exemplare 2)Die beiden Ansätze wurden dann in 4 Aufgaben direkt verglichen, um herauzufinden, welcher der beiden Indikatoren die 4 folgenden Verhaltensmaße besser vorhersagt (korreliert). D.h., die Exemplare und Prototypen wurden in den folgenden Aufgaben verwendet: a) Kategorie benennen: Zu welcher Kategorie gehört das Exemplar? b) Exemplare generieren: Welche Exemplare gehören in diese Kategorie? c) Typikalitätsabstufungen: Rating der Exemplare d) schnelle Kategorisierung: Pbn sahen eine Kategorie und danach Wörter schnelle Entscheidung, ob das Wort in die Kategorie gehört Ergebnisse: -Haupteffekt für die Theorie: Exemplar-Theorie ist immer ein bisschen besser und sogar sehr viel besser als in der Bedingung „Exemplar generieren“. E-Indikator ist ein besserer Präsdiktor, das Verhalten der Probanden wird besser von ihm vorhergesagt. Welche Kritik an ähnlichkeitsbasierten Ansätzen besteht? 1) Typikalitäts- und Familienähnlichkeitsscores varrieren nicht immer perfekt (dann, wenn alles auf Ähnlichkeit beruhen würde, würden beide perfekt korrellieren und man bräuchte nur einen Begriff) 2) Verifizierung einfacher Inklusionsbeziehungen („Alle Vögel sind Lebewesen“) scheinen eher auf generellem Wissen zu basieren 3) Manchmal haben wir nur Wissen über die Beziehung zwischen Attributen, nicht aber über die Attribute selbst 4) ad-hoc-Kategorien sind wenig kohärent 5) Wie entstehen Kategorien nach dem Exemplar-Ansatz? 6) Gibt es eine unendliche Speicherkapazität für Exemplare? 7) Typikalitäts- und Kategorisierungseinschätzungen variieren nicht immer perfekt, die Dinge mögen typisch, aber nicht ähnlich sein 8) oft ist nicht klar, was ähnlicher ist. 9) Kategorisieren hängt auch stark vom Vergleichsmaterial ab 10) Die Anzahl gemeinsamer Merkmale ist grundsätzlich unendlich groß. Beschreiben Sie die Annahmen des Theorie-Ansatzes und ein Evidenz lieferndes Experiment Der Theorie-Ansatz trägt der Tatsache Rechnung, dass Vorwissen, Kontexteffekte und Beziehungen zwischen Merkmalen eine Rolle spielen beim Kategorisieren -Die Attribute haben Relationen zueinander und erklärenden Charakter (Flügel, Federn etc. zum Fliegen -Konzepte sind nicht statisch abgespeichert, sondern können im Arbeitsgedächtnis unter Abruf von Attributdefinitionen konstruiert werden -Konzeptuelle Kohärenz ergibt sich aufgrund von theoretischem Wissen, nicht nur aufgrund von Ähnlichkeit -Kontexteffekte ergeben sich aufgrund des Konstruktionscharakters von Konzepten im Theorie-Ansatz; unterschiedliche Gewichtung von Hintergrundwissen aufgrund von Voraktivierung Experiment von Palmeri et al.: Material : 2 Gruppen von Zeichnungen, die aufgrund konkreter Regeln (Armhaltung der Figuren, Haare etc.) oder abstrakter Regeln (detailliert, ungewöhnlich) eingeteilt werden können. SP1/SP2: Stichprobe 1 wird gesagt, die Zeichnungen A seien von kreativen, die Zeichnungen B von unkreativen Kindern. Stichprobe 2 wird nur gesagt, dass die Zeichnungen von 2 verschiedenen Kindergruppen stammen. dann sollten die Bilder kategorisiert werden. Ergebnis: Stichprobe 1 kategorisiert eher nach abstrakten Regeln Hintergrundwissens (kreativ/nicht kreativ) Stichprobe 2 kategorisiert eher nach konkreten Regeln Hintergrundwissens Einfluss des Einfluss des neutralen Das Ergebnis zeigt den Einfluss impliziter Persönlichkeitstheorien auf die Kategorisierung. VL 9 Kategorien und Konzepte (Empirisches): Schemata, wahrnehmungsbasierte Wissensrepräsentation Charakterisieren Sie natürliche und artifizielle Kategorien und beschreiben Sie ein Experiment, dass die Unterscheidung art.-nat. sinnvoll erscheinen lässt artifiziell: semantische Repräsentation über funktionale Merkmale; keine innere Essenz; meist kein Prototyp; Kontextinformation ist meist nicht nützlich zum Verarbeiten: längere Benennzeiten natürlich: semantische Repräsentation über visuelle Merkmale; innere Essenz; Prototyp; Kontextinformation hilft beim Verarbeiten: schnellere Benennzeiten Experiment: Drücke die zutreffende Taste (artif./natürl. Kategorisierung/Farbe variiert) Ergebnis: Wenn es Objekte aus natürlichen Kategorien waren, war die Reaktionszeit viel schneller, wenn die Farbe stimmig war. Die Farbe ist meist invariant, hochdiagnostisch (Banane gelb). Wenn keine Farbe da war, war man viel langsamer. Bei unbelebten Objekten ist die Farbe egal, die Reaktionszeiten sind gleich für farbig/grau die Kontextinformation „Farbe“ ist diagnostisch für Objekte. Das führt zu schnelleren Reaktionszeiten. Beschreiben Sie den Begriff des Schemas und verschiedene Arten von Schemata Schemata sind komplexe Konzepte. Sie stellen den begrifflichen Rahmen dar für Wissen über Gegenstände, Personen, Ereignisse und Ereignissequenzen. Sie bestehen aus einer Reihe von Relationen und Variablen, sowie Worten für diese Variablen. Relationen: einfach (hat ein…, ist ein…) Variablen: die Küche hat einen variablen Herd, eine variable Spüle etc. Variablenwerte: Die Merkmale ändern sich je nach Kontext (Küche des Studenten ist anders als eine Profiküche) Somit repräsentieren Schemata abstraktes wissen, das für die Bedeutung konkreter Objekte, Ereignisse und Personen gefüllt wird. Je nachdem, welche Variablen aktiviert sind, ändert sich mein Schema. „Skripts“ sind Schemata für bestimmte Ereignisabläufe (Bsp.: Restaurantbesuch) Generell leiten Schemata unsere Wahrnehmung und man erinnert sich besser an Dinge, die nicht ins Schema passen Selbstschemata: sind kognitive Generalisierungen über das Selbst, abgeleite aus Erfahrungen. Sie strukturieren und leiten die Verarbeitung selbstbezogener Informationen. Sie enthalten spezifische Erinnerungen, Überzeugungen und Generalisierungen über das eigene Verhalten in einem bestimmten Bereich (Bsp.: Experiment zum dichotomischen Hören von Bargh) VL 10 Sprache: Lesen,Hören, Textverstehen Erläutern Sie das interactive Activation Model der Worterkennung. Wie wird damit der Wortüberlegenheitseffekt erklärt? Das IAM ist ein konnektionistisches Modell, das in 3 Ebenen gegliedert ist. Zwischen diesen Ebenen sind fördernde und hemmende Strukturen. Auf der feature-Ebene werden die kleinsten Einheiten der Buchstaben verarbeitet. Ein „T“ hat z.B. 2 Features: (hier steht ein Kreis mit einem senkrechten Strich) und (Kreis,waager. Strich) Wenn diese beiden Feature entdeckt werden, werden alle Units, die diesen entsprechen, aktiviert und alle, die dem nicht entsprechen, gehemmt. Die Features aktivieren dementsprechend den passenden Buchstaben auf der nächsten Ebene, andere werden gehemmt. Auf der Wortebene passiert Analoges zu den beiden unteren Ebenen. Es gibt allerdings auch top-down-Verbindungen von der Wortebene zur Buchstaben-Ebene als Erkennungshilfe. Das Modell kann den Wortüberlegenheitseffekt gut erklären. Wenn ein Wort sehr kurz präsentiert wird, und daruf hin die Aufgabe darin besteht, herauszufinden, ob „U“ oder „O“ vorkam, sind wir besser als bei Pseudo- und Nichtwörtern. Wir scheinen bei Bekannten Wörtern nicht Buchstabe für Buchstabe zu prozessieren, sondern durch die top-down-Modulation erkennen wir das Wort schnell als Ganzes. Wenn „Blume“ gezeigt wird, hemmt die Wortebene gleichzeitig unpassende Buchstaben auf der Buchstabenebene. Was ist der Pseudowortüberlegenheitseffekt? Wie wird er erklärt? Wenn uns sehr kurz ein Pseudowort (z.B. „Pluze“) präsentiert wird und die Frage folgt, ob ein „O“ oder „U“ enthalten war, sind wir schneller, als wenn ein nichtwort präsentiert wird (z.B. „PLND“) bzw. ein nicht aussprechbares Pseudo-Wort. Dies wird mit dem Interactive Activation Model erklärt: Wennn uns ein aussprechbares Wort pärsentiert wird, werden auch sicher gewisse Überlappungen mit gespeicherten normalen Wörtern vorhanden sein. Diese Aktivierung der überlappenden Wörter erzeugt wieder eine top-down-Aktivierung der Buchstaben, wir erkennen es also leichter. Welche Befunde kann das IAM-Modell nicht erklären? Was sind die Schwächen des Modells? Schwächen: laut Modell müssen die Buchstaben in der korrekten Reihenfolge stehen. Es ist nur anwendbar auf 4-Buchstaben-Wörter. Der „jumbled-words“-Effekt ist somit nicht gut erklärbar, denn die Buchstaben stehen ja nicht in der korrekten Reihenfolge. (Lösungsvorschlag: es gibt auch eine Ebene von Buchstabenpaaren). Die Rolle der Phonologie (Klang des Wortes) ist nicht berücksichtigt. „Phonologische Verarbeitung ist obligatorisch beim Lesen von Wörtern“ lautet die starke Hypothese von Frost. Erläutern Sie ein Experiment, das diese Hypothese stützt. ------------------------------------------------hier muss was eingefügt werden!!! aber deswegen verstehen wir noch nicht deren Bedeutung! Wenn diese Route geschädigt ist, sind irreguläre auszusprechende Wörter ein Problem, denn hier sind die allgemeinen Ausspracheregeln gespeichert, die dazu benötigt werden. In Route 2 sind Repräsentationen von tausenden bekaannten Wörtern im orthographischen Lexikon, die beim Lesen aktiviert werden. Dann kommt die Semantik hinzu. Route 3 ist ähnlich Route 2, aber die Semantik wird umgangen. Route 2und 3 sind lexikalisch, route 1 phonologisch Dyslektische Störungen: 1.Phonologische Dyslexie: Route 1 (nonlex.) ist zerstört, die Übersetzungsregeln fehlen. Alles läuft über die lexikalische Route (+häufig vorkommende reguläre und irreguläre Wörter, -- seltende Wörter, Non-Wörter) 2.Oberflächendyslexie: Route 2 (lex.) ist zerstört (+ reguläre Wörter und NonWörter können durch route 1 gelesen werden, -- irreguläre Wörter [werden oft regulär ausgesprochen). 3.Tiefendyslexie: Route 1 und Teile von Route 2 und 3 sind zerstört (+ bekannte Wörter, - seltene Wörter/Nichtwörter). Phänomen: semantische Paralexien ( mangelnde Inhibition der semantischen Einträge? „Krug statt Flasche“). Welche Probleme ergeben sich bei der auditiven Sprachwahrnehmung? Was erleichtert Sprachwahrnehmung auf der anderen Seite? Problem: Wie erkennen wir die Wörter im kontinuierlichen Fluss der Sprache? Während des Sprechens machen wir selten Pausen! Wir sprechen ca. 10 Phoneme pro Sekunde, 50-60 Stück können noch verständlich sein. Das Problem der Segmentierung verschärft sich noch: -Koartikulation (Überlappung der Phoneme) -Weglassungen (Elision) „gehen“ [ge:n] -Hinzufügungen (Epenthese) „kommst“ [kampst] -Anpassungen (Assimilation) „Leben“ [le:bn] Erleichterung des Problems: Wir scheinen auch die Lippenbewegungen als Informationen zu verarbeiten, kombinieren also akustische und visuelle Informationen. Dazu der MCGurk-Effekt: Frau im Fernsehen macht Lippenbewegungen: gaga Lautsprecher des Fernsehens macht aber „bla-bla“ der Hörer hört „da-da“. Beschreiben Sie die Hauptprozesse der Sprachwahrnehmung und des Sprachverständnisses Integration: Satzbedeutung in vorangehende Sprache Interpretation der Äußerung: Bedeutung des Satzes durch die Information über einzelne Wörter und ihre Stellung im Satz Indentifikation der einzelnen Wörter (durch Aktivation lexikalischer Einträge) Indentifikation der einzelnen Sprachsignale Sprache vom Hintergrundgeräusch selktieren auditorischer Input Beschreiben Sie die Annahmen des Kohortenmodells zur auditiven Sprachwahrnehmung (und schildern sie ein Experiment, dass diese Annahmen stützt) Das Kohortenmodell ist ein Modell zur auditiven Spracherkennung -ein Wort wird gehört initiale „Wort-Kohorte“. Alle Worteinträge, die zum gehörten akustischen Input passen, werden intern parallel aktiviert. -das Wort wird aus der Kohorte eliminiert, wenn die sukzessiven Inputs nicht mehr passen -recognition/“uniquenesspoint“: nur noch 1 Wort passt, alle anderen sind eliminiert: Zuesrt alles, was mit „K“ anfängt, dann alles mit „Kü“, „…“, „Küche“. Wenn zwischen den möglichen Kandidaten selektiert wird, muss eine kritische Differenz zwischen den zwei am Höchsten aktivierten Repräsentationen erreicht werden, dann kommt das Erkennen. Annahme: lexikalische, semantische und syntaktische Ressourcen werden gleichzeitig aktiviert. Welches experimentelle Paradigma wird zur Worterkennung im Kontext häufig eingesetzt? Erklären Sie? Semantisches Priming: Prime: „Blume“. Target: „Tulpe“ Wort oder Nicht-Wort. Das eght schneller, wenn ein semantisch verwandtes Wort vorangeht (Prime) Triviale Deutung: Die Pbn erkennen, dass häufig ein semantisch verwandtes wort erscheint und bilden Erwartungen aus. Schildern Sie ein Experiment, das zeigt, dass die Daten aus semanstischen Priming-Experimenten nicht auf der Erwartunghaltung der Probanden beruht Experiment von Neely: Primes: Kategorienamen „Body“, „Building“ Targets: Exemplare „Heart“, „Door“ Erwartungsinduzierung: die Probanden erwarteten, dass nach der Kategorie “Körper” überwiegende z.B. ein Gebäudeteil folgte unpassende, aber erwartete Beziehung in den übrigen Trials passten Prime und Target semantisch zusammen (Körper Herz). Falls Priming also durch eine Erwartungshaltung entsteht, sollte die unpassende Beziehung Prime – Target schneller sein als die semantisch passende! SOA: variiert wurde das Zeitintervall Prime – Target Bschreiben Sie die „moving-window“-Technik und die Erkenntnisse über parafoveale Verarbeitung beim Lesen, die man damit erlangt hat „moving-window-“ Technik: Blickbewegungsapparatur, misst die Spanne, die wir lesen, bzw. Genauer: Die Menge Text, aus der wir Information ziehen, also semantisch verarbeiten, während einer Fixation des Auges. Unser Auge springt in Sakkaden. Die Information wird während der Fixation erlangt, die 200-250 ms dauert. Durch unsere Blickbewegung wird das Textfenster, in dem in der „morning-window-Technik“ ein Textausschnit steht, gesteuert. Durch die Veränderung der Größe/Lage des Ausschnitts kann erfasst werden, welcher Ausschnitt für verlustloses Lesen notwendig ist. Es gibt 3 Spans: 1)perceptual span: Spane des verlustlosen Lesens (längste) meist 3-4 Buchstaben links und bis 15 Buchstaben rechts 2)letter-identification-span: Buchstabeninformation 3)word-identificatuion-span: Wortspanne, Kürzeste; Areal, in dem noch relevante Informationen zur Wortidentifikation enthalten sein können. Wenn man wissen will, was im parafovealen Bereich passiert: Man tauscht das Wort, kurz bevor der Leser mit seiner Augenbewegung dort ankommt, aus. Bzw. Das Wort wird während der Sakkade ausgetauscht. Der Leser merkt das nicht bewusst! Aber er fixiert das nächste Wort dann länger.Wenn dieses Wort phonologisch oder visuell ähnlich ist, ist der Effekt weniger ausgeprägt. Semantische Ähnlichkeit bringt nichts. --> das spricht für die parafoveale Verarbeitung des Wortes, denn sonst würde der Leser es beim Austausch nicht länger fixieren. Semantische Verarbeitung findet jedoch nicht statt. Erklären Sie das E-Z-Reader-Modell einschleißlich der Effekte beim Textlesen, die es erklären will Wir verarbeiten ein Wort nur semantisch, wenn wir es fixieren. Es werden jedoch ... ...nur 80% der inhalttragenden Wörter ...nur 20% der Funktionswörter fixiert! Wieso? Weitere Leseeigenschaften: -seltene Wörter werden länger fixiert -aus dem Kontext vorhersagbare Wörter werden kürzer fixiert -nicht-fixierte Wörter sind kurz, üblich, vorhersagbar -jedes Wort, das nach einem seltenen kommt, wird länger fixiert --> spill-over-Effekt) Was ist im constuction-integration-Modell mit propositionalen Repräsentationen gemeint? Beschreiben Sie ein Experiment, das Evidenz gibt für das Modell Propositionen: Wir repräsentieren den Inhalt eines Textes in bestimmten Sinneinheiten (=Propositionen). Der semantische Gehalt eines Textes wird also v.a. in propositionalen Repräsentationen abgebildet. Propositionen bilden ein Netz und werden mit dem Langzeitgedächtnis verknüpft. Sie sehen so aus: (Prädikatenkalkül) Relation (Argument 1, Argument 2, …) z.B. „John küsste Mary mit einer Tomate im Mund“ küssen (Mary, John, Tomate) (Relation oft = Prädikat; Präsdikat = Zustand, Tätigkeit, Eigenschaft eines Objektes) Experiment von McKoor und Ratcliff Die Probanden bekamen zwei Texte zu lesen: The businessman gestured to a waiter The waiter…. Dann wurde ein Priming-Experiment durchgeführt: Es wurde ein Prime präsentiert, der ein wort aus einer der Geschichten war. Dann sollte das Target klassifiziert werden: Kam das Wort in einer der Geschichten vor? (primingaufgabe kam nach der Präsentation von Sätzen der Geschichte). Ergebnisse: -Es gab einen Haupteffekt für EG/KG (die Kontrollgruppe bekam Primes aus einem bekannten Text). -Es gab einen Haupteffekt für den Propositionsabstand Die Wörter sind umso zugänglicher, je näher die Propositionen miteinander in Verbindung stehen. Ein propositionales Netz hat sich intern gebildet. Wenn sie einen Text lesen und verstehen, können wir 3 Arten von inneren Repräsentationen unterscheiden. Welche? Nennen Sie bitte ein Experiement dazu Es gibt 3 Ebene der Textrepräsentation: 1. Oberflächenrepräsentation: der Text selbst, also in sprachlicher Form 2. propositionale Repräsentation: Propositionen, die ich aufgrund des Textes bilde 3. Situationsrepräsentation, mentales Modell: beschreibt die Situation im Text. Schemata können bei der Konstruktion helfen. Experiment: Textpräsentation auf dem Bildschirm ……John stellt die Blume in die Vase (bzw. Knopfloch) Test 1 ……er verlässt das Haus, er geht einkaufen Test 2 an nicht vorhersagbaren Stellen wird der Text unterbrochen und es wird gefragt, wo die Blume ist. Bei Test 1 ist die Blume präsent: entweder Vase oder Knopfloch. Bei Test 2 ist die Blume nur noch denen präsent, die die Bedingung „Knopfloch“ haben. Die interne Repräsentation (mentales Modell) hat die Blume gespeichert, sie geht mit einkaufen. Bei den anderen (Bedingung „Vase“) ist die Blume nicht mehr gespeichert. Mentale Modelle: -repräsentieren das, wovon der Text/Film handelt -hat Qualitäten bildhafter/propositionaler Formate. VL 11 Problemlösen Was versteht man in der Gestaltung unter „funktionaler Fixierung“? Wie lässt sie sich experimentell nachweisen? Funktionale Fixierung ist ein Problem, das auftritt, wenn ich auf eine Funktion eines Gegenstandes fixiert bin, ichn aber anders repräsentieren müsste, um ein gegnwärtiges Problem zu lösen. Meist ist man auf die gewohnte Funktion des Objektes fixiert. So sieht man z.B. eine Zange beim klassischen 2-Seile-Problem nicht als Gewicht, das man braucht, um das Problem zu lösen. Die Lösung wird allerdings besser gefunden, wenn die Einsicht stimuliert wird oder Analogiebildung möglich ist (Einsicht: VL bringt das Seil zum Schwingen, Analogie: Bsp.: Strahlenproblem/Diktatorgesschichte). Was versteht man unter „Einstellungseffekten“ in der Denkpsychologie? Erläutern Sie anhand der Wasserumschüttaufgaben von Ludung Einstellungseffekte sind reproduktive Problemlöseversuche, bei denen mich meine Einstellung behindert bei Folgeproblemen, die evtl. nicht nach dem gleichen Muster gelöst werden müssen/können. Wasserumschüttaufgaben: Die Probanden haben 3 Krüge mit unterschiedlichem Fassungsvermögen. Durch Umschütten des Wassers soll eine bestimmte Menge Wasser abgemessen werden. Die Krüge dürfen nur vollständig geleert oder gefüllt werden. Bsp.: Krug A Krug B Krug C geforderte Menge 18 Tassen 43 Tassen 10 Tassen 5 Tassen Lösung: B-2C-A Wenn die Probanden jetzt in mehreren solcher Probleme die gleiche Lösung herausfinden, also merken, dass die Lösung immer nach B-2C-A funktioniert, bilden sie eine Einstellung gegenüber dem Problem aus. Dies wird deutlich, wenn man ihnen ab einem gewissen Zeitpunkt (hier: nach 5 Aufgaben) eine Aufgabe gibt, die zwar auch nach der alten Formel, aber auch einfacher (z.B. A-C) zu lösen ist. 83% der Probanden nutzen die alte Formel, wohingegen die Kontrollgruppe, die die ersten Aufgabenstellungen nicht bekam, unter 1% liegt. Bei einem Problem, das nicht mehr (es ging nur mit der einfachen) mit der alten Lösung gelöst werden kann, versagen viele aus der Experimentalgruppe, nur 36% lösen es, aber 95% aus der Kontrollgruppe. dies zeigt, dass die Probanden der Kontrollgruppe anscheinend keine Voreinstellungen gegenüber den Problemen gebildet haben. Sie lösen die Aufgaben besser als die Experimentalgruppe, die durch ihre Einstellung behindert ist. Was besagt die reprentational-change-theory? Die RCT ist ein Versuch, die Erkenntnisse der Gestaltpsychologie in ein Modell der Informationsverarbeitung beim Problemlösen zu integrieren. 1) Die Art, wie wir ein Problem gerade repräsentieren, ist ein retrieval cue, um relevantes Wissen aus dem Langzeitgedächtnis abzurufen. 2) Die Art, wie dieses Wissen aus dem Langzeitgedächtnis abgerufen wird, basiert auf Aktivierungsausbreitung unter gespeicherten Konzepten oder Wissenseinheiten. 3) Wir sind blockiert, wenn die retrieval cues nicht zur Aktivierung notwendiger Operatoren führen. 4) Die Blockierung wird aufgehoben durch: -Elaboration und Hinzufügen neuer Information -Aufhebung von einschränkenden Randbedingungen -Re-Enkodierung/-Interpretation eines Teil der Problemrepräsentation Was sind Heuristiken/Algorithmen im Zusammenhang mit Problemlösen? Algorithmen: mathematische Vorgehensweise, führen auf jeden Fall zum Ziel, genutzt z.B. von PC-Programmierern, festes Schema Heuristiken: Daumenregeln, erfahrungsgeleitet, oft nützlich, führen aber nicht immer zum Ziel. Welche Faktoren machen ein Problem zu einem komplexen Problem (Bsp. Tanaland)? Welche Probleme haben Menschen in komplexen beim Lösen? Komplexe Probleme sind in der Regel alltagsnäher, aber auch ill-defined: Wie beschreibe ich korrekt den initialen Zustand? Was ist das Ziel? Welche Operatoren sind möglich? Etc. Sie zeichnen sich aus durch folgende Eigenschaften: 1. große Komplexität hohe Anzahl von Variablen (z.B. in der Schneiderwerkstatt: Lohn, Verkauf, Werbung, Preis etc.) 2. hohe Variablenvernetzung nicht-lineare Zusammenhänge 3) Intransparenz Undurchschaubarkeit. Man weiß nicht, was durch was beeinflusst wird 4) Eigendynamik Variablen verändern sich ohne Eingriff, als Spätfolge vorheriger Handlungen z.B. 5) Polytehé es gint nicht nur ein Ziel, sondern mehrere Die Performanz in einem solchen System korreliert mit der WM-Spanne der Menschen Vor allem Transparenz ist wichtig für Erfolg. Menschen haben oft Probleme mit der Eigendynamik des Systems, die Maßnahmen wirken oft zeitverzögert (Bsp.: Kühlhaus. Probanden müssen etwas warten, bis die Temparatureinstellung greift). Wir denken außerdem in der Regel in linearen Zusammenhängen, nicht exponentiell. Was ist mit „Verfügbarkeits- und Repräsentativitätsheuristik“ gemeint? Erläutern Sie an Beispielen Repräsentativitätsheuristik: siehe oben in der Nähe des Anfangs Verfügbarkeitsheuristik: Die Leichtigkeit, mit der Ereignisse abrufbar sind, bestimmt die Wahrscheinlichkeitseinschätzung. Bsp.: zufällig bWörter aus einem Text greifen. Was ist wahrscheinlich: Ein „R“ an erster oder an dritter Stelle des Wortes Richtig wäre: an dritter Stelle. Die Probanden sagen aber oft „an 1.Stelle“, denn die Vorstellung über „R“ an der 1. Stelle ist leichter und verfügbarer. VL 12 Entscheiden Was sind Take.the-best-Heuristiken und wie funktionieren sie? Bitte geben Sie ein Beispiel an Allgemein meint Heuristik eine Daumenregel. Heuristiken sind erfahrungsgeleitet und führen nicht immer zum Ziel. Sie sind schnell, einfach, ökologisch und „frugal“ (d.h., sie benötigen weniger Informationen, sie sind bescheiden). Take the best meint, dass Prädiktoren nach ihrer Vorhersagegüt geordnet werden ich nehme zuerst das, was am Erfolgversprechendsten ist. Das Objekt mit der höheren Wertigkeit erhält in der Kategorie die „1“, das andere Objekt die „0“. Die Werte des besten Prädiktors werden untersucht. Wenn der Unterschied „1“/“0“ festgetsellt wird, wird das bessere genommen. Beispiel: Guppie-Weibchen nehmen am Liebsten orange Männchen.Wenn keines da ist, dann nehmen sie das sozial beliebteste (=Abbruchregel). Es gibt drei einfache Regeln: -Suchregel -Abbruchregel -Entscheidungsregel Was ist die Rekognitions-Heuristik? Wenn zwei Objekte da sind und eines davon wiedererkannt wird und das andere nicht, ziehe ich den Schluss, dass das bekannte Objekt den höhheren Wert hat. Die Rekognitions-Heuristik basiert auf der Fähigkeit zur Wiedererkennung Beispiel: Welche Stadt hat mehr Einwohner, San Diego oder San Antonio? nehmen San Diego, da diese Stadt bekannter ist. Wir Allerdings ist ein gesundes Maß an Ignoranz wichtig, den zuviel Information kann stören. Beispiel: Welche Stadt hat mehr Einwohner, Jena oder Heidelberg? Wir sind uns nicht ganz sicher, da wir über so viele Informationen verfügen. Die Frage ist z.B. für Kubaner leichter. Die Rekognition muss mit dem Kriterium korelliert sein. Was ist in der Psychologie der Entscheidungsfindung mit „Rahmungseffekten“ gemeint? Für uns ist der Nutzen von Gewinn und Verlusten proportional nicht derselbe. Sie sind nicht symmetrisch verteilt. D.h., wir empfinden die Freude über einen Gewinn, also den positiven Nutzen, nicht so stark wie den Frust über Verlust, den negativen Nutzen. Der Gewinnbereich steigt unterproportional an, der Nutzen im Verlustbereich überproportional. Wenn es um Gewinne geht, bverhalten wir uns eher risikoaversiv, wenn es um Verluste geht, eher risikoaffirmativ. Beispiel: In einem Geschäft gibt es etwas für a) 15 €, in einem anderen das gleiche für 10 €. b) jetzt die gleiche Situation mit Preisen von 120 € und 125 €. bei Aufgabenstellung A geht man höchstwahrscheinlich in das günstigere Geschäft, in B) nicht. Der utzen scheint verschieden zu sein, auch wenn beide Male eine Preisdifferenz von 5 € besteht. Die Nutzenkurve ist im Gewinnbereich negativ beschleunigt. Deswegen erscheinen die Situationen unterschiedlich.