Allgemeine Psychologie I Vorlesung Lernen Fragen zur Lernkontrolle I. BEHAVIORISMUS 1. a) Wie wird menschliches Verhalten im Alltag erklärt? b) Warum ist eine Erklärung menschlichen Verhaltens nach naturwissenschaftlichem Muster so schwierig? zu a) • Ende des 18. Jh.: durch rationales Kalkül, Syllogismus: logische Ableitung, Grundlage der Verhaltenssteuerung: mentale Phänomene (Denken, Entscheiden, Wissen) • Verhalten = eine Reaktion auf die Umwelt zu b) • so schwierig, weil Methoden der Naturwissenschaften nicht anwendbar sind • Gedanken kann man nicht direkt beobachten, wiegen, zählen o.ä. 2. Was ist der Hauptkritikpunkt am Introspektionismus? • mangelnde Replizierbarkeit, d.h. nicht auf alle übertragbar • widersprüchliche Ergebnisse durch verschiedene Schulen und unterschiedliche Versuchspersonen (individuelle Erfahrungen) • keine Implikation für das Verständnis praktischer Sachverhalte • gekonnte Introspektion erfordert viel Erfahrung • man kann in gleichen Situationen verschiedene Empfindungen haben 3. Charakterisieren Sie die Ziele und das methodische Vorgehen des klassischen S-RBehaviorismus • Ziele: Herausfinden, welcher Reiz produziert welches Verhalten? • Gibt es allgemeine Regeln der Modifizierung von Stimulus-Reaktions-Verbindungen? Wenn ja – wie sehen diese aus? • Klassischer S-R-Behaviorismus = Reflexe: Verbindung Verhalten-Reiz, John B. Watson • Methodisches Vorgehen: Nur beobachtbare Ereignisse als Datenbasis verwenden: Umweltbedingungen und Verhalten durch Versuche beschreiben (Reflexologie benutzen) auf Menschen beziehen (weil Versuche mit Tieren) verallgemeinert • Kritik am Introspektionismus u. Ablehnung mentaler Ereignisse (Ontologie) Psychologie als Naturwissenschaft (keine intervenierenden Variablen = mentalen Ereignisse verwenden) 4. a) Was versteht man unter Neobehaviorismus oder S-O-R-Behaviorismus? b) In welcher Weise unterscheidet sich diese Form des Behaviorismus vom klassischen Behaviorismus? c) Inwiefern handelt es sich hier dennoch um eine behavioristische Wissenschaftsauffassung? zu a) Neobehaviorismus = S-O-R-Behaviorismus (Stimulus-Blackbox-Reaktion) in diesem “Zweig” des Behaviorismus werden „mentale“ Konzepte in der Theoriebildung verwendet, Vorläufer der heutigen kognitiven Psychologie zu b) Die Verwendung von intervenierenden O-Variablen wie z.B. Erwartung, Emotionen als Vermittler zw. Reiz und Reaktion. Z.B.: Durst bei der Beziehung zwischen Stunden ohne Wasser und Häufigkeit des Hebeldrucks. Die innerorganismische Variable soll UrsacheWirkungs-Zusammenhänge vereinfacht darstellen. zu c) • Wegen der Verwendung möglichst vieler beobachtbarer Daten & möglichst weniger intervenierender Variablen • Orientierung an beobachtbarem Verhalten, auch bei O-Variablen: O-Variablen werden durch Messvorschriften, logische Regeln & theoretische Zusammenhänge mit beobachtbaren Daten verbunden: Operationismus, z.B. Angst = Fluchtverhalten, logischer Behaviorismus (mentale Konzepte als Dispositionsprädikate (Wissen= Antwortverhalten in Testsituation)); theoretische Zusammenhänge 5. a) Was ist ein hypothetische Konstrukt bzw. eine intervenierende Variable? b)Wie lassen sich Verbindungen zwischen solchen organismischen Variablen und beobachtbaren Daten herstellen? c)Erläutern Sie Ihre Ausführungen mit einem Beispiel. zu a) • hypothetisches Konstrukt, nicht unmittelbar operational fassbarer Begriff, der sich auf nicht direkt beobachtbare oder erschließbare Entitäten, Ereignisse oder Eigenschaften bezieht • Auf rein hypothetischer Ebene eingeführt • Nicht die Verhaltensursache • Im Gegensatz zu beobachtbaren Ereignissen ist die intervenierende Variable ein Begriff, der die Beziehung zwischen beobachtbaren Phänomenen darstellt = eine dazwischentretende Variable zu b und c) organismische Variable muss von beobachtbaren Daten abhängen, z.B. angenommen wir haben 3 abh. Variablen (Häufigkeit Hebel drücken, konsumierte Wassermenge, tolerierte Chininmenge) die durch drei unabh. Variablen (Stunden ohne Wasser, trockenes Futter, Injektion v. Salzlösung) beeinflusst werden, so gibt es 9 Beziehungen zw. den Variablen. Wird die intervenierende Variable „Durst“ mit aufgenommen, muss die Theorie nur noch 6 Ursache-Wirkung- Beziehungen definieren, 3 um die Beziehung zw. unabh. Variable u. Durst zu beschreien und 3 weitere um Beziehung zw. Durst u. abhängigen Variable zu beschreiben. (siehe Aufgabe 6) 6. Warum kann die Einführung einer unbeobachtbaren „mentalen“ Variable für die naturwissenschaftliche Theoriebildung sinnvoll sein, selbst wenn diese nicht direkt mit Beobachtungsdaten verbunden werden kann? • Unbeobachtbare „mentale“ Variablen können eine Theorie mit vielen UVs vereinfachen, da weniger Wirkbeziehungen zwischen den einzelnen UVs erklärt werden müssen. • z.B. Std. ohne Wasser Häufigkeit, mit der Hebel gedrückt trockenes Futter DURST konsumierte Wassermenge Injektion v. Salzlösung tolerierte Chininmenge • weil Forschung in der Psychologie behindert werden würde, wenn Verwendung von intervenierenden Variablen nicht möglich wäre (in anderen fest etablierten Wissenschaften sehr verbreitet, z.B. Schwerkraft in Physik) 7. a) Was ist die Grundidee des radikalen Behaviorismus Skinner’scher Prägung? b) Mit welchen Argumenten kritisiert Skinner die Benutzung mentaler Konzepte in der psychologischen Theorienbildung? zu a) • Selektionsprozesse in Umgebung, dem alle biologischen Organismen ausgesetzt sind • Verhaltensänderung erfolgt nach Gesichtspunkten der Adaptativität („environement selects behavior“) zu b) • intervenierende Variable unnötig, weil Vorhersagekraft nicht gesteigert • verkompliziert Theorie unnötig • gefährlich, dass intervenierende Variable als Grund für bestimmtes Verhalten angesehen wird ≠ Skinner: - Verhaltensweisen in äußerer Umgebung - Änderung der Umgebung Änderung des Verhaltens • mentale Idiome sind nur kulturelle Erscheinungen, welche nur das Zusammenleben vereinfachen durch Zuweisen von Verhaltenseigenschaften, die aber selbst durch die Verhaltensanalyse erklärt werden 8. Worauf beziehen sich allgemeine Gesetze des Lernens? • Verhaltenserklärungen • Regeln der Veränderung des Verhaltens ( Auswirkungen von Erfahrungen) beziehen Ursachen & Gründe mit ein • Verallgemeinerungen, die für jedes Verhalten gelten: Hypothese der Lernpsychologie bzgl. der Veränderung gibt es allgemeine biologische Gesetze • menschliches Verhalten ist zwar variabler, als Verhalten physikalischer Gesetze, aber Lernforschung orientiert sich an Grundsätzen der Physik. 9. a) Was spricht für die Benutzung von Tierversuchen bei der Erforschung allgemeiner Gesetze des Lernens? b) Was spricht dagegen? zu a) pro • Ausschaltung von Placebo-Effekten & erwünschtem Verhalten (im Gegensatz zu Menschen als VP) • bessere Kontrolle von Vorerfahrungen & experimentellen Bedingungen • geringere Komplexität im Vergleich zum Menschen, dennoch prinzipielle Ähnlichkeit • Geringe ethische Einschränkungen • leichte Verfügbarkeit von Tieren (& evtl. billiger) nehmen an allen Versuchen teil, immer pünktlich zu b) contra • Eingeschränktes Verhaltensrepertoire (kein Sprechen, Lesen, Problemlösen) • qualitative Unterschiede zu menschlichem Verhalten • Ethische Bedenken 10. Impliziert die Suche nach allgemeinen Kausalgesetzen des Lernens ein deterministisches Weltbild? • Nein, weil Kausalgesetze nur unter bestimmten Bedingungen gelten, die erst gegeben sein müssen • Die Randbedingungen sind nicht im Gesetz enthalten (können sie gar nicht, sind ja unendlich viele) Gesetz gilt nur, wenn nichts dazwischen kommt • impliziert keinen Determinismus! Kausalgesetz ≠ zwingend • Verhalten wird durch Gründe erklärt, nicht durch Ursachen • Suche ähnelt Chaostheorie es gibt keine Freiheit, man kann nicht alles festlegen man kann Nichts determinieren • Kausalgesetze sind Funktionen mit Fehlerquotienten, die von Eventualitäten bedingt werden können nicht alle vorhergesagt werden wir sprechen von Tendenzen und Trends in der Psychologie • man muss nur akzeptieren, dass sich bestimmte Verhaltensmuster kurzfristig sehr genau voraussagen lassen und allgemeine, langfristige Trends 11. Inwieweit widerspricht eine kausale Erklärung menschlichen Verhaltens und seiner Veränderung der üblichen Erklärung von Handlungen durch Gründe? • Grund ≠ Ursache wie Bsp. Bergsteiger gleiche Gedanken als Ursache oder als Gründe: Beim Bergsteiger, der das Seil gekappt hat, ist der GRUND für den Tod des anderen seine Überlegung, dass es evtl. klüger sei, ihn fallen zu lassen, weil sie sonst beide tot wären. • Beim anderen Bergsteiger gibt es keinen GRUND, sondern nur die URSACHE - das Zögern - welche eine naturwissenschaftlich determinierte Ursache, aber keine durch Überlegung herbeigeführte Entscheidung ist. Da widersprechen sich Grund und Ursache, weil er sich ja nicht dafür entschieden hat. • natürlicher Ursache-Wirkungs-Zusammenhang nur bei empirischem Gehalt des Kausalgesetzes, nicht bei logischem, sprachlichem Zusammenhang, nicht bei pseudoempirischem Gehalt, wie z.B. die Absicht, in die Bibliothek zu gehen – „wenn mir nichts dazwischen kommt“ • nur empirische Sachen können kausal erklärt werden II. HABITUATION 12. Was versteht man unter Habituation? • universales Phänomen: fundamentaler Anpassungsmechanismus • wiederholte, folgenlose Präsentation eines Reizes ohne Bedeutung, ohne Konsequenzen für den Organismus Reaktion auf Stimulus nimmt ab in ihrer Intensität • stimulusspezifisch • Reaktion als Folge des Stimulus habituiert • einfachste Form des Lernens („single event learning“) • nichtassoziatives Lernen (wie Sensitivierung) • asymptotischer Verlauf 13. a) Wie kann man sicherstellen, dass ein Habituationseffekt tatsächlich auf Lernprozesse zurückgeht? b) Welche Alternativerklärung(en) müssen wie ausgeschaltet werden? Geben Sie Beispiele für Untersuchungen, in denen solche Erklärungsalternativen ausgeschlossen wurden. zu a) • stimulusspezifisch, d.h. nicht Reaktion als solche habituiert, sonder Reaktion als Folge auf diesen bestimmten Stimulus (im Unterschied zu sensorischer Anpassung = Adaptation und muskulärer Erschöpfung). Die Fähigkeit des Stimulus, die Reaktion auszulösen sinkt, nicht die Reaktionsfähigkeit als solche • asymptotischer Verlauf Wiederholungseffekt: Reaktion nimmt ab • erneutes Lernen nach Extinktion ist schneller als der 1. Durchgang („Ersparniseffekt“) • Stimuluswechsel oder Kombination alter &neuer Reize gibt neue, starke Reaktion ( dann erst wieder Habituation) wenn dann Fortsetzung alter Stimulus wieder nur schwache Reaktion • es darf kein Gewöhnungseffekt auftreten zu b) • Alternativerklärungen: Ermüdung, -schöpfung und sensorische Anpassung (= Adaptation) • Ratten: Katzenhalsband + Geruch nach Katze Habituation (bleiben kürzer im Versteck) Bild von Katze läuft wieder weg & bleibt wieder lange in Versteck = Dishabituation • Marlin & Müller: Ratte & Ton: neue Reaktion: Ersparniseffekt: Ratte in Stabilimeter- Käfig, lauter Ton in regelmäßigen Abständen präsentiert Schreckreaktion nimmt ab. Warum? Ermüdung: könnte sein, weil am 2. Tag wieder so starke Reaktion, wie im 1.Durchgang = Spontanerholung; Adaption: könnte sein, dass von lautem Ton schlecht hört und am 2.Tag wieder besser aber: 2. Tag, 2.Durchgang: Reaktion nimmt viel schneller ab als am 1.Tag = Ersparniseffekt spricht für grundlegenden Lernprozess und gegen Ermüdung und Adaptation • Groves & Thompson, 1970: Ton und Licht: 2 Gruppen Ratten bekamen 14 mal Ton präsentiert, sie habituierten. Der EG wurde nun ein Blitzlicht und dann der Ton präsentiert. Die Ratten zeigten Schreckreaktion auf den Ton. KG bekam nur einen Ton präsentiert, keine startle reaction. Auch bei EG fiel Schreckreaktion in nächstem Durchgang wieder auf habituiertes Level. Beweis: keine Erschöpfung der Muskulatur, weil Ratten in Dishabituaiontsdurchgang mit Licht robuste Antwort zeigten und keine sensorische Adaptation, weil EG-Ratten Ton sonst ja nicht wahrgenommen hätten, auch wenn vorher Lichtblitz auftrat. 14. Welche Funktion hat Habituation für die adaptive Verhaltenssteuerung? • irrelevante, konsequenzlose Reize ignorieren können, also Vermeidung von Ablenkung & Ressourcenvergeudung durch Reaktionen auf irrelevante Reize • spart Zeit & Energie, die dann für wichtige Reize da ist Aufmerksamkeit! • geringe Habituationsgeschwindigkeit als Prädiktor für Intelligenzdefizit und Fehlentwicklung (= „Intelligenzvorhersage“) 15. Was ist der „Coolidge“-Effekt? Reinstatement (= Wiedereinstellung, Wiederherstellung) der Reaktion bei Wechsel des Stimulus , z.B. bei Schreckreaktion Coolidge Effekt beschreibt Einfluss von Wechsel der Stimuli auf habituierte Reaktion, ist der Wechsel zu gering findet keine Dishabituation statt nicht die Reaktion habituiert, sondern die Verbindung von spez. Stimuli und Reaktion 16. Wie kann man das Phänomen der Habituation nutzen, um basale Wahrnehmungsund Diskriminationsleistungen bei Säuglingen oder bei Tieren zu analysieren? Geben Sie ein Beispiel. • indem man die Stärke der Orientierungsreaktion misst • Bsp.: bei Studie von Johnson & Aslin (1995): Säuglingen teilweise durch weißen Kasten verdeckten Balken-Stimulus gezeigt bis Orientierungsreaktion durch Habituation nachließ, dann Teststimuli getestet: durchgehender Balken Generalisierung: als alter, bekannter Stimulus erkannt und gewertet zweigeteilter Balken: neuer Stimulus, weniger generalisiert neue Orientierungsreaktion • Babys können schon früh diskriminieren, ob Dinge verdeckt sind oder nicht 17. Welche Rolle spielen Reizintensität und Vorhersagbarkeit für die Stärke von Habituationseffekten? Schildern Sie hierzu Aufbau und Ergebnisse der Unersuchung von Davis & Wagner (1969). • Aufbau: 4 Gruppen jeweils 750 Töne präsentiert: 1. Gruppe konstant 120 dB, 2. Gruppe konstant 100 dB, 3. Gruppe aufsteigend von 83-118 dB und 4. Gruppe erhält Töne im gleichen Tonintervall wie Gruppe 3 aber in gemischter Reihenfolge (random- order) • nach 750. Ton wurden alle vier Gruppen mit 120 dB Ton konfrontiert und ihre Schreckreaktion gemessen • Ergebnisse: Erwartung und Vorhersagbarkeit können Habituation erheblich beeinflussen: • Schreckreaktion der 2. Gruppe nimmt während ersten 750 Töne wesentlich schneller und stärker ab als Gruppe 1 (weil schwächere Habituation bei intensiveren Reizen) • im Test mit 120 dB-Ton reagiert 2. Gruppe und 4. Gruppe stärker auf 120 dB- Reiz als Gruppe 1; und selbst wenn Töne bei 3. Gruppe mit wenig Intensität kontinuierlich gesteigert werden, zeigen sie keine Reaktion auf 120 dB-Ton, da Töne als ähnlich zum vorhergehenden empfunden werden (Generalisierung)= perfekte Habituation • Gruppe 1 erwartete einen 120 dB- Reiz →keine erhöhte Reaktion • Gruppe 3 erwartete ebenfalls lauter werdenden Ton → keine Schockreaktion • für Gruppe 2 und 4 war 120 dB-Ton unerwartet und nicht vorhersagbar→ starke Schreckreaktion (Dishabituation) • bei sehr lauten Tönen ist Habituation schwächer • je intensiver der Reiz umso schwächer und langsamer ist Habituation • umso vorhersagbarer der Reiz, also je weniger überraschend desto stärker ist der Habituationseffekt 18. a) Was versteht man unter kurz- und langfristiger Habituation? b) Erläutern Sie in diesem Zusammenhang auch die Begriffe der spontanen Erholung und der Lernersparnis in Bezug auf Habituationsphänomene. zu a) kurzfristige Habituation: • Dissoziationseffekte in Abhängigkeit von Interstimulusintervall • Habituationseffekt steigt schnell an, dauert aber nur wenige Minuten und geht dann wieder weg, nach einem Trainingsdurchgang • 2 sec ISI kurzfristige Habituation langfristige Habituation: • Habituationseffekt steigt langsamer an, bleibt aber länger bestehen (Tage – Wochen), tritt auf bei mehrmals wiederholtem Habituationstraining • 16 sec ISI langfristige Habituation besser zu b) • spontane Erholung = erneutes Auftreten der Orientierungsreaktion bei neuem Training: zu Anfang gleich starke OR beim ersten Lernen, obwohl vorher bei 1. Durchgang schon völlig habituiert war • Lernersparnis = bei erneutem Habituationstraining „lernt“ Vpn /Tier schneller, d.h. Habituationseffekt steigt früher & stärker an: Ersparniseffekt 19. Schildern Sie die Untersuchung (Aufbau und Ergebnisse) von Davis (1970) zur Dissoziation kurz- und langfristiger Habituation. Aufbau: • 2 Gruppen: Prähabituierungsphase: beide Gruppen Töne mit zunehmenden Zeitabstand zwischen den Tönen präsentiert (gleicher Kurvenverlauf→ je länger der Zeitabstand zw. 2 Tönen um so stärker die Schreckreaktion in beiden Gruppen = Beweis für Gleichheit der Gruppen, dann eine Minute Pause • 1x10 Töne im Abstand von 2 sec ISI bzw. 16 sec ISI • messen der Schreckreaktion • bei 2 sec-Gruppe Schreckreaktion viel schneller schwächer als bei 16 sec Gruppe (Kurzzeithabituation) • nach 1 min Pause wieder 1x10 Töne (insges. 100 Töne) • 16 sec Gruppe hat weniger starke Reaktion im Mittel als 2 sec Gruppe, auch in späteren Durchgängen (Langzeithabituation) Ergebnis: • während Habituationstraining: 16 sec Gruppe habituiert langsamer und nur ganz leicht im Gegensatz zur 2 sec Gruppe • nach 1 min Pause: Habituation in 16 sec Gruppe stärker 20. a) Was sind die Kernannahmen der Überraschungs-Theorie der Habituation von Wagner? b) Durch welche experimentellen Ergebnisse wird diese Theorie gestützt? zu a) • Ereignis ist überraschend, wenn noch nicht im KZG gespeichert • Überraschung ≠ Habituation, sondern Lernen von Assoziationen • keine Überraschung Habituation, kein Lernen von Assoziationen zu b) Wagner 1976 • Ratte verbringt Zeit zwischen Training & Test im Experimentalkäfig • ohne Töne Kontext-Ton-Assoziation wird gelöscht keine langfristige Habituation Davis (1970): Kurzes ISI: 2 sec • Schnelle Habituation im Training (Stimulus ist permanent im KZG) • Keine langfristige Habituation, da keine Assoziation zwischen Stimulus und Kontext gebildet wird ( kein Lernen) Langes ISI • Langsame Habituation im Training (Stimulus bleibt nicht im KZG) • Langfristige Habituation über Kontext-Stimulus-Assoziation siehe auch Aufgabe 19 21. a) Schildern Sie den typischen Verlauf emotionaler Reaktionen und ihrer Veränderung nach häufiger Wiederholung. b) Wie lassen sich diese beiden Gesichtspunkte (typischer Verlauf, Veränderung) durch die Opponent-Process Theorie von Solomon & Corbit (1974) erklären? zu a) • zuerst sehr intensive Glücks- oder Angstgefühle • Änderung der Herzfrequenz • Veränderung nach häufiger Wiederholung: wird weniger stark ausgeprägt • zu b) emotionale Reaktionen speisen sich aus 2 internen Prozessen a und b • a: für erste Reaktion verantwortlich, erreicht schnell Höhepunkt der primären affektiven Reaktion, dann relativ konstant (konstantes Niveau), setzt Präsenz des Stimulus aus → Abfall auf 0 • b: = antagonistisch, für Nachreaktion; wird nur in Verbindung mit a-Prozess in Gang gesetzt, entsteht und vergeht langsamer, beginnt während Stimulus noch vorhanden ist, geht über die Zeit des a-Prozesses hinaus • hört Reiz auf, nimmt a-Prozess schnell ab und nur b-Prozess bleibt übrig → bewirkt emotionale Nachreaktion • bei Wiederholung: die erste emotionale Reaktion unterliegt einer Habituation (wird immer schwächer) • gleichzeitig deutlicher Anstieg an Intensität und Dauer der Nachreaktion • → Veränderung = Ergebnis einer Zunahme der Stärke des b- Prozesses • Salomon & Co. gingen davon aus, dass a-Prozess unverändert bleibt, aber der b-Prozess durch die Wiederholung stärker und ohne Wiederholung schwächer wird • bei Wiederholung setzt b-Prozess schneller ein, erreicht höheres Maximum, lässt nach Ende des Stimulus langsamer nach • → wenn Reiz aussetzt ist Gegenreaktion um so stärker • manifeste Reaktion fällt mit Wiederholung deutlich geringer aus 22. Welche empirischen Belege lassen sich für die Opponent-Process Theorie von Solomon & Corbit (1974) anführen? • Toleranz und Entzugserscheinungen bei fortgesetztem Drogenkonsum: Glücksgefühle (positive a-Reaktion), dann unangenehm, später: kaum Glücksgefühle, nahezu permanente negative Nachreaktion („cold turkey“) Droge wird nur noch benutzt um Entzugserscheinungen abzumildern Versuchsergebnisse auf Basis anfangs eindeutig negativer emotionaler Reaktionen : • Church et al., 1966 Reaktionen von Hunden auf Serien von Elektroschocks: Herzfrequenz, winseln & Freude • Epstein, 1967 Veränderung der emotionalen Reaktion von Fallschirmspringern: schockartige Angst, danach Benommenheit, später: kaum Angst, Euphorie nach dem Sprung 23. Welche Funktion haben die b-Prozesse in der Opponent-Process Theorie für die Verhaltensregulation? • b-Prozesse = Nachreaktionen • bewirken, dass wir nicht zu stark reagieren in unseren Emotionen • hält uns in Balance (a-Prozess allein wäre Eskalation der Emotionen) • steuern in gewissem Maße der Aktivität des a-Prozesses entgegen manifeste Reaktion schwächer (weil emotionale Extremsituationen erschöpfen die körperlichen. Ressourcen) 24. Wie verändert sich der zeitliche Verlauf und die Intensität von a- und b-Prozessen durch Widerholung nach der Opponent-Process Theorie? a-Prozess: • sobald Ereignis eintritt: schnelle Reaktion auf Reiz, die rasch zu Maximum ansteigt und dort bleibt, verläuft konstant auf Maximum solange Stimulus präsent ist • setzt Stimulus aus a-Prozess endet • bei Wiederholung: a-Prozess bleibt gleich nur die Differenz a-Prozess – b-Prozess, also die emotionale Reaktion unterliegt der Habituation und wird schwächer b-Prozess: • eine Art Gegenreaktion zu a-Prozess • durch a-Prozess ausgelöst • wenn Reiz ausklingt: b-Prozess ist stärker, weil länger aktiv, entsteht und vergeht langsamer als a-Prozess • durch Wiederholung: setzt schneller ein • erreicht höheres Maximum, wird also stärker • lässt am Ende des Stimulus langsamer nach III. KLASSISCHE KONDITIONIEREUNG – TEIL 1 (KK) 25. a) Beschreiben Sie den Versuchsablauf bei Pavlov’s Experimenten zur Konditionierung des Speichelflusses. Erläutern und benutzen Sie hierbei die Begriffe US, UR, CS und CR. US ist der unkonditionierte Stimulus, ein Stimulus, auf den man „automatisch“ reagiert, z.B. Futter. Die „automatische“ Reaktion heißt UR, unkonditionierte Reaktion, z.B. Speichelfluss. In der Kontrollphase folgt auf einen NS (=neutraler Stimulus, z.B. Glockenton), eine OR (=Orientierungsreaktion), d.h. das Tier wendet z.B. den Kopf in die entsprechende Richtung aus der der Ton kommt. In Pavlov’s Experiment wird in der Konditionierungsphase ein NS Glockenton präsentiert, daraufhin folgt der US Futter und dann reagiert das Tier (bei Pavlow meist ein Hund) mit der UR Speichelfluss. Ergebnis: Nach einigen Wiederholungen der Paarung von NS und US wird der NS zum CS (=konditionierter Stimulus, z.B. Glockenton), d.h. der Hund reagiert auf den CS alleine, ohne dass der US folgen muss, mit Speichelfluss, wobei diese Reaktion jetzt nicht mehr unkonditioniert ist, und deshalb CR (= konditionierte Reaktion) heißt. 26. Von welchen Faktoren hängt die Stärke der Konditionierung einer einfachen Reaktion ab? • Kontiguität: Zeitlicher Abstand zw. US und CS (kurze Verzögerung, 1 Sek führt zu schnellerer und stärkerer Konditionierung) • Kontingenz: Vorhersagewert eines CS (= Wahrscheinlichkeit, mit der der US nach dem CS auftaucht während der Konditionierungsphase) • Salienz des CS: Stärke, Intensität, Auffälligkeit: je auffälliger CS desto stärker die CR • Stärke des US • biologische Preparedness 27. Was versteht man unter einer konditionierten emotionalen Reaktion? Schildern Sie den Ablauf eines typischen Experiments. • CER = conditioned emotional reaction,(z. B. conditioned suppression) • Eine konditionierte emotionale Reaktion ist eine emotionale Reaktion, die aufgrund eines CS ausgelöst wird, der normalerweise keine solche Reaktion bewirken würde. • z.B. Elektroschock bei Ratten im Experimentalkäfig: Verhaltensunterdrückung: ca. 15 sec. vor Schock ertönt Ton Ratte reduziert im Intervall zw. Ton & Schock die Rate des Hebeldrückens , weil der Ton = CS eine negative emotionale Reaktion auslöst, er kündigt ja den Schock = US an Interesse an Futter vergeht 28. Wie lässt sich konditioniere Verhaltensunterdrückung quantifizieren? Verhaltenshäufigkeit unter CS Unterdrückungsindex (Q): Verhaltenshäufigkeit unter CS + Verhaltenshäufigkeit unter ¬CS Verhaltensrate nach CS verglichen mit Verhalten vor CS keine Unterdrückung: Q = .5 perfekte Unterdrückung: Q = .0 29. Mit welcher Methode ließe sich untersuchen, ob bestimmte Bilder eine emotionale Reaktion auslösen, selbst wenn anzunehmen ist, dass die Untersuchungsteilnehmer versuchen könnten, diese zu verbergen? • Hautleitfähigkeit messen: Elektrogalvanische Hautreaktion = physiologischer Indikator für emotionale Reaktion, lässt sich nicht unterdrücken (SCR= skin conductance response) z.B. wird durch Angst Schweiß produziert Hautleitfähigkeit nimmt zu 30. Erläutern Sie, was mit verzögerter, simultaner, zeitlicher und rückwärtsgerichteter Konditionierung gemeint ist. • verzögerte Konditionierung: CS vor US: zeitlicher Abstand dazwischen, CS deutlich länger als US Tier lernt, dass CS den US ankündigt und die Reaktion beginnt schon früh. In den ersten Trainingseinheiten wird die CR (z.B. Speichelfluss) sofort nach Einsetzen des CS beginnen, auch wenn der US erst viel später folgt, erst nach einigen Trainingsdurchgängen setzt die CR später ein, auch wenn der CS schon begonnen hat, aber das Tier hat gelernt, dass der US nicht sofort kommt, wenn der CS ertönt • simultane Konditionierung: CS und US gleichzeitig präsentiert kein Lernen, weil CS keine Information besitzt, die über die des US hinausgeht keine Reaktion auf CS • zeitliche Konditionierung: ohne CS: US in regelmäßigen Abständen präsentiert das Verstreichen der Zeit seit dem letzten US fungiert als CS wenn Zeit verstrichen ist kommt die Reaktion auch ohne US, d.h. die Zeit ist als CS etabliert und es folgt die CR aufgrund der Erwartung des US, auch wenn dieser nicht auftritt • rückwärtsgerichtete Konditionierung: CS wird nach US präsentiert. Funktioniert nicht, weil eigentlich kein Ankündigungswert: CS = Funktion als Sicherheitssignal: kündigt das Ende des US an, ist also eine Kontrollbedingung 31. Beschreiben Sie den Verlauf der Konditionierung während der Akquisition und Extinktion. Wie lässt sich das hierbei typische Ergebnis erklären? Akquisition = Erwerbs-, Aneignungsphase = Konditionierungsphase, in der VPn zum 1. Mal mit der Paarung CS+US konfrontiert wird. • Geschwindigkeit des Erwerbs und Stärke der CR sind abhängig von der Stärke und Intensität des US und der Salienz (Intensität) des CS: stärkere Stimuli schnellere Konditionierung höhere Asymptote • die Wahrscheinlichkeit des Auftreten einer CR nimmt in den ersten Durchgängen stark zu und nähert sich dann an ein Plateau an • Ergebnis: Stabiles Maximum an konditionierten Reaktionen, das im Laufe der Konditionierung allmählich erreicht wird = Asymptote Extinktion = Auslöschung • Voraussetzung für echte Extinktion: entgegengesetzte Erfahrungen: Löschung erfolgt nur, wenn CS ohne US auftritt • Zeit allein lässt CR nicht verblassen: Verstreichen von Zeit allein reduziert die Stärke der CR nicht • z.B. Glocke ohne Futtergabe: - Löschung erfolgt (wie Akquisition) allmählich - Beginn der Extinktionsphase: Menge des Speichels nimmt von Mal zu Mal stark ab (=CR ↓) - Gegen Ende: Abschwächung der CR langsamer - letztlich verschwindet CR vollständig → dabei ist an jedem neuen Tag der Extinktionsphase die CR zu Beginn einer Sitzung noch stärker als am Ende der Extinktionsphase des Vortages → Ursache = Spontanerholung 32. Was versteht man unter dem Phänomen der Disinhibition bei der klassischen Konditionierung? • wenn Extinktionsphase weit fortgeschritten ist, kann trotzdem die verhinderte Reaktion (=Inhibition) kann wiedererlernt werden, z.B. Glocke – Speichel: Inhibition Summer vor Glocke Speichel wieder • Präsentation eine ablenkenden Stimulus fragile Inhibition unterbrochen, das nennt man Dishabituation. Erklärung: Wettkampf zwischen inhibitorischer und exzitatorischer Konditionierung (Konorski, 1948) • exzitatorische Assoziation ist weniger von ablenkenden Stimuli beeinflussbar, stabiler (umstrittene Theorie) 33. Was versteht man unter Ersparniseffekten bei der klassischen Konditionierung? • Ersparniseffekte = nach Extinktion kann die CR in neuem Durchgang (am nächsten Tag o. ä.) wieder viel schneller erlernt werden als beim ersten Lernen: • wenn auf eine Akquisitionsphase eine Extinktionsphase folgt und anschließend eine neue Akquisitionsphase mit dem selben CS und US wie in der ersten Akquisitionsphase durchgeführt wird, dann ist der Lernerfolg in der zweiten Akquisitionsphase wesentlich größer aufgrund des Ersparniseffektes aus erste Akquisitionsphase → Lerntempo wird schneller • teilweise durch Spontanerholung zu erklären 34. Was ist ein CS-? CS- ist ein inhibitorischer CS = konditionierter Inhibitor = ein CS, der das Auftreten einer CR verhindert oder diese reduziert (kündigt das Ausbleiben des US an) – sog. „Gegenreiz“ 35. Nennen Sie zwei verschiedene Methoden, einen Stimulus als CS- zu etablieren. a) CS- mit bereits etabliertem CS+ während der Extinktion präsentieren b) CS+/ CS- ohne US präsentieren, CS+ allein mit US präsentieren (conditioned inhibition training) 36. Mit welchen drei Methoden kann man zeigen, dass ein CS zu einem „konditionierten Inhibitor“ geworden ist? Erläutern Sie die Logik des Vorgehens und skizzieren Sie jeweils einen schematischen Versuchsablauf. a) Summationstest: • wenn z.B. Lichtblitz ein Inhibitor ist, dann muss er die Fähigkeit haben, die CR, die durch jeden CS hervorgerufen wurde, zu verringern, z.B. nicht nur die CR auf Metronom, also nicht nur die CR auf einen CS, der schon mit dem Inhibitor gepaart wurde, z.B. müsste dann der Lichtblitz als CS- auch die CR auf einen taktilen Stimulus reduzieren, obwohl dieser noch nie zuvor mit dem CS- gepaart worden ist. Skizze: • I. CS1+ US UR; CS wird etabliert: CS1+ CR • II. CS2+ US UR, CS2+ wird als CS etabliert, dann Paarung CS2+ mit CS- ¬US folgt • III. CS1+ mit CS- gepaart kleinere/ keine CR b) Retardationstest = Verzögerungstest • Messung der Zeit, die nötig ist, um einen exzitatorischen CS also einen CS+ aus dem konditionierten Inhibitor CS- zu machen • Wenn CS vorher ein CS- war, sollte es länger dauern, weil erst die inhibitorischen Eigenschaften wett gemacht werden müssen Skizze: • I. CS1+ US UR, CS1+ wird als CS etabliert: CS1+ CR • II. CS1+ gepaart mit CS- ¬US, CS1/ CS- ¬CR • III. CS- US, CS- CR etablieren dauert länger, als etablieren von NS zu CS+ CR (im Vergleich zu neuem Lernen nach Extinktion) = RETARDATIONSTEST c) resistance to reinforcement: • CS- verhindert den Erwerb einer CR auf einen CS+ • I. CS1+ (Futter) CR (Speichel) • II. CS1+ (Futter) gepaart mit CS- nichts • III. CS2+ gepaart mit CS- Futter; also: CS2+ CR wird schwächer 37. Welcher Verlauf bzgl. der CR ist zu erwarten, wenn man von zwei unterschiedlichen Stimuli parallel einen als CS+ und den anderen als CS- aufbaut? • Tier muss erst lernen zu diskriminieren, erst Generalisierung, d.h. CR steigt erst für beide Stimuli an: also zu Beginn der Testphase Generalisierung • erst nach mehreren Durchgängen setzt Diskriminierung ein (CR steigt bei CS+ und fällt später dann bei CS-) • Tier lernt also Diskrimination, d.h. bei CS+ wird die CR erst später entwickelt als bei normaler Etablierung eines CS+ ohne gleichzeitige Präsentation eines CS-, dann wird CR immer stärker, bei CS- wird die CR immer schwächer, bis keine CR mehr auf den CS- folgt (aber nur, wenn CS+ und CS- deutlich voneinander zu unterscheiden sind) 38. Was versteh man unter einem Generalisierungsgradienten bei der klassischen Konditionierung? Unterscheiden Sie exzitatorische und inhibitorische Generalisierungsgradienten? • exzitatorisch: steilerer Gradient(Unterschiede zum Teststimulus haben größere Effekte auf die CR → je weiter Reiz vom Testreiz abweicht, umso geringer ist die CR) • inhibitorisch: flacherer Gradient(je weiter die Intensität der Reize von dem ursprünglichen CS- -Reiz abweicht, umso stärker ist die CR → Unterschiede zum CS- haben geringere Effekte) • Definition: graphische Darstellung der Generalisierung der CR auf dem CS ähnliche Stimuli • x-Achse: verschiedene Stimuli (unterschiedlich stark generalisiert, CS+, CS- in der Mitte) • y-Achse: Stärke der CR auf die Stimuli • Potential des Stimulus, der CR auslöst, ist umso größer, je ähnlicher er dem ursprünglichen CS, also dem Trainingsstimulus ist. • z.B. Semantische (Haus-Gebäude) und graphemische, phonetische (Haus-Maus) Generalisierung bei Kindern 39. Unter welchen Bedingungen kann eine experimentelle Neurose entstehen? Wie erklärt man sich dieses Phänomen? • Wenn ein Konflikt zwischen inhibitorischer und exzitatorischer Konditionierung besteht kann eine experimentelle Neurose entstehen • Erklärung: Es kommt zu einem Kollaps im Lernen, wenn die Unterscheidung nicht mehr möglich ist und der gesamte Diskriminationsprozess bricht zusammen globaler Verlust des Lernens • z.B. Hunden wird ein Kreis als CS+ präsentiert sie erhalten Futter: US daraufhin wird eine Ellipse als CS- präsentiert sie erhalten kein Futter: ¬US stufenweise Annäherung zw. Kreis und Ellipse Hunde können irgendwann nicht mehr zuverlässig unterscheiden, jaulen, kennen sich nicht mehr aus 40. Definieren Sie die Begriffe Furcht und Angst. Bei welchem der beiden Phänomene spielen Prozesse der klassischen Konditionierung wahrscheinlich eine zentrale Rolle? Furcht: ist rational, Situation ist wirklich bedrohlich, Reaktion ist begründet, nachvollziehbar, objektbezogen, z.B. wenn Löwe im Zoo ausbricht und dich bedroht Angst: ist indifferenter, nicht so konkret, diffus, Angst auslösendes Objekt hat Signalfunktion → Phobie: • starke Ängste bei bestimmten Situationen, die das Verhalten beeinflussen • nicht mit Argumenten zu bekämpfen • unbegründet • eigentliche Ursache hinter CS nicht mehr erkennbar klassische Konditionierung (bei Furcht nicht): Angstreaktion, die sonst bei US auftritt, tritt schon beim CS auf, wenn US mit CS kombiniert wird Übernahme der angsteinflößenden Eigenschaften es entsteht ein Signalcharakter, der nicht gelöscht werden kann 41. Wenn zufällige Kopplungen zwischen bestimmten Reizen und unangenehmen Zuständen für die Entstehung von Phobien verantwortlich sind, warum verschwinden diese Phobien nicht wieder von allein durch Extinktion? Phobien: • sehr robust, resistent, weil sie nicht gelöscht werden • weil man Situationen meidet, in denen Phobie zu Tage treten würde und in denen CS alleine auftreten könnte es kann gar keine Extinktion stattfinden • wenn man sich in eine solche Situation begibt, nimmt man eher das Negative wahr 42. Beschreiben Sie die Methode der systematischen Desensibilisierung nach Wolpe (1985). Was ist die zugrunde liegende Idee dieses Verfahrens? • I. Angsthierarchie konstruieren • II. Muskelentspannungstraining: zugrunde liegende Idee: langsames Heranführen des Phobikers an immer „schlimmere“ Angstsituationen, bei für den Patienten ganz harmlosen Situationen wie Vorstellung beginnend, so dass Angst möglichst minimal bleibt, aber Extinktion stattfindet • III. Muskelentspannungstraining bis der Patient völlig entspannt ist in dieser Situation und die Angst vollkommen weg ist, dann erst nächste Stufe usw. 43. Erfinden Sie ein Trainingsprogramm zur Reduktion des Konsums von Süßigkeiten, das auf Prinzipien der klassischen Konditionierung basiert. • Geschmacks-Aversion: Abhängigkeit als Defizit der Verhaltenskontrolle, reizgesteuertes Verhalten ohne Beachtung der Konsequenzen • Koppelung der Versuchungsreize (Süßigkeiten US UR = keine Reaktion) mit aversiven Konsequenzen (Beigabe Übelkeit erregender Stoffe als CS Übelkeit als CR) → Vermeidungsverhalten man isst nichts Süßes mehr 44. Wie lässt sich die Entstehung einer globalen Nahrungsmittelaversion bei einer Chemotherapie verhindern? • starker Geschmacksstoff als CS, der in normalen Nahrungsmitteln nicht vorkommt vor der Therapie einnehmen, Stoff =z.B. Wasser mit Geschmacksstoff • Geschmacks-Aversion wg. Übelkeit aufgrund von Chemotherapie wird auf Geschmacksstoff bezogen & nicht auf zuvor gegessene Nahrungsmittel 45. Wie kann man sich Prinzipien der klassischen Konditionierung zunutze machen, um sich auch in Stressphasen gegen Infektionen zu schützen? • unter neutralen Umständen Koppelung eines CS mit einem immunaktivierenden US • in Stressphasen reicht CS aus, um die Wirkung des US hervorzurufen • z.B.: Interferon-Injektion aktiviert, stärkt das Immunsystem • CS = Geschmacks-/ Geruchsstoff wird (im Urlaub o. ä.) etabliert mit Interferon-Injektion als US und Stärkung des Immunsystems als UR • CS löst bald alleine die Immunstärkende Reaktion (jetzt CR) aus und kann Organismus in Stressphasen gegen Infektion schützen IV. KLASSISCHE KONDITIONIERUNG – TEIL 2 (KK) 46. Erläutern Sie den Begriff der Kontingenz für die klassische Konditionierung. Benutzen Sie bei Ihren Erklärungen eine 4-Felder-Tafel, um die relevanten bedingten Wahrscheinlichkeiten zu erklären. • Kontingenz beschreibt den systematischen Zusammenhang der Ausprägungen des CS und des US, ist also der Vorhersagewert des CS: der Zusammenhang, das Miteinanderauftreten zweier qualitativer Merkmale, die Wahrscheinlichkeit des Auftretens eines US unter der Bedingung, dass der CS kommt oder nicht P(US|CS) ≠ P(US|¬CS) P(US|CS) – P(US|¬CS) = Vorhersagewert Differenz positiv, wenn Stimulus exzitatorisch Differenz negativ, wenn inhibitorischer Stimulus Differenz null kein Vorhersagewert CS a=7 c=0 ¬CS b=0 d=? P(US|CS) = a / (a + c) = 7 / (7 + 0) = 1 US P(US|¬CS) = b / (b + d) = 0 / ? = 0 ¬US Basisrate: b und d, P(US|¬CS) oder P(¬US|¬CS) der Vorhersagewert eines CS ist in diesem Fall 1 Nur wenn a/a+c > b/b+d, also P(US|CS) > P(US|¬CS) besteht Kontingenz bzgl. des gekoppelten Auftretens von CS und US. 47. Wie müssen die bedingten Wahrscheinlichkeiten von US unter CS bzw. US ohne CS beschaffen sein, damit exzitatorische bzw. inhibitorische Konditionierung entsteht? In welchem Fall ist nicht mit einer Konditionierung zu rechnen? • Exzitatorische Konditionierung: P(US|CS) > P(US|¬CS) • Inhibitorische Konditionierung: P(US|CS) < P(US|¬CS) • Keine Konditionierung, wenn gleich viele Paarungen CS-US und CS ohne US oder US ohne CS vorher, also wenn P(US|CS) = P(US|¬CS) keine Konditionierung, weil kein Vorhersagewert, keine Kontingenz (oder bei Überschattung) 48. Wie lassen sch Kontingenzeffekte von Effekten der Häufigkeit einer CS-US-Paarung experimentell trennen? Beschreiben Sie hierzu die Logik der Experimente von Rescorla (1968) • Konditionierung ist die direkte Funktion der Kontingenz (örtliche Nähe), nicht der Häufigkeit/Anzahl der Paarungen! (Kontiguität = zeitliche Nähe) • Kontingenz = Unterschied/Differenz zwischen Basisrate, bei der der US alleine auftritt und der Experimentalrate, bei der der US gekoppelt mit dem CS auftritt • je höher die Basisrate, desto geringer der Grad der Konditionierung • Es kommt immer zu Konditionierung, wenn der CS die Wahrscheinlichkeit des Auftretens des US in Bezug auf die Basisrate erhöht • gelernt wird also aus der Differenz zwischen Paarung und nicht Paarung (Kontingenz) und nicht aus der reinen Häufigkeit der Paarungen • Experiment-Logik: beim Versuch zur Dissoziation von Kontingenz- und Häufigkeitseffekten von Rescorla wurden drei Gruppen gebildet mit P(US|CS) = 0.4; 0.2; oder 0.1 und der Grad der Konditionierung untersucht in Abhängigkeit von der Basisrate P(US|¬CS). Es zeigte sich, dass die Konditionierung umso besser war, je größer die positive Differenz P(US|CS) - P(US|¬CS) und somit die Kontingenz war. So zeigte z.B. die P(US|CS)= 0.4 –Gruppe bei einer Basisrate von P(US|¬CS)=0 einen höheren Grad der Konditionierung, als die P(US|CS)= 0.1 –Gruppe. Des weiteren fand keine Konditionierung mehr statt, sobald P(US|CS) gleich der Basisrate und somit keine Kontingenz mehr vorhanden war. 49. Was versteht man unter einem Übererwartungseffekt? Wie könnte ein Experiment aussehen, um einen solchen Effekt für die Konditionierung einer konditionierten emotionalen Reaktion nachzuweisen? • Kombination zweier bereits etablierter CS mit gleichem US führt zur Abschwächung der CR auf die einzelnen Stimuli: • I. CS1 und CS2 unabhängig voneinander auf gleichen US konditioniert, Stärke der Konditionierung nimmt unabhängig voneinander zu, Erwartung ist gleich • II. gemeinsame Präsentation von CS1 und CS2 aber nur ein Futterpellet als US Erwartung: 2 Futterpellets, also Summe der Erwartungen von CS1 und CS2, aber Realität: US ist nur 1 Futterpellet Erwartung war eine Übererwartung hinsichtlich des Umfangs des US. Beide CS erfahren dadurch inhibitorische Konditionierung. Die beiden einzelnen Stimuli lösen dann in der Testphase eine schwache CR aus: • III. = Testphase: CS1 allein und CS2 ohne US präsentiert Tier zeigt schwächere CR bei jedem der CS, da die Erwartung in Phase II minimiert, verringert wurde 50. Was ist ein Blockierungseffekt? Schildern Sie hierzu die Logik des Experiments und die Ergebnisse von Kamin (1968). • keine Abweichung von der Erwartung (A = Σ Scs) • Kopplung eines neuen CS2 mit einem bereits etablierten CS1 bei gleichem US bewirkt keine Konditionierung bzgl. CS2, weil dieser durch CS1 blockiert wird: • Experiment von Kamin: 2 Gruppen von Ratten • I. Phase: Blockierungsgruppe: Licht+ (d.h. mit folgendem US: Schock präsentiert) bis Licht starke CR auslöst Kontrollgruppe: I. Phase ohne Stimuluspräsentation, also Baseline Bedingung • II. Phase: beide Gruppen: Licht und Ton mit US CR etabliert, • Testphase: beide Gruppen: Ton ohne US präsentiert = Extinktionsdurchgänge beobachten, wie sehr bzw. ob Konditionierung von Licht auf den Ton als CS abgefärbt hat, beide Gruppen gleiche Anzahl von Ton und Schock-Paarungen • Ergebnisse: Kontrollgruppe: starke CR auf den Ton alleine Blockierungsgruppe: so gut wie keine CR auf den Ton ohne US die Information, die mit Licht assoziiert wurde muss die Information des Tons blockiert haben. 51. Welche zentralen Ergebnisse sprechen gegen die These, dass die Stärke einer konditionierten Reaktion proportional ist zur Häufigkeit zeitlich benachbarter CSUS-Paarungen? • Übererwartungseffekt: viele Paarungen von Licht und Ton mit US Futter, trotzdem schwache CR auf beide einzeln, wg. Übererwartungseffekt • Kontingenz ist entscheidend, also Wahrscheinlichkeit, wie gut der CS den US vorhersagt, nicht die Häufigkeit der Paarungen • Rescorla-Wagner-Modell: Stärke der Abweichung von Erwartung & tatsächlichem Reiz (US), also der Überraschungseffekt, bestimmt die Stärke der Konditionierung. Je nach Richtung der Abweichung exzitatorische oder inhibitorische Konditionierung • bei Akquisition, Extinktion, Überschattung = asymptotischer Verlauf • Salienz des CS entscheidend für Ausmaß der Konditionierung 52. Inwieweit kann man den Ablauf einer Prozedur zur konditionierten Inhibition durch Kopplung eines CS- mit einem CS+ in dessen Extinktionsphase als Blockierungsphänomen beschreiben? Was wird wodurch blockiert? Konditionierte Inhibition Blockierung I. CS+ US CR I. CS1 US CR II. CS+/ CS- ¬US CR II. CS1/ CS2 US CR III. CS1 US CR III. CS+ ¬US CR IV. CS2 US ¬CR • Löschung des CS+ wird durch CS- blockiert, weil CS- ja das Ausbleiben des US in II. Phase angekündigt hat • wenn in Löschungsphase (Extinktionsphase) von CS+ gleich beim ersten Durchgang ein anderer CS präsentiert wird, dann übernimmt dieser CS die Funktion eines CS-, also eines konditionierten Inhibitors, der die Information trägt, dass US nicht auftreten wird und das ist dann der Grund, warum keine CR auftritt • die Löschung ist praktisch gestoppt, blockiert: CS+ alleine CR • wenn der CS+ allerdings weiter ohne US präsentiert wird kommt es allmählich zur Löschung 53. Durch welche Maßnahme lässt sich ein Standard-Blockierungseffekt vermeiden bzw. aufheben? • CS2 muss neue Information zusätzlich zu der Information des CS1 bringen, zB stärkerer US • d.h. CS2 muss einen Ankündigungswert besitzen und Überraschung bringen • dann kann der CS1 den CS2 nicht vollständig blockieren • Auflösung der Blockierung durch Blockierung der Kontext-US-Assoziation, eigentlicher Reiz wird durch Kontext (= Assoziation mit Experimentalsituation) blockiert • anderer Reiz muss stärker sein als der Kontext Blockierung aufgehoben 54. Wie lautet die Formel des Rescorla-Wagner-Modells der klassischen Konditionierung? Erläutern Sie jede Komponente der Formel inhaltlich. ∆ Vcsi = Scsi · (Aj – Σ Vcs) Veränderung der Erwartung = Veränderung der Stärke der konditionierten Reaktion • ∆ = Veränderung der Stärke eines CS bei einem einzigen Konditionierungsdurchgang • V = US-Erwartung gegeben CS, also die Stärke der CR nach bzw. unter dem CS • S = Salienz (0 ≤ S ≤ 1) beeinflusst Lernen/Konditionierbarkeit unbemerkt maximale Salienz, perfektes Lernen je salienter, also auffälliger der Reiz, desto stärker die Konditionierung • A = US-Stärke (0 ≤ A, d.h. es gibt keinen negativen US) • Σ Vcs = Summe der US-Erwartungen aller anwesenden CS additives Modell, Konfigurationseffekte als jeweils eigene CS • i = bezieht sich auf jeden einzelnen CS, j = bezieht sich auf jeden einzelnen US 55. Benutzen Sie das Rescorla-Wagner-Modell, um folgende Phänomene zu erklären: Akquisition, Extinktion, Überschattung, Übererwartung, Blockierung. Illustrieren Sie Ihre Erläuterungen jeweils mit einer Beispielrechnung zur Veränderung der Assoziationsstärken. Akquisition: • Lernzuwachs ist asymptotisch mit Konvergenz auf A • I. Erwartung: CS: Licht = 0 US: 100 > Erwartung: Vsum= VL = 0 US: Schock = 100 100 – 0 = 100 exzitatorische Konditionierung • ∆ VCSi = 0.2 · (100) = 20 Erwartung von Licht VL muss im I. Durchgang um 20 steigen • angenommene Salienz: SL = 0.2 Erwartung +20 100 – 20 = 80 • II. Erwartung: ∆ VCS1 = 0.2 · (100 – 20) = 16 US > Erwartung (Erwartung war bei 20) exzitatorische Konditionierung Erwartung muss im II. Durchgang um 16 steigen • Erwartung steigt mit jedem Durchgang, erwartet aber jetzt noch nicht 20 + 16 = 36! • erst nach dem II. Durchgang: VCS1 = 20 + 16 = 36 Differenz wird mit jedem Durchgang kleiner Konditionierung wird mit jedem Durchgang weniger: III. Durchgang: ∆ VL = 0.2 · (100 – 36) = 12.8 VL = 12,8 + 36 = 48.8 • wenn nach dem CS die Erwartung der Erlebensintensität entspricht, so ist die Asymptote von 100 erreicht • ∆ VCS1 = SCS1 · (A1 – Vsum) Extinktion: • Licht = CS • Vsum = VL und VL = 90 weil schon konditioniert, aber asymptotisch, also nicht 100 • angenommene Salienz des Lichtes SL = 0.2 • I. Licht ohne Futterpellet (US) präsentiert US: 0 < Erwartung: Vsum = VL = 90 ∆ VL = .2 * (0-90)= -18→ VL müsste im 1. Durchgang um 18 Einheiten sinken • II. beginnen wir mit VL (und damit Vsum) bei 90-18 = 72 ∆ VL = .2 * (0 - 72)= -14.4 → VL müsste im 2. Durchgang um weitere 14.4 Einheiten sinken nach 2. Durchgang: VL= -18 -14.4= -32.4 → bei weiteren Durchgängen würden sich VL –Werte asymptotisch 0 annähern, d.h. bei einfacher Extinktion ist anfängliche Abnahme von VLs am größten und Senkung nimmt immer mehr ab, asymptotische Abnahme mit Konvergenz auf 0 Überschattung: CS1 = Licht mit SL =0.2; CS2 = lautes Geräusch mit SN = 0.5 • I. Vsum = VL + VN = 0 → Diskrepanz zw. A und Vsum = 100 ∆ VL = .2 * (100 -0) = 20 und ∆ VN = .5 * (100 -0) = 50 → nach 1. Durchgang beträgt Vsum = 20 + 50 =70, d.h. zu Beginn des 2. Durchgangs ist Differenz zw. A und Vsum nur noch 30 • II. ∆ VL = .2 * (100 -70) = 6 und ∆ VN = .5 * (100 -70) = 15 • → Gesamtanstieg in Durchgang 2 beträgt 21, d.h. nach 2 Durchgängen Vsum = 70 +21 = 91 • → wegen der beiden CS nähert sich Vsum viel schneller an A an • → auffälliges Geräusch hat bei Annäherung an 100 im 10. Durchgang über 70 Einheiten der Stärke usurpiert und somit kann Licht nie über 30 steigen. Licht wird durch lauten Ton überschattet und nie so stark konditioniert wie ohne Ton • Regel 5: auffälligere Stimuli führen schneller zur Konditionierung = SALIENZ auffälligerer Stimulus hat mehr exzitatorische Wirkung und deshalb gibt es kaum eine/keine exzitatorische Wirkung auf den schwächeren Stimulus Übererwartung: • I. CS1 = Licht mit SL =.2; mit 1 Futterpellet (A=100) schon auf Erwartung: VL = 100 gebracht, CS2= Ton mit ST = .2; mit 1 Futterpellet (A=100) schon auf VT = 100 • II. CS1 Licht und CS2 Ton zusammen präsentiert, aber nur 1 Futterpellet als US • Modell sagt, dass Stärke aller konditionierten Stimuli, die beim Durchgang anwesend sind, abnimmt, wenn die Erwartung des US erhöht ist (A < Vsum) • da VL am Anfang 100 ist, und VT auch, ist Vsum = 200 und neuer US aber nur A=100 • I. ∆ VL = .2 * (100 - 200)= -20 ∆ VT= .2 * (100 - 200)= -20 • → wegen der Übererwartung gehen den Stimuli VL und VT jeweils 20 Stärkeeinheiten verloren → Vsum ist jetzt VL +VT= 200 -20 -20 = 160 • II. ∆ VL = .2 * (100 -160)= -12 ∆ VT= .2 * (100 -160)= -12 → beim zweiten Durchgang verlieren VL und VT jeweils 12 Stärkeeinheiten → Vsum ist jetzt VL +VT= 160 -12 -12 = 136 VL und VT wird weniger positiv, und auch Vsum nähert sich einer Asymptote von 0 Blockierung: • wird Stimulus Licht in Phase 1 mit Futterpellet kombiniert, so dass am Ende VL =90: US wird fast perfekt durch CSL vorhergesagt, SL= 0.7, A=90 • in Phase 2 Licht und Ton präsentiert, beide S= 0.7: Ton kann keine Veränderung in der konditionierten Stärke verursachen, da (A – Vsum) = 90 – 90=0, d.h. keine Abweichung von der Erwartung mehr möglich→ kein Lernen, weil keine Diskrepanz zwischen Erwartung und Ergebnis 56. Erklären Sie das Ausbleiben einer Konditionierung trotz häufiger CS-US-Paarungen bei nicht vorhandener Kontingenz auf der Basis des Rescorla-Wagner-Modells. Durch welche zusätzliche experimentelle Evidenz wird diese Erklärung gestützt? • keine Kontingenz bedeutet: keine hohe Wahrscheinlichkeit des Auftretens des US gegeben CS, also niedrige Vorhersagekraft des CS • trotz häufiger Paarung von CS und US kommt es zu keiner Konditionierung, weil CS keine neue Information bringt, also keine Überraschung • Kontext blockiert den Erwerb der CS-US-Assoziation durch Kontext-Assoziation senkt Erwartungsaspekt • Rothermund: Auflösung der Blockierung durch Blockierung der Kontext-US-Assoziation Kontext schluckt Erwartungseffekt, Kontext sagt alles vorher keine Diskrepanz zwischen Erwartung und Ereignis kein Lernen möglich = Erklärung des RescolaWagner-Modells • Skizze, wie das funktioniert: 4 Felder Tafel: CS + Kontingenz = P(US+| CS+) – P(US+| CS-) = a/ (a + c) – b/ (b + d) = Baseline 10/ (10 + 0) – 10 / (10 + 10) = + 10 a b 10 1 – 0,5 = 0,5 US 0 c d 10 P, dass CS auftritt = 50% höher als in Baseline a+c b+d= = Zeitsegment, in dem weder US noch CS identifizierbar war • Summe von Vcs = 0 • ∆ V = S · (A – 0) • ∆ V = S · A S und A während des Experiments unverändert keine Änderung in der Erwartung, kein Lernen, da keine Überraschung keine Konditionierung • ∆ V = Scsi · (Al – Σ Vcs) bei häufiger Paarung ohne Kontingenz gibt es keine Erwartungsänderung, weil CS den US nicht sicher vorhersagt keine Änderung der Stärke der konditionierten Reaktion • Welchen Anteil hat a an Spaltensumme a + c? • Welchen Anteil hat b an Spaltensumme b + d? • Evidenz: (Durlach, 1983) Futter gleich wahrscheinlich bei Licht und kein Licht, alle US die nicht durch Licht angekündigt werden, werden es in EG durch Ton, dann Test: Tiere auf Licht häufiger reagiert, als KG, obwohl Kontingenz Licht-Futter gleich war, aber Ton nur mit Kontext gepaart war Kontext blockiert Konditionierung des Lichts in KG, in EG blockiert der exzitatorische Ton die Konditionierung des Kontexts als CS und deshalb kann Kontext in EG die Konditionierung des Lichts nicht blockieren 57. Was versteht man unter „latenter Inhibition“? CS - Präexposition (ohne US) reduziert den späteren Erwerb einer CS-US-Assoziation 58. Warum handelt es sich bei der latenten Inhibition wahrscheinlich nicht um ein Inhibitionsphänomen im engeren Sinne? Weil CS kein konditionierter Inhibitor ist, also nicht das Nicht-Auftauchen des US vorhersagt, sondern generell in seiner Konditionierbarkeit geschwächt ist, also auch bei Auftauchen des US schwerer eine Assoziation aufgebaut werden kann. 59. Erklären Sie das Phänomen der latenten Inhibition anhand der Theorie von Pearce & Hall (1980). • Theorie besagt, dass konditionierte Stimuli wirkungslos sind, wenn US bereits gut bekannt ist • Wenn sich Situation ändert, und US wieder überraschend wird, z.B. intensiver, dann wird CS schnell wieder wirksam und eine weitere Konditionierung ist möglich • z.B.: Erster Durchgang in der II. Phase (also wenn Situation schon geändert): keine Blockierung, weil CS Wirksamkeit erst verliert, wenn er mindestens ein mal mit nicht überraschenden Folgen präsentiert worden ist • latente Inhibition: o wenn CS ohne Folge präsentiert CS wird wirkungslos o wenn CS mit US präsentiert wird schnell wieder wirksam weitere Konditionierung kann stattfinden • Aufmerksamkeit für einen CS steigt / sinkt in Abhängigkeit von seinem Vorhersagewert 60. Worin bestehen die zentralen theoretischen Unterschiede zwischen dem RescorlaWagner-Modell und der Theorie von Pearce & Hall (1980)? Rescorla-Wagner-Modell: Theorie von Pearce & Hall (1980) • US gut bekannt • Auffälligkeit des CS nimmt ab, keine Konditionierung mehr wenn wiederholt folgenlos auftritt herbeiführen wirkungslos, bis wieder überraschender, auffälliger • Modell sagt voraus, dass kein Lernen • Lernen & Erfahrung variabel stattfindet Effektivität des CS kann sich ändern Erwartung - Stärke des US dieses Verhältnis bleibt gleich • Salienz = fester Parameter, üb. Kontext • Salienz = erfahrungsabhängig, hinweg konstant, unabh. von Erfahrung d.h. Effektivität des CS ist veränderlich 61. Was versteht man unter S-S- und S-R-Erklärungen der klassischen Konditionierung? Mit welchen Experimentaldesigns kann man versuchen, zwischen S-S- und S-R-Erklärungen zu unterscheiden? • S-S-Erklärungen: konditionierte Reaktion aufgrund einer Verbindung zweier Reize: CS aktiviert CS-Zentrum, dieses aktiviert US-Zentrum was das Reaktionszentrum aktiviert • S-R-Erklärungen: zwischen CS-Zentrum u. Reaktionszentrum entsteht während der Konditionierung eine direkte Verbindung ; später führt Aktivierung des CS-Zentrums über S-R-Verbindung direkt zur Aktivierung des Reaktionszentrums und US-Zentrum nicht beteiligt • sensorische Präkonditionierung: o 1. CS1 kündigt CS2 an (Assoziation CS1 – CS2) o 2. Lernphase auf CS1 mit US o 3. CS2 alleine in der Lage CR auszulösen? wg. Assoziation CS1 - CS2 kommt es zur CR S-S-Assoziationen liegen der klassischen Konditionierung zugrunde • Konditionierung zweiter Ordnung: (Phasen 1 und 2 von Sensor. Präkondi. vertauscht) o 1. Lernphase auf CS1 o 2. CS1 mit CS2 koppeln (CS2 auch m. CR1 gekoppelt) o 3. CS1 kündigt jetzt anderen US an andere CR: CR2 o 4. welche CR löst jetzt CS2 aus? CR1 oder CR2? CR2! spricht für (S-S-Assoziation und) S-R-Assoziation als Erklärung • US Ab- oder Umwertung: o 1. CS-US-Verbindung lernen: CS US UR bzw. CR solange paaren, bis auf den CS die CR folgt, ohne dass US nötig ist: CS CR o 2. US-Bedeutung ändern, ohne CS zu präsentieren (z.B. bei US Futter: ausgiebig füttern, oder auf Schock habituieren) o 3. noch mal: 1. CS US UR CS CR US CR 2. US ¬UR 3. CS ? x (keine/ sehr geringe CR) spricht für S-S-Theorie, weil US andere Bedeutung bekommt und so die CR auf den CS auch total verändert wird beide Theorien, die der S-S- und die S-R-Assoziationsbildung, sind teilweise richtig! 62. Was versteht man unter sensorischer Präkonditionierung? Welche theoretischen Implikationen hat der Nachweis sensorischer Präkonditionierung für Erklärungsansätze der klassischen Konditionierung? sensorische Präkonditionierung: ähnlich der Konditionierung zweiter Ordnung: • NS1 Ton und NS2 Licht werden kombiniert Bildung einer Assoziation • CS1 Ton und US Futter kombinieren bis CS1 Ton die CR Speichelfluss bewirkt • Testphase: CS2 Licht präsentiert: bewirkt er die gleiche CR Speichelfluss? • theoretische Implikationen für Erklärungsansätze der klassischen Konditionierung: wenn CS2 die gleiche CR wie CS1 bewirkt, handelt es sich um sensorische Präkonditionierung also einen Beleg für S-S-Assoziationen 63. Erläutern Sie die Methode der Konditionierung zweiter Ordnung. Schildern Sie ein Ergebnis, das mit dieser Methode erzielt wurde, das für die Hypothese des Erwerbs von S-R-Assoziationen bei der klassischen Konditionierung spricht. • CS1 Licht mit US1 Futter gepaart, bis CS1 die CR1 Speichel auslöst • CS2 Ton mit CS1 gepaart, bis CS2 die CR1 auslöst • CS1 mit US2 Schock gepaart, bis CS1 die CR2 Angstreaktion auslöst • Test: CS2 präsentiert löst CS2 jetzt CR1 oder CR2 aus? • Ergebnis: CS2 löst CR1 aus, also auf Ton folgt trotzdem eine Speichelreaktion spricht für S-R-Theorie, laut der CS2 mit Reaktion assoziiert ist und nicht mit CS1 • Rescorla, 1979/80:Experiment mit Tauben, rotes u. gelbes Licht – Futter, 1. Gr. vertikal-rot, horizontal-gelb, 2.Gr. vertikal-rot oder gelb, horizontal-rot oder gelb 1.Gr. lernt schneller, weil nur 2 Assoziationen lernen muss spricht für S-S-Assoziation 64. Erläutern Sie, was bei einer Studie zur US-Abwertung gemacht wird. Welches Ergebnis wird hierbei typischerweise beobachtet? Welche theoretischen Implikationen lassen sich aus diesem Ergebnis ableiten? • US-Abwertung ist, wenn nach der Assoziationsbildung zwischen zwei Stimuli CS und US der US in seiner Bedeutung, Salienz minimiert wird, z.B. geschieht dies bei dem US Futter durch starkes Füttern, bis das Tier keinen Hunger mehr hat, oder bei US Schock eine Habituation auf den Schock. Der US wird also entwertet. • das typische Ergebnis hierbei ist, dass die Reaktion auf den CS deutlich geringer ausfällt • theoretische Implikationen: das Ergebnis spricht für die S-S-Assoziationstheorie, weil sich aufgrund der Veränderung der Bedeutung des US die Reaktion(CR) total verändert hat 65. Erläutern Sie den Begriff des „occasion setting“. Schildern Sie eine Studie, mit der ein Stimulus als exzitatorischer „occasion setter“ (OS) etabliert wird. Wie kann man hierbei ausschließen, dass es die spezifische Kombination von OS und CS ist, die als eigenständiger CS eine CR hervorruft? • occasion setting ist die Beeinflussung der konditionierten Reaktion auf einen Stimulus durch eine anderen Stimulus Studie: • CS1 = OS (Licht) CS2 (Ton) US (Futter) CR neben dem CS wird weiterer Stimulus (occasion setter) präsentiert, welcher die Randbedingung darstellt, dass eine Reaktion zu einem US und CS gilt (exzitatorischer occasion setter) oder nicht gilt (inhib. occasion setter). • CS2 (Ton) ¬US ¬CR nur wenn CS (z.B. Ton) mit vorangehendem Licht ( occasion setter) präsentiert wird, folgt der US, wird CS allein präsentiert folgt kein US • CS1 (Licht) – exzitatorischer occasion setter – beeinflusst die konditionierte Reaktion auf den CS2 (Ton) Licht ist dann exzitat. occ.setter, weil nur wenn Licht dem Ton vorausgeht, der US kommt (Licht hat Schalterfunktion u. moduliert Zusammenhang zw. Futter u. Ton) • Ausschluss von OS-CS-Kombination als eigenständiger CS, da occasion setter austauschbar sind und verändern, egal welcher OS, die Reaktion auf US: wie Experiment von Davidson & Rescorla : OS1 CS1 CR1 OS2 CS2 CR2 → vertauschen: OS2 CS1 CR1 occasion setter kann bei jedem OS1 CS2 CR2 Stimulus die Reaktion beeinflussen es liegt nicht an der spezifischen Kombination eines bestimmten OS mit dem CS 66. a) Schildern Sie ein Experiment, in dem ein Stimulus als inhibitorischer konditionierter Stimulus (CS-) etabliert wird. b) Welche asymptotischen Assoziationsstärken sollten bei diesem Vorgehen nach dem Rescorla-Wagner-Modell für den CS+ und für den CS- entstehen, wenn der CS+ ursprünglich eine Assoziationsstärke von a besaß (gegeben, beide Stimuli besitzen die gleiche Salienz? c) Beschreiben Sie nun dieselbe Situation mit Begriffen des „occasion setting“. d) Mit welchen Experimentaldesigns kann man zeigen, dass die additive Erklärung des R-W-Modells für die inhibitorische Konditionierung wahrscheinlich inadäquat ist? • zu a) CS+ (Licht) kündigt in Phase 1 zuverlässig den US(Futter) an • in Phase 2 wird jetzt zusätzlich ein CS-(Ton) präsentiert, welcher ankündigt, dass US (Futter) ausbleibt → Ton wird zum konditionierten Inhibitor • zu b) CS+ asymptotischer Verlauf der Assoziationsstärke gegen VL= A/2 • CS- asymptotischer Verlauf der Assoziationsstärke gegen VT= A/2 • zu c)beim occasion setting wird der CS- (Ton) zum occasion setter, der die Bedingung herstellt, dass wenn Ton vor Licht kein Futter • wird CS (Licht) lange mit CS (Ton) gepaart, löst diese Kombination keine CR mehr aus → das Tier hat gelernt zu diskriminieren • zu d)nach R-W-Modell: auf CS folgt US und auf CS mit OS (Inhibitor) folgt nichts • im Modell wird moduliert: am Ende sei Vcs= A/2 und Vos= -A/2 • negative Erwartung/Intensität ist im Modell nicht vorgesehen, da 0 ≤ A 67. Was versteht man unter einer kompensatorischen CR? Nennen Sie ein Beispiel. • kompensatorische CR ist eine CR, die mit der Anzahl der Wiederholungen des CS in ihrer Stärke abnimmt, ist das Gegenteil der UR, neigt dazu die UR zu kompensieren, ihr entgegenzuwirken • z.B. (Siegel) kontextspezifische Drogentoleranz (abnehmender Effekt, Kontext als CS für Gegenreaktion des Körpers → Aufhebung des Toleranzeffektes in verändertem Kontext → mögl. Folge = paradoxer Drogentod, denn normalerweise heben sich konditionierte Gegenreaktion und Wirkung der Droge gegenseitig fast auf) 68. Wie erklärt man sich, dass nach wiederholter Injektion von Morphium nicht nur dessen analgetische Wirkung nachlässt, sondern dass auch eine Salzwasserinjektion zu einer erhöhten Schmerzempfindlichkeit führt? • Experiment von Siegel: Ratten auf heißer Platte –lecken Pfoten wenn zu heiß. Wiederholte Morphiuminjektion analgetische Wirkung lässt nach, weil kompensatorische CR • Salzwasserinjektion erhöhte Schmerzempfindlichkeit, weil kompensatorische Gegenreaktion nicht durch Wirkung des Morphium aufgehoben wird • Spritze = CS, Morphium = US, CR = kompensatorische Gegenreaktion des Körpers: höhere Schmerzempfindlichkeit, arbeitet also gegen die Wirkung von Morphium • Verabreichen einer Spritze ohne Morphium Gegenreaktion auch ohne Morphium ausgelöst Schmerzempfindlichkeit steigt, weil Morphium-Wirkung fehlt, die normalerweise die Gegenreaktion aufhebt • dies zeigt: keine Gewöhnung an Morphium, sondern kompensatorische Gegenreaktion wurde aufgebaut durch Spritze als CS hervorgerufen 69. Erläutern Sie die Grundannahme der „Conditioned Opponent Theory“ von Schull (1979). • die meisten Grundannahmen von Solomon & Corbit akzeptiert • neu: b-Prozess wird nicht durch Wiederholung gestärkt und durch fehlende Wiederholung geschwächt, sondern dass jede Zunahme in der Intensität des b-Prozesses eine CR ist, durch die ein oder mehrere Stimuli ausgelöst werden. • b-Prozess wird scheinbar gestärkt, weil jeder Stimulus , der mit emotionaler Erfahrung kombiniert wurde, wird zum CS und kann später den b-Prozess auslösen • nur b-Prozesse sind konditionierbar, nicht a-Prozess 70. Wann entspricht bei der klassischen Konditionierung die CR der UR, wann ist sie eher ihr Gegenteil? Begründen Sie Ihre Antwort mit der „Sometimes Oponent Process Theory“ von Wagner (1981). • CR = UR bei monophasischer UR, d.h. wenn es keine b-Prozess gibt, z.B. Lidschlussreflex • CR ≠ UR bei biphasischer UR, also mit b-Prozess, z.B. Schock Herzfrequenz steigt, wenn Schock beendet: Herzfrequenz sinkt unter die normale Baseline Rate 71. Welche experimentelle Evidenz spricht dafür, dass trotz sehr unterschiedlicher Interstimulusintervalle bei der Konditionierung der Geschmacksaversion und der CER dennoch die gleichen Lerngesetze wirksam sind? • CER = conditioned emotional reaction • Experimente von Baron, Kaufmann & Fazzini und von Andrews & Braveman: • Wirkung der Verzögerung zwischen Drücken des Hebels & Schock: mit zunehmender Verzögerung verhinderte die Bestrafung das Hebeldrücken immer weniger • Wirkung der Verzögerung zwischen Aufnahme der Saccharinlösung & Giftinjektion: mit zunehmender Verzögerung verringert das Gift die Aufnahme der Lösung immer weniger • Ähnlicher Verlauf bei unterschiedlicher zeitlicher Skalierung = gleiches Lerngesetz! • beide Ergebnisse entsprechen dem Prinzip der Kontiguität je kürzer das Intervall Stimulus – aversives Ereignis, desto stärker die Reaktion gleicher Verlauf der Kurve (Asymptote) • Unterschied ist nur Skalierung der x-Achse Kontiguitätsprinzip muss nicht ersetzt werde, sondern nur Verwendung unterschiedlicher Zahlen für die Beschreibung der Beziehungen zwischen Kontiguität und Lernen ist notwendig 72. Was besagt die Äquipotenzannahme der klassischen Konditionierung? Schildern Sie Ablauf und Ergebnisse der Unersuchung von Garcia & Koelling (1966), das diese Annahme widerlegt. Genau welcher Aspekt der Ergebnisse ist kritisch für die Äquipotenzannahme? Äquipotenzannahme besagt: • egal welche Reize, nur systematische Kopplung ist nötig • lediglich Salienzunterschiede der CS bedingen unterschiedlich starke Konditionierung • gegebener Stimulus ist in allen Kontexten gleich guter bzw. schlechter CS dem widerspricht Ergebnis der Unersuchung von Garcia & Koelling: zwei gleiche Stimuli in unterschiedlichen Kontexten verschieden stark effektiv: Ablauf: • zwei Rattengruppen zusammengesetzter Stimulus: Geschmacksaversionskomponente: Wasser mit Geschmack audiovisuelle Komponente: Lichtblitze und Klickgeräusche • I. 1. Gruppe: Gift injiziert bekommen Geschmacks-Aversions-Lernen 2. Gruppe: Elektroschocks an den Füßen bei trinken • II. Extinktionstests: ohne Gift & ohne Schock , wobei die Hälfte der jeweiligen Gruppe erst aromatisiertes Wasser zu trinken bekam während die audiovisuellen Reize auftraten und dann reines Wasser während der Reize trank und die andere Hälfte umgekehrt • Ergebnisse: Gift-Gruppe: größere Aversion gegenüber Geschmacksstimulus, SchockGruppe: größere Aversion gegenüber dem audiovisuellen Stimulus, disordinate Interaktion • kritischer Aspekt: Geschmack = effektiverer Stimulus, wenn aversives Ereignis die Giftinjektion ist, audiovisueller Stimulus = besser, wenn aversives Ereignis der Schock ist • man kann erst dann etwas über die Stärke der konditionierten Reaktion sagen, wenn die Beziehung zwischen CS und US genauer bekannt ist • Salienz des Stimulus ≠ allein entscheidend 73. Nennen Sie ein Forschungsergebnis, das die spezies-spezifische Konditionierbarkeit verschiedener Stimuli belegt. • Ratten assoziieren leicht Geschmacksstimuli mit Krankheit: Wilcoxon, Dragoin, Kral (1971): Ratten & Weißschwanzwachteln: blaues, säuerliches Wasser krank • Ergebnis: Ratten: stärkere Aversion gegen säuerlich Wachteln: stärkere Aversion gegen blaue Farbe Grund: Nahrungsbeschaffungsverhalten in natürlicher Umwelt 74. Was besagt das Konzept der „preparedness“? • preparedness besagt, dass jede Tierart durch die Evolution und Erfahrungsbereiche (z.B. Nahrungssuche) auf bestimmte Stimuli besonders schnell eine bestimmte Assoziation zeigt • vorbereitete und gegenläufig vorbereitete Assoziationen bei Tieren bestimmte Assoziationen lassen sich besonders leicht lernen V. EVALUATIVE KONDITIONIERUNG (EC) 75. Beschreiben Sie den Ablauf und das typische Ergebnis einer Untersuchung zur evaluativen Konditionierung. • Paarung eines valenten US mit neutralem CS • Valenzübertragung vom US auf den CS nach mehrfacher gemeinsamer Präsentation: CS bekommt Valenz in Richtung der der US • Beispiel: Bild-Bild-Paarung: neutrale Gesichter werden systematisch mit positiven und negativen (sympathischen und unsympathischen) Gesichtern gepaart • in anschließender Testphase werden die neutralen Gesichter z.B. positiver bewertet, wenn sie vorher mit sympathischen Gesicht gepaart wurden 76. Was ist die abhängige Variable bei der evaluativen Konditionierung im Gegensatz zur klassischen Konditionierung? • bei der EC ist die AV der CS selbst, dessen Qualität verändert wird, je nach Valenz des US • bei KK ist die AV die Rate/Stärke der CR, die CR wird durch den CS beeinflusst, also ist der CS bei KK die UV 77. In welchen funktionalen Charakteristiken unterscheidet sich die evaluative Konditionierung von der klassischen Konditionierung? Geben Sie jeweils eine kurze inhaltliche Erläuterung der einzelnen Merkmale. • Extinktion = Löschung: o Nach mehrmaliger Präsentation des CS ohne darauf folgenden US wird KK gelöscht, d.h. es tritt keine CR mehr auf den CS hin auf. o EC ist Löschungsresistent, d.h. die neue Valenz des CS bleibt auch nach Extinktionsdurchgängen erhalten. • Kontiguität (zeitl. Nähe von CS und US) statt Kontingenz (P(US|CS)=P(US|¬CS)>0), d.h. nur die zeitliche Kopplung von US und CS ist entscheidend für EC, nicht der Vorhersagewert des CS, also die Wahrscheinlichkeit, mit der der US nach Auftreten des CS vorkommt. • Bewusstheit des CS –US – Zusammenhangs: o keine Korrelation zw. EC-Effekt & Bewusstheit, Olson & Fazio: trotz Zusatzaufgabe gibt es einen EC-Effekt o Demand-Effekte: Aufforderung auf CS-US-Zusammenhang zu achten verhindert bzw. „eliminiert“ EC-Effekt • im Gegensatz zur KK sind auch simultane und rückwärtsgerichtete Konditionierung bei EC möglich (letzteres ist z.B. Malboro Werbung: erst Landschaft & Cowboys, dann Produkt) 78. Was ist gemeint, wenn vermutet wird, dass die evaluative Konditionierung auf „demand“ - Effekte zurückgeht? Nennen Sie verschiedene Ergebnisse, die es unwahrscheinlich machen, dass der EC-Effekt auf solche „demand“ – Effekte zurückzuführen ist. „demand“ Effekte laut Dorsch, psychologisches Wörterbuch: -meint, dass Wahrnehmung von Zweck und Bedeutung des Experiments durch die Versuchsperson VP ihr Antwortverhalten steuert - d.h. es gibt durch Prozedur des Fragens gesteuerte Antworten • Effekt wird durch Fragestellung erst „produziert“ würde EC in Frage stellen • Ergebnisse, die solche Effekte unwahrscheinlich machen: indirekte Messung durch affektives Priming (Diaz et al., 2005): stellen von Zusatzaufgaben oder Maskierung des US Ausschaltung bewusster Verarbeitung erhöht EC-Effekt • Bsp: Worte sollen am Computer pos. oder neg. bewertet werden, dabei Zeit gemessen; 200ms vorm Wort (pos od. neg. target) sehen Personen einen Prime, welcher pos. oder neg. konditioniert sein kann • → hat prime eine z.B pos. Valenz erworben, sollte die Reaktion auf den pos. Target schneller sein, d.h. es sollte schnellere RTs geben, wenn Prime und Target positiv sind → schnellere RT = Beweis für Valenz des prime 79. Welche beiden Erklärungsansätze wurden für die evaluative Konditionierung aufgestellt? Erläutern Sie, was mit den Ansätzen jeweils gemeint ist. Nennen Sie Argumente/ Forschungsergebnisse, die für bzw. gegen die jeweiligen Erklärungsansätze sprechen. I. Rekategorisierung des CS (Davey 1984, Field & Davey 1997) • Erläuterung: Rekategorisierung des CS heißt, dass durch die Paarung des (ambivalenten) CS mit dem US die Merkmale des CS, die dem US ähnlich sind, salienter werden. • EC sollte nur bei ähnlichen CS-US-Paarungen auftreten – wäre pro ( methodische Kritik: Häufig CS-US-Paarung nach Ähnlichkeit, d.h. oft nicht zufällig) • ABER: contra EC-Effekte treten auch bei randomisierter CS-US-Paarung bzw. Zuordnung auf Cross modales EC (Razran), weil keine Ähnlichkeit zw. CS und US Musik -Bilder spricht gegen Rekategorisierung, weil CS u. US eben nicht ähnlich sind. RescorlaWagner-Modell kann ausgeschlossen werden, da keine erwartungsbasierten Effekte II. Referentielles Lernen bei EC (vs. Erwartungs- bzw. Signallernen bei KK) • Erläuterung: assoziatives Lernen: Präsentation CS + US später CS alleine CS aktiviert automatisch eine kognitive Repräsentation des US, jedoch ohne eine Erwartung des US CS wird durch Gesamtrepräsentation in seiner Valenz von US eingefärbt Missatribution von Eigenschaften des US auf den CS, d.h. US-Retroluationseffekt • Baeyens et al., 1992 = pro: Konzept des Referentiellen Lernens besagt, dass bei EC der CS, der gezeigt wird, ein referentielles System hervorruft, das einen Durchschnitt über alle Valenzen der Stimuli, mit denen er bereits aufgetreten ist, bildet, und der Durchschnittswert ist dann die Valenz des CS. Dies erklärt, warum EC löschungsresistent, unabhängig von Kontingenz und warum Gegenkonditionierung möglich ist Bsp. aus Walther-Text: positives Gesicht & neutrales Gesicht später negatives Attribut (z.B. Person hat geklaut) CS geändert in seiner Valenz in Richtung negativ 80. a) Was versteht man unter cross-modaler evaluativer Konditionierung? b) Nennen Sie ein Beispiel. c) Welche Bedeutung hat der Nachweis cross-modaler EC-Effekte für die theoretische Erklärung der evaluativen Konditionierung? zu a) = EC bei verschiedenen Modalitäten von CS und US zu b) (Razran, 1954): politische Slogans (CS) gepaart mit freiem Essen (US) politische Slogans (CS) gepaart mit unangenehmen Gerüchen (US) Slogan ist eine mentale, Essen eine orale und Geruch eine olfaktorische Modalität Ergebnis: Valenzübertragung sogar über verschiedene Modalitäten hinweg: Slogans, die während des freien Essens auftraten wurden danach positiver bewertet als Slogans, die mit unangenehmen Gerüchen gepaart worden waren. • zu c) Die Bedeutung des Nachweises cross-modaler Effekte für die theoretische Erklärung der EC liegt darin, dass der Rekategorisierungsansatz nicht stimmt, weil EC auch bei cross modal, also bei sehr unterschiedlichen CS und US funktioniert 81. a) Was versteht man unter „spreading attitude effect“? b) Schildern Sie zur Erläuterung auch den Aufbau und die Ergebnisse der Untersuchung von Walther (2002). • zu a)„spreading attitude effect“ = indirekter Erwerb von Einstellungen ohne direkten Kontakt mit dem Einstellungsobjekt durch sensorische Präkonditionierung z.B. Merkel nur in Fußballstadion, weil D letztes Spiel auch gewonnen hat, sie wurde auch nach der Niederlage gegen Italien nicht mehr gezeigt in TV allgemeines Bsp.: systematische Paarung neutraler Stimuli miteinander, Stimulus N2 mit US evaluativ konditioniert N1 ohne valenten US gezeigt, aber mit N2 vorherkombiniert Valenz wird auf N1 übertragen, z.B. wenn Person A mit negativ empfundener Person B redet oder zusammensteht später wird Person A mit Person C gesehen Person C wird auch als negativ empfunden. • zu b) Präkonditionierungsphase: EG: N1 & N2 gepaart; KG: N1 & N3 gepaart Konditionierungsphase: EG: N2 & US gepaart; KG: N2 & US gepaart Ergebnis: EG: N1 wird negativ bewertet, da NS mit US gekoppelt war, Übertragung auf N1; KG: N1 bleibt neutral, da N3 nicht mit US gekoppelt wurde und N1 mit N2 gar nicht assoziiert wird 82. Was versteht man unter dem a) „name letter“ Effekt und unter dem b) “mere ownership“ Effekt? c) Wie kann man diese Effekte lernpsychologisch erklären? zu a)(Nuttin, 1985): eigene Initialen werden anderen Buchstaben vorgezogen, besser bewertet zu b)(Feys, 1995): z.B. ich will Tasse verkaufen eigene, persönliche Valenz von mir selbst lässt mich die Tasse teurer verkaufen, als wenn mich jemand gefragt hätte, wie teuer ich die Tasse an seiner Stelle verkaufen würde/ wie viel ich ihm dafür zahlen würde / wie hoch ich den Verkaufswert einschätze, wenn mir die Tasse nicht gehört Valenz eines Gegenstandes verändert sich zum Positiven, wenn es mein Eigentum ist zu c)Valenzverschiebung von mir, meiner persönlichen Valenz ( Selbstwert!!) auf den Gegenstand, den ich besitze/ auf meine Initialen. Das nennt man Eigengruppenfavorisierung oder impliziter Selbstwert, weil die meisten Menschen einen positiven Selbstwert haben. 83. Sozialspsychologische Forschung zur Effektivität von Persuasionsversuchen hat gezeigt, dass Botschaften eher akzeptiert werden, wenn Sie von einer sympathischen Person vermittelt werden. a) Welche rolle spielt hierbei die Aufmerksamkeit des Zuhörers? b) Wie kann man diese Befunde lernpsychologisch erklären? zu a) Aufmerksamkeit: Wenn die Aufmerksamkeit des Zuhörers noch durch etwas anderes in Anspruch genommen wird, z.B. bei Werbung während der Sportschau laufen am Rand die Ergebnisse der unteren Ligen und andere Fußballinfos in einem Band vorbei dann nennt man das Moderation durch Verfügbarkeit kognitiver Ressourcen und man wird leichter durch eine andere Person oder durch die Werbung überzeugt. zu b) Aufmerksamkeit = Verfügbarkeit kognitiver Ressourcen und moderiert den Einfluss von Sympathie der Quelle der Information / des Vermittlers auf Glaubwürdigkeit der Aussage / Bewertung; Botschaft = CS, Person = US Valenz des US auf CS übertragen 84. a) Wie lassen sich Phobien und Aversionen auf der Basis der evaluativen Konditionierung erklären? b) Welche Implikationen hat eine solche Erklärung bezüglich der Entscheidung für eine bestimmte Therapieform? zu a) Phobien u. Aversionen: nach EC entstanden durch indirekte Kopplung mit valentem US • zu b)Aufgrund der Löschungsresistenz von EC sollte Gegenkonditionierung effektiver sein als Extinktion, z.B. bei Flugangst: indirekte Kopplung durch Medien(Flugzeugabstürze etc.Negativbewertung des Fliegens) mit valentem US besser positive Gegenkonditionierung als Therapieform 85. a) Welche Implikationen ergeben sich durch die Forschung zur evaluativen Konditionierung für eine effiziente Gestaltung von Werbung? b) Welche potentiellen Risken sind (für das Makenimage) zu bedenken, wenn eine Werbekampagne mit Mitteln der evaluativen Konditionierung arbeitet? zu a) • dauerhafte Einstellungsänderung gegenüber Markenprodukten durch Kopplung mit positivem USi • bessere Effekte unter Ablenkung (Werbung im Infofenster) • „brand extension“, z.B. Mercedes macht Uhren wird gut ankommen, weil Mercedes positives Image hat, obwohl Uhren mit Autos nichts zu tun haben & keine Garantie für gute Qualität der Uhren besteht, nur weil Mercedes-Autos gute Qualität haben. zu b)Rückwärtskonditionierung ist möglich: indirekte Einstellungsänderung, wenn sich die Bewertung mit dem Einstellungsobjekt assoziierter Personen ändert (US-Umwertung), z.B.: Sportler macht Werbung für Produkt es stellt sich später heraus, dass er gedopt war Produkt wird im Nachhinein negativ besetzt (CS-Umwertung) VI. OPERANTE KONDITIONIERUNG – TEIL 1 86. Definieren Sie die Begriffe des respondenten und operanten Verhaltens. • respondentes Verhalten = unwillkürlich, stimulusbezogen, reizgesteuerte Mechanismen = eine erfahrungsbedingte Veränderung in reizbezogenem Verhalten: Klassische Konditionierung (KK) • operantes Verhalten = willkürlich / spontan injiziertes, instrumentelles Verhalten, d.h. an Konsequenzen und Folgen orientiert, erfahrungsbedingte Änderung in operantem Verhalten = operante Konditionierung (OK) 87. Welche Annahme liegt dem Versuch der Lernpsychologie zugrunde, die kausalen Determinanten von “willkürlichem“, zielgerichtetem Verhalten zu bestimmen? • einmal gemachte Erfahrungen verändern Verhaltensweisen in der Zukunft • nur weil kein offensichtlicher Stimulus da ist, der vor dem Verhalten auftritt, heißt das nicht, dass das Verhalten nicht vorhersagbar ist (OK beeinflusst willkürliches Verhalten) 88. Was besagt das Gesetz des Effekts? • „law of effect“ (Thorndike): Nicht das Verhalten per se sondern das Verhalten in einer Situation wird wahrscheinlicher: situationsspezifisch • verschiedene Reaktionen auf dieselbe Situation: Befriedigung als Folge mit Situation stärker verbunden bei erneutem Auftreten der Situation: Reaktionen treten wahrscheinlicher wieder auf Frustration als Folge Schwächung der Assoziation Verhalten tritt mit geringerer Wahrscheinlichkeit wieder auf • je größer die Befriedigung oder Frustration, desto intensiver die Stärkung oder Schwächung der Verbindung (= Assoziation) 89. a) Erläutern Sie das „stop-action“ Prinzip der operanten Verstärkung. b) Welche Evidenz spricht für die Wirksamkeit dieses Prinzips? • zu a)Stärkung einer Verhaltensweise (z.B. Körperhaltung, Muskelbewegung) in dem Moment des Eintretens der positiven Konsequenz, des Verstärkers = Kontiguitätsprinzip • zu b)Evidenz: Guthrie & Horton 1946: Katzen in Problemkäfig: jedes Verhalten, das einige Male verstärkt wurde, dominiert über die anderen Verhaltensweisen Entstehung stereotypen Verhaltens 90. a) Schildern Sie Ablauf und Ergebnisse von Skinner’s (1948) klassischem Experiment zum „abergläubischen Verhalten“. b) Welches Prinzip benutzte Skinner zur Erklärung der Ergebnisse? zu a) • Tauben in Versuchskammer • unabhängig von ihrem Verhalten erhalten sie ca. alle 15 sec. Getreide • nach einiger Zeit: 6 der 8 tauben wiederholen zwischen den Futtergaben ganz bestimmte Verhaltensweisen, z.B. picken auf eine bestimmte Stelle • obwohl keine Verhaltensweise für die Verstärkung notwenig ist, wird immer wieder dieselbe wiederholt zu b) • Prinzip der Erklärung: Kontiguitätsprinzip: Das Verhalten das zufällig im Moment der Verstärkung gezeigt wurde wird verstärkt • dieses Verhalten tritt danach mit größerer Wahrscheinlichkeit wieder auf • Die Wahrscheinlichkeit, dass nächster Verstärker auch wieder nach der gleichen Verhaltensweise, z.B. einer bestimmten Kopfbewegung auftritt, ist auch größer • zufälliger Verstärkungsprozess ist selbst – perpetuierend, Verhalten bekommte Eigendynamik 91. a) Nennen Sie Untersuchungsergebnisse bzgl. der operanten Verstärkung, die sich nicht mit dem „stop-action“- Prinzip erklären lassen. b) Welche Art der Erklärung für operante Verstärkung wird durch diese Ergebnisse stattdessen nahe gelegt? zu a) • hohe Variabilität im gelernten Verhalten (Muenzinger, 1928): Meerschweinchen sollen Hebel drücken bekommen Salatblatt: trotz anfänglicher Präferenz von linker bzw. rechter Pfote oder den Zähnen kommt kein Verhalten nach dem stop-action Prinzip vor: alle drei verschiedenen Verhaltensweisen treten gleich häufig auf • Funktionale Generalisierung: bei veränderten Umständen , z. B. schwimmen statt laufen (Lashley, 1924) Ratten können auch wenn das Labyrinth geflutet ist und sie schwimmen müssen fehlerlos ans Ziel kommen sie merken sich die Abfolge der Kurven und Biegungen und sind nicht an die Muskelabfolge gebunden zu b) • Erklärung: gelernt werden möglicherweise nicht Bewegungen, sondern Effekte • einfachste operante Reaktionen weisen bereits ein enormes Maß an Flexibilität und Anpassung auf 92. Geben Sie eine lernpsychologische Erklärung für die Entstehung und Aufrechterhaltung idiosynkratischer Verhaltenseigenheiten, die für den Verhaltenserfolg gar nicht erforderlich sind. Beziehen Sie Ihre Erläuterungen auf ein spezifisches Beispiel. • idiosynkratisch = spezifisch, abergläubisch • entsteht aus persönlichen Erfahrungen mit Verstärkern (Unterschied zum Aberglauben durch Erfahrungen anderer üb. Generationen weitergegeben), hat z.B. das Tragen eines Glücksbringers ein oder mehrfach zum Sieg eines Sportlers geführt, könnte er den Sieg durch seinen persönlichen Aberglauben mit dem Glücksbringer verbinden • Aufrechterhaltung des Verhaltens (Tragen des Glücksbringers) aufgrund von Angst, nicht zu gewinnen, wenn man den Glücksbringer abnimmt, d.h. der Sportler würde gar nicht riskieren den Glücksbringer abzunehmen (Vermeidung der Möglichkeit der Löschung, wenn man sehen sollte, das Sieg unabhängig von Amulett ist) Effiziente Konditionierung I 93. a) Erläutern Sie die Vorgehensweise des „shaping“. b) Inwiefern wird durch diese Technik der Anwendungsbereich der operanten Konditionierung für die Verhaltenssteuerung erweitert? c) Nennen Sie ein Beispiel, wie man die Technik des shaping für psychologische- therapeutische Zwecke einsetzen kann. zu a) „shaping“ = Verstärkung von Rudimenten des gewünschten Verhaltens durch sukzessive Erhöhung des Kriteriums, das zur Verstärkung notwendig ist zu b) der Anwendungsbereich wird folgendermaßen erweitert: durch shaping kann auch nicht spontan gezeigtes aber gewünschtes Verhalten aufgebaut und anschließend konditioniert werden zu c) Verhaltenstherapie, z.B. zur Verringerung des Kokainkonsums bei schwangeren Kokainabhängigen, Bsp. mit schizophrenem Patienten und Kaugummi als Verstärker, Verhaltensaufbau bei retardierten Kindern im Bereich des Sprechens (prompting & fading) 94. a) Was versteht man unter „freien operanten Verfahren“? b) Nenne Sie ein Beispiel für ein solches Verfahren. c) Worin unterscheiden sich diese freien Verfahren von herkömmlichen Methoden der operanten Verstärkung und worin besteht der Vorteil der freien Verfahren? zu a) freie operante Konditionierung: wiederholbare Reaktionen deren Verwendung erlaubt kontinuierliche Analyse von Verhaltensintensitäten zu b) Bsp: Tauben müssen auf Taste picken Ratten müssen Hebel drücken, statt Labyrinth zu durchlaufen zu c) Vorteile: • ermüden nicht so schnell (auch Versuchsleiter nicht) • viel mehr Durchgänge / Tag möglich zeitsparend • in jedem Moment ist beobachten und aufzeichnen der Reaktionsrate möglich Unterschiede: • operante Reaktion kann jederzeit auftreten • operante Reaktion kann wiederholt auftreten, solange das Versuchstier in der Versuchskammer ist • keine einzelnen, diskreten Durchgänge • nicht die Latenz ist die AV, sondern die Reaktionsrate 95. a) Erläutern Sie Kontingenzeffekte bei der operanten Verstärkung. b) Wie kann eine Untersuchung aussehen, mit der man Effekte der Verstärkungshäufigkeit von Kontingenzeffekten trennen kann? zu a) • Kontingenzeffekte bei operanter Konditionierung sind analog zur klassischen Konditionierung d.h. ist P(Verstärker │Reaktion) > P( Verstärker│⌐ Reaktion) dann wird die Reaktion häufiger gezeigt werden • allgemein exzitatorisch: P Verstärker erhalten > wenn Tier eine Reaktion zeigt, als wenn es keine Reaktion zeigt: • nicht allein die Häufigkeit, sondern die Wahrscheinlichkeit, mit der der Verstärker im Vergleich zur Baseline auftritt, ist ausschlaggebend • allgemein: Kontingenzeffekt = der Effekt des Verhaltens gegenüber der Baseline zu b) • Untersuchung: Häufigkeit der Verstärkung oder Vorhersagekraft: • Phase 1 (siehe Phase 3) 0.05: P, dass CS mit US auftritt 0.00: P, dass CS alleine auftritt Differenz = 0.05, also ist Kontingenz vorhanden, man kann eine Vorhersage machen und Lernen ist damit möglich: P(Futter| Hebel) 5% höher als P (Futter| ¬Hebel) • Phase 2: Kontingenz gelöscht jetzt nach Häufigkeit: bei jedem 20. Hebeldruck gibt es Futter, d.h. Baseline wird angehoben Differenz = 0 Verhalten der Ratte pendelt sich ein: Häufigkeit der Reaktion geht zurück 0.05 – 0.05 = 0 keine Kontingenz vorhanden, weil keine Differenz kein Lernen • Phase 3: Kontingenz wieder angehoben: Verhalten tritt wieder häufiger auf Ratte ist sehr sensibel gegenüber Änderungen der Kontingenz (nur 0.05!) • Phase 4 siehe Phase 2 96. a) Was versteht man unter der Stimuluskontrolle operanten Verhaltens? b) Warum handelt es sich auch dann um operantes Verhalten, wenn es durch Stimuli kontrolliert wird? zu a) Stimuluskontrolle: Wie Stimuli, also diskriminative Hinweisreize (z.B. Kontext), die einem Verhalten vorausgehen, das operante Verhalten kontrollieren, also ob das Verhalten daraufhin gezeigt wird oder nicht z.B.: bei Diskriminationslernen: Taube pickt auf eine Taste, wenn Licht vorher angeht Futter Verhalten wird stimulusspezifisch wenn Licht vorher nicht an ¬ Futter verstärkt zu b) auch dann operantes Verhalten, weil es sich immer noch auf die Konsequenz – nämlich Futter oder kein Futter – bezieht, und nicht auf den Reiz (das Licht) 97. Erläutern Sie den Begriff der Dreifachkontingenz bei der operanten Verstärkung mithilfe eines hypothetischen Untersuchungsbeispiels. drei Komponenten der Kontingenz: 1. Kontext, Situation, in der die Reaktion stattfindet (Stimuli, die der Reaktion vorangehen): diskriminativer Hinweisreiz 2. Reaktion selbst 3. Stimuli, die der Reaktion folgen :Verstärker Beispiel: • Taube lernt auf Taste zu picken = 2. Reaktion • über der Taste leuchtet ein helles gelbes Licht = 1. (an Futter, aus ¬Futter) = diskriminativer Hinweisreiz • Futter = 3. Verstärker, d.h. der Verstärker kommt nur, wenn die Reaktion gezeigt wurde und vorher der diskriminativer Hinweisreiz „an“ war 98. Wo würden Sie größere Schwierigkeiten erwarten, wenn Sie Prinzipien der operanten Verstärkung in Alltagssituationen einsetzen wollten: Beim Aufbau oder bei der Löschung von Verhalten? Warum? Löschung von Verhalten ist schwieriger, weil Verstärker manchmal unbekannt und schwer zu kontrollieren sind. Man müsste Person im Alltag ständig beobachten, um Verstärker herauszufinden und dann eine kontinuierliche Verstärkung erreichen, weil intermittierende Verstärkung sehr schwer zu löschen ist. 99. a) Was ist ein sekundärer Verstärker? b) Geben Sie ein Beispiel und erläutern Sie, wie man sekundäre Verstärkung erklärt. zu a) sekundärer Verstärker = ein indirekt wirkender Verstärker, ein neutraler Reiz, der durch systematische Kopplung mit dem primären Verstärker eine Verstärkungsfunktion vom primären Verstärker erhält zu b) Bsp.: Geld, dadurch sind primäre Verstärker zu erhalten, z.B. Essen, warmes Haus etc. und die Entstehung funktioniert z.B. so: Bei Kindern wird Geldschein mit Süßigkeiten gekoppelt, d.h. zunächst ist der Geldschein ein neutraler Reiz und wird dann mit dem primären Verstärker Süßes gekoppelt und wird so zum sekundären Verstärker 100. a) Was versteht man unter „token reinforcement“? b) Wie kann man erklären, dass manche tokens effizientere Verstärker darstellen als primäre Verstärker? zu a) systematische Verstärkung, durch Zwischenverstärkung, Überbrückungsfunktion Konditionierte Verstärkung erhält Motivation aufrecht zu b) tokens effizientere Verstärker, weil generalisierte Verstärker (z.B. Geld) sind auch sekundäre Verstärker, die mehrere primäre Verstärker ankündigen z.B.: Menschenaffen beigebracht, dass Chips als „ Geld“ für z.B. Bananen gelten, die Chips sind hierbei Zwischenverstärker, die die Motivation aufrechterhalten, damit die Reaktion immer wieder auftaucht bevor der primäre Verstärker kommt 101. Welche Rolle spielen externe Stimuli bei der Steuerung von Verhalten? Erläutern Sie jede Funktion anhand eines Beispiels. • Feedback: sekundäre Verstärker, z.B.: Thorndike 1927: VP mit verbundene Augen soll 3 Zoll lange Linie zeichnen Experimentalgruppe: Versuchleiter sagt bei weniger als 1/8 Zoll Abweichung von 3 Zoll Länge der Linie: „richtig“, ansonsten: „falsch“ Kontrollgruppe: Versuchleiter sagt nichts Ergebnis: Die Wörter „richtig“ und „falsch“ sind wichtig, weil sie Information, Feedback über die Richtigkeit der Reaktion geben und dadurch die Genauigkeit steigern „Ergebniswissen“ bei Erlernen motorischer Fähigkeiten, nicht verstärkende oder bestrafende Aspekte der Wörter ist ausschlaggebend knapper: Feedback sagt mir, ob mein Verhalten richtig oder falsch war (z.B. werde ich Verhalten nur verstärken, wenn das Feedback positiv war) Bsp.: Angewandte Methode zur Lösung der Matheaufgaben & Feedback des Lehrers • Steuerungsfunktion: situative diskriminative Hinweisreize signalisieren Verstärkungsmöglichkeiten, also ob ich Verhalten zeigen kann oder nicht z.B. schwätzen: in der Pause / im Matheunterricht: Unterricht ist der diskriminative Hinweisreiz, ob Verhalten „schwätzen“ erwünscht ist oder nicht. • Überbrückungsfunktion: Tokens zeigen an, dass man auf dem richtigen Weg ist, und das Verhalten wird aufrecht erhalten! z.B.: Token Economy in Psychiatrien oder Wohnheimen: Tokens für erfüllte Aufgaben oder angemessenes Verhalten höherer Wahrscheinlichkeit, dass Aufgaben erfüllt wurden (Johnson et al. 1991) Token: Zwischenverstärkungsfunktion: erhält Verhalten länger aufrecht, z.B. wenn man ein Haus kaufen möchte: Arbeiten jeden Monat Geld auf dem Konto je mehr Geld auf dem Konto, desto näher ist man dem Ziel des eigenen Hauses Effiziente Konditionierung II 102. Wozu wird „chaining“ eingesetzt? Erläutern Sie die Standardmethode des „chaining“. • Aufbau komplexer Verhaltenssequenzen (-ketten) z.B. um im Zirkus Tiere zu dressieren oder in der Verhaltenstherapie um rauchen aufzuhören • Standardmethode: Verkettung von Verhaltensweisen mit Hilfe konditionierter Verstärkung • erlernte Verhaltensweisen sind eine Abfolge von Verhaltensweisen in bestimmter Reihenfolge, wobei jeder Stimulus in der Mitte der Kette zwei Funktionen erfüllt: Konditionierter Verstärker für vorausgehendes Verhalten und diskriminativer Hinweisreiz für nächstes Verhalten: • Stimuli vermitteln also zwischen den einzelnen Verhaltenselementen, wobei jeder Stimulus in einer Kette ein konditionierter Verstärker ( = konditionierte Belohnung/ Verstärker) für das vorangehende Verhalten ist (denn Tier weiß, es ist dem Ziel näher gekommen) und gleichzeitig als diskriminativer Hinweisreiz für den folgenden Verhaltensschritt fungiert (Steuerungsfunktion) • primärer Verstärker wird erst nach dem letzten Verhalten der Reihe präsentiert 103. Wie geht man bei der Rückwärtsverkettung und bei Vorwärtsverkettung vor? Rückwärtsverkettung: • als erstes lernt man dem Tier die letzte Aufgabe der Kette: Hebel drücken Futter • dann die vorletzte Aufgabe zum Hebel rennen usw. – sich nach vorne durcharbeiten durch zeigen • also: Ratte beibringen, wo Futter ist, Geräusch des Futterdispensers verstärken u. als konditionierten Verstärker einführen, durch shaping letzte Verhaltensweise, also drücken des Hebels trainieren usw. • nur bei manchen Schritten ist es nötig, Futter als primären Verstärker einzusetzen bis Verhalten etabliert und konditionierte Verstärkung durch nächsten Stimulus der Kette genügt Vorwärtsverkettung: • beginnt bei erster Verhaltensweise • arbeitet bei jedem Schritt mit Zwischenverstärkern • dauert länger weil Zwischenverstärker immer wieder weggenommen werden muss • ist schwerer zu etablieren, weil diskriminativer Hinweisreiz fehlt 104. Nennen Sie Beispiele, bei denen die operante Verstärkung an ihre Grenzen stößt. Wie lässt sich dieses Scheitern erklären? • biologisch natürliches Verhalten, „the misbehavior of organisms“: erwünschte Verhaltensweisen werden nach anfänglichen Erfolgen durch unnötiges, unverstärktes Verhalten ersetzt • z.B. im Zirkus trainierte Tiere: Waschbär gibt Münzen irgendwann nicht mehr her sondern reibt sie aneinander, legt sie in Behälter und holt sie wieder raus oder Schwein lässt Münzen auf dem Weg zum Sparschwein fallen und vergräbt sie • selbst Holzmünzen bekommen Futtercharakter, wenn sie immer wieder im Kontext mit Futter präsentiert werden • Erklärung: Instinctive Drift: mit zunehmender Erfahrung weicht gezeigte Leistung des Versuchstieres von verstärktem Verhalten ab & instinktive Verhaltensweisen, die normalerweise auftreten, wenn Tier in natürlichem Umfeld diesen Verstärker sucht (hier Futter), treten auf. • Auftreten speziestypischer explorativer und / oder appetitiver Verhaltensweisen im Kontext regelmäßiger primärer Verstärkung Verdrängung des gelernten Verhaltens operante Verstärkung setzt am biologisch angelegten Verhaltensrepertoire des Organismus an und wird durch dieses beschränkt 105. Schildern Sie den Aufbau und die Ergebnisse der klassischen Untersuchungen von Brown & Jenkins (1968) zum sog. „autoshaping“. Brown & Jenkins (1968): „auto-shaping of the Pigeon’s Key-peck“ Aufbau: • in Skinnerbox: Taube lernt aus Futterspender zu fressen • Taube pickt auf Lichtfeld (zeigt Verstärker an) obwohl Verhalten für Verstärker nicht notwendig ist • also: Futter auch wenn kein Licht (ohne Picken) • Picken bevor Futter kommt? = sich selbst verstärkender Aberglaube NEIN, WIDERLEGT! siehe Aufgabe 106 • RICHTIG: entspricht klassischer Konditionierung : Licht = der CS, kündigt Futter = US an UCS – Picken CR – Picken • Kontingenz: in unregelmäßigen Abständen durchschnittlich 60 sec. Reaktionstaste, 8 sec. lang mit weißem Licht wieder dunkel Futter präsentiert Ergebnis: • Futtergabe ≠ Reaktion auf Verhalten des Tieres !!! Taube pickt trotzdem auf Taste!!! • also: Taube erhält nach Picken auf Lichtpunkt Futter, pickt aber auch dann noch, wenn sie selbst dann Futter bekäme, wenn sie nicht picken würde 106. a) Wie wurde das Phänomen des „autoshaping“ ursprünglich erklärt? b) Durch welche Untersuchungsergebnisse konnte gezeigt werden, dass diese Erklärung unzutreffend ist? • Autoshaping: Paradigma des „conditioned key picking“: picken auf ein Lichtfeld, das Verstärkung (Futter) ankündigt obwohl kein operantes Verhalten zum Erhalt des Futters nötig ist Erklärungen des Autoshaping durch abergläubisches Verhalten: • schauen – Annäherung – picken wird sukzessive verstärkt, weil Taube glaubt, dass Futter durch picken kommt • picken tritt generell häufig auf, vielleicht auch, wenn Licht gerade an ist, dann kommt zufällig Futter und das Verhalten wird „abergläubisch“ verstärkt • widerlegt: keine systematische Annäherung (Rachlin, 1969) Autoshaping selbst dann, wenn picken systematisch nicht verstärkt wird (Williams & Williams 1969) 107. a) Erklären Sie das Phänomen des „autoshaping“ in Termini der klassischen Konditionierung. b) Durch welche empirischen Befunde wird diese Erklärung gestützt? • Autoshaping als klassische Konditionierung: • Autoshaping abhängig von CS-US-Kontingenz, d.h. Taube pickt nur, wenn Taste leuchtet, da hier die Wahrscheinlichkeit höher ist, dass sie Futter bekommt (Durlach, 1968) • Form der CR abhängig von der Art der UR (Verhalten von Körnern auf Taste übertragen) Jenkins & Moore 1973: Tauben zeigen andere Form der Pickreaktion in Abhängigkeit von Art des US (Futter oder Wasser), somit jeweils andere UR und daraufhin andere CR • das Lichtfeld ist CS der das Auftreten von Futter ankündigt, die unkonditionierte Reaktion auf Futter (US) ist picken picken auf Lichtfeld ist dann CR • Evidenzen: sobald man Signalfunktion von Licht für Futter reduziert verschwindet Verhalten sign tracking VII. OPERANTE KONDITIONIERUNG – TEIL 2 108. Was versteht man unter „Humphreys paradox“? • „Humphrey’s paradox“ = partieller reinforcement effect, d.h. • erhöhte Löschungsresistenz nach seltener Verstärkung • Löschung nach CRF= kontinuierlicher, konstanter Verstärkung erfolgt schneller. • potentieller Verstärkungseffekt erschien früher paradox, weil er Thomas Browns Häufigkeitsprinzip verletzt: Warum sollte eine Reaktion, die nur hin und wieder verstärkt wurde stärker, also löschungsresistenter sein, als eine andere Reaktion, die bei jedem Auftreten von einem Verstärker gefolgt war? 109. Worin besteht genau der „partial reinforcement effect“? Erklären Sie diesen Effekt mithilfe der Diskriminationshypothese. • erhöhte Löschungsresistenz nach seltener Verstärkung flacher Löschungsgradient • Diskriminationshypothese: Verhalten des Individuums kann sich bei Löschung erst ändern, wenn Individuum die Veränderung in den Verstärkungskontingenzen erkennen kann. • da bei CRF jede Reaktion verstärkt wurde, ist Wechsel zu Löschungsplan leicht erkennbar (z.B. Getränkeautomat) • bei VR-Plan = intermittierendem Verstärkerplan dauert es länger, bis man merkt, dass nicht erst nach vielen Reaktionen ein Verstärker kommt, sondern dass gar kein Verstärker mehr kommen wird, weil auf Löschungsplan umgestellt wurde. (z.B. Spielautomat) • bei seltener Verstärkung ist also eine Umstellung auf Löschung (Extinktion) vom Organismus nur schwer zu erkennen 110. Nenne Sie ein Alltagsbeispiel für die Aufrechterhaltung von Verhalten durch intermittierende Verstärkung. Lottospielen: jede Woche Lottoschein abgeben, nur äußerst selten Verstärkung durch Gewinn 111. Erläutern Sie die vier grundlegenden Verstärkerpläne. Geben Sie jeweils eine Definition der Terminologie und nenne Sie ein Untersuchungs- oder Alltagsbeispiel. • Fester Quotenplan: (Fixed Ratio, FR) • Verstärkung nach jeder n-ten Reaktion, wobei n die Höhe der Quote ist • z.B.: FR-10: jede 10te Reaktion wird verstärkt FR-1-Plan = Kontinuierlicher Verstärkungsplan (CRF) Fabrikarbeiter: nach jeweils 100 Türangeln haben sie 10$ verdient • Variabler Quotenplan: (Variable Ratio, VR) • Die Zahl der von Verstärker zu Verstärker geforderten Reaktionen ist nicht gleich bleibend, d.h. n variiert um einen Mittelwert • Verstärkungsregel: im Durchschnitt erhält Individuum für n Reaktionen einen Verstärker, aber genaue Zahl der im jeweiligen Durchgang geforderten Reaktionen kann stark schwanken • z.B.: VR-10: Verstärkung nach der 7., 11., 9., 13....Reaktion Spielverhalten am Spielautomaten, Glücksspiel, (Leistungs-)Sport, z.B. Golf zwei wichtigste Kennzeichen: 1) „Gewinnchancen“ in direktem Verhältnis dazu, wie oft man spielt 2) Zahl der erforderlichen Reaktionen für nächsten Verstärker ist ungewiss • Fester Intervallplan: (Fixed Interval, FI) • erste Reaktion nach Zeitintervall, das nach der letzten Verstärkung beginnt, wird verstärkt • z.B.: FI-60-Sekundenplan: Verstärker kommt 60 Sek. Intervall beginnt, wenn vorbei: nächster Verstärker kommt, egal ob keine oder 100 Reaktionen gezeigt wurden Warten auf den Bus: man weiß, dass er alle 10 min kommt, fuhr gerade ab, als man an Haltestelle ankam erst lesen o. ä., nach 7 min: Anstieg der Reaktionen mit Zeit, immer öfter sehen, ob Bus kommt, Buch weglegen, letzten 3 min an Straße stehen bis Bus kommt Untersuchung von Hopkins: Studenten & Studienverhalten bei tägl. u. seltenen Prüfungen • Variabler Intervallplan: (Variable Interval, VI) • gleichen FI-Plänen, nur dass die Zeit, die vor Verabreichung des Verstärkers verstreichen muss, von Verstärker zu Verstärker unvorhersagbar variiert: Intervall variiert zufällig um einen Mittelwert • z.B.: VI-10: Zeitintervalle 7s, 11s, 13s, 9s, ...nach der letzten Verstärkung schauen, ob man Post bekommen hat 112. Beschreiben Sie die charakteristischen Kurvender kumulativen Verhaltenshäufigkeit, die für die vier Standardverstärkerpläne beobachtet werden. • FR: „stop-and-go“ –Muster: o nach jedem Verstärker eine Reaktionspause: Nachverstärkungspause o abrupter Übergang von Pause zu weiteren Reaktionen o gleich bleibende, hohe Geschwindigkeit der Reaktionen ( steiler Anstieg der kumulativen Aufzeichnung) bis zum nächsten Verstärker • VR: Reaktionsmuster: o schnell & relativ gleichmäßig o Fehlen langer Nachverstärkungspausen bzw. kleinere Pausen (im Gegensatz zu FR) • FI: typisches Reaktionsmuster: o relativ steiler Anstieg, keine Nachverstärkungspause o aber nach der Pause beginnt Versuchstier zunächst recht langsam zu reagieren o mit wachsendem Intervall reagiert es schneller: Anstieg der Reaktionsgeschwindigkeit vorm nächsten Verstärker: kurz vor Verstärkung ist Reaktionsgeschwindigkeit recht hoch o Bezeichnung: FI-Bogen • VI: stetige mittlere Reaktionsrate (im Intervallplan fällt Anstieg niedriger aus als im Quotenplan) 113. Nennen Sie verschiedene Hypothesen, um die Nachverstärkungspause im festen Quotenplan zu erklären. Durch welche experimentelle Evidenz konnten dies Hypothesen gestützt bzw. widerlegt werden? • Erklärungsansätze: Ermüdung, Sättigung, Verstärker-Distanz, d.h. Zeit/ Weg bis zum nächsten Verstärker (Abstand) • Durchschnittliche Länge der Nachverstärkungspause nimmt mit Erhöhung der Quote zu, d.h. je mehr Reaktionen nötig sind, bis Verstärker kommt, desto mehr muss ich mich „ausruhen“ danach widerspricht Sättigungshypothese, spricht für Ermüdungshypothese • Reaktionsrate nimmt im Anschluss an Nachverstärkungspause allmählich ab, wenn Quote zunimmt (Crossman et al. 1987, Powell 1969) spricht für Ermüdungshypothese • Multiple Verstärkerpläne: Pause unabhängig von vorhergehender Quote, aber abhängig von bevorstehender Quote Beleg für Verstärker-Distanz-Hypothese, widerlegt Ermüdungshypothese 114. Warum findet sich bei variablen Plänen eine gleichmäßigere Verteilung der Reaktionen über die Zeit? Begründen Sie Ihre Antwort sowohl für Quoten- als auch für Intervallpläne. • durch kürzere Nachverstärkungspausen oder fehlende verteilt es sich gleichmäßiger • Quoten: VR: Nach jedem Verstärker besteht wenigstens eine geringe Wahrscheinlichkeit, dass ein weiterer Verstärker auf nur wenige zusätzliche Reaktionen folgt. Der Zeitpunkt des nächsten Verstärkers ist nicht vorhersagbar, aber langfristig erhält man umso schneller Verstärker, je öfter das Verhalten auftritt. • Intervall: VI: jeden Moment kann Verstärker bereitgestellt werden Lange Pause nach Verstärkung wäre nicht vorteilhaft: gleich bleibende Reaktionsrate bekommt jeder Verstärker bald nach Bereitstellung und hält so VI-Uhr meist in Gang. Höhere Reaktionsrate würde nur geringen Anstieg der Verstärkerrate bewirken. 115. Schildern Sie den Aufbau und die Ergebnisse der Untersuchung von Baum (1993) zum Vergleich der Reaktionshäufigkeit in VI- und VR –Plänen. Aufbau: • Tauben präsentiert man VI- und VR-Pläne • variiert Verstärkungsrate von 20 bis mehrere 1000 Verstärker pro Stunde Ergebnisse: • Tauben reagieren durchschnittlich schneller bei VR-Plänen, auch wenn Verstärkungsrate gleich • Tendenz, dass Unterschiede zwischen VR und VI bei hohen Verstärkungsraten verschwinden 116. Erklären Sie die Unterschiede in der Verhaltenshäufigkeit bei VR- und VIPlänen mithilfe der „Interresponse Time Reinforcement“ Theorie und mit der „Response- Reinforcer Correlation“ Theorie. „Interresponse Time Reinforcement“ Theory: • Zeit zw. zwei aufeinander folgenden Reaktionen = interresponse time • Theorie: ist eine molekulare Theorie, bezieht sich auf Zeitspanne von weniger als 1 min • besagt, dass Reaktionsraten bei VI-Plänen langsamer sind, als bei VR-Plänen, weil lange IRTs bei VI-Plänen öfter verstärkt werden (Skinner, Anger ...) • in VI-Plänen werden Reaktionen nach langen Pausen öfter verstärkt, weil mit der Zeit, die zw. zwei Reaktionen vergeht, die Wahrscheinlichkeit zunimmt, dass die VI-Uhr stoppt und eine Verstärker bereithält • direkter Zusammenhang IRT-Länge – Wahrscheinlichkeit von Verstärkung = eine Tatsache! • IRT Reinforcement Theory zufolge werden als Konsequenz dieses Zusammenhangs bei VIPlänen längere IRTs selektiv, differentiell verstärkt • bei VR-Plan spielt Zeit keine Rolle, Verabreichung von Verstärkung hängt einzig und allein von Zahl der Reaktionen ab keine selektive Verstärkung von langen Pausen • Tendenz, dass Reaktionen in Blöcken auftreten – in Blocks von kurz aufeinander folgenden Reaktionen ist im VR-Plan die Wahrscheinlichkeit relativ hoch, dass Reaktionen mit kurzem Intervall eher verstärkt werden „response-reinforcer correlation“ Theory: • betont wesentlich globalere Beziehungen zw. Reaktionen & Verstärkern: Beziehung zw. durchschnittlicher Reaktionsrate und Gesamtverstärkungsrate • molare Erklärung, Verhältnisse werden betrachtet, die wenigstens über 1 min & länger gemessen werden • VR-Plan: lineare Beziehung zw. Reaktions- und Verstärkungsrate • VI-Plan: ganz andere Beziehung: egal wie schnell man reagiert, man kann nicht mehr als festgelegte Anzahl von Verstärkern pro Zeiteinheit bekommen • Verstärkungsrate sinkt bei sehr niedrigen Reaktionsraten, weil VI-Uhr manchmal angehalten wird, wenn Verstärker bereitgestellt worden ist, und erst wieder einsetzt, nachdem man reagiert & Verstärker erhalten hat. • solange man mit mäßiger Geschwindigkeit reagiert, erwirbt man fast alle möglichen Verstärker pro Zeiteinheit • Response Reinforcer Correlation Theory nimmt an, dass Organismen in der Lage sind, kurzfristige Funktionen zu ignorieren und die langfristige Beziehung zw. Reaktions- und Verstärkungsrate zu lernen langfristig genau zu schätzen VII. OPERANTE KONDITIONIERUNG – TEIL 3 117. Was versteht man unter negativer Verstärkung? Erläutern Sie Ihre Definition mit einem Laborexperiment und mit einem Alltagsbeispiel. • Definition: Frequenz eines Verhaltens nimmt zu, wenn Stimulus nach Auftreten des Verhaltens weggenommen wird = Kopplung von Verhalten mit dem Ausbleiben eines Stimulus erhöht dessen Auftretenswahrscheinlichkeit aversiver Reiz hört auf, wenn Verhalten gezeigt (negative reinforcement, avoidance, escape) • Laborexperiment: Solomon & Wynne (1953): Hunde, Zweikammerkäfig, je eine Lampe pro Kammer mit einem Sprung über die Trennwand des Käfigs kann Hund vor dem Elektroschock, den er über den Metallboden erhält, fliehen Ablauf: Licht geht in Kammer 1 aus, nach 10 sec. kommt der Schock bis Hund über die Barriere in Kammer 2 gesprungen ist nach einigen Durchgängen zeigt Hund keine Fluchtreaktion mehr, sondern springt schon während der 10 sek. Dunkelheit, d.h. er zeigt eine Vermeidungsreaktion Ergebnis: negative Verstärkung: Ausbleiben des Elektroschocks erhöht die Auftretenswahrscheinlichkeit des Sprungs schon während der 10 Sekunden: kürzere Latenz • Alltagsbeispiel: Schule schwänzen: Schule nervt, Lehrer ist streng Kind geht nicht in die Schule keiner nervt mehr, also negativer Kontext „Schule“ ist weggenommen Auftretenswahrscheinlichkeit von „nicht in die Schule gehen“ wird erhöht 118. Definieren Sie positive und negative Bestrafung jeweils anhand eines Alltagsbeispiels. positive Bestrafung: • Verhalten von unangenehmem Reiz gefolgt: Kopplung von Verhalten mit Auftreten eines Stimulus reduziert dessen Auftretenswahrscheinlichkeit • Bsp.: Kopplung von in der Schule schwätzen & nachsitzen müssen man schwätzt weniger oder seltener negative Bestrafung: • Folge eines Verhaltens: angenehmer Reiz wird beseitigt, entzogen: Kopplung von Verhalten mit dem Ausbleiben eines Stimulus reduziert dessen Auftretenswahrscheinlichkeit • z.B.: zu spät vom Ausgehen nach Hause kommen Taschengeldabzüge 119. Was versteht man unter Flucht- und was versteht man unter Vermeidungsverhalten? Geben Sie jeweils ein Beispiel. Erklärt man die Aufrechterhaltung dieser Verhaltensweisen durch Verstärkung oder durch Bestrafung? Warum? • Fluchtverhalten: Reaktion setzt erst nach Beginn des aversiven Reizes ein • Bsp.: Hund springt erst nach Beginn des Elektroschocks über die Trennwand des Käfigs • Vermeidungsverhalten: durch Reaktion bekommt Tier keinen aversiven Reiz zu spüren • Bsp.: Hund spring vor Beginn des Elektroschocks über die Trennwand bekommt keinen Schock mehr ab • Erklärung für Aufrechterhaltung: Erklärung durch negative Verstärkung • weil: aversiver Reiz wird beendet (bei Fluchtverhalten) oder entfällt/ bleibt aus (bei Vermeidungsverhalten), wenn Reaktion ausgeführt wird. Auftretenswahrscheinlichkeit der Reaktion steigt 120. Was ist damit gemeint, dass Bestrafung „parasitär zur Verstärkung“ ist? Welche Implikationen ergeben sich daraus für die Löschung von Verhalten durch Bestrafung? • Bestrafung = auf Verhalten folgt aversive Situation • Dazu muss Verhalten erst gezeigt werden damit es bestraft werden kann. • Damit Verhalten gezeigt wird, muss es vorher verstärkt werden. Es wird nur gezeigt, wenn es vorher positiv verstärkt wurde, d.h. ohne vorherige Verstärkung kann keine Bestrafung erfolgen. • deshalb nennt man Bestrafung „parasitär“ zur Verstärkung, weil es nur mit vorheriger Verstärkung überhaupt funktionieren kann (wie bei Krokodil & Parasitenvogel, d.h. der eine kann nicht ohne den anderen leben = fast wie symbiotisches Verhalten) 121. Schildern Sie Aufbau und Ergebnisse eines Experiments zur Bestimmung spezifischer und unspezifischer Effekte von Bestrafung auf Verhaltensunterdrückung. • Aufbau: - Phase 1: Ratten werden trainiert entweder Hebel zu drücken, oder an einer Kette zu ziehen, um Futter zu erhalten - Phase 2: nach Training ist nur noch eine Verhaltensmöglichkeit (Kette oder Hebel) für Tier verfügbar → unter diesen Konditionen wurden Ratte entweder spezifischer Bestrafung (Schock nach jeder Reaktion) oder unspezifischer Bestrafung (non-kontingent) ausgesetzt - Testphase: Tiere haben wieder Zugang zu beiden Verhaltensmöglichkeiten um Futter zu bekommen • Ergebnis: - in der Gruppe, welche in Phase 2 kontingente Schocks erhalten hatte, war die Unterdrückung für das mit dem Schock gekoppelte Verhalten (z. B. Kette ziehen) stärker, als für das Verhalten, welches nicht mit dem Schock gekoppelt (z. B. Hebel drücken) worden war - in der Gruppe, welche non-kontingente Schocks erhalten hatte, war die Verhaltensunterdrückung für Hebel drücken und Kette ziehen nahezu gleich → d.h. Verhalten wird durch Bestrafung stärker in der Kontingenz-Bedingung unterdrückt (wird bestimmtes Verhalten bestraft, geht Häufigkeit des Auftretens dieses Verhalten stark zurück, wohingegen nicht spezifisch bestrafte Verhaltensweisen unverändert häufig auftreten) - Bestrafung erzeugt nicht mehr Unterdrückung von nicht bestraftem Verhalten als nonkontingente Schocks - es ist die Präsentation eines aversiven Stimulus und nicht die Bestrafung, welche die generelle Unterdrückung verursacht → Bestrafung führt zu CER (Aggression, Angst, Furcht) → generelle Verhaltensunterdrückung - Angst (bei vorhersagbarem Schock, kontingent) erzeugt dabei spezifischere Verhaltensunterdrückung als Furcht (Schock unvorhersagbar) → spezifische Verhaltensunterdrückung bei verhaltenskontingenter Bestrafung (Angst) 122. Von welchen Faktoren hängt die Effizienz von Bestrafung ab? Wie sollte effiziente Bestrafung in Alltagskontexten (Erziehung, Verhaltenstherapie) aussehen? Faktoren: • Konsequenz • Intensitätseffekte: Art der Einführung • Kontiguitätseffekte: zeitliche Nähe, Unmittelbarkeit der Bestrafung • Bestrafungsplan (FR-1 am effektivsten) • Verhaltensmotivation Motivation hoch Bestrafung hat geringe Auswirkung auf Verhalten & umgekehrt = umgekehrt proportional • Verfügbarkeit alternativer Verhaltensweisen Bestrafung sollte: • intensiv beginnen und unmittelbar erfolgen • mit dem Aufbau eines alternativen (erwünschten) Verhaltens zur Erlangung des Verstärkers kombiniert werden, einhergehen • auf jede unerwünschte Reaktion folgen, also FR-1-Plan 123. Schildern Sie Aufbau und Ergebnisse der beiden Standardexperimentalparadigmen zur Analyse von Vermeidungsverhalten. Flucht-/Vermeidungslernen mit Hinweisreizen (Solomon & Wynne, 1954) Aufbau: • Zweikammerkäfig mit Metallboden, der unter Strom gesetzt werden kann • Lampe in jeder Kammer • Hund in einem Teil Licht aus = Hinweisreiz nach 10 Sec.: Schock • springt zu Beginn in andere Kammer = Fluchtreaktion Ergebnis: • einige Durchgänge später springt nach 2 sec. also vor Schock = Vermeidungsverhalten • Schock wird systematisch umgangen • Trotz Löschung des Schockmechanismus erscheint Flucht- /Vermeidungsverhalten das spricht für markante Löschungsresistenz des Vermeidungsverhaltens Unangekündigtes Flucht-/ Vermeidungslernen / freie operante Vermeidung, „Sidman“Vermeidung (Sidman, 1953) Aufbau: • Ratte: alle 5 sec. Elektroschocks nur, wenn keine Reaktion • wenn Vermeidungsreaktion (= Hebeldrücken) dann nächster Schock um 30 sec. verschoben bei jeder Reaktion Ergebnisse: • Zeit ist Stimulus für Ratte = Hinweisreiz • reagiert häufig genug um viele Schocks zu vermeiden • Verhalten zur Vermeidung wird robuster 124. Erklären sie Vermeidungsverhalten mithilfe der Zwei-Faktoren-Theorie. • zwei Faktoren: KK und OK: beide erforderlich, damit Vermeidungsreaktion auftritt 1. KK: UR auf Schock = Angst → bei KK wird Angst von einem US (Schock) auf einen CS (Stimulus, welcher Schock vorausgeht, z.B. 10 sec Dunkelheit) übertragen → nach 10 sec und einigen Durchgängen reagiert Tier mit Angst auf Dunkelheit und Empfindungen, die Angstreaktionen begleiten, sind unangenehm → klassische Konditionierung der Angstreaktion auf anfänglich neutralen Stimulus= erster Prozess der Theorie 2. OK: Verstärkung der Vermeidungsreaktion (neg. Verstärkung) → geschieht dadurch, dass Beendigung des CS (z.B. Dunkelheit) die Angst reduziert - neg. Verstärkung, da aversiver Reiz (Dunkelheit) weggenommen wird - Vermeidungsreaktion und Entfernung vom Angst auslösenden CS wird durch Angstreaktion verstärkt - Vermeidungsreaktion =Fluchtreaktion • nach dieser Theorie ist Verstärker für eine Vermeidungsreaktion nicht Vermeidung des Schocks, sondern die Flucht vor dem Angst auslösenden CS 125. Welche experimentellen Ergebnisse zum Vermeidungsverhalten stützen die ZweiFaktoren-Theorie, welche Ergebnisse lassen sich auf der Basis der Zwei-FaktorenTheorie nicht erklären? pro: Erwerb neuen Verhaltens um Furchtsignal zu beenden (Miller 1948) Ratte: weiße Kammer + Elektroschocks weiße Kammer = aversiver Reiz • I. Rad drehen Tür öffnet sich Ratte kann fliehen (aber: jetzt keine Schocks mehr, also eigtl. Löschungsphase!) • II. Hebel drücken aus Kammer fliehen • Ratte lernt neues Verhalten, das zu Furchtvermeidung und Verlassen der Kammer führt, obwohl vorher nie mit weißer Kammer kombiniert Suppressionseffekte des Furchtsignals (Kamin et al., 1963) • Hebel drücken lässt nach, wenn danach das Licht ausgeht aufgrund des Hebeldrückens und deshalb der Schock kommt Rescorla & LoLordo, 1965; Weisman & Litner, 1969: • Erzeugung eines Angst auslösenden CS Beobachtung seiner Wirkungen in einer anderen Situation • Aufbau: Hunde, Zweikammerkäfig • Ton + Elektroschock • zurück zur Vermeidungsaufgabe: Ton präsentiert (ohne Schock) • Ergebnis: immer bei Ton nahm Springen drastisch zu • Stimulus, der speziell als Angst- CS trainiert ist, kann vorhandenes Vermeidungsverhalten erweitern contra: Vermeidung ohne CS (Hernstein & Hineline 1966) • Tiere lernen Vermeidungsverhalten auch ohne abgelaufene Zeit oder äußere CS • Aufbau: P= 30%, wenn Hebel nicht gedrückt, wenn Hebel gedrückt: P = 10% durchschnittl. • d.h. Reaktion ≠ Gewähr für festgelegte Zeitspanne ohne Schocks • Ergebnis: Tiere lernen: 1) Vermeidungsreaktion, obwohl weder äußerer CS noch abgelaufene Zeit zuverlässiges Schocksignal sind 2) durchschnittliche Schockrate bei Reagieren oder Nichtreagieren einzuschätzen • Angst steuert nicht mehr das Verhalten, Vermeidung ohne CS, d.h. kein Zeichen von Furcht mehr nach gut gelernter Vermeidung, denn Tier weiß, ihm passiert nichts, solange es in andere Kammer springt • Löschung von Furcht und Vermeidung: - keine Zyklen von Löschung und Wiederaufbau - aber: Löschung nach Response-Blockierung • keine Erklärung der Aufrechterhaltung des Vermeidungsverhaltens • Ein-Faktor-Theorie kann Ergebnisse erklären • Zwei-Faktoren-Theorie wird widerlegt 126. Schildern Sie den Aufbau und das Ergebnis der Untersuchung von Hernstein & Hineline (1966) zum Vermeidungsverhalten. Welche Theorie des Vermeidungsverhaltens wird durch diese Untersuchung widerlegt? Welche Ansätze können das Ergebnis der Untersuchung erklären? • Aufbau: o jede Reaktion (Hebel drücken) brachte eine Ratte von einem Plan, in dem nach einem 2 sec. Intervall mit 30% Wahrscheinlichkeit ein Elektroschock erfolgte, vorübergehend in einen Plan, mit einer Wahrscheinlichkeit von 10% o Bsp: P für Schock nach 2 sec-Intervall = 30 % aber nur 10% wenn Ratte gerade den Hebel gedrückt hatte o um Zahl der Schocks gering zu halten, sollte Ratte mögl. oft im 10% Plan reagieren o Versuchstiere konnten durch Reaktion viele Schocks vermeiden, aber Reaktion bot keine Gewähr für eine festgelegte Zeitspanne ohne Schock o wenn im 10% Plan Stromschlag erfolgte (nicht durch Tier beeinflussbar) wechselte Tier wieder in 30% Plan und blieb dort bis zur nächsten Reaktion o → Tier kann Anzahl der Schocks drosseln, aber nie ganz vermeiden o → Zeit nicht mehr zuverlässiger Prädiktor für Auftreten od. Ausbleiben des Schocks, d.h. kein systematischer Zusammenhang zw. Zeit seit letzter Reaktion und Schock • Ergebnis: trotzdem drückt Tier mit Regelmäßigkeit den Hebel und lernt somit irgendwann ein Vermeidungsverhalten o Tiere können Vermeidungsreaktion lernen, wenn weder abgelaufene Zeit noch äußere CS zuverlässiges Schocksignal sind o Tier muss es möglich sein die durchschnittliche Schockrate bei reagieren oder nicht reagieren einschätzen zu können • widerlegt die Zwei- Faktor-Theorie (denn Angst spielt keine Rolle mehr) • Erklärung der Ergebnisse mit der Ein- Faktor-Theorie 127. Wie erklärt man Vermeidungsverhalten mit der Ein-Faktor-Theorie? operanter Vermeidung: • Reduktion in der Frequenz aversiver Ereignisse verstärkt Vermeidungsverhalten • nicht reduzierte Kontingenz sondern „Schock-freie-Phase“ ist der effiziente Verstärker Dissoziation von Verzögerung und Häufigkeit • Ein-Faktor-Theorie = operante Vermeidung bzw. Konditionierung 128. Nenne Sie die Kernannahmen der kognitiven Theorie des Vermeidungsverhaltens. Welche Ergebnisse zum Vermeidungsverhalten lassen sich nur durch diese Theorie erklären? Seligman & Johnston, 1973 • Erklärung auf Basis von Präferenzen, Erwartungen und Bestätigung / Widerlegung • P: kein Schock ist besser als Schock • E1: wenn Reaktion, dann P für Schock niedrig • E2: wenn keine Reaktion, dann P für Schock hoch • Bestätigungen: wenn R ¬Schock, ¬R Schock • Widerlegung: R Schock, ¬R ¬ Schock • kann Löschungsresistenz erklären: Tier glaubt, dass wenn R ¬Schock, also merkt es nicht, dass deshalb kein Schock mehr auftritt, weil es ein Extinktionsdurchgang ist • kann Erfolg der Reaktionsblockierung erklären: keine Reaktion laut Erwartung des Tieres folgt Schock • aber: ¬R ¬ Schock Erwartung ändert sich allmählich Vermeidungsverhalten verschwindet allmählich • Verhalten ändert sich bei Vermeidungsaufgaben immer dann, wenn eine Diskrepanz zw. Erwartung & Realität besteht • Kognitive Theorie ist die einzige Theorie, die die Löschungsresistenz erklärt (Löschungsresistenz wird auch durch Ein-Faktor-Theorie erklärt: keine Veränderung in Verstärkungsbedingungen keine Veränderung im Verhalten, 2-Fkt.Theorie erklärt nicht) 129. Erläutern Sie den Begriff der spezies-spezifischen Defensiv-Reaktionen (SSDR). Welche Implikationen ergeben sich auf der Basis der biologischen Theorie für die Allgemeingültigkeit von Vermeidungsverhalten? • spezies-spezifische Defensiv-Reaktion (SSDR) = sehr wirksame angeborene Verteidigungsreaktionen, die auftreten, wenn Tier einem neuen oder plötzlichen Reiz begegnet • Implikationen: in Laboruntersuchungen des Vermeidungsverhaltens werden diejenigen Verhaltesweisen schneller gelernt, die dem natürlichen Vermeidungsverhalten am ähnlichsten sind • häng auch von der Art des Verstärkers ab: natürliche Reaktion bei Futter als Verstärker ≠ Reaktion bei Schocks als Verstärker • SSDRs werden leicht als Vermeidungsverhalten erworben, andere Verhaltensweisen lassen sich nur sehr mühsam als Vermeidungsverhalten aufbauen 130. Warum ist es häufig so schwierig, in Alltagssituationen zu erkennen, dass ein Verhalten durch Vermeidung motiviert ist? • weil nicht sichtbar, weil wir weder Anlass noch Konsequenz sehen: bei gutem Vermeiden sieht man ja die Konsequenz nicht (siehe Hund vermeidet Schock bekommt kein Schock) • z.B. Rechnung bezahlen (Verstärker: keine Mahnung von Firma) 131. Schildern Sie den Untersuchungsablauf und die Ergebnisse der frühen Studien von Overmier & Seligman (1967) zur gelernten Hilflosigkeit. Ablauf: I. Hund in Geschirr festgebunden – unkontrollierbaren Schocks ausgesetzt II. kommt anschließend in Zweikammerkäfig mit Licht und & Schock Ergebnisse: Hunde, die keine Phase I erlebten (= Kontrollgruppe) lernen in Zweikammerkäfig wenn das Licht ausgeht in die andere Kammer zu springen (siehe Solomon & Wynne) Hunde mit Phase I (= Experimentalgruppe): gehen herum, freezing, legen sich hin, winseln während des Schocks, aber versuchen nicht, zu entkommen: glauben, dass sie nichts machen können: 2/3 der Tiere lernen keine Vermeidungsreaktion Passivität, Hunde gehen davon aus, dass ihr Verhalten keine Auswirkungen hat Beeinträchtigung späteren Vermeidungslernens nach unkontrollierbaren aversiven Reizen 132. Erklären Sie das klassische yoked-control Design der Hilflosigkeitsforschung. Welche zentrale Konfundierung kann hiermit ausgeschaltet werden? Was ist demnach der zentrale Wirkfaktor beim so genannten Hilflosigkeitstraining? • yoked-control-design: drei Ratten in getrennten Käfigen mit Laufrädern → Ratte 1 keine Schocks (control), Ratte 2 kann Schocks vermeiden indem sie in Laufrad läuft und Ratte 3 kann Schocks nicht durch Laufen in Laufrad vermeiden • Ratte 2 und 3 haben gleiche Anzahl an Schocks mit gleicher Intensität bekommen, nur dass Ratte 2 durch Laufrad drehen die Schocks abstellen konnte und das gleichzeitig für Ratte 3 die Schocks aufhörten → Ratte 3 war somit vom Tier in Käfig 2 abhängig und hatte keinen Einfluss auf die Schocks (wusste aber nichts von Ratte 2) • in anschließender Vermeidungsprozedur lernt Ratte 2 schneller das Vermeidungsverhalten als Ratte 3, weil Ratte 3 glaubt, sie kann Schocks nicht beeinflussen • zentrale Konfundierung ausgeschaltet: Vermeidungsverhalten nicht von Menge oder Intensität des aversiven Stimulus abhängig Intensität & Menge haben keinen Einfluss • zentraler Wirkfaktor: ob Ratte vorher die Möglichkeit hatte, Flucht- oder Vermeidungsverhalten zu lernen, Kontrolle über Vermeidungsverhalten & abhängig von systematischem Zusammenhang Verstärker/Bestrafung und Reaktion 133. Was versteht man unter Generalisierungseffekten bei der gelernten Hilflosigkeit? Schildern Sie zur Erklärung die klassischen Studien von Hiroto & Seligman (1975). • I. Studentengruppe 1: wurden laute Geräusche präsentiert, die sie nicht vermeiden konnten • Studentengruppe 2: wurden keine Geräusche präsentiert bzw. konnten Töne durch Tastendruck kontrollieren • II. Phase: Studenten sollten Anagramme lösen • Ergebnisse: 1. Gruppe lernt viel langsamer, gibt schneller auf, scheint sich nicht so viel zuzutrauen, nach vielen Durchgängen erst langsame Fortschritte, Kontrollverlust als Ursache für ein globales Motivationsdefizit, frühere Erfahrungen mit nicht kontrollierbaren aversiven Ereignissen erzeugt Gefühl der Hilflosigkeit, das sich auf andere Situationen überträgt. IX. OPERANTE KONDITIONIERUNG – TEIL 4 134. Nennen Sie die verschiedenen Arten von Assoziationen, die im Zuge der operanten Konditionierung entstehen können. Welche experimentellen Ergebnisse lassen sich als Beleg für die Entstehung der unterschiedlichen Typen von Assoziationen anführen? • R-S*: Assoziation von Verhaltensweisen und Verstärkern, Spezifische Erwartung eines bestimmten Verstärkers (S*) als Folge bestimmter Verhaltensweisen (R) Abwertung spezifischer Verstärker führt zur Reduktion der assoziierten Verhaltensweisen • Beleg: Studie zur Abwertung: I. Hebel Futter S1*, Kette Zuckerwasser S2* o II. Zuckerwasser: Übelkeit durch Giftspritze Zuckerwasser bekommt negative Valenz o III. Hebel +, Kette o Ergebnis: Assoziation Kette-Zuckerwasser bleibt bestehen, Entwertung erfolgt spezifisch • S-S*: Assoziation von diskriminativen Hinweisreizen und Verstärkern, Erwartung bestimmter Verstärker (S*) in bestimmten Situationen • Beleg: Colwill & Rescorla, 1988: o I. LichtFutter, TonZuckerwasser o II. HebeldrückenFutter, Kette ziehen,Zuckerwasser o III. Licht, Ton wieder einführen: LichtHebeldrücken, TonKette ziehen dominiert o Ergebnis: diskriminativer Hinweisreiz aus I. modifiziert Verhalten Beweis f. S-S* Assoziation zwischen diskriminativem Hinweisreiz und Verstärker • S-R: Assoziation von Hinweisreizen und Reaktionen • Beleg: (geringe Evidenz): "Einbrennen" von Habits (sHR)durch Verstärkung (Hull 1943) o je öfter der Verstärker assoziiert wird, um so stärker wird die Assoziation und der Habit (Gewohnheit) o Habit nicht mit Verstärker assoziiert, sondern Verstärker hat nur Katalysatorfunktion und wird nicht Teil der Assoziation o Restverhalten nach Verstärkerabwertung (Ratte zieht an Kette, auch wenn sie Zuckerwasser (vorher Übelkeit erzeugend) nicht mehr trinkt) 135. Schildern Sie die bahnbrechende Untersuchung von Tolman& Honzik (1930) zum latenten Lernen und deren Ergebnisse. Welche wichtige Implikation lässt sich aus dieser Untersuchung für den Wirkungsbereich der operanten Konditionierung ableiten? Aufbau: • drei Gruppen Ratten, 17 Durchgänge, 1 /Tag in Labyrinth mit 14 Abzweigungen • 1. Gruppe: Kontrollgruppe: keine Verstärker: nie gefüttert, wenn Ratte an Ziel kommt • 2. Gruppe: immer Futter als Verstärker in Zielkammer • 3. Gruppe: bis 11. Tag, 11.Durchgang kein Verstärker, dann immer Verstärker: Futter Ergebnis: • 1. Gruppe: Fehler sinken gering, pendeln sich bei ca. 7 pro Durchgang ein • 2.Gruppe: Fehlern sinken stark &relativ schnell: typische Lernkurve, ca.3 Fehler/Durchgang • 3. Gruppe: zuerst wie in 1.Gruppe, ab 12. Durchgang schnell sogar besser als 2.Gruppe (bei 11.Durchgang wussten Ratten ja noch nicht, dass es am Ziel Futter gibt) Implikationen: • Verstärkung ist nicht für Erlernen einer neuen Reaktion erforderlich, sondern bildet jedoch die Voraussetzung für deren Ausführung • Lernen hängt von der Art des Verstärkers ab, bzw. davon, ob Verstärker verabreicht wird: Erwartung bzgl. des Verstärkers • Tiere lernen auch ohne Verstärker, sie sind nur nicht motiviert, zu zeigen, was sie gelernt haben, wenn sie keinen Verstärker erhalten 136. Schildern Sie eine Untersuchung, die belegt, dass auch ohne Ausführung von Reaktionen gelernt werden kann. Welches Grundprinzip der operanten Konditionierung wird durch diese Untersuchungen in Frage gestellt? Was genau wird bei solchen Untersuchungen offenbar gelernt? Labyrinthlernen auch bei passiver Bewegung im Drahtkorb (McNamara et al., 1956) Aufbau: 2 Gruppen Ratten, T-Labyrinth • I. jeweils zwei Ratten sind einander zugeordnet, eine läuft und die andere wird den selben Weg in Drahtkorb geschoben, d.h. beide Ratten erhalten gleich viele Durchgänge mit Futter als Verstärker und nach falsch abbiegen 1 min eingesperrt • II. Käfig-Ratten dürfen auch laufen, aber Extinktionsdurchgänge, d.h. keine Verstärker • Ergebnis: 2.Gruppe=Käfig-Ratten laufen genauso oft richtig wie 1. Gruppe, wenn Futter da ist läuft Ratte systematisch zu Futter, d.h.: • Ratte hat etwas gelernt, obwohl sie in der I. Phase passiv war und keine Reaktion gezeigt hatte aktives Reagieren ≠ notwendige Bedingung für Erwerb einer operanten Reaktion • Grundprinzip des „Lernen durch Versuch und Irrtum“ wird in Frage gestellt, also aktive Reaktionen als notwendiger Bestandteil der OK • offenbar lernen Ratten in Versuchsgruppe die räumliche Anordnung & Abfolge von Ecken und Kurven (kognitive Landkarte) auch ohne Verstärkung: latentes Lernen 137. Inwiefern ist die naive Verhaltenserklärung durch das Konzept der Verstärkung zirkulär? Wie kann man das Zirkularitätsproblem in den Griff bekommen? • Definition: „Verstärker“ = „Stimulus, der künftig die (Auftretens-)Wahrscheinlichkeit des Verhaltens, auf das er folgt, erhöht.“ • Zirkelschluss: Stimulus wird Verstärker genannt, weil er ein Verhalten verstärkt und es wird angenommen, dass er das Verhalten verstärkt, weil er ein Verstärker ist • →in dieser Definition eines Verstärkers ist kein Vorhersagewert, -element inbegriffen • Lösung des Problems: unabhängige Kriterien dafür aufstellen, welche Stimuli Verstärker darstellen und welche nicht • Finden von Regel, die uns im Voraus sagt, ob ein Stimulus als Verstärker wirkt (Regel, die neue, überprüfbare Vorhersagen erlaubt) valides Konzept: Prinzip der Reaktionsdeprivation (= besser als Bedürfnis- und Triebreduktion, besser als Transsituationalitätsprinzip & besser als Premack’sches Prinzip) 138. Schildern Sie das Transsituationalitätsprinzip der Verstärkung von Meehl. • interindividuell unterschiedliche Verstärker • intraindividuelle über Situationen hinweg konstante Verstärker = Transsituationalität • Prinzip besagt, dass ein Stimulus, der in einer Situation als Verstärker fungiert, auch in anderen Situationen ein Verstärker ist • z.B.: gesüßtes H2O für Ratte in Experiment verstärkt Verhalten in Laufrad sollte auch in einem anderen Experiment als Verstärker fungieren 139. Erläutern Sie die Begriffe der Verstärkung und Bestrafung mittels des Premack’schen Prinzips. Schildern Sie eine Untersuchung von Premack, mit der die Unzulänglichkeit des Transsituationalitätsprinzips nachgewiesen wurde. • Verstärkung ist laut Premack’schem Prinzip kein Reiz, sondern die Gelegenheit, ein bestimmtes Verhalten auszuführen • Verhaltensgelegenheiten als Verstärker: Wahrscheinliches Verhalten als Verstärker für seltenes Verhalten • Verstärker beinhaltet fast immer nicht nur Stimulus (Futter), sondern auch Verhalten (Fressen) kann auch Verhalten sein, das operante Reaktion verstärkt • Verhalten mit höherer Wahrscheinlichkeit ist das Verhalten, dessen Baseline höher liegt, also das Verhalten, das in Kontrollphase mit freier Betätigung des Tiers öfter auftritt • Verstärker = Kontingenz zwischen zwei Verhaltensweisen • Bestrafung: Verhalten mit geringerer Auftretenswahrscheinlichkeit dient als Bestrafung für Verhalten, das mit höherer Wahrscheinlichkeit auftritt • da das Tier weniger wahrscheinlich Verhalten vielleicht nicht ausführt, wenn es die Wahl hat, muss dieses Verhalten verlangt werden: • Nutzung der reziproken Kontingenz um sicherzustellen, dass Verhaltensweisen in fester Quote zueinander auftreten • Untersuchung: I. Phase: Affen dürfen verschiedene Dinge frei ausüben: Hebel drücken: Wahrscheinlichkeit hoch: spontan am häufigsten ausgeführt Tür öffnen: Wahrscheinlichkeit mittel Kolben ziehen: Wahrscheinlichkeit niedrig • II. Phase: Paare von Gegenständen präsentiert: 1.Gegenstand als „operante Reaktion“ 2. Gegenstand als „Verstärker“ • man konnte nur an den 2.Gegenstand gelangen, wenn erste Reaktion ausgeführt worden war • Ergebnisse: Hebel diente als Verstärker für Tür öffnen und Kolben ziehen Tür öffnen diente als Verstärker für Kolben ziehen, aber nicht für Hebel Kolben diente für keine Verhaltensweise als Verstärker • Premacks Prinzip bestätigt, Transsituationalitätsprinzip widerlegt: „Tür öffnen“ ist nicht in allen Situationen ein Verstärker 140. Erläutern Sie die Theorie der Reaktionsdeprivation. Mit welchem Untersuchungsergebnis wurde die Überlegenheit dieser Theorie gegenüber dem einfachen Premack’schen Prinzip nachgewiesen? • Reaktionsdeprivation: eine von zwei Verhaltensweisen wird aufgrund ihrer eingeschränkten Verfügbarkeit zu einem relativ kostbaren Gut, sofern der (Verstärker-)Plan nicht exakt dem Basisverhältnis entspricht • das stärker eingeschränkte Verhalten wird zum Verstärker für das weniger eingeschränkte Verhalten • Untersuchung: Timberlake & Allison (1974) o Ratte kann Laufen und Trinken so lange und so viel sie will: Baseline pendelt sich bei einem Verhältnis von (Laufen) 1,7:1 (Trinken) ein, d.h. Laufen ist hier der Verstärker o wenn ein Verstärkerplan eingeführt wird, bei dem die Ratte ein Verhältnis von 9:1 erfüllen muss, ist Laufen der Verstärker, bei einem Plan von 1:3 ist Trinken der Verstärker o Ergebnis: Ratte versucht immer das Verhältnis der Baseline aufrechtzuerhalten, also so viel zu trinken, dass sie noch so viel laufen darf, dass das Baseline- Verhältnis wenigstens annähernd erhalten bleibt, bzw. so viel zu laufen, dass sie wenigstens annähernd so viel trinken darf, wie sie es in freier Betätigung tun würde. • Prinzip erlaubt uns also vorherzusagen, ob Aktivität als Verstärker wirkt oder nicht, indem wir die Wahrscheinlichkeit dieses Verhaltens und die des zu verstärkenden Verhaltens in der Baseline-Phase beobachten • Theorie kann z.B. erklären, wieso Tier mehr trinkt über Basisrate hinaus um sich mehr Laufzeit zu verdienen • Verhältnis von Baseline ungefähr beibehalten je weiter Verhältnis von Baseline weg: auch unbeliebtes Verhalten kann zum Verstärker werden, also wird das Verhalten, das stärker vom Verhältnis in der Baseline abweicht, zum Verstärker 141. Auf welche Formen von Verstärkung und Bestrafung ist das Premack’sche Prinzip nicht unmittelbar anwendbar? • Verstärkung durch elektrische Stimulation des Gehirns Ratten drücken Hebel immer, bis zur Erschöpfung • Bestrafung durch Elektroschock: Es ist egal wie wahrscheinlich das Verhalten vorher war • Konditionierte Verstärkung 142. Schildern Sie eine Untersuchung, mit der gezeigt wurde, dass Verhalten auch eingesetzt wird, um Information über Verstärker zu erhalten, auch wenn dies keinen Einfluss auf die tatsächliche Menge der Verstärkung hatte. Wie kann man zeigen, dass dennoch auch in diesem Fall „innere“ Motive für die Verhaltenssteuerung wichtig sind? Aufbau: F-50-Plan und F-10-Plan, zwei Hebel, die identisch funktionieren 2. Hebel zeigt Ratte, in welchem Plan sie sich befindet: leuchtet „grün“ heißt, sie ist im F-10Plan, leuchtet nicht heißt, sie ist im F-50-Plan Ergebnis: Ratte zeigt Präferenz für Leucht-Tasten-Hebel, weil sie da weiß, in welchem Plan sie ist, obwohl die Verstärkerpläne unabhängig davon, welche Taste sie drückt, wechseln, also die Verstärkerrate bei beiden Tasten gleich bleibt motivationale Basis: Wenn das Licht auch manchmal Schocks ankündigt, dann will Ratte das nicht wissen, also ist das Motiv: Wunsch nach Vorfreude observing responses nur bei positiver Information, nur die dient als Verstärker inneres Motiv X. RELATION VON OPERANTER UND KLASSISCHER KONDITIONIERUNG 143. Was sind die Kernaussagen der Zwei-Faktor-Theorie zur Unterscheidung von klassischer und operanter Konditionierung? • KK und OK sind distinkte Phänomene, die auf unterschiedlichen Prinzipien und Verhaltensklassen beruhen S-S-Lernen vs. R-S-Lernen durch Folgen gesteuert US-CS Verhalten-Konsequenz Sprung Beendigung des CS: Angst von US: Dunkelheit Angst wurde Elektroschock auf CS: Dunkelheit reduziert übertragen • Unterschiedliche Verhaltensklassen: o KK im Bereich des respondenten Verhaltens: autonome Reaktionen, nicht willentliche steuerbar o OK im Bereich des operanten Verhaltens: Willkürmotorik, über die Skelettmuskulatur gesteuertes, kontrolliertes Verhalten 144. Nennen Sie Aufbau und Ergebnisse der Untersuchungen von Miller und DiCara, durch die belegt wird, dass auch autonome Reaktionen durch Verstärkung modifiziert werden können. Aufbau: • Ratten mit Curare gelähmt. Skelett-& Atemmuskulatur • künstlich beatmet können nicht sterben • Herzfrequenz der Tiere messen • im Gehirn: Draht, implantierte Elektrode, die das Lustzentrum stimuliert • warten auf Situation, in der Herzschlagfrequenz leicht erhöht (z.B. 450/min – Durchschnitt bei Ratten ist 400 pro min) • sobald erhöht, belohnen mit elektrischer Stimulation (ESG = Verstärker) • shaping- Prozedur: Kriterium höher setzen Ergebnis: • substantielle Änderung der Herzfrequenz in beide Richtungen (500 Schläge/min am Ende der Sitzung anstatt von 400 bei Erhöhung oder 330 am Ende der Sitzung anstatt von 400 zu Beginn) • Tier „lernt“ höhere Herzschlagfrequenz, obwohl sie aktiv nichts tun kann • funktioniert auch mit systematischer Senkung der Herzrate • Verstärkung kann neben Herzfrequenz auch andere organische Reaktionen steuern • auch autonome Reaktionen lassen sich operant konditionieren durch positive Konsequenz (= Verstärkung) 145. Schildern Sie die Ergebnisse der Untersuchungen von Gamzu und Williams (1971), durch die eine klassische Konditionierung operanter Reaktionen nachgewiesen wurde (Stichwort: autoshaping). • in einer autospaping-Situation wurde die vorhersagende CS-US-Verbindung durch Hinzufügen von USs während der Abwesenheit von CSs in Phase 2 aufgehoben • in der ersten Phase wurde Futter unregelmäßig verabreicht, wenn das Licht an ging, aber Futter kam nie ohne Licht (Licht war Prädiktor für Futter) • in Phase 2 war Licht nicht mehr ein Prädiktor für Futter, da Futter auch verabreicht wurde, wenn das Licht aus war • → Anzahl der Verhalten-Verstärker-Kombinationen (absolute Kontiguität wo Futter direkt auf das Picken folgte) in beiden Phasen jedoch gleich oft aufgetreten • bei vorhandener Kontingenz zwischen Licht und Futter: P(Futter│Licht)>P(Futter│⌐Licht) wurde ein Picken auf die beleuchtete Taste generiert und aufrecht erhalten • das Picken auf die beleuchtete Taste hörte jedoch auf, sobald Futter auch verabreicht wurde, wenn die Taste nicht aufleuchtete und die Kontingenz daher aufgehoben war (P(Futter│Licht)= P(Futter│⌐Licht)) • sobald die Futtergabe zwischen den Trials wieder weggenommen wurde und die beleuchtete Taste wieder einen Informationswert erhielt (P(Futter│Licht)> P(Futter│⌐Licht)), trat auch das Picken auf die Taste wieder verstärkt auf • → Aberglaube für "autoshaped pecking" ist schwer zu rechtfertigen, weil: • wird der Vorhersagewert der pavlovschen Lichtfeld-Futter-Relation verändert, wird auch die Pickrate verändert, obwohl die vermutete abergläubische Verhalten-VerstärkerRelation nicht verändert wird • → für die Konditionierung einer operante Reaktion wie autoshaping muss wie bei der KK der CS einen Informationswert besitzen und eine Kontingenz zwischen CS und US vorhanden sein Zusammenfassung der Ergebnisse: Nach blinken der Taste kam Futter, Taube begann zu picken auf die Taste, obwohl Futter in jedem Fall kam Assoziation zwischen Licht und Futter (KK) (≠ Assoziation zwischen Pickreaktion und Futter wäre abergläubisches Verhalten) Kontingenzeffekte beim Autoshaping: Wenn Licht Futter nicht mehr zuverlässig ankündigt, taucht die Pickreaktion nicht mehr auf, auch wenn Licht-Futter genauso oft gepaart wurde, wie Futter ohne Licht auftrat 146. Erläutern Sie die Kernaussage der emotional/motivationalen Ein-Faktor-Theorie der klassischen und operanten Konditionierung. • zentrale emotional/motivational vermittelte Einflüsse von KK auf OK Schnittstelle, wo KK und OK angreift. CER = conditioned emotional reaction = Interaktion von KK und OK • Verallgemeinerung des Prinzips: Kongruenz- und Inkongruenzeffekte auf der Ebene eines zentralen Annäherungs-/Vermeidungssystems Hemmungs- und Erleichterungseffekte auf appetitiv/aversiv motiviertes operantes Verhalten durch konditionierte Reize, die das Eintreten/Ausbleiben (CS+/CS-) positiver/negativer Situationen anzeigen • KK nicht notwendig: Vermeidung des Schocks = Verstärker (Angstreduktion nicht notwendig als Verstärker) • eine CER, wie beispielsweise Angst, ist eine Reaktion, die sowohl auf die KK als auch die OK einwirkt (kündigt ein Ton einen Schock an, dann ist die klassisch konditionierte Reaktion Angst welche dann eine operante Reaktion wie einen Sprung über die Trennwand im Zweikammerkäfig auslösen kann) • → wenn klassisch konditionierter CS (Ton) operantes Verhalten beeinträchtigt/darauf wirkt, dann aufgrund eines motivationalen Status und nicht aufgrund von peripheren CRs welche durch den CS induziert werden • → der Effekt des pavlovschen CS auf das konditionierte Verhalten ist nicht immer gleich, sondern abhängig davon, welche Art von verstärkender Kontingenz operationalisiert wurde (und welche Art von Verhalten vorher konditioniert wurde) • es gibt Kongruenz- und Inkongruenzeffekte auf der Ebene eines zentralen Annäherungs/Vermeidungssystems • →motivationales System mit 2 Zuständen: Annäherung u. Vermeidung • Aktivierung des appetitiven Systems unterdrückt aversives System und anders herum • jeweiliges System produziert jeweiliges Verhalten (z.B. aversives System →aversives Verhalten (Vermeidungsverhalten, Fluchtverhalten o. ä.) • beide Systeme werden von äußeren Reizen (Futter, Schock, ...) getriggert 147. Nennen Sie drei verschiedene Beispiele, wie durch klassisch konditionierte Reize ausgelöste emotionale Zustände operantes Verhalten beeinflussen können. 1. wenn in I. Phase: Hebel drücken Tier kann Schock vermeiden II. Phase: Ton wird mit Schock gepaart Ton ist aversiver CS III. Phase: Ton in Situation wie Phase I präsentiert Hebeldrücken nimmt stark zu, weil Tier durch drücken den Schock noch mehr vermeiden möchte, weil CS Vermeidungssystem aktiviert: Aversives Verhalten verstärkt 2. wenn in Phase II Ton das Ausbleiben des Schocks ankündigt (Licht= klassisch konditionierter CS-, aversiv) → man ist von der Angst entlastet/erleichtert aversives Verhalten, also Hebel drücken wird unterdrückt, appetitives Verhalten würde verstärkt, begünstigt 3. I. Phase Hebel drücken Tier bekommt Futter II. Phase Licht gepaart mit Schock kündigt Schock an = klassisch konditionierter CS+, aversiv)→erzeugt Angst III. Phase wie in Phase I nur mit zusätzlich Licht Ergebnis: Hebeldrücken nimmt ab, weil Licht aversives Verhalten stärkt (z.B. suchen nach Fluchtmöglichkeit oder Angstreaktion) und appetitives Verhalten (hier „Hebel drücken“) unterdrückt bzw. hemmt. • ein aufleuchtendes Licht kündigt das Ausbleiben von Futter an (Licht = klassisch konditionierter CS-, appetitiv) → erzeugt Enttäuschung → Hebeldrückrate um Futter zu erhalten sinkt (operant appetitives Verhalten nimmt ab) 148. Erläutern Sie die Kernaussage der informationalen Ein-Faktor-Theorie der klassischen und operanten Konditionierung. • informational vermittelte Einflüsse von KK auf OK informationaler Charakter der Umgebung KK und OK greift ein • Redundanzeffekte zwischen KK und OK: o Blockierung operanter Reaktionen durch Information des CS o Blockierung konditionierter Reaktionen durch informativere Reaktion andere Richtung • in beiden Arten der Konditionierung scheinen die Organismen etwas über kausale Zusammenhänge von Ereignissen oder Determinanten in der Welt zu lernen; bei der KK sind dies Ereignisse in der Umwelt und bei der OK sind diese Ereignisse die Verhaltensweisen des Organismus selbst → ABER in beiden Fällen scheinen die Regeln, welche die vom Organismus gemachten kausalen Schlussfolgerungen regieren, die gleichen zu sein EIN Mechanismus für S-S- und S-R-Beziehungen • Informationscharakter von CS in der KK wirkt sich auf den Erwerb von OK Verhalten aus = Informationswert von Zusammenhängen als allgemeines Prinzip des Lernens 149. Erläutern Sie Aufbau und Ergebnisse eines transfer-of-control Experiments. Inwieweit wird durch das Ergebnis eines solchen Experiments eine emotional/motivationale Vermittlung des Zusammenwirkens von klassischer und operanter Konditionierung in Frage gestellt? Mit welcher allgemeinen Theorie erklärt man sich die Ergebnisse stattdessen? Aufbau: drei Ratten I. Phase = KK • 1. und 2.: KK: Ton-Futter-Paarungen, 3. Ratte keine KK (= Kontrollgruppe) • alle drei müssen lernen, während sie einen Ton hören den Hebel zu drücken, und wenn kein Ton zu hören ist, nicht den Hebel zu drücken II. Phase = OK • Ratte 1: operanter Verstärker ist Futter wie bei KK in Phase I • Ratte 2: operanter Verstärker ist ein anderer als bei KK: Zucker • Ratte 3: operanter Verstärker ist Futter • Ratte 1: Verstärkung des Verhaltens gegenüber der Baseline Ton-Hebel drücken –Futter, kein drücken, wenn kein Ton III. Phase = • Ratte 2: keine Verstärkung des Verhaltens gegenüber der Baseline Testphase Ton-Hebel drücken –Zucker, kein drücken, wenn kein Ton • Ratte 3: reagiert wie bei Phase II = Baseline, Kontrollgruppe Ergebnisse: • Ratte 1 lernt in Phase 3 schneller als die anderen, weil Ton in Phase I gab Ratten Information über Futter , aber nicht über Zucker, davon konnte Ratte 1 in Phase III profitieren • wenn ein CS (Ton) Informationen über einen Typ Futter (US) besitzt, führt seine Präsenz während der operanten Konditionierung nicht dazu, dass andere Futterarten (wie das Zuckerwasser für Ratte 2) leichter erlernt werden • spricht gegen globale Übertragung von Verstärkern, kein genereller Transfer bei appetitivem Lernen • bei aversivem Lernen gibt es globale Übertragung von Verstärkern • emotional-motivationale Vermittlung des Zusammenwirkens von KK und OK in Frage gestellt? – Blockierung: KK funktioniert nur bei neuer Information bisher nur innerhalb der KK gelernt, aber jetzt: Blockierungseffekt kann operantes Verhalten auch blockieren • Erklärung statt dessen: Ein-Faktor-Theorie II: informational vermittelte Einflüsse von KK auf OK. Folglich ist es zumindest unter einigen Umständen eher der informative als der motivationale Charakter des klassisch konditionierten CS welcher die Effekte auf das folgende Verhalten determiniert 150. Schildern Sie jeweils eine Untersuchung (und die dort gefundenen Ergebnisse), mit der gezeigt wird, dass (a) der Erwerb operanter Reaktionen durch eine informativeren CS bzw. (b) die klassische Konditionierung eines CS durch eine informativere Response blockiert werden kann. Welche allgemeine Sichtweise bzgl. der allgemeinen Prinzipien und Mechanismen des Lernens, die sowohl klassischen wie auch operanten Konditionierungseffekten zugrunde liegen, wird durch diese Ergebnisse gestützt? (a) • St.Claire-Smith, 1979: Blockierung von OK durch KK • Aufbau: 3 Gruppen: Hebel drücken Futter kommt nach Verzögerungspause von ca. ½ sec. • 1.Gruppe: Kein Licht in ca. ½ sec. Pause, egal ob Futter folgt oder nicht = BaselineBedingung • 2.Gruppe: Licht in ½ sec. Pause, wenn Futter kommt, = also partial reinforcement = Blockierungsgruppe • 3.Gruppe: „unpaired“: Licht = CS-, d.h. Licht kommt nur in Durchgängen, in denen kein Futter als Verstärker folgt Prüfen, ob Licht Tiere nicht unspezifisch irritiert Licht sollte in dieser Gruppe kein klassisch konditionierter CS für Futter werden und dieser Stimuli (Licht) sollten somit nicht in der Lage sein das Reaktionslernen zu blockieren) • Ratte weiß also: wenn ich Hebel drücke, steigt die Wahrscheinlichkeit, dass Futter kommt • immer, wenn Licht leuchtet nach meinem Hebeldruck, dann bekomme ich Futter nie Licht ohne folgendes Futter, nie Futter, wenn kein Licht vorher geleuchtet hat = Kontingenz • diese Kontingenz ist wirksamer, als die zwischen Hebel und Futter • Kontingenz Licht – Futter (=KK) blockiert die Kontingenz Hebeldrücken – Futter (=OK) • Ergebnis: Ratte in Blockierungsgruppe = Gruppe 2 drückt langsamer & seltener den Hebel, als in den anderen 2 Gruppen • Ratte braucht ewig um zu lernen, dass Futter auch nach manchen Hebeldrücken kommt, ohne dass Licht geleuchtet hat (b) • Klickgeräusch soll Charakter eines Verstärkers erwerben indem es mit Futter gepaart wird = sekundäre Verstärkung: Ratte mach Reaktion, um „Klick“ zu hören (irgendwann auch ohne darauf folgendes Futter) • Blockierungsgruppe: Phase I: Ratte muss in Rad laufen, dann hört sie Klick in ½ der Futterdurchgänge und bekommt dann Futter durchlief also auch Durchgänge, in denen das Rennen im Laufrad zu Futter führte, aber kein Klicken ertönte → für diese Gruppe ist Laufen ein besserer Prädiktor für Futter als das Klicken (CS), denn Laufen führte immer zu Futter wohin gegen der CS bei einigen Belohnungsdurchgängen abwesend war →Blockierung der Assoziation zwischen Klicken und Futter • Phase II: Ratte muss Hebel drücken, dann hört sie Klick • Kontrollgruppe: vor allen Futterverstärkungen hört Ratte das Klickgeräusch • Phase II = Testphase: alle Gruppen sollen lernen, Hebel zu drücken, um Klick zu hören • Ergebnis: Blockierungsgruppe-Ratten drücken langsamer Klickgeräusch ist blockiert worden, d.h. es ist kein CS für Futter geworden • Transfairfall: Kontingenz ist so, dass das Rennen im Rad ein besserer Prädiktor für Futter gewesen ist Assoziation zw. Klick und Futter wird nicht als sekundärer Verstärker gelernt Ratte lernt nicht zu drücken, um Klick zu hören • klassisch konditionierte CSs und operantes Antwort-(Reaktions-)Verhalten können als Prädiktoren für Verstärkung ausgetauscht werden • solange das Tier betroffen ist, kann entweder sein operantes Antwortverhalten, als auch ein externer Stimulus als Signal für folgende Belohnung dienen • der Blockierungseffekt legt nahe, dass, wenn einmal eines dieser Ereignisse ein zuverlässiges Signal für Verstärkung geworden ist, das andere Ereignis von dem Tier weniger genutzt wird • → somit besitzen klassisch konditionierte CSs und operante Reaktionen eine gleichartige informationale Funktion • Fazit: Informationaler Ansatz: es gibt EINEN Mechanismus, der beide Arten von Konditionierung, S-S-und R-S- Beziehungen, erklärt: Lernen von Kausalbeziehungen zwischen Ereignissen • Lernen folgt Informationsregeln: Informationswert von Zusammenhängen als allgemeines Prinzip des Lernens • Lerne nur neues, wenn es neue Information bringt • das ist die Interaktion, die KK und OK zugrunde liegt