Allgemeine Psychologie I I. BEHAVIORISMUS

Werbung
Allgemeine Psychologie I
Vorlesung Lernen
Fragen zur Lernkontrolle
I. BEHAVIORISMUS
1. a) Wie wird menschliches Verhalten im Alltag erklärt?
b) Warum ist eine Erklärung menschlichen Verhaltens nach
naturwissenschaftlichem Muster so schwierig?
zu a)
• Ende des 18. Jh.: durch rationales Kalkül, Syllogismus: logische Ableitung, Grundlage der
Verhaltenssteuerung: mentale Phänomene (Denken, Entscheiden, Wissen)
• Verhalten = eine Reaktion auf die Umwelt
zu b)
• so schwierig, weil Methoden der Naturwissenschaften nicht anwendbar sind
• Gedanken kann man nicht direkt beobachten, wiegen, zählen o.ä.
2. Was ist der Hauptkritikpunkt am Introspektionismus?
• mangelnde Replizierbarkeit, d.h. nicht auf alle übertragbar
• widersprüchliche Ergebnisse durch verschiedene Schulen und unterschiedliche
Versuchspersonen (individuelle Erfahrungen)
• keine Implikation für das Verständnis praktischer Sachverhalte
• gekonnte Introspektion erfordert viel Erfahrung
• man kann in gleichen Situationen verschiedene Empfindungen haben
3. Charakterisieren Sie die Ziele und das methodische Vorgehen des klassischen S-RBehaviorismus
• Ziele: Herausfinden, welcher Reiz produziert welches Verhalten?
• Gibt es allgemeine Regeln der Modifizierung von Stimulus-Reaktions-Verbindungen?
Wenn ja – wie sehen diese aus?
• Klassischer S-R-Behaviorismus = Reflexe: Verbindung Verhalten-Reiz, John B. Watson
• Methodisches Vorgehen: Nur beobachtbare Ereignisse als Datenbasis verwenden:
Umweltbedingungen und Verhalten durch Versuche beschreiben (Reflexologie benutzen)
auf Menschen beziehen (weil Versuche mit Tieren) verallgemeinert
• Kritik am Introspektionismus u. Ablehnung mentaler Ereignisse (Ontologie)
Psychologie als Naturwissenschaft (keine intervenierenden Variablen = mentalen
Ereignisse verwenden)
4. a) Was versteht man unter Neobehaviorismus oder S-O-R-Behaviorismus? b) In
welcher Weise unterscheidet sich diese Form des Behaviorismus vom klassischen
Behaviorismus? c) Inwiefern handelt es sich hier dennoch um eine behavioristische
Wissenschaftsauffassung?
zu a) Neobehaviorismus = S-O-R-Behaviorismus (Stimulus-Blackbox-Reaktion) in diesem
“Zweig” des Behaviorismus werden „mentale“ Konzepte in der Theoriebildung verwendet,
Vorläufer der heutigen kognitiven Psychologie
zu b) Die Verwendung von intervenierenden O-Variablen wie z.B. Erwartung, Emotionen als
Vermittler zw. Reiz und Reaktion. Z.B.: Durst bei der Beziehung zwischen Stunden ohne
Wasser und Häufigkeit des Hebeldrucks. Die innerorganismische Variable soll UrsacheWirkungs-Zusammenhänge vereinfacht darstellen.
zu c)
• Wegen der Verwendung möglichst vieler beobachtbarer Daten & möglichst weniger
intervenierender Variablen
• Orientierung an beobachtbarem Verhalten, auch bei O-Variablen: O-Variablen werden
durch Messvorschriften, logische Regeln & theoretische Zusammenhänge mit
beobachtbaren Daten verbunden: Operationismus, z.B. Angst = Fluchtverhalten, logischer
Behaviorismus (mentale Konzepte als Dispositionsprädikate (Wissen= Antwortverhalten in
Testsituation)); theoretische Zusammenhänge
5. a) Was ist ein hypothetische Konstrukt bzw. eine intervenierende Variable?
b)Wie lassen sich Verbindungen zwischen solchen organismischen Variablen und
beobachtbaren Daten herstellen? c)Erläutern Sie Ihre Ausführungen mit einem Beispiel.
zu a)
• hypothetisches Konstrukt, nicht unmittelbar operational fassbarer Begriff, der sich auf nicht
direkt beobachtbare oder erschließbare Entitäten, Ereignisse oder Eigenschaften bezieht
• Auf rein hypothetischer Ebene eingeführt
• Nicht die Verhaltensursache
• Im Gegensatz zu beobachtbaren Ereignissen ist die intervenierende Variable ein Begriff, der
die Beziehung zwischen beobachtbaren Phänomenen darstellt = eine dazwischentretende
Variable
zu b und c) organismische Variable muss von beobachtbaren Daten abhängen, z.B.
angenommen wir haben 3 abh. Variablen (Häufigkeit Hebel drücken, konsumierte
Wassermenge, tolerierte Chininmenge) die durch drei unabh. Variablen (Stunden ohne
Wasser, trockenes Futter, Injektion v. Salzlösung) beeinflusst werden, so gibt es 9
Beziehungen zw. den Variablen. Wird die intervenierende Variable „Durst“ mit
aufgenommen, muss die Theorie nur noch 6 Ursache-Wirkung- Beziehungen definieren, 3
um die Beziehung zw. unabh. Variable u. Durst zu beschreien und 3 weitere um Beziehung
zw. Durst u. abhängigen Variable zu beschreiben. (siehe Aufgabe 6)
6. Warum kann die Einführung einer unbeobachtbaren „mentalen“ Variable für die
naturwissenschaftliche Theoriebildung sinnvoll sein, selbst wenn diese nicht direkt
mit Beobachtungsdaten verbunden werden kann?
• Unbeobachtbare „mentale“ Variablen können eine Theorie mit vielen UVs vereinfachen, da
weniger Wirkbeziehungen zwischen den einzelnen UVs erklärt werden müssen.
• z.B. Std. ohne Wasser
Häufigkeit, mit der Hebel gedrückt
trockenes Futter
DURST
konsumierte Wassermenge
Injektion v. Salzlösung
tolerierte Chininmenge
• weil Forschung in der Psychologie behindert werden würde, wenn Verwendung von
intervenierenden Variablen nicht möglich wäre (in anderen fest etablierten Wissenschaften
sehr verbreitet, z.B. Schwerkraft in Physik)
7. a) Was ist die Grundidee des radikalen Behaviorismus Skinner’scher Prägung?
b) Mit welchen Argumenten kritisiert Skinner die Benutzung mentaler Konzepte in
der psychologischen Theorienbildung?
zu a)
• Selektionsprozesse in Umgebung, dem alle biologischen Organismen ausgesetzt sind
• Verhaltensänderung erfolgt nach Gesichtspunkten der Adaptativität („environement selects
behavior“)
zu b)
• intervenierende Variable unnötig, weil Vorhersagekraft nicht gesteigert
• verkompliziert Theorie unnötig
• gefährlich, dass intervenierende Variable als Grund für bestimmtes Verhalten angesehen
wird ≠ Skinner:
- Verhaltensweisen in äußerer Umgebung
- Änderung der Umgebung Änderung des Verhaltens
• mentale Idiome sind nur kulturelle Erscheinungen, welche nur das Zusammenleben
vereinfachen durch Zuweisen von Verhaltenseigenschaften, die aber selbst durch die
Verhaltensanalyse erklärt werden
8. Worauf beziehen sich allgemeine Gesetze des Lernens?
• Verhaltenserklärungen
• Regeln der Veränderung des Verhaltens ( Auswirkungen von Erfahrungen) beziehen
Ursachen & Gründe mit ein
• Verallgemeinerungen, die für jedes Verhalten gelten: Hypothese der Lernpsychologie bzgl.
der Veränderung gibt es allgemeine biologische Gesetze
• menschliches Verhalten ist zwar variabler, als Verhalten physikalischer Gesetze, aber
Lernforschung orientiert sich an Grundsätzen der Physik.
9. a) Was spricht für die Benutzung von Tierversuchen bei der Erforschung
allgemeiner Gesetze des Lernens? b) Was spricht dagegen?
zu a) pro
• Ausschaltung von Placebo-Effekten & erwünschtem Verhalten (im Gegensatz zu Menschen
als VP)
• bessere Kontrolle von Vorerfahrungen & experimentellen Bedingungen
• geringere Komplexität im Vergleich zum Menschen, dennoch prinzipielle Ähnlichkeit
• Geringe ethische Einschränkungen
• leichte Verfügbarkeit von Tieren (& evtl. billiger) nehmen an allen Versuchen teil,
immer pünktlich
zu b) contra
• Eingeschränktes Verhaltensrepertoire (kein Sprechen, Lesen, Problemlösen)
• qualitative Unterschiede zu menschlichem Verhalten
• Ethische Bedenken
10. Impliziert die Suche nach allgemeinen Kausalgesetzen des Lernens ein
deterministisches Weltbild?
• Nein, weil Kausalgesetze nur unter bestimmten Bedingungen gelten, die erst gegeben sein
müssen
• Die Randbedingungen sind nicht im Gesetz enthalten (können sie gar nicht, sind ja
unendlich viele) Gesetz gilt nur, wenn nichts dazwischen kommt
• impliziert keinen Determinismus! Kausalgesetz ≠ zwingend
• Verhalten wird durch Gründe erklärt, nicht durch Ursachen
• Suche ähnelt Chaostheorie es gibt keine Freiheit, man kann nicht alles festlegen man
kann Nichts determinieren
• Kausalgesetze sind Funktionen mit Fehlerquotienten, die von Eventualitäten bedingt werden
können nicht alle vorhergesagt werden
wir sprechen von Tendenzen und Trends in der Psychologie
• man muss nur akzeptieren, dass sich bestimmte Verhaltensmuster kurzfristig sehr genau
voraussagen lassen und allgemeine, langfristige Trends
11. Inwieweit widerspricht eine kausale Erklärung menschlichen Verhaltens und seiner
Veränderung der üblichen Erklärung von Handlungen durch Gründe?
• Grund ≠ Ursache wie Bsp. Bergsteiger gleiche Gedanken als Ursache oder als Gründe:
Beim Bergsteiger, der das Seil gekappt hat, ist der GRUND für den Tod des anderen seine
Überlegung, dass es evtl. klüger sei, ihn fallen zu lassen, weil sie sonst beide tot wären.
• Beim anderen Bergsteiger gibt es keinen GRUND, sondern nur die URSACHE - das Zögern
- welche eine naturwissenschaftlich determinierte Ursache, aber keine durch Überlegung
herbeigeführte Entscheidung ist. Da widersprechen sich Grund und Ursache, weil er sich ja
nicht dafür entschieden hat.
• natürlicher Ursache-Wirkungs-Zusammenhang nur bei empirischem Gehalt des
Kausalgesetzes, nicht bei logischem, sprachlichem Zusammenhang, nicht bei pseudoempirischem Gehalt, wie z.B. die Absicht, in die Bibliothek zu gehen – „wenn mir nichts
dazwischen kommt“
• nur empirische Sachen können kausal erklärt werden
II. HABITUATION
12. Was versteht man unter Habituation?
• universales Phänomen: fundamentaler Anpassungsmechanismus
• wiederholte, folgenlose Präsentation eines Reizes ohne Bedeutung, ohne Konsequenzen für
den Organismus Reaktion auf Stimulus nimmt ab in ihrer Intensität
• stimulusspezifisch
• Reaktion als Folge des Stimulus habituiert
• einfachste Form des Lernens („single event learning“)
• nichtassoziatives Lernen (wie Sensitivierung)
• asymptotischer Verlauf
13. a) Wie kann man sicherstellen, dass ein Habituationseffekt tatsächlich auf
Lernprozesse zurückgeht? b) Welche Alternativerklärung(en) müssen wie
ausgeschaltet werden? Geben Sie Beispiele für Untersuchungen, in denen solche
Erklärungsalternativen ausgeschlossen wurden.
zu a)
• stimulusspezifisch, d.h. nicht Reaktion als solche habituiert, sonder Reaktion als Folge auf
diesen bestimmten Stimulus (im Unterschied zu sensorischer Anpassung = Adaptation und
muskulärer Erschöpfung). Die Fähigkeit des Stimulus, die Reaktion auszulösen sinkt, nicht
die Reaktionsfähigkeit als solche
• asymptotischer Verlauf Wiederholungseffekt: Reaktion nimmt ab
• erneutes Lernen nach Extinktion ist schneller als der 1. Durchgang („Ersparniseffekt“)
• Stimuluswechsel oder Kombination alter &neuer Reize gibt neue, starke Reaktion ( dann
erst wieder Habituation)
wenn dann Fortsetzung alter Stimulus wieder nur schwache Reaktion
• es darf kein Gewöhnungseffekt auftreten
zu b)
• Alternativerklärungen: Ermüdung, -schöpfung und sensorische Anpassung (= Adaptation)
• Ratten: Katzenhalsband + Geruch nach Katze Habituation (bleiben kürzer im Versteck)
Bild von Katze läuft wieder weg & bleibt wieder lange in Versteck = Dishabituation
• Marlin & Müller: Ratte & Ton: neue Reaktion: Ersparniseffekt: Ratte in Stabilimeter- Käfig,
lauter Ton in regelmäßigen Abständen präsentiert Schreckreaktion nimmt ab. Warum?
Ermüdung: könnte sein, weil am 2. Tag wieder so starke Reaktion, wie im 1.Durchgang =
Spontanerholung; Adaption: könnte sein, dass von lautem Ton schlecht hört und am 2.Tag
wieder besser
aber: 2. Tag, 2.Durchgang: Reaktion nimmt viel schneller ab als am 1.Tag = Ersparniseffekt
spricht für grundlegenden Lernprozess und gegen Ermüdung und Adaptation
• Groves & Thompson, 1970: Ton und Licht: 2 Gruppen Ratten bekamen 14 mal Ton
präsentiert, sie habituierten. Der EG wurde nun ein Blitzlicht und dann der Ton präsentiert.
Die Ratten zeigten Schreckreaktion auf den Ton. KG bekam nur einen Ton präsentiert,
keine startle reaction. Auch bei EG fiel Schreckreaktion in nächstem Durchgang wieder auf
habituiertes Level. Beweis: keine Erschöpfung der Muskulatur, weil Ratten in
Dishabituaiontsdurchgang mit Licht robuste Antwort zeigten und keine sensorische
Adaptation, weil EG-Ratten Ton sonst ja nicht wahrgenommen hätten, auch wenn vorher
Lichtblitz auftrat.
14. Welche Funktion hat Habituation für die adaptive Verhaltenssteuerung?
• irrelevante, konsequenzlose Reize ignorieren können, also Vermeidung von Ablenkung &
Ressourcenvergeudung durch Reaktionen auf irrelevante Reize
• spart Zeit & Energie, die dann für wichtige Reize da ist Aufmerksamkeit!
• geringe Habituationsgeschwindigkeit als Prädiktor für Intelligenzdefizit und
Fehlentwicklung (= „Intelligenzvorhersage“)
15. Was ist der „Coolidge“-Effekt?
Reinstatement (= Wiedereinstellung, Wiederherstellung) der Reaktion bei Wechsel des
Stimulus , z.B. bei Schreckreaktion
Coolidge Effekt beschreibt Einfluss von Wechsel der Stimuli auf habituierte Reaktion, ist der
Wechsel zu gering findet keine Dishabituation statt nicht die Reaktion habituiert, sondern
die Verbindung von spez. Stimuli und Reaktion
16. Wie kann man das Phänomen der Habituation nutzen, um basale Wahrnehmungsund Diskriminationsleistungen bei Säuglingen oder bei Tieren zu analysieren?
Geben Sie ein Beispiel.
• indem man die Stärke der Orientierungsreaktion misst
• Bsp.: bei Studie von Johnson & Aslin (1995): Säuglingen teilweise durch weißen Kasten
verdeckten Balken-Stimulus gezeigt bis Orientierungsreaktion durch Habituation nachließ,
dann Teststimuli getestet: durchgehender Balken Generalisierung: als alter, bekannter
Stimulus erkannt und gewertet
zweigeteilter Balken: neuer Stimulus, weniger generalisiert neue Orientierungsreaktion
• Babys können schon früh diskriminieren, ob Dinge verdeckt sind oder nicht
17. Welche Rolle spielen Reizintensität und Vorhersagbarkeit für die Stärke von
Habituationseffekten? Schildern Sie hierzu Aufbau und Ergebnisse der
Unersuchung von Davis & Wagner (1969).
• Aufbau: 4 Gruppen jeweils 750 Töne präsentiert: 1. Gruppe konstant 120 dB, 2. Gruppe
konstant 100 dB, 3. Gruppe aufsteigend von 83-118 dB und 4. Gruppe erhält Töne im
gleichen Tonintervall wie Gruppe 3 aber in gemischter Reihenfolge (random- order)
• nach 750. Ton wurden alle vier Gruppen mit 120 dB Ton konfrontiert und ihre
Schreckreaktion gemessen
• Ergebnisse: Erwartung und Vorhersagbarkeit können Habituation erheblich beeinflussen:
• Schreckreaktion der 2. Gruppe nimmt während ersten 750 Töne wesentlich schneller und
stärker ab als Gruppe 1 (weil schwächere Habituation bei intensiveren Reizen)
• im Test mit 120 dB-Ton reagiert 2. Gruppe und 4. Gruppe stärker auf 120 dB- Reiz als
Gruppe 1; und selbst wenn Töne bei 3. Gruppe mit wenig Intensität kontinuierlich gesteigert
werden, zeigen sie keine Reaktion auf 120 dB-Ton, da Töne als ähnlich zum
vorhergehenden empfunden werden (Generalisierung)= perfekte Habituation
• Gruppe 1 erwartete einen 120 dB- Reiz →keine erhöhte Reaktion
• Gruppe 3 erwartete ebenfalls lauter werdenden Ton → keine Schockreaktion
• für Gruppe 2 und 4 war 120 dB-Ton unerwartet und nicht vorhersagbar→ starke
Schreckreaktion (Dishabituation)
• bei sehr lauten Tönen ist Habituation schwächer
• je intensiver der Reiz umso schwächer und langsamer ist Habituation
• umso vorhersagbarer der Reiz, also je weniger überraschend desto stärker ist der
Habituationseffekt
18. a) Was versteht man unter kurz- und langfristiger Habituation?
b) Erläutern Sie in diesem Zusammenhang auch die Begriffe der spontanen
Erholung und der Lernersparnis in Bezug auf Habituationsphänomene.
zu a)
kurzfristige Habituation:
• Dissoziationseffekte in Abhängigkeit von Interstimulusintervall
• Habituationseffekt steigt schnell an, dauert aber nur wenige Minuten und geht dann
wieder weg, nach einem Trainingsdurchgang
• 2 sec ISI kurzfristige Habituation
langfristige Habituation:
• Habituationseffekt steigt langsamer an, bleibt aber länger bestehen (Tage – Wochen), tritt
auf bei mehrmals wiederholtem Habituationstraining
• 16 sec ISI langfristige Habituation besser
zu b)
• spontane Erholung = erneutes Auftreten der Orientierungsreaktion bei neuem Training: zu
Anfang gleich starke OR beim ersten Lernen, obwohl vorher bei 1. Durchgang schon völlig
habituiert war
• Lernersparnis = bei erneutem Habituationstraining „lernt“ Vpn /Tier schneller, d.h.
Habituationseffekt steigt früher & stärker an: Ersparniseffekt
19. Schildern Sie die Untersuchung (Aufbau und Ergebnisse) von Davis (1970) zur
Dissoziation kurz- und langfristiger Habituation.
Aufbau:
• 2 Gruppen: Prähabituierungsphase: beide Gruppen Töne mit zunehmenden Zeitabstand
zwischen den Tönen präsentiert (gleicher Kurvenverlauf→ je länger der Zeitabstand zw. 2
Tönen um so stärker die Schreckreaktion in beiden Gruppen = Beweis für Gleichheit der
Gruppen, dann eine Minute Pause
• 1x10 Töne im Abstand von 2 sec ISI bzw. 16 sec ISI
• messen der Schreckreaktion
• bei 2 sec-Gruppe Schreckreaktion viel schneller schwächer als bei 16 sec Gruppe
(Kurzzeithabituation)
• nach 1 min Pause wieder 1x10 Töne (insges. 100 Töne)
• 16 sec Gruppe hat weniger starke Reaktion im Mittel als 2 sec Gruppe, auch in späteren
Durchgängen (Langzeithabituation)
Ergebnis:
• während Habituationstraining: 16 sec Gruppe habituiert langsamer und nur ganz leicht im
Gegensatz zur 2 sec Gruppe
• nach 1 min Pause: Habituation in 16 sec Gruppe stärker
20. a) Was sind die Kernannahmen der Überraschungs-Theorie der Habituation von
Wagner? b) Durch welche experimentellen Ergebnisse wird diese Theorie gestützt?
zu a)
• Ereignis ist überraschend, wenn noch nicht im KZG gespeichert
• Überraschung ≠ Habituation, sondern Lernen von Assoziationen
• keine Überraschung Habituation, kein Lernen von Assoziationen
zu b) Wagner 1976
• Ratte verbringt Zeit zwischen Training & Test im Experimentalkäfig
• ohne Töne Kontext-Ton-Assoziation wird gelöscht keine langfristige Habituation
Davis (1970): Kurzes ISI: 2 sec
• Schnelle Habituation im Training (Stimulus ist permanent im KZG)
• Keine langfristige Habituation, da keine Assoziation zwischen Stimulus und Kontext
gebildet wird ( kein Lernen)
Langes ISI
• Langsame Habituation im Training (Stimulus bleibt nicht im KZG)
• Langfristige Habituation über Kontext-Stimulus-Assoziation
siehe auch Aufgabe 19
21. a) Schildern Sie den typischen Verlauf emotionaler Reaktionen und ihrer
Veränderung nach häufiger Wiederholung.
b) Wie lassen sich diese beiden Gesichtspunkte (typischer Verlauf, Veränderung)
durch die Opponent-Process Theorie von Solomon & Corbit (1974) erklären?
zu a)
• zuerst sehr intensive Glücks- oder Angstgefühle
• Änderung der Herzfrequenz
• Veränderung nach häufiger Wiederholung: wird weniger stark ausgeprägt
• zu b) emotionale Reaktionen speisen sich aus 2 internen Prozessen a und b
• a: für erste Reaktion verantwortlich, erreicht schnell Höhepunkt der primären affektiven
Reaktion, dann relativ konstant (konstantes Niveau), setzt Präsenz des Stimulus aus →
Abfall auf 0
• b: = antagonistisch, für Nachreaktion; wird nur in Verbindung mit a-Prozess in Gang
gesetzt, entsteht und vergeht langsamer, beginnt während Stimulus noch vorhanden ist, geht
über die Zeit des a-Prozesses hinaus
• hört Reiz auf, nimmt a-Prozess schnell ab und nur b-Prozess bleibt übrig → bewirkt
emotionale Nachreaktion
• bei Wiederholung: die erste emotionale Reaktion unterliegt einer Habituation (wird immer
schwächer)
• gleichzeitig deutlicher Anstieg an Intensität und Dauer der Nachreaktion
• → Veränderung = Ergebnis einer Zunahme der Stärke des b- Prozesses
• Salomon & Co. gingen davon aus, dass a-Prozess unverändert bleibt, aber der b-Prozess
durch die Wiederholung stärker und ohne Wiederholung schwächer wird
• bei Wiederholung setzt b-Prozess schneller ein, erreicht höheres Maximum, lässt nach Ende
des Stimulus langsamer nach
• → wenn Reiz aussetzt ist Gegenreaktion um so stärker
• manifeste Reaktion fällt mit Wiederholung deutlich geringer aus
22. Welche empirischen Belege lassen sich für die Opponent-Process Theorie von
Solomon & Corbit (1974) anführen?
• Toleranz und Entzugserscheinungen bei fortgesetztem Drogenkonsum: Glücksgefühle
(positive a-Reaktion), dann unangenehm, später: kaum Glücksgefühle, nahezu permanente
negative Nachreaktion („cold turkey“) Droge wird nur noch benutzt um
Entzugserscheinungen abzumildern
Versuchsergebnisse auf Basis anfangs eindeutig negativer emotionaler Reaktionen :
• Church et al., 1966
Reaktionen von Hunden auf Serien von Elektroschocks: Herzfrequenz, winseln & Freude
• Epstein, 1967
Veränderung der emotionalen Reaktion von Fallschirmspringern: schockartige Angst,
danach Benommenheit, später: kaum Angst, Euphorie nach dem Sprung
23. Welche Funktion haben die b-Prozesse in der Opponent-Process Theorie für die
Verhaltensregulation?
• b-Prozesse = Nachreaktionen
• bewirken, dass wir nicht zu stark reagieren in unseren Emotionen
• hält uns in Balance (a-Prozess allein wäre Eskalation der Emotionen)
• steuern in gewissem Maße der Aktivität des a-Prozesses entgegen manifeste Reaktion
schwächer (weil emotionale Extremsituationen erschöpfen die körperlichen. Ressourcen)
24. Wie verändert sich der zeitliche Verlauf und die Intensität von a- und b-Prozessen
durch Widerholung nach der Opponent-Process Theorie?
a-Prozess:
• sobald Ereignis eintritt: schnelle Reaktion auf Reiz, die rasch zu Maximum ansteigt und dort
bleibt, verläuft konstant auf Maximum solange Stimulus präsent ist
• setzt Stimulus aus a-Prozess endet
• bei Wiederholung: a-Prozess bleibt gleich
nur die Differenz a-Prozess – b-Prozess, also die emotionale Reaktion unterliegt der
Habituation und wird schwächer
b-Prozess:
• eine Art Gegenreaktion zu a-Prozess
• durch a-Prozess ausgelöst
• wenn Reiz ausklingt: b-Prozess ist stärker, weil länger aktiv, entsteht und vergeht langsamer
als a-Prozess
• durch Wiederholung: setzt schneller ein
• erreicht höheres Maximum, wird also stärker
• lässt am Ende des Stimulus langsamer nach
III. KLASSISCHE KONDITIONIEREUNG – TEIL 1 (KK)
25. a) Beschreiben Sie den Versuchsablauf bei Pavlov’s Experimenten zur
Konditionierung des Speichelflusses. Erläutern und benutzen Sie hierbei die Begriffe
US, UR, CS und CR.
US ist der unkonditionierte Stimulus, ein Stimulus, auf den man „automatisch“ reagiert, z.B.
Futter. Die „automatische“ Reaktion heißt UR, unkonditionierte Reaktion, z.B. Speichelfluss.
In der Kontrollphase folgt auf einen NS (=neutraler Stimulus, z.B. Glockenton), eine OR
(=Orientierungsreaktion), d.h. das Tier wendet z.B. den Kopf in die entsprechende Richtung
aus der der Ton kommt. In Pavlov’s Experiment wird in der Konditionierungsphase ein NS
Glockenton präsentiert, daraufhin folgt der US Futter und dann reagiert das Tier (bei Pavlow
meist ein Hund) mit der UR Speichelfluss.
Ergebnis: Nach einigen Wiederholungen der Paarung von NS und US wird der NS zum CS
(=konditionierter Stimulus, z.B. Glockenton), d.h. der Hund reagiert auf den CS alleine, ohne
dass der US folgen muss, mit Speichelfluss, wobei diese Reaktion jetzt nicht mehr
unkonditioniert ist, und deshalb CR (= konditionierte Reaktion) heißt.
26. Von welchen Faktoren hängt die Stärke der Konditionierung einer einfachen
Reaktion ab?
• Kontiguität: Zeitlicher Abstand zw. US und CS (kurze Verzögerung, 1 Sek führt zu
schnellerer und stärkerer Konditionierung)
• Kontingenz: Vorhersagewert eines CS (= Wahrscheinlichkeit, mit der der US nach dem CS
auftaucht während der Konditionierungsphase)
• Salienz des CS: Stärke, Intensität, Auffälligkeit: je auffälliger CS desto stärker die CR
• Stärke des US
• biologische Preparedness
27. Was versteht man unter einer konditionierten emotionalen Reaktion? Schildern Sie
den Ablauf eines typischen Experiments.
• CER = conditioned emotional reaction,(z. B. conditioned suppression)
• Eine konditionierte emotionale Reaktion ist eine emotionale Reaktion, die aufgrund eines
CS ausgelöst wird, der normalerweise keine solche Reaktion bewirken würde.
• z.B. Elektroschock bei Ratten im Experimentalkäfig: Verhaltensunterdrückung:
ca. 15 sec. vor Schock ertönt Ton Ratte reduziert im Intervall zw. Ton & Schock die Rate
des Hebeldrückens , weil der Ton = CS eine negative emotionale Reaktion auslöst, er
kündigt ja den Schock = US an Interesse an Futter vergeht
28. Wie lässt sich konditioniere Verhaltensunterdrückung quantifizieren?
Verhaltenshäufigkeit unter CS
Unterdrückungsindex (Q):
Verhaltenshäufigkeit unter CS + Verhaltenshäufigkeit unter ¬CS
Verhaltensrate nach CS verglichen mit Verhalten vor CS
keine Unterdrückung:
Q = .5
perfekte Unterdrückung:
Q = .0
29. Mit welcher Methode ließe sich untersuchen, ob bestimmte Bilder eine emotionale
Reaktion auslösen, selbst wenn anzunehmen ist, dass die Untersuchungsteilnehmer
versuchen könnten, diese zu verbergen?
• Hautleitfähigkeit messen: Elektrogalvanische Hautreaktion = physiologischer Indikator für
emotionale Reaktion, lässt sich nicht unterdrücken (SCR= skin conductance response) z.B.
wird durch Angst Schweiß produziert Hautleitfähigkeit nimmt zu
30. Erläutern Sie, was mit verzögerter, simultaner, zeitlicher und rückwärtsgerichteter
Konditionierung gemeint ist.
• verzögerte Konditionierung: CS vor US: zeitlicher Abstand dazwischen, CS deutlich länger
als US Tier lernt, dass CS den US ankündigt und die Reaktion beginnt schon früh. In den
ersten Trainingseinheiten wird die CR (z.B. Speichelfluss) sofort nach Einsetzen des CS
beginnen, auch wenn der US erst viel später folgt, erst nach einigen Trainingsdurchgängen
setzt die CR später ein, auch wenn der CS schon begonnen hat, aber das Tier hat gelernt,
dass der US nicht sofort kommt, wenn der CS ertönt
• simultane Konditionierung: CS und US gleichzeitig präsentiert kein Lernen, weil CS
keine Information besitzt, die über die des US hinausgeht keine Reaktion auf CS
• zeitliche Konditionierung: ohne CS: US in regelmäßigen Abständen präsentiert das
Verstreichen der Zeit seit dem letzten US fungiert als CS wenn Zeit verstrichen ist
kommt die Reaktion auch ohne US, d.h. die Zeit ist als CS etabliert und es folgt die CR
aufgrund der Erwartung des US, auch wenn dieser nicht auftritt
• rückwärtsgerichtete Konditionierung: CS wird nach US präsentiert. Funktioniert nicht, weil
eigentlich kein Ankündigungswert: CS = Funktion als Sicherheitssignal: kündigt das Ende
des US an, ist also eine Kontrollbedingung
31. Beschreiben Sie den Verlauf der Konditionierung während der Akquisition und
Extinktion. Wie lässt sich das hierbei typische Ergebnis erklären?
Akquisition = Erwerbs-, Aneignungsphase = Konditionierungsphase, in der VPn zum 1. Mal
mit der Paarung CS+US konfrontiert wird.
• Geschwindigkeit des Erwerbs und Stärke der CR sind abhängig von der Stärke und
Intensität des US und der Salienz (Intensität) des CS: stärkere Stimuli schnellere
Konditionierung höhere Asymptote
• die Wahrscheinlichkeit des Auftreten einer CR nimmt in den ersten Durchgängen stark zu
und nähert sich dann an ein Plateau an
• Ergebnis: Stabiles Maximum an konditionierten Reaktionen, das im Laufe der
Konditionierung allmählich erreicht wird = Asymptote
Extinktion = Auslöschung
• Voraussetzung für echte Extinktion: entgegengesetzte Erfahrungen: Löschung erfolgt nur,
wenn CS ohne US auftritt
• Zeit allein lässt CR nicht verblassen: Verstreichen von Zeit allein reduziert die Stärke der
CR nicht
• z.B. Glocke ohne Futtergabe:
- Löschung erfolgt (wie Akquisition) allmählich
- Beginn der Extinktionsphase: Menge des Speichels nimmt von Mal zu Mal stark ab (=CR ↓)
- Gegen Ende: Abschwächung der CR langsamer
- letztlich verschwindet CR vollständig
→ dabei ist an jedem neuen Tag der Extinktionsphase die CR zu Beginn einer Sitzung noch
stärker als am Ende der Extinktionsphase des Vortages → Ursache = Spontanerholung
32. Was versteht man unter dem Phänomen der Disinhibition bei der klassischen
Konditionierung?
• wenn Extinktionsphase weit fortgeschritten ist, kann trotzdem die verhinderte Reaktion
(=Inhibition) kann wiedererlernt werden, z.B. Glocke – Speichel: Inhibition Summer vor
Glocke Speichel wieder
• Präsentation eine ablenkenden Stimulus fragile Inhibition unterbrochen, das nennt man
Dishabituation. Erklärung: Wettkampf zwischen inhibitorischer und exzitatorischer
Konditionierung (Konorski, 1948)
• exzitatorische Assoziation ist weniger von ablenkenden Stimuli beeinflussbar, stabiler
(umstrittene Theorie)
33. Was versteht man unter Ersparniseffekten bei der klassischen Konditionierung?
• Ersparniseffekte = nach Extinktion kann die CR in neuem Durchgang (am nächsten Tag o.
ä.) wieder viel schneller erlernt werden als beim ersten Lernen:
• wenn auf eine Akquisitionsphase eine Extinktionsphase folgt und anschließend eine neue
Akquisitionsphase mit dem selben CS und US wie in der ersten Akquisitionsphase
durchgeführt wird, dann ist der Lernerfolg in der zweiten Akquisitionsphase wesentlich
größer aufgrund des Ersparniseffektes aus erste Akquisitionsphase → Lerntempo wird
schneller
• teilweise durch Spontanerholung zu erklären
34. Was ist ein CS-?
CS- ist ein inhibitorischer CS = konditionierter Inhibitor = ein CS, der das Auftreten einer CR
verhindert oder diese reduziert (kündigt das Ausbleiben des US an) – sog. „Gegenreiz“
35. Nennen Sie zwei verschiedene Methoden, einen Stimulus als CS- zu etablieren.
a) CS- mit bereits etabliertem CS+ während der Extinktion präsentieren
b) CS+/ CS- ohne US präsentieren, CS+ allein mit US präsentieren (conditioned
inhibition training)
36. Mit welchen drei Methoden kann man zeigen, dass ein CS zu einem „konditionierten
Inhibitor“ geworden ist? Erläutern Sie die Logik des Vorgehens und skizzieren Sie
jeweils einen schematischen Versuchsablauf.
a) Summationstest:
• wenn z.B. Lichtblitz ein Inhibitor ist, dann muss er die Fähigkeit haben, die CR, die durch
jeden CS hervorgerufen wurde, zu verringern, z.B. nicht nur die CR auf Metronom, also
nicht nur die CR auf einen CS, der schon mit dem Inhibitor gepaart wurde, z.B. müsste dann
der Lichtblitz als CS- auch die CR auf einen taktilen Stimulus reduzieren, obwohl dieser
noch nie zuvor mit dem CS- gepaart worden ist.
Skizze:
• I. CS1+ US UR; CS wird etabliert: CS1+ CR
• II. CS2+ US UR, CS2+ wird als CS etabliert, dann Paarung CS2+ mit CS- ¬US
folgt
• III. CS1+ mit CS- gepaart kleinere/ keine CR
b) Retardationstest = Verzögerungstest
• Messung der Zeit, die nötig ist, um einen exzitatorischen CS also einen CS+ aus dem
konditionierten Inhibitor CS- zu machen
• Wenn CS vorher ein CS- war, sollte es länger dauern, weil erst die inhibitorischen
Eigenschaften wett gemacht werden müssen
Skizze:
• I. CS1+ US UR, CS1+ wird als CS etabliert: CS1+ CR
• II. CS1+ gepaart mit CS- ¬US, CS1/ CS- ¬CR
• III. CS- US, CS- CR etablieren dauert länger, als etablieren von NS zu CS+ CR (im
Vergleich zu neuem Lernen nach Extinktion) = RETARDATIONSTEST
c) resistance to reinforcement:
• CS- verhindert den Erwerb einer CR auf einen CS+
• I. CS1+ (Futter) CR (Speichel)
• II. CS1+ (Futter) gepaart mit CS- nichts
• III. CS2+ gepaart mit CS- Futter; also: CS2+ CR wird schwächer
37. Welcher Verlauf bzgl. der CR ist zu erwarten, wenn man von zwei unterschiedlichen
Stimuli parallel einen als CS+ und den anderen als CS- aufbaut?
• Tier muss erst lernen zu diskriminieren, erst Generalisierung, d.h. CR steigt erst für beide
Stimuli an: also zu Beginn der Testphase Generalisierung
• erst nach mehreren Durchgängen setzt Diskriminierung ein (CR steigt bei CS+ und fällt
später dann bei CS-)
• Tier lernt also Diskrimination, d.h. bei CS+ wird die CR erst später entwickelt als bei
normaler Etablierung eines CS+ ohne gleichzeitige Präsentation eines CS-, dann wird CR
immer stärker, bei CS- wird die CR immer schwächer, bis keine CR mehr auf den CS- folgt
(aber nur, wenn CS+ und CS- deutlich voneinander zu unterscheiden sind)
38. Was versteh man unter einem Generalisierungsgradienten bei der klassischen
Konditionierung? Unterscheiden Sie exzitatorische und inhibitorische
Generalisierungsgradienten?
• exzitatorisch: steilerer Gradient(Unterschiede zum Teststimulus haben größere Effekte auf
die CR → je weiter Reiz vom Testreiz abweicht, umso geringer ist die CR)
• inhibitorisch: flacherer Gradient(je weiter die Intensität der Reize von dem ursprünglichen
CS- -Reiz abweicht, umso stärker ist die CR → Unterschiede zum CS- haben geringere
Effekte)
• Definition: graphische Darstellung der Generalisierung der CR auf dem CS ähnliche Stimuli
• x-Achse: verschiedene Stimuli (unterschiedlich stark generalisiert, CS+, CS- in der Mitte)
• y-Achse: Stärke der CR auf die Stimuli
• Potential des Stimulus, der CR auslöst, ist umso größer, je ähnlicher er dem ursprünglichen
CS, also dem Trainingsstimulus ist.
• z.B. Semantische (Haus-Gebäude) und graphemische, phonetische (Haus-Maus) Generalisierung bei Kindern
39. Unter welchen Bedingungen kann eine experimentelle Neurose entstehen? Wie
erklärt man sich dieses Phänomen?
• Wenn ein Konflikt zwischen inhibitorischer und exzitatorischer Konditionierung besteht
kann eine experimentelle Neurose entstehen
• Erklärung: Es kommt zu einem Kollaps im Lernen, wenn die Unterscheidung nicht mehr
möglich ist und der gesamte Diskriminationsprozess bricht zusammen globaler Verlust
des Lernens
• z.B. Hunden wird ein Kreis als CS+ präsentiert sie erhalten Futter: US
daraufhin wird eine Ellipse als CS- präsentiert sie erhalten kein Futter: ¬US
stufenweise Annäherung zw. Kreis und Ellipse
Hunde können irgendwann nicht mehr zuverlässig unterscheiden, jaulen, kennen sich nicht mehr aus
40. Definieren Sie die Begriffe Furcht und Angst. Bei welchem der beiden Phänomene
spielen Prozesse der klassischen Konditionierung wahrscheinlich eine zentrale Rolle?
Furcht: ist rational, Situation ist wirklich bedrohlich, Reaktion ist begründet, nachvollziehbar,
objektbezogen, z.B. wenn Löwe im Zoo ausbricht und dich bedroht
Angst: ist indifferenter, nicht so konkret, diffus, Angst auslösendes Objekt hat Signalfunktion
→ Phobie:
• starke Ängste bei bestimmten Situationen, die das Verhalten beeinflussen
• nicht mit Argumenten zu bekämpfen
• unbegründet
• eigentliche Ursache hinter CS nicht mehr erkennbar
klassische Konditionierung (bei Furcht nicht): Angstreaktion, die sonst bei US auftritt, tritt
schon beim CS auf, wenn US mit CS kombiniert wird
Übernahme der angsteinflößenden Eigenschaften
es entsteht ein Signalcharakter, der nicht gelöscht werden kann
41. Wenn zufällige Kopplungen zwischen bestimmten Reizen und unangenehmen
Zuständen für die Entstehung von Phobien verantwortlich sind, warum
verschwinden diese Phobien nicht wieder von allein durch Extinktion?
Phobien:
• sehr robust, resistent, weil sie nicht gelöscht werden
• weil man Situationen meidet, in denen Phobie zu Tage treten würde und in denen CS alleine
auftreten könnte es kann gar keine Extinktion stattfinden
• wenn man sich in eine solche Situation begibt, nimmt man eher das Negative wahr
42. Beschreiben Sie die Methode der systematischen Desensibilisierung nach Wolpe
(1985). Was ist die zugrunde liegende Idee dieses Verfahrens?
• I. Angsthierarchie konstruieren
• II. Muskelentspannungstraining:
zugrunde liegende Idee: langsames Heranführen des Phobikers an immer „schlimmere“
Angstsituationen, bei für den Patienten ganz harmlosen Situationen wie Vorstellung
beginnend, so dass Angst möglichst minimal bleibt, aber Extinktion stattfindet
• III. Muskelentspannungstraining bis der Patient völlig entspannt ist in dieser Situation und
die Angst vollkommen weg ist, dann erst nächste Stufe usw.
43. Erfinden Sie ein Trainingsprogramm zur Reduktion des Konsums von Süßigkeiten,
das auf Prinzipien der klassischen Konditionierung basiert.
• Geschmacks-Aversion: Abhängigkeit als Defizit der Verhaltenskontrolle, reizgesteuertes
Verhalten ohne Beachtung der Konsequenzen
• Koppelung der Versuchungsreize (Süßigkeiten US UR = keine Reaktion) mit aversiven
Konsequenzen (Beigabe Übelkeit erregender Stoffe als CS Übelkeit als CR)
→ Vermeidungsverhalten man isst nichts Süßes mehr
44. Wie lässt sich die Entstehung einer globalen Nahrungsmittelaversion bei einer
Chemotherapie verhindern?
• starker Geschmacksstoff als CS, der in normalen Nahrungsmitteln nicht vorkommt vor der
Therapie einnehmen, Stoff =z.B. Wasser mit Geschmacksstoff
• Geschmacks-Aversion wg. Übelkeit aufgrund von Chemotherapie wird auf
Geschmacksstoff bezogen & nicht auf zuvor gegessene Nahrungsmittel
45. Wie kann man sich Prinzipien der klassischen Konditionierung zunutze machen, um
sich auch in Stressphasen gegen Infektionen zu schützen?
• unter neutralen Umständen Koppelung eines CS mit einem immunaktivierenden US
• in Stressphasen reicht CS aus, um die Wirkung des US hervorzurufen
• z.B.: Interferon-Injektion aktiviert, stärkt das Immunsystem
• CS = Geschmacks-/ Geruchsstoff wird (im Urlaub o. ä.) etabliert mit Interferon-Injektion als
US und Stärkung des Immunsystems als UR
• CS löst bald alleine die Immunstärkende Reaktion (jetzt CR) aus und kann Organismus in
Stressphasen gegen Infektion schützen
IV. KLASSISCHE KONDITIONIERUNG – TEIL 2 (KK)
46. Erläutern Sie den Begriff der Kontingenz für die klassische Konditionierung.
Benutzen Sie bei Ihren Erklärungen eine 4-Felder-Tafel, um die relevanten
bedingten Wahrscheinlichkeiten zu erklären.
• Kontingenz beschreibt den systematischen Zusammenhang der Ausprägungen des CS und
des US, ist also der Vorhersagewert des CS: der Zusammenhang, das Miteinanderauftreten
zweier qualitativer Merkmale, die Wahrscheinlichkeit des Auftretens eines US unter der
Bedingung, dass der CS kommt oder nicht
P(US|CS) ≠ P(US|¬CS)
P(US|CS) – P(US|¬CS) = Vorhersagewert
Differenz positiv, wenn Stimulus exzitatorisch
Differenz negativ, wenn inhibitorischer Stimulus
Differenz null kein Vorhersagewert
CS
a=7
c=0
¬CS
b=0
d=?
P(US|CS) = a / (a + c) = 7 / (7 + 0) = 1
US
P(US|¬CS) = b / (b + d) = 0 / ? = 0
¬US
Basisrate: b und d, P(US|¬CS) oder P(¬US|¬CS)
der Vorhersagewert eines CS ist in diesem Fall 1
Nur wenn a/a+c > b/b+d, also P(US|CS) > P(US|¬CS) besteht Kontingenz bzgl. des
gekoppelten Auftretens von CS und US.
47. Wie müssen die bedingten Wahrscheinlichkeiten von US unter CS bzw. US ohne CS
beschaffen sein, damit exzitatorische bzw. inhibitorische Konditionierung entsteht?
In welchem Fall ist nicht mit einer Konditionierung zu rechnen?
• Exzitatorische Konditionierung: P(US|CS) > P(US|¬CS)
• Inhibitorische Konditionierung: P(US|CS) < P(US|¬CS)
• Keine Konditionierung, wenn gleich viele Paarungen CS-US und CS ohne US oder US ohne
CS vorher, also wenn
P(US|CS) = P(US|¬CS) keine Konditionierung, weil kein Vorhersagewert, keine
Kontingenz (oder bei Überschattung)
48. Wie lassen sch Kontingenzeffekte von Effekten der Häufigkeit einer CS-US-Paarung
experimentell trennen? Beschreiben Sie hierzu die Logik der Experimente von
Rescorla (1968)
• Konditionierung ist die direkte Funktion der Kontingenz (örtliche Nähe), nicht der
Häufigkeit/Anzahl der Paarungen! (Kontiguität = zeitliche Nähe)
• Kontingenz = Unterschied/Differenz zwischen Basisrate, bei der der US alleine auftritt und
der Experimentalrate, bei der der US gekoppelt mit dem CS auftritt
• je höher die Basisrate, desto geringer der Grad der Konditionierung
• Es kommt immer zu Konditionierung, wenn der CS die Wahrscheinlichkeit des Auftretens
des US in Bezug auf die Basisrate erhöht
• gelernt wird also aus der Differenz zwischen Paarung und nicht Paarung (Kontingenz) und
nicht aus der reinen Häufigkeit der Paarungen
• Experiment-Logik: beim Versuch zur Dissoziation von Kontingenz- und
Häufigkeitseffekten von Rescorla wurden drei Gruppen gebildet mit P(US|CS) = 0.4; 0.2;
oder 0.1 und der Grad der Konditionierung untersucht in Abhängigkeit von der Basisrate
P(US|¬CS). Es zeigte sich, dass die Konditionierung umso besser war, je größer die positive
Differenz P(US|CS) - P(US|¬CS) und somit die Kontingenz war. So zeigte z.B. die
P(US|CS)= 0.4 –Gruppe bei einer Basisrate von P(US|¬CS)=0 einen höheren Grad der
Konditionierung, als die P(US|CS)= 0.1 –Gruppe. Des weiteren fand keine Konditionierung
mehr statt, sobald P(US|CS) gleich der Basisrate und somit keine Kontingenz mehr
vorhanden war.
49. Was versteht man unter einem Übererwartungseffekt? Wie könnte ein Experiment
aussehen, um einen solchen Effekt für die Konditionierung einer konditionierten
emotionalen Reaktion nachzuweisen?
• Kombination zweier bereits etablierter CS mit gleichem US führt zur Abschwächung der
CR auf die einzelnen Stimuli:
• I. CS1 und CS2 unabhängig voneinander auf gleichen US konditioniert, Stärke der
Konditionierung nimmt unabhängig voneinander zu, Erwartung ist gleich
• II. gemeinsame Präsentation von CS1 und CS2 aber nur ein Futterpellet als US
Erwartung: 2 Futterpellets, also Summe der Erwartungen von CS1 und CS2, aber
Realität: US ist nur 1 Futterpellet Erwartung war eine Übererwartung hinsichtlich des
Umfangs des US. Beide CS erfahren dadurch inhibitorische Konditionierung. Die beiden
einzelnen Stimuli lösen dann in der Testphase eine schwache CR aus:
• III. = Testphase: CS1 allein und CS2 ohne US präsentiert Tier zeigt schwächere CR bei
jedem der CS, da die Erwartung in Phase II minimiert, verringert wurde
50. Was ist ein Blockierungseffekt? Schildern Sie hierzu die Logik des Experiments und
die Ergebnisse von Kamin (1968).
• keine Abweichung von der Erwartung (A = Σ Scs)
• Kopplung eines neuen CS2 mit einem bereits etablierten CS1 bei gleichem US bewirkt
keine Konditionierung bzgl. CS2, weil dieser durch CS1 blockiert wird:
• Experiment von Kamin: 2 Gruppen von Ratten
• I. Phase: Blockierungsgruppe: Licht+ (d.h. mit folgendem US: Schock präsentiert) bis
Licht starke CR auslöst
Kontrollgruppe: I. Phase ohne Stimuluspräsentation, also Baseline Bedingung
• II. Phase: beide Gruppen: Licht und Ton mit US CR etabliert,
• Testphase: beide Gruppen: Ton ohne US präsentiert = Extinktionsdurchgänge beobachten, wie sehr bzw. ob Konditionierung von Licht auf den Ton als CS abgefärbt hat,
beide Gruppen gleiche Anzahl von Ton und Schock-Paarungen
• Ergebnisse: Kontrollgruppe: starke CR auf den Ton alleine
Blockierungsgruppe: so gut wie keine CR auf den Ton ohne US die Information, die mit
Licht assoziiert wurde muss die Information des Tons blockiert haben.
51. Welche zentralen Ergebnisse sprechen gegen die These, dass die Stärke einer
konditionierten Reaktion proportional ist zur Häufigkeit zeitlich benachbarter CSUS-Paarungen?
• Übererwartungseffekt: viele Paarungen von Licht und Ton mit US Futter, trotzdem
schwache CR auf beide einzeln, wg. Übererwartungseffekt
• Kontingenz ist entscheidend, also Wahrscheinlichkeit, wie gut der CS den US vorhersagt,
nicht die Häufigkeit der Paarungen
• Rescorla-Wagner-Modell: Stärke der Abweichung von Erwartung & tatsächlichem Reiz
(US), also der Überraschungseffekt, bestimmt die Stärke der Konditionierung. Je nach
Richtung der Abweichung exzitatorische oder inhibitorische Konditionierung
• bei Akquisition, Extinktion, Überschattung = asymptotischer Verlauf
• Salienz des CS entscheidend für Ausmaß der Konditionierung
52. Inwieweit kann man den Ablauf einer Prozedur zur konditionierten Inhibition durch
Kopplung eines CS- mit einem CS+ in dessen Extinktionsphase als
Blockierungsphänomen beschreiben? Was wird wodurch blockiert?
Konditionierte Inhibition
Blockierung
I. CS+ US CR
I. CS1 US CR
II. CS+/ CS- ¬US CR
II. CS1/ CS2 US CR
III. CS1 US CR
III. CS+ ¬US CR
IV. CS2 US ¬CR
• Löschung des CS+ wird durch CS- blockiert, weil CS- ja das Ausbleiben des US in II. Phase
angekündigt hat
• wenn in Löschungsphase (Extinktionsphase) von CS+ gleich beim ersten Durchgang ein
anderer CS präsentiert wird, dann übernimmt dieser CS die Funktion eines CS-, also eines
konditionierten Inhibitors, der die Information trägt, dass US nicht auftreten wird und das ist
dann der Grund, warum keine CR auftritt
• die Löschung ist praktisch gestoppt, blockiert: CS+ alleine CR
• wenn der CS+ allerdings weiter ohne US präsentiert wird kommt es allmählich zur
Löschung
53. Durch welche Maßnahme lässt sich ein Standard-Blockierungseffekt vermeiden bzw.
aufheben?
• CS2 muss neue Information zusätzlich zu der Information des CS1 bringen, zB stärkerer US
• d.h. CS2 muss einen Ankündigungswert besitzen und Überraschung bringen
• dann kann der CS1 den CS2 nicht vollständig blockieren
• Auflösung der Blockierung durch Blockierung der Kontext-US-Assoziation, eigentlicher
Reiz wird durch Kontext (= Assoziation mit Experimentalsituation) blockiert
• anderer Reiz muss stärker sein als der Kontext Blockierung aufgehoben
54. Wie lautet die Formel des Rescorla-Wagner-Modells der klassischen
Konditionierung? Erläutern Sie jede Komponente der Formel inhaltlich.
∆ Vcsi = Scsi · (Aj – Σ Vcs) Veränderung der Erwartung = Veränderung der Stärke der
konditionierten Reaktion
• ∆ = Veränderung der Stärke eines CS bei einem einzigen Konditionierungsdurchgang
• V = US-Erwartung gegeben CS, also die Stärke der CR nach bzw. unter dem CS
• S = Salienz (0 ≤ S ≤ 1) beeinflusst Lernen/Konditionierbarkeit
unbemerkt
maximale Salienz, perfektes Lernen
je salienter, also auffälliger der Reiz, desto stärker die Konditionierung
• A = US-Stärke (0 ≤ A, d.h. es gibt keinen negativen US)
• Σ Vcs = Summe der US-Erwartungen aller anwesenden CS additives Modell,
Konfigurationseffekte als jeweils eigene CS
• i = bezieht sich auf jeden einzelnen CS, j = bezieht sich auf jeden einzelnen US
55. Benutzen Sie das Rescorla-Wagner-Modell, um folgende Phänomene zu erklären:
Akquisition, Extinktion, Überschattung, Übererwartung, Blockierung. Illustrieren
Sie Ihre Erläuterungen jeweils mit einer Beispielrechnung zur Veränderung der
Assoziationsstärken.
Akquisition:
• Lernzuwachs ist asymptotisch mit Konvergenz auf A
• I. Erwartung: CS: Licht = 0
US: 100 > Erwartung: Vsum= VL = 0
US: Schock = 100
100 – 0 = 100 exzitatorische Konditionierung
• ∆ VCSi = 0.2 · (100) = 20 Erwartung von Licht VL muss im I. Durchgang um 20 steigen
• angenommene Salienz: SL = 0.2 Erwartung +20 100 – 20 = 80
• II. Erwartung: ∆ VCS1 = 0.2 · (100 – 20) = 16 US > Erwartung (Erwartung war bei 20)
exzitatorische Konditionierung Erwartung muss im II. Durchgang um 16 steigen
• Erwartung steigt mit jedem Durchgang, erwartet aber jetzt noch nicht 20 + 16 = 36!
• erst nach dem II. Durchgang: VCS1 = 20 + 16 = 36 Differenz wird mit jedem Durchgang
kleiner Konditionierung wird mit jedem Durchgang weniger:
III. Durchgang: ∆ VL = 0.2 · (100 – 36) = 12.8 VL = 12,8 + 36 = 48.8
• wenn nach dem CS die Erwartung der Erlebensintensität entspricht, so ist die Asymptote
von 100 erreicht
• ∆ VCS1 = SCS1 · (A1 – Vsum)
Extinktion:
• Licht = CS
• Vsum = VL und VL = 90 weil schon konditioniert, aber asymptotisch, also nicht 100
• angenommene Salienz des Lichtes SL = 0.2
• I. Licht ohne Futterpellet (US) präsentiert US: 0 < Erwartung: Vsum = VL = 90
∆ VL = .2 * (0-90)= -18→ VL müsste im 1. Durchgang um 18 Einheiten sinken
• II. beginnen wir mit VL (und damit Vsum) bei 90-18 = 72
∆ VL = .2 * (0 - 72)= -14.4 → VL müsste im 2. Durchgang um weitere 14.4 Einheiten sinken
nach 2. Durchgang: VL= -18 -14.4= -32.4
→ bei weiteren Durchgängen würden sich VL –Werte asymptotisch 0 annähern, d.h. bei
einfacher Extinktion ist anfängliche Abnahme von VLs am größten und Senkung nimmt
immer mehr ab, asymptotische Abnahme mit Konvergenz auf 0
Überschattung:
CS1 = Licht mit SL =0.2; CS2 = lautes Geräusch mit SN = 0.5
• I. Vsum = VL + VN = 0 → Diskrepanz zw. A und Vsum = 100
∆ VL = .2 * (100 -0) = 20 und
∆ VN = .5 * (100 -0) = 50
→ nach 1. Durchgang beträgt Vsum = 20 + 50 =70, d.h. zu Beginn des 2. Durchgangs ist
Differenz zw. A und Vsum nur noch 30
• II. ∆ VL = .2 * (100 -70) = 6 und
∆ VN = .5 * (100 -70) = 15
• → Gesamtanstieg in Durchgang 2 beträgt 21, d.h. nach 2 Durchgängen Vsum = 70 +21 = 91
• → wegen der beiden CS nähert sich Vsum viel schneller an A an
• → auffälliges Geräusch hat bei Annäherung an 100 im 10. Durchgang über 70 Einheiten der
Stärke usurpiert und somit kann Licht nie über 30 steigen. Licht wird durch lauten Ton
überschattet und nie so stark konditioniert wie ohne Ton
• Regel 5: auffälligere Stimuli führen schneller zur Konditionierung = SALIENZ auffälligerer Stimulus hat mehr exzitatorische Wirkung und deshalb gibt es kaum eine/keine
exzitatorische Wirkung auf den schwächeren Stimulus
Übererwartung:
• I. CS1 = Licht mit SL =.2; mit 1 Futterpellet (A=100) schon auf Erwartung: VL = 100
gebracht, CS2= Ton mit ST = .2; mit 1 Futterpellet (A=100) schon auf VT = 100
• II. CS1 Licht und CS2 Ton zusammen präsentiert, aber nur 1 Futterpellet als US
• Modell sagt, dass Stärke aller konditionierten Stimuli, die beim Durchgang anwesend sind,
abnimmt, wenn die Erwartung des US erhöht ist (A < Vsum)
• da VL am Anfang 100 ist, und VT auch, ist Vsum = 200 und neuer US aber nur A=100
• I. ∆ VL = .2 * (100 - 200)= -20
∆ VT= .2 * (100 - 200)= -20
• → wegen der Übererwartung gehen den Stimuli VL und VT jeweils 20 Stärkeeinheiten
verloren → Vsum ist jetzt VL +VT= 200 -20 -20 = 160
• II. ∆ VL = .2 * (100 -160)= -12
∆ VT= .2 * (100 -160)= -12
→ beim zweiten Durchgang verlieren VL und VT jeweils 12 Stärkeeinheiten → Vsum ist jetzt
VL +VT= 160 -12 -12 = 136
VL und VT wird weniger positiv, und auch Vsum nähert sich einer Asymptote von 0
Blockierung:
• wird Stimulus Licht in Phase 1 mit Futterpellet kombiniert, so dass am Ende VL =90: US
wird fast perfekt durch CSL vorhergesagt, SL= 0.7, A=90
• in Phase 2 Licht und Ton präsentiert, beide S= 0.7: Ton kann keine Veränderung in der
konditionierten Stärke verursachen, da (A – Vsum) = 90 – 90=0, d.h. keine Abweichung
von der Erwartung mehr möglich→ kein Lernen, weil keine Diskrepanz zwischen
Erwartung und Ergebnis
56. Erklären Sie das Ausbleiben einer Konditionierung trotz häufiger CS-US-Paarungen
bei nicht vorhandener Kontingenz auf der Basis des Rescorla-Wagner-Modells.
Durch welche zusätzliche experimentelle Evidenz wird diese Erklärung gestützt?
• keine Kontingenz bedeutet: keine hohe Wahrscheinlichkeit des Auftretens des US gegeben
CS, also niedrige Vorhersagekraft des CS
• trotz häufiger Paarung von CS und US kommt es zu keiner Konditionierung, weil CS keine
neue Information bringt, also keine Überraschung
• Kontext blockiert den Erwerb der CS-US-Assoziation durch Kontext-Assoziation senkt
Erwartungsaspekt
• Rothermund: Auflösung der Blockierung durch Blockierung der Kontext-US-Assoziation
Kontext schluckt Erwartungseffekt, Kontext sagt alles vorher keine Diskrepanz
zwischen Erwartung und Ereignis kein Lernen möglich = Erklärung des RescolaWagner-Modells
• Skizze, wie das funktioniert: 4 Felder Tafel:
CS
+
Kontingenz = P(US+| CS+) – P(US+| CS-) =
a/ (a + c)
– b/ (b + d)
=
Baseline
10/ (10 + 0) – 10 / (10 + 10) =
+
10
a b 10
1
– 0,5
= 0,5
US
0
c d 10
P, dass CS auftritt = 50% höher als in Baseline
a+c
b+d=
= Zeitsegment, in dem weder US noch CS identifizierbar war
• Summe von Vcs = 0
• ∆ V = S · (A – 0)
• ∆ V = S · A S und A während des Experiments unverändert keine Änderung in der
Erwartung, kein Lernen, da keine Überraschung keine Konditionierung
• ∆ V = Scsi · (Al – Σ Vcs) bei häufiger Paarung ohne Kontingenz gibt es keine
Erwartungsänderung, weil CS den US nicht sicher vorhersagt keine Änderung der
Stärke der konditionierten Reaktion
• Welchen Anteil hat a an Spaltensumme a + c?
• Welchen Anteil hat b an Spaltensumme b + d?
• Evidenz: (Durlach, 1983) Futter gleich wahrscheinlich bei Licht und kein Licht, alle US
die nicht durch Licht angekündigt werden, werden es in EG durch Ton, dann Test: Tiere
auf Licht häufiger reagiert, als KG, obwohl Kontingenz Licht-Futter gleich war, aber Ton
nur mit Kontext gepaart war Kontext blockiert Konditionierung des Lichts in KG, in
EG blockiert der exzitatorische Ton die Konditionierung des Kontexts als CS und deshalb
kann Kontext in EG die Konditionierung des Lichts nicht blockieren
57. Was versteht man unter „latenter Inhibition“?
CS - Präexposition (ohne US) reduziert den späteren Erwerb einer CS-US-Assoziation
58. Warum handelt es sich bei der latenten Inhibition wahrscheinlich nicht um ein
Inhibitionsphänomen im engeren Sinne?
Weil CS kein konditionierter Inhibitor ist, also nicht das Nicht-Auftauchen des US vorhersagt,
sondern generell in seiner Konditionierbarkeit geschwächt ist, also auch bei Auftauchen des
US schwerer eine Assoziation aufgebaut werden kann.
59. Erklären Sie das Phänomen der latenten Inhibition anhand der Theorie von Pearce
& Hall (1980).
• Theorie besagt, dass konditionierte Stimuli wirkungslos sind, wenn US bereits gut bekannt
ist
• Wenn sich Situation ändert, und US wieder überraschend wird, z.B. intensiver, dann wird
CS schnell wieder wirksam und eine weitere Konditionierung ist möglich
• z.B.: Erster Durchgang in der II. Phase (also wenn Situation schon geändert): keine
Blockierung, weil CS Wirksamkeit erst verliert, wenn er mindestens ein mal mit nicht
überraschenden Folgen präsentiert worden ist
• latente Inhibition:
o wenn CS ohne Folge präsentiert CS wird wirkungslos
o wenn CS mit US präsentiert wird schnell wieder wirksam
weitere Konditionierung kann stattfinden
• Aufmerksamkeit für einen CS steigt / sinkt in Abhängigkeit von seinem Vorhersagewert
60. Worin bestehen die zentralen theoretischen Unterschiede zwischen dem RescorlaWagner-Modell und der Theorie von Pearce & Hall (1980)?
Rescorla-Wagner-Modell:
Theorie von Pearce & Hall (1980)
• US gut bekannt
• Auffälligkeit des CS nimmt ab,
keine Konditionierung mehr
wenn wiederholt folgenlos auftritt
herbeiführen
wirkungslos, bis wieder
überraschender, auffälliger
• Modell sagt voraus, dass kein Lernen
• Lernen & Erfahrung variabel
stattfindet
Effektivität des CS kann sich ändern
Erwartung - Stärke des US
dieses Verhältnis bleibt gleich
• Salienz = fester Parameter, üb. Kontext
• Salienz = erfahrungsabhängig,
hinweg konstant, unabh. von Erfahrung
d.h. Effektivität des CS ist veränderlich
61. Was versteht man unter S-S- und S-R-Erklärungen der klassischen
Konditionierung? Mit welchen Experimentaldesigns kann man versuchen, zwischen
S-S- und S-R-Erklärungen zu unterscheiden?
• S-S-Erklärungen: konditionierte Reaktion aufgrund einer Verbindung zweier Reize: CS
aktiviert CS-Zentrum, dieses aktiviert US-Zentrum was das Reaktionszentrum aktiviert
• S-R-Erklärungen: zwischen CS-Zentrum u. Reaktionszentrum entsteht während der
Konditionierung eine direkte Verbindung ; später führt Aktivierung des CS-Zentrums über
S-R-Verbindung direkt zur Aktivierung des Reaktionszentrums und US-Zentrum nicht
beteiligt
• sensorische Präkonditionierung:
o 1. CS1 kündigt CS2 an (Assoziation CS1 – CS2)
o 2. Lernphase auf CS1 mit US
o 3. CS2 alleine in der Lage CR auszulösen?
wg. Assoziation CS1 - CS2 kommt es zur CR
S-S-Assoziationen liegen der klassischen Konditionierung zugrunde
• Konditionierung zweiter Ordnung: (Phasen 1 und 2 von Sensor. Präkondi. vertauscht)
o 1. Lernphase auf CS1
o 2. CS1 mit CS2 koppeln (CS2 auch m. CR1 gekoppelt)
o 3. CS1 kündigt jetzt anderen US an andere CR: CR2
o 4. welche CR löst jetzt CS2 aus? CR1 oder CR2? CR2!
spricht für (S-S-Assoziation und) S-R-Assoziation als Erklärung
• US Ab- oder Umwertung:
o 1. CS-US-Verbindung lernen: CS US UR bzw. CR solange paaren, bis auf den CS
die CR folgt, ohne dass US nötig ist: CS CR
o 2. US-Bedeutung ändern, ohne CS zu präsentieren (z.B. bei US Futter: ausgiebig füttern,
oder auf Schock habituieren)
o 3. noch mal: 1. CS US UR
CS CR
US CR
2.
US ¬UR
3. CS ? x (keine/ sehr geringe CR)
spricht für S-S-Theorie, weil US andere Bedeutung bekommt und so die CR auf den CS
auch total verändert wird
beide Theorien, die der S-S- und die S-R-Assoziationsbildung, sind teilweise richtig!
62. Was versteht man unter sensorischer Präkonditionierung? Welche theoretischen
Implikationen hat der Nachweis sensorischer Präkonditionierung für
Erklärungsansätze der klassischen Konditionierung?
sensorische Präkonditionierung: ähnlich der Konditionierung zweiter Ordnung:
• NS1 Ton und NS2 Licht werden kombiniert Bildung einer Assoziation
• CS1 Ton und US Futter kombinieren bis CS1 Ton die CR Speichelfluss bewirkt
• Testphase: CS2 Licht präsentiert: bewirkt er die gleiche CR Speichelfluss?
• theoretische Implikationen für Erklärungsansätze der klassischen Konditionierung:
wenn CS2 die gleiche CR wie CS1 bewirkt, handelt es sich um sensorische
Präkonditionierung also einen Beleg für S-S-Assoziationen
63. Erläutern Sie die Methode der Konditionierung zweiter Ordnung. Schildern Sie ein
Ergebnis, das mit dieser Methode erzielt wurde, das für die Hypothese des Erwerbs
von S-R-Assoziationen bei der klassischen Konditionierung spricht.
• CS1 Licht mit US1 Futter gepaart, bis CS1 die CR1 Speichel auslöst
• CS2 Ton mit CS1 gepaart, bis CS2 die CR1 auslöst
• CS1 mit US2 Schock gepaart, bis CS1 die CR2 Angstreaktion auslöst
• Test: CS2 präsentiert löst CS2 jetzt CR1 oder CR2 aus?
• Ergebnis: CS2 löst CR1 aus, also auf Ton folgt trotzdem eine Speichelreaktion
spricht für S-R-Theorie, laut der CS2 mit Reaktion assoziiert ist und nicht mit CS1
• Rescorla, 1979/80:Experiment mit Tauben, rotes u. gelbes Licht – Futter, 1. Gr. vertikal-rot,
horizontal-gelb, 2.Gr. vertikal-rot oder gelb, horizontal-rot oder gelb 1.Gr. lernt
schneller, weil nur 2 Assoziationen lernen muss spricht für S-S-Assoziation
64. Erläutern Sie, was bei einer Studie zur US-Abwertung gemacht wird. Welches
Ergebnis wird hierbei typischerweise beobachtet? Welche theoretischen
Implikationen lassen sich aus diesem Ergebnis ableiten?
• US-Abwertung ist, wenn nach der Assoziationsbildung zwischen zwei Stimuli CS und US
der US in seiner Bedeutung, Salienz minimiert wird,
z.B. geschieht dies bei dem US Futter durch starkes Füttern, bis das Tier keinen Hunger
mehr hat, oder bei US Schock eine Habituation auf den Schock. Der US wird also entwertet.
• das typische Ergebnis hierbei ist, dass die Reaktion auf den CS deutlich geringer ausfällt
• theoretische Implikationen: das Ergebnis spricht für die S-S-Assoziationstheorie, weil sich
aufgrund der Veränderung der Bedeutung des US die Reaktion(CR) total verändert hat
65. Erläutern Sie den Begriff des „occasion setting“. Schildern Sie eine Studie, mit der
ein Stimulus als exzitatorischer „occasion setter“ (OS) etabliert wird. Wie kann man
hierbei ausschließen, dass es die spezifische Kombination von OS und CS ist, die als
eigenständiger CS eine CR hervorruft?
• occasion setting ist die Beeinflussung der konditionierten Reaktion auf einen Stimulus durch
eine anderen Stimulus
Studie:
• CS1 = OS (Licht) CS2 (Ton) US (Futter) CR
neben dem CS wird weiterer Stimulus (occasion setter) präsentiert, welcher die
Randbedingung darstellt, dass eine Reaktion zu einem US und CS gilt (exzitatorischer
occasion setter) oder nicht gilt (inhib. occasion setter).
• CS2 (Ton) ¬US ¬CR nur wenn CS (z.B. Ton) mit vorangehendem Licht ( occasion
setter) präsentiert wird, folgt der US, wird CS allein präsentiert folgt kein US
• CS1 (Licht) – exzitatorischer occasion setter – beeinflusst die konditionierte Reaktion auf
den CS2 (Ton) Licht ist dann exzitat. occ.setter, weil nur wenn Licht dem Ton vorausgeht,
der US kommt (Licht hat Schalterfunktion u. moduliert Zusammenhang zw. Futter u. Ton)
• Ausschluss von OS-CS-Kombination als eigenständiger CS, da occasion setter
austauschbar sind und verändern, egal welcher OS, die Reaktion auf US:
wie Experiment von Davidson & Rescorla :
OS1 CS1 CR1
OS2 CS2 CR2 → vertauschen: OS2 CS1 CR1 occasion setter kann bei jedem
OS1 CS2 CR2
Stimulus die Reaktion
beeinflussen
es liegt nicht an der spezifischen Kombination eines bestimmten OS mit dem CS
66. a) Schildern Sie ein Experiment, in dem ein Stimulus als inhibitorischer
konditionierter Stimulus (CS-) etabliert wird.
b) Welche asymptotischen Assoziationsstärken sollten bei diesem Vorgehen nach
dem Rescorla-Wagner-Modell für den CS+ und für den CS- entstehen, wenn der
CS+ ursprünglich eine Assoziationsstärke von a besaß (gegeben, beide Stimuli
besitzen die gleiche Salienz?
c) Beschreiben Sie nun dieselbe Situation mit Begriffen des „occasion setting“.
d) Mit welchen Experimentaldesigns kann man zeigen, dass die additive Erklärung
des R-W-Modells für die inhibitorische Konditionierung wahrscheinlich inadäquat
ist?
• zu a) CS+ (Licht) kündigt in Phase 1 zuverlässig den US(Futter) an
• in Phase 2 wird jetzt zusätzlich ein CS-(Ton) präsentiert, welcher ankündigt, dass US
(Futter) ausbleibt → Ton wird zum konditionierten Inhibitor
• zu b) CS+ asymptotischer Verlauf der Assoziationsstärke gegen VL= A/2
• CS- asymptotischer Verlauf der Assoziationsstärke gegen VT= A/2
• zu c)beim occasion setting wird der CS- (Ton) zum occasion setter, der die Bedingung
herstellt, dass wenn Ton vor Licht kein Futter
• wird CS (Licht) lange mit CS (Ton) gepaart, löst diese Kombination keine CR mehr aus
→ das Tier hat gelernt zu diskriminieren
• zu d)nach R-W-Modell: auf CS folgt US und auf CS mit OS (Inhibitor) folgt nichts
• im Modell wird moduliert: am Ende sei Vcs= A/2 und Vos= -A/2
• negative Erwartung/Intensität ist im Modell nicht vorgesehen, da 0 ≤ A
67. Was versteht man unter einer kompensatorischen CR? Nennen Sie ein Beispiel.
• kompensatorische CR ist eine CR, die mit der Anzahl der Wiederholungen des CS in ihrer
Stärke abnimmt, ist das Gegenteil der UR, neigt dazu die UR zu kompensieren, ihr
entgegenzuwirken
• z.B. (Siegel) kontextspezifische Drogentoleranz (abnehmender Effekt, Kontext als CS für
Gegenreaktion des Körpers → Aufhebung des Toleranzeffektes in verändertem Kontext →
mögl. Folge = paradoxer Drogentod, denn normalerweise heben sich konditionierte
Gegenreaktion und Wirkung der Droge gegenseitig fast auf)
68. Wie erklärt man sich, dass nach wiederholter Injektion von Morphium nicht nur
dessen analgetische Wirkung nachlässt, sondern dass auch eine Salzwasserinjektion
zu einer erhöhten Schmerzempfindlichkeit führt?
• Experiment von Siegel: Ratten auf heißer Platte –lecken Pfoten wenn zu heiß. Wiederholte
Morphiuminjektion analgetische Wirkung lässt nach, weil kompensatorische CR
• Salzwasserinjektion erhöhte Schmerzempfindlichkeit, weil kompensatorische
Gegenreaktion nicht durch Wirkung des Morphium aufgehoben wird
• Spritze = CS, Morphium = US, CR = kompensatorische Gegenreaktion des Körpers: höhere
Schmerzempfindlichkeit, arbeitet also gegen die Wirkung von Morphium
• Verabreichen einer Spritze ohne Morphium Gegenreaktion auch ohne Morphium
ausgelöst Schmerzempfindlichkeit steigt, weil Morphium-Wirkung fehlt, die
normalerweise die Gegenreaktion aufhebt
• dies zeigt: keine Gewöhnung an Morphium, sondern kompensatorische Gegenreaktion
wurde aufgebaut durch Spritze als CS hervorgerufen
69. Erläutern Sie die Grundannahme der „Conditioned Opponent Theory“ von Schull
(1979).
• die meisten Grundannahmen von Solomon & Corbit akzeptiert
• neu: b-Prozess wird nicht durch Wiederholung gestärkt und durch fehlende Wiederholung
geschwächt, sondern dass jede Zunahme in der Intensität des b-Prozesses eine CR ist, durch
die ein oder mehrere Stimuli ausgelöst werden.
• b-Prozess wird scheinbar gestärkt, weil jeder Stimulus , der mit emotionaler Erfahrung
kombiniert wurde, wird zum CS und kann später den b-Prozess auslösen
• nur b-Prozesse sind konditionierbar, nicht a-Prozess
70. Wann entspricht bei der klassischen Konditionierung die CR der UR, wann ist sie
eher ihr Gegenteil? Begründen Sie Ihre Antwort mit der „Sometimes Oponent
Process Theory“ von Wagner (1981).
• CR = UR bei monophasischer UR, d.h. wenn es keine b-Prozess gibt, z.B. Lidschlussreflex
• CR ≠ UR bei biphasischer UR, also mit b-Prozess, z.B. Schock Herzfrequenz steigt,
wenn Schock beendet: Herzfrequenz sinkt unter die normale Baseline Rate
71. Welche experimentelle Evidenz spricht dafür, dass trotz sehr unterschiedlicher
Interstimulusintervalle bei der Konditionierung der Geschmacksaversion und der
CER dennoch die gleichen Lerngesetze wirksam sind?
• CER = conditioned emotional reaction
• Experimente von Baron, Kaufmann & Fazzini und von Andrews & Braveman:
• Wirkung der Verzögerung zwischen Drücken des Hebels & Schock: mit zunehmender
Verzögerung verhinderte die Bestrafung das Hebeldrücken immer weniger
• Wirkung der Verzögerung zwischen Aufnahme der Saccharinlösung & Giftinjektion: mit
zunehmender Verzögerung verringert das Gift die Aufnahme der Lösung immer weniger
• Ähnlicher Verlauf bei unterschiedlicher zeitlicher Skalierung = gleiches Lerngesetz!
• beide Ergebnisse entsprechen dem Prinzip der Kontiguität je kürzer das Intervall
Stimulus – aversives Ereignis, desto stärker die Reaktion gleicher Verlauf der Kurve
(Asymptote)
• Unterschied ist nur Skalierung der x-Achse Kontiguitätsprinzip muss nicht ersetzt werde,
sondern nur Verwendung unterschiedlicher Zahlen für die Beschreibung der Beziehungen
zwischen Kontiguität und Lernen ist notwendig
72. Was besagt die Äquipotenzannahme der klassischen Konditionierung? Schildern Sie
Ablauf und Ergebnisse der Unersuchung von Garcia & Koelling (1966), das diese
Annahme widerlegt. Genau welcher Aspekt der Ergebnisse ist kritisch für die
Äquipotenzannahme?
Äquipotenzannahme besagt:
• egal welche Reize, nur systematische Kopplung ist nötig
• lediglich Salienzunterschiede der CS bedingen unterschiedlich starke Konditionierung
• gegebener Stimulus ist in allen Kontexten gleich guter bzw. schlechter CS
dem widerspricht Ergebnis der Unersuchung von Garcia & Koelling:
zwei gleiche Stimuli in unterschiedlichen Kontexten verschieden stark effektiv:
Ablauf:
• zwei Rattengruppen zusammengesetzter Stimulus:
Geschmacksaversionskomponente: Wasser mit Geschmack
audiovisuelle Komponente: Lichtblitze und Klickgeräusche
• I. 1. Gruppe: Gift injiziert bekommen Geschmacks-Aversions-Lernen
2. Gruppe: Elektroschocks an den Füßen bei trinken
• II. Extinktionstests: ohne Gift & ohne Schock , wobei die Hälfte der jeweiligen Gruppe erst
aromatisiertes Wasser zu trinken bekam während die audiovisuellen Reize auftraten und
dann reines Wasser während der Reize trank und die andere Hälfte umgekehrt
• Ergebnisse: Gift-Gruppe: größere Aversion gegenüber Geschmacksstimulus, SchockGruppe: größere Aversion gegenüber dem audiovisuellen Stimulus, disordinate Interaktion
• kritischer Aspekt: Geschmack = effektiverer Stimulus, wenn aversives Ereignis die
Giftinjektion ist, audiovisueller Stimulus = besser, wenn aversives Ereignis der Schock ist
• man kann erst dann etwas über die Stärke der konditionierten Reaktion sagen, wenn die
Beziehung zwischen CS und US genauer bekannt ist
• Salienz des Stimulus ≠ allein entscheidend
73. Nennen Sie ein Forschungsergebnis, das die spezies-spezifische Konditionierbarkeit
verschiedener Stimuli belegt.
• Ratten assoziieren leicht Geschmacksstimuli mit Krankheit:
Wilcoxon, Dragoin, Kral (1971): Ratten & Weißschwanzwachteln: blaues, säuerliches
Wasser krank
• Ergebnis: Ratten: stärkere Aversion gegen säuerlich
Wachteln: stärkere Aversion gegen blaue Farbe
Grund: Nahrungsbeschaffungsverhalten in natürlicher Umwelt
74. Was besagt das Konzept der „preparedness“?
• preparedness besagt, dass jede Tierart durch die Evolution und Erfahrungsbereiche (z.B.
Nahrungssuche) auf bestimmte Stimuli besonders schnell eine bestimmte Assoziation zeigt
• vorbereitete und gegenläufig vorbereitete Assoziationen bei Tieren bestimmte
Assoziationen lassen sich besonders leicht lernen
V. EVALUATIVE KONDITIONIERUNG (EC)
75. Beschreiben Sie den Ablauf und das typische Ergebnis einer Untersuchung zur
evaluativen Konditionierung.
• Paarung eines valenten US mit neutralem CS
• Valenzübertragung vom US auf den CS nach mehrfacher gemeinsamer Präsentation: CS
bekommt Valenz in Richtung der der US
• Beispiel: Bild-Bild-Paarung: neutrale Gesichter werden systematisch mit positiven und
negativen (sympathischen und unsympathischen) Gesichtern gepaart
• in anschließender Testphase werden die neutralen Gesichter z.B. positiver bewertet, wenn
sie vorher mit sympathischen Gesicht gepaart wurden
76. Was ist die abhängige Variable bei der evaluativen Konditionierung im Gegensatz
zur klassischen Konditionierung?
• bei der EC ist die AV der CS selbst, dessen Qualität verändert wird, je nach Valenz des US
• bei KK ist die AV die Rate/Stärke der CR, die CR wird durch den CS beeinflusst, also ist
der CS bei KK die UV
77. In welchen funktionalen Charakteristiken unterscheidet sich die evaluative
Konditionierung von der klassischen Konditionierung? Geben Sie jeweils eine kurze
inhaltliche Erläuterung der einzelnen Merkmale.
• Extinktion = Löschung:
o Nach mehrmaliger Präsentation des CS ohne darauf folgenden US wird KK gelöscht, d.h.
es tritt keine CR mehr auf den CS hin auf.
o EC ist Löschungsresistent, d.h. die neue Valenz des CS bleibt auch nach
Extinktionsdurchgängen erhalten.
• Kontiguität (zeitl. Nähe von CS und US) statt Kontingenz (P(US|CS)=P(US|¬CS)>0), d.h.
nur die zeitliche Kopplung von US und CS ist entscheidend für EC, nicht der
Vorhersagewert des CS, also die Wahrscheinlichkeit, mit der der US nach Auftreten des CS
vorkommt.
• Bewusstheit des CS –US – Zusammenhangs:
o keine Korrelation zw. EC-Effekt & Bewusstheit, Olson & Fazio: trotz Zusatzaufgabe gibt
es einen EC-Effekt
o Demand-Effekte: Aufforderung auf CS-US-Zusammenhang zu achten verhindert bzw.
„eliminiert“ EC-Effekt
• im Gegensatz zur KK sind auch simultane und rückwärtsgerichtete Konditionierung bei EC
möglich (letzteres ist z.B. Malboro Werbung: erst Landschaft & Cowboys, dann Produkt)
78. Was ist gemeint, wenn vermutet wird, dass die evaluative Konditionierung auf
„demand“ - Effekte zurückgeht? Nennen Sie verschiedene Ergebnisse, die es
unwahrscheinlich machen, dass der EC-Effekt auf solche „demand“ – Effekte
zurückzuführen ist.
„demand“ Effekte laut Dorsch, psychologisches Wörterbuch:
-meint, dass Wahrnehmung von Zweck und Bedeutung des Experiments durch die
Versuchsperson VP ihr Antwortverhalten steuert
- d.h. es gibt durch Prozedur des Fragens gesteuerte Antworten
• Effekt wird durch Fragestellung erst „produziert“ würde EC in Frage stellen
• Ergebnisse, die solche Effekte unwahrscheinlich machen: indirekte Messung durch
affektives Priming (Diaz et al., 2005): stellen von Zusatzaufgaben oder Maskierung des US
Ausschaltung bewusster Verarbeitung erhöht EC-Effekt
• Bsp: Worte sollen am Computer pos. oder neg. bewertet werden, dabei Zeit gemessen;
200ms vorm Wort (pos od. neg. target) sehen Personen einen Prime, welcher pos. oder neg.
konditioniert sein kann
• → hat prime eine z.B pos. Valenz erworben, sollte die Reaktion auf den pos. Target
schneller sein, d.h. es sollte schnellere RTs geben, wenn Prime und Target positiv sind →
schnellere RT = Beweis für Valenz des prime
79. Welche beiden Erklärungsansätze wurden für die evaluative Konditionierung
aufgestellt? Erläutern Sie, was mit den Ansätzen jeweils gemeint ist. Nennen Sie
Argumente/ Forschungsergebnisse, die für bzw. gegen die jeweiligen
Erklärungsansätze sprechen.
I. Rekategorisierung des CS (Davey 1984, Field & Davey 1997)
• Erläuterung: Rekategorisierung des CS heißt, dass durch die Paarung des (ambivalenten)
CS mit dem US die Merkmale des CS, die dem US ähnlich sind, salienter werden.
• EC sollte nur bei ähnlichen CS-US-Paarungen auftreten – wäre pro ( methodische
Kritik: Häufig CS-US-Paarung nach Ähnlichkeit, d.h. oft nicht zufällig)
• ABER: contra
EC-Effekte treten auch bei randomisierter CS-US-Paarung bzw. Zuordnung auf
Cross modales EC (Razran), weil keine Ähnlichkeit zw. CS und US Musik -Bilder spricht gegen Rekategorisierung, weil CS u. US eben nicht ähnlich sind. RescorlaWagner-Modell kann ausgeschlossen werden, da keine erwartungsbasierten Effekte
II. Referentielles Lernen bei EC (vs. Erwartungs- bzw. Signallernen bei KK)
• Erläuterung: assoziatives Lernen: Präsentation CS + US später CS alleine CS
aktiviert automatisch eine kognitive Repräsentation des US, jedoch ohne eine Erwartung
des US CS wird durch Gesamtrepräsentation in seiner Valenz von US eingefärbt
Missatribution von Eigenschaften des US auf den CS, d.h. US-Retroluationseffekt
• Baeyens et al., 1992 = pro: Konzept des Referentiellen Lernens besagt, dass bei EC der
CS, der gezeigt wird, ein referentielles System hervorruft, das einen Durchschnitt über alle
Valenzen der Stimuli, mit denen er bereits aufgetreten ist, bildet, und der
Durchschnittswert ist dann die Valenz des CS. Dies erklärt, warum EC löschungsresistent,
unabhängig von Kontingenz und warum Gegenkonditionierung möglich ist
Bsp. aus Walther-Text: positives Gesicht & neutrales Gesicht später negatives Attribut
(z.B. Person hat geklaut) CS geändert in seiner Valenz in Richtung negativ
80. a) Was versteht man unter cross-modaler evaluativer Konditionierung? b) Nennen
Sie ein Beispiel. c) Welche Bedeutung hat der Nachweis cross-modaler EC-Effekte
für die theoretische Erklärung der evaluativen Konditionierung?
zu a) = EC bei verschiedenen Modalitäten von CS und US
zu b) (Razran, 1954):
politische Slogans (CS) gepaart mit freiem Essen (US)
politische Slogans (CS) gepaart mit unangenehmen Gerüchen (US)
Slogan ist eine mentale, Essen eine orale und Geruch eine olfaktorische Modalität
Ergebnis: Valenzübertragung sogar über verschiedene Modalitäten hinweg: Slogans, die
während des freien Essens auftraten wurden danach positiver bewertet als Slogans, die mit
unangenehmen Gerüchen gepaart worden waren.
• zu c) Die Bedeutung des Nachweises cross-modaler Effekte für die theoretische Erklärung
der EC liegt darin, dass der Rekategorisierungsansatz nicht stimmt, weil EC auch bei cross
modal, also bei sehr unterschiedlichen CS und US funktioniert
81. a) Was versteht man unter „spreading attitude effect“?
b) Schildern Sie zur Erläuterung auch den Aufbau und die Ergebnisse der
Untersuchung von Walther (2002).
• zu a)„spreading attitude effect“ = indirekter Erwerb von Einstellungen ohne direkten
Kontakt mit dem Einstellungsobjekt durch sensorische Präkonditionierung
z.B. Merkel nur in Fußballstadion, weil D letztes Spiel auch gewonnen hat, sie wurde auch nach der
Niederlage gegen Italien nicht mehr gezeigt in TV
allgemeines Bsp.: systematische Paarung neutraler Stimuli miteinander, Stimulus N2 mit
US evaluativ konditioniert N1 ohne valenten US gezeigt, aber mit N2 vorherkombiniert
Valenz wird auf N1 übertragen,
z.B. wenn Person A mit negativ empfundener Person B redet oder zusammensteht später
wird Person A mit Person C gesehen Person C wird auch als negativ empfunden.
• zu b)
Präkonditionierungsphase: EG: N1 & N2 gepaart; KG: N1 & N3 gepaart
Konditionierungsphase: EG: N2 & US gepaart; KG: N2 & US gepaart
Ergebnis: EG: N1 wird negativ bewertet, da NS mit US gekoppelt war, Übertragung auf N1;
KG: N1 bleibt neutral, da N3 nicht mit US gekoppelt wurde und N1 mit N2 gar nicht
assoziiert wird
82. Was versteht man unter dem a) „name letter“ Effekt und unter dem b) “mere
ownership“ Effekt? c) Wie kann man diese Effekte lernpsychologisch erklären?
zu a)(Nuttin, 1985): eigene Initialen werden anderen Buchstaben vorgezogen, besser bewertet
zu b)(Feys, 1995): z.B. ich will Tasse verkaufen eigene, persönliche Valenz von mir selbst
lässt mich die Tasse teurer verkaufen, als wenn mich jemand gefragt hätte, wie teuer ich die
Tasse an seiner Stelle verkaufen würde/ wie viel ich ihm dafür zahlen würde / wie hoch ich
den Verkaufswert einschätze, wenn mir die Tasse nicht gehört
Valenz eines Gegenstandes verändert sich zum Positiven, wenn es mein Eigentum ist
zu c)Valenzverschiebung von mir, meiner persönlichen Valenz ( Selbstwert!!) auf den
Gegenstand, den ich besitze/ auf meine Initialen. Das nennt man Eigengruppenfavorisierung
oder impliziter Selbstwert, weil die meisten Menschen einen positiven Selbstwert haben.
83. Sozialspsychologische Forschung zur Effektivität von Persuasionsversuchen hat
gezeigt, dass Botschaften eher akzeptiert werden, wenn Sie von einer sympathischen
Person vermittelt werden. a) Welche rolle spielt hierbei die Aufmerksamkeit des
Zuhörers? b) Wie kann man diese Befunde lernpsychologisch erklären?
zu a) Aufmerksamkeit: Wenn die Aufmerksamkeit des Zuhörers noch durch etwas anderes in
Anspruch genommen wird, z.B. bei Werbung während der Sportschau laufen am Rand die
Ergebnisse der unteren Ligen und andere Fußballinfos in einem Band vorbei dann nennt
man das Moderation durch Verfügbarkeit kognitiver Ressourcen und man wird leichter durch
eine andere Person oder durch die Werbung überzeugt.
zu b) Aufmerksamkeit = Verfügbarkeit kognitiver Ressourcen und moderiert den Einfluss von
Sympathie der Quelle der Information / des Vermittlers auf Glaubwürdigkeit der Aussage /
Bewertung; Botschaft = CS, Person = US Valenz des US auf CS übertragen
84. a) Wie lassen sich Phobien und Aversionen auf der Basis der evaluativen
Konditionierung erklären? b) Welche Implikationen hat eine solche Erklärung
bezüglich der Entscheidung für eine bestimmte Therapieform?
zu a) Phobien u. Aversionen: nach EC entstanden durch indirekte Kopplung mit valentem US
• zu b)Aufgrund der Löschungsresistenz von EC sollte Gegenkonditionierung effektiver
sein als Extinktion, z.B. bei Flugangst: indirekte Kopplung durch
Medien(Flugzeugabstürze etc.Negativbewertung des Fliegens) mit valentem US besser positive Gegenkonditionierung als Therapieform
85. a) Welche Implikationen ergeben sich durch die Forschung zur evaluativen
Konditionierung für eine effiziente Gestaltung von Werbung?
b) Welche potentiellen Risken sind (für das Makenimage) zu bedenken, wenn eine
Werbekampagne mit Mitteln der evaluativen Konditionierung arbeitet?
zu a)
• dauerhafte Einstellungsänderung gegenüber Markenprodukten durch Kopplung mit
positivem USi
• bessere Effekte unter Ablenkung (Werbung im Infofenster)
• „brand extension“, z.B. Mercedes macht Uhren wird gut ankommen, weil Mercedes
positives Image hat, obwohl Uhren mit Autos nichts zu tun haben & keine Garantie für gute
Qualität der Uhren besteht, nur weil Mercedes-Autos gute Qualität haben.
zu b)Rückwärtskonditionierung ist möglich: indirekte Einstellungsänderung, wenn sich die
Bewertung mit dem Einstellungsobjekt assoziierter Personen ändert (US-Umwertung), z.B.:
Sportler macht Werbung für Produkt es stellt sich später heraus, dass er gedopt war Produkt wird im Nachhinein negativ besetzt (CS-Umwertung)
VI. OPERANTE KONDITIONIERUNG – TEIL 1
86. Definieren Sie die Begriffe des respondenten und operanten Verhaltens.
• respondentes Verhalten = unwillkürlich, stimulusbezogen, reizgesteuerte Mechanismen
= eine erfahrungsbedingte Veränderung in reizbezogenem Verhalten: Klassische
Konditionierung (KK)
• operantes Verhalten = willkürlich / spontan injiziertes, instrumentelles Verhalten, d.h. an
Konsequenzen und Folgen orientiert, erfahrungsbedingte Änderung in operantem Verhalten
= operante Konditionierung (OK)
87. Welche Annahme liegt dem Versuch der Lernpsychologie zugrunde, die kausalen
Determinanten von “willkürlichem“, zielgerichtetem Verhalten zu bestimmen?
• einmal gemachte Erfahrungen verändern Verhaltensweisen in der Zukunft
• nur weil kein offensichtlicher Stimulus da ist, der vor dem Verhalten auftritt, heißt das nicht,
dass das Verhalten nicht vorhersagbar ist (OK beeinflusst willkürliches Verhalten)
88. Was besagt das Gesetz des Effekts?
• „law of effect“ (Thorndike): Nicht das Verhalten per se sondern das Verhalten in einer
Situation wird wahrscheinlicher: situationsspezifisch
• verschiedene Reaktionen auf dieselbe Situation:
Befriedigung als Folge mit Situation stärker verbunden bei erneutem Auftreten der
Situation: Reaktionen treten wahrscheinlicher wieder auf
Frustration als Folge Schwächung der Assoziation Verhalten tritt mit geringerer
Wahrscheinlichkeit wieder auf
• je größer die Befriedigung oder Frustration, desto intensiver die Stärkung oder Schwächung
der Verbindung (= Assoziation)
89. a) Erläutern Sie das „stop-action“ Prinzip der operanten Verstärkung.
b) Welche Evidenz spricht für die Wirksamkeit dieses Prinzips?
• zu a)Stärkung einer Verhaltensweise (z.B. Körperhaltung, Muskelbewegung) in dem
Moment des Eintretens der positiven Konsequenz, des Verstärkers = Kontiguitätsprinzip
• zu b)Evidenz: Guthrie & Horton 1946: Katzen in Problemkäfig: jedes Verhalten, das einige
Male verstärkt wurde, dominiert über die anderen Verhaltensweisen
Entstehung stereotypen Verhaltens
90. a) Schildern Sie Ablauf und Ergebnisse von Skinner’s (1948) klassischem
Experiment zum „abergläubischen Verhalten“.
b) Welches Prinzip benutzte Skinner zur Erklärung der Ergebnisse?
zu a)
• Tauben in Versuchskammer
• unabhängig von ihrem Verhalten erhalten sie ca. alle 15 sec. Getreide
• nach einiger Zeit: 6 der 8 tauben wiederholen zwischen den Futtergaben ganz bestimmte
Verhaltensweisen, z.B. picken auf eine bestimmte Stelle
• obwohl keine Verhaltensweise für die Verstärkung notwenig ist, wird immer wieder
dieselbe wiederholt
zu b)
• Prinzip der Erklärung: Kontiguitätsprinzip: Das Verhalten das zufällig im Moment der
Verstärkung gezeigt wurde wird verstärkt
• dieses Verhalten tritt danach mit größerer Wahrscheinlichkeit wieder auf
• Die Wahrscheinlichkeit, dass nächster Verstärker auch wieder nach der gleichen
Verhaltensweise, z.B. einer bestimmten Kopfbewegung auftritt, ist auch größer
• zufälliger Verstärkungsprozess ist selbst – perpetuierend, Verhalten bekommte
Eigendynamik
91. a) Nennen Sie Untersuchungsergebnisse bzgl. der operanten Verstärkung, die sich
nicht mit dem „stop-action“- Prinzip erklären lassen. b) Welche Art der Erklärung
für operante Verstärkung wird durch diese Ergebnisse stattdessen nahe gelegt?
zu a)
• hohe Variabilität im gelernten Verhalten (Muenzinger, 1928): Meerschweinchen sollen
Hebel drücken bekommen Salatblatt: trotz anfänglicher Präferenz von linker bzw. rechter
Pfote oder den Zähnen kommt kein Verhalten nach dem stop-action Prinzip vor: alle drei
verschiedenen Verhaltensweisen treten gleich häufig auf
• Funktionale Generalisierung: bei veränderten Umständen , z. B. schwimmen statt laufen
(Lashley, 1924) Ratten können auch wenn das Labyrinth geflutet ist und sie schwimmen
müssen fehlerlos ans Ziel kommen sie merken sich die Abfolge der Kurven und
Biegungen und sind nicht an die Muskelabfolge gebunden
zu b)
• Erklärung: gelernt werden möglicherweise nicht Bewegungen, sondern Effekte
• einfachste operante Reaktionen weisen bereits ein enormes Maß an Flexibilität und
Anpassung auf
92. Geben Sie eine lernpsychologische Erklärung für die Entstehung und
Aufrechterhaltung idiosynkratischer Verhaltenseigenheiten, die für den
Verhaltenserfolg gar nicht erforderlich sind. Beziehen Sie Ihre Erläuterungen auf
ein spezifisches Beispiel.
• idiosynkratisch = spezifisch, abergläubisch
• entsteht aus persönlichen Erfahrungen mit Verstärkern (Unterschied zum Aberglauben
durch Erfahrungen anderer üb. Generationen weitergegeben), hat z.B. das Tragen eines
Glücksbringers ein oder mehrfach zum Sieg eines Sportlers geführt, könnte er den Sieg
durch seinen persönlichen Aberglauben mit dem Glücksbringer verbinden
• Aufrechterhaltung des Verhaltens (Tragen des Glücksbringers) aufgrund von Angst, nicht
zu gewinnen, wenn man den Glücksbringer abnimmt, d.h. der Sportler würde gar nicht
riskieren den Glücksbringer abzunehmen (Vermeidung der Möglichkeit der Löschung,
wenn man sehen sollte, das Sieg unabhängig von Amulett ist)
Effiziente Konditionierung I
93. a) Erläutern Sie die Vorgehensweise des „shaping“. b) Inwiefern wird durch diese
Technik der Anwendungsbereich der operanten Konditionierung für die
Verhaltenssteuerung erweitert? c) Nennen Sie ein Beispiel, wie man die Technik
des shaping für psychologische- therapeutische Zwecke einsetzen kann.
zu a) „shaping“ = Verstärkung von Rudimenten des gewünschten Verhaltens durch
sukzessive Erhöhung des Kriteriums, das zur Verstärkung notwendig ist
zu b) der Anwendungsbereich wird folgendermaßen erweitert: durch shaping kann auch nicht
spontan gezeigtes aber gewünschtes Verhalten aufgebaut und anschließend konditioniert
werden
zu c) Verhaltenstherapie, z.B. zur Verringerung des Kokainkonsums bei schwangeren
Kokainabhängigen, Bsp. mit schizophrenem Patienten und Kaugummi als Verstärker,
Verhaltensaufbau bei retardierten Kindern im Bereich des Sprechens (prompting & fading)
94. a) Was versteht man unter „freien operanten Verfahren“?
b) Nenne Sie ein Beispiel für ein solches Verfahren.
c) Worin unterscheiden sich diese freien Verfahren von herkömmlichen Methoden
der operanten Verstärkung und worin besteht der Vorteil der freien Verfahren?
zu a) freie operante Konditionierung: wiederholbare Reaktionen deren Verwendung erlaubt
kontinuierliche Analyse von Verhaltensintensitäten
zu b) Bsp: Tauben müssen auf Taste picken
Ratten müssen Hebel drücken, statt Labyrinth zu durchlaufen
zu c) Vorteile:
• ermüden nicht so schnell (auch Versuchsleiter nicht)
• viel mehr Durchgänge / Tag möglich zeitsparend
• in jedem Moment ist beobachten und aufzeichnen der Reaktionsrate möglich
Unterschiede:
• operante Reaktion kann jederzeit auftreten
• operante Reaktion kann wiederholt auftreten, solange das Versuchstier in der
Versuchskammer ist
• keine einzelnen, diskreten Durchgänge
• nicht die Latenz ist die AV, sondern die Reaktionsrate
95. a) Erläutern Sie Kontingenzeffekte bei der operanten Verstärkung.
b) Wie kann eine Untersuchung aussehen, mit der man Effekte der
Verstärkungshäufigkeit von Kontingenzeffekten trennen kann?
zu a)
• Kontingenzeffekte bei operanter Konditionierung sind analog zur klassischen
Konditionierung d.h. ist P(Verstärker │Reaktion) > P( Verstärker│⌐ Reaktion) dann wird
die Reaktion häufiger gezeigt werden
• allgemein exzitatorisch: P Verstärker erhalten > wenn Tier eine Reaktion zeigt, als wenn es
keine Reaktion zeigt:
• nicht allein die Häufigkeit, sondern die Wahrscheinlichkeit, mit der der Verstärker im
Vergleich zur Baseline auftritt, ist ausschlaggebend
• allgemein: Kontingenzeffekt = der Effekt des Verhaltens gegenüber der Baseline
zu b)
• Untersuchung: Häufigkeit der Verstärkung oder Vorhersagekraft:
• Phase 1 (siehe Phase 3) 0.05: P, dass CS mit US auftritt
0.00: P, dass CS alleine auftritt
Differenz = 0.05, also ist Kontingenz vorhanden, man kann eine Vorhersage machen und
Lernen ist damit möglich: P(Futter| Hebel) 5% höher als P (Futter| ¬Hebel)
• Phase 2: Kontingenz gelöscht jetzt nach Häufigkeit: bei jedem 20. Hebeldruck gibt es
Futter, d.h. Baseline wird angehoben Differenz = 0 Verhalten der Ratte pendelt sich
ein: Häufigkeit der Reaktion geht zurück
0.05 – 0.05 = 0 keine Kontingenz vorhanden, weil keine Differenz kein Lernen
• Phase 3: Kontingenz wieder angehoben: Verhalten tritt wieder häufiger auf Ratte ist
sehr sensibel gegenüber Änderungen der Kontingenz (nur 0.05!)
• Phase 4 siehe Phase 2
96. a) Was versteht man unter der Stimuluskontrolle operanten Verhaltens?
b) Warum handelt es sich auch dann um operantes Verhalten, wenn es durch
Stimuli kontrolliert wird?
zu a) Stimuluskontrolle: Wie Stimuli, also diskriminative Hinweisreize (z.B. Kontext), die
einem Verhalten vorausgehen, das operante Verhalten kontrollieren, also ob das Verhalten
daraufhin gezeigt wird oder nicht
z.B.: bei Diskriminationslernen: Taube pickt auf eine Taste,
wenn Licht vorher angeht Futter
Verhalten wird stimulusspezifisch
wenn Licht vorher nicht an ¬ Futter
verstärkt
zu b) auch dann operantes Verhalten, weil es sich immer noch auf die Konsequenz – nämlich
Futter oder kein Futter – bezieht, und nicht auf den Reiz (das Licht)
97. Erläutern Sie den Begriff der Dreifachkontingenz bei der operanten Verstärkung
mithilfe eines hypothetischen Untersuchungsbeispiels.
drei Komponenten der Kontingenz:
1. Kontext, Situation, in der die Reaktion stattfindet (Stimuli, die der Reaktion vorangehen):
diskriminativer Hinweisreiz
2. Reaktion selbst
3. Stimuli, die der Reaktion folgen :Verstärker
Beispiel:
• Taube lernt auf Taste zu picken = 2. Reaktion
• über der Taste leuchtet ein helles gelbes Licht = 1. (an Futter, aus ¬Futter) =
diskriminativer Hinweisreiz
• Futter = 3. Verstärker, d.h. der Verstärker kommt nur, wenn die Reaktion gezeigt wurde und
vorher der diskriminativer Hinweisreiz „an“ war
98. Wo würden Sie größere Schwierigkeiten erwarten, wenn Sie Prinzipien der
operanten Verstärkung in Alltagssituationen einsetzen wollten: Beim Aufbau oder
bei der Löschung von Verhalten? Warum?
Löschung von Verhalten ist schwieriger, weil Verstärker manchmal unbekannt und schwer zu
kontrollieren sind. Man müsste Person im Alltag ständig beobachten, um Verstärker
herauszufinden und dann eine kontinuierliche Verstärkung erreichen, weil intermittierende
Verstärkung sehr schwer zu löschen ist.
99. a) Was ist ein sekundärer Verstärker? b) Geben Sie ein Beispiel und erläutern Sie,
wie man sekundäre Verstärkung erklärt.
zu a) sekundärer Verstärker = ein indirekt wirkender Verstärker, ein neutraler Reiz, der durch
systematische Kopplung mit dem primären Verstärker eine Verstärkungsfunktion vom
primären Verstärker erhält
zu b) Bsp.: Geld, dadurch sind primäre Verstärker zu erhalten, z.B. Essen, warmes Haus etc.
und die Entstehung funktioniert z.B. so: Bei Kindern wird Geldschein mit Süßigkeiten
gekoppelt, d.h. zunächst ist der Geldschein ein neutraler Reiz und wird dann mit dem
primären Verstärker Süßes gekoppelt und wird so zum sekundären Verstärker
100. a) Was versteht man unter „token reinforcement“? b) Wie kann man erklären,
dass manche tokens effizientere Verstärker darstellen als primäre Verstärker?
zu a) systematische Verstärkung, durch Zwischenverstärkung, Überbrückungsfunktion
Konditionierte Verstärkung erhält Motivation aufrecht
zu b) tokens effizientere Verstärker, weil generalisierte Verstärker (z.B. Geld) sind auch
sekundäre Verstärker, die mehrere primäre Verstärker ankündigen
z.B.: Menschenaffen beigebracht, dass Chips als „ Geld“ für z.B. Bananen gelten, die Chips
sind hierbei Zwischenverstärker, die die Motivation aufrechterhalten, damit die Reaktion
immer wieder auftaucht bevor der primäre Verstärker kommt
101. Welche Rolle spielen externe Stimuli bei der Steuerung von Verhalten? Erläutern
Sie jede Funktion anhand eines Beispiels.
• Feedback: sekundäre Verstärker, z.B.: Thorndike 1927: VP mit verbundene Augen soll 3
Zoll lange Linie zeichnen
Experimentalgruppe: Versuchleiter sagt bei weniger als 1/8 Zoll Abweichung von 3 Zoll
Länge der Linie: „richtig“, ansonsten: „falsch“
Kontrollgruppe: Versuchleiter sagt nichts
Ergebnis: Die Wörter „richtig“ und „falsch“ sind wichtig, weil sie Information, Feedback
über die Richtigkeit der Reaktion geben und dadurch die Genauigkeit steigern „Ergebniswissen“ bei Erlernen motorischer Fähigkeiten, nicht verstärkende oder bestrafende
Aspekte der Wörter ist ausschlaggebend
knapper: Feedback sagt mir, ob mein Verhalten richtig oder falsch war (z.B. werde ich
Verhalten nur verstärken, wenn das Feedback positiv war) Bsp.: Angewandte Methode zur
Lösung der Matheaufgaben & Feedback des Lehrers
• Steuerungsfunktion: situative diskriminative Hinweisreize signalisieren
Verstärkungsmöglichkeiten, also ob ich Verhalten zeigen kann oder nicht
z.B. schwätzen: in der Pause / im Matheunterricht: Unterricht ist der diskriminative
Hinweisreiz, ob Verhalten „schwätzen“ erwünscht ist oder nicht.
• Überbrückungsfunktion: Tokens zeigen an, dass man auf dem richtigen Weg ist, und das
Verhalten wird aufrecht erhalten!
z.B.: Token Economy in Psychiatrien oder Wohnheimen: Tokens für erfüllte Aufgaben oder
angemessenes Verhalten höherer Wahrscheinlichkeit, dass Aufgaben erfüllt wurden
(Johnson et al. 1991)
Token: Zwischenverstärkungsfunktion: erhält Verhalten länger aufrecht, z.B. wenn man ein
Haus kaufen möchte: Arbeiten jeden Monat Geld auf dem Konto je mehr Geld auf
dem Konto, desto näher ist man dem Ziel des eigenen Hauses
Effiziente Konditionierung II
102. Wozu wird „chaining“ eingesetzt? Erläutern Sie die Standardmethode des
„chaining“.
• Aufbau komplexer Verhaltenssequenzen (-ketten) z.B. um im Zirkus Tiere zu dressieren
oder in der Verhaltenstherapie um rauchen aufzuhören
• Standardmethode: Verkettung von Verhaltensweisen mit Hilfe konditionierter Verstärkung
• erlernte Verhaltensweisen sind eine Abfolge von Verhaltensweisen in bestimmter
Reihenfolge, wobei jeder Stimulus in der Mitte der Kette zwei Funktionen erfüllt:
Konditionierter Verstärker für vorausgehendes Verhalten und diskriminativer Hinweisreiz
für nächstes Verhalten:
• Stimuli vermitteln also zwischen den einzelnen Verhaltenselementen, wobei jeder Stimulus
in einer Kette ein konditionierter Verstärker ( = konditionierte Belohnung/ Verstärker) für
das vorangehende Verhalten ist (denn Tier weiß, es ist dem Ziel näher gekommen) und
gleichzeitig als diskriminativer Hinweisreiz für den folgenden Verhaltensschritt fungiert
(Steuerungsfunktion)
• primärer Verstärker wird erst nach dem letzten Verhalten der Reihe präsentiert
103. Wie geht man bei der Rückwärtsverkettung und bei Vorwärtsverkettung vor?
Rückwärtsverkettung:
• als erstes lernt man dem Tier die letzte Aufgabe der Kette: Hebel drücken Futter
• dann die vorletzte Aufgabe zum Hebel rennen usw. – sich nach vorne durcharbeiten durch
zeigen
• also: Ratte beibringen, wo Futter ist, Geräusch des Futterdispensers verstärken u. als
konditionierten Verstärker einführen, durch shaping letzte Verhaltensweise, also drücken
des Hebels trainieren usw.
• nur bei manchen Schritten ist es nötig, Futter als primären Verstärker einzusetzen bis
Verhalten etabliert und konditionierte Verstärkung durch nächsten Stimulus der Kette
genügt
Vorwärtsverkettung:
• beginnt bei erster Verhaltensweise
• arbeitet bei jedem Schritt mit Zwischenverstärkern
• dauert länger weil Zwischenverstärker immer wieder weggenommen werden muss
• ist schwerer zu etablieren, weil diskriminativer Hinweisreiz fehlt
104. Nennen Sie Beispiele, bei denen die operante Verstärkung an ihre Grenzen stößt.
Wie lässt sich dieses Scheitern erklären?
• biologisch natürliches Verhalten, „the misbehavior of organisms“: erwünschte
Verhaltensweisen werden nach anfänglichen Erfolgen durch unnötiges, unverstärktes
Verhalten ersetzt
• z.B. im Zirkus trainierte Tiere: Waschbär gibt Münzen irgendwann nicht mehr her sondern
reibt sie aneinander, legt sie in Behälter und holt sie wieder raus oder Schwein lässt Münzen
auf dem Weg zum Sparschwein fallen und vergräbt sie
• selbst Holzmünzen bekommen Futtercharakter, wenn sie immer wieder im Kontext mit
Futter präsentiert werden
• Erklärung: Instinctive Drift: mit zunehmender Erfahrung weicht gezeigte Leistung des
Versuchstieres von verstärktem Verhalten ab & instinktive Verhaltensweisen, die
normalerweise auftreten, wenn Tier in natürlichem Umfeld diesen Verstärker sucht (hier
Futter), treten auf.
• Auftreten speziestypischer explorativer und / oder appetitiver Verhaltensweisen im Kontext
regelmäßiger primärer Verstärkung Verdrängung des gelernten Verhaltens operante
Verstärkung setzt am biologisch angelegten Verhaltensrepertoire des Organismus an und
wird durch dieses beschränkt
105. Schildern Sie den Aufbau und die Ergebnisse der klassischen Untersuchungen
von Brown & Jenkins (1968) zum sog. „autoshaping“.
Brown & Jenkins (1968): „auto-shaping of the Pigeon’s Key-peck“ Aufbau:
• in Skinnerbox: Taube lernt aus Futterspender zu fressen
• Taube pickt auf Lichtfeld (zeigt Verstärker an) obwohl Verhalten für Verstärker nicht
notwendig ist
• also: Futter auch wenn kein Licht (ohne Picken)
• Picken bevor Futter kommt? = sich selbst verstärkender Aberglaube NEIN,
WIDERLEGT! siehe Aufgabe 106
• RICHTIG: entspricht klassischer Konditionierung : Licht = der CS, kündigt Futter = US an
UCS – Picken
CR – Picken
• Kontingenz: in unregelmäßigen Abständen durchschnittlich 60 sec. Reaktionstaste, 8 sec.
lang mit weißem Licht wieder dunkel Futter präsentiert
Ergebnis:
• Futtergabe ≠ Reaktion auf Verhalten des Tieres !!! Taube pickt trotzdem auf Taste!!!
• also: Taube erhält nach Picken auf Lichtpunkt Futter, pickt aber auch dann noch, wenn sie
selbst dann Futter bekäme, wenn sie nicht picken würde
106. a) Wie wurde das Phänomen des „autoshaping“ ursprünglich erklärt?
b) Durch welche Untersuchungsergebnisse konnte gezeigt werden, dass diese
Erklärung unzutreffend ist?
• Autoshaping: Paradigma des „conditioned key picking“: picken auf ein Lichtfeld, das
Verstärkung (Futter) ankündigt obwohl kein operantes Verhalten zum Erhalt des Futters
nötig ist
Erklärungen des Autoshaping durch abergläubisches Verhalten:
• schauen – Annäherung – picken wird sukzessive verstärkt, weil Taube glaubt, dass Futter
durch picken kommt
• picken tritt generell häufig auf, vielleicht auch, wenn Licht gerade an ist, dann kommt
zufällig Futter und das Verhalten wird „abergläubisch“ verstärkt
• widerlegt: keine systematische Annäherung (Rachlin, 1969) Autoshaping selbst dann, wenn
picken systematisch nicht verstärkt wird (Williams & Williams 1969)
107. a) Erklären Sie das Phänomen des „autoshaping“ in Termini der klassischen
Konditionierung.
b) Durch welche empirischen Befunde wird diese Erklärung gestützt?
• Autoshaping als klassische Konditionierung:
• Autoshaping abhängig von CS-US-Kontingenz, d.h. Taube pickt nur, wenn Taste leuchtet,
da hier die Wahrscheinlichkeit höher ist, dass sie Futter bekommt (Durlach, 1968)
• Form der CR abhängig von der Art der UR (Verhalten von Körnern auf Taste übertragen)
Jenkins & Moore 1973: Tauben zeigen andere Form der Pickreaktion in Abhängigkeit von
Art des US (Futter oder Wasser), somit jeweils andere UR und daraufhin andere CR
• das Lichtfeld ist CS der das Auftreten von Futter ankündigt, die unkonditionierte Reaktion
auf Futter (US) ist picken picken auf Lichtfeld ist dann CR
• Evidenzen: sobald man Signalfunktion von Licht für Futter reduziert verschwindet
Verhalten sign tracking
VII. OPERANTE KONDITIONIERUNG – TEIL 2
108. Was versteht man unter „Humphreys paradox“?
• „Humphrey’s paradox“ = partieller reinforcement effect, d.h.
• erhöhte Löschungsresistenz nach seltener Verstärkung
• Löschung nach CRF= kontinuierlicher, konstanter Verstärkung erfolgt schneller.
• potentieller Verstärkungseffekt erschien früher paradox, weil er Thomas Browns
Häufigkeitsprinzip verletzt: Warum sollte eine Reaktion, die nur hin und wieder verstärkt
wurde stärker, also löschungsresistenter sein, als eine andere Reaktion, die bei jedem
Auftreten von einem Verstärker gefolgt war?
109. Worin besteht genau der „partial reinforcement effect“? Erklären Sie diesen
Effekt mithilfe der Diskriminationshypothese.
• erhöhte Löschungsresistenz nach seltener Verstärkung flacher Löschungsgradient
• Diskriminationshypothese: Verhalten des Individuums kann sich bei Löschung erst ändern,
wenn Individuum die Veränderung in den Verstärkungskontingenzen erkennen kann.
• da bei CRF jede Reaktion verstärkt wurde, ist Wechsel zu Löschungsplan leicht erkennbar
(z.B. Getränkeautomat)
• bei VR-Plan = intermittierendem Verstärkerplan dauert es länger, bis man merkt, dass nicht
erst nach vielen Reaktionen ein Verstärker kommt, sondern dass gar kein Verstärker mehr
kommen wird, weil auf Löschungsplan umgestellt wurde. (z.B. Spielautomat)
• bei seltener Verstärkung ist also eine Umstellung auf Löschung (Extinktion) vom
Organismus nur schwer zu erkennen
110. Nenne Sie ein Alltagsbeispiel für die Aufrechterhaltung von Verhalten durch
intermittierende Verstärkung.
Lottospielen: jede Woche Lottoschein abgeben, nur äußerst selten Verstärkung durch Gewinn
111. Erläutern Sie die vier grundlegenden Verstärkerpläne. Geben Sie jeweils eine
Definition der Terminologie und nenne Sie ein Untersuchungs- oder
Alltagsbeispiel.
• Fester Quotenplan: (Fixed Ratio, FR)
• Verstärkung nach jeder n-ten Reaktion, wobei n die Höhe der Quote ist
• z.B.: FR-10: jede 10te Reaktion wird verstärkt
FR-1-Plan = Kontinuierlicher Verstärkungsplan (CRF)
Fabrikarbeiter: nach jeweils 100 Türangeln haben sie 10$ verdient
• Variabler Quotenplan: (Variable Ratio, VR)
• Die Zahl der von Verstärker zu Verstärker geforderten Reaktionen ist nicht gleich bleibend,
d.h. n variiert um einen Mittelwert
• Verstärkungsregel: im Durchschnitt erhält Individuum für n Reaktionen einen Verstärker,
aber genaue Zahl der im jeweiligen Durchgang geforderten Reaktionen kann stark
schwanken
• z.B.: VR-10: Verstärkung nach der 7., 11., 9., 13....Reaktion
Spielverhalten am Spielautomaten, Glücksspiel, (Leistungs-)Sport, z.B. Golf
zwei wichtigste Kennzeichen:
1) „Gewinnchancen“ in direktem Verhältnis dazu, wie oft man spielt
2) Zahl der erforderlichen Reaktionen für nächsten Verstärker ist ungewiss
• Fester Intervallplan: (Fixed Interval, FI)
• erste Reaktion nach Zeitintervall, das nach der letzten Verstärkung beginnt, wird verstärkt
• z.B.: FI-60-Sekundenplan: Verstärker kommt 60 Sek. Intervall beginnt, wenn vorbei:
nächster Verstärker kommt, egal ob keine oder 100 Reaktionen gezeigt wurden
Warten auf den Bus: man weiß, dass er alle 10 min kommt, fuhr gerade ab, als man an
Haltestelle ankam erst lesen o. ä., nach 7 min: Anstieg der Reaktionen mit Zeit, immer
öfter sehen, ob Bus kommt, Buch weglegen, letzten 3 min an Straße stehen bis Bus kommt
Untersuchung von Hopkins: Studenten & Studienverhalten bei tägl. u. seltenen Prüfungen
• Variabler Intervallplan: (Variable Interval, VI)
• gleichen FI-Plänen, nur dass die Zeit, die vor Verabreichung des Verstärkers verstreichen
muss, von Verstärker zu Verstärker unvorhersagbar variiert: Intervall variiert zufällig um
einen Mittelwert
• z.B.: VI-10: Zeitintervalle 7s, 11s, 13s, 9s, ...nach der letzten Verstärkung
schauen, ob man Post bekommen hat
112. Beschreiben Sie die charakteristischen Kurvender kumulativen
Verhaltenshäufigkeit, die für die vier Standardverstärkerpläne beobachtet werden.
• FR: „stop-and-go“ –Muster:
o nach jedem Verstärker eine Reaktionspause: Nachverstärkungspause
o abrupter Übergang von Pause zu weiteren Reaktionen
o gleich bleibende, hohe Geschwindigkeit der Reaktionen ( steiler Anstieg der
kumulativen Aufzeichnung) bis zum nächsten Verstärker
• VR: Reaktionsmuster:
o schnell & relativ gleichmäßig
o Fehlen langer Nachverstärkungspausen bzw. kleinere Pausen (im Gegensatz zu FR)
• FI: typisches Reaktionsmuster:
o relativ steiler Anstieg, keine Nachverstärkungspause
o aber nach der Pause beginnt Versuchstier zunächst recht langsam zu reagieren
o mit wachsendem Intervall reagiert es schneller: Anstieg der Reaktionsgeschwindigkeit
vorm nächsten Verstärker: kurz vor Verstärkung ist Reaktionsgeschwindigkeit recht hoch
o Bezeichnung: FI-Bogen
• VI: stetige mittlere Reaktionsrate
(im Intervallplan fällt Anstieg niedriger aus als im Quotenplan)
113. Nennen Sie verschiedene Hypothesen, um die Nachverstärkungspause im festen
Quotenplan zu erklären. Durch welche experimentelle Evidenz konnten dies
Hypothesen gestützt bzw. widerlegt werden?
• Erklärungsansätze: Ermüdung, Sättigung, Verstärker-Distanz, d.h. Zeit/ Weg bis zum
nächsten Verstärker (Abstand)
• Durchschnittliche Länge der Nachverstärkungspause nimmt mit Erhöhung der Quote zu,
d.h. je mehr Reaktionen nötig sind, bis Verstärker kommt, desto mehr muss ich mich
„ausruhen“ danach widerspricht Sättigungshypothese, spricht für Ermüdungshypothese
• Reaktionsrate nimmt im Anschluss an Nachverstärkungspause allmählich ab, wenn Quote
zunimmt (Crossman et al. 1987, Powell 1969) spricht für Ermüdungshypothese
• Multiple Verstärkerpläne: Pause unabhängig von vorhergehender Quote, aber abhängig von
bevorstehender Quote Beleg für Verstärker-Distanz-Hypothese, widerlegt
Ermüdungshypothese
114. Warum findet sich bei variablen Plänen eine gleichmäßigere Verteilung der
Reaktionen über die Zeit? Begründen Sie Ihre Antwort sowohl für Quoten- als
auch für Intervallpläne.
• durch kürzere Nachverstärkungspausen oder fehlende verteilt es sich gleichmäßiger
• Quoten: VR: Nach jedem Verstärker besteht wenigstens eine geringe Wahrscheinlichkeit,
dass ein weiterer Verstärker auf nur wenige zusätzliche Reaktionen folgt. Der Zeitpunkt des
nächsten Verstärkers ist nicht vorhersagbar, aber langfristig erhält man umso schneller
Verstärker, je öfter das Verhalten auftritt.
• Intervall: VI: jeden Moment kann Verstärker bereitgestellt werden Lange Pause nach
Verstärkung wäre nicht vorteilhaft: gleich bleibende Reaktionsrate bekommt jeder
Verstärker bald nach Bereitstellung und hält so VI-Uhr meist in Gang. Höhere Reaktionsrate
würde nur geringen Anstieg der Verstärkerrate bewirken.
115. Schildern Sie den Aufbau und die Ergebnisse der Untersuchung von Baum (1993)
zum Vergleich der Reaktionshäufigkeit in VI- und VR –Plänen.
Aufbau:
• Tauben präsentiert man VI- und VR-Pläne
• variiert Verstärkungsrate von 20 bis mehrere 1000 Verstärker pro Stunde
Ergebnisse:
• Tauben reagieren durchschnittlich schneller bei VR-Plänen, auch wenn Verstärkungsrate
gleich
• Tendenz, dass Unterschiede zwischen VR und VI bei hohen Verstärkungsraten
verschwinden
116. Erklären Sie die Unterschiede in der Verhaltenshäufigkeit bei VR- und VIPlänen mithilfe der „Interresponse Time Reinforcement“ Theorie und mit der
„Response- Reinforcer Correlation“ Theorie.
„Interresponse Time Reinforcement“ Theory:
• Zeit zw. zwei aufeinander folgenden Reaktionen = interresponse time
• Theorie: ist eine molekulare Theorie, bezieht sich auf Zeitspanne von weniger als 1 min
• besagt, dass Reaktionsraten bei VI-Plänen langsamer sind, als bei VR-Plänen, weil lange
IRTs bei VI-Plänen öfter verstärkt werden (Skinner, Anger ...)
• in VI-Plänen werden Reaktionen nach langen Pausen öfter verstärkt, weil mit der Zeit, die
zw. zwei Reaktionen vergeht, die Wahrscheinlichkeit zunimmt, dass die VI-Uhr stoppt und
eine Verstärker bereithält
• direkter Zusammenhang IRT-Länge – Wahrscheinlichkeit von Verstärkung = eine Tatsache!
• IRT Reinforcement Theory zufolge werden als Konsequenz dieses Zusammenhangs bei VIPlänen längere IRTs selektiv, differentiell verstärkt
• bei VR-Plan spielt Zeit keine Rolle, Verabreichung von Verstärkung hängt einzig und allein
von Zahl der Reaktionen ab keine selektive Verstärkung von langen Pausen
• Tendenz, dass Reaktionen in Blöcken auftreten – in Blocks von kurz aufeinander folgenden
Reaktionen ist im VR-Plan die Wahrscheinlichkeit relativ hoch, dass Reaktionen mit
kurzem Intervall eher verstärkt werden
„response-reinforcer correlation“ Theory:
• betont wesentlich globalere Beziehungen zw. Reaktionen & Verstärkern: Beziehung zw.
durchschnittlicher Reaktionsrate und Gesamtverstärkungsrate
• molare Erklärung, Verhältnisse werden betrachtet, die wenigstens über 1 min & länger
gemessen werden
• VR-Plan: lineare Beziehung zw. Reaktions- und Verstärkungsrate
• VI-Plan: ganz andere Beziehung: egal wie schnell man reagiert, man kann nicht mehr als
festgelegte Anzahl von Verstärkern pro Zeiteinheit bekommen
• Verstärkungsrate sinkt bei sehr niedrigen Reaktionsraten, weil VI-Uhr manchmal
angehalten wird, wenn Verstärker bereitgestellt worden ist, und erst wieder einsetzt,
nachdem man reagiert & Verstärker erhalten hat.
• solange man mit mäßiger Geschwindigkeit reagiert, erwirbt man fast alle möglichen
Verstärker pro Zeiteinheit
• Response Reinforcer Correlation Theory nimmt an, dass Organismen in der Lage sind,
kurzfristige Funktionen zu ignorieren und die langfristige Beziehung zw. Reaktions- und
Verstärkungsrate zu lernen langfristig genau zu schätzen
VII. OPERANTE KONDITIONIERUNG – TEIL 3
117. Was versteht man unter negativer Verstärkung? Erläutern Sie Ihre Definition
mit einem Laborexperiment und mit einem Alltagsbeispiel.
• Definition: Frequenz eines Verhaltens nimmt zu, wenn Stimulus nach Auftreten des
Verhaltens weggenommen wird = Kopplung von Verhalten mit dem Ausbleiben eines
Stimulus erhöht dessen Auftretenswahrscheinlichkeit aversiver Reiz hört auf, wenn
Verhalten gezeigt (negative reinforcement, avoidance, escape)
• Laborexperiment: Solomon & Wynne (1953):
Hunde, Zweikammerkäfig, je eine Lampe pro Kammer
mit einem Sprung über die Trennwand des Käfigs kann Hund vor dem Elektroschock, den
er über den Metallboden erhält, fliehen
Ablauf: Licht geht in Kammer 1 aus, nach 10 sec. kommt der Schock bis Hund über die
Barriere in Kammer 2 gesprungen ist
nach einigen Durchgängen zeigt Hund keine Fluchtreaktion mehr, sondern springt schon
während der 10 sek. Dunkelheit, d.h. er zeigt eine Vermeidungsreaktion
Ergebnis: negative Verstärkung: Ausbleiben des Elektroschocks erhöht die
Auftretenswahrscheinlichkeit des Sprungs schon während der 10 Sekunden: kürzere Latenz
• Alltagsbeispiel: Schule schwänzen: Schule nervt, Lehrer ist streng Kind geht nicht in die
Schule keiner nervt mehr, also negativer Kontext „Schule“ ist weggenommen Auftretenswahrscheinlichkeit von „nicht in die Schule gehen“ wird erhöht
118. Definieren Sie positive und negative Bestrafung jeweils anhand eines
Alltagsbeispiels.
positive Bestrafung:
• Verhalten von unangenehmem Reiz gefolgt: Kopplung von Verhalten mit Auftreten eines
Stimulus reduziert dessen Auftretenswahrscheinlichkeit
• Bsp.: Kopplung von in der Schule schwätzen & nachsitzen müssen man schwätzt
weniger oder seltener
negative Bestrafung:
• Folge eines Verhaltens: angenehmer Reiz wird beseitigt, entzogen: Kopplung von Verhalten
mit dem Ausbleiben eines Stimulus reduziert dessen Auftretenswahrscheinlichkeit
• z.B.: zu spät vom Ausgehen nach Hause kommen Taschengeldabzüge
119. Was versteht man unter Flucht- und was versteht man unter
Vermeidungsverhalten? Geben Sie jeweils ein Beispiel. Erklärt man die
Aufrechterhaltung dieser Verhaltensweisen durch Verstärkung oder durch
Bestrafung? Warum?
• Fluchtverhalten: Reaktion setzt erst nach Beginn des aversiven Reizes ein
• Bsp.: Hund springt erst nach Beginn des Elektroschocks über die Trennwand des Käfigs
• Vermeidungsverhalten: durch Reaktion bekommt Tier keinen aversiven Reiz zu spüren
• Bsp.: Hund spring vor Beginn des Elektroschocks über die Trennwand bekommt keinen
Schock mehr ab
• Erklärung für Aufrechterhaltung: Erklärung durch negative Verstärkung
• weil: aversiver Reiz wird beendet (bei Fluchtverhalten) oder entfällt/ bleibt aus (bei
Vermeidungsverhalten), wenn Reaktion ausgeführt wird. Auftretenswahrscheinlichkeit
der Reaktion steigt
120. Was ist damit gemeint, dass Bestrafung „parasitär zur Verstärkung“ ist? Welche
Implikationen ergeben sich daraus für die Löschung von Verhalten durch
Bestrafung?
• Bestrafung = auf Verhalten folgt aversive Situation
• Dazu muss Verhalten erst gezeigt werden damit es bestraft werden kann.
• Damit Verhalten gezeigt wird, muss es vorher verstärkt werden. Es wird nur gezeigt, wenn
es vorher positiv verstärkt wurde, d.h. ohne vorherige Verstärkung kann keine Bestrafung
erfolgen.
• deshalb nennt man Bestrafung „parasitär“ zur Verstärkung, weil es nur mit vorheriger
Verstärkung überhaupt funktionieren kann (wie bei Krokodil & Parasitenvogel, d.h. der eine
kann nicht ohne den anderen leben = fast wie symbiotisches Verhalten)
121. Schildern Sie Aufbau und Ergebnisse eines Experiments zur Bestimmung
spezifischer und unspezifischer Effekte von Bestrafung auf
Verhaltensunterdrückung.
• Aufbau:
- Phase 1: Ratten werden trainiert entweder Hebel zu drücken, oder an einer Kette zu ziehen,
um Futter zu erhalten
- Phase 2: nach Training ist nur noch eine Verhaltensmöglichkeit (Kette oder Hebel) für Tier
verfügbar
→ unter diesen Konditionen wurden Ratte entweder spezifischer Bestrafung (Schock nach
jeder Reaktion) oder unspezifischer Bestrafung (non-kontingent) ausgesetzt
- Testphase: Tiere haben wieder Zugang zu beiden Verhaltensmöglichkeiten um Futter zu
bekommen
• Ergebnis:
- in der Gruppe, welche in Phase 2 kontingente Schocks erhalten hatte, war die
Unterdrückung für das mit dem Schock gekoppelte Verhalten (z. B. Kette ziehen) stärker, als
für das Verhalten, welches nicht mit dem Schock gekoppelt (z. B. Hebel drücken) worden war
- in der Gruppe, welche non-kontingente Schocks erhalten hatte, war die
Verhaltensunterdrückung für Hebel drücken und Kette ziehen nahezu gleich
→ d.h. Verhalten wird durch Bestrafung stärker in der Kontingenz-Bedingung unterdrückt
(wird bestimmtes Verhalten bestraft, geht Häufigkeit des Auftretens dieses Verhalten stark
zurück, wohingegen nicht spezifisch bestrafte Verhaltensweisen unverändert häufig auftreten)
- Bestrafung erzeugt nicht mehr Unterdrückung von nicht bestraftem Verhalten als nonkontingente Schocks
- es ist die Präsentation eines aversiven Stimulus und nicht die Bestrafung, welche die
generelle Unterdrückung verursacht
→ Bestrafung führt zu CER (Aggression, Angst, Furcht)
→ generelle Verhaltensunterdrückung
- Angst (bei vorhersagbarem Schock, kontingent) erzeugt dabei spezifischere
Verhaltensunterdrückung als Furcht (Schock unvorhersagbar)
→ spezifische Verhaltensunterdrückung bei verhaltenskontingenter Bestrafung (Angst)
122. Von welchen Faktoren hängt die Effizienz von Bestrafung ab? Wie sollte
effiziente Bestrafung in Alltagskontexten (Erziehung, Verhaltenstherapie)
aussehen?
Faktoren:
• Konsequenz
• Intensitätseffekte: Art der Einführung
• Kontiguitätseffekte: zeitliche Nähe, Unmittelbarkeit der Bestrafung
• Bestrafungsplan (FR-1 am effektivsten)
• Verhaltensmotivation Motivation hoch Bestrafung hat geringe Auswirkung auf
Verhalten & umgekehrt = umgekehrt proportional
• Verfügbarkeit alternativer Verhaltensweisen
Bestrafung sollte:
• intensiv beginnen und unmittelbar erfolgen
• mit dem Aufbau eines alternativen (erwünschten) Verhaltens zur Erlangung des Verstärkers
kombiniert werden, einhergehen
• auf jede unerwünschte Reaktion folgen, also FR-1-Plan
123. Schildern Sie Aufbau und Ergebnisse der beiden
Standardexperimentalparadigmen zur Analyse von Vermeidungsverhalten.
Flucht-/Vermeidungslernen mit Hinweisreizen (Solomon & Wynne, 1954)
Aufbau:
• Zweikammerkäfig mit Metallboden, der unter Strom gesetzt werden kann
• Lampe in jeder Kammer
• Hund in einem Teil Licht aus = Hinweisreiz nach 10 Sec.: Schock
• springt zu Beginn in andere Kammer = Fluchtreaktion
Ergebnis:
• einige Durchgänge später springt nach 2 sec. also vor Schock = Vermeidungsverhalten
• Schock wird systematisch umgangen
• Trotz Löschung des Schockmechanismus erscheint Flucht- /Vermeidungsverhalten das
spricht für markante Löschungsresistenz des Vermeidungsverhaltens
Unangekündigtes Flucht-/ Vermeidungslernen / freie operante Vermeidung, „Sidman“Vermeidung (Sidman, 1953)
Aufbau:
• Ratte: alle 5 sec. Elektroschocks nur, wenn keine Reaktion
• wenn Vermeidungsreaktion (= Hebeldrücken) dann nächster Schock um 30 sec. verschoben
bei jeder Reaktion
Ergebnisse:
• Zeit ist Stimulus für Ratte = Hinweisreiz
• reagiert häufig genug um viele Schocks zu vermeiden
• Verhalten zur Vermeidung wird robuster
124. Erklären sie Vermeidungsverhalten mithilfe der Zwei-Faktoren-Theorie.
• zwei Faktoren: KK und OK: beide erforderlich, damit Vermeidungsreaktion auftritt
1. KK: UR auf Schock = Angst → bei KK wird Angst von einem US (Schock) auf einen CS
(Stimulus, welcher Schock vorausgeht, z.B. 10 sec Dunkelheit) übertragen → nach 10 sec
und einigen Durchgängen reagiert Tier mit Angst auf Dunkelheit und Empfindungen, die
Angstreaktionen begleiten, sind unangenehm
→ klassische Konditionierung der Angstreaktion auf anfänglich neutralen Stimulus= erster
Prozess der Theorie
2. OK: Verstärkung der Vermeidungsreaktion (neg. Verstärkung) → geschieht dadurch, dass
Beendigung des CS (z.B. Dunkelheit) die Angst reduziert
- neg. Verstärkung, da aversiver Reiz (Dunkelheit) weggenommen wird
- Vermeidungsreaktion und Entfernung vom Angst auslösenden CS wird durch Angstreaktion
verstärkt
- Vermeidungsreaktion =Fluchtreaktion
• nach dieser Theorie ist Verstärker für eine Vermeidungsreaktion nicht Vermeidung des
Schocks, sondern die Flucht vor dem Angst auslösenden CS
125. Welche experimentellen Ergebnisse zum Vermeidungsverhalten stützen die ZweiFaktoren-Theorie, welche Ergebnisse lassen sich auf der Basis der Zwei-FaktorenTheorie nicht erklären?
pro:
Erwerb neuen Verhaltens um Furchtsignal zu beenden (Miller 1948) Ratte: weiße Kammer
+ Elektroschocks weiße Kammer = aversiver Reiz
• I. Rad drehen Tür öffnet sich Ratte kann fliehen (aber: jetzt keine Schocks mehr, also
eigtl. Löschungsphase!)
• II. Hebel drücken aus Kammer fliehen
• Ratte lernt neues Verhalten, das zu Furchtvermeidung und Verlassen der Kammer führt,
obwohl vorher nie mit weißer Kammer kombiniert
Suppressionseffekte des Furchtsignals (Kamin et al., 1963)
• Hebel drücken lässt nach, wenn danach das Licht ausgeht aufgrund des Hebeldrückens und
deshalb der Schock kommt
Rescorla & LoLordo, 1965; Weisman & Litner, 1969:
• Erzeugung eines Angst auslösenden CS Beobachtung seiner Wirkungen in einer anderen
Situation
• Aufbau: Hunde, Zweikammerkäfig
• Ton + Elektroschock
• zurück zur Vermeidungsaufgabe: Ton präsentiert (ohne Schock)
• Ergebnis: immer bei Ton nahm Springen drastisch zu
• Stimulus, der speziell als Angst- CS trainiert ist, kann vorhandenes
Vermeidungsverhalten erweitern
contra:
Vermeidung ohne CS (Hernstein & Hineline 1966)
• Tiere lernen Vermeidungsverhalten auch ohne abgelaufene Zeit oder äußere CS
• Aufbau: P= 30%, wenn Hebel nicht gedrückt, wenn Hebel gedrückt: P = 10% durchschnittl.
• d.h. Reaktion ≠ Gewähr für festgelegte Zeitspanne ohne Schocks
• Ergebnis: Tiere lernen: 1) Vermeidungsreaktion, obwohl weder äußerer CS noch
abgelaufene Zeit zuverlässiges Schocksignal sind
2) durchschnittliche Schockrate bei Reagieren oder Nichtreagieren einzuschätzen
• Angst steuert nicht mehr das Verhalten, Vermeidung ohne CS, d.h. kein Zeichen von
Furcht mehr nach gut gelernter Vermeidung, denn Tier weiß, ihm passiert nichts, solange es
in andere Kammer springt
• Löschung von Furcht und Vermeidung: - keine Zyklen von Löschung und Wiederaufbau
- aber: Löschung nach Response-Blockierung
• keine Erklärung der Aufrechterhaltung des Vermeidungsverhaltens
• Ein-Faktor-Theorie kann Ergebnisse erklären
• Zwei-Faktoren-Theorie wird widerlegt
126. Schildern Sie den Aufbau und das Ergebnis der Untersuchung von Hernstein &
Hineline (1966) zum Vermeidungsverhalten. Welche Theorie des
Vermeidungsverhaltens wird durch diese Untersuchung widerlegt? Welche
Ansätze können das Ergebnis der Untersuchung erklären?
• Aufbau:
o jede Reaktion (Hebel drücken) brachte eine Ratte von einem Plan, in dem nach einem 2
sec. Intervall mit 30% Wahrscheinlichkeit ein Elektroschock erfolgte, vorübergehend in
einen Plan, mit einer Wahrscheinlichkeit von 10%
o Bsp: P für Schock nach 2 sec-Intervall = 30 % aber nur 10% wenn Ratte gerade den
Hebel gedrückt hatte
o um Zahl der Schocks gering zu halten, sollte Ratte mögl. oft im 10% Plan reagieren
o Versuchstiere konnten durch Reaktion viele Schocks vermeiden, aber Reaktion bot keine
Gewähr für eine festgelegte Zeitspanne ohne Schock
o wenn im 10% Plan Stromschlag erfolgte (nicht durch Tier beeinflussbar) wechselte Tier
wieder in 30% Plan und blieb dort bis zur nächsten Reaktion
o → Tier kann Anzahl der Schocks drosseln, aber nie ganz vermeiden
o → Zeit nicht mehr zuverlässiger Prädiktor für Auftreten od. Ausbleiben des Schocks, d.h.
kein systematischer Zusammenhang zw. Zeit seit letzter Reaktion und Schock
• Ergebnis: trotzdem drückt Tier mit Regelmäßigkeit den Hebel und lernt somit irgendwann
ein Vermeidungsverhalten
o Tiere können Vermeidungsreaktion lernen, wenn weder abgelaufene Zeit noch äußere CS
zuverlässiges Schocksignal sind
o Tier muss es möglich sein die durchschnittliche Schockrate bei reagieren oder nicht
reagieren einschätzen zu können
• widerlegt die Zwei- Faktor-Theorie (denn Angst spielt keine Rolle mehr)
• Erklärung der Ergebnisse mit der Ein- Faktor-Theorie
127. Wie erklärt man Vermeidungsverhalten mit der Ein-Faktor-Theorie?
operanter Vermeidung:
• Reduktion in der Frequenz aversiver Ereignisse verstärkt Vermeidungsverhalten
• nicht reduzierte Kontingenz sondern „Schock-freie-Phase“ ist der effiziente Verstärker Dissoziation von Verzögerung und Häufigkeit
• Ein-Faktor-Theorie = operante Vermeidung bzw. Konditionierung
128. Nenne Sie die Kernannahmen der kognitiven Theorie des
Vermeidungsverhaltens. Welche Ergebnisse zum Vermeidungsverhalten lassen
sich nur durch diese Theorie erklären?
Seligman & Johnston, 1973
• Erklärung auf Basis von Präferenzen, Erwartungen und Bestätigung / Widerlegung
• P: kein Schock ist besser als Schock
• E1: wenn Reaktion, dann P für Schock niedrig
• E2: wenn keine Reaktion, dann P für Schock hoch
• Bestätigungen: wenn R ¬Schock, ¬R Schock
• Widerlegung: R Schock, ¬R ¬ Schock
• kann Löschungsresistenz erklären: Tier glaubt, dass wenn R ¬Schock, also merkt es nicht,
dass deshalb kein Schock mehr auftritt, weil es ein Extinktionsdurchgang ist
• kann Erfolg der Reaktionsblockierung erklären: keine Reaktion laut Erwartung des
Tieres folgt Schock
• aber: ¬R ¬ Schock Erwartung ändert sich allmählich Vermeidungsverhalten
verschwindet allmählich
• Verhalten ändert sich bei Vermeidungsaufgaben immer dann, wenn eine Diskrepanz zw.
Erwartung & Realität besteht
• Kognitive Theorie ist die einzige Theorie, die die Löschungsresistenz erklärt
(Löschungsresistenz wird auch durch Ein-Faktor-Theorie erklärt: keine Veränderung in
Verstärkungsbedingungen keine Veränderung im Verhalten, 2-Fkt.Theorie erklärt nicht)
129. Erläutern Sie den Begriff der spezies-spezifischen Defensiv-Reaktionen (SSDR).
Welche Implikationen ergeben sich auf der Basis der biologischen Theorie für die
Allgemeingültigkeit von Vermeidungsverhalten?
• spezies-spezifische Defensiv-Reaktion (SSDR) = sehr wirksame angeborene
Verteidigungsreaktionen, die auftreten, wenn Tier einem neuen oder plötzlichen Reiz
begegnet
• Implikationen: in Laboruntersuchungen des Vermeidungsverhaltens werden diejenigen
Verhaltesweisen schneller gelernt, die dem natürlichen Vermeidungsverhalten am
ähnlichsten sind
• häng auch von der Art des Verstärkers ab: natürliche Reaktion bei Futter als Verstärker ≠
Reaktion bei Schocks als Verstärker
• SSDRs werden leicht als Vermeidungsverhalten erworben, andere Verhaltensweisen
lassen sich nur sehr mühsam als Vermeidungsverhalten aufbauen
130. Warum ist es häufig so schwierig, in Alltagssituationen zu erkennen, dass ein
Verhalten durch Vermeidung motiviert ist?
• weil nicht sichtbar, weil wir weder Anlass noch Konsequenz sehen: bei gutem Vermeiden
sieht man ja die Konsequenz nicht (siehe Hund vermeidet Schock bekommt kein Schock)
• z.B. Rechnung bezahlen (Verstärker: keine Mahnung von Firma)
131. Schildern Sie den Untersuchungsablauf und die Ergebnisse der frühen Studien
von Overmier & Seligman (1967) zur gelernten Hilflosigkeit.
Ablauf: I. Hund in Geschirr festgebunden – unkontrollierbaren Schocks ausgesetzt
II. kommt anschließend in Zweikammerkäfig mit Licht und & Schock
Ergebnisse: Hunde, die keine Phase I erlebten (= Kontrollgruppe) lernen in Zweikammerkäfig
wenn das Licht ausgeht in die andere Kammer zu springen (siehe Solomon & Wynne)
Hunde mit Phase I (= Experimentalgruppe): gehen herum, freezing, legen sich hin,
winseln während des Schocks, aber versuchen nicht, zu entkommen: glauben, dass sie nichts
machen können: 2/3 der Tiere lernen keine Vermeidungsreaktion
Passivität, Hunde gehen davon aus, dass ihr Verhalten keine Auswirkungen hat
Beeinträchtigung späteren Vermeidungslernens nach unkontrollierbaren aversiven Reizen
132. Erklären Sie das klassische yoked-control Design der Hilflosigkeitsforschung.
Welche zentrale Konfundierung kann hiermit ausgeschaltet werden? Was ist
demnach der zentrale Wirkfaktor beim so genannten Hilflosigkeitstraining?
• yoked-control-design: drei Ratten in getrennten Käfigen mit Laufrädern → Ratte 1 keine
Schocks (control), Ratte 2 kann Schocks vermeiden indem sie in Laufrad läuft und Ratte 3
kann Schocks nicht durch Laufen in Laufrad vermeiden
• Ratte 2 und 3 haben gleiche Anzahl an Schocks mit gleicher Intensität bekommen, nur dass
Ratte 2 durch Laufrad drehen die Schocks abstellen konnte und das gleichzeitig für Ratte 3
die Schocks aufhörten → Ratte 3 war somit vom Tier in Käfig 2 abhängig und hatte keinen
Einfluss auf die Schocks (wusste aber nichts von Ratte 2)
• in anschließender Vermeidungsprozedur lernt Ratte 2 schneller das Vermeidungsverhalten
als Ratte 3, weil Ratte 3 glaubt, sie kann Schocks nicht beeinflussen
• zentrale Konfundierung ausgeschaltet: Vermeidungsverhalten nicht von Menge oder
Intensität des aversiven Stimulus abhängig Intensität & Menge haben keinen Einfluss
• zentraler Wirkfaktor: ob Ratte vorher die Möglichkeit hatte, Flucht- oder
Vermeidungsverhalten zu lernen, Kontrolle über Vermeidungsverhalten
& abhängig von systematischem Zusammenhang Verstärker/Bestrafung und Reaktion
133. Was versteht man unter Generalisierungseffekten bei der gelernten Hilflosigkeit?
Schildern Sie zur Erklärung die klassischen Studien von Hiroto & Seligman (1975).
• I. Studentengruppe 1: wurden laute Geräusche präsentiert, die sie nicht vermeiden konnten
• Studentengruppe 2: wurden keine Geräusche präsentiert bzw. konnten Töne durch
Tastendruck kontrollieren
• II. Phase: Studenten sollten Anagramme lösen
• Ergebnisse: 1. Gruppe lernt viel langsamer, gibt schneller auf, scheint sich nicht so viel
zuzutrauen, nach vielen Durchgängen erst langsame Fortschritte, Kontrollverlust als
Ursache für ein globales Motivationsdefizit, frühere Erfahrungen mit nicht kontrollierbaren
aversiven Ereignissen erzeugt Gefühl der Hilflosigkeit, das sich auf andere Situationen
überträgt.
IX. OPERANTE KONDITIONIERUNG – TEIL 4
134. Nennen Sie die verschiedenen Arten von Assoziationen, die im Zuge der
operanten Konditionierung entstehen können. Welche experimentellen Ergebnisse
lassen sich als Beleg für die Entstehung der unterschiedlichen Typen von
Assoziationen anführen?
• R-S*: Assoziation von Verhaltensweisen und Verstärkern, Spezifische Erwartung eines
bestimmten Verstärkers (S*) als Folge bestimmter Verhaltensweisen (R)
Abwertung spezifischer Verstärker führt zur Reduktion der assoziierten Verhaltensweisen
• Beleg: Studie zur Abwertung: I. Hebel Futter S1*, Kette Zuckerwasser S2*
o II. Zuckerwasser: Übelkeit durch Giftspritze Zuckerwasser bekommt negative Valenz
o III. Hebel +, Kette o Ergebnis: Assoziation Kette-Zuckerwasser bleibt bestehen, Entwertung erfolgt spezifisch
• S-S*: Assoziation von diskriminativen Hinweisreizen und Verstärkern, Erwartung
bestimmter Verstärker (S*) in bestimmten Situationen
• Beleg: Colwill & Rescorla, 1988:
o I. LichtFutter, TonZuckerwasser
o II. HebeldrückenFutter, Kette ziehen,Zuckerwasser
o III. Licht, Ton wieder einführen: LichtHebeldrücken, TonKette ziehen dominiert
o Ergebnis: diskriminativer Hinweisreiz aus I. modifiziert Verhalten
Beweis f. S-S* Assoziation zwischen diskriminativem Hinweisreiz und Verstärker
• S-R: Assoziation von Hinweisreizen und Reaktionen
• Beleg: (geringe Evidenz): "Einbrennen" von Habits (sHR)durch Verstärkung (Hull 1943)
o je öfter der Verstärker assoziiert wird, um so stärker wird die Assoziation und der Habit
(Gewohnheit)
o Habit nicht mit Verstärker assoziiert, sondern Verstärker hat nur Katalysatorfunktion und
wird nicht Teil der Assoziation
o Restverhalten nach Verstärkerabwertung (Ratte zieht an Kette, auch wenn sie
Zuckerwasser (vorher Übelkeit erzeugend) nicht mehr trinkt)
135. Schildern Sie die bahnbrechende Untersuchung von Tolman& Honzik (1930)
zum latenten Lernen und deren Ergebnisse. Welche wichtige Implikation lässt sich
aus dieser Untersuchung für den Wirkungsbereich der operanten Konditionierung
ableiten?
Aufbau:
• drei Gruppen Ratten, 17 Durchgänge, 1 /Tag in Labyrinth mit 14 Abzweigungen
• 1. Gruppe: Kontrollgruppe: keine Verstärker: nie gefüttert, wenn Ratte an Ziel kommt
• 2. Gruppe: immer Futter als Verstärker in Zielkammer
• 3. Gruppe: bis 11. Tag, 11.Durchgang kein Verstärker, dann immer Verstärker: Futter
Ergebnis:
• 1. Gruppe: Fehler sinken gering, pendeln sich bei ca. 7 pro Durchgang ein
• 2.Gruppe: Fehlern sinken stark &relativ schnell: typische Lernkurve, ca.3 Fehler/Durchgang
• 3. Gruppe: zuerst wie in 1.Gruppe, ab 12. Durchgang schnell sogar besser als 2.Gruppe (bei
11.Durchgang wussten Ratten ja noch nicht, dass es am Ziel Futter gibt)
Implikationen:
• Verstärkung ist nicht für Erlernen einer neuen Reaktion erforderlich, sondern bildet jedoch
die Voraussetzung für deren Ausführung
• Lernen hängt von der Art des Verstärkers ab, bzw. davon, ob Verstärker verabreicht wird:
Erwartung bzgl. des Verstärkers
• Tiere lernen auch ohne Verstärker, sie sind nur nicht motiviert, zu zeigen, was sie gelernt
haben, wenn sie keinen Verstärker erhalten
136. Schildern Sie eine Untersuchung, die belegt, dass auch ohne Ausführung von
Reaktionen gelernt werden kann. Welches Grundprinzip der operanten
Konditionierung wird durch diese Untersuchungen in Frage gestellt? Was genau
wird bei solchen Untersuchungen offenbar gelernt?
Labyrinthlernen auch bei passiver Bewegung im Drahtkorb (McNamara et al., 1956)
Aufbau: 2 Gruppen Ratten, T-Labyrinth
• I. jeweils zwei Ratten sind einander zugeordnet, eine läuft und die andere wird den selben
Weg in Drahtkorb geschoben, d.h. beide Ratten erhalten gleich viele Durchgänge mit Futter
als Verstärker und nach falsch abbiegen 1 min eingesperrt
• II. Käfig-Ratten dürfen auch laufen, aber Extinktionsdurchgänge, d.h. keine Verstärker
• Ergebnis: 2.Gruppe=Käfig-Ratten laufen genauso oft richtig wie 1. Gruppe, wenn Futter da
ist läuft Ratte systematisch zu Futter, d.h.:
• Ratte hat etwas gelernt, obwohl sie in der I. Phase passiv war und keine Reaktion gezeigt
hatte aktives Reagieren ≠ notwendige Bedingung für Erwerb einer operanten Reaktion
• Grundprinzip des „Lernen durch Versuch und Irrtum“ wird in Frage gestellt, also aktive
Reaktionen als notwendiger Bestandteil der OK
• offenbar lernen Ratten in Versuchsgruppe die räumliche Anordnung & Abfolge von Ecken
und Kurven (kognitive Landkarte) auch ohne Verstärkung: latentes Lernen
137. Inwiefern ist die naive Verhaltenserklärung durch das Konzept der Verstärkung
zirkulär? Wie kann man das Zirkularitätsproblem in den Griff bekommen?
• Definition: „Verstärker“ = „Stimulus, der künftig die (Auftretens-)Wahrscheinlichkeit des
Verhaltens, auf das er folgt, erhöht.“
• Zirkelschluss: Stimulus wird Verstärker genannt, weil er ein Verhalten verstärkt und es wird
angenommen, dass er das Verhalten verstärkt, weil er ein Verstärker ist
• →in dieser Definition eines Verstärkers ist kein Vorhersagewert, -element inbegriffen
• Lösung des Problems: unabhängige Kriterien dafür aufstellen, welche Stimuli Verstärker
darstellen und welche nicht
• Finden von Regel, die uns im Voraus sagt, ob ein Stimulus als Verstärker wirkt (Regel, die
neue, überprüfbare Vorhersagen erlaubt) valides Konzept: Prinzip der Reaktionsdeprivation (= besser als
Bedürfnis- und Triebreduktion, besser als Transsituationalitätsprinzip & besser als Premack’sches Prinzip)
138. Schildern Sie das Transsituationalitätsprinzip der Verstärkung von Meehl.
• interindividuell unterschiedliche Verstärker
• intraindividuelle über Situationen hinweg konstante Verstärker = Transsituationalität
• Prinzip besagt, dass ein Stimulus, der in einer Situation als Verstärker fungiert, auch in
anderen Situationen ein Verstärker ist
• z.B.: gesüßtes H2O für Ratte in Experiment verstärkt Verhalten in Laufrad sollte auch in
einem anderen Experiment als Verstärker fungieren
139. Erläutern Sie die Begriffe der Verstärkung und Bestrafung mittels des
Premack’schen Prinzips. Schildern Sie eine Untersuchung von Premack, mit der
die Unzulänglichkeit des Transsituationalitätsprinzips nachgewiesen wurde.
• Verstärkung ist laut Premack’schem Prinzip kein Reiz, sondern die Gelegenheit, ein
bestimmtes Verhalten auszuführen
• Verhaltensgelegenheiten als Verstärker: Wahrscheinliches Verhalten als Verstärker für
seltenes Verhalten
• Verstärker beinhaltet fast immer nicht nur Stimulus (Futter), sondern auch Verhalten
(Fressen) kann auch Verhalten sein, das operante Reaktion verstärkt
• Verhalten mit höherer Wahrscheinlichkeit ist das Verhalten, dessen Baseline höher liegt,
also das Verhalten, das in Kontrollphase mit freier Betätigung des Tiers öfter auftritt
• Verstärker = Kontingenz zwischen zwei Verhaltensweisen
• Bestrafung: Verhalten mit geringerer Auftretenswahrscheinlichkeit dient als Bestrafung für
Verhalten, das mit höherer Wahrscheinlichkeit auftritt
• da das Tier weniger wahrscheinlich Verhalten vielleicht nicht ausführt, wenn es die Wahl
hat, muss dieses Verhalten verlangt werden:
• Nutzung der reziproken Kontingenz um sicherzustellen, dass Verhaltensweisen in fester
Quote zueinander auftreten
• Untersuchung: I. Phase: Affen dürfen verschiedene Dinge frei ausüben:
Hebel drücken: Wahrscheinlichkeit hoch: spontan am häufigsten ausgeführt
Tür öffnen: Wahrscheinlichkeit mittel
Kolben ziehen: Wahrscheinlichkeit niedrig
• II. Phase: Paare von Gegenständen präsentiert: 1.Gegenstand als „operante Reaktion“
2. Gegenstand als „Verstärker“
• man konnte nur an den 2.Gegenstand gelangen, wenn erste Reaktion ausgeführt worden war
• Ergebnisse: Hebel diente als Verstärker für Tür öffnen und Kolben ziehen
Tür öffnen diente als Verstärker für Kolben ziehen, aber nicht für Hebel
Kolben diente für keine Verhaltensweise als Verstärker
• Premacks Prinzip bestätigt, Transsituationalitätsprinzip widerlegt:
„Tür öffnen“ ist nicht in allen Situationen ein Verstärker
140. Erläutern Sie die Theorie der Reaktionsdeprivation. Mit welchem
Untersuchungsergebnis wurde die Überlegenheit dieser Theorie gegenüber dem
einfachen Premack’schen Prinzip nachgewiesen?
• Reaktionsdeprivation: eine von zwei Verhaltensweisen wird aufgrund ihrer eingeschränkten
Verfügbarkeit zu einem relativ kostbaren Gut, sofern der (Verstärker-)Plan nicht exakt dem
Basisverhältnis entspricht
• das stärker eingeschränkte Verhalten wird zum Verstärker für das weniger eingeschränkte
Verhalten
• Untersuchung: Timberlake & Allison (1974)
o Ratte kann Laufen und Trinken so lange und so viel sie will: Baseline pendelt sich bei
einem Verhältnis von (Laufen) 1,7:1 (Trinken) ein, d.h. Laufen ist hier der Verstärker
o wenn ein Verstärkerplan eingeführt wird, bei dem die Ratte ein Verhältnis von 9:1
erfüllen muss, ist Laufen der Verstärker, bei einem Plan von 1:3 ist Trinken der
Verstärker
o Ergebnis: Ratte versucht immer das Verhältnis der Baseline aufrechtzuerhalten, also so
viel zu trinken, dass sie noch so viel laufen darf, dass das Baseline- Verhältnis
wenigstens annähernd erhalten bleibt, bzw. so viel zu laufen, dass sie wenigstens
annähernd so viel trinken darf, wie sie es in freier Betätigung tun würde.
• Prinzip erlaubt uns also vorherzusagen, ob Aktivität als Verstärker wirkt oder nicht, indem
wir die Wahrscheinlichkeit dieses Verhaltens und die des zu verstärkenden Verhaltens in
der Baseline-Phase beobachten
• Theorie kann z.B. erklären, wieso Tier mehr trinkt über Basisrate hinaus um sich mehr
Laufzeit zu verdienen
• Verhältnis von Baseline ungefähr beibehalten je weiter Verhältnis von Baseline weg:
auch unbeliebtes Verhalten kann zum Verstärker werden, also wird das Verhalten, das
stärker vom Verhältnis in der Baseline abweicht, zum Verstärker
141. Auf welche Formen von Verstärkung und Bestrafung ist das Premack’sche
Prinzip nicht unmittelbar anwendbar?
• Verstärkung durch elektrische Stimulation des Gehirns Ratten drücken Hebel immer, bis
zur Erschöpfung
• Bestrafung durch Elektroschock: Es ist egal wie wahrscheinlich das Verhalten vorher war
• Konditionierte Verstärkung
142. Schildern Sie eine Untersuchung, mit der gezeigt wurde, dass Verhalten auch
eingesetzt wird, um Information über Verstärker zu erhalten, auch wenn dies
keinen Einfluss auf die tatsächliche Menge der Verstärkung hatte. Wie kann man
zeigen, dass dennoch auch in diesem Fall „innere“ Motive für die
Verhaltenssteuerung wichtig sind?
Aufbau: F-50-Plan und F-10-Plan, zwei Hebel, die identisch funktionieren
2. Hebel zeigt Ratte, in welchem Plan sie sich befindet: leuchtet „grün“ heißt, sie ist im F-10Plan, leuchtet nicht heißt, sie ist im F-50-Plan
Ergebnis: Ratte zeigt Präferenz für Leucht-Tasten-Hebel, weil sie da weiß, in welchem Plan
sie ist, obwohl die Verstärkerpläne unabhängig davon, welche Taste sie drückt, wechseln, also
die Verstärkerrate bei beiden Tasten gleich bleibt
motivationale Basis: Wenn das Licht auch manchmal Schocks ankündigt, dann will Ratte das
nicht wissen, also ist das Motiv: Wunsch nach Vorfreude observing responses nur bei
positiver Information, nur die dient als Verstärker inneres Motiv
X. RELATION VON OPERANTER UND KLASSISCHER
KONDITIONIERUNG
143. Was sind die Kernaussagen der Zwei-Faktor-Theorie zur Unterscheidung von
klassischer und operanter Konditionierung?
• KK und OK sind distinkte Phänomene, die auf unterschiedlichen Prinzipien und
Verhaltensklassen beruhen
S-S-Lernen
vs. R-S-Lernen durch Folgen gesteuert
US-CS
Verhalten-Konsequenz
Sprung Beendigung des CS:
Angst von US:
Dunkelheit Angst wurde
Elektroschock auf
CS: Dunkelheit
reduziert
übertragen
• Unterschiedliche Verhaltensklassen:
o KK im Bereich des respondenten Verhaltens: autonome Reaktionen, nicht willentliche
steuerbar
o OK im Bereich des operanten Verhaltens: Willkürmotorik, über die Skelettmuskulatur
gesteuertes, kontrolliertes Verhalten
144. Nennen Sie Aufbau und Ergebnisse der Untersuchungen von Miller und DiCara,
durch die belegt wird, dass auch autonome Reaktionen durch Verstärkung
modifiziert werden können.
Aufbau:
• Ratten mit Curare gelähmt. Skelett-& Atemmuskulatur
• künstlich beatmet können nicht sterben
• Herzfrequenz der Tiere messen
• im Gehirn: Draht, implantierte Elektrode, die das Lustzentrum stimuliert
• warten auf Situation, in der Herzschlagfrequenz leicht erhöht (z.B. 450/min – Durchschnitt
bei Ratten ist 400 pro min)
• sobald erhöht, belohnen mit elektrischer Stimulation (ESG = Verstärker)
• shaping- Prozedur: Kriterium höher setzen
Ergebnis:
• substantielle Änderung der Herzfrequenz in beide Richtungen (500 Schläge/min am Ende
der Sitzung anstatt von 400 bei Erhöhung oder 330 am Ende der Sitzung anstatt von 400 zu
Beginn)
• Tier „lernt“ höhere Herzschlagfrequenz, obwohl sie aktiv nichts tun kann
• funktioniert auch mit systematischer Senkung der Herzrate
• Verstärkung kann neben Herzfrequenz auch andere organische Reaktionen steuern
• auch autonome Reaktionen lassen sich operant konditionieren durch positive
Konsequenz (= Verstärkung)
145. Schildern Sie die Ergebnisse der Untersuchungen von Gamzu und Williams
(1971), durch die eine klassische Konditionierung operanter Reaktionen
nachgewiesen wurde (Stichwort: autoshaping).
• in einer autospaping-Situation wurde die vorhersagende CS-US-Verbindung durch
Hinzufügen von USs während der Abwesenheit von CSs in Phase 2 aufgehoben
• in der ersten Phase wurde Futter unregelmäßig verabreicht, wenn das Licht an ging, aber
Futter kam nie ohne Licht (Licht war Prädiktor für Futter)
• in Phase 2 war Licht nicht mehr ein Prädiktor für Futter, da Futter auch verabreicht wurde,
wenn das Licht aus war
• → Anzahl der Verhalten-Verstärker-Kombinationen (absolute Kontiguität wo Futter
direkt auf das Picken folgte) in beiden Phasen jedoch gleich oft aufgetreten
• bei vorhandener Kontingenz zwischen Licht und Futter:
P(Futter│Licht)>P(Futter│⌐Licht) wurde ein Picken auf die beleuchtete Taste generiert
und aufrecht erhalten
• das Picken auf die beleuchtete Taste hörte jedoch auf, sobald Futter auch verabreicht
wurde, wenn die Taste nicht aufleuchtete und die Kontingenz daher aufgehoben war
(P(Futter│Licht)= P(Futter│⌐Licht))
• sobald die Futtergabe zwischen den Trials wieder weggenommen wurde und die
beleuchtete Taste wieder einen Informationswert erhielt (P(Futter│Licht)>
P(Futter│⌐Licht)), trat auch das Picken auf die Taste wieder verstärkt auf
• → Aberglaube für "autoshaped pecking" ist schwer zu rechtfertigen, weil:
• wird der Vorhersagewert der pavlovschen Lichtfeld-Futter-Relation verändert, wird auch
die Pickrate verändert, obwohl die vermutete abergläubische Verhalten-VerstärkerRelation nicht verändert wird
• → für die Konditionierung einer operante Reaktion wie autoshaping muss wie bei der KK
der CS einen Informationswert besitzen und eine Kontingenz zwischen CS und US
vorhanden sein
Zusammenfassung der Ergebnisse: Nach blinken der Taste kam Futter, Taube begann zu
picken auf die Taste, obwohl Futter in jedem Fall kam
Assoziation zwischen Licht und Futter (KK) (≠ Assoziation zwischen Pickreaktion und
Futter wäre abergläubisches Verhalten)
Kontingenzeffekte beim Autoshaping:
Wenn Licht Futter nicht mehr zuverlässig ankündigt, taucht die Pickreaktion nicht mehr auf,
auch wenn Licht-Futter genauso oft gepaart wurde, wie Futter ohne Licht auftrat
146. Erläutern Sie die Kernaussage der emotional/motivationalen Ein-Faktor-Theorie
der klassischen und operanten Konditionierung.
• zentrale emotional/motivational vermittelte Einflüsse von KK auf OK Schnittstelle, wo
KK und OK angreift. CER = conditioned emotional reaction = Interaktion von KK und OK
• Verallgemeinerung des Prinzips: Kongruenz- und Inkongruenzeffekte auf der Ebene eines
zentralen Annäherungs-/Vermeidungssystems Hemmungs- und Erleichterungseffekte auf
appetitiv/aversiv motiviertes operantes Verhalten durch konditionierte Reize, die das
Eintreten/Ausbleiben (CS+/CS-) positiver/negativer Situationen anzeigen
• KK nicht notwendig: Vermeidung des Schocks = Verstärker (Angstreduktion nicht
notwendig als Verstärker)
• eine CER, wie beispielsweise Angst, ist eine Reaktion, die sowohl auf die KK als auch die
OK einwirkt (kündigt ein Ton einen Schock an, dann ist die klassisch konditionierte
Reaktion Angst welche dann eine operante Reaktion wie einen Sprung über die Trennwand
im Zweikammerkäfig auslösen kann)
• → wenn klassisch konditionierter CS (Ton) operantes Verhalten beeinträchtigt/darauf wirkt,
dann aufgrund eines motivationalen Status und nicht aufgrund von peripheren CRs welche
durch den CS induziert werden
• → der Effekt des pavlovschen CS auf das konditionierte Verhalten ist nicht immer gleich,
sondern abhängig davon, welche Art von verstärkender Kontingenz operationalisiert wurde
(und welche Art von Verhalten vorher konditioniert wurde)
• es gibt Kongruenz- und Inkongruenzeffekte auf der Ebene eines zentralen Annäherungs/Vermeidungssystems
• →motivationales System mit 2 Zuständen: Annäherung u. Vermeidung
• Aktivierung des appetitiven Systems unterdrückt aversives System und anders herum
• jeweiliges System produziert jeweiliges Verhalten (z.B. aversives System →aversives
Verhalten (Vermeidungsverhalten, Fluchtverhalten o. ä.)
• beide Systeme werden von äußeren Reizen (Futter, Schock, ...) getriggert
147. Nennen Sie drei verschiedene Beispiele, wie durch klassisch konditionierte Reize
ausgelöste emotionale Zustände operantes Verhalten beeinflussen können.
1. wenn in I. Phase: Hebel drücken Tier kann Schock vermeiden
II. Phase: Ton wird mit Schock gepaart Ton ist aversiver CS
III. Phase: Ton in Situation wie Phase I präsentiert
Hebeldrücken nimmt stark zu, weil Tier durch drücken den Schock noch mehr vermeiden
möchte, weil CS Vermeidungssystem aktiviert: Aversives Verhalten verstärkt
2. wenn in Phase II Ton das Ausbleiben des Schocks ankündigt (Licht= klassisch
konditionierter CS-, aversiv) → man ist von der Angst entlastet/erleichtert aversives
Verhalten, also Hebel drücken wird unterdrückt, appetitives Verhalten würde verstärkt,
begünstigt
3. I. Phase Hebel drücken Tier bekommt Futter
II. Phase Licht gepaart mit Schock kündigt Schock an = klassisch konditionierter CS+,
aversiv)→erzeugt Angst
III. Phase wie in Phase I nur mit zusätzlich Licht
Ergebnis: Hebeldrücken nimmt ab, weil Licht aversives Verhalten stärkt (z.B. suchen nach
Fluchtmöglichkeit oder Angstreaktion) und appetitives Verhalten (hier „Hebel drücken“)
unterdrückt bzw. hemmt.
• ein aufleuchtendes Licht kündigt das Ausbleiben von Futter an (Licht = klassisch
konditionierter CS-, appetitiv) → erzeugt Enttäuschung → Hebeldrückrate um Futter zu
erhalten sinkt (operant appetitives Verhalten nimmt ab)
148. Erläutern Sie die Kernaussage der informationalen Ein-Faktor-Theorie der
klassischen und operanten Konditionierung.
• informational vermittelte Einflüsse von KK auf OK informationaler Charakter der
Umgebung KK und OK greift ein
• Redundanzeffekte zwischen KK und OK:
o Blockierung operanter Reaktionen durch Information des CS
o Blockierung konditionierter Reaktionen durch informativere Reaktion andere
Richtung
• in beiden Arten der Konditionierung scheinen die Organismen etwas über kausale
Zusammenhänge von Ereignissen oder Determinanten in der Welt zu lernen; bei der KK
sind dies Ereignisse in der Umwelt und bei der OK sind diese Ereignisse die
Verhaltensweisen des Organismus selbst → ABER in beiden Fällen scheinen die Regeln,
welche die vom Organismus gemachten kausalen Schlussfolgerungen regieren, die gleichen
zu sein EIN Mechanismus für S-S- und S-R-Beziehungen
• Informationscharakter von CS in der KK wirkt sich auf den Erwerb von OK Verhalten aus =
Informationswert von Zusammenhängen als allgemeines Prinzip des Lernens
149. Erläutern Sie Aufbau und Ergebnisse eines transfer-of-control Experiments.
Inwieweit wird durch das Ergebnis eines solchen Experiments eine
emotional/motivationale Vermittlung des Zusammenwirkens von klassischer und
operanter Konditionierung in Frage gestellt? Mit welcher allgemeinen Theorie
erklärt man sich die Ergebnisse stattdessen?
Aufbau: drei Ratten
I. Phase = KK
• 1. und 2.: KK: Ton-Futter-Paarungen, 3. Ratte keine KK (= Kontrollgruppe)
• alle drei müssen lernen, während sie einen Ton hören den Hebel zu drücken,
und wenn kein Ton zu hören ist, nicht den Hebel zu drücken
II. Phase = OK
• Ratte 1: operanter Verstärker ist Futter wie bei KK in Phase I
• Ratte 2: operanter Verstärker ist ein anderer als bei KK: Zucker
• Ratte 3: operanter Verstärker ist Futter
• Ratte 1: Verstärkung des Verhaltens gegenüber der Baseline
Ton-Hebel drücken –Futter, kein drücken, wenn kein Ton
III. Phase =
• Ratte 2: keine Verstärkung des Verhaltens gegenüber der Baseline
Testphase
Ton-Hebel drücken –Zucker, kein drücken, wenn kein Ton
• Ratte 3: reagiert wie bei Phase II = Baseline, Kontrollgruppe
Ergebnisse:
• Ratte 1 lernt in Phase 3 schneller als die anderen, weil Ton in Phase I gab Ratten
Information über Futter , aber nicht über Zucker, davon konnte Ratte 1 in Phase III
profitieren
• wenn ein CS (Ton) Informationen über einen Typ Futter (US) besitzt, führt seine Präsenz
während der operanten Konditionierung nicht dazu, dass andere Futterarten (wie das
Zuckerwasser für Ratte 2) leichter erlernt werden
• spricht gegen globale Übertragung von Verstärkern, kein genereller Transfer bei
appetitivem Lernen
• bei aversivem Lernen gibt es globale Übertragung von Verstärkern
• emotional-motivationale Vermittlung des Zusammenwirkens von KK und OK in Frage
gestellt? – Blockierung: KK funktioniert nur bei neuer Information bisher nur innerhalb
der KK gelernt, aber jetzt: Blockierungseffekt kann operantes Verhalten auch blockieren
• Erklärung statt dessen: Ein-Faktor-Theorie II: informational vermittelte Einflüsse von KK
auf OK. Folglich ist es zumindest unter einigen Umständen eher der informative als der
motivationale Charakter des klassisch konditionierten CS welcher die Effekte auf das
folgende Verhalten determiniert
150. Schildern Sie jeweils eine Untersuchung (und die dort gefundenen Ergebnisse),
mit der gezeigt wird, dass (a) der Erwerb operanter Reaktionen durch eine
informativeren CS bzw. (b) die klassische Konditionierung eines CS durch eine
informativere Response blockiert werden kann. Welche allgemeine Sichtweise bzgl.
der allgemeinen Prinzipien und Mechanismen des Lernens, die sowohl klassischen
wie auch operanten Konditionierungseffekten zugrunde liegen, wird durch diese
Ergebnisse gestützt?
(a)
• St.Claire-Smith, 1979: Blockierung von OK durch KK
• Aufbau: 3 Gruppen: Hebel drücken Futter kommt nach Verzögerungspause von ca. ½
sec.
• 1.Gruppe: Kein Licht in ca. ½ sec. Pause, egal ob Futter folgt oder nicht = BaselineBedingung
• 2.Gruppe: Licht in ½ sec. Pause, wenn Futter kommt, = also partial reinforcement =
Blockierungsgruppe
• 3.Gruppe: „unpaired“: Licht = CS-, d.h. Licht kommt nur in Durchgängen, in denen kein
Futter als Verstärker folgt Prüfen, ob Licht Tiere nicht unspezifisch irritiert Licht sollte
in dieser Gruppe kein klassisch konditionierter CS für Futter werden und dieser Stimuli
(Licht) sollten somit nicht in der Lage sein das Reaktionslernen zu blockieren)
• Ratte weiß also: wenn ich Hebel drücke, steigt die Wahrscheinlichkeit, dass Futter kommt
• immer, wenn Licht leuchtet nach meinem Hebeldruck, dann bekomme ich Futter nie
Licht ohne folgendes Futter, nie Futter, wenn kein Licht vorher geleuchtet hat = Kontingenz
• diese Kontingenz ist wirksamer, als die zwischen Hebel und Futter
• Kontingenz Licht – Futter (=KK) blockiert die Kontingenz Hebeldrücken – Futter (=OK)
• Ergebnis: Ratte in Blockierungsgruppe = Gruppe 2 drückt langsamer & seltener den Hebel,
als in den anderen 2 Gruppen
• Ratte braucht ewig um zu lernen, dass Futter auch nach manchen Hebeldrücken kommt,
ohne dass Licht geleuchtet hat
(b)
• Klickgeräusch soll Charakter eines Verstärkers erwerben indem es mit Futter gepaart wird =
sekundäre Verstärkung: Ratte mach Reaktion, um „Klick“ zu hören (irgendwann auch ohne
darauf folgendes Futter)
• Blockierungsgruppe: Phase I: Ratte muss in Rad laufen, dann hört sie Klick in ½ der
Futterdurchgänge und bekommt dann Futter durchlief also auch Durchgänge, in denen das
Rennen im Laufrad zu Futter führte, aber kein Klicken ertönte → für diese Gruppe ist
Laufen ein besserer Prädiktor für Futter als das Klicken (CS), denn Laufen führte immer zu
Futter wohin gegen der CS bei einigen Belohnungsdurchgängen abwesend war
→Blockierung der Assoziation zwischen Klicken und Futter
• Phase II: Ratte muss Hebel drücken, dann hört sie Klick
• Kontrollgruppe: vor allen Futterverstärkungen hört Ratte das Klickgeräusch
• Phase II = Testphase: alle Gruppen sollen lernen, Hebel zu drücken, um Klick zu hören
• Ergebnis: Blockierungsgruppe-Ratten drücken langsamer Klickgeräusch ist blockiert
worden, d.h. es ist kein CS für Futter geworden
• Transfairfall: Kontingenz ist so, dass das Rennen im Rad ein besserer Prädiktor für Futter
gewesen ist Assoziation zw. Klick und Futter wird nicht als sekundärer Verstärker
gelernt Ratte lernt nicht zu drücken, um Klick zu hören
• klassisch konditionierte CSs und operantes Antwort-(Reaktions-)Verhalten können als
Prädiktoren für Verstärkung ausgetauscht werden
• solange das Tier betroffen ist, kann entweder sein operantes Antwortverhalten, als auch ein
externer Stimulus als Signal für folgende Belohnung dienen
• der Blockierungseffekt legt nahe, dass, wenn einmal eines dieser Ereignisse ein
zuverlässiges Signal für Verstärkung geworden ist, das andere Ereignis von dem Tier
weniger genutzt wird
• → somit besitzen klassisch konditionierte CSs und operante Reaktionen eine gleichartige
informationale Funktion
• Fazit: Informationaler Ansatz: es gibt EINEN Mechanismus, der beide Arten von
Konditionierung, S-S-und R-S- Beziehungen, erklärt: Lernen von Kausalbeziehungen
zwischen Ereignissen
• Lernen folgt Informationsregeln: Informationswert von Zusammenhängen als
allgemeines Prinzip des Lernens
• Lerne nur neues, wenn es neue Information bringt
• das ist die Interaktion, die KK und OK zugrunde liegt
Herunterladen