Was ist Gegenstand der Lernpsychologie?

Was ist Gegenstand der
Lernpsychologie?
-untersucht Lernen und Erlernen allgemeiner
Mechanismen der Verhaltensänderung
- sucht nach Regeln und Gesetzmäßigkeiten, wie sich
Wissen und Verhalten durch Erfahrung ändert
Kritik am Introspektionismus
• logisches/ wissenschaftstheoret.Kritik: man kann mit
geistigem Prozess schlecht einen geistigen Prozess
untersuchen
• muss intensiv trainiert werden
• bleibt immer individuell, jeder hat andere Innensicht 
widersprüchliche Ergebnisse
• schwammige, unklare Festlegung der Begriffe
• schlechte Verallgemeinerbarkeit
• Verhalten ist immer auch Reaktion auf Umwelt und sollte
daher nicht nur intrapsychisch erklärt werden
• unbewusst ablaufende Vorgänge sind so nicht
untersuchbar
S-R-Behaviorismus: Ziele
- Verhalten (Reaktion) auf bestimmte
Umweltbedingungen (Stimuli) soll
beobachtet, vorhergesagt & kontrolliert
werden können
• Es werden allgemeine Regeln für S-RVerbindungen aufgestellt
S-R-Behaviorismus: Methodik
• Anti-introspektionistisch, lehnen mentale
Konzepte ab
• Psychologie = Naturwissenschaft 
überprüft nur nachweisbare Fakten
• Datenbasis sind Ereignisse, die man
beobachten kann (durch Tierversuche,
dann auf Mensch übertragen)
S-O-R- Behaviorismus /
Neobehaviorismus
• Stimulus und Reaktion stehen nicht immer in simplem
Zusammenhang  es sollten auch Variablen mit einbezogen
werden, die nicht direkt beobachtbar sind
• O-Variablen: innerorganismische, zwischen S und R vermittelnde
Variablen (z.B. Motiv, Emotion)
• z.B. Zeit ohne H2O (S)  Durst (O) Häufigkeit des
Hebeldrückens (R)
• Es werden möglichst viele beobachtbare Daten verwendet und
möglichst wenige O-Variablen
• O-Variablen müssen durch Operationalisierung in klare
Zusammenhänge mit beobachtbaren Daten gebracht werden (z.B.
Angst: Fluchtreaktion)
• Vorläufer der heutigen kognitiven Psychologie, da mentale
Konzepte in der Theoriebildung benutzt werden
Sinn der Einführung der mentalen
O-Variable
• O-Variablen können Theorien
vereinfachen, da weniger Wirkungsbeziehungen zwischen den einzelnen
Variablen erklärt werden müssen
• Stunden ohne Wasser, trockenes Futter,
Injektion v. Salzlösung  Durst 
tolerierte Chininmenge, Häufigkeit des
Hebeldrückens, konsumierte H2O-Menge
Radikaler Behaviorismus nach
Skinner
• Verhalten ist abhängig von 3 Einflüssen:
• 1. Phylogenese  Organismen sind
Selektionsprozessen durch ihre Umwelt ausgesetzt 
das am besten adaptierte Verhalten besteht weiter
• 2. Ontogenese  Fähigkeit, im Laufe des Lebens auf
veränderte Umweltbedingungen mit verändertem
Verhalten zu reagieren  Konsequenz aus Phylogenese
• 3. Soziogenese  Tradierung gemeinschaftl.
Verhaltensregeln: Kultur als Umweltadaptation einer
Gruppe
• Verhalten kann auf alle Verhaltensebenen bezogen
analysiert werden (z.B. auch Sprechen, Denken,
Entscheiden)
Radikaler Behaviorismus: Ziele
• Erkennen allgemeiner Gesetze/Regeln der
Verhaltens-modifikation
• konsequenter Verzicht auf mentale Konzepte in
der Theoriebildung
• Ethische Implikationen: Freiheit, Würde und
Moral als kulturelle Anpassungsleistungen
• Ethische Implikationen: Relativierung durch
übergreifende biolog. Perspektive
• Ethische Implikationen: Optimierung von
Adaptivität, Vermeidung von Leid
Tierversuche in der Forschung
• Pro: Tiere sind leichter verfügbar, billiger und nehmen an
allen Versuchen konsequent teil
• Man kann ihre Vorerfahrungen besser einbeziehen
• Geringere ethische Bedenken
• Typisch menschliche Störeffekt (z.B Placebo-Effekt)
werden ausgeschalten
• Prinzipielle Ähnlichkeit zum Menschen bei geringerer
Komplexität
• Contra: eingeschränktes Verhaltensrepertoire (kein
Sprechen, Lesen, Problemlösen)
• qualitativer Unterschied zum menschlichen Verhalten
• ethische Bedenken
Impliziert die Suche nach allgemeinen Kausalgesetzen
des Lernens ein deterministisches Weltbild?
- Determinismus: es gibt keinen freien Willen, selbst
unser Verhalten ist festgelegt, Welt komplett durch
Naturgesetze determiniert
– Psychologie befindet sich im Mittel zwischen den
Extremen: es gibt geltende Kausalgesetze, aber nicht
immer und überall, sondern mit gewisser
Wahrscheinlichkeit
– Kausalgesetze gelten nur unter best. Bedingungen,
d.h. sie sind nicht zwingend  impliziert kein det.
Weltbild
– Verhalten wird durch Gründe (nicht zwingend) erklärt,
nicht durch Ursachen (zwingend, physikal. Natur) 
Psychologie spricht von Tendenzen und Trends, nicht
von zwingenden Vorhersagen
Habituation
- einfachste, nicht-assoziative Form des Lernens, vglb. mit
Gewöhnung
– ein Reiz, der immer wieder wiederholt wird, ohne dabei Folgen
am Individuum zu hinterlassen, führt dazu, das das betroffene
Individuum immer weniger intensiv auf diesen Stimulus
reagiert (z.B. Schreckreaktion)
– Exp. 1: Marlin und Müller  Ratte in Stabilimeter-Käfig platziert.
Wenn sie sich erschreckt, bewegt sich Boden. Führt zu
Erzeugung von Strom  wenn nun ein lauter Ton in
regelmäßigen Abständen präsentiert wird, nimmt
Schreckreaktion immer mehr ab
– Exp. 2: Dielentherg und McGregor  Ratten werden mit einem
nach Katze riechendem Halsband konfrontiert  verstecken sich
 bei mehrmaliger Wiederholung habituieren sie und verstecken
sich nicht mehr
Geht Habituation auf
Lernprozesse zurück? Wieso?
-
Ausschaltung von Alterativerklärungen: Erschöpfung, Ermüdung. Adaptation
Dielentherg & McGregor zeigten, dass Ratten (habituiert auf Katzengeruch)
gleich hohe Fluchtreaktion wie anfangs zeigten, wenn sie mit einem neuen
Stimulus (Bild einer Katze) stimuliert werden  schließt Erschöpfung aus
– Marlin & Müller zeigten, dass weder Ermüdung noch Adaptation in Frage
kommen  falls adaptatiert, hätte Ratte den Ton immer schlechter gehört dann
auch weniger reagiert gegen Ermüdung spricht, dass die Ratte im 2.
Durchgang einen „Ersparniseffekt“ zeigt, d.h. dass ihre Fluchtreaktion viel
schneller und sehr früh nachlässt –> spricht für Lerneffekt
– Habituation ist stimulus-spezifisch: nicht die Reaktion habituiert,sondern die
Reaktion als Folge des Stimulus  d.h. es sinkt nur die Fähigkeit des Stimulus,
die Reaktion auszulösen (nicht die Reaktionsfähigkeit an sich)  d.h. dass
Stimuluswechsel o. Kombination alter u. neuer Reize zu einer normal- starken
Reaktion führen, wie Groves & Thompson feststellen: 2 Gruppen Ratten hören
14 x einen Ton, bis habituiert. Die Exp.Gruppe sieht nun ein Blitzlicht vor dem
Ton und reagiert mit Schreck.Kontroll-gruppe sieht kein Blitzlicht vor Ton und
reagier nicht mehr mit Schreck.
Funktion der Habituation für die adaptive
Verhaltenssteuerung
– Vermeidung von Ablenkung und
Ressourcenvergeudung durch Reaktionen auf
irrelevante Reize
– Einsparung von Energie, die dann für
wichtigere Reize zur Verfügung steht
– geringe Habituationsgeschwindigkeit =
Prädiktor für Intelligenzdefizit u.
Fehlentwicklung
Der Coolidge-Effekt
– Wechsel des Stimulus führt zu erneut großer
Reaktion und durchbricht die Habituation 
„reinstatement“
– „Wie oft begattet ein Hahn Hühner? – „Dutzende Male
am Tag“ --„Immer die gleiche Henne?“  „nein, jedes
Mal andere“
– Exp. Schein & Hale, 1974: Tests mit Ochsen, die
Kühe begatten sollen  Kopulationsbereitschaft lässt
nach, wenn immer dieselbe Kuh (Habituation), aber
wenn andere Kühe oder anderer Kontext, geht’s doch
Analyse basaler Wahrnehmungs- und
Diskriminationsleistungen bei Säuglingen
oder Tieren
– Habituation als Forschungsmethode zur Erfassung von
Diskrimationsleistungen i.d. Säuglingsforschung (können nicht
reden)
– Diskrimination = Fähigkeit, 2 Reize zuverlässig voneinander zu
unterscheiden
– Studie von Johnson und Aslin 1995: Säuglingen wird wiederholt
der auf der linken Seite abgebildete Stimulus gezeigt, bis ihre
Orientierungsreaktion durch die Habituation nachlässt. Dann
wird mit den beiden Stimuli (ähnlich dem ersten, aber der Balken
fehlt, eins ist durchgezogen, eins unterbrochen) der
Generalisierungsgrad getestet  auf den Stimulus, den die
Babies als subjektiv gleich empfinden, reagieren sie mit
fortgesetzter Habituation, auf den anderen nicht (Dishabituation)
 Erg: können schon früh diskriminieren, ob Dinge verdeckt sind
oder nicht (OR bei unterbrochenem Balken)
Welche Rolle spielen Reizintensität und Vorhersagbarkeit
für die Stärke von Habituationseffekten?
Merke:
 Reizintensität: bei sehr lauten, intensiven Tönen ist Habituation schwächer & langsamer
 Vorhersagbarkeit: je vorhersagbarer & wenig überraschender der Reiz, desto stärker
die Habituation
•
Experiment von Davis & Wagner, 1969:
•
4 Gruppen Ratten hören jeweils 750 Töne: 1. Gruppe konstant 120 dB, 2. Gruppe konstant 100
dB, 3. Gruppe aufsteigend 83-118 dB und 4. Gruppe wie Gruppe 3, aber in gemischter
Reihenfolge (random- order)
•
nach 750. Ton wurden alle 4 Gruppen mit 120 dB Ton konfrontiert & Schreckreaktion gemessen
•
Ergebnisse: - Gruppe 1 erwartete einen 120 dB- Reiz → keine erhöhte Reaktion
- Gruppe 3 erwartete ebenfalls lauter werdenden Ton → keine Schockreaktion 
selbst wenn Töne mit wenig Intensität kontinuierlich gesteigert werden, zeigen sie
keine Reaktion auf 120 dB-Ton, da Töne als ähnlich zum vorhergehenden
empfunden werden (Generalisierung) = perfekte Habituation
- für Gruppe 2 und 4 war 120 dB-Ton unerwartet, nicht vorhersagbar → starke
Reaktion (Dishabituation)  Schreckreaktion der Gruppe 2 nimmt während ersten
750 Töne wesentlich schneller und stärker ab als bei Gruppe 1 (weil schwächere
Habituation bei intensiveren Reizen)
Kurz- vs. langfristige Habituation
Spontanerholung & Lernersparnis
• Dissoziationseffekte in Abhängigkeit vom Interstimulusintervall
• kurzfristige Habituation  Habituationseffekt steigt schnell an,
dauert nur wenige Minuten und verschwindet bereits nach 1
Trainingsdurchgang  2 sec ISI
• langfristige Habituation  Habituationseffekt steigt langsamer an,
bleibt aber länger bestehen (Tage – Wochen), tritt auf bei mehrmals
wiederholtem Habituationstraining  16 sec ISI
• Spontanerholung  erneutes Auftreten der OR bei neuem Training,
obwohl bereits vorher habituiert; scheint anfänglich genauso stark
zu sein wie beim 1. Lernen, aber
• Lernersparnis  schon im 2. Durchgang des neuen Trainings lernt
Tier schneller, d.h. es habituiert schneller, früher und stärker 
„Ersparniseffekt“
Untersuchung von Davis (1970) zur Dissoziation
kurz- und langfristiger Habituation
• 2 Gruppen Ratten werden habituiert auf Töne mit zunehmendem
Zeitabstand zwischen den Tönen (ISI):
• 1. Gruppe hört 1x 10 Töne im Abstand von 2 s ISI
• 2. Gruppe hört 1x 10 Töne im Abstand von 16 s ISI
• Messung der Schreckreaktion zeigt, dass Gruppe 1 viel
schneller kurzfristig habituiert
• nach 1 min. Pause werden dann erneut 10 Töne präsentiert
• Messung der Schreckreaktion zeigt, dass 2. Gruppe zwar
wesentlich langsamer habituiert hat, dafür aber stärker und
langfristiger
Überraschungstheorie der
Habituation (Wagner)
•
•
•
•
Ereignis ist überraschend, wenn noch nicht im KZG gespeichert
 selbstgeneriertes Priming = wird Stimulus präsentiert, wird er im KZG
aktiviert
 Retrieval-generiertes Priming = wird ein mit dem Stimulus assoziierter
Stimulus gezeigt , aktiviert er den Stimulus im KZG
Keine Überraschung führt zu Habituation  kein Assoziationslernen
•
Exp. Wagner (1976): Ratte verbringt Zeit zwischen Training und Test im
Exp.käfig ohne Töne  Kontext-Ton-Assoziation wird gelöscht  keine
langfristige Habituation
•
Exp. Davis (1970):  kurzes ISI führt zu schnellerer Habituation im
Training, da so Stimulus permanent im KZG erhalten  keine langfristige
Habituation, da keine Assoziation zwischen Stimulus und Kontext gebildet
wird
 langes ISI führt zu langsamerer Habituation, Stimulus bleibt nicht im
KZG, es kommt zur Assoziationsbildung zw. Stimulus und Kontext
•
Typischer Verlauf emotionaler Reaktionen und ihrer
Veränderung nach häufiger Wiederholung
1. Höhepunkt (intensive Glücks-, Angst- oder
Ärgergefühle)
2. Abflachen auf konstantes Niveau
3. Umkippen der Reaktion nach Aussetzen des
Reizes
4. Rückkehr zur Ausgangslage
 bei häufiger Wiederholung des Stimulus wird
Verlauf weniger stark ausgeprägt sein
Opponent-Process-Theory
(Solomon & Corbit, 1974)
• Emotionale Reaktionen bestehen aus 2 Prozessen: a-Prozess und
b-Prozess
• A setzt unmittelbar ein, verharrt am Maximum und hat abruptes
Ende; ist für die erste Reaktion verantwortlich und erreicht schnell
den Höhepunkt, bleibt dann relativ konstant
• B setzt verzögert ein, verharrt am Maximum und klingt allmählich
aus; antagonistisch zu A, bedingt „Nachreaktion“ ; wird nur in
Verbindung mit A-Prozess in Gang gesetzt, entsteht und vergeht
langsamer
• Hört Stimulus auf, fällt A auf 0 und B bleibt übrig
• Veränderung = Ergebnis einer Zunahme der Stärke des BProzesses
• Bei Wdh. tritt B-Prozess schneller ein und erreicht höheres
Maximum, lässt nach Aussetzen des Stimulus langsamer nach
(während A-Prozess immer gleich bleibt)
Empirische Belege für die
Opponent-Process-Theory
1. Toleranz & Entzugserscheinungen bei
fortgesetztem Drogenkonsum  Glücksgefühl
als A-Prozess, cold-Turkey als B-Prozess  je
länger man sie nimmt, desto stärker wird BProzess
2. Church et al., 1966: Reaktionen von Hunden
auf Serie von Elektroschocks  A-Prozess:
Furcht, B-Prozess: Winseln, Freude (dass es
aufhört)
3. Epstein, 1967: Veränderung der emotionalen
Reaktion bei Fallschirmspringern  A:
schockartige Angst, B: Euphorie
Funktion der b-Prozesse für die
Verhaltensregulation
• bewirken, dass unsere Emotionen nicht
überhand nehmen  Balance der Gefühle
(nur A wäre Eskalation der Gefühle)
• Antagonisten zum A-Prozess: sonst würde
unsere Reaktion extrem ausfallen 
emotionale Extremerlebnisse erschöpfen
unsere körperlichen Ressourcen
Versuchsablauf bei Pavlov´s Experimenten
zur klassischen Konditionierung
•
•
•
•
•
•
US = unkonditionierter Stimulus, (Futterpellet)
UR = unkonditionierte Reaktion,reflexhaft (Speichelfluss)
NS = neutraler Stimulus (Glockenton)
OR = Orientierungsreaktion
CS = konditionierter Stimulus (wenn NS und US gemeinsam wiederholt
werden, wird der NS zum CS, der nun seinerseits eine CR auslöst)
CR = konditionierte Reaktion (Speicheln auf Glockenton)
• Testreihe an fixierten Hunden  verabreichte ihnen US
Futterpellets, auf die sie mit UR reflexhaftem Speicheln reagierten
 um herauszufinden, ob die Tiere auch auf einen NS mit UR
Speicheln reagieren würden, wenn dieser wiederholt mit
Futterpelletgabe kombiniert würde, ließ er zu jeder Futterpelletgabe
einen NS Glockenton erklingen  nach genügend Durchgängen
reagierten die Hunde auf den Glockenton allein mit Speichelfluss,
d.h. sie haben eine assoziative Verbindung hergestellt und der NS
ist zum CS geworden
Welche Faktoren beeinflussen die
Stärke der Konditionierung?
1.
2.
3.
4.
5.
Kontiguität  zeitliche und örtliche Nähe 2er Reize, hier: US
Futter & CS Glockenton  kurze Verzögerung v. 1 s führt zu
schnellerer und stärkerer Konditionierung  sollten nicht
gleichzeitig präsentiert werden
Kontingenz  Vorhersagewert eines CS: P(US/CS) - P(US/
nichtCS)  Wahrscheinlichkeit, mit der der US (Futter) nach dem
CS (Glocke) während d. Konditionierungsphase auftaucht  CS
(Glocke) muss valider Prädiktor des Auftretens des US (Futter)
sein
Salienz des CS  je auffälliger und intensiver ein CS
(Glockenton), desto stärker die CR (Speichel)
Stärke des US  je stärker ein US (Futter) desto stärker und
schneller die CR Speichel
Preparedness  am effektivsten wird konditioniert, wenn Stimuli
evolutionär relevant sind (nach Seligman)
Konditionierte emotionale Reaktion
(CER)
•
•
•
•
•
•
emotionale Reaktionen werden häufig von bestimmten Stimuli ausgelöst
und das normale Verhalten wird unterdrückt  Reaktion, die aufgrund eines
CS ausgelöst wird, der normalerweise keine solche Reaktion bewirken
wurde
die reaktionsauslösenden Eigenschaften des Stimulus werden dabei durch
Erfahrung erworben
da emotionale Reaktionen nicht willkürlich kontrollierbar sind,unterliegen
auch sie der klass.Konditionierung  schneller Aufbau
z.B. löst der Anblick des Uni-HG Angst aus, wenn man Uni mit neg.
Klausurerfahrungen assoziiert)
Exp Kamin 1968.: Ratten im Exp.käfig hören einen Ton, auf den 15 s später ein
Schock folgt  glz. Haben sie sie separate Aufgabe, einen Hebel zu drücken, um
evtl. gefüttert zu werden
wenn nun der Ton (NS) präsentiert wird, unterbrechen Ratten kurz das Hebeldrücken
(OR), dann folgt der CS Schock  schon nach wenigen Kombinationen nimmt das
Hebeldrücken ab, sobald der CS Schock auftritt (d.h. sie verlieren das Interesse an
Futter, weil CS negative emotionale Reaktion auslöst)
 dabei gilt: das Ausmaß, in dem das Hebeldrücken unterbleibt, gibt Auskunft
über Stärke der Konditionierung
Wie lässt sich konditionierte
Verhaltensunterdrückung quantifizieren?
• über den Unterdrückungsindex (Q)
• Q=
• Q=
• Q=
Verhaltenshäufigkeit unter CS /
Verhaltenshäufigkeit unter CS +
Verhaltenshäufigkeit unter Nicht-CS
0,5  keine Unterdrückung
0,0  perfekte Unterdrückung
• z.B. 10xHebeldrücken unter Schock / 10 x
Hebeldrücken unter Schock + 40 x
Hebeldrücken unter Nicht-Schock = 10/50 = 0,02
Übliche Prozeduren der
Konditionierung
1.
2.
3.
4.
5.
Verzögerte Konditionierung  CS Ton wird mit zeitl. Abstand
vor US Futter präsentiert  wenn CS dazu auch noch länger
präsentiert wird, findet schnell Konditionierung statt
Simultane Konditionierung  CS Ton und US Futter werden
glz. präsentiert  keine Konditionierung, da der CS keine
Information besitzt, die über die des US hinausgeht
Zeitliche Konditionierung  US Futter wird in regelm.
Abständen ganz allein präsentiert  die im Zwischenintervall
verstrichene Zeit dient als CS  wenn verschieden, kommt
CR Speicheln auch ohne US Futter
Rückwärtsgerichtete Konditionierung  CS Ton wird erst nach
US Futter präsentiert  keine Konditionierung, weil CS keinen
Informationswert hat  fungiert vielmehr als Ankündigung des
Endes des US
Standard-Paarung  kurzer zeitl. Abstand: CS 2s  US 
stärkste und schnellste Konditionierung
Wie verändert sich die CR im Verlauf
der verzögerten Konditionierung?
 CS Ton wird mit zeitlichem Abstand vor
US Futter präsentiert  wenn CS
dazu auch noch länger präsentiert
wird, findet schnell Konditionierung
statt
 anfangs beginnt CR Speicheln sofort
nach CS Ton, später setzt sie später
ein, da das Tier gelernt hat, dass
zwischen CS und US Pause liegt
Verlauf der Konditionierung während
der Akquisition
• Akquisition = Erwerbsphase, in der eine VPn zum 1. Mal
mit der Paarung CS + US konfrontiert wird
• Geschwindigkeit des Erwerbs und Stärke der CR sind
abhängig von Salienz des CS und von Stärke /Intensität
des US
• Stärkere Stimuli führen zu schnellerer Konditionierung
und damit zu höherer Asymptote
• Wahrscheinlichkeit des Auftretens einer CR nimmt in den
ersten Durchgängen stark zu und nähert sich dann
einem Plateau an (stabiles Maximum)
Verlauf der Konditionierung
während der Extinktion
• Extinktion = Löschung der assoziativ gebildeten CS-USKombination
• Voraussetzung für Löschung: entgegen gesetzte
Erfahrung, d.h. CS muss mehrmals ohne US auftreten
(Zeit allein genügt nicht)
• Löschung erfolgt allmählich
• dabei nimmt die CR zu Beginn der Extinktionsphase
stark ab und schwächst sich gegen Ende immer
langsamer ab bis sie vollständig verschwindet
• ! an jedem neuen Tag der Extinktion ist die CR zu
Beginn noch stärker als am Ende der Extinktionsphase
des Vortages (Ursache: Spontanerholung)
Was spricht dagegen, dass bei der Extinktion das
Lernen rückgängig gemacht wird?
• entstandene Assoziationen werden nicht einfach „ausradiert“, da
• 1. Spontanerholung  an jd. neuem Tag der Extinktionsphase ist
CR zu Beginn noch stärker als am Ende des Vortages  umso
ausgeprägter, je mehr Zeit zwischen 1. und 2. Extinktionsphase liegt
(legt nahe, dass CS-US-Assoziation nicht gelöscht ist)
• 2. Disinhibition  wenn Extinktion bereits so weit fortgeschritten,
dass CS Glocke keine CR Speicheln mehr auslöst und nun wenige
s vor dem CS ein neuer Stimulus Licht präsentiert wird, kann es
sein, dass auch der alte CS Glocke wieder die CR Speicheln
auslösen kann (die verhinderte Reaktion (Inhibition) wird wieder
erlernt (Disinhibition)
• 3. schneller Wiedererwerb und Ersparniseffekt  wenn eine VPn
eine klass. Konditionierung mit Akquisitionsphase und anschl.
Extinktionsphase durchläuft, ist Lernerfolg bei einer weiteren
Akquisitionsphase mit denselben Stimuli wesentlich größer 
Lerntempo wird schneller
Was ist ein CS-?
• CS- = inhibitorischer CS, konditionierter
Inhibitor
• CS, der das Auftreten einer CR verhindert
oder diese zumindest reduziert
• kündigt Ausbleiben des US an
Methoden, um einen Stimulus als
CS- zu etablieren
1. CS- wird mit bereits etablierten CS+ während der Extinktion präsentiert





Assoziation Ton (CS+) –Speicheln (CR) soll gelöscht werden
I. CS Ton + CS Licht  CR Speichel
II. CS Ton + CS Licht  CR Speichel weniger
III. CS Ton + CS Licht  CR Speichel noch weniger
durch die Wiederholungen wird CS Licht zum CS-, der voraussagt, dass
dem CS Ton kein US Futter mehr folgt
2. conditioned inhibition training : CS+/CS- ohne US präsentieren; dann CS
allein mit US präsentieren
I. CS Ton + CS Licht  ?
II. CS Ton + US Futter  CR Speichel
 nach einigen Wdh. ist CS Ton exzitatorisch und CS Licht inhibitorisch
Methoden, mit denen man zeigt, dass ein
CS zu einem CS- geworden ist
1.
Summationstest  zeigt, dass ein CS- nicht nur die CR als
Reaktion auf einen CS- inhibieren kann, sondern auch die CR auf
einen anderen CS verhindern kann, der noch nicht mit ihm
kombiniert wurde
I. CS1+ (Ton)  US (Futter)  CR (Speicheln) (CS1 wird
etabliert, so dass CS1+ zuverlässig CR auslöst)
II. CS2+ (Licht)  US (Futter) CR (Speicheln) (CS2+ wird
etabliert
III. CS1+ (Ton) + CS- (Schock)  nichtCR
1.
Retardationstest  Verzögerungstest: man misst die Zeit, die
nötig ist, um aus einem CS+ einen CS- zu machen; wenn der CS
vorher ein CS-war, sollte es länger dauern, da ja erst seine
inhibitorischen Eigenschaften aufgelöst werden müssen
Generalisierungsgradient
• Generalisierung = auf 2 verschiedene
Stimuli wird mit ähnlichem o. gleichem
Verhalten reagiert
• Generalisierungsgradient= Kurve, die in
einem Koordinatensystem mit x =
Teststimuli und y = Frequenz der Reaktion
nach Einzeichnung entsteht
•  Abbild der Generalisierung
Welcher Verlauf ist zu erwarten, wenn man von 2
unterschiedlichen Stimuli parallel einen als CS+
und einen als CS- etabliert?
• VPn muss erst diskriminieren zwischen CS+ und
CS-, d.h. zu erst steigt CR für beide Stimuli an
• nach mehreren Durchgängen setzt
Diskriminierung ein, d.h. CR steigt bei CS+ und
fällt bei CS• ! Gilt nur, wenn beide deutlich unterscheidbar
Experimentelle Neurose
• entsteht, wenn ein Konflikt zwischen
inhibitorischer und exzitatorischer
Konditionierung besteht
• wenn VP´n CS- von CS+ nicht mehr eindeutig
unterscheiden kann, kollabiert das Lernsystem
• z.B. wird Hunden ein Kreis als CS+ präsentiert,
auf den sie mit US Futter belohnt werden;
danach wird ihnen eine Ellipse als CS- gezeigt,
auf die sie kein US Futter erhalten  wenn nun
Ellipse und Kreis immer ähnlicher werden,
rasten Hunde aus
Furcht vs. Angst ,Phobie
• Furcht  begründet, nachvollziehbar, rational erfassbar,
objektbezogen
• Angst  diffus, subjektiv: etwas, das Angst auslöst,
bekommt u. U. Signalcharakter
• Phobie  starke situations- o. objektbezogene Ängste,
meist unbegründet und rational nicht erklärbar, subjektiv,
eigentliche Ursache verschwindet oft hinter furchtbesetztem
Objekt
 zufällige Kopplungen zw. best. Reizen und unangenehmen
Zuständen
 konditionierbar mit schwer zu löschendem Signalcharakter
Wenn zufällige Kopplungen zw. best. Reizen und unangenehmen
Zuständen für die Entstehung v. Phobien verantwortlich sind, warum
verschwinden diese dann nicht von allein durch Extinktion?
• Extinktion findet nur statt,wenn derselbe CS in
ähnlichem Kontext stattfindet, ohne dabei aber
die CR (z.B. Angst) auszulösen
• da die meisten Phobiker komplett Situationen
meiden, in denen ihre Phobie auftreten könnte,
kann auch keine Löschung statt finden
• begibt sich ein Phobiker doch in die Situation,
bleibt er von vorneherein auf das Negative fixiert
(selbsterfüllende Prophezeiungen)
Systematische Desensibilisierung
nach Wolpe
• Konstruierung einer Angsthierarchie mit
Abstufungen  individuelle
Bewältigungskonzepte
• Muskelentspannungstraining in
Angstsituationen, bis Angst weg ist 
solange in einer Stufe der Bewältigung
bleiben, bis entspannt
• Kombination von 1 und 2 in immer
höheren Anforderungsstufen
Trainingsprogramm zur Reduzierung
des Süßigkeitenkonsums
• Süßes wird gekoppelt mit aversivem Reiz
(z.B. Tabletten, die Übelkeit auslösen,
milder: Bestrafung)
• Wenn mehrmals wiederholt, wird durch
negative CR der Konsum von Süßem
gemieden
Verhinderung einer globalen
Nahrungsmittelaversion nach
Chemotherapie
• Chemo bewirkt Übelkeit, die mit vorher
genossenen Speisen assoziiert wird
(konditionierte Geschmacksaversion)
• Einführung eines markanten
Geschmacksstoffes als CS (der in
normalen Lebensmitteln nicht vorkommt)
• vor der Chemo einzunehmen 
verhindert Transfer auf andere Speisen
Infektionsschutz in Stressphasen
• unter neutralen Umständen wird ein CS mit
einem immunaktivierenden US gekoppelt
• in Stressphasen reicht dann Gabe des CS aus,
um die Wirkung des US hervorzurufen
• z.B.: Interferon-Injektion  aktiviert & stärkt
Immun- system
• CS löst bald allein die Immunstärkende Reaktion
(jetzt CR) aus und kann Organismus in
Stressphasen gegen Infektion schützen
Kontingenz und 4 Felder-Tafel
• Kontingenz = Vorhersagewert eines CS
• Statistisches Wahrscheinlichkeitsmaß, dass 2 bedingte
Wahrscheinlichkeiten miteinander verrechnet
• Q = P(US/CS) – P(US/nichtCS)
• > 0: hohe Vorhersagekraft
• = 0: keine Vorhersagekraft (heben sich auf
• < 0: niedrige Vorhersagekraft (hemmend)
• 4-Felder-Tafel = Kreuztabelle absoluter Häufigkeiten
•  zur Berechnung konkreter Wahrscheinlichkeiten
A=3
B=0
US/CS
US/nichtCS
C=0
D=?
nichtUS/CS
nichtUS/nichtC
S
P(US/CS)
= A / A+C
P(US/nichtCS)
= B / B+D
Q = P(US/CS) – P(US/nichtCS)
Wie müssen die bedingten Wahrscheinlichkeiten von US/CS
bzw.US/nichtCS beschaffen sein,damit exzitatorische bzw.
inhibitorische Konditionierung stattfindet?
- P(US/CS) > P(US/nichtCS)  exzitator.
- P(US/CS) < P(US/nichtCS)  inhibitor.
- P(US/CS) = P(US/nichtCS)  keine Kond.
Wie lassen sich Kontingenzeffekte von Effekten der
Häufigkeit einer CS-US-Paarung experimentell trennen?
•
•
•
•
•
Kontingenz: Wahrscheinlichkeit, mit der der US (Futter) nach dem CS (Glocke) während d.
Konditionierungsphase auftaucht
Differenz zw. Experimentalrate (bei der der US mit dem CS gekoppelt wird) und Basisrate
(bei der der US allein auftritt) (nach Formel)
je höher die Basisrate, desto geringer der Grad an Konditionierung
es kommt immer dann zu Konditionierung und Lernen, wenn der CS die
Wahrscheinlichkeit des Auftretens des US erhöht
Gelernt wird also aus der Differenz zwischen Paarung und Nichtpaarung, nicht aus der
Häufigkeit der Paarungen
Exp. Rescorla(1968)  beim Versuch zur Dissoziation von Kontingenz- u. Häufigkeitseffekten
wurden 3 Gruppen Ratten gebildet mit I. P(US|CS) = 0.4; II. P (US/CS) 0.2 und III.
P(US/CS)= 0,1
 Dann wurde Grad der Konditionierung untersucht in Abhängigkeit von der Basisrate
P(US|¬CS)
 es zeigte sich, dass die Konditionierung umso besser war, je größer die positive Differenz
P(US|CS) - P(US|¬CS) und somit die Kontingenz
 Des weiteren fand keine Konditionierung mehr statt, sobald P(US|CS) gleich der Basisrate
und somit keine Kontingenz mehr vorhanden war
Übererwartungseffekt
• Kombination zweier bereits etablierter CS mit dem
gleichen US führt zur Abschwächung der CR auf die
einzelnen Stimuli
• Z.B. I. CS1 (Ton) + CS2(Licht) werden unabhängig
voneinander auf den gleichen US (Futter) konditioniert
• II. gemeinsame Präsentation von CS1 (Ton) und CS2
(Licht) mit anschl. US (1 Futter) = Übererwartung
(eigentlich werden 2 Futterpellets erwartet)
• Dadurch erfahren beide CS inhibitorische
Konditionierung
• Testphase: CS1(Ton) und auch CS2 (Licht)
schwächere CR
Blockierungseffekt
• Kopplung eines neuen CS2 (TON) mit bereits etabliertem CS1
(Licht) bei gleichem US bewirkt keine Konditionierung bzgl. des
CS2, weil dieser durch den CS1 blockiert wird
•
Exp. Kamin (1968): - 2 Gruppen Ratten
•
1. DG: - EG
- KG
•
2. DG: beide  CS (Licht) + CS2 (Ton) + US (Schock)  CR (Flucht)
•
3. DG: - EG
- KG
 CS (Licht) + US (Schock)  CR (Flucht)

 CS2 (Ton)  keine CR, da durch CS1 blockiert
 CS2 (Ton)  starke CR
Zentrale Ergebnisse gegen die These, dass die
Stärke einer CR proportional zur Häufigkeit zeitlich
benachbarter CS-US-Paarungen ist
1.
2.
3.
4.
Übererwartung  Kombination zweier bereits
etablierter CS mit dem gleichen US führt zur
Abschwächung der CR auf die einzelnen Stimuli 
entscheidend ist Kontingenz
Überraschungseffekt = Stärke der Abweichung von
erwartetem Reiz und tatsächlichem Reiz; bestimmt
laut Rescorla die Stärke der Konditionierung
Überschattung  ein CS1 wird in Gegenwart eines
salienteren CS2 nicht konditioniert
Blockierung Kopplung eines neuen CS2 (TON) mit
bereits etabliertem CS1 (Licht) bei gleichem US
bewirkt keine Konditionierung bzgl. des CS2, weil
dieser durch den CS1 blockiert wird
Durch welche Maßnahme lässt sich ein
Standard-Blockierungseffekt vermeiden?
• Blockierungseffekt: Kopplung eines neuen CS2
mit bereits etabliertem CS1bei gleichem US
bewirkt keine Konditionierung bzgl. des CS2,
weil dieser durch den CS1 blockiert wird
• Vermeidbar, wenn der CS2 zusätzlich zur
Information des CS1 noch eine ganz neue
Information bringt (z.B einen etwas stärkeren US
nach sich zieht)
• ein CS2 muss also wiederum überraschend sein
und Informationswert besitzen, um nicht
blockiert zu werden
Formel des Rescorla-WagnerModells (1972)
•
•
•
•
mathematische Formulierung des Konzepts der Überraschung
sagt Ergebnisse der klassischen Konditionierungsverfahren voraus
Grundannahme: bei jedem Lerndurchgang kann exzitatorische,
inhibitorische oder keine Konditionierung stattfinden
3 Faktoren bestimmen, welche der 3 Konditionierungen stattfindet:
– 1. von der VPn erwartete Stärke des US:  V
– 2. Intensität des US  A (kann nicht <0 sein)
– 3. Salienz des CS  S (0 ≤ S ≤ 1)  je salienter ein Reiz, desto stärker die
Konditionierung
^ Vcsi = Scsi x (Aj –Σ Vcsi)
^ = Veränderung d.Stärke eines CS bei einem einzigen Konditionierungsdurchgang
Σ Vcsi = Summe der US-Erwartungen aller anwesenden CSi
Akquisition: das Rescorla-WagnerModell
•
•
I.
II.
III.


immer, wenn Intensität (A) des aktuellen US > als Erwartung
des US (V), werden alle Stimuli, die mit US kombiniert werden,
exzitatorisch konditioniert
Angenommen: S= 0,2 (Intensität des CS)
A= 100 (Stärke des US)
^ Vcsi = Scsi ・ (Aj – Σ Vcs)
= 0,2 x (100-0) = 20  0, weil Tier
nichts erwartet in der Erwerbsphase
= 0,2 X (100-20) = 16
= 0,2 x (100 – 36) = 12,8
erkennbar, dass Differenz mit jd. DG kleiner wird 
asymptotischer Verlauf
Konditionierung wird mit jd. DG weniger
Extinktion: Rescorla-WagnerModell
• Immer, wenn die Intensität des aktuellen US der Erwartung des
Individuums entspricht, findet Extinktion statt
• S = 0,2
• A = 0 (Stärke des US muss 0 sein, da US ja in der Löschphase
weggelassen wird)
• Σ Vcs = 90 (muss nah an 100 sein, da das Tier ja US erwartet)
• ^ Vcsi = Scsi ・ (Aj – Σ Vcs)
= 0,2 x (0-90) = 18
= 0,2 x (0-72) = -14,4
= 0,2 X (0-57,6) = -11,52
 Anfangs nimmt Konditionierung stark ab und wird dann immer
kleiner
Latente Inhibition
• Lernverzögerung bei der Konditionierung
• wird ein Reiz mehrmals ohne Konsequenz
dargeboten, bevor er dann in einer
Konditionierungsphase als CS mit einem US
gepaart wird, schwächt sich seine Assoziabilität
mit dem US ab
• dies ist kein Inhibitionsphänomen, weil der CS
kein CS- ist, sondern generell in seiner
Konditionierbarkeit reduziert ist  d.h. der CS
sagt nicht voraus, dass der US nicht auftaucht
S-S- und S-R-Erklärungen der
klassischen Konditionierung
• S-S- Erklärung  konditionierte Reaktion aufgrund einer Verbindung
2er Reize (direkt)
• S-R-Erklärung  konditionierte Reaktion aufgrund einer Verbindung
zwischen Reiz und Reaktion (indirekt)
• 3 Experimentaldesigns zur Unterscheidung:
• 1. Sensorische Präkonditionierung (Konorski, 1948)
 1. CS1 Glocke kündigt vorab CS2 Summer an: CS1  CS2
 2. Lernphase: CS1 und US werden assoziiert: CS1  US  CR
• 3. Testphase: CS2 kann jetzt CR auslösen
 wg. Assoziation CS1 - CS2 kommt es zur CR  S-S-Assoziationen
US- Abwertung /Umwertung
1. CS-US-Verbindung lernen: CS  US UR bzw. CR solange paaren,
bis auf den CS die CR folgt, ohne dass US nötig ist: CS CR
2. US-Bedeutung ändern, ohne CS zu präsentieren (z.B. bei US Futter:
ausgiebig füttern,oder auf Schock habituieren)
3. noch mal: 1. CS  US  UR
• CS  CR
• US  CR
• 2. US  ¬UR
• 3. CS  ? x (/ sehr geringe CR)
 spricht für S-S-Theorie, weil US andere Bedeutung bekommt und so
die CR auf den CS auch total verändert wird
Konditionierung zweiter Ordnung
 Phasen 1 und 2 der sensorischen Präkonditionierung,
nur vertauscht:
• 1. Lernphase auf CS1 : CS1  US1  CR
• 2. CS1 +CS2 koppeln (CS2 auch m. CR1 gekoppelt)
:CS1  CS2
• 3. CS1 kündigt jetzt anderen US an  andere CR: CR2
CS1  US2  CR2
• 4. welche CR löst jetzt CS2 aus? CR1 oder CR2? 
CR2!: CS2  CR2
 spricht für SS und SR
Occasion setting
•
ein Stimulus CS1 beeinflusst die CR auf einen Stimulus CS2 und
heißt deshalb Occasion setter, weil er die Bedingung ist, dass die
CR auf den CS2 exzitatorisch oder inhibitorisch wird
•
Studie CS1= Licht CS2 = Ton US= Futter
1.
neben dem CS2 Ton wird ein weiterer Stimulus CS1 Licht als
Occasion setter präsentiert  dabei ist dieser die Bedingung, dass
die CR exzitatorisch oder inhibitorisch wird
nur, wenn der CS2 Ton mit dem vorangehendem CS1 Licht
präsentiert wird, folgt auch der US Futter (wird der CS2 Ton
dagegen allein präsentiert, folgt kein US Futter)
CS1 bzw. OS hat Schalterfunktion und moduliert den
Zusammenhang zwischen CS2 Ton und US Futter
2.
3.
Wie kann man ausschließen, dass es die
spezifische Kombination von CS und OS ist, die
als eigenständiger CS eine CR hervorruft?
• Exp. Davidson & Rescorla
• OS1  CS1  CR1 o. OS2 CS1 CR1
• OS2  CS2  CR2 o. OS1CS2CR2
• Occasion setter sind austauschbar und
verändern dennoch in jedem Fall die CR, d.h. es
kann nicht an der spezifischen Kombination
eines best. OS mit dem CS liegen
Kompensatorische CR
- CR, die mit der Anzahl der Wiederholungen des
CS in ihrer Stärke abnimmt
- Ist das Gegenteil der UR und neigt dazu, diese
zu kompensieren
- z.B. kontextspezifische Drogentoleranz (Siegel,
1975)  Morphium hat abnehmenden
analgetischen Effekt  Kontext, in dem man es
nimmt, wird zum CS  d.h. Morphium wirkt
nach einiger Zeit im gleichen Kontext nicht mehr
 Aufhebung des Toleranzeffekts, wenn Droge
in neuem Kontext benutzt wird (CS2)  z.B.
paradoxer Drogentod
Wie erklärt man sich, dass nach wiederholter Injektion von Morphium
nicht nur dessen analgetische Wirkung nachlässt, sondern dass auch
eine Salzwasserinjektion zu einer erhöhten Schmerzempfindlichkeit
führt?
- Siegel: Exp. mit Ratten auf heißer Herdplatte  wenn zu
heiß, leckten sie sich die Pfoten
- impfte ihnen wiederholt Morphium bis die Ratten die
Herdplatte wieder als genauso schmerzhaft wie ohne
Morphium empfanden, weil die analgetische Wirkung
nachließ
- impfte er ihnen statt Morphium Salzlösung, reagierten
Ratten erstaunlicherweise mit genauso hoher
Schmerzempfindlichkeit
- CS: Spritze  US: Morphium  CR: kompensatorische CR:
höhere Schmerzempfindlichkeit
- d.h. die Ratten reagierten nicht auf das Morphium, sondern
auf den CS Spritze  deshalb reagieren sie mit gleich
hoher Schmerzempfindlichkeit
-  Nachweis, dass keine Habituation auf Morphium
stattfindet
Conditioned Opponent Theory
(Schull, 1979)
• baut auf Solomon & Corbits Theorie auf, nach denen
eine typische emotionale Erfahrung aus a und bProzess besteht
• neu: ein b-Prozess wird nicht durch Wiederholung
gestärkt oder durch fehlende Wiederholung geschwächt,
sondern:
 Kontext wirkt als CS
 löst b-Prozess aus, verstärkt ihn
 wirkt a-Prozess entgegen
 nur b-Prozesse sind konditionierbar
Wann entspricht bei der klass.
Konditionierung die CR der UR und wann ist
sie eher ihr Gegenteil?
• Sometimes opponent theory (Wagner, 1981)
• CR ist in manchen Fällen das Gegenteil der UR)
und in anderen Fällen ähnelt sie ihr
• CR ähnelt UR, wenn CR monophasisch und
keine b-Prozesse vorhanden (z.B. Lidschluss:
nur a-Prozess, Lid kann sich nur schließen: geht
nicht weiter drüber oder drunter)
• CR ist Gegenteil von UR, wenn CR biphasisch
und b-Prozesse vorhanden (z.B. Reaktion auf
Elektroschocks :steigende Herzfrequenz: a
steigt und b fällt unter ursprüngl. Rate)
Experimenteller Nachweis, dass trotz unterschiedlichen ISI bei der
Konditionierung der Geschmacksaversion der CER die gleichen
Lerngesetze wirksam sind?
• Exp. Baron, Kaufmann, Fazzini  CER: Wirkung der Verzögerung
zwischen Hebeldrücken und Schock  mit zunehmender
Verzögerung verhinderte Bestrafung das Hebeldrücken immer
weniger, d.h. je länger ISI zwischen Hebeldrücken u. Schock, desto
öfter wurde Hebel trotz folgenden Schocks gedrückt
• Exp. Andrews, Braveman  Geschmacks-Aversions-Lernen:
Wirkung der Verzögerung zwischen Aufnahme v. Saccharinlösung
und Giftinjektion  mit zunehmender Verzögerung verringert
Giftgabe die Aufnahme von Saccharinlösung immer weniger, d.h. je
länger ISI zwischen Giftgabe und Saccharingabe ist, desto eher
tranken die Ratten wieder Saccharin
• ähnlicher Verlauf bei unterschiedl. Zeitlicher Skalierung  gleiches
Lerngesetz
• beide entsprechen Prinzip der Kontiguität: je kürzer ISI zwischen
Stimulus und aversivem Stimulus, desto stärker die Reaktion
Äquipotenzannahme der
klassischen Konditionierung
•
•
•
CS und US können beliebig miteinander gekoppelt werden
gegebener CS ist in allen Kontexten ein gleich guter/schlechter CS
nur die unterschiedl. Salienz der jeweiligen CS bedingt unterschiedl. Konditionierung
•
widerlegt von Garcia und Koelling:
 2 Gruppen Ratten A/B: CS1 - Sacharin H2O , CS2 – Audiovis.Signal
 Gruppe A: US – Gift , Gruppe B: US – Elektroschock
 1) Kond-DG:
A=> (CS H2O + CS AV) + Gift  CR Übelkeit
B=> (CS H2O + CS AV) + Schock  CR Schmerzen
 2. Test-DG: A CS H2O  Messung des Wasserkonsums
CS AV  Messung des Wasserkonsums
B CS H2O  Messung des Wasserkonsums
CS AV  Messung des Wasserkonsums
 Ergebnis:
1) Übelkeit wird eher dem „Futter“ zugeschrieben
2) Schmerzen werden eher „äußeren Umständen“ zugeschrieben
! welcher US benutzt wird, spielt schon eine wichtige Rolle, da es eine biologische Prädisponiertheit gibt
Spezies- spezifische
Konditionierbarkeit
 Wilcoxon, Dragoin & Kral (1971)
 Ratten & Weißschwanzwachteln bekamen blaues, säuerliches H2O mit
krankmachendem Stimulus verabreicht
• Ratten assoziieren Übelkeit viel eher mit Geschmack, Vögel mit Farbe
• Erg. : Ratten lernen säuerliches Wasser zu vermeiden, Vögel lernen
säuerliches und blaues Wasser zu vermeiden
• Grund: Vögel müssen ihr Futter „sehen“ und auswählen, sonst würde
der Anflug nicht lohnen (Nahrungsbeschaffungsverhalten in natürlicher
Umwelt), Ratten sollten krankmachendes Futter vermeiden, da es ihre
Überlebenschance erhöht: da sie außerdem nachts fressen, verlassen
sie sich auf Geruch und Geschmack, nicht auf visuelle Hinweise
 höhere Löschungsresistenz der Angstkonditionierung (SCR) auf
potentiell bedrohliche Stimuli (Spinnen, Schlangen; Öhmanet al., 1985)
„Preparedness“ statt Äquipotenz
• Seligman (1970)
• jede Tierart zeigt durch Evolution und
Erfahrung in bestimmten Bereichen
schneller eine bestimmte Assoziation auf
bestimmte Stimuli
• es gibt „vorbereitete Assoziationen“ und
„gegenläufig vorbereitete Assoziationen“,
d.h. bestimmte Assoziationen lassen sich
leichter lernen
Ablauf und typisches Ergebnis einer Untersuchung
zur evaluativen Konditionierung
• nach mehrfacher gemeinsamer Präsentation eines
neutralen CS mit einem Valenten US verändert sich die
Bewertung des CS in Richtung der Wertigkeit des US
• Typische Beisiele
 Bild-Bild-Paarungen: neutrale Gesichter werden
systematisch mit positiven/negativen Gesichtern gepaart
 in anschl. Testphase werden die neutralen Gesichter
z.B. positiver bewertet, wenn sie vorher mit
sympathischem Gesicht gepaart wurden
 Wort-Wort-Paarungen
 Zeichen-Wort-Paarungen (Diaz et al., 2005)
 Figur-Wort-Paare (Olson & Fazio, 2001)
 Aromen-Geschmack/Geruch (Baeyenset al., 1990)
Abhängige Variable bei der evaluativen
Konditionierung im Gegensatz zur
Konditionierung
• Abhängige Variable ist der CS selbst, da
dessen Qualität je nach Valenz des US
(unabhängige Variable) verändert wird
• bei der klass. Konditionierung ist die
abhängige Variable die Stärke der CR, die
durch den CS (unabhängige Variable)
beeinflusst wird
In welchen Charakteristiken unterscheidet sich die
evaluative Konditionierung von der klassischen
Konditionierung?
Unterschiede zum Klassischen Konditionieren
1. Extinktionsresistenz  Valenz d. CS bleibt auch nach Löschung erhalten
2. Kontiguität statt Kontingenz  auch ohne Kontingenz möglich dafür zählt
Kontiguität von CS und US deshalb sind Simultane u. rückwärts
gerichtete Paarung möglich
3. Kein Occasion Setting
4. Bewusstheit der CS-US-Assoziation  Aufforderung, auf die CS-USAssoziation bewusst zu achten, verhindert Demand -Effekte (= indirekte
Messung durch affektives Priming (Diaz et al., 2005)
5. Informationswert und Signalfunktion spielen hier nur geringere Rolle
EK geht auf „demand-Effekte“
zurück?
• Demand- Effekte: Wahrnehmung von Zweck und Bedeutung des
Experiments steuert Antwortverhalten der VPn
• es wird vermutet, dass der EK- Effekt durch die Fragestellung
überhaupt erst „produziert“ wird stellt EK in Frage stellen
• d.h. es impliziert, dass die EK keine Form der Konditionierung ist,
sondern nur ein „Begleiteffekt“, der sich je nach VPn einstellt
(Manipulation) und dass jede VPn die Experimente durchschaut
• contra: Diaz et al,2005 : Affektives Priming zur Erfassung von EKAffekten  es werden Zusatzaufgaben gestellt oder der US wird
maskiert  Ziel: Ausschaltung bewusster Verarbeitung, die den EKEffekt erhöht  spricht gegen demand-Effekte
• z.B. sollen Worte am PC negativ oder positiv bewertet werden;
dabei wird die Zeit gemessen  200ms vor dem Wort („target“)
sehen VPn einen „Prime“ (entweder positiv o. negativ
konditioniert) hat „Prime“ eine pos. Valenz, sollte Reaktion auf
Target schneller sein
Welche Erklärungsansätze wurden für die EK aufgestellt? Nennen Sie
Argumente/ Forschungsergebnisse, die für bzw. gegen die jeweiligen
Erklärungsansätze sprechen.
1.
2.
3.
Ein-Prozess-Modell (Lipp & Purkis, 2005)
 EK und KK sind Manifestationen des gleichen
Lernmechanismus Signallernen
Conceptual Categorization Modell (Davey, Field, 1997)
 durch die Paarung des ambivalenten CS mit dem US werden
die Merkmale des CS, die dem US ähnlich sind, salienter  d.h.
EK sollte nur bei ähnlichen CS-US-Paarungen auftreten (contra:
treten auch bei randomisierter CS-US-Paarung auf, weiteres
contra: cross-modale EK (z.B. Musik-Bild)
Referentielles Lernen (Baeyens et al., 1992)  erst wird
assoziativ CS + US gelernt wenn später CS allein auftaucht,
aktiviert er automatisch eine kognitive Repräsentation des US
ohne ihn wirklich zu erwarten (dafür spricht: EK ruft bei CS ein
„referentielles System“ hervor  bildet Durchschnitt über alle
Valenzen der Stimuli, mit denen er bereits aufgetreten ist 
erklärt auch Löschungsresistenz sowie Möglichkeit zur
Gegenkonditionierung
Formen der Bewusstheit in der EKForschung
„Demand awareness“: kennt VPn die Hypothese?
 Untersuchungsmethoden: Befragung der VPn, Implizite Messung
(z.B. affektives Priming)
„contingency awareness“: kennt VPn den Zus.hang von CS und US?
 Untersuchungsmethoden:
1. Ausschaltung der Bewusstheit durch subliminale
Stimulusdarbietungen (Reiz kann nicht bewusst wahrgenommen
werden)
2. Ausschaltung der Bewusstheit durch Ablenkung (z.B.
Zusatzaufgabe)
3. getrennte Analyse bewusster und unbewusster Personen oder
Stimuli (problematisch: zahlreiche Studien mit sich
widersprechenden Befunden)
Warum ist die Debatte um Bewusstheit in
der EK-Forschung so wichtig?
• Diskussion, da sich noch herausstellen
muss, ob
- nur demand-Effekte die EK verursachen
- EK ein Beispiel für automatisches Lernen
sein könnte
Warum wird am Ende eines Experiments zur EK
oft eine Prozedur zum affektiven Priming
durchgeführt?
• Affektives Priming = Bahnung von Bewertungen
• mithilfe des affektiven Primings kann man implizite
Einstellung zu bestimmten Objekten (Primes) messen 
so kann man Bewusstheit über Exp. ergründen
• z.B. lassen Fehlerraten bzw. Reaktionszeiten von VP´n
auf Primes Rückschlüsse auf ihre Einstellung zu
• Z.B. Zeigen von 2 Wörtern: „eklig“ und „Spinne“, 
bewerten  Reaktionzeit wird gemessen und fällt bei
voll positiven Bewertungen („erfreulich“ + „Eis“)
wesentlich schneller aus als bei voll negativen
Bewertungen („Spinne“ + „eklig“)
• Z.B. Spinnen phobiker sehen Bildsequenzen; ganz kurz
wird Bild einer Spinne eingeblendet (nicht bewusst
wahrnehmbar)  ändert sich Bewertung des ff. Bildes?
„name letter“- Effekt, „mereownership“- Effekt
„name-letter“-Effekt (Nuttin, 1985)
 eigene Initialen werden anderen Buchstaben vorgezogen
„mere-ownership“-Effekt (Beggan, 1992)
 wenn etwas mir gehört, mein Eigentum ist, verändert sich
dessen Valenz zum Positiven
Lernpsychologische Erklärung
- Phänomen der Eigengruppenfavorisierung und des
impliziten Selbstwerts (alles, was ich mit mir verbinde,
schätze ich höher ein)
Welche Implikationen ergeben sich durch die
Forschung zur EK für eine effiziente Gestaltung
von Werbung?
• Botschaften werden eher akzeptiert, wenn sie von Sympathieträger
vermittelt werden
• Markenprodukte sollten immer mit positivem US gekoppelt
präsentiert werden
• Werbung sollte so vermittelt werden, dass „mere-ownersip“ auftritt
 wenn ich bestimmte Kundengruppe ansprechen will, muss ich
auch bestimmte Reize einsetzen
• Brand-Extension: Mercedes verkauft Uhren
• Bessere Effekte unter Ablenkung (durch z.B. Werbestreifen am
Rand, Aktienkurse etc.)
Risiken:
-
ist Produkt einmal an US gekoppelt und ändert sich dessen
Bewertung aufgrund aktueller Ereignisse, dann wird dies sofort aufs
Produkt übertragen
Respondentes und operantes
Verhalten
Respondentes Verhalten




Lernmechanismus der KK
stimulusbezogen
unwillkürlich
KK ist die erfahrungsbedingte Veränderung in reizbezogenem
Verhalten
Operantes Verhalten




Lernmechanismus der OK
willkürlich, spontan
an Folgen/Konsequenzen orientiert
OK ist die erfahrungsbedingte Veränderung in operantem Verhalten
Welche Annahme liegt dem Versuch der Lernpsychologie
zugrunde, die kausalen Determinanten von “willkürlichem“,
zielgerichtetem Verhalten zu bestimmen?
• einmal gemachte Erfahrungen verändern
Verhaltensweisen in der Zukunft
• nur weil kein offensichtlicher Stimulus da
ist, der vor dem Verhalten auftritt, heißt
das nicht, dass das Verhalten nicht
vorhersagbar ist
• die operante Konditionierung beeinflusst
willkürliches Verhalten
Gesetz des Effekts
„law of effect“ (Thorndike)
 nicht das Verhalten an sich wird wahrscheinlicher,
sondern das situationsspezifische Verhalten
 verschiedene Reaktionen auf dieselbe Situation sind
möglich:
a.) Befriedigung: wird mit der Situation verbunden und
bei erneutem Auftreten der Situation tritt Reaktion wieder
auf (=Verstärkung)
b.) Frustration: schwächt die Assoziation und deshalb
tritt das Verhalten in dieser Situation mit geringerer
Wahrscheinlichkeit wieder auf
Welche Formen der operanten Konditionierung lassen sich
anhand der Valenz der Stimuli und der Wirkung des
Verhaltens in Bezug auf den Stimulus unterscheiden?
positver Stimulus
produziert
pos.
Stimulus/
Befriedigung
Des Willens
Nimmt Stimulus weg/
Frustration d. Willens
Verstärkung
z.B. Lob nach Abwasch
 Verhalten nimmt durch Lernen zu
neg. Bestrafung
z.B. Schoki wegnehmen nach Lügen
 Verhalten nimmt durch Lernen ab
negativer Stimulus
Bestrafung
z.B. Schläge nach Lügen
 Verhalten nimmt durch Lernen ab
neg. Verstärkung
z.B. Aspirin
gegen Kopfweh
 Verhalten nimmt durch Lernen zu
Erläutern Sie das „stop-action“ Prinzip der operanten
Verstärkung. Welche Evidenz spricht für die Wirksamkeit
dieses Prinzips?
Stop-Action-Prinzip
 Stärkung einer Verhaltensweise in dem Moment des
Eintretens der positiven Konsequenz (nach dem
Kontiguitätsprinzip)
Evidenz für Wirksamkeit
 Guthrie & Horton, 1948: Problemkäfig: jedes Verhalten
der Katze, das einige Male verstärkt wurde, dominiert
dann über andere Verhaltensweisen  so entsteht
immer stereotyperes Verhalten, das für „Einfrieren“ der
verstärkten Verhaltensweisen spricht
Schildern Sie Ablauf und Ergebnisse von Skinner’s (1948) klassischem
Experiment zum „abergläubischen Verhalten“.
Welches Prinzip benutzte Skinner zur Erklärung der Ergebnisse?
• Exp.  Tauben in Versuchskammer erhalten
unabhängig von ihrem Verhalten ca. alle 15 s
Getreide  nach einiger Zeit wiederholen 6 der
8 Tauben zwischen den Futtergaben ganz
bestimmte Verhaltensweisen, obwohl gar keine
Verhaltensweise für Verstärkung nötig ist (z.B.
Picken auf der Stelle)
• Erklärung  Kontiguitätsprinzip: das Verhalten,
das zufällig im Moment der Verstärkung
(Futtergabe) gezeigt wurde, wird verstärkt und
tritt danach mit größerer Wahrscheinlíchkeit
wieder auf  eigendyn. Verstärkungsprozess
Nennen Sie Untersuchungsergebnisse bzgl. der operanten
Verstärkung, die sich nicht mit dem „stop-action“- Prinzip erklären
lassen. Welche Art der Erklärung für operante Verstärkung wird durch
diese Ergebnisse stattdessen nahe gelegt?
1.
-
Münzinger 1928:
Hohe Variabilität im gelernten Verhalten
Meerschweinchen sollen Hebel drücken, dann bekommen sie Salatblatt
trotz anfängl. Bevorzugung von linker/rechter Pfote oder den Zähnen kommt
kein Verhalten nach dem stop-action-Prinzip vor: alle 3 Verhaltensweisen
treten gleich häufig auf
2.
-
Lashley 1924:
Funktionale Generalisierung bei veränderten Umständen
Ratten müssen plötzlich schwimmen statt laufen, weil Labyrinth geflutet wird
 erreichen problemlos ihr Ziel  anscheinend nicht an mechanische
Muskelabfolgen gebunden
Erklärung:
Gelernt werden evtl. nicht Bewegungen, sondern Effekte
schon einfachste operante Reaktionen weisen ein enormes Maß an
Flexibilität und Anpassung auf
Geben Sie eine lernpsychologische Erklärung für die Entstehung und
Aufrechterhaltung idiosynkratischer Verhaltenseigenheiten, die für den
Verhaltenserfolg gar nicht erforderlich sind. Beziehen Sie Ihre
Erläuterungen auf ein spezifisches Beispiel.
• Idiosynkratische (spezifische, abgergläubige)
Verhaltenseigenheiten entstehen aus persönlichen
Erfahrungen mit Verstärkern
 Z.B. hat das Tragen eines Glücksbringers ein- oder
mehrfach zum Sieg eines Sportlers geführt
 wenn er den Sieg aus persönlichen Motiven damit
verbindet, kann dies auch nachgeahmt werden
 Entsteht evtl. aus Angst vor Niederlage bei Nichttragen
 damit einher geht Vermeidung der Möglichkeit der
Extinktion: man kann ja nie vom Gegenteil überzeugt
werden
Erläutern Sie die Vorgehensweise des „shaping“. Inwiefern wird durch diese
Technik der Anwendungsbereich der operanten Konditionierung für die
Verhaltenssteuerung erweitert? Nennen Sie ein Beispiel, wie man die Technik
des shaping für psychologisch- therapeutische Zwecke einsetzen kann.
Shaping:
 komplexes erwünschtes Verhalten, das noch nicht existiert, wird nach und
nach geformt
 auch nicht spontan gezeigtes, aber gewünschtes Verhalten kann aufgebaut
und anschließend konditioniert werden
 dabei werden Verhaltensweisen in viele Einzelschritte zerlegt, die zusammen
das gewünschte Verhalten ergeben
 einzelne Verhaltensweisen werden durch Reize verstärkt (prompting), bis sie
beherrscht werden
 Verhaltenstherapie mit retardierten Kindern (Sprechen, Sozialverhalten)
 zur Verringerung des Kokainkonsums bei abh. Schwangeren
Prompting:
 Reiz geben, der Wahrscheinlichkeit der Reaktion erhöht
Fading:
 schrittweises Weglassen des Reizes
Was versteht man unter „freien operanten Verfahren“? Nennen Sie ein
Beispiel für ein solches Verfahren. Worin unterscheiden sich diese
freien Verfahren von herkömmlichen Methoden der operanten
Verstärkung und worin besteht der Vorteil der freien Verfahren?
„freie operante Verfahren“
 zur Konditionierung wiederholbarer Reaktionen  deren Analyse erlaubt
kontinuierliche Analyse von Verhaltensintensitäten
Beispiel
 Verhaltensanalyse in der Skinner-Box
 Ratten müssen Hebel drücken, um Futter über Spender zu bekommen, es
gibt Lichter, Lautsprecher und elektrisch geladenes Gitter, auf dem Ratte
sitzt
Unterschiede zu herkömmlichen Verfahren
 Operante Reaktion kann jederzeit auftreten sowie wiederholt auftreten
 es gibt keine einzelnen Durchgänge (Ersparnis)
 Abängige Variable: Reaktionsrate
Vorteile
 Tiere (und Versuchsleiter) ermüden nicht so schnell
 Viel mehr Durchgänge/Tag möglich (Effektivität)
 Man kann jederzeit beobachten und aufzeichnen
Dreifachkontingenz
3 Komponenten der Dreifachkontingenz:
1.
2.
3.
Kontext (Situation, in der Reaktion stattfindet & Stimuli,
die ihr vorausgehen: „diskriminativer Hinweisreiz“)
Reaktion
Stimuli, die der Reaktion folgen (Verstärker)
Hypothetisches Untersuchungsbeispiel:
1.
2.
3.
Über der Taste leuchtet Licht, wenn Futter verfügbar
Taube lernt, auf Taste zu picken
Bekommt Futter als Verstärker, wenn sie 2. gelernt hat
Wo würden Sie größere Schwierigkeiten erwarten, wenn
Sie Prinzipien der operanten Verstärkung in
Alltagssituationen einsetzen wollten: Beim Aufbau oder
bei der Löschung von Verhalten? Warum?
• Schwierigkeiten eher bei der Löschung
von Verhalten, da Verstärker häufig
unbekannt bleiben und man sie so
schlecht kontrollieren kann (man kann ja
den Mensch nicht rund um die Uhr
beobachten)
• Intermittierende Verstärkung ist schwerer
zu löschen als kontinuierliche Verstärkung
Was ist ein sekundärer Verstärker? Geben Sie ein
Beispiel und erläutern Sie,
wie man sekundäre Verstärkung erklärt.
• Sekundäre Verstärker  indirekt wirkende
Verstärker  vorher neutrale Reize erwerben
eine Verstärkungsfunktion durch systematische
Kopplung mit primären Verstärkern
• Z.B. wird Reiz Fernsehen bei Kindern zum
sekundären Verstärker, wenn gekoppelt mit
Verstärker Süßigkeit  Fernseher wird
sekundärer Verstärker
• Primäre Verstärker  biologisch anglegte
Wirkung, benötigen kein spezielles Training, um
effektiv zu sein, z.B. H2O
Was versteht man unter „token reinforcement“? Wie kann
man erklären, dass manche tokens effizientere Verstärker
darstellen als primäre Verstärker?
„token reinforcement“
 systematische materielle Verstärkung durch Zwischenverstärkung
(Überbrückungsfunktion)
 sekundäre Verstärker kündigen zur Motivationsaufrechterhaltung
verschiedene primäre Verstärker an (z.B. Geld, Macht, Status)
 erwünschte Verhaltensweisen werden mit tokens belohnt, die später
gegen andere materielle Verstärker eingetauscht werden können
Können effizienter als manche primären Verstärker sein, weil
 Generalisierte Verstärker (z.B. Geld) glz. auch sekundäre Verstärker
sind, die gleich mehrere Verstärker ankündigen
 Z.B. wenn Schüler ruhig auf Stuhl sitzen bleibt, erhält er 5 Token, die er
sammeln und später eintauschen kann (gegen z.B. Süßes)
 Schimpansen lernen, mit Plastikchips aus Automaten Früchte zu ziehen
und sogar, einen schweren Hebel zu bedienen, um an die Chips zu
kommen
Welche Rolle spielen externe Stimuli bei der Steuerung von
Verhalten? Erläutern Sie jede Funktion anhand eines
Beispiels.
1.
2.
3.
Feedback  sagt uns, ob unser Verhalten richtig oder
falsch war  ich werde Verhalten nur wieder zeigen,
wenn Feedback positiv
Steuerungsfunktion  situative, diskriminative
Hinweisreize signalisieren Verstärkungsmöglichkeiten
(ob wir Verhalten weiterhin zeigen o. nicht), z.B.
Schwatzen i.d. Pause vs. Schwatzen im Unterricht 
Unterricht/Pause = diskriminativer Hinweisreiz, ob
Verhalten gewünscht o. nicht
Überbrückungsfunktion  Tokens  zeigen
übersichtlich, dass Verhalten das richtige ist und wir es
aufrecht erhalten sollen  Bsp.:Token Economy in
Psychiatrie: Tokens für angemessenes Verhalten
/erfüllte Aufgaben  werden mit höherer
Wahrscheinlichkeit erfüllt
Wozu wird „chaining“ eingesetzt? Erläutern Sie die
Standardmethode des „chaining“.
„chaining“
 Aufbau komplexer Verhaltensabfolgen durch Verkettung
von Verhaltensweisen mit Hilfe konditionierter Verstärker
z.B. um Tiere zu dressieren oder mit dem Rauchen
aufzuhören
Standardmethode des „chaining“
 erlerntes Verhalten = Abfolge v. Verhaltensweisen, wobei
jeder Stimulus in der Mitte 2 Funktionen erfüllt:
a.) verstärkt das vorher gezeigte Verhalten
b.) steuert das danach gezeigte Verhalten (Hinweisreiz)
 um komplexe Verhaltensweisen aufzubauen, muss man die
Verhaltensweisen, die zum Ziel führen, mithilfe einzeln
konditionierter Verstärker und Hinweisreize verketten
Wie geht man bei der Rückwärtsverkettung
und bei Vorwärtsverkettung vor?
Rückwärtsverkettung  Tier lernt zuerst die letzte Aufgabe i.d.
Handlungskette, z.B. den Hebel zu drücken, um Futter zu
bekommen  dann vorletzte Aufgabe, z.B. zum Hebel zu rennen,
um ihn zu drücken  stufenweise bis zur 1. Sequenz durcharbeiten
 weil mittlerer Stimulus jeweils den zurückliegenden Stimulus
verstärkt und den davorliegenden steuert, lernt Tier die Abfolge
zusammen zu setzen  zur Hilfe muss man bei manchen Schritten
Futter als Verstärker einsetzen, bis das jeweilige Verhalten etabliert
ist
Vorwärtsverkettung  Tier lernt zuerst die 1. Verhaltensweise und wird
nach jedem gelernten Schritt mit einem Zwischenverstärker belohnt
 dauert länger, da dieser Zwischenverstärker immer wieder
weggenommen werden muss  schwerer zu etablieren, da der
vorhergehende Reiz (diskriminativer Reiz mit Steuerungsfunktion)
fehlt
Nennen Sie Beispiele, bei denen die operante
Verstärkung an ihre Grenzen stößt.
Wie lässt sich dieses Scheitern erklären?
„the misbehavior of organisms“
 erwünschte Verhaltensweisen werden nach anfängl. Erfolgen durch
unnötiges, verstärktes Verhalten ersetzt
 z.B. lässt Schwein die Münzen auf dem Weg zum Sparschwein
fallen und verbuddelt sie; Waschbär gibt Münzen nicht mehr her,
sondern reibt sie
erklärt durch „Instinctive drift“
 mit zunehmender Erfahrung weicht die gezeigte Leistung des
Versuchstieres von verstärktem Verhalten ab und stattdessen treten
instinktive Verhaltensweisen auf
 speziestypische explorative und/oder appetitive Verhaltensweisen
verdrängen gelerntes Verhalten
Da operante Verstärkung auf biologisch angelegtem
Verhaltensrepertoire basiert und einwirkt, ist es auch biologisch
beschränkt
Schildern Sie den Aufbau und die Ergebnisse der
klassischen Untersuchungen
von Brown & Jenkins (1968) zum sog. „autoshaping“.
- Taube lernt in Skinnerbox aus einem
Futterspender zu fressen
- Lichtfeld zeigt den Verstärker vorher an (Futter):
die Taube pickt darauf, obwohl nicht nötig, um
Verstärker zu bekommen
- Ist das Picken ein sich selbst verstärkender
Aberglaube? widerlegt (Rachlin)
- entspricht eher der klass.Konditionierung: CS
Licht  US Futter  CR Picken (weil Licht mit
Futter kombiniert auftritt, kombiniert es auch die
Taube)- (widerlegt von Williams & Williams)
Wie wurde das Phänomen des „autoshaping“ ursprünglich
erklärt? Durch welche Untersuchungsergebnisse konnte
gezeigt werden, dass diese Erklärung unzutreffend ist?
• ursprünglich durch abergläubisches Verhalten erklärt 
Taube pickt sowieso häufig, evtl. pickte sie zufällig in
dem Moment, in dem Licht an war und Futter kam 
oder schaute zufällig auf Licht…
• widerlegt von
• a.) Rachlin (1969)  fotografierte Tauben im Moment
der Verstärkung und sah keine Neigung, der Taste näher
zu kommen: im Gegenteil schaute Taube sogar in
andere Richtung  keine systematische Annäherung
• Theorie der KK widerlegt von
b.) Williams & Williams (1969)  Autoshaping findet selbst
dann statt, wenn Picken systematisch nicht verstärkt
wird  sogar, wenn nie Futter folgte, verstärkte Taube
das Picken auf das Licht
„Humphrey´s Paradox“
- je seltener verstärkt wird, desto höher wird
Löschungsresistenz (desto kleiner die Wahrscheinlichkeit,
dass Verbindung gelöscht werden kann)
- paradox, da es Häufigkeitsprinzip verletzt: warum soll
Reaktion, die nur manchmal verstärkt wird, schwerer zu
löschen sein als eine, die permanent verstärkt wird?
 partial reinforcement effect
- geht mit flachem Löschungsgradienten einher
- erklärbar mit Diskriminationshypothese (Mowres & Jones,
1945)  bei seltener Verstärkung ist eine Umstellung auf
Löschung vom Organismus nur schwer zu erkennen (z.B.
defekter Getränkeautomat vs. defekter
Glücksspielautomat)
Nennen Sie ein Alltagsbeispiel für die
Aufrechterhaltung von Verhalten durch
intermittierende Verstärkung.
- z.B. Lottospiel: jede Woche gebe ich
Lottoschein ab, aber nur äußerst selten
wird mein Verhalten positiv verstärkt
- d.h. mein Verhalten, Lotto zu spielen ist
schwerer zu löschen als z.B. mir die Haare
zu kämmen, wo ich durch einen Blick in
den Spiegel belohnt werde 
Erläutern Sie die 4 grundlegenden Verstärkerpläne. Geben
Sie jeweils eine Definition der Terminologie und nennen Sie
ein Untersuchungs- oder Alltagsbeispiel.
1. Fester Quotenplan (Fixed Ratio, FR)

Verstärkung nach jeder n-ten Reaktion, z.B. FR-10: jede 10.Reaktion wird verstärkt  z.B.
Akkordarbeit

kontiniuierliche Verstärkung: kurze Pausen nach Verstärkergabe, hohe Reaktionsrate

Kostenintensiv, da viele Verstärker nötig, dafür schnelles Lernen
2. Variabler Quotenplan (Variable Ratio, VR)

n variiert zufällig um einen Mittelwert, z.B. VR-10 =: Reaktionen um 10. Reaktion werden
verstärkt  z.B. Spieler am Spielautomaten

Partielle Verstärkung: keine Pausen, nach Verstärkergabe hohe Reaktionsrate
3. Fester Intervallplan (Fixed Interval, FI)

Zeitintervall ist auf bestimmten Wert festgelegt, z.B. FI-10: 10 s nach einer Verstärkung
wird der 1. Verstärker bereit gestellt und nach der ersten, dann folgenden Reaktion
verabreicht  Bsp. So lernen die meisten

Schnelle Reaktionen nur, wenn sich Zeit der Verstärkung nähert, Abfall nach Belohnung
4. Variabler Intervallplan (Variable Interval, VI)

Intervall variiert zufällig um einen Mittelwert, z.B.VI-10: nach der letzten Verstärkung wird
Verstärker erst wieder in Zeitintervallen um 10 s herum bereit gestellt, Bsp. Menschen, die
nach der Post sehen, wenn ca. die Zeit dafür ist

ziemlich regelmäßige Reaktionen, langsam, aber beständig (so müsste man lernen)
Beschreiben Sie die charakteristischen Kurven der
kumulativen Verhaltenshäufigkeit, die für die vier
Standardverstärkerpläne beobachtet werden.
FR: „stop-and-go“ –Muster:
 nach jedem Verstärker eine Reaktionspause: Nachverstärkungspause
 abrupter Übergang von Pause zu weiteren Reaktionen
 gleich bleibende, hohe Geschwindigkeit der Reaktionen bis zum nächsten
Verstärker
VR:  Reaktionsmuster: schnell & relativ gleichmäßig
 Fehlen langer Nachverstärkungspausen bzw. kleinere Pausen
FI:  typ. Reaktionsmuster: relativ steiler Anstieg, keine Nachverstärkungspause
 aber nach Pause beginnt Versuchstier zunächst recht langsam zu reagieren
 mit wachsendem Intervall reagiert es schneller: Anstieg d.
Reaktionsgeschwindigkeit
 kurz vorm nächsten Verstärker ist Reaktionsgeschwindigkeit recht hoch
VI:  stetige mittlere Reaktionsrate
Nennen Sie verschiedene Hypothesen, um die
Nachverstärkungspause im festen Quotenplan zu erklären.
Durch welche experimentelle Evidenz konnten diese
Hypothesen gestützt bzw. widerlegt werden?
durchschnittliche Länge der Pause nimmt mit
Erhöhung der Quote zu, d.h. je mehr Reaktionen
nötig sind, bis Verstärker kommt, desto mehr
braucht VPn Pause  spricht für Ermüdung und
gegen Sättigung (Akkordarbeit)
Reaktionsrate nimmt im Anschluss an Pause
allmählich ab  spricht für Ermüdung
Pause wird unabhängig von vorhergehender
Quote gemacht, aber abhängig von
bevorstehender Quote  gegen Ermüdung, für
Verstärker-Distanz-Hypothese
Schildern Sie den Aufbau und die Ergebnisse der
Untersuchung von Baum (1993) zum Vergleich der
Reaktionshäufigkeit in VI- und VR –Plänen.
Aufbau:
- Tauben werden Variable Intervallpläne (Intervall variiert
zufällig um einen Mittelwert) und Variable Quotenpläne
(n variiert zufällig um einen Mittelwert), gezeigt
- Verstärkungsrate variiert von 20 – 1000 Verstärker/h
Ergebnis:
- reagieren bei VR-Plänen durchschnittlich schneller (auch
wenn mit der gleichen Verstärkerrate getestet wird)
- Tendenz, dass Unterschiede zwischen VR und VI bei
hohen Verstärkungsraten verschwinden
Erklären Sie die Unterschiede in der Verhaltenshäufigkeit
bei VR- und VI- Plänen mithilfe der „Interresponse Time
Reinforcement“ Theorie und mit der „Response- Reinforcer
Correlation“ Theorie.
Interresponse Time Reinforcement Theory
 interresponse time = Zeit zw. 2 aufeinanderfolgenden Reaktionen
 molekulare Theorie (bezieht sich auf Zeitspanne von < als 1 min)
 Reaktionsraten bei VI-Plänen sind langsamer, weil lange IRT´s öfter
verstärkt werden
 mit Zeit, die zwischen 2 Reaktionen vergeht, steigt die
Wahrscheinlichkeit, dass die VI-Uhr stoppt und einen Verstärker
bereitstellt
 bei VR-Plan spielt Zeit keine Rolle: Gabe von Verstärkern hängt nur von
Zahl der Reaktionen ab  es werden also keine langen Pausen selektiv
verstärkt
 Tendenz, dass Reaktionen in Blöcken von kurz aufeinanderfolgenden
Reaktionen auftreten erhöht die Wahrscheinlichkeit, dass Reaktionen mit
kurzem Intervall eher verstärkt werden
Response-Reinforcer-CorrelationTheory
 betont „globalere“ Beziehungen zwischen Reaktion &
Verstärker, nämlich zwischen durchschnittlicher
Reaktionsrate und Gesamtverstärkungsrate
 im VR-Plan ist die Beziehung zwischen Reaktionsrate und
Gesamtverstärkungsrate linear
 Im VI-Plan nicht: egal, wie schnell man reagiert, man kann
dennoch nicht mehr als die festgelegte Anzahl von
Verstärkern/Zeiteinheit bekommen
 Verstärkungsrate sinkt bei sehr niedrigen Reaktionsraten,
weil VI-Uhr manchmal angehalten wird, wenn Verstärker
bereit gestellt worden ist und setzt erst wieder ein,
nachdem man reagiert und den Verstärker erhalten hat
 solange man mit mäßiger Geschwindigkeit reagiert, erwirbt
man fast alle möglichen Verstärker pro Zeiteinheit
Negative Verstärkung
Negative Verstärkung
 Frequenz eines Verhaltens nimmt zu, wenn negativer Stimulus nach Auftreten des
Verhaltens weggenommen wird
 aversiver Reiz hört auf, wenn Verhalten gezeigt (negative reinforcement, avoidance,
escape)
Laborexperiment: Solomon & Wynne (1953):
 Hunde in Zweikammerkäfig, je eine Lampe pro Kammer, mit einem Sprung über die
Trennwand des Käfigs kann Hund vor dem Elektroschock, den er über den
Metallboden erhält, fliehen
 Licht geht in K. 1 aus, nach 10 sec. kommt Schock bis Hund in Kammer 2
gesprungen ist
 nach einigen DG zeigt Hund keine Fluchtreaktion mehr, sondern springt schon
während der 10 s Dunkelheit, d.h. er zeigt eine Vermeidungsreaktion
 Ergebnis: negative Verstärkung: Auftretenswahrscheinlichkeit des Sprungs schon
wahrend der 10 Sekunden nimmt zu, wenn Elektroschocks nach rettendem Sprung
ausbleiben
Alltagsbeispiel:
 Tabletteneinnahme bei Kopfschmerz
Positive und negative Bestrafung
Positive Bestrafung
 wenn einem Verhalten ein unangenehmer Reiz folgt, wird das
Verhalten mit dem Reiz gekoppelt und reduziert so ein erneutes
Wiederauftreten des Verhaltens
 Bsp. Drogen nehmen gekoppelt mit Ohnmachtsanfall führt eher zu
Drogenabstinenz
Negative Bestrafung
 wenn nach einem bestimmten Verhalten ein angenehmer Reiz
entzogen wird, wird das Verhalten mit dem Ausbleiben des Reizes
gekoppelt und reduziert so ein erneutes Wiederauftreten des
Verhaltens
 Bsp. Zu spät nach Hause kommen wird mit mit Taschengeldkürzung
bestraft
Flucht- und Vermeidungsverhalten
Fluchtverhalten
 Reaktion setzt erst nach Beginn des aversiven Reizes ein
 Bsp. Hund springt erst nach Beginn des Elektroschocks über die
Trennwand
Vermeidungsverhalten
 Durch die Reaktion entgeht VPn dem aversiven Reiz
 Bsp. Hund springt schon vor Elektroschock über die Trennwand
Aufrechterhaltung dieser Verhaltensweisen durch negative
Verstärkung: aversiver Reiz wird beendet (Flucht) oder bleibt aus
(Vermeidung), wenn Reaktion ausgeführt wird  Kopplung 
Auftretenswahrscheinlichkeit der Reaktion steigt
Von welchen Faktoren hängt die Effizienz von Bestrafung
ab? Wie sollte effiziente Bestrafung in Alltagskontexten
(Erziehung, Verhaltenstherapie) aussehen?
-
Konsequenz
Intensität
Kontiguität: Unmittelbarkeit
Verhaltensmotivation (wenn hohe Motivation, dann hat Bestrafung
geringere Auswirkung auf Verhalten)
Verfügbarkeit alternativer Verhaltensweisen
Bestrafungsplan (FR-1 am effektivsten)
Bestrafung sollte:
-
Intensiv beginnen und unmittelbar dem Verhalten folgen
mit dem Aufbau eines alternativ erwünschten Verhaltens zur
Erlangung des Verstärkers einhergehen
auf jede unerwünschte Reaktion folgen, also FR-1
Schildern Sie Aufbau und Ergebnisse der beiden
Standardexperimentalparadigmen zur Analyse von
Vermeidungsverhalten.
1.
-
2.
-
-
Flucht-/Vermeidungslernen mit Hinweisreizen – „signalled shock“
(Solomon & Wynne, 1954)
Hunde, die zur Vermeidung des Schocks über Trennwand
springen, wenn nur das Licht ausgeht (Hinweisreiz)
trotz späterem Weglassen des Schocks erscheint
Vermeidungsverhalten  spricht für hohe Löschungsresistenz
des Vermeidungsverhaltens
Unangekündigtes Flucht-/Vermeidungslernen bzw. freie operante
Vermeidung (Sidman, 1953)
Ratte bekommt alle 5 s Schocks, wenn sie nicht einen Hebel
drückt  wenn sie ihn drückt, dann wird der nächste Schock um
30s später kommen
Erg.: die Zeit wird zum Hinweisreiz -> Ratte drückt häufig genug,
um viele Schocks zu vermeiden  dabei wird ihr
Vermeidungsverhalten robuster
Erklären sie Vermeidungsverhalten in den beiden
Standardparadigmen des Vermeidungslernens mithilfe der
Zwei-Faktoren-Theorie.
Zwei-Faktoren-Theorie
 sowohl KK als auch OK sind beteiligt an Vermeidungsreaktion
1.
Klassische Konditionierung  1. Prozess: US Schock  UR
Angst: bei KK wird Angst vom US auf einen CS (Stimulus, der
dem Schock vorausgeht, z.B.Licht)  nach einigen
Widerholungen reagiert VPn mit Angst auf Licht
2.
Operante Konditionierung  2. Prozess: negative Verstärkung
der Vermeidungsreaktion dadurch, dass Beendigung des CS
(Licht aus) die Angst reduziert; aversiver Reiz wird
weggenommen
 Nach dieser Theorie ist Verstärker für eine Vermeidungsreaktion
nicht die Vermeidung des Schocks, sondern die Flucht vor dem
Angstauslösenden CS
Schildern Sie Aufbau und Ergebnis der Untersuchung von Hernstein & Hineline
(1966) zum Vermeidungsverhalten. Welche Theorie des
Vermeidungsverhaltens wird durch diese Untersuchung widerlegt? Welche
Ansätze können das Ergebnis der Untersuchung erklären?
•
•
•
•
•
•
•
Jede Reaktion (Hebeldrücken=) brachte eine Ratte von Plan A (nach 2s erfolgt mit
P=30% Schock) nach Plan B (P=10%)
um Zahl der Schocks gering zu halten, sollte Ratte möglichst oft im 10%-Plan reagieren
wenn im 10%-Plan Schock erfolgte, wechselte Tier wieder in 30%-Plan, bis zum
nächsten Hebeldrücken
Ratten konnten durch Reaktion zwar viele Schocks vermeiden, aber ihre Reaktion bot
auch keine Garantie für eine feste Zeitspanne ohne Schock  drosseln, aber nicht
vermeiden
Zeit o. CS ist nicht mehr zuverlässiger Prädiktor für Auftreten/Ausbleiben des Schocks
Ergebnis: Tier drückt regelmäßig Hebel und lernt irgendwann Vermeidungsverhalten,
obwohl weder Zeit noch äußere CS zuverlässige Schocksignale sind
D.h. das Tier muss einschätzen können, wie hoch die durchschnittl. Schockrate bei
Reaktion bzw. Nichtreaktion ist
 widerlegt 2-Faktor-Theorie
 erklärt Ergebnisse mit der 1-Faktor-Theorie
Wie erklärt man Vermeidungs-verhalten
mit der Ein-Faktor-Theorie?
Ein-Faktor-Theorie /operante Vermeidung
- Je weniger aversive Ereignisse  desto
Vermeidungsverhalten
- nicht die reduzierte Kontingenz, sondern
„schockfreie Phase“ ist der effiziente
Verstärker
Nennen Sie die Kernannahmen der kognitiven Theorie des
Vermeidungsverhaltens. Welche Ergebnisse zum
Vermeidungsverhalten lassen sich nur durch diese Theorie erklären?
Kognitive Theorie des Vermeidungsverhaltens (Seligman & Johnston, 1973)
 Erklärung auf Basis v. Präferenzen, Erwartungen u. Bestätigung / Widerlegung
 P: kein Schock ist besser als Schock
 E1: wenn Reaktion, dann P für Schock niedrig
 E2: wenn keine Reaktion, dann P fur Schock hoch
 Bestätigungen: wenn R ¬Schock, ¬R Schock
 Widerlegung: R Schock, ¬R ¬ Schock
 kann Löschungsresistenz erklären: Tier glaubt, dass wenn R ¬Schock, also
merkt es nicht, dass deshalb kein Schock mehr auftritt, weil es ein
Extinktionsdurchgang ist
 kann Erfolg der Reaktionsblockierung erklären: keine Reaktion  laut
Erwartung des Tieres folgt Schock, aber: ¬R ¬ Schock Erwartung ändert
sich allmählich  Vermeidungsverhalten verschwindet allmählich
 Verhalten ändert sich bei Vermeidungsaufgaben immer dann, wenn eine
Diskrepanz zw. Erwartung & Realität besteht
Erläutern Sie den Begriff der spezies-spezifischen Defensiv-Reaktionen
(SSDR). Welche Implikationen ergeben sich auf der Basis der
biologischen Theorie für die Allgemeingültigkeit von
Vermeidungsverhalten?
spezies-spezifische Defensiv-Reaktion (SSDR)
 sehr wirksame angeborene Verteidigungsreaktionen, die auftreten,
wenn Tier einem neuen oder plötzlichen Reiz begegnet
Implikationen:
 in Laboruntersuchungen des Vermeidungsverhaltens werden
diejenigen Verhaltesweisen schneller gelernt, die dem natürlichen
Vermeidungsverhalten am ähnlichsten sind
 hängt auch von der Art des Verstärkers ab: natürliche Reaktion bei
Futter als Verstärker ≠ Reaktion bei Schocks als Verstärker
 SSDRs werden leicht als Vermeidungsverhalten erworben, andere
Verhaltensweisen lassen sich nur sehr mühsam aufbauen
Warum ist es häufig so schwierig, in
Alltagssituationen zu erkennen, dass ein
Verhalten durch Vermeidung motiviert ist?
• weil nicht sichtbar: wir sehen weder Anlass
noch Konsequenz (zumindest bei gutem
Vermeiden sieht man Konsequenz nicht
(siehe: Hund vermeidet Schock 
bekommt keinen Schock)
Erklären Sie das klassische yoked-control Design der
Hilflosigkeitsforschung. Welcher Erklärungsansatz kann hiermit
ausgeschlossen werden? Was ist demnach der zentrale Wirkfaktor
beim so genannten Hilflosigkeitstraining?
yoked-control-design
 3 Ratten in getrennten Käfigen mit Laufrädern → Ratte 1 keine
Schocks (control), Ratte 2 kann Schocks vermeiden indem sie Laufrad
lauft & Ratte 3 kann Schocks nicht durch Laufen in Laufrad vermeiden
 Ratte 2 und 3 haben gleiche Anzahl an Schocks mit gleicher Intensität
bekommen, nur dass Ratte 2 durch Laufrad die Schocks abstellen
konnte und das glz. für Ratte 3 die Schocks aufhörten → Ratte 3 war
somit v. Tier in Käfig 2 abhängig und hatte keinen Einfluss auf die
Schocks (wusste aber nichts von Ratte 2)
 in anschließender Vermeidungsprozedur lernt Ratte 2 schneller das
Vermeidungsverhalten als Ratte 3, weil Ratte 3 glaubt, sie kann
Schocks nicht beeinflussen
 Vermeidungsverhalten nicht von Menge o. Intensität des aversiven
Stimulus abhängig
 zentraler Wirkfaktor: ob Ratte vorher die Möglichkeit hatte, Flucht- o.
Vermeidungsverhalten zu lernen: Kontrolle über Vermeidungsverhalten
Was versteht man unter Generalisierungseffekten bei der gelernten
Hilflosigkeit? Schildern Sie zur Erklärung die klassischen Studien von
Hiroto & Seligman (1975).
I.
Phase: Studentengruppe 1: wurden laute Gerausche präsentiert, die sie
nicht vermeiden konnten
Studentengruppe 2: wurden keine Gerausche präsentiert
bzw. konnten Töne durch Tastendruck kontrollieren
II.
Phase: Studenten sollten Anagramme lösen
Ergebnisse
 1. Gruppe lernt viel langsamer, gibt schneller auf, scheint sich nicht so viel
zuzutrauen, nach vielen Durchgängen erst langsame Fortschritte
Kontrollverlust als Ursache fur ein globales Motivationsdefizit?
frühere Erfahrungen mit nicht kontrollierbaren aversiven Ereignissen
erzeugt Gefühl der Hilflosigkeit, das sich auf andere Situationen uberträgt
Ähnliche Symptome: Passivität, wenig Interesse an soz. Interaktion,
Appetitlosigkeit etc.
Therapieansätze bei Depressionen
nach der Hilflosigkeitstheorie
• Neue Kontrollerfahrungen schaffen
• Änderungen von alten Attributionen
mangelnder Kontrolle
Schildern Sie die bahnbrechende Untersuchung von Tolman & Honzik
(1930) zum latenten Lernen und deren Ergebnisse. Welche wichtige
Implikation lässt sich aus dieser Untersuchung für den Wirkungsbereich
der operanten Konditionierung ableiten?
Aufbau:
- 3 Gruppen Ratten, 17 Durchgänge, 1 /Tag in Labyrinth mit 14 Abzweigungen
- 1. Gruppe: Kontrollgruppe: keine Verstärker: nie gefüttert, wenn Ratte an Ziel kommt
- 2. Gruppe: immer Futter als Verstärker in Zielkammer
- 3. Gruppe: bis 11. Durchgang kein Verstärker, dann immer Verstärker: Futter
Ergebnis:
- 1. Gruppe: Fehler sinken gering, pendeln sich bei ca. 7 pro Durchgang ein
- 2.Gruppe: Fehler sinken stark & relativ schnell: typische Lernkurve, ca.3 Fehler/Durchgang
- 3. Gruppe: zuerst wie in 1.Gruppe, ab 12. Durchgang schnell sogar besser als 2.Gruppe
(bei 11.Durchgang wussten Ratten ja noch nicht, dass es am Ziel Futter gibt)
 Labyrinthlernen ohne Belohnung führt zu dramatischem Leistungszuwachs unmittelbar
nach Einführung von Verstärkung
Implikationen:
- Lernen hängt von der Art des Verstärkers ab, bzw. davon, ob Verstärker verabreicht wird:
Erwartung bzgl. des Verstärkers
- Tiere lernen auch ohne Verstärker, sie sind nur nicht motiviert, zu zeigen, was sie gelernt
haben, wenn sie keinen Verstärker erhalten
Bandura (1965): Untersuchung zum Beobachtungslernen: welches
Ergebnis belegt den Effekt der stellvertretenden Verstärkung? Woran
kann man erkennen, dass auch ohne stellvertretende Verstärkung
gelernt wurde?
•
•
Lernen ohne eigenes Verhalten und mit stellvertretender Verstärkung
Kinder (3,5 - 6 Jahre) beobachten Modell, das aggressives Verhalten gegenüber Puppe zeigt (5
minütiger Film).
Konsequenzen d. Modellverhaltens:
– 1. Gruppe beobachtet, wie aggressives Verhalten belohnt wird
– 2.Gruppe, wie es bestraft wird
– 3. Gruppe sieht weder das eine noch das andere
 Kindern wird dann die Gelegenheit gegeben, in einem anderen Raum mit derselben Puppe zu
spielen
 Gruppe I ebenfalls aggressiv mit der Puppe
 Gruppe II eher zurückhaltend
– klare Effekte der Belohnung des Modells
- falls aber Kinder aufgefordert werden, das Verhalten zu zeigen („mit Anreiz“), können dies alle
 d.h. das Verhalten wurde gelernt (Kompetenz), aber nicht immer gezeigt (Performanz)
 nach Bandura Modelllernen als Lernprinzip gleichbedeutend mit der klassischen und der
operanten Konditionierung
Kontrastieren sie die Begriffe Performanz und Lernen
mithilfe Banduras Imitationstheorie. Was wird unmittelbar
durch Verstärkung reguliert?
Lernen vs. Performanz (Ausführungsphase)
1.Aufmerksamkeit
2.Gedächtnis
3.Motorische Reproduktion
4. Motivation
1. – 3. sind für Lernen nötig
für Performanz ist zusätzlich 4. nötig
 Verstärker reguliert Motivation u. Performanz
Inwiefern ist die naive Verhaltenserklärung durch das
Konzept der Verstärkung zirkulär? Wie kann man das
Zirkularitätsproblem in den Griff bekommen?
„Verstärker“ = Stimulus, der künftig die Auftretenswahrscheinlichkeit
des Verhaltens, auf das er folgt, erhöht
Zirkelschluss:
 Stimulus wird Verstärker genannt, weil er ein Verhalten verstärkt und
es wird angenommen, dass er das Verhalten verstärkt, weil er ein
Verstärker ist
- in dieser Definition ist kein Vorhersagewert, -element inbegriffen
Lösung :
 unabhängige Kriterien dafür aufstellen, welche Stimuli Verstärker
darstellen und welche nicht
 Finden einer Regel, die uns im Voraus sagt, ob ein Stimulus als
Verstärker wirkt (Regel, die neue, überprüfbare Vorhersagen
erlaubt)
 valides Konzept: Prinzip der Reaktionsdeprivation (= besser als
Bedürfnis- und Triebreduktion, besser als Transsituationalitatsprinzip & besser als Premack’sches Prinzip)
Verstärkung als Bedürfnisreduktion und als
Triebreduktion: warum als allg.
Verstärkungstheorien ungeeignet?
Bedürfnisreduktion (Hull, 1943)
 Primäre Verstärker = Stimuli, die biologische Bedürfnisse reduzieren
 Aber: es gibt Verstärker, die kein notwendiges biolog. Bedürfnis
reduzieren (Saccharin, Sex)
 Biolog. Notwendigkeiten ohne Verstärkungswirkung (Vitamin B1)
Triebreduktion (Miller, 1948)
 starke Stimulation (Trieb) ist aversiv, Reduktion der Stimulation
(Trieb) ist Verstärker
 Aber: –nicht jede Stimulusreduktion wirkt verstärkend (Senkung der
Temperatur auf -18 Grad)
– Verstärker, die Stimulation erhöhen (Spielzeug) können schlecht
aversiv sein
Transsituationalitätsprinzip der
Verstärkung (Meehl)
- Prinzip besagt, dass ein Stimulus, der in
einer Situation als Verstärker fungiert,
auch in anderen Situationen ein
Verstärker ist
- z.B.: gesüßtes H2O für Ratte in
Experiment verstärkt Verhalten im Laufrad,
sollte aber auch in einem anderen
Experiment als Verstärker fungieren
Erläutern Sie die Begriffe der Verstärkung und Bestrafung
mittels des Premack’schen Prinzips. Schildern Sie eine
Untersuchung von Premack, mit der die Unzulänglichkeit
des Transsituationalitätsprinzips nachgewiesen wurde.
Untersuchung
I. Phase: Affen dürfen verschiedene Dinge frei ausüben:
a.) Hebeldrücken: Wahrscheinlichkeit hoch
b) Tür offnen: Wahrscheinlichkeit mittel
c.) Kolben ziehen: Wahrschinlichkeit niedrig
II. Phase: Paare von Gegenständen präsentiert: 1.Gegenstand als „operante Reaktion“,
2. Gegenstand als „Verstärker
 man konnte nur an 2.Gegenstand gelangen, wenn erste Reaktion ausgeführt worden war
Ergebnisse: - Hebel diente als Verstärker für Tür offnen und Kolben ziehen
- Türöffnen diente als Verstärker für Kolben ziehen, aber nicht für Hebel
- Kolben diente für keine Verhaltensweise als Verstärker
Premacks Prinzip bestätigt, Transsituationalitätsprinzip widerlegt:
 „Tür offnen“ ist nicht in allen Situationen ein Verstärker
Premack´s Prinzip
Premacks Prinzip:
- Methode der Verstärkung: Kontingenz zwischen zwei
Verhaltensweisen
- Verhalten mit höherer Auftretenswahrscheinlichkeit
verstärkt Verhalten mit geringerer
Bestrafung
 Verhalten mit geringerer Auftretenswahrscheinlichkeit
dient als Bestrafung für Verhalten, das mit höherer
Wahrscheinlichkeit auftritt
Verstärker = Kontingenz zwischen zwei Verhaltensweisen