Was ist Gegenstand der Lernpsychologie? -untersucht Lernen und Erlernen allgemeiner Mechanismen der Verhaltensänderung - sucht nach Regeln und Gesetzmäßigkeiten, wie sich Wissen und Verhalten durch Erfahrung ändert Kritik am Introspektionismus • logisches/ wissenschaftstheoret.Kritik: man kann mit geistigem Prozess schlecht einen geistigen Prozess untersuchen • muss intensiv trainiert werden • bleibt immer individuell, jeder hat andere Innensicht widersprüchliche Ergebnisse • schwammige, unklare Festlegung der Begriffe • schlechte Verallgemeinerbarkeit • Verhalten ist immer auch Reaktion auf Umwelt und sollte daher nicht nur intrapsychisch erklärt werden • unbewusst ablaufende Vorgänge sind so nicht untersuchbar S-R-Behaviorismus: Ziele - Verhalten (Reaktion) auf bestimmte Umweltbedingungen (Stimuli) soll beobachtet, vorhergesagt & kontrolliert werden können • Es werden allgemeine Regeln für S-RVerbindungen aufgestellt S-R-Behaviorismus: Methodik • Anti-introspektionistisch, lehnen mentale Konzepte ab • Psychologie = Naturwissenschaft überprüft nur nachweisbare Fakten • Datenbasis sind Ereignisse, die man beobachten kann (durch Tierversuche, dann auf Mensch übertragen) S-O-R- Behaviorismus / Neobehaviorismus • Stimulus und Reaktion stehen nicht immer in simplem Zusammenhang es sollten auch Variablen mit einbezogen werden, die nicht direkt beobachtbar sind • O-Variablen: innerorganismische, zwischen S und R vermittelnde Variablen (z.B. Motiv, Emotion) • z.B. Zeit ohne H2O (S) Durst (O) Häufigkeit des Hebeldrückens (R) • Es werden möglichst viele beobachtbare Daten verwendet und möglichst wenige O-Variablen • O-Variablen müssen durch Operationalisierung in klare Zusammenhänge mit beobachtbaren Daten gebracht werden (z.B. Angst: Fluchtreaktion) • Vorläufer der heutigen kognitiven Psychologie, da mentale Konzepte in der Theoriebildung benutzt werden Sinn der Einführung der mentalen O-Variable • O-Variablen können Theorien vereinfachen, da weniger Wirkungsbeziehungen zwischen den einzelnen Variablen erklärt werden müssen • Stunden ohne Wasser, trockenes Futter, Injektion v. Salzlösung Durst tolerierte Chininmenge, Häufigkeit des Hebeldrückens, konsumierte H2O-Menge Radikaler Behaviorismus nach Skinner • Verhalten ist abhängig von 3 Einflüssen: • 1. Phylogenese Organismen sind Selektionsprozessen durch ihre Umwelt ausgesetzt das am besten adaptierte Verhalten besteht weiter • 2. Ontogenese Fähigkeit, im Laufe des Lebens auf veränderte Umweltbedingungen mit verändertem Verhalten zu reagieren Konsequenz aus Phylogenese • 3. Soziogenese Tradierung gemeinschaftl. Verhaltensregeln: Kultur als Umweltadaptation einer Gruppe • Verhalten kann auf alle Verhaltensebenen bezogen analysiert werden (z.B. auch Sprechen, Denken, Entscheiden) Radikaler Behaviorismus: Ziele • Erkennen allgemeiner Gesetze/Regeln der Verhaltens-modifikation • konsequenter Verzicht auf mentale Konzepte in der Theoriebildung • Ethische Implikationen: Freiheit, Würde und Moral als kulturelle Anpassungsleistungen • Ethische Implikationen: Relativierung durch übergreifende biolog. Perspektive • Ethische Implikationen: Optimierung von Adaptivität, Vermeidung von Leid Tierversuche in der Forschung • Pro: Tiere sind leichter verfügbar, billiger und nehmen an allen Versuchen konsequent teil • Man kann ihre Vorerfahrungen besser einbeziehen • Geringere ethische Bedenken • Typisch menschliche Störeffekt (z.B Placebo-Effekt) werden ausgeschalten • Prinzipielle Ähnlichkeit zum Menschen bei geringerer Komplexität • Contra: eingeschränktes Verhaltensrepertoire (kein Sprechen, Lesen, Problemlösen) • qualitativer Unterschied zum menschlichen Verhalten • ethische Bedenken Impliziert die Suche nach allgemeinen Kausalgesetzen des Lernens ein deterministisches Weltbild? - Determinismus: es gibt keinen freien Willen, selbst unser Verhalten ist festgelegt, Welt komplett durch Naturgesetze determiniert – Psychologie befindet sich im Mittel zwischen den Extremen: es gibt geltende Kausalgesetze, aber nicht immer und überall, sondern mit gewisser Wahrscheinlichkeit – Kausalgesetze gelten nur unter best. Bedingungen, d.h. sie sind nicht zwingend impliziert kein det. Weltbild – Verhalten wird durch Gründe (nicht zwingend) erklärt, nicht durch Ursachen (zwingend, physikal. Natur) Psychologie spricht von Tendenzen und Trends, nicht von zwingenden Vorhersagen Habituation - einfachste, nicht-assoziative Form des Lernens, vglb. mit Gewöhnung – ein Reiz, der immer wieder wiederholt wird, ohne dabei Folgen am Individuum zu hinterlassen, führt dazu, das das betroffene Individuum immer weniger intensiv auf diesen Stimulus reagiert (z.B. Schreckreaktion) – Exp. 1: Marlin und Müller Ratte in Stabilimeter-Käfig platziert. Wenn sie sich erschreckt, bewegt sich Boden. Führt zu Erzeugung von Strom wenn nun ein lauter Ton in regelmäßigen Abständen präsentiert wird, nimmt Schreckreaktion immer mehr ab – Exp. 2: Dielentherg und McGregor Ratten werden mit einem nach Katze riechendem Halsband konfrontiert verstecken sich bei mehrmaliger Wiederholung habituieren sie und verstecken sich nicht mehr Geht Habituation auf Lernprozesse zurück? Wieso? - Ausschaltung von Alterativerklärungen: Erschöpfung, Ermüdung. Adaptation Dielentherg & McGregor zeigten, dass Ratten (habituiert auf Katzengeruch) gleich hohe Fluchtreaktion wie anfangs zeigten, wenn sie mit einem neuen Stimulus (Bild einer Katze) stimuliert werden schließt Erschöpfung aus – Marlin & Müller zeigten, dass weder Ermüdung noch Adaptation in Frage kommen falls adaptatiert, hätte Ratte den Ton immer schlechter gehört dann auch weniger reagiert gegen Ermüdung spricht, dass die Ratte im 2. Durchgang einen „Ersparniseffekt“ zeigt, d.h. dass ihre Fluchtreaktion viel schneller und sehr früh nachlässt –> spricht für Lerneffekt – Habituation ist stimulus-spezifisch: nicht die Reaktion habituiert,sondern die Reaktion als Folge des Stimulus d.h. es sinkt nur die Fähigkeit des Stimulus, die Reaktion auszulösen (nicht die Reaktionsfähigkeit an sich) d.h. dass Stimuluswechsel o. Kombination alter u. neuer Reize zu einer normal- starken Reaktion führen, wie Groves & Thompson feststellen: 2 Gruppen Ratten hören 14 x einen Ton, bis habituiert. Die Exp.Gruppe sieht nun ein Blitzlicht vor dem Ton und reagiert mit Schreck.Kontroll-gruppe sieht kein Blitzlicht vor Ton und reagier nicht mehr mit Schreck. Funktion der Habituation für die adaptive Verhaltenssteuerung – Vermeidung von Ablenkung und Ressourcenvergeudung durch Reaktionen auf irrelevante Reize – Einsparung von Energie, die dann für wichtigere Reize zur Verfügung steht – geringe Habituationsgeschwindigkeit = Prädiktor für Intelligenzdefizit u. Fehlentwicklung Der Coolidge-Effekt – Wechsel des Stimulus führt zu erneut großer Reaktion und durchbricht die Habituation „reinstatement“ – „Wie oft begattet ein Hahn Hühner? – „Dutzende Male am Tag“ --„Immer die gleiche Henne?“ „nein, jedes Mal andere“ – Exp. Schein & Hale, 1974: Tests mit Ochsen, die Kühe begatten sollen Kopulationsbereitschaft lässt nach, wenn immer dieselbe Kuh (Habituation), aber wenn andere Kühe oder anderer Kontext, geht’s doch Analyse basaler Wahrnehmungs- und Diskriminationsleistungen bei Säuglingen oder Tieren – Habituation als Forschungsmethode zur Erfassung von Diskrimationsleistungen i.d. Säuglingsforschung (können nicht reden) – Diskrimination = Fähigkeit, 2 Reize zuverlässig voneinander zu unterscheiden – Studie von Johnson und Aslin 1995: Säuglingen wird wiederholt der auf der linken Seite abgebildete Stimulus gezeigt, bis ihre Orientierungsreaktion durch die Habituation nachlässt. Dann wird mit den beiden Stimuli (ähnlich dem ersten, aber der Balken fehlt, eins ist durchgezogen, eins unterbrochen) der Generalisierungsgrad getestet auf den Stimulus, den die Babies als subjektiv gleich empfinden, reagieren sie mit fortgesetzter Habituation, auf den anderen nicht (Dishabituation) Erg: können schon früh diskriminieren, ob Dinge verdeckt sind oder nicht (OR bei unterbrochenem Balken) Welche Rolle spielen Reizintensität und Vorhersagbarkeit für die Stärke von Habituationseffekten? Merke: Reizintensität: bei sehr lauten, intensiven Tönen ist Habituation schwächer & langsamer Vorhersagbarkeit: je vorhersagbarer & wenig überraschender der Reiz, desto stärker die Habituation • Experiment von Davis & Wagner, 1969: • 4 Gruppen Ratten hören jeweils 750 Töne: 1. Gruppe konstant 120 dB, 2. Gruppe konstant 100 dB, 3. Gruppe aufsteigend 83-118 dB und 4. Gruppe wie Gruppe 3, aber in gemischter Reihenfolge (random- order) • nach 750. Ton wurden alle 4 Gruppen mit 120 dB Ton konfrontiert & Schreckreaktion gemessen • Ergebnisse: - Gruppe 1 erwartete einen 120 dB- Reiz → keine erhöhte Reaktion - Gruppe 3 erwartete ebenfalls lauter werdenden Ton → keine Schockreaktion selbst wenn Töne mit wenig Intensität kontinuierlich gesteigert werden, zeigen sie keine Reaktion auf 120 dB-Ton, da Töne als ähnlich zum vorhergehenden empfunden werden (Generalisierung) = perfekte Habituation - für Gruppe 2 und 4 war 120 dB-Ton unerwartet, nicht vorhersagbar → starke Reaktion (Dishabituation) Schreckreaktion der Gruppe 2 nimmt während ersten 750 Töne wesentlich schneller und stärker ab als bei Gruppe 1 (weil schwächere Habituation bei intensiveren Reizen) Kurz- vs. langfristige Habituation Spontanerholung & Lernersparnis • Dissoziationseffekte in Abhängigkeit vom Interstimulusintervall • kurzfristige Habituation Habituationseffekt steigt schnell an, dauert nur wenige Minuten und verschwindet bereits nach 1 Trainingsdurchgang 2 sec ISI • langfristige Habituation Habituationseffekt steigt langsamer an, bleibt aber länger bestehen (Tage – Wochen), tritt auf bei mehrmals wiederholtem Habituationstraining 16 sec ISI • Spontanerholung erneutes Auftreten der OR bei neuem Training, obwohl bereits vorher habituiert; scheint anfänglich genauso stark zu sein wie beim 1. Lernen, aber • Lernersparnis schon im 2. Durchgang des neuen Trainings lernt Tier schneller, d.h. es habituiert schneller, früher und stärker „Ersparniseffekt“ Untersuchung von Davis (1970) zur Dissoziation kurz- und langfristiger Habituation • 2 Gruppen Ratten werden habituiert auf Töne mit zunehmendem Zeitabstand zwischen den Tönen (ISI): • 1. Gruppe hört 1x 10 Töne im Abstand von 2 s ISI • 2. Gruppe hört 1x 10 Töne im Abstand von 16 s ISI • Messung der Schreckreaktion zeigt, dass Gruppe 1 viel schneller kurzfristig habituiert • nach 1 min. Pause werden dann erneut 10 Töne präsentiert • Messung der Schreckreaktion zeigt, dass 2. Gruppe zwar wesentlich langsamer habituiert hat, dafür aber stärker und langfristiger Überraschungstheorie der Habituation (Wagner) • • • • Ereignis ist überraschend, wenn noch nicht im KZG gespeichert selbstgeneriertes Priming = wird Stimulus präsentiert, wird er im KZG aktiviert Retrieval-generiertes Priming = wird ein mit dem Stimulus assoziierter Stimulus gezeigt , aktiviert er den Stimulus im KZG Keine Überraschung führt zu Habituation kein Assoziationslernen • Exp. Wagner (1976): Ratte verbringt Zeit zwischen Training und Test im Exp.käfig ohne Töne Kontext-Ton-Assoziation wird gelöscht keine langfristige Habituation • Exp. Davis (1970): kurzes ISI führt zu schnellerer Habituation im Training, da so Stimulus permanent im KZG erhalten keine langfristige Habituation, da keine Assoziation zwischen Stimulus und Kontext gebildet wird langes ISI führt zu langsamerer Habituation, Stimulus bleibt nicht im KZG, es kommt zur Assoziationsbildung zw. Stimulus und Kontext • Typischer Verlauf emotionaler Reaktionen und ihrer Veränderung nach häufiger Wiederholung 1. Höhepunkt (intensive Glücks-, Angst- oder Ärgergefühle) 2. Abflachen auf konstantes Niveau 3. Umkippen der Reaktion nach Aussetzen des Reizes 4. Rückkehr zur Ausgangslage bei häufiger Wiederholung des Stimulus wird Verlauf weniger stark ausgeprägt sein Opponent-Process-Theory (Solomon & Corbit, 1974) • Emotionale Reaktionen bestehen aus 2 Prozessen: a-Prozess und b-Prozess • A setzt unmittelbar ein, verharrt am Maximum und hat abruptes Ende; ist für die erste Reaktion verantwortlich und erreicht schnell den Höhepunkt, bleibt dann relativ konstant • B setzt verzögert ein, verharrt am Maximum und klingt allmählich aus; antagonistisch zu A, bedingt „Nachreaktion“ ; wird nur in Verbindung mit A-Prozess in Gang gesetzt, entsteht und vergeht langsamer • Hört Stimulus auf, fällt A auf 0 und B bleibt übrig • Veränderung = Ergebnis einer Zunahme der Stärke des BProzesses • Bei Wdh. tritt B-Prozess schneller ein und erreicht höheres Maximum, lässt nach Aussetzen des Stimulus langsamer nach (während A-Prozess immer gleich bleibt) Empirische Belege für die Opponent-Process-Theory 1. Toleranz & Entzugserscheinungen bei fortgesetztem Drogenkonsum Glücksgefühl als A-Prozess, cold-Turkey als B-Prozess je länger man sie nimmt, desto stärker wird BProzess 2. Church et al., 1966: Reaktionen von Hunden auf Serie von Elektroschocks A-Prozess: Furcht, B-Prozess: Winseln, Freude (dass es aufhört) 3. Epstein, 1967: Veränderung der emotionalen Reaktion bei Fallschirmspringern A: schockartige Angst, B: Euphorie Funktion der b-Prozesse für die Verhaltensregulation • bewirken, dass unsere Emotionen nicht überhand nehmen Balance der Gefühle (nur A wäre Eskalation der Gefühle) • Antagonisten zum A-Prozess: sonst würde unsere Reaktion extrem ausfallen emotionale Extremerlebnisse erschöpfen unsere körperlichen Ressourcen Versuchsablauf bei Pavlov´s Experimenten zur klassischen Konditionierung • • • • • • US = unkonditionierter Stimulus, (Futterpellet) UR = unkonditionierte Reaktion,reflexhaft (Speichelfluss) NS = neutraler Stimulus (Glockenton) OR = Orientierungsreaktion CS = konditionierter Stimulus (wenn NS und US gemeinsam wiederholt werden, wird der NS zum CS, der nun seinerseits eine CR auslöst) CR = konditionierte Reaktion (Speicheln auf Glockenton) • Testreihe an fixierten Hunden verabreichte ihnen US Futterpellets, auf die sie mit UR reflexhaftem Speicheln reagierten um herauszufinden, ob die Tiere auch auf einen NS mit UR Speicheln reagieren würden, wenn dieser wiederholt mit Futterpelletgabe kombiniert würde, ließ er zu jeder Futterpelletgabe einen NS Glockenton erklingen nach genügend Durchgängen reagierten die Hunde auf den Glockenton allein mit Speichelfluss, d.h. sie haben eine assoziative Verbindung hergestellt und der NS ist zum CS geworden Welche Faktoren beeinflussen die Stärke der Konditionierung? 1. 2. 3. 4. 5. Kontiguität zeitliche und örtliche Nähe 2er Reize, hier: US Futter & CS Glockenton kurze Verzögerung v. 1 s führt zu schnellerer und stärkerer Konditionierung sollten nicht gleichzeitig präsentiert werden Kontingenz Vorhersagewert eines CS: P(US/CS) - P(US/ nichtCS) Wahrscheinlichkeit, mit der der US (Futter) nach dem CS (Glocke) während d. Konditionierungsphase auftaucht CS (Glocke) muss valider Prädiktor des Auftretens des US (Futter) sein Salienz des CS je auffälliger und intensiver ein CS (Glockenton), desto stärker die CR (Speichel) Stärke des US je stärker ein US (Futter) desto stärker und schneller die CR Speichel Preparedness am effektivsten wird konditioniert, wenn Stimuli evolutionär relevant sind (nach Seligman) Konditionierte emotionale Reaktion (CER) • • • • • • emotionale Reaktionen werden häufig von bestimmten Stimuli ausgelöst und das normale Verhalten wird unterdrückt Reaktion, die aufgrund eines CS ausgelöst wird, der normalerweise keine solche Reaktion bewirken wurde die reaktionsauslösenden Eigenschaften des Stimulus werden dabei durch Erfahrung erworben da emotionale Reaktionen nicht willkürlich kontrollierbar sind,unterliegen auch sie der klass.Konditionierung schneller Aufbau z.B. löst der Anblick des Uni-HG Angst aus, wenn man Uni mit neg. Klausurerfahrungen assoziiert) Exp Kamin 1968.: Ratten im Exp.käfig hören einen Ton, auf den 15 s später ein Schock folgt glz. Haben sie sie separate Aufgabe, einen Hebel zu drücken, um evtl. gefüttert zu werden wenn nun der Ton (NS) präsentiert wird, unterbrechen Ratten kurz das Hebeldrücken (OR), dann folgt der CS Schock schon nach wenigen Kombinationen nimmt das Hebeldrücken ab, sobald der CS Schock auftritt (d.h. sie verlieren das Interesse an Futter, weil CS negative emotionale Reaktion auslöst) dabei gilt: das Ausmaß, in dem das Hebeldrücken unterbleibt, gibt Auskunft über Stärke der Konditionierung Wie lässt sich konditionierte Verhaltensunterdrückung quantifizieren? • über den Unterdrückungsindex (Q) • Q= • Q= • Q= Verhaltenshäufigkeit unter CS / Verhaltenshäufigkeit unter CS + Verhaltenshäufigkeit unter Nicht-CS 0,5 keine Unterdrückung 0,0 perfekte Unterdrückung • z.B. 10xHebeldrücken unter Schock / 10 x Hebeldrücken unter Schock + 40 x Hebeldrücken unter Nicht-Schock = 10/50 = 0,02 Übliche Prozeduren der Konditionierung 1. 2. 3. 4. 5. Verzögerte Konditionierung CS Ton wird mit zeitl. Abstand vor US Futter präsentiert wenn CS dazu auch noch länger präsentiert wird, findet schnell Konditionierung statt Simultane Konditionierung CS Ton und US Futter werden glz. präsentiert keine Konditionierung, da der CS keine Information besitzt, die über die des US hinausgeht Zeitliche Konditionierung US Futter wird in regelm. Abständen ganz allein präsentiert die im Zwischenintervall verstrichene Zeit dient als CS wenn verschieden, kommt CR Speicheln auch ohne US Futter Rückwärtsgerichtete Konditionierung CS Ton wird erst nach US Futter präsentiert keine Konditionierung, weil CS keinen Informationswert hat fungiert vielmehr als Ankündigung des Endes des US Standard-Paarung kurzer zeitl. Abstand: CS 2s US stärkste und schnellste Konditionierung Wie verändert sich die CR im Verlauf der verzögerten Konditionierung? CS Ton wird mit zeitlichem Abstand vor US Futter präsentiert wenn CS dazu auch noch länger präsentiert wird, findet schnell Konditionierung statt anfangs beginnt CR Speicheln sofort nach CS Ton, später setzt sie später ein, da das Tier gelernt hat, dass zwischen CS und US Pause liegt Verlauf der Konditionierung während der Akquisition • Akquisition = Erwerbsphase, in der eine VPn zum 1. Mal mit der Paarung CS + US konfrontiert wird • Geschwindigkeit des Erwerbs und Stärke der CR sind abhängig von Salienz des CS und von Stärke /Intensität des US • Stärkere Stimuli führen zu schnellerer Konditionierung und damit zu höherer Asymptote • Wahrscheinlichkeit des Auftretens einer CR nimmt in den ersten Durchgängen stark zu und nähert sich dann einem Plateau an (stabiles Maximum) Verlauf der Konditionierung während der Extinktion • Extinktion = Löschung der assoziativ gebildeten CS-USKombination • Voraussetzung für Löschung: entgegen gesetzte Erfahrung, d.h. CS muss mehrmals ohne US auftreten (Zeit allein genügt nicht) • Löschung erfolgt allmählich • dabei nimmt die CR zu Beginn der Extinktionsphase stark ab und schwächst sich gegen Ende immer langsamer ab bis sie vollständig verschwindet • ! an jedem neuen Tag der Extinktion ist die CR zu Beginn noch stärker als am Ende der Extinktionsphase des Vortages (Ursache: Spontanerholung) Was spricht dagegen, dass bei der Extinktion das Lernen rückgängig gemacht wird? • entstandene Assoziationen werden nicht einfach „ausradiert“, da • 1. Spontanerholung an jd. neuem Tag der Extinktionsphase ist CR zu Beginn noch stärker als am Ende des Vortages umso ausgeprägter, je mehr Zeit zwischen 1. und 2. Extinktionsphase liegt (legt nahe, dass CS-US-Assoziation nicht gelöscht ist) • 2. Disinhibition wenn Extinktion bereits so weit fortgeschritten, dass CS Glocke keine CR Speicheln mehr auslöst und nun wenige s vor dem CS ein neuer Stimulus Licht präsentiert wird, kann es sein, dass auch der alte CS Glocke wieder die CR Speicheln auslösen kann (die verhinderte Reaktion (Inhibition) wird wieder erlernt (Disinhibition) • 3. schneller Wiedererwerb und Ersparniseffekt wenn eine VPn eine klass. Konditionierung mit Akquisitionsphase und anschl. Extinktionsphase durchläuft, ist Lernerfolg bei einer weiteren Akquisitionsphase mit denselben Stimuli wesentlich größer Lerntempo wird schneller Was ist ein CS-? • CS- = inhibitorischer CS, konditionierter Inhibitor • CS, der das Auftreten einer CR verhindert oder diese zumindest reduziert • kündigt Ausbleiben des US an Methoden, um einen Stimulus als CS- zu etablieren 1. CS- wird mit bereits etablierten CS+ während der Extinktion präsentiert Assoziation Ton (CS+) –Speicheln (CR) soll gelöscht werden I. CS Ton + CS Licht CR Speichel II. CS Ton + CS Licht CR Speichel weniger III. CS Ton + CS Licht CR Speichel noch weniger durch die Wiederholungen wird CS Licht zum CS-, der voraussagt, dass dem CS Ton kein US Futter mehr folgt 2. conditioned inhibition training : CS+/CS- ohne US präsentieren; dann CS allein mit US präsentieren I. CS Ton + CS Licht ? II. CS Ton + US Futter CR Speichel nach einigen Wdh. ist CS Ton exzitatorisch und CS Licht inhibitorisch Methoden, mit denen man zeigt, dass ein CS zu einem CS- geworden ist 1. Summationstest zeigt, dass ein CS- nicht nur die CR als Reaktion auf einen CS- inhibieren kann, sondern auch die CR auf einen anderen CS verhindern kann, der noch nicht mit ihm kombiniert wurde I. CS1+ (Ton) US (Futter) CR (Speicheln) (CS1 wird etabliert, so dass CS1+ zuverlässig CR auslöst) II. CS2+ (Licht) US (Futter) CR (Speicheln) (CS2+ wird etabliert III. CS1+ (Ton) + CS- (Schock) nichtCR 1. Retardationstest Verzögerungstest: man misst die Zeit, die nötig ist, um aus einem CS+ einen CS- zu machen; wenn der CS vorher ein CS-war, sollte es länger dauern, da ja erst seine inhibitorischen Eigenschaften aufgelöst werden müssen Generalisierungsgradient • Generalisierung = auf 2 verschiedene Stimuli wird mit ähnlichem o. gleichem Verhalten reagiert • Generalisierungsgradient= Kurve, die in einem Koordinatensystem mit x = Teststimuli und y = Frequenz der Reaktion nach Einzeichnung entsteht • Abbild der Generalisierung Welcher Verlauf ist zu erwarten, wenn man von 2 unterschiedlichen Stimuli parallel einen als CS+ und einen als CS- etabliert? • VPn muss erst diskriminieren zwischen CS+ und CS-, d.h. zu erst steigt CR für beide Stimuli an • nach mehreren Durchgängen setzt Diskriminierung ein, d.h. CR steigt bei CS+ und fällt bei CS• ! Gilt nur, wenn beide deutlich unterscheidbar Experimentelle Neurose • entsteht, wenn ein Konflikt zwischen inhibitorischer und exzitatorischer Konditionierung besteht • wenn VP´n CS- von CS+ nicht mehr eindeutig unterscheiden kann, kollabiert das Lernsystem • z.B. wird Hunden ein Kreis als CS+ präsentiert, auf den sie mit US Futter belohnt werden; danach wird ihnen eine Ellipse als CS- gezeigt, auf die sie kein US Futter erhalten wenn nun Ellipse und Kreis immer ähnlicher werden, rasten Hunde aus Furcht vs. Angst ,Phobie • Furcht begründet, nachvollziehbar, rational erfassbar, objektbezogen • Angst diffus, subjektiv: etwas, das Angst auslöst, bekommt u. U. Signalcharakter • Phobie starke situations- o. objektbezogene Ängste, meist unbegründet und rational nicht erklärbar, subjektiv, eigentliche Ursache verschwindet oft hinter furchtbesetztem Objekt zufällige Kopplungen zw. best. Reizen und unangenehmen Zuständen konditionierbar mit schwer zu löschendem Signalcharakter Wenn zufällige Kopplungen zw. best. Reizen und unangenehmen Zuständen für die Entstehung v. Phobien verantwortlich sind, warum verschwinden diese dann nicht von allein durch Extinktion? • Extinktion findet nur statt,wenn derselbe CS in ähnlichem Kontext stattfindet, ohne dabei aber die CR (z.B. Angst) auszulösen • da die meisten Phobiker komplett Situationen meiden, in denen ihre Phobie auftreten könnte, kann auch keine Löschung statt finden • begibt sich ein Phobiker doch in die Situation, bleibt er von vorneherein auf das Negative fixiert (selbsterfüllende Prophezeiungen) Systematische Desensibilisierung nach Wolpe • Konstruierung einer Angsthierarchie mit Abstufungen individuelle Bewältigungskonzepte • Muskelentspannungstraining in Angstsituationen, bis Angst weg ist solange in einer Stufe der Bewältigung bleiben, bis entspannt • Kombination von 1 und 2 in immer höheren Anforderungsstufen Trainingsprogramm zur Reduzierung des Süßigkeitenkonsums • Süßes wird gekoppelt mit aversivem Reiz (z.B. Tabletten, die Übelkeit auslösen, milder: Bestrafung) • Wenn mehrmals wiederholt, wird durch negative CR der Konsum von Süßem gemieden Verhinderung einer globalen Nahrungsmittelaversion nach Chemotherapie • Chemo bewirkt Übelkeit, die mit vorher genossenen Speisen assoziiert wird (konditionierte Geschmacksaversion) • Einführung eines markanten Geschmacksstoffes als CS (der in normalen Lebensmitteln nicht vorkommt) • vor der Chemo einzunehmen verhindert Transfer auf andere Speisen Infektionsschutz in Stressphasen • unter neutralen Umständen wird ein CS mit einem immunaktivierenden US gekoppelt • in Stressphasen reicht dann Gabe des CS aus, um die Wirkung des US hervorzurufen • z.B.: Interferon-Injektion aktiviert & stärkt Immun- system • CS löst bald allein die Immunstärkende Reaktion (jetzt CR) aus und kann Organismus in Stressphasen gegen Infektion schützen Kontingenz und 4 Felder-Tafel • Kontingenz = Vorhersagewert eines CS • Statistisches Wahrscheinlichkeitsmaß, dass 2 bedingte Wahrscheinlichkeiten miteinander verrechnet • Q = P(US/CS) – P(US/nichtCS) • > 0: hohe Vorhersagekraft • = 0: keine Vorhersagekraft (heben sich auf • < 0: niedrige Vorhersagekraft (hemmend) • 4-Felder-Tafel = Kreuztabelle absoluter Häufigkeiten • zur Berechnung konkreter Wahrscheinlichkeiten A=3 B=0 US/CS US/nichtCS C=0 D=? nichtUS/CS nichtUS/nichtC S P(US/CS) = A / A+C P(US/nichtCS) = B / B+D Q = P(US/CS) – P(US/nichtCS) Wie müssen die bedingten Wahrscheinlichkeiten von US/CS bzw.US/nichtCS beschaffen sein,damit exzitatorische bzw. inhibitorische Konditionierung stattfindet? - P(US/CS) > P(US/nichtCS) exzitator. - P(US/CS) < P(US/nichtCS) inhibitor. - P(US/CS) = P(US/nichtCS) keine Kond. Wie lassen sich Kontingenzeffekte von Effekten der Häufigkeit einer CS-US-Paarung experimentell trennen? • • • • • Kontingenz: Wahrscheinlichkeit, mit der der US (Futter) nach dem CS (Glocke) während d. Konditionierungsphase auftaucht Differenz zw. Experimentalrate (bei der der US mit dem CS gekoppelt wird) und Basisrate (bei der der US allein auftritt) (nach Formel) je höher die Basisrate, desto geringer der Grad an Konditionierung es kommt immer dann zu Konditionierung und Lernen, wenn der CS die Wahrscheinlichkeit des Auftretens des US erhöht Gelernt wird also aus der Differenz zwischen Paarung und Nichtpaarung, nicht aus der Häufigkeit der Paarungen Exp. Rescorla(1968) beim Versuch zur Dissoziation von Kontingenz- u. Häufigkeitseffekten wurden 3 Gruppen Ratten gebildet mit I. P(US|CS) = 0.4; II. P (US/CS) 0.2 und III. P(US/CS)= 0,1 Dann wurde Grad der Konditionierung untersucht in Abhängigkeit von der Basisrate P(US|¬CS) es zeigte sich, dass die Konditionierung umso besser war, je größer die positive Differenz P(US|CS) - P(US|¬CS) und somit die Kontingenz Des weiteren fand keine Konditionierung mehr statt, sobald P(US|CS) gleich der Basisrate und somit keine Kontingenz mehr vorhanden war Übererwartungseffekt • Kombination zweier bereits etablierter CS mit dem gleichen US führt zur Abschwächung der CR auf die einzelnen Stimuli • Z.B. I. CS1 (Ton) + CS2(Licht) werden unabhängig voneinander auf den gleichen US (Futter) konditioniert • II. gemeinsame Präsentation von CS1 (Ton) und CS2 (Licht) mit anschl. US (1 Futter) = Übererwartung (eigentlich werden 2 Futterpellets erwartet) • Dadurch erfahren beide CS inhibitorische Konditionierung • Testphase: CS1(Ton) und auch CS2 (Licht) schwächere CR Blockierungseffekt • Kopplung eines neuen CS2 (TON) mit bereits etabliertem CS1 (Licht) bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird • Exp. Kamin (1968): - 2 Gruppen Ratten • 1. DG: - EG - KG • 2. DG: beide CS (Licht) + CS2 (Ton) + US (Schock) CR (Flucht) • 3. DG: - EG - KG CS (Licht) + US (Schock) CR (Flucht) CS2 (Ton) keine CR, da durch CS1 blockiert CS2 (Ton) starke CR Zentrale Ergebnisse gegen die These, dass die Stärke einer CR proportional zur Häufigkeit zeitlich benachbarter CS-US-Paarungen ist 1. 2. 3. 4. Übererwartung Kombination zweier bereits etablierter CS mit dem gleichen US führt zur Abschwächung der CR auf die einzelnen Stimuli entscheidend ist Kontingenz Überraschungseffekt = Stärke der Abweichung von erwartetem Reiz und tatsächlichem Reiz; bestimmt laut Rescorla die Stärke der Konditionierung Überschattung ein CS1 wird in Gegenwart eines salienteren CS2 nicht konditioniert Blockierung Kopplung eines neuen CS2 (TON) mit bereits etabliertem CS1 (Licht) bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird Durch welche Maßnahme lässt sich ein Standard-Blockierungseffekt vermeiden? • Blockierungseffekt: Kopplung eines neuen CS2 mit bereits etabliertem CS1bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird • Vermeidbar, wenn der CS2 zusätzlich zur Information des CS1 noch eine ganz neue Information bringt (z.B einen etwas stärkeren US nach sich zieht) • ein CS2 muss also wiederum überraschend sein und Informationswert besitzen, um nicht blockiert zu werden Formel des Rescorla-WagnerModells (1972) • • • • mathematische Formulierung des Konzepts der Überraschung sagt Ergebnisse der klassischen Konditionierungsverfahren voraus Grundannahme: bei jedem Lerndurchgang kann exzitatorische, inhibitorische oder keine Konditionierung stattfinden 3 Faktoren bestimmen, welche der 3 Konditionierungen stattfindet: – 1. von der VPn erwartete Stärke des US: V – 2. Intensität des US A (kann nicht <0 sein) – 3. Salienz des CS S (0 ≤ S ≤ 1) je salienter ein Reiz, desto stärker die Konditionierung ^ Vcsi = Scsi x (Aj –Σ Vcsi) ^ = Veränderung d.Stärke eines CS bei einem einzigen Konditionierungsdurchgang Σ Vcsi = Summe der US-Erwartungen aller anwesenden CSi Akquisition: das Rescorla-WagnerModell • • I. II. III. immer, wenn Intensität (A) des aktuellen US > als Erwartung des US (V), werden alle Stimuli, die mit US kombiniert werden, exzitatorisch konditioniert Angenommen: S= 0,2 (Intensität des CS) A= 100 (Stärke des US) ^ Vcsi = Scsi ・ (Aj – Σ Vcs) = 0,2 x (100-0) = 20 0, weil Tier nichts erwartet in der Erwerbsphase = 0,2 X (100-20) = 16 = 0,2 x (100 – 36) = 12,8 erkennbar, dass Differenz mit jd. DG kleiner wird asymptotischer Verlauf Konditionierung wird mit jd. DG weniger Extinktion: Rescorla-WagnerModell • Immer, wenn die Intensität des aktuellen US der Erwartung des Individuums entspricht, findet Extinktion statt • S = 0,2 • A = 0 (Stärke des US muss 0 sein, da US ja in der Löschphase weggelassen wird) • Σ Vcs = 90 (muss nah an 100 sein, da das Tier ja US erwartet) • ^ Vcsi = Scsi ・ (Aj – Σ Vcs) = 0,2 x (0-90) = 18 = 0,2 x (0-72) = -14,4 = 0,2 X (0-57,6) = -11,52 Anfangs nimmt Konditionierung stark ab und wird dann immer kleiner Latente Inhibition • Lernverzögerung bei der Konditionierung • wird ein Reiz mehrmals ohne Konsequenz dargeboten, bevor er dann in einer Konditionierungsphase als CS mit einem US gepaart wird, schwächt sich seine Assoziabilität mit dem US ab • dies ist kein Inhibitionsphänomen, weil der CS kein CS- ist, sondern generell in seiner Konditionierbarkeit reduziert ist d.h. der CS sagt nicht voraus, dass der US nicht auftaucht S-S- und S-R-Erklärungen der klassischen Konditionierung • S-S- Erklärung konditionierte Reaktion aufgrund einer Verbindung 2er Reize (direkt) • S-R-Erklärung konditionierte Reaktion aufgrund einer Verbindung zwischen Reiz und Reaktion (indirekt) • 3 Experimentaldesigns zur Unterscheidung: • 1. Sensorische Präkonditionierung (Konorski, 1948) 1. CS1 Glocke kündigt vorab CS2 Summer an: CS1 CS2 2. Lernphase: CS1 und US werden assoziiert: CS1 US CR • 3. Testphase: CS2 kann jetzt CR auslösen wg. Assoziation CS1 - CS2 kommt es zur CR S-S-Assoziationen US- Abwertung /Umwertung 1. CS-US-Verbindung lernen: CS US UR bzw. CR solange paaren, bis auf den CS die CR folgt, ohne dass US nötig ist: CS CR 2. US-Bedeutung ändern, ohne CS zu präsentieren (z.B. bei US Futter: ausgiebig füttern,oder auf Schock habituieren) 3. noch mal: 1. CS US UR • CS CR • US CR • 2. US ¬UR • 3. CS ? x (/ sehr geringe CR) spricht für S-S-Theorie, weil US andere Bedeutung bekommt und so die CR auf den CS auch total verändert wird Konditionierung zweiter Ordnung Phasen 1 und 2 der sensorischen Präkonditionierung, nur vertauscht: • 1. Lernphase auf CS1 : CS1 US1 CR • 2. CS1 +CS2 koppeln (CS2 auch m. CR1 gekoppelt) :CS1 CS2 • 3. CS1 kündigt jetzt anderen US an andere CR: CR2 CS1 US2 CR2 • 4. welche CR löst jetzt CS2 aus? CR1 oder CR2? CR2!: CS2 CR2 spricht für SS und SR Occasion setting • ein Stimulus CS1 beeinflusst die CR auf einen Stimulus CS2 und heißt deshalb Occasion setter, weil er die Bedingung ist, dass die CR auf den CS2 exzitatorisch oder inhibitorisch wird • Studie CS1= Licht CS2 = Ton US= Futter 1. neben dem CS2 Ton wird ein weiterer Stimulus CS1 Licht als Occasion setter präsentiert dabei ist dieser die Bedingung, dass die CR exzitatorisch oder inhibitorisch wird nur, wenn der CS2 Ton mit dem vorangehendem CS1 Licht präsentiert wird, folgt auch der US Futter (wird der CS2 Ton dagegen allein präsentiert, folgt kein US Futter) CS1 bzw. OS hat Schalterfunktion und moduliert den Zusammenhang zwischen CS2 Ton und US Futter 2. 3. Wie kann man ausschließen, dass es die spezifische Kombination von CS und OS ist, die als eigenständiger CS eine CR hervorruft? • Exp. Davidson & Rescorla • OS1 CS1 CR1 o. OS2 CS1 CR1 • OS2 CS2 CR2 o. OS1CS2CR2 • Occasion setter sind austauschbar und verändern dennoch in jedem Fall die CR, d.h. es kann nicht an der spezifischen Kombination eines best. OS mit dem CS liegen Kompensatorische CR - CR, die mit der Anzahl der Wiederholungen des CS in ihrer Stärke abnimmt - Ist das Gegenteil der UR und neigt dazu, diese zu kompensieren - z.B. kontextspezifische Drogentoleranz (Siegel, 1975) Morphium hat abnehmenden analgetischen Effekt Kontext, in dem man es nimmt, wird zum CS d.h. Morphium wirkt nach einiger Zeit im gleichen Kontext nicht mehr Aufhebung des Toleranzeffekts, wenn Droge in neuem Kontext benutzt wird (CS2) z.B. paradoxer Drogentod Wie erklärt man sich, dass nach wiederholter Injektion von Morphium nicht nur dessen analgetische Wirkung nachlässt, sondern dass auch eine Salzwasserinjektion zu einer erhöhten Schmerzempfindlichkeit führt? - Siegel: Exp. mit Ratten auf heißer Herdplatte wenn zu heiß, leckten sie sich die Pfoten - impfte ihnen wiederholt Morphium bis die Ratten die Herdplatte wieder als genauso schmerzhaft wie ohne Morphium empfanden, weil die analgetische Wirkung nachließ - impfte er ihnen statt Morphium Salzlösung, reagierten Ratten erstaunlicherweise mit genauso hoher Schmerzempfindlichkeit - CS: Spritze US: Morphium CR: kompensatorische CR: höhere Schmerzempfindlichkeit - d.h. die Ratten reagierten nicht auf das Morphium, sondern auf den CS Spritze deshalb reagieren sie mit gleich hoher Schmerzempfindlichkeit - Nachweis, dass keine Habituation auf Morphium stattfindet Conditioned Opponent Theory (Schull, 1979) • baut auf Solomon & Corbits Theorie auf, nach denen eine typische emotionale Erfahrung aus a und bProzess besteht • neu: ein b-Prozess wird nicht durch Wiederholung gestärkt oder durch fehlende Wiederholung geschwächt, sondern: Kontext wirkt als CS löst b-Prozess aus, verstärkt ihn wirkt a-Prozess entgegen nur b-Prozesse sind konditionierbar Wann entspricht bei der klass. Konditionierung die CR der UR und wann ist sie eher ihr Gegenteil? • Sometimes opponent theory (Wagner, 1981) • CR ist in manchen Fällen das Gegenteil der UR) und in anderen Fällen ähnelt sie ihr • CR ähnelt UR, wenn CR monophasisch und keine b-Prozesse vorhanden (z.B. Lidschluss: nur a-Prozess, Lid kann sich nur schließen: geht nicht weiter drüber oder drunter) • CR ist Gegenteil von UR, wenn CR biphasisch und b-Prozesse vorhanden (z.B. Reaktion auf Elektroschocks :steigende Herzfrequenz: a steigt und b fällt unter ursprüngl. Rate) Experimenteller Nachweis, dass trotz unterschiedlichen ISI bei der Konditionierung der Geschmacksaversion der CER die gleichen Lerngesetze wirksam sind? • Exp. Baron, Kaufmann, Fazzini CER: Wirkung der Verzögerung zwischen Hebeldrücken und Schock mit zunehmender Verzögerung verhinderte Bestrafung das Hebeldrücken immer weniger, d.h. je länger ISI zwischen Hebeldrücken u. Schock, desto öfter wurde Hebel trotz folgenden Schocks gedrückt • Exp. Andrews, Braveman Geschmacks-Aversions-Lernen: Wirkung der Verzögerung zwischen Aufnahme v. Saccharinlösung und Giftinjektion mit zunehmender Verzögerung verringert Giftgabe die Aufnahme von Saccharinlösung immer weniger, d.h. je länger ISI zwischen Giftgabe und Saccharingabe ist, desto eher tranken die Ratten wieder Saccharin • ähnlicher Verlauf bei unterschiedl. Zeitlicher Skalierung gleiches Lerngesetz • beide entsprechen Prinzip der Kontiguität: je kürzer ISI zwischen Stimulus und aversivem Stimulus, desto stärker die Reaktion Äquipotenzannahme der klassischen Konditionierung • • • CS und US können beliebig miteinander gekoppelt werden gegebener CS ist in allen Kontexten ein gleich guter/schlechter CS nur die unterschiedl. Salienz der jeweiligen CS bedingt unterschiedl. Konditionierung • widerlegt von Garcia und Koelling: 2 Gruppen Ratten A/B: CS1 - Sacharin H2O , CS2 – Audiovis.Signal Gruppe A: US – Gift , Gruppe B: US – Elektroschock 1) Kond-DG: A=> (CS H2O + CS AV) + Gift CR Übelkeit B=> (CS H2O + CS AV) + Schock CR Schmerzen 2. Test-DG: A CS H2O Messung des Wasserkonsums CS AV Messung des Wasserkonsums B CS H2O Messung des Wasserkonsums CS AV Messung des Wasserkonsums Ergebnis: 1) Übelkeit wird eher dem „Futter“ zugeschrieben 2) Schmerzen werden eher „äußeren Umständen“ zugeschrieben ! welcher US benutzt wird, spielt schon eine wichtige Rolle, da es eine biologische Prädisponiertheit gibt Spezies- spezifische Konditionierbarkeit Wilcoxon, Dragoin & Kral (1971) Ratten & Weißschwanzwachteln bekamen blaues, säuerliches H2O mit krankmachendem Stimulus verabreicht • Ratten assoziieren Übelkeit viel eher mit Geschmack, Vögel mit Farbe • Erg. : Ratten lernen säuerliches Wasser zu vermeiden, Vögel lernen säuerliches und blaues Wasser zu vermeiden • Grund: Vögel müssen ihr Futter „sehen“ und auswählen, sonst würde der Anflug nicht lohnen (Nahrungsbeschaffungsverhalten in natürlicher Umwelt), Ratten sollten krankmachendes Futter vermeiden, da es ihre Überlebenschance erhöht: da sie außerdem nachts fressen, verlassen sie sich auf Geruch und Geschmack, nicht auf visuelle Hinweise höhere Löschungsresistenz der Angstkonditionierung (SCR) auf potentiell bedrohliche Stimuli (Spinnen, Schlangen; Öhmanet al., 1985) „Preparedness“ statt Äquipotenz • Seligman (1970) • jede Tierart zeigt durch Evolution und Erfahrung in bestimmten Bereichen schneller eine bestimmte Assoziation auf bestimmte Stimuli • es gibt „vorbereitete Assoziationen“ und „gegenläufig vorbereitete Assoziationen“, d.h. bestimmte Assoziationen lassen sich leichter lernen Ablauf und typisches Ergebnis einer Untersuchung zur evaluativen Konditionierung • nach mehrfacher gemeinsamer Präsentation eines neutralen CS mit einem Valenten US verändert sich die Bewertung des CS in Richtung der Wertigkeit des US • Typische Beisiele Bild-Bild-Paarungen: neutrale Gesichter werden systematisch mit positiven/negativen Gesichtern gepaart in anschl. Testphase werden die neutralen Gesichter z.B. positiver bewertet, wenn sie vorher mit sympathischem Gesicht gepaart wurden Wort-Wort-Paarungen Zeichen-Wort-Paarungen (Diaz et al., 2005) Figur-Wort-Paare (Olson & Fazio, 2001) Aromen-Geschmack/Geruch (Baeyenset al., 1990) Abhängige Variable bei der evaluativen Konditionierung im Gegensatz zur Konditionierung • Abhängige Variable ist der CS selbst, da dessen Qualität je nach Valenz des US (unabhängige Variable) verändert wird • bei der klass. Konditionierung ist die abhängige Variable die Stärke der CR, die durch den CS (unabhängige Variable) beeinflusst wird In welchen Charakteristiken unterscheidet sich die evaluative Konditionierung von der klassischen Konditionierung? Unterschiede zum Klassischen Konditionieren 1. Extinktionsresistenz Valenz d. CS bleibt auch nach Löschung erhalten 2. Kontiguität statt Kontingenz auch ohne Kontingenz möglich dafür zählt Kontiguität von CS und US deshalb sind Simultane u. rückwärts gerichtete Paarung möglich 3. Kein Occasion Setting 4. Bewusstheit der CS-US-Assoziation Aufforderung, auf die CS-USAssoziation bewusst zu achten, verhindert Demand -Effekte (= indirekte Messung durch affektives Priming (Diaz et al., 2005) 5. Informationswert und Signalfunktion spielen hier nur geringere Rolle EK geht auf „demand-Effekte“ zurück? • Demand- Effekte: Wahrnehmung von Zweck und Bedeutung des Experiments steuert Antwortverhalten der VPn • es wird vermutet, dass der EK- Effekt durch die Fragestellung überhaupt erst „produziert“ wird stellt EK in Frage stellen • d.h. es impliziert, dass die EK keine Form der Konditionierung ist, sondern nur ein „Begleiteffekt“, der sich je nach VPn einstellt (Manipulation) und dass jede VPn die Experimente durchschaut • contra: Diaz et al,2005 : Affektives Priming zur Erfassung von EKAffekten es werden Zusatzaufgaben gestellt oder der US wird maskiert Ziel: Ausschaltung bewusster Verarbeitung, die den EKEffekt erhöht spricht gegen demand-Effekte • z.B. sollen Worte am PC negativ oder positiv bewertet werden; dabei wird die Zeit gemessen 200ms vor dem Wort („target“) sehen VPn einen „Prime“ (entweder positiv o. negativ konditioniert) hat „Prime“ eine pos. Valenz, sollte Reaktion auf Target schneller sein Welche Erklärungsansätze wurden für die EK aufgestellt? Nennen Sie Argumente/ Forschungsergebnisse, die für bzw. gegen die jeweiligen Erklärungsansätze sprechen. 1. 2. 3. Ein-Prozess-Modell (Lipp & Purkis, 2005) EK und KK sind Manifestationen des gleichen Lernmechanismus Signallernen Conceptual Categorization Modell (Davey, Field, 1997) durch die Paarung des ambivalenten CS mit dem US werden die Merkmale des CS, die dem US ähnlich sind, salienter d.h. EK sollte nur bei ähnlichen CS-US-Paarungen auftreten (contra: treten auch bei randomisierter CS-US-Paarung auf, weiteres contra: cross-modale EK (z.B. Musik-Bild) Referentielles Lernen (Baeyens et al., 1992) erst wird assoziativ CS + US gelernt wenn später CS allein auftaucht, aktiviert er automatisch eine kognitive Repräsentation des US ohne ihn wirklich zu erwarten (dafür spricht: EK ruft bei CS ein „referentielles System“ hervor bildet Durchschnitt über alle Valenzen der Stimuli, mit denen er bereits aufgetreten ist erklärt auch Löschungsresistenz sowie Möglichkeit zur Gegenkonditionierung Formen der Bewusstheit in der EKForschung „Demand awareness“: kennt VPn die Hypothese? Untersuchungsmethoden: Befragung der VPn, Implizite Messung (z.B. affektives Priming) „contingency awareness“: kennt VPn den Zus.hang von CS und US? Untersuchungsmethoden: 1. Ausschaltung der Bewusstheit durch subliminale Stimulusdarbietungen (Reiz kann nicht bewusst wahrgenommen werden) 2. Ausschaltung der Bewusstheit durch Ablenkung (z.B. Zusatzaufgabe) 3. getrennte Analyse bewusster und unbewusster Personen oder Stimuli (problematisch: zahlreiche Studien mit sich widersprechenden Befunden) Warum ist die Debatte um Bewusstheit in der EK-Forschung so wichtig? • Diskussion, da sich noch herausstellen muss, ob - nur demand-Effekte die EK verursachen - EK ein Beispiel für automatisches Lernen sein könnte Warum wird am Ende eines Experiments zur EK oft eine Prozedur zum affektiven Priming durchgeführt? • Affektives Priming = Bahnung von Bewertungen • mithilfe des affektiven Primings kann man implizite Einstellung zu bestimmten Objekten (Primes) messen so kann man Bewusstheit über Exp. ergründen • z.B. lassen Fehlerraten bzw. Reaktionszeiten von VP´n auf Primes Rückschlüsse auf ihre Einstellung zu • Z.B. Zeigen von 2 Wörtern: „eklig“ und „Spinne“, bewerten Reaktionzeit wird gemessen und fällt bei voll positiven Bewertungen („erfreulich“ + „Eis“) wesentlich schneller aus als bei voll negativen Bewertungen („Spinne“ + „eklig“) • Z.B. Spinnen phobiker sehen Bildsequenzen; ganz kurz wird Bild einer Spinne eingeblendet (nicht bewusst wahrnehmbar) ändert sich Bewertung des ff. Bildes? „name letter“- Effekt, „mereownership“- Effekt „name-letter“-Effekt (Nuttin, 1985) eigene Initialen werden anderen Buchstaben vorgezogen „mere-ownership“-Effekt (Beggan, 1992) wenn etwas mir gehört, mein Eigentum ist, verändert sich dessen Valenz zum Positiven Lernpsychologische Erklärung - Phänomen der Eigengruppenfavorisierung und des impliziten Selbstwerts (alles, was ich mit mir verbinde, schätze ich höher ein) Welche Implikationen ergeben sich durch die Forschung zur EK für eine effiziente Gestaltung von Werbung? • Botschaften werden eher akzeptiert, wenn sie von Sympathieträger vermittelt werden • Markenprodukte sollten immer mit positivem US gekoppelt präsentiert werden • Werbung sollte so vermittelt werden, dass „mere-ownersip“ auftritt wenn ich bestimmte Kundengruppe ansprechen will, muss ich auch bestimmte Reize einsetzen • Brand-Extension: Mercedes verkauft Uhren • Bessere Effekte unter Ablenkung (durch z.B. Werbestreifen am Rand, Aktienkurse etc.) Risiken: - ist Produkt einmal an US gekoppelt und ändert sich dessen Bewertung aufgrund aktueller Ereignisse, dann wird dies sofort aufs Produkt übertragen Respondentes und operantes Verhalten Respondentes Verhalten Lernmechanismus der KK stimulusbezogen unwillkürlich KK ist die erfahrungsbedingte Veränderung in reizbezogenem Verhalten Operantes Verhalten Lernmechanismus der OK willkürlich, spontan an Folgen/Konsequenzen orientiert OK ist die erfahrungsbedingte Veränderung in operantem Verhalten Welche Annahme liegt dem Versuch der Lernpsychologie zugrunde, die kausalen Determinanten von “willkürlichem“, zielgerichtetem Verhalten zu bestimmen? • einmal gemachte Erfahrungen verändern Verhaltensweisen in der Zukunft • nur weil kein offensichtlicher Stimulus da ist, der vor dem Verhalten auftritt, heißt das nicht, dass das Verhalten nicht vorhersagbar ist • die operante Konditionierung beeinflusst willkürliches Verhalten Gesetz des Effekts „law of effect“ (Thorndike) nicht das Verhalten an sich wird wahrscheinlicher, sondern das situationsspezifische Verhalten verschiedene Reaktionen auf dieselbe Situation sind möglich: a.) Befriedigung: wird mit der Situation verbunden und bei erneutem Auftreten der Situation tritt Reaktion wieder auf (=Verstärkung) b.) Frustration: schwächt die Assoziation und deshalb tritt das Verhalten in dieser Situation mit geringerer Wahrscheinlichkeit wieder auf Welche Formen der operanten Konditionierung lassen sich anhand der Valenz der Stimuli und der Wirkung des Verhaltens in Bezug auf den Stimulus unterscheiden? positver Stimulus produziert pos. Stimulus/ Befriedigung Des Willens Nimmt Stimulus weg/ Frustration d. Willens Verstärkung z.B. Lob nach Abwasch Verhalten nimmt durch Lernen zu neg. Bestrafung z.B. Schoki wegnehmen nach Lügen Verhalten nimmt durch Lernen ab negativer Stimulus Bestrafung z.B. Schläge nach Lügen Verhalten nimmt durch Lernen ab neg. Verstärkung z.B. Aspirin gegen Kopfweh Verhalten nimmt durch Lernen zu Erläutern Sie das „stop-action“ Prinzip der operanten Verstärkung. Welche Evidenz spricht für die Wirksamkeit dieses Prinzips? Stop-Action-Prinzip Stärkung einer Verhaltensweise in dem Moment des Eintretens der positiven Konsequenz (nach dem Kontiguitätsprinzip) Evidenz für Wirksamkeit Guthrie & Horton, 1948: Problemkäfig: jedes Verhalten der Katze, das einige Male verstärkt wurde, dominiert dann über andere Verhaltensweisen so entsteht immer stereotyperes Verhalten, das für „Einfrieren“ der verstärkten Verhaltensweisen spricht Schildern Sie Ablauf und Ergebnisse von Skinner’s (1948) klassischem Experiment zum „abergläubischen Verhalten“. Welches Prinzip benutzte Skinner zur Erklärung der Ergebnisse? • Exp. Tauben in Versuchskammer erhalten unabhängig von ihrem Verhalten ca. alle 15 s Getreide nach einiger Zeit wiederholen 6 der 8 Tauben zwischen den Futtergaben ganz bestimmte Verhaltensweisen, obwohl gar keine Verhaltensweise für Verstärkung nötig ist (z.B. Picken auf der Stelle) • Erklärung Kontiguitätsprinzip: das Verhalten, das zufällig im Moment der Verstärkung (Futtergabe) gezeigt wurde, wird verstärkt und tritt danach mit größerer Wahrscheinlíchkeit wieder auf eigendyn. Verstärkungsprozess Nennen Sie Untersuchungsergebnisse bzgl. der operanten Verstärkung, die sich nicht mit dem „stop-action“- Prinzip erklären lassen. Welche Art der Erklärung für operante Verstärkung wird durch diese Ergebnisse stattdessen nahe gelegt? 1. - Münzinger 1928: Hohe Variabilität im gelernten Verhalten Meerschweinchen sollen Hebel drücken, dann bekommen sie Salatblatt trotz anfängl. Bevorzugung von linker/rechter Pfote oder den Zähnen kommt kein Verhalten nach dem stop-action-Prinzip vor: alle 3 Verhaltensweisen treten gleich häufig auf 2. - Lashley 1924: Funktionale Generalisierung bei veränderten Umständen Ratten müssen plötzlich schwimmen statt laufen, weil Labyrinth geflutet wird erreichen problemlos ihr Ziel anscheinend nicht an mechanische Muskelabfolgen gebunden Erklärung: Gelernt werden evtl. nicht Bewegungen, sondern Effekte schon einfachste operante Reaktionen weisen ein enormes Maß an Flexibilität und Anpassung auf Geben Sie eine lernpsychologische Erklärung für die Entstehung und Aufrechterhaltung idiosynkratischer Verhaltenseigenheiten, die für den Verhaltenserfolg gar nicht erforderlich sind. Beziehen Sie Ihre Erläuterungen auf ein spezifisches Beispiel. • Idiosynkratische (spezifische, abgergläubige) Verhaltenseigenheiten entstehen aus persönlichen Erfahrungen mit Verstärkern Z.B. hat das Tragen eines Glücksbringers ein- oder mehrfach zum Sieg eines Sportlers geführt wenn er den Sieg aus persönlichen Motiven damit verbindet, kann dies auch nachgeahmt werden Entsteht evtl. aus Angst vor Niederlage bei Nichttragen damit einher geht Vermeidung der Möglichkeit der Extinktion: man kann ja nie vom Gegenteil überzeugt werden Erläutern Sie die Vorgehensweise des „shaping“. Inwiefern wird durch diese Technik der Anwendungsbereich der operanten Konditionierung für die Verhaltenssteuerung erweitert? Nennen Sie ein Beispiel, wie man die Technik des shaping für psychologisch- therapeutische Zwecke einsetzen kann. Shaping: komplexes erwünschtes Verhalten, das noch nicht existiert, wird nach und nach geformt auch nicht spontan gezeigtes, aber gewünschtes Verhalten kann aufgebaut und anschließend konditioniert werden dabei werden Verhaltensweisen in viele Einzelschritte zerlegt, die zusammen das gewünschte Verhalten ergeben einzelne Verhaltensweisen werden durch Reize verstärkt (prompting), bis sie beherrscht werden Verhaltenstherapie mit retardierten Kindern (Sprechen, Sozialverhalten) zur Verringerung des Kokainkonsums bei abh. Schwangeren Prompting: Reiz geben, der Wahrscheinlichkeit der Reaktion erhöht Fading: schrittweises Weglassen des Reizes Was versteht man unter „freien operanten Verfahren“? Nennen Sie ein Beispiel für ein solches Verfahren. Worin unterscheiden sich diese freien Verfahren von herkömmlichen Methoden der operanten Verstärkung und worin besteht der Vorteil der freien Verfahren? „freie operante Verfahren“ zur Konditionierung wiederholbarer Reaktionen deren Analyse erlaubt kontinuierliche Analyse von Verhaltensintensitäten Beispiel Verhaltensanalyse in der Skinner-Box Ratten müssen Hebel drücken, um Futter über Spender zu bekommen, es gibt Lichter, Lautsprecher und elektrisch geladenes Gitter, auf dem Ratte sitzt Unterschiede zu herkömmlichen Verfahren Operante Reaktion kann jederzeit auftreten sowie wiederholt auftreten es gibt keine einzelnen Durchgänge (Ersparnis) Abängige Variable: Reaktionsrate Vorteile Tiere (und Versuchsleiter) ermüden nicht so schnell Viel mehr Durchgänge/Tag möglich (Effektivität) Man kann jederzeit beobachten und aufzeichnen Dreifachkontingenz 3 Komponenten der Dreifachkontingenz: 1. 2. 3. Kontext (Situation, in der Reaktion stattfindet & Stimuli, die ihr vorausgehen: „diskriminativer Hinweisreiz“) Reaktion Stimuli, die der Reaktion folgen (Verstärker) Hypothetisches Untersuchungsbeispiel: 1. 2. 3. Über der Taste leuchtet Licht, wenn Futter verfügbar Taube lernt, auf Taste zu picken Bekommt Futter als Verstärker, wenn sie 2. gelernt hat Wo würden Sie größere Schwierigkeiten erwarten, wenn Sie Prinzipien der operanten Verstärkung in Alltagssituationen einsetzen wollten: Beim Aufbau oder bei der Löschung von Verhalten? Warum? • Schwierigkeiten eher bei der Löschung von Verhalten, da Verstärker häufig unbekannt bleiben und man sie so schlecht kontrollieren kann (man kann ja den Mensch nicht rund um die Uhr beobachten) • Intermittierende Verstärkung ist schwerer zu löschen als kontinuierliche Verstärkung Was ist ein sekundärer Verstärker? Geben Sie ein Beispiel und erläutern Sie, wie man sekundäre Verstärkung erklärt. • Sekundäre Verstärker indirekt wirkende Verstärker vorher neutrale Reize erwerben eine Verstärkungsfunktion durch systematische Kopplung mit primären Verstärkern • Z.B. wird Reiz Fernsehen bei Kindern zum sekundären Verstärker, wenn gekoppelt mit Verstärker Süßigkeit Fernseher wird sekundärer Verstärker • Primäre Verstärker biologisch anglegte Wirkung, benötigen kein spezielles Training, um effektiv zu sein, z.B. H2O Was versteht man unter „token reinforcement“? Wie kann man erklären, dass manche tokens effizientere Verstärker darstellen als primäre Verstärker? „token reinforcement“ systematische materielle Verstärkung durch Zwischenverstärkung (Überbrückungsfunktion) sekundäre Verstärker kündigen zur Motivationsaufrechterhaltung verschiedene primäre Verstärker an (z.B. Geld, Macht, Status) erwünschte Verhaltensweisen werden mit tokens belohnt, die später gegen andere materielle Verstärker eingetauscht werden können Können effizienter als manche primären Verstärker sein, weil Generalisierte Verstärker (z.B. Geld) glz. auch sekundäre Verstärker sind, die gleich mehrere Verstärker ankündigen Z.B. wenn Schüler ruhig auf Stuhl sitzen bleibt, erhält er 5 Token, die er sammeln und später eintauschen kann (gegen z.B. Süßes) Schimpansen lernen, mit Plastikchips aus Automaten Früchte zu ziehen und sogar, einen schweren Hebel zu bedienen, um an die Chips zu kommen Welche Rolle spielen externe Stimuli bei der Steuerung von Verhalten? Erläutern Sie jede Funktion anhand eines Beispiels. 1. 2. 3. Feedback sagt uns, ob unser Verhalten richtig oder falsch war ich werde Verhalten nur wieder zeigen, wenn Feedback positiv Steuerungsfunktion situative, diskriminative Hinweisreize signalisieren Verstärkungsmöglichkeiten (ob wir Verhalten weiterhin zeigen o. nicht), z.B. Schwatzen i.d. Pause vs. Schwatzen im Unterricht Unterricht/Pause = diskriminativer Hinweisreiz, ob Verhalten gewünscht o. nicht Überbrückungsfunktion Tokens zeigen übersichtlich, dass Verhalten das richtige ist und wir es aufrecht erhalten sollen Bsp.:Token Economy in Psychiatrie: Tokens für angemessenes Verhalten /erfüllte Aufgaben werden mit höherer Wahrscheinlichkeit erfüllt Wozu wird „chaining“ eingesetzt? Erläutern Sie die Standardmethode des „chaining“. „chaining“ Aufbau komplexer Verhaltensabfolgen durch Verkettung von Verhaltensweisen mit Hilfe konditionierter Verstärker z.B. um Tiere zu dressieren oder mit dem Rauchen aufzuhören Standardmethode des „chaining“ erlerntes Verhalten = Abfolge v. Verhaltensweisen, wobei jeder Stimulus in der Mitte 2 Funktionen erfüllt: a.) verstärkt das vorher gezeigte Verhalten b.) steuert das danach gezeigte Verhalten (Hinweisreiz) um komplexe Verhaltensweisen aufzubauen, muss man die Verhaltensweisen, die zum Ziel führen, mithilfe einzeln konditionierter Verstärker und Hinweisreize verketten Wie geht man bei der Rückwärtsverkettung und bei Vorwärtsverkettung vor? Rückwärtsverkettung Tier lernt zuerst die letzte Aufgabe i.d. Handlungskette, z.B. den Hebel zu drücken, um Futter zu bekommen dann vorletzte Aufgabe, z.B. zum Hebel zu rennen, um ihn zu drücken stufenweise bis zur 1. Sequenz durcharbeiten weil mittlerer Stimulus jeweils den zurückliegenden Stimulus verstärkt und den davorliegenden steuert, lernt Tier die Abfolge zusammen zu setzen zur Hilfe muss man bei manchen Schritten Futter als Verstärker einsetzen, bis das jeweilige Verhalten etabliert ist Vorwärtsverkettung Tier lernt zuerst die 1. Verhaltensweise und wird nach jedem gelernten Schritt mit einem Zwischenverstärker belohnt dauert länger, da dieser Zwischenverstärker immer wieder weggenommen werden muss schwerer zu etablieren, da der vorhergehende Reiz (diskriminativer Reiz mit Steuerungsfunktion) fehlt Nennen Sie Beispiele, bei denen die operante Verstärkung an ihre Grenzen stößt. Wie lässt sich dieses Scheitern erklären? „the misbehavior of organisms“ erwünschte Verhaltensweisen werden nach anfängl. Erfolgen durch unnötiges, verstärktes Verhalten ersetzt z.B. lässt Schwein die Münzen auf dem Weg zum Sparschwein fallen und verbuddelt sie; Waschbär gibt Münzen nicht mehr her, sondern reibt sie erklärt durch „Instinctive drift“ mit zunehmender Erfahrung weicht die gezeigte Leistung des Versuchstieres von verstärktem Verhalten ab und stattdessen treten instinktive Verhaltensweisen auf speziestypische explorative und/oder appetitive Verhaltensweisen verdrängen gelerntes Verhalten Da operante Verstärkung auf biologisch angelegtem Verhaltensrepertoire basiert und einwirkt, ist es auch biologisch beschränkt Schildern Sie den Aufbau und die Ergebnisse der klassischen Untersuchungen von Brown & Jenkins (1968) zum sog. „autoshaping“. - Taube lernt in Skinnerbox aus einem Futterspender zu fressen - Lichtfeld zeigt den Verstärker vorher an (Futter): die Taube pickt darauf, obwohl nicht nötig, um Verstärker zu bekommen - Ist das Picken ein sich selbst verstärkender Aberglaube? widerlegt (Rachlin) - entspricht eher der klass.Konditionierung: CS Licht US Futter CR Picken (weil Licht mit Futter kombiniert auftritt, kombiniert es auch die Taube)- (widerlegt von Williams & Williams) Wie wurde das Phänomen des „autoshaping“ ursprünglich erklärt? Durch welche Untersuchungsergebnisse konnte gezeigt werden, dass diese Erklärung unzutreffend ist? • ursprünglich durch abergläubisches Verhalten erklärt Taube pickt sowieso häufig, evtl. pickte sie zufällig in dem Moment, in dem Licht an war und Futter kam oder schaute zufällig auf Licht… • widerlegt von • a.) Rachlin (1969) fotografierte Tauben im Moment der Verstärkung und sah keine Neigung, der Taste näher zu kommen: im Gegenteil schaute Taube sogar in andere Richtung keine systematische Annäherung • Theorie der KK widerlegt von b.) Williams & Williams (1969) Autoshaping findet selbst dann statt, wenn Picken systematisch nicht verstärkt wird sogar, wenn nie Futter folgte, verstärkte Taube das Picken auf das Licht „Humphrey´s Paradox“ - je seltener verstärkt wird, desto höher wird Löschungsresistenz (desto kleiner die Wahrscheinlichkeit, dass Verbindung gelöscht werden kann) - paradox, da es Häufigkeitsprinzip verletzt: warum soll Reaktion, die nur manchmal verstärkt wird, schwerer zu löschen sein als eine, die permanent verstärkt wird? partial reinforcement effect - geht mit flachem Löschungsgradienten einher - erklärbar mit Diskriminationshypothese (Mowres & Jones, 1945) bei seltener Verstärkung ist eine Umstellung auf Löschung vom Organismus nur schwer zu erkennen (z.B. defekter Getränkeautomat vs. defekter Glücksspielautomat) Nennen Sie ein Alltagsbeispiel für die Aufrechterhaltung von Verhalten durch intermittierende Verstärkung. - z.B. Lottospiel: jede Woche gebe ich Lottoschein ab, aber nur äußerst selten wird mein Verhalten positiv verstärkt - d.h. mein Verhalten, Lotto zu spielen ist schwerer zu löschen als z.B. mir die Haare zu kämmen, wo ich durch einen Blick in den Spiegel belohnt werde Erläutern Sie die 4 grundlegenden Verstärkerpläne. Geben Sie jeweils eine Definition der Terminologie und nennen Sie ein Untersuchungs- oder Alltagsbeispiel. 1. Fester Quotenplan (Fixed Ratio, FR) Verstärkung nach jeder n-ten Reaktion, z.B. FR-10: jede 10.Reaktion wird verstärkt z.B. Akkordarbeit kontiniuierliche Verstärkung: kurze Pausen nach Verstärkergabe, hohe Reaktionsrate Kostenintensiv, da viele Verstärker nötig, dafür schnelles Lernen 2. Variabler Quotenplan (Variable Ratio, VR) n variiert zufällig um einen Mittelwert, z.B. VR-10 =: Reaktionen um 10. Reaktion werden verstärkt z.B. Spieler am Spielautomaten Partielle Verstärkung: keine Pausen, nach Verstärkergabe hohe Reaktionsrate 3. Fester Intervallplan (Fixed Interval, FI) Zeitintervall ist auf bestimmten Wert festgelegt, z.B. FI-10: 10 s nach einer Verstärkung wird der 1. Verstärker bereit gestellt und nach der ersten, dann folgenden Reaktion verabreicht Bsp. So lernen die meisten Schnelle Reaktionen nur, wenn sich Zeit der Verstärkung nähert, Abfall nach Belohnung 4. Variabler Intervallplan (Variable Interval, VI) Intervall variiert zufällig um einen Mittelwert, z.B.VI-10: nach der letzten Verstärkung wird Verstärker erst wieder in Zeitintervallen um 10 s herum bereit gestellt, Bsp. Menschen, die nach der Post sehen, wenn ca. die Zeit dafür ist ziemlich regelmäßige Reaktionen, langsam, aber beständig (so müsste man lernen) Beschreiben Sie die charakteristischen Kurven der kumulativen Verhaltenshäufigkeit, die für die vier Standardverstärkerpläne beobachtet werden. FR: „stop-and-go“ –Muster: nach jedem Verstärker eine Reaktionspause: Nachverstärkungspause abrupter Übergang von Pause zu weiteren Reaktionen gleich bleibende, hohe Geschwindigkeit der Reaktionen bis zum nächsten Verstärker VR: Reaktionsmuster: schnell & relativ gleichmäßig Fehlen langer Nachverstärkungspausen bzw. kleinere Pausen FI: typ. Reaktionsmuster: relativ steiler Anstieg, keine Nachverstärkungspause aber nach Pause beginnt Versuchstier zunächst recht langsam zu reagieren mit wachsendem Intervall reagiert es schneller: Anstieg d. Reaktionsgeschwindigkeit kurz vorm nächsten Verstärker ist Reaktionsgeschwindigkeit recht hoch VI: stetige mittlere Reaktionsrate Nennen Sie verschiedene Hypothesen, um die Nachverstärkungspause im festen Quotenplan zu erklären. Durch welche experimentelle Evidenz konnten diese Hypothesen gestützt bzw. widerlegt werden? durchschnittliche Länge der Pause nimmt mit Erhöhung der Quote zu, d.h. je mehr Reaktionen nötig sind, bis Verstärker kommt, desto mehr braucht VPn Pause spricht für Ermüdung und gegen Sättigung (Akkordarbeit) Reaktionsrate nimmt im Anschluss an Pause allmählich ab spricht für Ermüdung Pause wird unabhängig von vorhergehender Quote gemacht, aber abhängig von bevorstehender Quote gegen Ermüdung, für Verstärker-Distanz-Hypothese Schildern Sie den Aufbau und die Ergebnisse der Untersuchung von Baum (1993) zum Vergleich der Reaktionshäufigkeit in VI- und VR –Plänen. Aufbau: - Tauben werden Variable Intervallpläne (Intervall variiert zufällig um einen Mittelwert) und Variable Quotenpläne (n variiert zufällig um einen Mittelwert), gezeigt - Verstärkungsrate variiert von 20 – 1000 Verstärker/h Ergebnis: - reagieren bei VR-Plänen durchschnittlich schneller (auch wenn mit der gleichen Verstärkerrate getestet wird) - Tendenz, dass Unterschiede zwischen VR und VI bei hohen Verstärkungsraten verschwinden Erklären Sie die Unterschiede in der Verhaltenshäufigkeit bei VR- und VI- Plänen mithilfe der „Interresponse Time Reinforcement“ Theorie und mit der „Response- Reinforcer Correlation“ Theorie. Interresponse Time Reinforcement Theory interresponse time = Zeit zw. 2 aufeinanderfolgenden Reaktionen molekulare Theorie (bezieht sich auf Zeitspanne von < als 1 min) Reaktionsraten bei VI-Plänen sind langsamer, weil lange IRT´s öfter verstärkt werden mit Zeit, die zwischen 2 Reaktionen vergeht, steigt die Wahrscheinlichkeit, dass die VI-Uhr stoppt und einen Verstärker bereitstellt bei VR-Plan spielt Zeit keine Rolle: Gabe von Verstärkern hängt nur von Zahl der Reaktionen ab es werden also keine langen Pausen selektiv verstärkt Tendenz, dass Reaktionen in Blöcken von kurz aufeinanderfolgenden Reaktionen auftreten erhöht die Wahrscheinlichkeit, dass Reaktionen mit kurzem Intervall eher verstärkt werden Response-Reinforcer-CorrelationTheory betont „globalere“ Beziehungen zwischen Reaktion & Verstärker, nämlich zwischen durchschnittlicher Reaktionsrate und Gesamtverstärkungsrate im VR-Plan ist die Beziehung zwischen Reaktionsrate und Gesamtverstärkungsrate linear Im VI-Plan nicht: egal, wie schnell man reagiert, man kann dennoch nicht mehr als die festgelegte Anzahl von Verstärkern/Zeiteinheit bekommen Verstärkungsrate sinkt bei sehr niedrigen Reaktionsraten, weil VI-Uhr manchmal angehalten wird, wenn Verstärker bereit gestellt worden ist und setzt erst wieder ein, nachdem man reagiert und den Verstärker erhalten hat solange man mit mäßiger Geschwindigkeit reagiert, erwirbt man fast alle möglichen Verstärker pro Zeiteinheit Negative Verstärkung Negative Verstärkung Frequenz eines Verhaltens nimmt zu, wenn negativer Stimulus nach Auftreten des Verhaltens weggenommen wird aversiver Reiz hört auf, wenn Verhalten gezeigt (negative reinforcement, avoidance, escape) Laborexperiment: Solomon & Wynne (1953): Hunde in Zweikammerkäfig, je eine Lampe pro Kammer, mit einem Sprung über die Trennwand des Käfigs kann Hund vor dem Elektroschock, den er über den Metallboden erhält, fliehen Licht geht in K. 1 aus, nach 10 sec. kommt Schock bis Hund in Kammer 2 gesprungen ist nach einigen DG zeigt Hund keine Fluchtreaktion mehr, sondern springt schon während der 10 s Dunkelheit, d.h. er zeigt eine Vermeidungsreaktion Ergebnis: negative Verstärkung: Auftretenswahrscheinlichkeit des Sprungs schon wahrend der 10 Sekunden nimmt zu, wenn Elektroschocks nach rettendem Sprung ausbleiben Alltagsbeispiel: Tabletteneinnahme bei Kopfschmerz Positive und negative Bestrafung Positive Bestrafung wenn einem Verhalten ein unangenehmer Reiz folgt, wird das Verhalten mit dem Reiz gekoppelt und reduziert so ein erneutes Wiederauftreten des Verhaltens Bsp. Drogen nehmen gekoppelt mit Ohnmachtsanfall führt eher zu Drogenabstinenz Negative Bestrafung wenn nach einem bestimmten Verhalten ein angenehmer Reiz entzogen wird, wird das Verhalten mit dem Ausbleiben des Reizes gekoppelt und reduziert so ein erneutes Wiederauftreten des Verhaltens Bsp. Zu spät nach Hause kommen wird mit mit Taschengeldkürzung bestraft Flucht- und Vermeidungsverhalten Fluchtverhalten Reaktion setzt erst nach Beginn des aversiven Reizes ein Bsp. Hund springt erst nach Beginn des Elektroschocks über die Trennwand Vermeidungsverhalten Durch die Reaktion entgeht VPn dem aversiven Reiz Bsp. Hund springt schon vor Elektroschock über die Trennwand Aufrechterhaltung dieser Verhaltensweisen durch negative Verstärkung: aversiver Reiz wird beendet (Flucht) oder bleibt aus (Vermeidung), wenn Reaktion ausgeführt wird Kopplung Auftretenswahrscheinlichkeit der Reaktion steigt Von welchen Faktoren hängt die Effizienz von Bestrafung ab? Wie sollte effiziente Bestrafung in Alltagskontexten (Erziehung, Verhaltenstherapie) aussehen? - Konsequenz Intensität Kontiguität: Unmittelbarkeit Verhaltensmotivation (wenn hohe Motivation, dann hat Bestrafung geringere Auswirkung auf Verhalten) Verfügbarkeit alternativer Verhaltensweisen Bestrafungsplan (FR-1 am effektivsten) Bestrafung sollte: - Intensiv beginnen und unmittelbar dem Verhalten folgen mit dem Aufbau eines alternativ erwünschten Verhaltens zur Erlangung des Verstärkers einhergehen auf jede unerwünschte Reaktion folgen, also FR-1 Schildern Sie Aufbau und Ergebnisse der beiden Standardexperimentalparadigmen zur Analyse von Vermeidungsverhalten. 1. - 2. - - Flucht-/Vermeidungslernen mit Hinweisreizen – „signalled shock“ (Solomon & Wynne, 1954) Hunde, die zur Vermeidung des Schocks über Trennwand springen, wenn nur das Licht ausgeht (Hinweisreiz) trotz späterem Weglassen des Schocks erscheint Vermeidungsverhalten spricht für hohe Löschungsresistenz des Vermeidungsverhaltens Unangekündigtes Flucht-/Vermeidungslernen bzw. freie operante Vermeidung (Sidman, 1953) Ratte bekommt alle 5 s Schocks, wenn sie nicht einen Hebel drückt wenn sie ihn drückt, dann wird der nächste Schock um 30s später kommen Erg.: die Zeit wird zum Hinweisreiz -> Ratte drückt häufig genug, um viele Schocks zu vermeiden dabei wird ihr Vermeidungsverhalten robuster Erklären sie Vermeidungsverhalten in den beiden Standardparadigmen des Vermeidungslernens mithilfe der Zwei-Faktoren-Theorie. Zwei-Faktoren-Theorie sowohl KK als auch OK sind beteiligt an Vermeidungsreaktion 1. Klassische Konditionierung 1. Prozess: US Schock UR Angst: bei KK wird Angst vom US auf einen CS (Stimulus, der dem Schock vorausgeht, z.B.Licht) nach einigen Widerholungen reagiert VPn mit Angst auf Licht 2. Operante Konditionierung 2. Prozess: negative Verstärkung der Vermeidungsreaktion dadurch, dass Beendigung des CS (Licht aus) die Angst reduziert; aversiver Reiz wird weggenommen Nach dieser Theorie ist Verstärker für eine Vermeidungsreaktion nicht die Vermeidung des Schocks, sondern die Flucht vor dem Angstauslösenden CS Schildern Sie Aufbau und Ergebnis der Untersuchung von Hernstein & Hineline (1966) zum Vermeidungsverhalten. Welche Theorie des Vermeidungsverhaltens wird durch diese Untersuchung widerlegt? Welche Ansätze können das Ergebnis der Untersuchung erklären? • • • • • • • Jede Reaktion (Hebeldrücken=) brachte eine Ratte von Plan A (nach 2s erfolgt mit P=30% Schock) nach Plan B (P=10%) um Zahl der Schocks gering zu halten, sollte Ratte möglichst oft im 10%-Plan reagieren wenn im 10%-Plan Schock erfolgte, wechselte Tier wieder in 30%-Plan, bis zum nächsten Hebeldrücken Ratten konnten durch Reaktion zwar viele Schocks vermeiden, aber ihre Reaktion bot auch keine Garantie für eine feste Zeitspanne ohne Schock drosseln, aber nicht vermeiden Zeit o. CS ist nicht mehr zuverlässiger Prädiktor für Auftreten/Ausbleiben des Schocks Ergebnis: Tier drückt regelmäßig Hebel und lernt irgendwann Vermeidungsverhalten, obwohl weder Zeit noch äußere CS zuverlässige Schocksignale sind D.h. das Tier muss einschätzen können, wie hoch die durchschnittl. Schockrate bei Reaktion bzw. Nichtreaktion ist widerlegt 2-Faktor-Theorie erklärt Ergebnisse mit der 1-Faktor-Theorie Wie erklärt man Vermeidungs-verhalten mit der Ein-Faktor-Theorie? Ein-Faktor-Theorie /operante Vermeidung - Je weniger aversive Ereignisse desto Vermeidungsverhalten - nicht die reduzierte Kontingenz, sondern „schockfreie Phase“ ist der effiziente Verstärker Nennen Sie die Kernannahmen der kognitiven Theorie des Vermeidungsverhaltens. Welche Ergebnisse zum Vermeidungsverhalten lassen sich nur durch diese Theorie erklären? Kognitive Theorie des Vermeidungsverhaltens (Seligman & Johnston, 1973) Erklärung auf Basis v. Präferenzen, Erwartungen u. Bestätigung / Widerlegung P: kein Schock ist besser als Schock E1: wenn Reaktion, dann P für Schock niedrig E2: wenn keine Reaktion, dann P fur Schock hoch Bestätigungen: wenn R ¬Schock, ¬R Schock Widerlegung: R Schock, ¬R ¬ Schock kann Löschungsresistenz erklären: Tier glaubt, dass wenn R ¬Schock, also merkt es nicht, dass deshalb kein Schock mehr auftritt, weil es ein Extinktionsdurchgang ist kann Erfolg der Reaktionsblockierung erklären: keine Reaktion laut Erwartung des Tieres folgt Schock, aber: ¬R ¬ Schock Erwartung ändert sich allmählich Vermeidungsverhalten verschwindet allmählich Verhalten ändert sich bei Vermeidungsaufgaben immer dann, wenn eine Diskrepanz zw. Erwartung & Realität besteht Erläutern Sie den Begriff der spezies-spezifischen Defensiv-Reaktionen (SSDR). Welche Implikationen ergeben sich auf der Basis der biologischen Theorie für die Allgemeingültigkeit von Vermeidungsverhalten? spezies-spezifische Defensiv-Reaktion (SSDR) sehr wirksame angeborene Verteidigungsreaktionen, die auftreten, wenn Tier einem neuen oder plötzlichen Reiz begegnet Implikationen: in Laboruntersuchungen des Vermeidungsverhaltens werden diejenigen Verhaltesweisen schneller gelernt, die dem natürlichen Vermeidungsverhalten am ähnlichsten sind hängt auch von der Art des Verstärkers ab: natürliche Reaktion bei Futter als Verstärker ≠ Reaktion bei Schocks als Verstärker SSDRs werden leicht als Vermeidungsverhalten erworben, andere Verhaltensweisen lassen sich nur sehr mühsam aufbauen Warum ist es häufig so schwierig, in Alltagssituationen zu erkennen, dass ein Verhalten durch Vermeidung motiviert ist? • weil nicht sichtbar: wir sehen weder Anlass noch Konsequenz (zumindest bei gutem Vermeiden sieht man Konsequenz nicht (siehe: Hund vermeidet Schock bekommt keinen Schock) Erklären Sie das klassische yoked-control Design der Hilflosigkeitsforschung. Welcher Erklärungsansatz kann hiermit ausgeschlossen werden? Was ist demnach der zentrale Wirkfaktor beim so genannten Hilflosigkeitstraining? yoked-control-design 3 Ratten in getrennten Käfigen mit Laufrädern → Ratte 1 keine Schocks (control), Ratte 2 kann Schocks vermeiden indem sie Laufrad lauft & Ratte 3 kann Schocks nicht durch Laufen in Laufrad vermeiden Ratte 2 und 3 haben gleiche Anzahl an Schocks mit gleicher Intensität bekommen, nur dass Ratte 2 durch Laufrad die Schocks abstellen konnte und das glz. für Ratte 3 die Schocks aufhörten → Ratte 3 war somit v. Tier in Käfig 2 abhängig und hatte keinen Einfluss auf die Schocks (wusste aber nichts von Ratte 2) in anschließender Vermeidungsprozedur lernt Ratte 2 schneller das Vermeidungsverhalten als Ratte 3, weil Ratte 3 glaubt, sie kann Schocks nicht beeinflussen Vermeidungsverhalten nicht von Menge o. Intensität des aversiven Stimulus abhängig zentraler Wirkfaktor: ob Ratte vorher die Möglichkeit hatte, Flucht- o. Vermeidungsverhalten zu lernen: Kontrolle über Vermeidungsverhalten Was versteht man unter Generalisierungseffekten bei der gelernten Hilflosigkeit? Schildern Sie zur Erklärung die klassischen Studien von Hiroto & Seligman (1975). I. Phase: Studentengruppe 1: wurden laute Gerausche präsentiert, die sie nicht vermeiden konnten Studentengruppe 2: wurden keine Gerausche präsentiert bzw. konnten Töne durch Tastendruck kontrollieren II. Phase: Studenten sollten Anagramme lösen Ergebnisse 1. Gruppe lernt viel langsamer, gibt schneller auf, scheint sich nicht so viel zuzutrauen, nach vielen Durchgängen erst langsame Fortschritte Kontrollverlust als Ursache fur ein globales Motivationsdefizit? frühere Erfahrungen mit nicht kontrollierbaren aversiven Ereignissen erzeugt Gefühl der Hilflosigkeit, das sich auf andere Situationen uberträgt Ähnliche Symptome: Passivität, wenig Interesse an soz. Interaktion, Appetitlosigkeit etc. Therapieansätze bei Depressionen nach der Hilflosigkeitstheorie • Neue Kontrollerfahrungen schaffen • Änderungen von alten Attributionen mangelnder Kontrolle Schildern Sie die bahnbrechende Untersuchung von Tolman & Honzik (1930) zum latenten Lernen und deren Ergebnisse. Welche wichtige Implikation lässt sich aus dieser Untersuchung für den Wirkungsbereich der operanten Konditionierung ableiten? Aufbau: - 3 Gruppen Ratten, 17 Durchgänge, 1 /Tag in Labyrinth mit 14 Abzweigungen - 1. Gruppe: Kontrollgruppe: keine Verstärker: nie gefüttert, wenn Ratte an Ziel kommt - 2. Gruppe: immer Futter als Verstärker in Zielkammer - 3. Gruppe: bis 11. Durchgang kein Verstärker, dann immer Verstärker: Futter Ergebnis: - 1. Gruppe: Fehler sinken gering, pendeln sich bei ca. 7 pro Durchgang ein - 2.Gruppe: Fehler sinken stark & relativ schnell: typische Lernkurve, ca.3 Fehler/Durchgang - 3. Gruppe: zuerst wie in 1.Gruppe, ab 12. Durchgang schnell sogar besser als 2.Gruppe (bei 11.Durchgang wussten Ratten ja noch nicht, dass es am Ziel Futter gibt) Labyrinthlernen ohne Belohnung führt zu dramatischem Leistungszuwachs unmittelbar nach Einführung von Verstärkung Implikationen: - Lernen hängt von der Art des Verstärkers ab, bzw. davon, ob Verstärker verabreicht wird: Erwartung bzgl. des Verstärkers - Tiere lernen auch ohne Verstärker, sie sind nur nicht motiviert, zu zeigen, was sie gelernt haben, wenn sie keinen Verstärker erhalten Bandura (1965): Untersuchung zum Beobachtungslernen: welches Ergebnis belegt den Effekt der stellvertretenden Verstärkung? Woran kann man erkennen, dass auch ohne stellvertretende Verstärkung gelernt wurde? • • Lernen ohne eigenes Verhalten und mit stellvertretender Verstärkung Kinder (3,5 - 6 Jahre) beobachten Modell, das aggressives Verhalten gegenüber Puppe zeigt (5 minütiger Film). Konsequenzen d. Modellverhaltens: – 1. Gruppe beobachtet, wie aggressives Verhalten belohnt wird – 2.Gruppe, wie es bestraft wird – 3. Gruppe sieht weder das eine noch das andere Kindern wird dann die Gelegenheit gegeben, in einem anderen Raum mit derselben Puppe zu spielen Gruppe I ebenfalls aggressiv mit der Puppe Gruppe II eher zurückhaltend – klare Effekte der Belohnung des Modells - falls aber Kinder aufgefordert werden, das Verhalten zu zeigen („mit Anreiz“), können dies alle d.h. das Verhalten wurde gelernt (Kompetenz), aber nicht immer gezeigt (Performanz) nach Bandura Modelllernen als Lernprinzip gleichbedeutend mit der klassischen und der operanten Konditionierung Kontrastieren sie die Begriffe Performanz und Lernen mithilfe Banduras Imitationstheorie. Was wird unmittelbar durch Verstärkung reguliert? Lernen vs. Performanz (Ausführungsphase) 1.Aufmerksamkeit 2.Gedächtnis 3.Motorische Reproduktion 4. Motivation 1. – 3. sind für Lernen nötig für Performanz ist zusätzlich 4. nötig Verstärker reguliert Motivation u. Performanz Inwiefern ist die naive Verhaltenserklärung durch das Konzept der Verstärkung zirkulär? Wie kann man das Zirkularitätsproblem in den Griff bekommen? „Verstärker“ = Stimulus, der künftig die Auftretenswahrscheinlichkeit des Verhaltens, auf das er folgt, erhöht Zirkelschluss: Stimulus wird Verstärker genannt, weil er ein Verhalten verstärkt und es wird angenommen, dass er das Verhalten verstärkt, weil er ein Verstärker ist - in dieser Definition ist kein Vorhersagewert, -element inbegriffen Lösung : unabhängige Kriterien dafür aufstellen, welche Stimuli Verstärker darstellen und welche nicht Finden einer Regel, die uns im Voraus sagt, ob ein Stimulus als Verstärker wirkt (Regel, die neue, überprüfbare Vorhersagen erlaubt) valides Konzept: Prinzip der Reaktionsdeprivation (= besser als Bedürfnis- und Triebreduktion, besser als Transsituationalitatsprinzip & besser als Premack’sches Prinzip) Verstärkung als Bedürfnisreduktion und als Triebreduktion: warum als allg. Verstärkungstheorien ungeeignet? Bedürfnisreduktion (Hull, 1943) Primäre Verstärker = Stimuli, die biologische Bedürfnisse reduzieren Aber: es gibt Verstärker, die kein notwendiges biolog. Bedürfnis reduzieren (Saccharin, Sex) Biolog. Notwendigkeiten ohne Verstärkungswirkung (Vitamin B1) Triebreduktion (Miller, 1948) starke Stimulation (Trieb) ist aversiv, Reduktion der Stimulation (Trieb) ist Verstärker Aber: –nicht jede Stimulusreduktion wirkt verstärkend (Senkung der Temperatur auf -18 Grad) – Verstärker, die Stimulation erhöhen (Spielzeug) können schlecht aversiv sein Transsituationalitätsprinzip der Verstärkung (Meehl) - Prinzip besagt, dass ein Stimulus, der in einer Situation als Verstärker fungiert, auch in anderen Situationen ein Verstärker ist - z.B.: gesüßtes H2O für Ratte in Experiment verstärkt Verhalten im Laufrad, sollte aber auch in einem anderen Experiment als Verstärker fungieren Erläutern Sie die Begriffe der Verstärkung und Bestrafung mittels des Premack’schen Prinzips. Schildern Sie eine Untersuchung von Premack, mit der die Unzulänglichkeit des Transsituationalitätsprinzips nachgewiesen wurde. Untersuchung I. Phase: Affen dürfen verschiedene Dinge frei ausüben: a.) Hebeldrücken: Wahrscheinlichkeit hoch b) Tür offnen: Wahrscheinlichkeit mittel c.) Kolben ziehen: Wahrschinlichkeit niedrig II. Phase: Paare von Gegenständen präsentiert: 1.Gegenstand als „operante Reaktion“, 2. Gegenstand als „Verstärker man konnte nur an 2.Gegenstand gelangen, wenn erste Reaktion ausgeführt worden war Ergebnisse: - Hebel diente als Verstärker für Tür offnen und Kolben ziehen - Türöffnen diente als Verstärker für Kolben ziehen, aber nicht für Hebel - Kolben diente für keine Verhaltensweise als Verstärker Premacks Prinzip bestätigt, Transsituationalitätsprinzip widerlegt: „Tür offnen“ ist nicht in allen Situationen ein Verstärker Premack´s Prinzip Premacks Prinzip: - Methode der Verstärkung: Kontingenz zwischen zwei Verhaltensweisen - Verhalten mit höherer Auftretenswahrscheinlichkeit verstärkt Verhalten mit geringerer Bestrafung Verhalten mit geringerer Auftretenswahrscheinlichkeit dient als Bestrafung für Verhalten, das mit höherer Wahrscheinlichkeit auftritt Verstärker = Kontingenz zwischen zwei Verhaltensweisen