Lernpsychologie Definition von Lernen (ein Satz) / Abgrenzung (Gemeinsamkeit und Unterschied) von Lernen, Reifung und Evolution in 2-3 Sätzen. Arbeitsdefinition Lernen: „Mittelfristige Veränderungen von Verhalten als Folge von Erfahrungen“ Verhalten: willkürliches Verhalten, Instinkte, Reflexe und physiologische Reaktionen Erfahrung: Einwirkung von Sinnesreizen auf das Nervensystem mittelfristig: nicht kurzfristig, kein aktueller Reflex Abgrenzung von Reifung: kein Lernen, da nicht erfahrungsabhängig gengesteuerte Entfaltung von Funktionen (Motorik, Pubertät) Abgrenzung von Evolution: kein individuelles Lernen extrem langsame Veränderung von Verhaltensdispositionen von Arten über Generationen durch (natürliche) Selektion Wichtigster Vorteil der experimentellen Methode gegenüber der Beobachtung in einem Satz. Experiment ermöglicht Kausalaussagen, weil ich Drittvariablen kontrollieren kann Bei der Beobachtung sind Drittvariablen unbekannt, daher Kausalität unklar Anwendung der Begriffe UV, AV, IV in 2-3 Sätzen. Intervenierende Variable: rein theoretischer Natur und kann nicht direkt beobachtet werden. Zwischen Ursache und Wirkung, also UV und AV, gibt es nicht im Behaviorismus unabhängige Variable: Ursache, kann verändert werden, wie Wellenlänge abhängige Variable: Wirkung, wird beobachtet, Veränderung der Wahrnehmung oder der Auftretenswahrscheinlichkeit Vier wichtige Gütekriterien wissenschaftlicher Theorien nennen (und in Stichpunkten erklären) können. Notwendig: Testbarkeit (Vorbedingung, widerlegen oder bestätigen muss möglich sein) Formale Adäquatheit (Vorbedingung, nicht unlogisch, mit vernünftigen Definitionen) - Fruchtbarkeit (Wie groß ist der Einfluss auf Psychologie?) Bestätigung (wenn sie testbar ist, wie häufig erfolgreich getestet?) Generalisierbarkeit (auf möglichst viele anwendbar, kann mehr Phänomene erklären; Lerntheorien z.B.) Einfachheit (soll nicht unnötige Dinge enthalten; nicht notwendig, aber einfach ist vorzuziehen) Die wichtigste Besonderheit des Behaviorismus gegenüber anderen Ansätzen in der Psychologie in 1-2 Sätzen. - Beobachten von Verhalten - Naturwissenschaft - Introspektion nicht nützlich und nicht zulässig - keine Trennlinie zwischen Mensch und Tier; egal, ob ich Mensch oder Tier untersuche - viel tierexperimentelle Forschung Bemühen um Einfachheit durch Induktion wird versucht auf allgemeine Gesetze zu schließen, Betonung äußerer Ereignisse - Abneigung ggüber Spekulation über Nichtbeobachtbares Kognitionspsychologischer Ansatz: mentale Inhalte Kognition, alle unbeobachtbaren Vorgänge im Gehirn Tierexp. Forschung in der Lernpsychologie (jeweils 2 können): Pro - Reaktanz der Messung gering (kein anderes Verhalten unter Beobachtung, Menschen neigen dazu sich anders zu verhalten) - Placeboeffekte gering, keine Erwartungseffekte - geringe Kosten, hohe Verfügbarkeit (mit Einschränkungen) - vorherige Lernerfahrung kann genau kontrolliert werden - Verhaltensmechanismen von Tieren sind relativ einfach - Ethische Aspekte: Gehirn in Scheiben schneiden, naiver Versuchstiere Contra – Komplexe Leistungen nicht untersuchbar – Selbst bei einfachen Verhaltensweisen ist nicht immer klar, ob Mensch und Tier sie gleich lösen – Ethische Probleme Aristoteles Gesetze der Assoziation als Stichpunkte mit Beispiel -Kontiguität (Nähe in Zeit und Raum), Tisch und Stuhl, spielt besondere Rolle in der Lernpsychologie -Ähnlichkeit, Apfel und Birne -Kontrast, Tag und Nacht Grundannahme des britischen Empirismus in einem Satz - Alles Wissen geht von der Erfahrung (Empirie) aus - Der Mensch wird als tabula rasa (leere Tafel) geboren (J.Locke) - Ablehnung der Hypothese angeborener Ideen (wie sie z.B. von Kant als Nativisten vertreten wurde) - Alles Wissen ist gelernt, Assoziation grundlegendes Lernprinzip Die reduktionistische Gedächtnistheorie von Mill in 3-4 Sätzen - Hierarchie von Ideen: Am Anfang stehen die einfachen Sinneseindrücke, wenn mindestens zwei einfache Sinneseindrücke zusammen auftreten entstehen zunächst einfache und später komplexe Ideen. Diese komplexen Ideen können sich zu Duplexideen kombinieren (Mill) Beispiel Haus: komplexe Ideen sind Ziegelstein und Mörtel, Duplexidee ist Fenster, Verknüpfung von verschiedenen Duplexideen bilden dann Haus → Jede komplexe Idee ist nichts weiter als die Summe einfacherer Ideen und diese Zurückführung kann fortgeführt werden bis man bei den Elementen der Wahrnehmung (Vorstellung) ankommt (wie in Chemie, Reduzierung auf einzelne Moleküle) semantische Netzwerke sind Beispiele dafür, auch Embodiment Wie berechnet Ebbinghaus die Ersparnis (ein Satz/Term)? - lernte Listen mit sinnlosen (um Vorerfahrung auszuschließen) Silben mit 3 Buchstaben auswendig Maß für Gedächtnis/Lernleistung= Maß der Ersparnis Wenn ich die Liste, nachdem ich sie einmal gelernt habe wieder lerne, muss ich dann den gleichen Aufwand aufbringen wie beim ersten Mal oder ist der Aufwand geringer? Der geringere Aufwand im Vergleich zum ersten Mal ist die Ersparnis. Ersparnis = (alt-neu)/alt Was ist Überlernen und wie wirkt sich das aus (2 Sätze)? Was passiert, wenn man nicht aufhört zu lernen, nachdem man die Liste fehlerfrei kann?Überlernen führt zu verbesserter Leistung und Ersparnis beim Wiederholen. Wie maß Ebbinghaus den Einfluss von Nähe und Abfolge als Merkmale der Kontiguität (2-3 Sätze)? Kontiguität: Nähe in Raum und Zeit Kontiguitätsprinzip: Die Stärke der Assoziation zwischen zwei Items hängt von der ihrer Nähe ab; je näher, desto größer (erst Liste 0 gelernt; dann aus Liste 0 neue Liste gebildet, wo alle Silben bereits einmal vorgekommen sind, aber Reihenfolge verändert (je 1 Item übersprungen bis etwa Hälfte, dann wieder oben beim 2. Item angefangen/beim 2. Versuch 2 Items übersprungen) Ergebnis: Ersparnis wird geringer, Fazit: Stärke der Assoziation hängt von der Nähe zwei aufeinanderfolgenden Items ab Grenze des Kontiguitätprinzips: Nicht nur Kontiguität, sondern auch die Abfolge wichtig (Beweis durch Inversion/ Rückwärtsgerichtete Assoziation, er sagte die Liste rückwärts auf. Definition von Habituation und ein Beispiel (Furcht, Schreck oder OR) in je einem Satz. Abnahme der Reaktionsstärke nach wiederholter Präsentation des Stimulus, der die Reaktion auslöst (Beispiel Schreck, Furcht oder OR, beim ersten Donner eines Gewitters erschrecke ich mich ganz doll, dann immer weniger) Nonassoziatives Lernen (auch Sensitisierung), da nur 1 Reiz dargeboten wird Begründung, warum Habituation, etwa der OR, adaptiv ist (1 Satz). Habituation ist adaptiv und universell Adaptivität (nützlich, angemessen) führt dazu, dass ein Tier in seiner natürlichen Ugebung besser überlebt Orientierungsreaktion (OR) Ein neuer optischer oder akustischer Reiz führt zu einer OR, einer Hinwendung der Sinnesorgane (Kopfdrehen, Ohrenspitzen, Pupillenvergrößerung) zum Ort des Reizes Funktion: Zuwendung zu einem neuen Reiz (OR) ist adaptiv, denn es muss festgestellt werden, ob der Reiz positive oder negative Fitnesskonsequenzen hat; nicht vorteilhaft auf unrelevante Reize zu reagieren → Ablenkung. Sie können auf die Stichworte Verlauf, Zeit, erneutes Lernen, Reizintensität, Überlernen und Generalisierung allgemeine Prinzipien der Habituation nennen. 1. Verlauf: Typischerweise kontinuierliche, anfangs stärkste, Abnahme der Reaktionsstärke. 2. Zeit: Spontanerholung bei längerer Stimulationspause (aber schwächer) 3. Erneutes Lernen: Ersparnis 4. Reizintensität: Reaktionen auf intensive Reize sind stärker und habituieren weniger. 5. Überlernen: Unter-null-Habituation. Der Lernprozess geht auch weiter, wenn Habituation vollständig ist 6. Generalisierung: Unähnliche Reize führen zur Dishabituation (Tool der Entwicklungspsychologie, Balkensichtbeispiel), bei ähnlichen Reizen bleibt die Habituation bestehen Ort der Habituation (motorisch, sensorisch). Warum ist Habituation nicht einfach Ermüdung? Alle Ergebnisse deuten darauf hin, dass sensorische (vor motorischen Stadien) der neuralen Reizleitung von der Habituation betroffen sind. Nicht die Reaktion habituiert und ermüdet, sondern der Reiz ist nicht mehr geeignet eine Reaktion auszulösen. Keine Ermüdung der Reaktion! Aber warum??? Einschub zum besseren Verständnis: Beim KK werden zwei Reize, der unkonditionierte Reiz (US) und der konditionierte Reiz (CS), zusammen dargeboten; als Folge der gemeinsamen Darbietung verändert sich die Reaktion auf den CS, die konditionierte Reaktion (CR) genannt wird. Eine elementare Form des assoziativen Lernens, bei der die Bildung einer Assoziation zwischen zwei Elementen betrachtet wird. Beim KK werden CS und US unabhängig vom Verhalten des Organismus vorgegeben (Unterschied zum operanten Konditionieren). Welche Phasen unterscheidet man beim Klassischen Konditionieren (Begriffe und Erklärung!)? Besteht aus 4 Phasen: 1. Kontroll-/Testphase 2. Konditionierungsphase 3. Löschungsphase 4. Spontanerholung 1. In der Kontrollphase werden die beteiligten Reize vorgegeben und die möglichen Reaktionen getestet. Ein Reiz ist der US (unkonditionierter Reiz; Reaktion, die das Tier nicht gelernt hat, zum Beispiel Speichelfluss auf Fleischpulver) & ein neutraler Reiz, z.B. Glockenton. 2. Konditionierungsphase: Durch immer dieselbe Wiederholung des ursprünglich neutralen Reizes, nun CS und des unkonditionierten Reizes, US, lernt das Tier eine Assoziation von zwei Reizen und „erwirbt“ sich so sein Wissen. Es folgt eine Speichelsekretion des Hundes. 3. Löschungsphase: Es wird immer wieder nur der konditionierte Reiz, CS, dem Tier dargeboten und das Fleischpulver als unkonditionierter Reiz weggelassen. Wenn Konditionierung stattgefunden hat, sollte allein der CS eine Speichelabsonderung, CR auslösen. 4. Die Spontanerholung basiert auf dem Auslösen der konditionierten Reaktion in schwacher Form nach einer Ruhepause, sobald die Glocke oder das Licht dargeboten wurden. Sie ist gekennzeichnet durch das Wiederauftreten einer scheinbar gelöschten konditionierten Reaktion, der keine neuen Durchgänge mit beiden Reizen vorausgegangen ist. Welche Reize und Reaktionen unterscheidet man beim KK (Begriffe und Erklärung)? Der unkonditionierte Reiz (US) löst immer eine Reaktion aus, ohne vorherige Konditionierung. In dem typisch Pawlow’schen Experiment ist dies das Fleischpulver, das eine Speichelabsonderung auslöst ohne dass eine Konditionierung erfolgte. Dieser Reiz ist angeboren und braucht somit nicht erlernt werden. Der Speichelfluss, den wir schon erwähnt haben, ist in diesem Zusammenhang die unkonditionierte (UR) Reaktion. Dies ist die ursprüngliche Reaktion auf den unkonditionierten Reiz. Der konditionierte Reiz (CS) ist ein zuvor neutraler Reiz, der infolge der Assoziation mit einem unkonditionierten Reiz eine konditionierte Reaktion auslöst. Im Experiment ist es entweder die Glocke oder das Licht, die an die Stelle des konditionierten Reizes tritt und auch wieder einen Speichelfluss auslöst. Somit kann der Speichelfluss auch eine konditionierte Reaktion (CR) beziehungsweise bedingte Reaktion darstellen. In diesem Zusammenhang ist die konditionierte Reaktion die erlernte oder erworbene Reaktion auf einen neutralen Reiz, das diese Reaktion ursprünglich nicht hervorrufen kann. 4 Varianten des KK (Lidschluss, CER, GSR, Geschmacksaversion): Was ist jeweils US und UR, was kommt als CS in Frage? – Lidschlussreflex (protektiver Reflex), US Luftstoß (oder leichter Elektroschock), UR: Lidschluss, heftig und schnell, CS: Ton, Vibration viele Wiederholungen nötig – Konditionierte Unterdrückung/Konditionierte emotionale Reaktion (CER): US: unangenehmer Reiz, häufig Elektroschock, UR: Anzeichen von Schmerz und Vermeidung, Erstarren der Tiere, CS: Ton, Licht, aber recht lang, wird z.B. 60s vor dem US dargeboten wenig Wiederholungen reichen um deutliche Unterdrückung zu bewirken – elektrogalvanische Hautreaktion (GSR), US: Elektroschock, UR: Galvanische Reaktion, CS-Vielfalt: z.B. Wörter misst Veränderung der Leitfähigkeit der Haut/Lügendetektor – Geschmacksaversionslernen, US: Gift, das starke Übelkeit auslöst, Emetikum, harte Röntgenstrahlen, UR: Übelkeit, erbrechen, CS: ursprünglich neutraler Geschmack eines Nahrungsmittels, z.B. Wasser mit Saccharin (süß) extrem langanhaltend Wie unterscheiden sich CR und UR (4 Merkmale, in Stichworten)? Unterscheiden sich in ihrer Intensivität Nicht alle Bestandteile der UR werden Bestandteil der CR Die CR kann Reaktionen umfassen, die nicht zur UR gehören Die CR ist manchmal das Gegenteil der UR (oder teilweise) Sie können das Vorgehen bei der US-Abwertung beschreiben (3-4 Sätze). Devaluation (Abwertung): Schwächung der US-UR-Verknüpfung Zuerst werden CS (bei Rescorla Licht) und US (Krach) gemeinsam dargeboten bis Akquisition abgeschlossen ist und CS eine Reaktion auslöst. Dann wird US habituiert. Wirksamkeit US zu reduzieren, nachdem ein exzitatorischer CS geschaffen wurde Was wird durch US-Abwertung getestet (in einem Satz)? Durch die US- Abwertung soll die Verbindung zwischen US- Zentrum und Reaktionszentrum getestet werden. Es wird hauptsächlich mit der Habituation gearbeitet, um zu zeigen, dass eine US- Reaktions- Assoziation- Schwächung auch eine geringere Intensität der CR hervorruft. Somit wäre eine S-S Verbindung bestätigt, somit wird auch die SST (Pawlows Stimulussubstitutionstheorie: besagt, dass der CS durch wiederholte Kombi von CS und US ein Ersatz für den US wird, sodass die ursprünglich nur vom US ausgelöste Reaktion nunmehr auch vom CS ausgelöst wird) getestet. Einschub: Erstes Argument gegen die SST: CR ist nicht gleich UR Zweites Argument gegen die SST: CR wird erworben, auch wenn UR blockiert wird Drittes Argument gegen die SST: US- Abwertung schwächt die CR Auch Sättigung ist eine US-Abwertung. Viertes Argument gegen die SST: Sensorische Vorkonditionierung zeigt SS-Assoziationen Sensorische Vorkonditionierung (wenn vorher 2 neutrale Reize miteinander gepaart werden, aber nur einer darauf mit der US, lösen auch später beide eine CR hervor, folglich kann der 2. Reiz gar keine Assoziation mit der UR gebildet haben, da die beiden nie zusammen dargeboten wurden) Gegenteil von SST: Erwartungstheorie Sie können auf die Stichworte Akquisition, Löschung, Vergessen, Erneutes Lernen, Reizintensität und Generalisierung allgemeine Merkmale des KK- Lernens nennen. Akquisition: Messung, Verlauf, Trials 1. Die Stärke der CR wird verschieden gemessen, je nachdem, was untersucht wird 2. Typischer Verlauf der Kurve (sigmoid= s-förmig), dann Asymptote 3. Anzahl erforderlicher Trials abhängig vom System, das untersucht wird (bei Lidschlag zum Beispiel mehr) Timing von CS und US 1. bester Erfolg: delayed conditioning (verzögerte Konditionierung, CS wird dargeboten und einige Zeit später, aber während der CS noch an ist, der US.), CR klein bei langem SOA (Abstand Beginn CS&Beginn US). Optimales SOA hängt von Reizsystem ab. Bei Geschmacksaversion kann SOA ruhig beliebig ausgedehnt sein. 2. bester Erfolg: trace conditioning (Spurenkonditionierung) Erst wird der CS dargeboten, anschließend der US. bei CER trace= delayed Simultane Konditionierung, CS und US werden gleichzeitig dargeboten und rückwärtsgerichtete Konditionierung, CS wird nach dem US dargeboten, ungeeignet. Extinktion (Löschung): Wiederholte Darbietung des CS ohne US Vergessen Das bloße Verstreichen von Zeit wirkt sich kaum auf die CR aus!! Erneutes Lernen: Schneller Wiedererwerb: Folgt auf eine Akquisitionsphase (A) eine Extinktionsphase (E) und dann wieder eine Akquisitionsphase, dann ist die zweite Akquisitionsphase erheblich kürzer. _ In einer A E A E A … Sequenz werden die Akquisitionsphasen immer kürzer Die drei Phänomene, Spontanerholung, Disinhibition und schneller Wiedererwerb zeigen, dass KK nicht leicht rückgängig gemacht werden kann. Reizintensität von CS und US Allgemein: Je stärker CS und US, desto besser (schneller, stabiler, höher) die CR Ein salienter (starker, hervorragender) CS führt zu einer stärkeren CS (z.B. lauter Ton mehr als leiser Ton). Diskriminationshypothese: Konkurrenz des CS mit vielen Hintergrundreizen Ein starker US führt zu einer stärkeren CR, genauer gesagt zu einer höheren Asymptote. Generalisierung und Diskrimination: Nach der KK mit einem CS lösen auch andere, ähnliche Stimuli konditionierte Reaktionen aus, selbst wenn diese nie mit dem US kombiniert wurden Dieser Transfer der Konditionierungsfolgen auf ähnliche Stimuli wird Generalisierung genannt. - Je ähnlicher ein Stimulus dem Stimulus in der Lernphase ist, umso höher ist das Potenzial eine CR auszulösen. Sie können begründen, dass bei der Löschung kein Abbau der Assoziationen stattfindet. 3 Fakten sprechen gegen eine Löschung der Assoziation während der Extinktion 1. Spontanerholung: Am Beginn des nächsten Tages wird das Verhalten zunächst wieder stärker gezeigt. Beleg dafür, daß die Assoziation nicht dauerhaft gelöscht wird. 2. Disinhibition: Extinktionsphase so weit fortgeschritten, dass CS keine Reaktion mehr auslöst wird wenige Sekunden vor CS ein neuer Stimulus präsentiert, CS löst wieder CR aus Präsentation eines ablenkenden Stimulus unterbricht Inhibition 3. Schneller Wiedererwerb: Folgt auf eine Akquisitionsphase (A) eine Extinktionsphase (E) und dann wieder eine Akquisitionsphase, dann ist die zweite Akquisitionsphase erheblich kürzer. In einer A E A E A … Sequenz werden die Akquisitionsphasen immer kürzer Sie können die Inhibitionstheorie der Spontanerholung in 3-4 Sätzen darstellen. Gegen Ende der Extinktion bestehen zwei gegenläufige Assoziationen, eine exzitatorische (in Erwerbsphase entstanden) und eine inhibitorische (entsteht parallel dazu in der Löschungsphase). Erfolgreiche Extinktion wäre es, wenn die inhibitorische Assoziation gleich ist. Aber die inhibitorische Assoziation ist fragiler als EA, daher Spontanerholung • nach weiteren Extinktionssitzungen: Spontanerholung lässt immer mehr nach, schließlich Verschwinden dies geschieht, da inhibitorische Assoziation mit jeder Experimentalsitzung stärker wird Sie können Disinhibition (die nach erfolgter Extinktion auftreten kann) in 2-3 Sätzen erklären. Wenn nach einer erfolgreichen Löschung kurz vor dem CS ein neuer Reiz gezeigt wird. z.B. vor Klingel ein anderer neutraler Reiz, z.B. Rassel, dann löst die Klingel wieder eine CR aus. Inhibitorische Assoziation ist empfindlich und kann leicht unterbrochen werden. Sie können erklären wie man einen konditionierten Inhibitor (CS-) erhält. (3 Methoden) „latente Inhibition“ (CS wiederholt alleine vorgegeben (CS-Präexposition). Dann in CS+ umgewandelt wie im Retardationstest. Ergebnis: verzögerter Erwerb. Wahrscheinlich keine Inhibition, sondern eine Folge der Nichtbeachtung des CS aufgrund von Habituation) „Konditionierte Inhibition“ (Pawlow; Zwei Arten von Durchgängen: erst CS+ und US, dann CS+ und CS-; je besser der CS+, desto besser der CS-) „Konditionierte Inhibition“ (Rescorla; Zwei Arten von Durchgängen: erst CS-, aber kein US, dann US, aber kein CS-; inhibitorische Wirkung umso stärker, je häufiger der US auftritt) „differenzielle Konditionierung“ (Zwei Arten von Durchgängen: erst CS+ (Ton) und US (Futter), dann CS- alleine; wenn CS- vorher exzitatorische Eigenschaften hatte, tritt zwar Löschung ein, aber der CS ist nicht inhibitorisch) Sie kennen die zwei Methoden zur Testung konditionierter Inhibition und können diese je mit einem Satz beschreiben. Retardationstest (Zuerst wird ein CS- (inhibitorischer CS=Ton, wenn nix folgt, kündigt also Ausbleiben des US an) etabliert, der später als CS+ (exzitatorischer CS, kündigt Auftreten des US an) verwendet wird. Hierbei ist die Ausbildung der CR auf CS+ verzögert (retardiert).) Summationstest (CS- und CS+ werden unabhängig voneinander etabliert, dann gemeinsam vorgegeben (summiert). CR fällt geringer aus.) Sie kennen die vier wichtigsten Möglichkeiten der Reizpräsentation beim KK und ihre Wirksamkeit (zu jedem 1-2 Sätze, und /oder eine Abbildung). 1. bester Erfolg: delayed conditioning (verzögerte Konditionierung, CS wird dargeboten und einige Zeit später, aber während der CS noch an ist, der US.), CR klein bei langem SOA (Abstand Beginn CS&Beginn US). Optimales SOA hängt von Reizsystem ab. Bei Geschmacksaversion kann SOA ruhig beliebig ausgedehnt sein. 2. bester Erfolg: trace conditioning (Spurenkonditionierung) Erst wird der CS dargeboten, anschließend der US. bei CER trace= delayed Simultane Konditionierung, CS und US werden gleichzeitig dargeboten und rückwärtsgerichtete Konditionierung, CS wird nach dem US dargeboten, ungeeignet. CS-US-Korrelation: Sie können definieren, wann ein CS exzitatorisch oder inhibitorisch wird (1-2 Sätze). Faustregel: Korrelation zwischen US und CS muss nicht 1.0 sein – Ein CS wird exzitatorisch in dem Ausmaß, in dem er das Auftreten eines US zuverlässig ankündigt (Korrelation positiv) -Ein CS wird inhibitorisch in dem Ausmaß, in dem er das Ausbleiben eines US zuverlässig ankündigt (Korrelation negativ) Sie können in knappen Worten wiedergeben, was eine Konditionierung erster und zweiter Ordnung ist. Sie sollen auch in der Lage sein, Beispiele für Konditionieren höherer Ordnung anzugeben. (2 Sätze) Wird ein neutraler Reiz mit einem US gepaart, spricht man von Konditionierung erster Ordnung. Paart man einen neutralen Reiz mit einem CS, sodass der vormals neutrale Reiz ebenfalls die bedingte Reaktion auslöst, ist dies eine Konditionierung zweiter Ordnung. Sie gelingt nur, wenn der zweite CS biologisch schwächer ist als der erste CS. Konditionierung in der Natur?! – Wölfe sind Jäger des Rotwilds – Junge Rehe fürchten Wölfe nicht, müssen das erst lernen durch Schauen auf Artgenossen – Kond. 1. Ordnung: • CS-Wolf-Geruch; • US-Rudel zeigt Furcht; • UR-Angst – Kond. 2. Ordnung • CS2-Anblick des Wolfes; • CS1-Wolf • CR1-Angst Konditionieren 2. Ordnung kann die Ausweitung von Assoziation erklären, z.B. Gefühl (Spinne) – Anblick (Spinne). Konditionieren 3. Ordnung klappt nicht mehr im Labor. Sie kennen den Blocking-Effekt (Kamin) und können die Vorgehensweise beschreiben (z.B. in Form einer Tabelle, die die Phasen und Versuchsgruppen darstellt). Kamin konnte mit seinem Blocking-Experiment beweisen, dass nur eine Konditionierung stattfindet, wenn der CS informativ ist. Vortraining: Die Experimentalgruppe bekam zuvor nur den Ton mit dem Schock. Der Ton kündigte also den Schock perfekt an. Nach dieser Phase hatten die Tiere gelernt den Schock aufgrund des Tonreizes zu erwarten. Als das Licht dazu kam, war das ein völlig überflüssiger Reiz, kein Informationsgewinn. Trainingsphase: Alle Tiere in beiden Gruppen bekamen zusammen Licht und Ton (CSVerbundreiz) präsentiert gemeinsam mit einem Schock (US). In der Testphase gab es für beide Gruppen nur das Licht als CER-Paradigma. Die Kontrollgruppe zeigte fast perfekte Unterdrückung (.05). Die Experimentalgruppe zeigte praktisch keine Unterdrückung (.45). Sie kennen die Bedeutung des Blocking für die Theorie des klassischen Konditionierens (ein Satz). Die traditionelle Sicht des KK geht davon aus, dass die gemeinsame Darbietung von CS und US (Kontiguität) hinreichend und notwendig ist für die Konditionierung. Kamins Experiment zeigt, dass dies falsch ist. Der CS muss den US nicht nur ankündigen, er muss darüber hinaus mehr Informationen über den US haben, als die bereits bekannten Reize, damit eine KK stattfindet. Sie wissen was der Übererwartungseffekt ist (1-2 Sätze). beeindruckend, weil kontraintuitiv Versuchstier erwartet bei zwei voneinander unabhängigen und einzeln präsentierten CS eine Belohnung. Werden beide CS nun zusammen präsentiert, findet eine Schwächung der CS-US- Paarung statt, weil das Versuchstier nun eigentlich 2 Belohnungen (für jeden CS eine) erwartet. Bekommt es nun wie bisher nur 1 Belohnung, ist dies eine inhibitorische Konditionierung. Resultiert aus dem 6. Punkt des Rescorla-Wagner-Modells Sie können die Vorhersagen des Rescorla-Wagner Modells auf Stichworte hin angeben (6 Aussagen). Erwartungen des US werden erworben 1. Wenn die Intensität des aktuellen US größer ist als die erwartete Intensität, dann werden alle konditionierten Stimuli, die mit dem US kombiniert werden, exzitatorisch konditioniert Phi>V (ich erwarte nichts und bekomme einen großen Schreck) 2. Wenn die Intensität des aktuellen US kleiner ist als die erwartete Intensität, werden alle konditionierten Stimuli, die mit dem US kombiniert werden, inhibitorisch konditioniert Phi<V 3. Wenn die Intensität des aktuellen US der Intensität der Erwartung entspricht, dann findet keine Konditionierung statt. Phi=V 4. Je größer die Diskrepanz zwischen erwarteter und tatsächlicher Intensität des US (also Überraschung), desto stärker ist die Konditionierung 5. Saliente Reize führen schneller zur Konditionierung als weniger saliente Reize. 6. Wenn zwei oder mehr konditionierte Stimuli zusammen präsentiert werden, summiert sich die erwartete Intensität. Sie können mit dem mathematischen Rescorla-Wagner-Modell umgehen. Delta V = alpha (Lamda-V) Lamda = Stärke des US V = Stärke der Erwartung Lernfortschritt = Delta V Lernrate = alpha (wie schnell gelernt wird) Zu Beginn der Akquisition: Lambda = 1 (US ist vorhanden), V=0 (Erwartung null), Lernparameter= 0.1, Veränderung 0.1*(1-0)=0.1 In der Mitte der Akquisition: Lambda = 1, V=0.5 (Erwartung schwach), 0.1*(1-0.5)=0.05 Zum Ende der Akquisition: Lambda=1, V=1 (Erwartung vorhanden), 0.1*(1-1)=0 Kein Lernfortschritt mehr Sie können das Experiment von Garcia und Koelling (1966) darstellen (z.B. als Tabelle). Haben die Äquipotenzialitätsannahme geprüft. 2 Gruppen mit Ratten Helles -lautes (CS1) und süßes (CS2) Wasser wurde entweder mit Schock oder Emetikum (US) gepaart. Die zwei Gruppen Schock und Emetikum wurden anschließend entweder mit hellem und lautem Wasser oder mit süßem Wasser gestestet. Ergebnis: Gruppe Emetikum: CER bei süßem Wasser, nicht bei hellem und lautem Wasser Gruppe Schock: CER bei hellem und lauten Wasser, nicht bei süßem Wasser Sie kennen die Bedeutung des Experimentes von Garcia und Koelling (1966) für die Annahme der Äquipotenzialität. (1-2 Sätze) Die Äquipotenzialitätsannahme: CS ist im Prinzip austauschbar und beliebig. Als CS kann dienen, was gerade zur Hand ist. Ergebnis aus dem Experiment von Garcia und Koelling: CS sind nicht gleichwertig, sie müssen zu den US passen! Der Garcia-Effekt zeigt, dass biologische Randbedingungen entscheidend bei der Wahl von CS und US sind und dass die Äquipotenzialitätsannahme nicht richtig ist. Beziehung zwischen CS und US ist wichtig, aufgrund der biologischen Ausstattung gibt es die Neigung bestimmte Stimuli miteinander in Verbindung zu bringen. Sie können den Begriff der Preparedness erläutern (1-2 Sätze). Organismen bringen Lernbereitschaften bestimmte Zusammenhänge (besser und schneller) zu lernen als andere. Diese sind zwischen den Arten verschieden (Vögel z.B. eher visuell orientiert, Ratten geschmacksorientiert). Man entfernt sich von der tabula rasa-Annahme. Sie können das Vorgehen der aversiven Gegenkonditionierung bei Alkoholmissbrauch beschreiben und als Klassisches Konditionieren analysieren (2-3 Sätze). Veränderung einer bestehenden positiven konditionierten Reaktion, z.B.Esssucht, Alkoholmissbrauch, Rauchen, Drogensucht Diese Verhaltensweisen schaffen häufig kurzfristig positive Affekte, schaden jedoch langfristig Freiwillige Therapie. Patienten bekamen in einer „Bar“ ein Emetikum (US) & Bestandteile zum Stabilisieren des Kreislaufs. Nach der Injektion der Wirkstoffe, kurz vor Einsetzen der Übelkeit (Timing ist wichtig!, wie beim KK, optimales Intervall zwischen CS und US), bekamen sie z.B. einen Whiskey, den sie genau wahrnehmen (riechen, sehen, schmecken) sollten, und anschließend bis zum Erbrechen austrinken sollten (anschließend weitere Durchgänge mit anderen Alkoholika). Anschließend wird Magen gewaschen, 5-7 Behandlungen pro Patient. Extinktion (CS ohne US) ist wahrscheinlich Ziel: kurzfristige, aversive Reaktion auf Reize zu lernen Operantes Konditionieren (=Instrumentelles Lernen) Sie können den Unterschied zwischen KK und OK erklären (1-2 Sätze). Die Erforschung des operanten Konditionierens erfolgt mit dem Ziel, Regelhaftigkeiten willkürlichen Verhaltens und Gewohnheiten (Verhalten wie Gehen, Sprechen, Essen, Arbeiten oder Spielen) aufzufinden und zu erklären, und diese Erkenntnisse für die Vorhersage und Beeinflussung von Verhalten, etwa in der Erziehung oder der Therapie, nutzbar zu machen. Im Gegensatz zum Klassischen Konditionieren = unwillkürliches Verhalten wie Speichelfluss, Reflexe, das (mehr oder weniger) zuverlässig durch einen äußeren Reiz ausgelöst wird. Sie kennen Setting und AV von Thorndikes Experimenten (1-2 Sätze). "Animal Intelligence" Learning by Trial and Error Thorndike setzte ein hungriges Tier (Katzen) in einen "Problemkäfig". Die Tür konnte durch eine oder mehr Aktionen geöffnet werden, worauf das Tier Zugang zu Futter bekam. Die Lösung fanden die Tiere zuerst zufällig durch Versuch und Irrtum (trail and error). Anschließend wurde die Zeitspanne bis zum Öffnen der Tür immer kürzer (also: AV=Zeit bis zum Öffnen der Tür, Latenz!), die Katzen lernen also! → Thorndike maß die Performanz anhand der Zeitspanne, die die Versuchstiere benötigen, um in einem Durchgang aus dem Käfig zu entkommen. Sie können das Law of Effect in 1-2 Sätzen zusammenfassen. „Von verschiedenen Reaktionen auf dieselbe Situation werden jene, die von einer Befriedigung des Willens des Tieres begleitet oder gefolgt werden, mit der Situation stärker verbunden, sodass sie bei einem erneuten Auftreten der Situation mit größerer Wahrscheinlichkeit wieder gezeigt werden. Jene, die von einer Frustration des Willens des Tieres begleitet oder gefolgt werden, führen zu einer Schwächung der Assoziation mit der Situation, sodass sie vermutlich mit geringerer Wahrscheinlichkeit wieder auftreten. Je größer die Befriedigung oder Frustration, desto intensiver die Stärkung oder Schwächung der Verbindung.“ •Befriedigung und Frustration -„ Ein befriedigender Zustand bedeutet, dass das Tier nichts tut, um ihn zu vermeiden, sondern vielmehr versucht, ihn herbeizuführen und zu erhalten. Ein frustrierender oder unangenehmer Zustand wird normalerweise vermieden und rasch beendet.“ Law of Effect ist ein mechanistisches Lernzprinzip! Sie kennen das Stop-Action-Prinzip (1-2 Sätze). = Abnahme der Verhaltensvariabilität Genau die Bewegung, die der Verstärkung/Belohnung unmittelbar vorausgeht, wird verstärkt. Beleg für mechanistische Verstärkung, also Law of effect Sie kennen Skinner`s mechanistische Erklärung abergläubischen Verhaltens (2-3 Sätze). Das mechanistische Stop-Action-Prinzip lässt vermuten, dass zufällige Verstärkung vorkommen kann. Skinner belohnte Taube, egal, was diese machte. Futtertrog wurde automatisch alle 15 sec an Käfig gebracht. (lerntheoretische) Erklärung abergläubischen Verhaltens: Taube zeigt im Käfig alle möglichen Aktionen. Die Aktion, die unmittelbar vor der Belohnung gezeigt wurde wird verstärkt (bei Menschen und bei Tieren). Die verstärkte Aktion wird anschließend ein klein wenig häufiger gezeigt als alternative Aktionen. Somit steigt die Wahrscheinlichkeit einer Verstärkung genau dieser Aktion, Verhaltensvariabilität sinkt. Aber: Timing ist wichtig – bei langem Intervall macht das Tier zwischen den Verstärkungen alles mögliche... Sie wissen, was Shaping ist und wozu man es verwendet (3-4 Sätze). Das Gesetz des Effekts besagt, dass die Variabilität des Verhaltens mit dem Training abnimmt (und die Stereotypie zunimmt). Aber die Variabilität ist nie null, es gibt immer Abweichungen. Shaping macht sich gerade die natürliche Variabilität des Verhaltens zunutze. Grundlage des Shaping ist die schrittweise Annäherung an ein gewünschtes Verhalten, wenn dieses noch nicht gezeigt wird und es somit noch nicht verstärkt werden kann. Hierfür werden auch kleine Schritte in die richtige Richtung belohnt, wobei das Kriterium fortschreitend verschärft wird. Anwendungsbereiche: Schule, Verhaltenstherapie, Psychiatrie (Kaugummi-Bsp, Patient hat seit 19 Jahren nicht gesprochen, aber er mochte Kaugummi; er bekam Kaugummi, wenn er den Theraputen ansah, dann Lippenbewegungen, dann vokalisierte, dann Kaugummi sagte) Sie kennen Verhaltensketten, und wie man sie trainiert (1-2 Sätze). Jeder Stimulus in der Mitte einer Verhaltenskette erfüllt zwei Funktionen: Er ist ein konditionierter Verstärker für das vorausgehende Verhalten und ein diskriminativer Hinweisreiz für das nächste Verhalten der Kette. Wie kann man einem Versuchstier eine VK beibringen? •Rückwärtsverkettung – Man beginnt mit der letzten Aktion, die dann verstärkt wird. – Der Startpunkt der letzten Aktion wird somit zum sekundären Verstärker. – Dann wird die vorletzte Aktion gelernt, u.s.w. •Vorwärtsverkettung Man verstärkt jede Aktion, beginnend mit der ersten. (hat aber das Problem, irgendwann alle bis auf die letzte Verstärkung zu entfernen) Sie wissen, was ein konditionierter Verstärker ist und warum man den braucht (1-2 Sätze). Konditionierte Verstärker, insbesondere sekundäre Verstärker (= ein zuvor neutraler Stimulus, der die Fähigkeit erworben hat, Reaktionen zu stärken, weil er wiederholt mit einem primären Verstärker gepaart wurde) • Primäre Verstärker: Dinge oder Vorgänge, für die Tiere bereit sind, zu "arbeiten". Beispiele sind Nahrung, Süßes, Sexualpartner u.ä.; eignen sich nicht immer gut zum Konditionieren, weil sie meist nicht zeitlich präzise angeboten werden können. Daher verwendet man oft konditionierte Verstärker. Auch Sättigungseffekte sind Gründe. • Sekundäre Verstärker: Reize, die einen primären Verstärker ankündigen und durch KK erhält, z.B. Lob (hat erstmal keine positiven Auswirkungen, aber weitere positive Entwicklungen) Sie wissen, was eine Skinner-Box ist (1-2 Sätze). Automatische Boxen im Gegensatz zu Thorndike, Hebel zum Manipulieren, Lautsprecher, verschiedene Lampen, Futterspender, für verschiedenen Fragestellungen Heute am Computer angeschlossen, damit bestimmte Reize präsentiert werden. Lernexperimente können dort komplett automatisiert durchgeführt werden können. Sie kennen ein Beispiel für „Misbehavior of Organisms” und was das zeigt (2-3 Sätze). Bsp: The Bantam Chicken Tür öffnet sich, Huhn sollte nur auf einer Glasplatte stehen, stattdessen fing es an kratzende Bewegungen auszuführen (unnötig). Das Ganze sah so aus, als ob das Huhn eine Jukebox anwirft und zu Tanzen beginnt. Dieses Ergebnis war völlig ungeplant, Hühner sollten eigentlich nur stehen. Huhn hätte auch ohne Bewegungen alle 15 sec Futter bekommen. Stellen Abweichungen vom lerntheoretischem Wohlverhalten dar. Erklärung: → Instinctive Drift/ Instinktneigung Breland & Breland vermuten, dass instinktives Verhalten, dass durch den Reiz ausgelöst wird, die Ausführung erlernter Aktionen verdrängen kann (instinktives Verhalten ist also stärker). Hierbei scheint es eine Rolle zu spielen, dass das „Instrument“ zu einem konditionierten Verstärker wurde (Assoziation zwischen Objekt und Verstärker), jedenfalls wurden häufig Aktionen gezeigt, die normalerweise gegenüber dem Verstärker gezeigt werden. Trotz der enormen Anwendbarkeit des operanten Konditionierens gibt es also Grenzen. Instinktives Verhalten ist Stolperstein. Sie können erklären, was ein Verstärkerplan ist (1 Satz). Ein Verstärkerplan ist eine Regel, die angibt, unter welchen Bedingungen (wie und wann) eine Verstärkung erfolgt. Sie sind reversibel. Sie können erklären, was CRF, FR, VR, FI und VI Pläne sind (je 1-2 Sätze). Kontinuierliche Verstärkung (CRF): jede einzelne Reaktion wird verstärkt, schneller Erwerb intermittierende (eben nicht jede Reaktion wird verstärkt) Verstärkung eher löschungsreistent Quotenpläne: Bei Quotenplänen steht der Aufwand (Anzahl der Reaktionen) in einem direkten Verhältnis zum Gewinn (Anzahl der Verstärkungen). fixer Quotenplan=FR nach jeder n-ten Reaktion gibt es einen Verstärker (FR-10: nach jeder 10. Reaktion) Hohe Rate Nachverstärkungspause hängt von der Quote ab, ist umso länger je höher Quote variabler Quotenplan=VR nach jeder n-ten Reaktion im Durchschnitt gibt es Verstärkung hohe Rate sehr gleichmäßig Nachverstärkungspausen sind nicht vorhanden Intervallpläne: Fixes Intervall (FI): die erste Reaktion, die nach einem festgelegtem Zeitintervall auftritt, wird verstärkt Verstärkung hängt von der verstrichenen Zeit und der Ausführung einer Reaktion ab, wobei die Zeitintervalle immer gleich lang sind. variables Intervall (VI): Zeitintervall ist nur im Durchschnitt eine bestimmte Dauer lang, variiert Tiere reagieren seltener Sie kennen den typischen Verlauf der Akquisition bei FR, VR, FI und VI Plänen (gerne auch graphisch). Sie kennen Alltagsbeispiele für FR und VR-Pläne (Je eine Aussage). - Tischler kriegt nach z.B. 10 Tischen eine Pause oder einen bestimmtem Geldbetrag, Akkordarbeit (fixer Quotenplan=FR) - Teilnahme an Lotterie oder Verlosung, je mehr Lose er kauft desto häufiger erhält er im Durchschnitt einen Gewinn; aber die Anzahl der Lose, die er kaufen muss, ist unklar (variabler Quotenplan=VR) Sie wissen, was eine Token-Economy ist. Token Economies (Gutschein-Ökonomie): Belohnungs- und Bestrafungssystem. Es gab z.B. mal Bethelgeld. Token werden bei erwünschtem Verhalten gegeben, z.B. für Körperpflege, soziale Interaktion. Mit Token können Nahrungsmittel und Luxusgüter (Zigaretten, Freizeitaktivitäten) erworben werden. Sind selten geworden wg. Gerichtsurteile. Sie können Verstärkung von Bestrafung abgrenzen (1 Satz). Sie können negative und positive Verstärkung (bzw. Typ I und Typ II Bestrafung) abgrenzen (1 Satz). 4-Felder-Schema, das jeweils zwei Arten von Verstärkung und Bestrafung darstellt Stimulus präsentiert Wegnehmen od. Weglassen des Stimulus Verhaltens -Zunahme Positive Verstärkung Bsp: Leckerli für Männchenmachen Negative Verstärkung Bsp: Leinelösen für Kampfvermeidung Verhaltens-Abnahme Bestrafung (Typ I) Bsp: Unterwerfung für Jagen durch anschreien Entzug (Negative Bestrafung Typ II) Bsp: Anleinen fürs Jagen Sie kennen das Vermeidungsparadox; Sie können die lerntheoretische und die kognitive Erklärung skizzieren (3 Sätze). Vermeidungslernen (Solomon & Wynne, 1953) - Aufbau des Experiments - Hunde in Zweikammerkäfig, wobei in der ersten Elektroschock verabreicht wird und vorher eine Lampe leuchtet - Hund springt nach >10s: Fluchtverhalten - Hund springt nach <10s, also bevor der Schock einsetzt: Vermeidung - Die meisten Hunde lernten schnell Vermeidung (bekamen nur 1mal einen Schock) Die Latenzen wurden immer kürzer (1-2s) Vermeidungsparadox: Warum halten die Tiere ein Verhalten aufrecht, das nur 1x verstärkt wurde (durch Schock)? Erklärungen: 2-Faktorentheorie Kognitive Theorie Kognitive Theorie Erwartung 1: die Erwartung des Schocks nach Verhalten (bei Flucht kein Schock), Erwartung = 0 Erwartung2: die Erwartung des Schocks ohne Verhalten (ohne Flucht Schock), Erwartung= 1 Es wird Erwartung gewählt, die mit möglichst hoher W`keit ein möglichst positives Ergebnis erzielt. E1 besser als E2, daher wird die Vermeidung ausgeführt. Erwartungen werden nicht gelöscht, sondern erst verändert, wenn sie diskonfirmiert werden, also bis der Gegenbeweis passiert. 2-Faktorentheorie 1. Phase: Klassisches Konditionieren – US eSchock – CS Dunkelheit – UR, CR = Angst 2. Phase: Operantes Konditionieren – Dunkelheit (Diskriminativer Hinweisreiz), erzeugt Angst – Flucht (operantes Verhalten), beendet Angst - Furchtreduktion (negativer Verstärker=Beenden des CS) →Der Trick der 2FT besteht eigentlich darin, dass die schwer erklärbare Vermeidung als Flucht (vor der Angst) umgedeutet wird. Sie wissen, was Flooding ist, und warum Flooding nach der Lerntheorie helfen soll (2-3 Sätze). siehe Dschungel-Camp mit Prüfungen, VP wird gezwungen in Situation zu verharren, kann Vermeidungsreaktion nicht ausführen, Erwartung wird gelöscht, Vermeidungsverhalten verschwindet man sieht also, dass wirklich nix passiert, wenn man sich z.B. in einem Raum mit vielen Spinnen aufhält Flooding in der Verhaltenstherapie: Ethik: offensichtlich problematischer als systematische Desensibilisierung - Erfolg: Flooding = Systematische Desensibilisierung (aber SD ist angenehmer) - Ergo: Flooding nur als ultima ratio; äußerstes, letztes Mittel Sie wissen, wie gelernte Hilflosigkeit hervorgerufen werden kann, und wie sie sich äußert (2-4 Sätze). Overmier & Seligman (1967) Seligmans Begriff für eine Minderung der Fähigkeit, eine Vermeidungsreaktion zu erlernen, die auftritt, nachdem ein Individuum unvermeidbaren aversiven Reizen ausgesetzt wurde. Exp: Eine Gruppe Hunde, die zunächst Elektroschocks ausgesetzt waren ohne die Möglichkeit diesen zu entfliehen, versuchten dies in der 2. Versuchsanordnung, in der sie hätten flüchten können auch gar nicht mehr. → Erwartung: Verhalten wirkt sich nicht auf die erlernten aversiven Ereignisse aus. (Bei Menschen führt dies zu Hilflosigkeit und Depression) Die Theorie der gelernten Hilflosigkeit Parallelen zwischen GH und (reaktiver) Depression _ Verringerte Motivation zu willentlichen Reaktionen – GH: geringe Initiative; Depr.: Passiv, Verlangsamung _ Negative Denkmuster – GH: kognitive Störung; Depr.: Unfähigkeitsüberzeugung _ Verfällt mit der Zeit – bei beiden meist nicht chronisch _ Verringerte Aggressivität – bei beiden wenig Feindseligkeit und Konkurrenzverhalten _ Appetit- und Interessenverlust – Gewichtsabnahme, vermindertes Interesse, z.B. sexuell, gesellige Aktivitäten Sie kennen Faktoren, die sich auf die Bestrafung auswirken (5 Stichworte mit Erläuterung). ist gekennzeichnet durch die Präsentation eines Reizes, und einer daraufhin einsetzenden Verringerung der Verhaltensrate. Bsp: Anfassen der Herdplatte – Schmerz Faktoren der Wirksamkeit von Bestrafung Intensität: Bei zu schwacher Bestrafung kann Gewöhnung auftreten Also: wenn schon bestrafen, dann gleich mit voller Intensivität Azrin, Holz & Hake (1963): bei konstanter Stärke reichten 80V, um bei Tauben ein Tastenpicken völlig zum Verschwinden zu bringen Bei anfangs geringer Stärke waren am Ende 130V nötig! Unmittelbarkeit: Es gibt einen direkten Zusammenhang zwischen der Unmittelbarkeit von Bestrafung und der Verhaltensunterdrückung! Also wenn schon Bestrafung, dann sofort! Im Alltag wird dieser Zusammenhang ganz häufig missachtet...(Warte nur, bis deine Mutter nach Hause kommt…) ... und fast alle institutionalisierten Strafen haben enorme Verzögerungen – Bestrafungsplan: Kontinuierliche Bestrafung führt schneller zum Erfolg als intermittierende Wird ein FI-Plan verwendet, ist die Reduktion am Ende des Intervalls am größten Wird ein FR-Plan verwendet, ist die Reduktion nach 70-90% der Quote am größten – Verhaltensmotivation: Motivierte Tiere müssen stärker bestraft werden als weniger motivierte Tiere - Azrin & Holz (1966): hungrige Tauben ertrugen stärkere Schocks als wenig hungrige Tauben. - Mazur: Das ist nicht weiter überraschend, aber bedeutungsvoll für die Praxis: Wenn man es schafft, den Verstärker für das unerwünschte Verhalten abzuwerten, dann braucht man weniger Bestrafung!! (Handtuchhorten-Beispiel) – Verfügbarkeit alternativer Verhaltensweisen: •Wenn alternative Verhaltensweisen verfügbar sind, die verstärkt werden, gelingt die Bestrafung schnell. - Azrin und Holz (1966). Tauben werden bei Picken-für- Futter bestraft; sie reduzieren ihr Verhalten um 10%, aber um 100% wenn sie eine alternative Taste haben. - Auch hier gilt: nicht wirklich kontraintuitiv, aber immens wichtig für Erziehung und Therapie: Bestrafe das Problemverhalten (z.B. Zanken) und stelle gleichzeitig Verstärker für alternatives Verhalten (z.B. zusammen spielen) in Aussicht! Erklärung des instrumentellen Lernens. Welche drei Argumente sprechen gegen Thorndikes „Law of effect“ (3 Sätze)? Law of effect: Eine Belohnung führt zu einer Stärkung der S-R-Verknüpfung, eine Bestrafung/Frustration zu einer Schwächung. Es geht also um die Verknüpfung von Stimuli und Reaktionen wie beim KK. Etliche Ergebnisse sprechen gegen diese Erklärung: Latentes Lernen zeigt, dass Verstärkung für Lernen nicht notwendig ist. Kontrasteffekte zeigen, dass insbesondere R-S-Erwartungen gelernt werden. Eine Vielzahl von Befunden spricht für den Erwerb von S-S-Erwartungen. Sie kennen das Experiment von Tolman & Honzik (1930) zum latenten Lernen (UV, AV, Ergebnis), und die anschließende Unterscheidung von Kompetenz und Performanz. multiples 14-Einheiten-T-Labyrinth, 17 Trials (1 pro Tag) AV: Anzahl Fehlerrate, wie oft Ratte in Sackgasse geht (Leistung) UV: Futtergabe 3 Gruppen: Gruppe 1 wurde nie gefüttert. Wenn das Tier die Zielbox erreichte, wurde es einfach herausgenommen, nicht verstärkt. Verbessert sich auch ohne Verstärkung Gruppe 2 erhielt jeden Tag Futter in der Zielbox, kontinuierlich verstärkt. Besser als Gruppe 1, sehr wenige Fehler Gruppe 3 erhielt bis zum 11.Tag kein Futter, dann schon; müsste eigentlich gleiches Ergebnis haben wie Gruppe 2, nur um 11 Tage verschoben, aber abrupte Verhaltensänderung und wenig Fehler; vorher schon latentes (verborgenes) Lernen, zeigt sich aber erst wenn der Reiz (Futter) eingesetzt wird Verstärkung ist also nicht notwendig fürs Lernen. Sie kennen Crespis (1942) Experiment zu Verstärkererwartungen (UV, AV, Ergebnis). Erwartungen, dass ein bestimmtes Verhalten einen bestimmten Verstärker folgen lässt. UV: Ratten bekommen 1, 16 oder 256 Futterpillen. AV: ? Nach 20 Trials bekamen alle 16 Futterpillen. Ergebnis: Ratten, die vorher 256 Pillen bekamen, starke Abnahme des Verhaltens nach der Gabe von nur 16 Pillen. Gleichbleibend bei denen, die vorher auch 16 bekamen. Zunahme, bei denen, die vorher nur 1 bekamen. Es werden Verhaltens – Verstärker (R-S) Erwartungen gelernt. Sie kennen Belege für die Entstehung von S-S Assoziationen (3 Punkte). Lernen ohne Verhalten: Ratten lernen auch die Position einer Futterbox, wenn sie zuvor nie dorthingelaufen sind sondern nur abgesetzt worden waren. Verhaltensäquivalenz: Ratten, die mit einem Wagen durch ein Labyrinth gezigen wurden, laufen auch in die Zielbox. Ratten, die für durchlaufen des Labyrinth verstärkt wurden, schwimmen zur Zielbox nach einer Flutung des Labyrinths. Autoshaping: Tauben erhielten ein Scheibenlicht als CS und eine Futterpille als US. Sie entwickelten ein zuverlässiges Scheibenpicken was völlig unnötig war. Offenbar assoziieren die Tauben die Scheibe mit dem Futter (S-S-Lernen) Sie kennen Beispiele für Imitation bei Tieren (1-2 Sätze). Affen tradieren Goldwäschermethode, um Körner oder Süßkartoffeln vom Sand zu trennen. Vögel lernten voneinander das Aufpicken des Aluminiumdeckels der Milchflaschen Was ist der Unterschied zwischen social facilitation, Mimikry und echter Imitation (ein Satz)? Social facilitation Verhalten aus vorhandenem Repertoire wird nach Beobachtung eines anderen Tieres ausgeführt (z.B. Huhn wird in Gesellschaft pickender Hühner häufiger picken als allein). Radfahrer fahren in der Gruppe schneller als allein. Mimikry – Wiederholung der physischen Handlung ohne dabei ein Ziel (außer ev. der Imitation selbst) zu verfolgen Kleine Kinder imitieren etwa die Bewegungen der Erwachsenen in diesem Sinn, wenn sie spielen. Echte Imitation – Wenn eine Handlung übernommen wird, um selbst das zugehörige Handlungsziel zu erreichen Völlig neues Verhalten wird nach Beobachtung ausgeführt. Affen tradieren Goldwäschermethode, um Körner oder Süßkartoffeln vom Sand zu trennen. Vögel lernten voneinander das Aufpicken des Aluminiumdeckels der Milchflaschen. Wenn größere Kinder etwa lernen, einen Computer und ein Programm zu starten, um selbst ein Spiel zu spielen Sie kennen das Experiment von Meltzof&Moore (1977) in den Grundzügen (2-3 Sätze). Imitation bei Neugeborenen Babies zwischen 12-21 Tage sowie zwischen 0,7-71 Stunden Imitation von Mundöffnen, Zunge rausstrecken (am meisten erkannt hinterher), Fingerbewegung Sie können etwas mit dem Begriff Spiegelneuronen anfangen (2-3 Sätze). Giacomo Rizzolatti und Mitarbeiter fanden sogenannte Spiegelneurone im prämotorischen Kortex von Affen. Diese Neurone feuern kurz vor einer bestimmten Bewegung (z.B. eine Erdnuss nehmen und essen), aber auch, wenn die Bewegung nur beobachtet wird! (Nicht aber bei Erdnuss ohne Bewegung oder Bewegung ohne Erdnuss) Sie kennen Miller und Dollards (1941) Erklärung von Imitation als erworbene Dreifachkontingenz (1 Satz). SD-R-SV Hinweisreiz: Verhalten des Modells Verhalten: Imitation des Modells Verstärkung: Lob, Belohnung Sie kennen Banduras Kritik an dieser Interpretation (2 Aussagen). häufig wird das Verhalten nicht sofort nach der Beobachtung imitiert (nur SD vorhanden während R und SV fehlt) häufig wird Imitation nicht verstärkt (nur R vorhanden, SD und SV fehlen) Bsp: Junge beobachtet Mutter bei zubereiten des Müslis. Später ist er allein in der Küche und imitiert die Aktionen der Mutter. Sie kennen in den Grundzügen das typische Vorgehen von Bandura in den Experimenten mit der Puppe Bobo. Welche UV`s kennen Sie (2-3 Sätze)? ● Bandura (1965) 66 4-jährige sahen einen 5-min Kurzfilm, in dem ein Erwachsener „Rocky“ vier neuartige aggressive Verhaltensweisen gegenüber „Bobo“ ausführt (z.B. boxte er Bobo ins Gesicht und sagte „Peng, voll auf die Nase, peng, peng“). Drei Gruppen, Erwachsene bekamen: 1) Belohnungen (verbal, Süßigkeiten) 2)Bestrafung 3)keine Konsequenz Imitatives aggressives Verhalten wurde in Gruppe 1 mehr gezeigt als in den Gruppen 2 & 3. Fazit: Die beobachteten Konsequenzen des Verhaltens waren ausschlaggebend für das Zeigen (Performanz) von Verhalten! Wurde den Kindern anschließend eine Belohnung versprochen, zeigten alle Kinder das aggressive Verhalten Fazit: Gelernt (Kompetenz) hatten alle Kinder! Bandura, Ross&Ross (1963): 96 Kinder (Alter M=4 Jahre) wurden in vier Gruppen eingeteilt 1. Die Kinder beobachten eine erwachsene Person, die einer Plastikpuppe körperlich und verbal aggressiv zusetzte. 2. Gruppe: Gleiche Szene als Realfilm. 3. Gruppe: Pseudo-Cartoon-Film. 4. Die vierte Gruppe erhielt kein Treatment. (Kontrollgruppe) Kinder wurden nach der Wegnahme ihres momentanen Spielzeugs zu der Plastikpuppe gebracht. Gruppen 1-3 zeigten sich aggressiver als Gruppe 4. Offenbar bewirkt die Beobachtung eines aggressiven Modells, ob nun real oder medial vermittelt, eine Zunahme an aggressivem Verhalten. Vor allem zeigte sich eine Zunahme an imitativem aggressiven Verhalten. Sie wissen welche vier Prozesse nach Banduras Theorie am Modellernen beteiligt sind und wie. „Können“ umfasst nur die ersten drei Prozesse. Für die Ausführung müssen Motivationsprozesse hinzukommen. Gelernt werden insbesondere Verhalten-Effekt-Kontingenzen Sie wissen, was das Premack-Prinzip besagt. Verhalten , das mit höherer Wahrscheinlichkeit auftritt, dient als Verstärker für Verhalten, das mit geringerer Wahrscheinlichkeit auftritt und ein weniger wahrscheinliches Verhalten als Bestrafung für ein wahrscheinlicheres Verhalten fungiert