Skript Lernen (WS 11/12) (Kißler)

Werbung
Skript Lernen (WS 11/12) (Kißler) Kapitel 1: Die Psychologie des Lernens und Verhaltens Lernen ist der Prozess, der zu einer relativ langfristigen Veränderung im Verhaltenspotential eines Organismus führt und ein Ergebnis von Erfahrung darstellt.  Prozess, langfristig:  Lernen ist dynamisch (Fokus auf Akquisition, nicht das Produkt)  Verhaltensveränderung ist replizierbar  Verhaltens ‐ potential Lernen ist beobachtbar Verhalten tritt evtl. nicht immer auf, kann aber mehr als einmal hervorgerufen werden (Kompetenz vs. Performanz)  Ergebnis von Erfahrung  Verhaltensveränderung können auch kein Ergebnis von Erfahrung sein, sondern angeboren, prägungs‐, reifungs‐, entwicklungsbedingt Wissenschaftliche Theorien  Bestandteile:  unabhängige Variable: Ursache, in der Hand des VLs, beobachtbar  abhängige Variable: Wirkung, resultiert aus dem Untersuchungsgegenstand (VP, Versuchstier), beobachtbar  intervenierende Variable: rein theoretischer Natur, Erklärung, nicht beobachtbar  Gütekriterien: 1. Testbarkeit (Falsifizierbarkeit)  Theorie muss überprüfbar und widerlegbar sein  klare Vorhersagen, keine Mehrdeutigkeiten (formale Adäquatheit) 2. Einfachheit  2 Theorien zur Erklärung von Daten: diejenige bevorzugen, die mit weniger hypothetischen Konstrukten und Annahmen auskommt (Occam’s razor) 3. Generalisierbarkeit  Theorie sollte auf viele Bereiche, Beobachtungen, Phänomene anwendbar sein 4. Fruchtbarkeit  Theorie hat die Fähigkeit, weitergehende Forschung und Theorienbildung anzuregen 5. Bestätigung  Theorie muss mit Daten übereinstimmen, empirisch bestätigt Erkenntnisgewinn (allgemein)  Deduktion (sehr sicher)  Vorhersage (Ableitung) eines Sachverhalts aus einem allgemeinen Gesetz (wenn‐
dann) und einer Antezedenzbedingung  Induktion (unsicher)  Abstraktion allgemeiner Gesetze auf Grundlage der Beobachtung einer begrenzten Zahl von Einzelfällen  Abduktion (extrem riskant)  Schluss von einem beobachtbaren Sachverhalt auf einen (noch) nicht beobachteten Sachverhalt (z.B. von Wirkung auf Ursache) Wissenschaftliche Methoden  Anekdoten und Fallbeispiele (z.B. Little Albert)  einzelne Beobachtungen werden als Beweise angeführt (Einzelfallanalysen) o Vorteil: instruktiv, hypothesengenerierend, manchmal eigene Evidenz o Repräsentativität, Einfluss von Drittvariablen  Beobachtung (z.B. Korrelation Medienkonsum – Gewalt)  Beobachtung ohne Eingreifen, statistische Erhebung mit Fragebögen etc. o Vorteil: Datengewinnugn häufig einfach, Repräsentativität teils hoch o Drittvariablen unbekannt, daher Kausalität unklar  Experiment  Manipulation angenommener Tatsachen, Messung der Wirkung o Vorteil: Kausalaussagen möglich o Nachteil: Repräsentativität über Stichproben und Situationen teils unklar  Kontrolle von Störvariablen notwendig: o Doppelblinddesigns (VL & VP sind sich der Gruppen nicht bewusst)  Randomisierung von Versuchsbedingungen (Reihenfolgeeffekte)  Zufallsstichprobe von Versuchsteilnehmern (Personenmerkmale)  wiederholte Messungen (singuläre Störungen, Zufallsschwankungen)  Statistik und Signifikanztests 8zufällige Schwankungen) Einsatz von Versuchstieren  Vorteile  Placeboeffekte viel geringer (Tiere sind sich des Versuchs nicht bewusst)  leicht Verfügbarkeit  Umgebung kann besser kontrolliert werden  relative Einfachheit für Forscher (Tiere sind nicht so komplex wie Menschen)  Nachteile  wichtige Fertigkeiten wie Sprechen, Lesen, Lösung komplexer Aufgaben an Tieren nicht untersuchbar)  Mensch und Tier so unterschiedlich, Rückschluss Tier auf Mensch unzulässig  ethische Einwände Behaviourismus (die Betonung beobachtbarer Ereignisse)  geprägt durch John B. Watson zu Beginn des 20. Jhdt.  Gegenbewegung zu Introspektion (eigene innere Erfahrungen als Forschungsmaterial)  Psychologie sollte sich nur mit beobachtbaren Ereignissen beschäftigen, wenn sie eine Wissenschaft sein möchte  Watson: gegen Verwendung nicht beobachtbarer Ereignisse als psych. Material  Skinner: gegen Verwendung nicht beobachtbarer Ereignisse in der Theorienbildung  gekennzeichnet durch folgende Prinzipien:  Objektivismus (intersubjektiv verständlich und nachprüfbar)  Empirismus (alles Wissen geht von Erfahrung aus)  Phänomenalismus (nur Beobachtbares ist erkennbar)  Deskriptivismus (Beschreibung von Erscheinungen)  Induktivismus (Wissen entsteht durch Induktion aus beobachteten Einzelfällen)  hat Gegenbewegungen hervorgerufen  Soziobiologie: gegen Überbetonung des Lernens  neuerdings: kognitive Neurowissenschaften (Läsionsstudien)  Kognitionspsychologie (Inside the blackbox  Informationsverarbeitung) o Miller: bei Theorien mit vielen unabhängigen Variablen Einsatz von intervenierenden Variablen sinnvoll  Unterschied Behaviourismus und Kognitivismus = graduell  kaum Einsatz intervenierender Variablen vs. bedenkenloserer Einsatz Kapitel 2: Einfache Ideen, einfach Assoziationen und einfache Zellen Assoziationen  Aristoteles formulierte 3 Assoziationsprinzipien 1. Kontiguität: Nähe in Zeit oder Raum (z.B. Stuhl‐Tisch) 2. Ähnlichkeit: Verbindung zweier Dinge durch Ähnlichkeit (z.B. Apfel‐Birne) 3. Kontrast: Gedanke an Gegenstand löst Gedanken an Gegenteil aus (z.B. Tag‐Nacht)  britische Assoziationisten (z.B. Hobbes, Locke, Mill; auch Empiristen genannt)  alles Wissen geht von der Erfahrung aus (Empirie)  tabula rasa (Locke)  Ablehnung der Hypothese angeborener Ideen (Kant, Nativismus)  alles Wissen ist gelernt: Assoziation = grundlegendes Lernprinzip  Erfahrung besteht aus Sinneseindrücken (Wahrnehmung) und Erinnerung aus Vorstellung (Ideen)  einfache Ideen beruhen direkt auf einfachen Sinneseindrücken (z.B. rot  rot)  komplexe Ideen beruhen aus der Kombination vieler einfacher Ideen (z.B. rechteckig + rot  Ziegel)  Duplexideen kombinieren komplexe Ideen (z.B. Ziegel + Mörtel  Haus)  Thomas Browns sekundäre Assoziationsprinzipien  Zeitdauer der Koexistenz zweier Wahrnehmungen (je länger, desto besser)  Lebendigkeit der Sinneswahrnehmung (z.B. Emotionen  Häufigkeit der Koexistenz  Kürzlichkeit der Koexistenz  Unbelastetheit von starken Assoziationen (möglichst keine Assoziationen)  Personenfaktoren (konstitutionell, emotional, körperlich, Gewohnheiten) o viele gelten auch für Langzeitpotenzierung  Hermann Ebbinghaus (1885)  untersuchte sich selbst als Versuchsperson  lernte Listen mit sinnlosen Silben auswendig bis er sie gerade eben konnte  ließ Zeit verstreichen und prüfte, wie lange er brauchte um sie wieder zu erlernen o Ziel: Ersparnis ermitteln  Liste von 7 Silben sofort fehlerfrei o Lernaufwand steigt überproportional mit einer Zunahme des zu lernenden Materials (12  17, 24  44)  Rolle der Häufigkeit o weiterlernen nach einmaliger korrekter Widergabe der Liste = Überlernen  Zeit zum Wiedererlernen wird mit zunehmendem Überlernen kürzer (wenn Anzahl erhöht wir nimmt Effekt ab)  Rolle der Zeit o Analog‐Sätze (Adolf Jost) 1. Wenn zwei Erinnerungen gleich stark aber unterschiedlich alt sind, wird die jüngere noch stärker vergessen als die ältere 2. Die ältere wird von der Wiederholung stärker profitieren als die jüngere  Rolle der Kontiguität o Ebbinghaus vertauschte die Items und lernte Listen neu  Ersparnis nahm ab je mehr übersprungen wurden  Stärke einer Assoziation von zwei Items hängt von ihrer Nähe ab o Inversion der Liste (rückwärtsgerichtete Assoziation)  Ersparnis nur 13 % statt 33 %  nicht nur Kontiguität sondern auch Abfolge ist wichtig  Ebbinghaus kann als erster Experimentalpsychologe gelten o Operationalisierung wichtiger Variablen  fehlerfreie Wiedergabe = Lernen; Wiederholung = Lernaufwand  Kontrolle wichtiger Umweltvariablen (Geschwindigkeit, Betonung, Bedeutung)  Variation möglicher Einflussgrößen  Experimente = Beispiele für explizite assoziative Lernprozesse Physiologische Grundlagen  spezialisierte Sinnesneuronen in Augen, Ohren etc. reagieren auf einfache sinnliche Impulse (wie von Assoziationisten vorgestellt)  Gehirn fasst Impulse der Sinnesneuronen zusammen o einzelne Neuronen reagieren aus komplexere Stimuli o Experimente von Hubel & Wiesel (Musterdetektoren) 
Vererbung und Umwelteinflüsse tragen zu Entstehung optischer Musterdetektoren bei  daraus entwickelte sich Single Neuron Doctrine o optisches System auf der Grundlage einer Hierarchie mit zunehmender Komplexität organisiert (einfache Neuronen komplexe Neuronen)  Embodiment o Konzepte beruhen auf mentalen Repräsentationen, Modalitäten sind etwas Sehen, Fühlen, Riechen, Sehen, Schmecken, Tun o Wahrnehmung von Objekten  sensorischen & motorischen Aktivierungen im Gehirn  Repräsentation der Konzepte o z.B. Konzept „Fahrrad fahren“ (Geräusch, Haptik, Motorik…)  Verständnis eines Wortes beinhaltet Aktivierung von Hirnbereichen, die auch für die Ausführung zuständig ist (z.B. werfen, treten…)  Neuronale Mechanismen des Lernens 1. chemische Veränderung  Hebbsche Regel  Wenn Neuron A wiederholt oder anhaltend zum Feuern eines Neurons B beiträgt, so kommt es zu einem Wachstumsprozess, der dazu führt, dass Neuron A in Zukunft leichter zum Feuern von Neuron B beiträgt Langzeitpotenzierung  Anti‐Hebbsche Regel:  eine neuronale Verbindung wird reduziert (durch geringere Exzitation, stärkere Inhibition), wenn die Neuronen A und B simultan aktiv sind  Langzeitdepression 2. Wachstum neuer Synapsen  Langzeitpotenzierung führt auch zu synaptischer Multiplikation (Synapsen spalten sich auf in mehrere)  Vergleich Ratten in komplexer Umwelt & isoliert  Gewicht des Gehirn bei komplexer Umwelt größer  Entwicklung des menschlichen Gehirns: vor allem im 1. Lebensjahr entwickeln Dendriten zahlreiche Verzweigungen (Arborisation)  widrige Umweltbedingungen in früher Kindheit können zu reduziertem Hirnstoffwechsel im Erwachsenenalter führen 3. Bildung neuer Neuronen (Neurogenese)  Speicherung von Daten im Gehirn  Lashley: Erinnerungen an verschiedenen Stellen im Gehirn gespeichert  andere Hypothese: Informationen über Konzept in kleinen, genau bestimmten Arealen gespeichert Kapitel 3a: Angeborene Verhaltensmuster Angeborenes Verhalten  z.B. autonome Regulation (Körpertemperatur, Kreislauf)  sensorische Fähigkeiten  Lernen baut auf diesen Verhaltensweisen auf  Ethologen:  beschäftigen sich mit angeborenem und erlernten Verhalten  Verhaltensbeobachtung in natürlicher Umgebung  speziesspezifisch  primär im Tierreich  Lernpsychologen  Untersuchung allgemeiner Lernprinzipien unter Laborbedingungen  aber: auch wachsendes Interesse an angeborenen Verhaltensweisen  Realität: Interaktion Erbe & Umwelt  Verhalten ist meist zielgerichtet (erlerntes & angeborenes)  Ethologie als Verhaltenswissenschaft  beschäftigt sich mit … o … Aktualgenese von Verhalten (Verhaltensabläufe in einer Situation) o … Ontogenese des Verhaltens (Entwicklung über Lebensspanne) o … Phylogenese des Verhaltens (stammesgeschichtliche Entwicklung) o … biologischer Funktion (der adaptive Wert) des Verhaltens  unterscheidet sich von … o … allgemeiner Psychologie: psychische Mechanismen spielen untergeordnete Rolle o … Behaviourismus: vor allem ungelerntes Verhalten soll erklärt werden o … Physiologie: erklärt Verhalten des gesamten Organismus  untersucht überwiegend Verhalten im natürlichen Lebensraum einer Art  wichtige Ethologen: o Karl von Frisch (1886 – 1982)z.B. Bienentanz o Konrad Lorenz (1903 – 1989) z.B. Gänse o Nikolaas Tinbergen (1907 – 1988) z.B. Eier  Kontrollsystemtheorie  erlaubt eine neutrale Beschreibung von zielgerichtetem Verhalten (nicht „bewusstes“ Ziel) 

angeborene Verhaltensweisen können als Regelkreise organisiert sein selbst Reflexe passieren manchmal nicht ballistisch, sondern werden durch Feedbacksignale gesteuert Reflexe  Definition: stereotypes Bewegungsmuster eines Körperteils, das zuverlässig durch den passenden Stimulus ausgelöst wird  z.B. Greif‐, Saugreflex beim Säugling, Patellarreflex, Lidschluss, Husten  Reflexbewegung erfolgt extrem schnell über sensorische und motorische Neuronen im Rückenmark (z.B. reflexartiges Zurückziehen der Hand  spinaler Reflexbogen)  Dehnungsrezeptoren in den Muskeln dienen als Komparatoren (Vergleich des aktuellen Kontraktionszustandes mit dem erforderlichen) Tropismus  Definition: Bewegung/Veränderung der Position des gesamten Lebewesens als zwingende Bewegung (keine Intentionalität) 1. Kinesis: Bewegungsrichtung ist in Bezug auf den Stimulus zufällig  z.B. Kellerassel läuft ziellos umher, bis sie feuchte Stelle findet 2. Taxis: Bewegungsrichtung wird durch Stimulus bestimmt  z.B. Made bewegt sich sofort von Lichtquelle weg)  beide Bewegungen sind zielgerichtet aber nicht intentional ! Verhaltenssequenzen  fixe Verhaltensmuster  Kriterien: 1. Verhaltensmuster ist Teil des Verhaltensrepertoires einer ganzen Spezies 2. Verhaltensmuster ist nachweislich nicht gelernt 3. Wenn das Verhaltensmuster aus mehreren Verhaltensweisen besteht, dann treten diese immer in der gleichen fixen Reihenfolge aus und laufen komplett ab (ballistisch)  Beispiel: Nüsse vergraben beim Eichhörnchen  Überprüfung notwendig, ob Verhalten wirklich angeboren o Beispiel: Deprivationsversuch mit Eichhörnchen (ohne Artgenossen)  zeigt gleiche Verhaltensmuster, wenn es Nuss bekommt  fixe Verhaltensmuster werden durch Schlüsselreize ausgelöst  generelle Frage: Welche Merkmale eine Stimulus sind relevant, welche nicht? o Attrappenversuche o Beispiel Stichlingsrevierkampf: nicht nur echte Fische, sondern alle Objekte, die unten rot sind werden angegriffen  Reaktionsketten  angeborene Abfolge von Verhaltensweisen, bei der der Übergang von einem Verhalten zum nächsten von der Anwesenheit des richtigen äußeren Reizes abhängt (jeder Schritt i.d.R: Stimulus für den nächsten)  Kette kann abreißen oder Teile übersprungen werden (nicht ballistisch) Angeborene menschliche Fähigkeiten und Dispositionen  Menschen haben verschiedene Reflexe und fixe Verhaltensmuster die angeboren sind, meiste Verhaltensweisen jedoch Produkt von Lernerfahrungen  Zuordnung problematisch  Watson behauptete, jedes Kind auf ein bestimmtes Ziel hin erziehen zu können (Vererbung spielte seiner Meinung nach keine Rolle)  menschliche Universalien nach Donald E. Brown  Fähigkeiten, Verhaltensweisen, die sich in allen bekannten Kulturen finden (ca. 400) o z.B. Tanz, Musik, Regierungsform, Ehe etc.  Hinweise darauf, dass Sprachfähigkeit, der mimische Ausdruck von Emotionen und verschiedene andere soziale Verhaltensweisen angeboren sein könnten Kapitel 3b: Habituation  Definition: Abnahme der Reaktionsstärke nach wiederholter Präsentation des Stimulus, der die Reaktion auslöst  z.B. erster Donnerschlag eines Gewitters führt zu erschrecken, dann Gewöhnung an das Geräusch  Habituation ist stimulusspezifisch (bei Türknall bei Gewitter Erschrecken  Dishabituation)  Sensibilisierung: Gegenteil zu Habituation, Empfindlichkeit für Reiz steigt bei wiederholter Darbietung  Geltungsbereich  kann sich prinzipiell bei jeder Stimulation einstellen  ist faktisch bei reflexiven Reaktionen auf neue und plötzliche Reize am deutlichsten  Beispiel: Schreck, Furcht, Orientierungsreaktion  Adaptivität  Zuwendung zu einem neuen Reiz adaptiv  Reiz könnte positive oder negative Fitnesskonsequenzen haben  nicht alle Reize sollten beachtet werden  Habituation sorgt dafür, dass adaptive Reflexe nur bei neuen Reizen auftreten  Universalität  alle reflexiven Reaktionen habituieren  Habituation wird von vielen Lebewesen gezeigt Allgemeine Prinzipien 1. Verlauf  Habituation findet statt, wenn ein Stimulus wiederholt präsentiert wird  typischerweise kontinuierliche, anfangs deutlichste, Abnahme der Reaktionsstärke 2. Zeit  nach einiger Zeit ohne Reiz erfolgt wieder eine stärkere Reaktion  jedoch nicht so stark, wie bei erster Darbietung (Dishabituation & Spontanerholung) 3. erneutes Lernen  nach längerer Unterbrechung schnelleres Wiederauftreten der Habituation (Ersparnis  Ebbinghaus) 4. Reizintensität  Reaktionen auf intensive Reize sind stärker und habituieren weniger 5. Überlernen  Unter‐Null‐Habituation  Lernprozess geht weiter, wenn Habituation vollständig ist (nach Pause schneller Gewöhnung) 6. Generalisierung  Übertragung der Habituation von einem Stimulus einen neuen aber ähnlichen  abhängig von der Ähnlichkeit zwischen Reizen  unähnliche Reize führen zur Dishabituation o durch Untersuchung von Habituation können Ähnlichkeitsempfindungen untersucht werden Physiologische Mechanismen  Beispiel Aplysia (Verfahren einfacher Systeme) 







Meeresschnecke mit sehr einfachem Nervensystem (ca. 20 000) zieht Kiemen ein, wenn Atemröhre berührt wird 10‐15 Reizungen (1/min) bringen Reflex 1‐2 Stunden zum erliegen werden Reizungen 3‐4 Tage durchgeführt  Langzeithabituation (mehrere Wochen) neuronaler Schaltkreis: o sensorische Rezeptoren in der Atemröhre haben entweder direkt mit einem motorischen Neuron der Kiemen oder mit einem bestimmten Interneuron eine Synapse Habituationseffekte wurden in der sensorischen Prä‐
Synapse nachgewiesen (erste Synapse der Kette) durch wiederholte Reizung fließt weniger Kalzium, weniger Transmitter wird freigesetzt keine Veränderung in der Transmitterempfindlichkeit der Postsynapse  Langzeithabituation  der Inaktivierung der synaptischen Übertragung (Kurzzeithabituation) folgen Strukturveränderungen der sensorischen Neuronen o ca. 1/3 der synaptischen Verbindungen fällt weg (sensorisches Neuron) o Rückbildung der Synapsen analog zu Rückbildung des Verhaltens o können jedoch auch regenerieren und wiederherstellen  Habituation und Sensitisierung sind nicht‐assoziative Lernvorgänge (keine neue Verbindung zwischen Reizen)  Veränderung der Intensität einer best. Reiz‐Reaktions‐Verbindung Habituation und Emotionen  Opponent‐Process‐Theorie (Solomon & Corbit, 1974)  jede Erfahrung wird automatisch und reflexive von einer gegenteiligen Emotion begleitet  „opponent‐process“ (b‐Prozess) schwächer als auslösender Prozess  bei zunehmender Erfahrung habituiert a‐Prozess (wird schwächer) und b‐Prozess nimmt zu  macht Vorhersagen fruchtbar, generalisierbar  jedoch wenige physiologische Belege & unterschiedliche Zeitverläufe des b‐Prozesses Kapitel 4: Klassische Konditionierung Iwan P.Pawlow (1849‐1936)  Versuche zur Verdauung von Hunden  entdeckte, dass Speichelfluss nach einer Weile vor Futter auftritt  Vermutung: erlernter Reflex (konditionierter Reflex) Terminologie  US unconditioned stimulus  lässt Reaktion ohne vorheriges Lernen aus  UR unconditioned response  durch den US ausgelöste Reaktion  CS conditioned stimulus  neutraler Reiz, der erst nach Konditionierung Reaktion auslöst  CR conditioned response  Reaktion, die durch CS nach dem Lernen ausgelöst wird Arbeitsdefinitionen  ältere: 
Beim klassischen Konditionieren werden 2 Reize verwendet, wobei der US automatisch und zuverlässig die UR hervorruft, während der CS, der ursprünglich keine Reaktion hervorrief, nach wiederholter gemeinsamer Darbietung von CS & US die CR hervorruft.  moderne:  Beim klassischen Konditionieren werden 2 Reize, der US & der CS zusammen dargeboten. Als Folge der gemeinsamen Darbietung verändert sich die Reaktion auf den CS, die CR genannt wird.  Unterschiede:  Verzicht auf Forderung, dass … o … der US eine unwillkürliche UR auslösen muss o … der CS keine Reaktion hervorrufen darf o … UR und CR gleich sein müssen experimentelle Verfahren  Lidschlussreflex  US: Luftstoß oder leichter Elektroschock  CS: Licht, Ton, Vibration  UR: Lidschluss, heftig, schnell  CR: Lidschluss, meist schwächer, langsamer o viele Wiederholungen notwendig  allgemein: Konditionierung meist nicht perfekt, sondern probabilistisch  elektrogalvanische Hautreaktion  beim Menschen untersuchte Leitfähigkeit der haut  Schwitzen ausgelöst durch Elektroschocks o.ä.  Schocks verbunden mit Wörtern, Gesichtern o Konditionierung schnell, zuverlässig  Lidschlussreflex und elektrogalvanische Hautreaktion = einfache Verfahren  konditioniert Unterdrückung (konditionierte emotionale Reaktion, CER)  leicht messbare normale Verhalten (z.B. drücken eines Hebels) o Abweichungen hiervon werden gemessen  Licht, Ton vor Schock, nach Licht bereits Unterbrechung des „normalen“ Verhaltens o erfordert wenige Wiederholungen  Geschmacksaversionslernen  US: Gift o.ä.; UR: Übelkeit… ; CS: neutraler Geschmack ; CR: Meiden des Geschmacks o sehr schneller Erwerb o sehr langanhaltend & weit verbreitet o wichtiges Paradigma für neuere Forschung  CER und Geschmacksaversionslernen = komplexe Verfahren  komplex, weil: Konditionierungserfolg = Unterdrückung instrumentellen Verhaltens  alltagsrelevante Varianten  Reaktionen von Herz, Magen, Leber, Nieren  Konditionierung des Immunsystems  verbale (z.B. evaluative) Konditionierung Pawlows Stimulussubstitutionstheorie (SST)  Theorie besagt, dass der CS durch wiederholte Kombination von CS und US ein Ersatz für den CS wird, sodass die ursprünglich nur vom US ausgelöste Reaktion nunmehr auch vom CS ausgelöst wird  Probleme der SST  CR ist nie eine genaue Kopie der UR !!  unterschiedliches Timing (CR häufig langsamer als UR)  unterschiedliche Intensität (CR häufig schwächer als UR)  unterschiedliche Form  fehlende Komponenten (z.B. Schlucken vor der Futtergabe fehlt)  neue Komponenten (z.B. Orientierungsreaktion zum Glockenton)  gegenteilige Komponenten (z.B. Morphiumspritze kann Hypothermie oder Hyperthermie als CR auslösen)  einige Abweichungen in der Form können erklärt werden (Hilgard, 1936)  fehlende Komponenten: Teile der UR (z.B. Schlucken beim Anblick von Futter) hängen vom US (Anwesenheit von Futter) ab und können nicht übertragen werden  zusätzliche Komponenten: CS hat Merkmale (z.B. Orientierungsreaktion), die beibehalten werden  die CR trägt Merkmale der UR und der „normalen“ Reaktion auf den CS  Unterschied zwischen klassischer und moderner Definition der KK  Zwei Möglichkeiten der SST 1. Während der Konditionierung entsteht eine direkte Assoziation zwischen dem CS‐
Zentrum und dem Reaktionszentrum (zw. Stimulus und Reaktion) o S‐R‐Assoziation o Stärke der CR hängt nur von der neu erworbenen S‐R‐Assoziation ab 2. Während der Konditionierung entsteh eine Assoziation zwischen dem CS‐Zentrum und dem US‐Zentrum. o S‐S‐Assoziation o Stärke der CR hängt von der bestehenden US‐UR‐Assoziation ab und von der neu erworbenen CS‐US‐Assoziation  Experimentelle Unterscheidung zw. S‐S‐ und S‐R‐Verbindungen  Experiment von Rescorla (1973): US‐Abwertung (Devaluation) o Schwächung der bestehenden US‐CS‐Verknüpfung durch Habituation (Reflexe habituieren!) o d.h. die UR auf den US wird mit wiederholter Darbietung schwächer  CR= Unterbrechung des Hebeldrückens (konditionierte emotionale Reaktion; CER)  UR= Unterdrückung der CER o
o
o
Hypothese: Stärke der CR in der Kontrollgruppe größer als in der Habituationsgruppe  wird vorhergesagt durch S‐S‐Theorie Ergebnis: Hypothese bestätigt, Ratten in der Kontrollgruppe zeigen größere Reaktion auf den CS Schlussfolgerung: Stärke der CR hängt von der anhaltenden Stärke der US‐
Reaktions‐Assoziation ab  S‐S‐Position Allgemeine Prinzipien der Klassischen Konditionierung  Akquisition  Phase, in der CS und US gemeinsam vorgegeben werden = Akquisitionsphase o neues Verhalten wird erlernt (CR)  Einflussfaktoren o Stärke des CS: salienter CS führt zu einer stärkeren CR (Diskriminationshypothese: Konkurrenz mit Hintergrundreizen) o Stärke des US: starker US führt zu einer stärkeren CR, bzw. zu einer höheren Asymptote  Extinktion (Löschung)  Löschung von in der Konditionierung erworbenen Verhalten o bloßes verstreichen der Zeit wirkt sich kaum aus 
1.
2.
3.

wiederholte Darbietung des CS ohne US o keine vollständige Löschung, drei Punkte sprechen dagegen: Spontanerholung, Disinhibition, schnellerer Wiedererwerb) Spontanerholung  das Wiederauftreten einer zuvor gelöschten Reaktion (z.B. im 2. Extinktionsblock)  umso deutlicher, je mehr Zeit verstrichen ist  Erklärungen: o Inhibitionstheorie:  Akquisition = Aufbau einer exzitatorischen Assoziation (eA)  Extinktion = Aufbau einer zusätzlichen inhibitorischen Assoziation (iA)  erfolgreiche Extinktion: iA = eA  jedoch: iA fragiler als eA, Spurenzerfall stärker  Spontanerholung o Aufmerksamkeit  CR tritt nur auf, wenn CS beachtete wird  Extinktionsblock I: CS bedeutungslos, wird nicht mehr beachtet  Extinktionsblock II: CS wird wieder beachtet, da er Orientierungsreaktion auslöst o Unsicherheit  Akquisition: für jeden CS einen US  Extinktion: nur CS  Unsicherheit des Versuchstieres; „weiß“ nicht was kommt  werden Extinktionsblöcke durch Summer angekündigt, kaum Spontanerholung Disinhibition  Wiederauftreten einer CR auf einen CS nach dessen Extinktion, wenn ein neuer Stimulus kurz vor dem gelöschten präsentiert wird  z.B. vor der Glocke wird ein Summer betätigt Glocke löst wieder CR aus  Pawlows Erklärung (Inhibitionstheorie): Aufmerksamkeitsablenkung wirkt stärker auch den fragilen Inhibitionsprozess schnellerer Wiedererwerb  folgt Akquisitionsphase eine Extinktionsphase und dann wieder eine Akquisitionsphase, ist diese erheblich kürzer  in einer AEAE … Sequenz werden Akquisitionsphasen immer kürzer ( Ersparnis) 3 Faktoren zeigen, dass klassische Konditionierung nicht leicht rückgängig gemacht werden kann  Konditionierte Inhibition 
CS kann bei der Konditionierung inhibitorische Eigenschaften erwerben o inhibitorischer CS (CS‐) oder konditionierter Inhibitor  CS, der das Auftreten einer CR verhindert, oder ihre Intensität reduziert o exzitatorischer CS (CS+)  CS, der regelmäßig eine CR hervorruft 
Summationstest o Verfahren, um die kombinierten Wirkungen eines bekannten exzitatorischen CS und eines erwarteten inhibitorischen CS zu testen Lernphase CS Summer Summer + Licht Ventilator Ventilator + Licht US Futter kein Futter Futter CR Speichelfluss Kein Speichelfluss Speichelfluss Kein Speichelfluss Testphase o Beispiel zeigt, dass das Licht zu einem inhibitorischen CS wurde, da es die Wirkung des Ventilators (konditionierter Speichelfluss) unterdrückt  Retardationstest o Messung der Zeit die man braucht, um aus einem CS‐ wieder einen CS+ zu machen (Entstehung einer CR durch einen CS‐ sollte verzögert sein)  Generalisierung und Diskrimination  Generalisierung: Übertragung einer gelernten Reaktion von einem Stimulus auf einen anderen, ihm ähnlichen o je ähnlicher Stimuli sind, desto größer die Reaktion o darstellbar mit Generalisierungsgradient  Diskrimination: das Lernen, auf einen Stimulus, nicht aber auf einen anderen, ähnlichen zu reagieren (Diskriminations‐Lernen) Bedeutung des Timings  Arten der Konditionierung anhand des zeitlichen Verhältnisses von US und CS 1 2 3 4 5  zu 2: je größer CS‐US‐Intervall, desto geringer das Ausmaß der Konditionierung  zu 3 + 4: auch hier Abnahme der Konditionierung bei Vergrößerung des Intervalls, nur weniger ausgeprägt  zu 5:  Reihenfolge der Stimuli ist wichtig  Schwäche des Kontiguitätsprinzips  CS signalisiert Zeitraum, in dem US abwesend sein wird  Faustregeln  Ein CS wird exzitatorisch in dem Ausmaß, in dem er das Auftreten eines US zuverlässig ankündigt.  Ein CS wird inhibitorisch in dem Ausmaß, in dem er das Ausbleiben eines US zuverlässig ankündigt o d.h.: Akquisition p(US|CS) = 1.0; Extinktion p(US|CS) = 0.0 CS‐US Korrelation  im wahren Leben Korrelation sehr selten 1.0  Fähigkeit unvollkommene Korrelationen zwischen Signalen und Konsequenzen aufzuspüren sehr vorteilhaft (z.B. Hase – Raubtier)  Experiment von Rescorla (1966/68)  Paarung von Schocks und Ton vs. Schocks und Stille  unterschiedliche Wahrscheinlichkeiten des Auftretens  Ergebnisse: o wenn p(Schock|Ton) > p(Schock|Stille), dann CS+ (Exzitation) o wenn p(Schock|Ton) = p(Schock|Stille), dann keine Konditionierung o wenn p(Schock|Ton) < p(Schock|Stille), dann CS‐ (Inhibition) 
Rescorlas Schlussfolgerung: o Kontiguität von CS und US nicht der Grund für Entstehung der Assoziation o Korrelation zwischen CS und US wichtig  Wenn CS vorhersagt, dass US wahrscheinlich auftritt, wird CS exzitatorisch.  Wenn CS vorhersagt, dass US unwahrscheinlich auftritt, wird CS inhibitorisch. Kapitel 5: Theorien zur Klassischen Konditionierung Blockierungseffekt  traditionelle Sicht der KK: gemeinsame Darbietung von CS und US (Kontiguität) ist hinreichend und notwendig für die Konditionierung  Experiment von Kamin (1968) beweist das Gegenteil Gruppe Phase 1 Phase 2 Testphase Ergebnis Blockierung L+ LT+ T keine CR Kontrolle ‐ LT+ T löst CR aus  L = Licht; T = Ton; + = Anwesenheit US (Elektroschock); CR = CER  Ergebnisse: o Blockierungsgruppe zeigt keine CR (keine Unterdrückung) o Kontrollgruppe zeigt eine CR (Unterdrückung)  Problem: o unterschiedliche Reaktionen, obwohl beide Gruppen gleich häufig der Paarung von T und Schock ausgesetzt waren  widerspricht dem Häufigkeitsprinzip, nach dem Konditionierung in beiden Gruppen gleich sein sollte  Kamins Schlussfolgerung: o der zuvor präsentierte CS Licht hat bei der Experimentalgruppe den CS Ton blockiert  Erklärung: o Ton kündigte in der Experimentalgruppe den Schock bereits in Phase 1 zuverlässig an o Licht war in der Trainingsphase daher nutzlos und erwarb keine neue Assoziation  Konditionierung findet somit nur statt, wenn ein CS informativ ist (etwas wichtiges wie einen Elektroschock ankündigt) Rescorla‐Wagner‐Modell  mathematisches, formales Model der KK: ΔV = α (λ‐V)  Veränderung der Assoziationsstärke (ΔV) = Lernrate (α)* (maximale Assoziationsstärke (λ) – aktuelle Assoziationsstärke (V))  Modell soll Ergebnisse der KK vorhersagen  mathematische Formulierung des Konzepts der Überraschung (gelernt wird das, was unerwartet ist)  sechs grundlegende Regeln 1. Intensität des aktuellen US > aktuell erwartete Intensität, dann werden alle CS, die mit US kombiniert werden exzitatorisch konditioniert 2. Intensität des aktuellen US < aktuell erwartete Intensität, dann werden alle CS, die mit US kombiniert werden inhibitorisch konditioniert 3. Intensität des aktuellen US = aktuell erwartete Intensität, dann keine Konditionierung 4. Je größer die Diskrepanz zwischen erwarteter und tatsächlicher Intensität des US, desto stärker ist die Konditionierung. 5. Saliente Reize führen schneller zur Konditionierung als weniger saliente. 6. Wenn zwei oder mehr konditionierte Stimuli zusammen präsentiert werden, wird die Erwartung gleich ihrer Gesamtintensität sein (exzitatorische und inhibitorische Stimuli heben sich auf)  Erklärung von Phänomenen der KK durch das Rescorla‐Wagner‐Modell  Akquisition o Lichtstrahl (CS) kombiniert mit Futtergabe (US)  1. Durchgang: keine Erwartung, Intensität des US ist also größer  exzitatorische Konditionierung (am schnellsten)  2. Durchgang: geringe Erwartung, Intensität des US ist also größer  exzitatorische Konditionierung (etwas langsamer)  letzter Durchgang: Erwartung = Intensität des US  keine weitere Konditionierung (Scheitelpunkt)  Extinktion o Löschungsdurchgänge nach Konditionierung Lichtstrahl‐Futter  1. Durchgang: hohe Erwartung, Intensität des US ist geringer  inhibitorische Konditionierung (CS‐US‐Assoziation wird schwächer  weitere Durchgänge führen zu einer weiteren Abnahme der Erwartung und somit zu Extinktion  Blockierung o nach Erreichen der maximalen Akquisition wird ein zusammengesetzter CS aus Licht und Ton präsentiert  L führt zu Erwartung von Futter, die auch erfüllt wird 



T ist ein unbekannter Stimulus ohne Erwartung und behält somit 0 Stärke Es findet keine Konditionierung des zusätzlichen CS statt, weil es keine Überraschung gibt (Erwartung entspricht der Stärke des US). Überschattung o Futtergabe nach zusammengesetzten CS, wobei Licht salient und Ton sehr leise ist  starke CR auf Kombination und Licht allein, schwache CR auf Ton  auffälliger Stimuli führt schneller zur Konditionierung  somit hat das Licht eine höhere exzitatorische Wirkung Übererwartung Gruppe Phase 1 Phase 2 Testphase Ergebnis Übererwartung L+ , T+ LT+ L, T gemäßigte CRs Kontrolle L+ , T+ kein Stimulus L, T starke CRs o nach Phase 1 Erwartung von Futter nach Licht und Ton o gemeinsame Präsentation: doppelte Erwartung, doppelte Menge Futter  normale Portion Futter, Erwartung > Intensität  Inhibition o nur noch schwache CR auf beide Stimuli in der Testphase  Zusammenfassung  R‐W‐Modell nimmt Ausgang beim Blocking: Lernfortschritt hängt vom Neuigkeitswert und nicht von der Kontiguität des US ab  gelernt wird eine Erwartung des US (unerwarteter US = große Neuigkeit = großer Lerneffekt und umgekehrt)  R‐W‐Modell = Theorie über die US‐Effektivität  Theorien des CS‐Effektivität  Grundannahme: Konditionierbarkeit eines CS und nicht die Wirksamkeit des US ändert sich von Situation zu Situation  CS‐Präexpositionseffekt o späterer CS (Licht) wird mehrmals gezeigt, ohne dass etwas passiert o anschließend Durchgänge mit Licht‐Stromschlag  Assoziation wird langsamer gelernt o Erklärung: Salienz eines CS verändert sich in Folge der Erfahrung mit ihm  Salienz nimmt ab, wenn der CS wiederholt folgenlos auftritt (Aufmerksamkeit des Organismus hat sich verändert) o kann nur mit R‐W‐Modell erklärt werden, wenn dieses anerkennt, dass sich die Salienz eines Stimuli ändern kann  Theorie der Aufmerksamkeit (Mackintosh, 1975) Grundidee: ständige Konfrontation mit Reizen führt zu einer Selektion der Information (saliente Reize werden eher verarbeitet) o Beispiel Cocktail‐Party‐Effekt: wenn viele Leute um einen herum reden, kann man nur selektiv einem zuhören o Theorie der Aufmerksamkeit = Konkurrenz zum R‐W‐Modell  der Stimuli, der mehr Vorhersagekraft hat ist salienter  informativerer Stimulus wird mehr beachtet o Beispiel Blocking: Gruppe Phase 1 Phase 2 Testphase Ergebnis Blockierung L+ LT+ T keine CR Kontrolle ‐ LT+ T löst CR aus Experimental L+ L(laut)T(leise)+ T(leise) keine CR o
o
Salienz des Lichts steigt, die des Tones fällt in Phase 2  Äquipotentialität und Preparedness  Äquipotentialität: o jedes Phänomen kann als CS dienen (optischer Reiz, Geräusch, Geruch…) o es spielt keine Rolle welcher CS genutzt wird o ein CS oder einer Reaktion, die in einem Kontext schwer konditionierbar ist, ist dies auch in allen anderen Kontexten o Garcia & Koelling (1966): Geschmacksaversionslernen mit versch. CS  1.Gruppe: Wasser+Lichtblitze+Geräusch, Giftinjektion  2. Gruppe: Wasser+Lichtblitze+Geräusch, Elektroschock  Löschungstests: nur Wasser+Lichtblitze oder Wasser+Geräusch  Ergebnisse: o Gruppe mit Gift größere Aversion gegen Geschmack o Gruppe mit Elektroschock größere Aversion gegen audiovisuelle Reize  Implikation: CS sind nicht gleichwertig (äquipotent), sie müssen zu den US passen  Preparedness o Organismen bringen unterschiedliche Bereitschaften mit, bestimmte Zusammenhänge zu lernen ( Ethologie) o Lernbereitschaften variieren z.B. zwischen Arten  Ratten: nachaktiv, verlassen sich auf Geschmack zur Beurteilung der Nahrung, daher leichte Verknüpfung Geschmack  Übelkeit  Wachteln: tagaktiv, visuell orientiert, kaum Geschmackssinn, verlassen sich auf visuelle Merkmale Kapitel 6: Grundlegende Prinzipien der Operanten Konditionierung 2 Arten von Verhalten  unwillkürliches Verhalten, Reflexe, physiologische Reaktionen  Verhalten, dass mehr oder weniger zuverlässig durch einen äußeren Reiz ausgelöst wird (Klassische Konditionierung: Respondentes Verhalten (auf Reiz))  willkürliches Verhalten und Gewohnheiten  viele Verhaltensweisen werden nicht unwillkürlich ausgelöst (z.B. Spielen, Sprechen, Gehen, Essen, Arbeiten…)  werden scheinbar willkürlich gezeigt  operantes/instrumentelles Verhalten nach Skinner  Ziel der Forschung zum instrumentellen lernen  Regelhaftigkeiten willkürlichen Verhaltens auffinden, erklären  Erkenntnisse für die Vorhersage und Beeinflussung von Verhalten (z.B. in Erziehung & Therapie) nutzbar machen Das Gesetz des Effekts (Prinzip der positiven Verstärkung), Thorndike (1898)  Thorndikes Frage: Wir können nicht reflexartige Verhaltensweisen eines Lebewesens als Ergebnis seiner Erfahrungen modifiziert werden?  hungriges Tier wurde in Problemkäfig gesetzt, musste bestimmte Reaktionen ausführen um die Tür zu öffnen und an das Futter zu gelangen  grundlegende Beobachtungen: 

erste Lösung wurde zufällig durch Versuch und Irrtum gefunden anschließend wurde Zeitspanne zum Öffnen der Tür immer kürzer (also AV = Latenz des Entkommens)  Thorndikes Erklärung  Verbesserung zurückzuführen auf Stärkung der S‐R‐Verbindung: Stimulus = Käfiginnenraum, Reaktion = Verhalten, das die Tür öffnet  Erklärung dieser Stärkung durch Gesetz des Effekts  Gesetz des Effekts = mechanistisches Lernprinzip  Reaktionen, die ein Befriedigung des Willens des Tieres nach sich ziehen (Belohnung) stärken die Verknüpfung zwischen Situation und Verhalten und verursachen eine höhere Auftretenswahrscheinlichkeit (= Verstärker)  Reaktionen, die ein Frustration des Willens des Tieres nach sich ziehen (Bestrafung), schwächen die Verknüpfung zwischen Situation und Verhalten und verursachen eine Verringerung der Auftretenswahrscheinlichkeit  Unterscheidung Befriedigung‐Frustration befriedigend bedeutet, dass das Tier nichts tut um den Zustand zu vermeiden, sondern versucht ihn herbeizuführen/zu erhalten o frustrierend bedeutet, dass das Tier den Zustand vermeidet und rasch beendet  ähnelt dem Prinzip der natürlichen Selektion in der Evolution o Lernen: Ausgehend von einer Variabilität des Verhaltens und der Annahme, dass einige Verhaltensweisen eher geeignet sind als andere, um eine Belohnung zu erhalten, nehmen geeignete Verhaltensweisen über Erfahrungen in der Häufigkeit zu und ungeeignete ab. o Evolution: Ausgehend von einer Variabilität des Verhaltens und der Annahme, dass einige Verhaltensweisen eher geeignet sind als andere, die Fitness zu erhöhen nehmen geeignete Verhaltensweisen über Generationen in der Häufigkeit zu und ungeeignete ab  Belege für mechanischen Stärkungsprozess (Guthrie & Horton, 1946)  Katzen in einfachen Problemkäfigen (Stab in beliebige Richtung bewegen) werden im Moment des Öffnens der Tür fotografiert o anfangs variables Verhalten o wir mit den Durchgängen immer stereotyper o Stop‐Action‐Prinzip (Verstärkungsprinzip):  Bewegungen, die im Moment der Verstärkung ausgeführt werden, werden verstärkt und treten in Zukunft mit größerer Wahrscheinlichkeit wieder auf Abergläubisches Verhalten (Skinner 1948)  Stop‐Action‐Prinzip lässt vermuten, dass zufällige Verstärkung vorkommen kann  Skinner steckte Tauben in Käfige und ließ den Futtertrog alle 15 Sekunden am Käfig erscheinen, unabhängig vom Verhalten der Tauben  6 von 8 Tauben zeigten nach ein paar Tagen bestimmte Aktionen zwischen den Verstärkungen  Erklärungen: o Taube bewegt sich im Käfig die ganze Zeit, eine Aktion tritt immer direkt vor der Verstärkung ein o diese Aktion wird verstärkt, was ihr erneutes Auftreten wahrscheinlicher macht, wodurch die Aktion wiederum verstärkt wird… o aber: Timing ist wichtig (bei langen Intervallen viele Aktionen)  Parallelen zu Ritualen von Spielen, Sportlern… o

häufig Rituale wie Verzehren der gleichen Speisen, Bandagieren, Tragen von Amuletten etc., die mit früheren Erfolgen zusammenhängen o aber: können auch motivationale Funktion haben, nicht notwendigerweise abergläubisches Verhalten  Bewegen des Körpers beim Kegeln, Bewegung des Beins beim Schuss im Fußball o aber: ideomotorisches Prinzip besagt, dass Ideen entsprechende motorische Aktionen aktivieren Shaping (Methode sukzessiver Annäherung)  Variabilität des Verhaltens nimmt mit dem Training ab, ist aber nie gleich null  Shaping macht sich natürliche Variabilität zunutze  Definition: Methode zum Erlernen einer neuen Verhaltensweise, bei der die zunehmenden Annäherungen an das erwünschte Verhalten verstärkt werden  kann beispielsweise auch in der Verhaltenstherapie genutzt werden Forschung von B.F. Skinner  1904 – 1990, Erfinder der Skinnerbox  radikaler Behaviourist: wollte alles durch Konditionierung erklären  entdeckte viele der grundlegendsten und wichtigsten Eigenschaften der Verstärkung  Tiere mussten nicht immer erneut in Problemkäfige gesetzt werden sondern können in einer Box verbleiben  Picken o.ä. wird mit Sensoren gemessen  freie operante Verfahren  operante Reaktion kann jederzeit und wiederholt auftreten solange das Tier im Käfig ist  Operantes Konditionieren  Operante Konditionierung bezieht sich auf den Umstand, dass eine Verstärkung dann resultiert, wenn das Individuum richtig auf seine Umwelt einwirkt (operiert).  Skinner nannte freie Verhaltensweise „operant“  Instrumentelles Lernen  Instrumentelle Konditionierung bezeichnet den Umstand, dass Individuen bestimmt Verhaltensweisen einsetzen um einen Verstärker zu bekommen.  Dreifachkontingenz  Annahme: beim Lernen wir eine Dreifachkontingenz erworben o in Anwesenheit des diskriminativen Hinweisreizes/Stimulus A führt das Verhalten/Reaktion B zum Verstärker/Konsequenz C o Stimulus diskriminiert zwischen den Konsequenzen in den Situationen, daher diskriminativ  grundlegende Prinzipien entsprechen etwas denen der Klassischen Konditionierung  z.B. Erwerb, Extinktion, Spontanerholung …  unterschiedliche Verstärkerarten  primärer Verstärker: Verstärker, der naturgemäß jede Reaktion verstärkt auf die er folgt  konditionierter/sekundärer Verstärker: ein zuvor neutraler Stimulus, der die Fähigkeit erworben hat, Reaktionen zu stärken, weil wiederholt mit einem primären Verstärker gepaart wurde  generalisierte Verstärker: konditionierter Verstärker, der mit einer großen Zahl von unterschiedlichen primären Verstärkern assoziiert ist (z.B. Geld)  Verhaltensketten  Abfolge erlernter Verhaltensweisen, die in einer bestimmten Reihenfolge auftreten müssen o Verabreichung des primären Verstärkers erfolgt erst nah letzter Reaktion o jeder Reiz in der Mitte der Kette = konditionierter Verstärker für vorige und Hinweisreiz für die nächste Reaktion  Vorwärtsverkettung: man verstärkt jede Reaktion, beginnend mit der ersten o Problem: man muss irgendwann alle bis auf den letzten Verstärker entfernen  Rückwärtsverkettung: man beginnt mit der letzten Reaktion, die verstärkt wird, dann vorletzte Reaktion usw.  Verhaltensweisen einer Verhaltenskette verschwinden, wenn der Verstärker nicht mehr auftritt  wird einer der konditionierten Verstärker in der Kette aufgehoben, so wird der Teil davor gelöscht  Verhaltensweisen zu Beginn der Kette am weitesten vom primären Verstärker entfernt und somit am Leichtesten zu stären  erinnern an ethologische Reaktionsketten o jedoch: bei angeborenen Reaktionsketten hängt das Verhalten nicht von Verstärkern ab wie bei den Verhaltensketten  Grenzen der operanten Konditionierung  Breland & Breland, Studenten von Skinner und Tiertrainer verfassten 1961 „The Misbehaviour of Organisms“ o stellten beim Training fest, dass immer wieder unerwünschtes Verhalten bei den Tieren auftritt, obwohl dies nicht verstärkt wird (z.B. Waschbären, die Münzen schnell in Gefäß tun sollte fingen irgendwann an diese zu waschen) stellten fest, dass das Verhalten eines Tieres nur unter Einbezug der evolutionären Geschichte, der Instinktmuster und der ökologischen Nische beeinflusst oder vorausgesagt werden kann erklärten dies mit Instinktneigung („instinctive drift“) o Bezeichnung, für das Abgleiten der Performanz hin zu angeborenen Verhaltensweisen, die mit dem eingesetzten Verstärker zusammenhängen (z.B. Futter) o kann die Ausführung erlernter Verhaltensweisen verdrängen o

Kapitel 7: Verstärkungspläne  Definition:  Ein Verstärkungsplan ist eine Regel, die angibt, unter welchen Bedingungen ein Verstärker verabreicht wird.  kann etwa unterschieden werden nach o Qualität, z.B. Scheibenpicken aber nicht Gefiederputzen wird verstärkt o Quantität, z.B. Verstärkung nach 10mal picken o Zeit, z.B. Verstärkung nur, wenn zwischen Reaktionen mind. 60s vergangen  kontingente Verstärkung  gewünschtes Verhalten wird verstärkt  nicht‐kontingente Verstärkung  Verstärkung hängt nicht vom eigenen Verhalten ab  begünstigt Verstärkung von zufälligem Verhalten  abergläubisches Verhalten  Skinner erfand Gerät für kumulative Aufzeichnung (cumulative recorder)  Walze bewegt Papier langsam in eine Richtung unter einem Stift her  jede Reaktion führt dazu, dass der Stift sich ein Stück das Blatt hochbewegt  x‐Achse = Zeit; y‐Achse = kumulative Anzahl der Reaktionen  horizontale Linie: keine/konstante Reaktion  starker/schwacher Anstieg: hohe/niedrige Reaktionsrate  kleine Abweichungen zeigen Zeitpunkt, zu denen Verstärker verabreicht werden  verschiedene Verstärkungspläne:  Kontinuierliche Verstärkung (CRF) = auf jedes Auftreten einer operanten Reaktion folgt ein Verstärker  Löschung (Extinction)  Quotenpläne (Ratio) intermittierende Versuchspläne  Intervallpläne (Intervall) 
komplexe Pläne Die 4 einfachen Verstärkungspläne  Feste Quote (fixed ratio, FR)  Verstärkungsregel: nach jeder n‐ten Reaktion gibt es einen Verstärker (n= Höhe der Quote, z‐B. FR‐10‐Plan)  z.B. Akkordarbeit: 10 Teile/10 €, nach 10 Teilen Kaffeepause, dann wieder von vorn  hohe Rate  Stop&Go – Muster: nach jedem Verstärker Reaktionspause (Nachverstärkungspause)  Länge der Nachverstärkungspause nimmt mit Erhöhung der Quote zu  Reaktionsrate nach Nachverstärkungsrate nimmt mit steigender Quote ab  mögliche Gründe für Nachverstärkungspause 1. Sättigung: fällt raus, da die Pause bei steigender Quote ja länger wird 2. Ermüdung 3. Distanz zum nächsten Verstärker  Überprüfung durch Experiment, in dem sich schon gelernte FR‐100 (blaues Licht) und FR‐10‐Pläne (rotes Licht) abwechseln  Pausen können nicht anhand der vorhergehenden Quote vorhergesagt werden o Ermüdungshypothese verworfen  Pause können anhand der bevorstehenden Quote vorhergesagt werden (vor FR‐100‐Plänen am längsten) o Verstärker‐Distanz‐Hypothese bestätigt  Variable Quote (variable ratio, VR)  Verstärkungsregel: nach jeder n‐ten Reaktion im Durchschnitt gibt es einen Verstärker  z.B. VR‐18; Verstärkung erfolgt nach 4, 8, 15, 16, 23, 42 Reaktionen = 108 Reaktionen für 6 Verstärker = ø 18  hohe Rate, sehr gleichmäßig  Alltagsbeispiele: Glücksspiel, Sport etc. o Gewinnchancen stehen in direktem Zusammenhang dazu wie oft man spielt o Zahl der erforderliche Reaktionen für nächsten Verstärker ist ungewiss  bei Quotenplänen steht der Aufwand (Anzahl der Reaktionen) in direkten Verhältnis zum Gewinn (Anzahl der Verstärkungen)  Fixes Intervall (fixed interval, FI)  Verstärkungsregel: erste Reaktion, die nach einem festgelegten Zeitintervall auftritt wird verstärkt  z.B. FI‐60; Abgabe des Verstärkers setzt Timer in Gang, der nach 60s erneut Verstärker bereitlegt, eine Reaktion nötig um diesen zu bekommen  Merkmale: Verstärkung hängt von der verstrichenen Zeit und der Ausführung einer Reaktion ab, wobei die Zeitintervalle immer gleich lang sind  typisches Verhaltensmuster = FI‐Bogen, Wiederaufnahme erfolgt zögerlich, dann zunehmend  experimentelles Beispiel: o Auswirkung der Testhäufigkeit auf das Arbeitsverhalten von Studenten o Abwechslung von Perioden täglicher Tests mit 3 Wochen ohne Test und anschließender Klausur  bei regelmäßigen Test regelmäßigerer Lernen, sonst Ähnlichkeit mit FI‐Plänen  entspricht nicht 100%ig FI‐Plan, da sich alle und nicht nur eine Reaktion auswirken  Variables Intervall (variable interval, VI)  Verstärkungsregel: erste Reaktion, die nach einem festgelegten, aber in der Spanne variablen Intervall auftritt wird verstärkt  z.B. VI‐60; Zeit zwischen Verabreichung und erneuter Bereitstellung eines Verstärkers kann etwas 6s, 300s, 40s betragen  Merkmale: Verstärkung hängt von der verstrichenen Zeit und der Ausführung einer Reaktion ab, wobei die Zeitintervall variieren  typisches Verhaltensmuster: stetig (Verstärker kann jeden Moment auftreten, Pausen nicht sinnvoll)  wenige bzw. kleine Nachverstärkungspausen  Alltagsbeispiel: Kontrollieren des Briefkastens o Lieferung von Post entspricht ungefähr einem VI‐Plan, da  … nicht vorhersagbar  … wenn Verstärker (Post) da, nur eine Reaktion nötig um ihn zu bekommen  … wenn Verstärker noch nicht bereitliegt, können auch viele Reaktionen ihn nicht hervorbringen o daraus ergibt sich maßvolles und gleich bleibendes Verhalten (jeden Tag 1x nachschauen) Extinktion bei verschiedenen Verstärkerplänen  Humphreys‘ Paradox (partieller Verstärkungseffekt)  kontinuierliche Verstärkung (CRF) wird schneller gelöscht als intermittierende  widerspricht dem Prinzip der Häufigkeit nach Thomas Brown  bei einer Reaktion, die immer verstärkt wurde sollte eine hohe Assoziation bestehen  bei einer Reaktion, die manchmal verstärkt wurde (Trainingstrials)und manchmal nicht (Löschungstrials), sollte eine geringe Assoziation bestehen  mögliche Erklärung: Diskriminationshypothese  Verhalten ändert sich erst, wenn die Veränderung der Verstärkungskontingenz erkannt wurde  bei CRF‐Plan ist der Unterschied durch die fehlende Verstärkung offensichtlich  besser: Generalisierungsabnahme‐Hypothese  Reaktion wird umso seltener gezeigt, je unähnlicher die Testsituation der Trainingssituation ist Beispiele für andere Verstärkungspläne  differentielle Verstärkung niedriger Reaktionsraten (DRL)  Verstärker wird verabreicht, wenn mindestens eine vorher festgelegte Zeitspanne zwischen zwei Reaktionen verstrichen ist  sehr niedrige Reaktionsrate  differentielle Verstärkung hoher Reaktionsraten (DRH)  ein Verstärker wird verabreicht, wenn in einer festgelegten Zeitspanne eine Mindestanzahl von Reaktionen aufgetreten ist  höhere Reaktionsrate als mit anderen Verstärkungsplänen erzielt werden kann Aufbau löschungsresistenten Verhaltens  CRF führt zu schnellem Verhaltensaufbau, aber mit niedriger Löschungsresistenz  Methode der Wahl: CRF zu Beginn, dann allmählich Übergang zu variablem Quotenplan  aber: Verstärkung kann die intrinsische Motivation ruinieren  Überrechtfertigungseffekt (overjustification): extrinsische Gründe werden überschätzt  Beispiel: Tang & Hall Studie (1995)  wenn Kinder für das Spielen mit einem Spielzeug bezahlt werden, dann zwei mögliche Reaktionen o wenn man sie nicht mehr bezahlt wollen sie auch nicht mehr spielen o wenn man sie erst bestechen muss, damit sie spielen, denken sie, dass es ein schlechte Spielzeug ist Einflüsse auf die Performanz bei Verstärkungsplänen  Performanz höher, je höher  Verstärkungsqualität (Geld besser als nette Worte)  Verstärkungsmenge (mehr ist besser als wenig)  Verstärkungsrate  Motivation/Deprivationsdauer  Performanz höher, je niedriger  aufzubringende Anstrengung (leicht wird bevorzugt)  Verzögerung der Verstärkung (schnell wird bevorzugt, „delay aversion“) Kontingenzgeleitetes vs. regelbestimmtes Verhalten  kontingenzgeleitetes Verhalten: Verhalten, dass von einem Vestärkungs‐ oder Bestrafungsplan beeinflusst wird  regelbestimmtes Verhalten: Verhalten, dass von einer verbalen oder mentalen Regel, wie man sich zu verhalten hat gelenkt wird  Menschen zeigen bei gleichen Versuchsplänen teils andere Reaktionsmuster als Tiere  z.B. zeigen einige Menschen bei einem FI‐Plan o das gleiche Bogenmuster wie bei Tieren o hohe Raten das ganze Intervall über o nur wenige Reaktionen am Intervallende  Menschen folgen verbalen Regeln, die sie mitgeteilt bekommen oder selber lernen  wenn sich Menschen nach Regeln richten, haben Kontingenzen kaum noch Einfluss  aber: Verhalten kleiner Kinder ist dem von Tieren ähnlicher  aber: Erwachsene können Wissen manchmal nicht verbal mitteilen (implizites Lernen) Verstärkungsgeschichte  Ferster & Skinner (1957): Folgen von Verstärkungsplänen sind reversibel  Tauben, die an mehreren Experimenten teilnehmen passen sich aktuellem Verstärkungsplan an  aber: Verstärkungsgeschichte kann großen Einfluss haben  Experiment von Weiner (1964) o zwei Gruppen, eine arbeitet nach einem FR‐40‐Plan, andere nach DRL‐20s‐
Plan o Umstellung beider Gruppen auf FI‐20‐Plan  Teilnehmer mit FR‐40‐Erfahrung reagieren schnell, solche mit DRL‐
Erfahrung langsam Anwendungen Operanter Konditionierung  wird im Alltag intuitiv eingesetzt (Lob & Tadel)  deckt sich mit der alltagspsychologischen Annahme, dass Verhalten durch seine Folgen bestimmt wird o Noten kontrollieren Lernverhalten in der Schule, Menschen arbeiten um Geld zu verdienen etc.  Verhaltenstherapeuten sind Experten in der Analyse und der Kontrolle von Dreifachkontingenzen Kapitel 8a: Vermeidung  Feld 1: positive Verstärkung  auf eine Reaktion folgt ein Reiz, der diese Reaktion verstärkt (operante Konditionierung)  Feld 2: negative Verstärkung (Vermeidung)  aversiver Reiz wird entzogen, wenn Verhalten auf  z.B. Kopfschmerztablette nehmen beseitigt Kopfschmerzen und verstärkt dieses Verhalten tritt  Feld 3: (positive) Bestrafung  Verhalten wird von einem negativen Reiz gefolgt  Feld 4: negative Bestrafung (Entzug)  erwünschter Reiz wird beseitigt oder entzogen, wenn das Verhalten auftritt  z.B. Eltern weigern sich Taschengeld auszuzahlen, weil Kind zu spät nach Hause kam Vermeidung  Vermeidungslernen (Solomon & Wynne, 1953)  sperrten Hunde in Zweikammerkäfige über deren Metallboden Elektroschocks verabreicht werden konnten und die in jeder Kammer eine Lampe hatten  wenn die Lampe in der Kammer in der sich der Hund befand, wurde dort nach 10s ein Elektroschock verabreicht o Hund konnte entweder fliehen oder den Schock vermeiden, indem er vor Ablauf der 10s sprang  Ergebnis: bei den ersten Durchgängen Fluchtreaktionen, aber schon nach wenigen Trials Vermeidung (Reaktionslatenz bei durchschnittlich 2‐3s)  Vermeidungsparadox: Wie kann das Nichteintreten eines Ereignisses (Elektroschock) verstärkend wirken?  Frage führte zu Entwicklung der Zweifaktorentheorie Zweifaktorentheorie (Mowrer, 1947)  besagt, dass sowohl die klassische Konditionierung (lernen, einen Reiz zu fürchten) als auch die operante Konditionierung (Flucht vor dem Furcht auslösenden Reiz) Voraussetzung für Vermeidungsreaktionen sind  erster Prozess: klassische Konditionierung o Konditionierung einer Angstreaktion auf einen anfänglich neutralen Stimulus o die UR Angst die auf den Schock folgt wird von einem US (Schock) auf einen CS (Stimulus, der Schock vorausgeht: Dunkelheit)übertragen 
zweiter Prozess: operante Konditionierung o Flucht vor einem angstauslösenden Stimulus o die aus der Dunkelheit resultierende Angst führt zur Flucht, die eine Angstreduktion als Konsequenz hat hier: nicht Vermeidungsreaktionen sondern Fluchtreaktionen vor angstauslösendem Stimulus und somit Auflösung des Vermeidungsparadox  Probleme der Zweifaktorentheorie  Angst sollte am größten sein, wenn Vermeidungsreaktionen am stärksten sind o jedoch: bei Übung etwa mit Hunden verschwinden Angstsymptome, je besser Vermeidungsreaktion beherrscht wird  Sicht der KK: jeder Durchgang ohne Schock = Extinktion (CS aber kein US), CR (Angst)sollte allmählich schwächer werden und damit auch die Vermeidungsreaktion, weil Dunkelheit keine Angst mehr hervorruft o jedoch: Vermeidungsreaktionen haben eine extreme Löschungsresistenz Einfaktortheorie  besagt, dass die Vermeidung eines aversiven Stimulus als Verstärker an sich dienen kann  klassische Konditionierung nach Zweifaktorentheorie nicht notwendig  freie operante Vermeidung (Sidman‐Vermeidungsaufgabe, 1953)  Tier erhält alle 5s Schock, wenn es keine Vermeidungsreaktion ausführt o jede Reaktion verschiebt den nächsten Schock um 30s  Tiere lernten Vermeidung ohne Signal  Problem: Zeitabstände könnten ein CS‐Signal darstellen o aber: Experimente mit variablen Quotenplänen zeigen ebenfalls Vermeidungsverhalten, obwohl hier kein CS‐Signal vorhanden ist Kognitive Theorie (Seligman & Johnston, 1973)  in einer Vermeidungssituation gibt es zwei entscheidende Erwartungen  E1: Erwartung bezüglich der Folgen der Reaktion (p(Schock| Verhalten) = 0)  E2: Erwartung hinsichtlich der Folgen des Nichtreagierens (p(S|V) = 1)  Auswahl der Alternative, die mit großer Wahrscheinlichkeit ein positives Ergebnis herbeiführt  Vermeidung wird vorgezogen  Löschung des Vermeidungsverhaltens nur, wenn Diskrepantes auftritt (Enttäuschung der Erwartungen)  Reaktionsblockierung (Flooding)  Verfahren zur Verhaltensreduktion, bei der das Individuum physisch an einer unerwünschten Reaktion gehindert wird (Individuum kann lernen, dass Vermeidungsreaktion nicht mehr nötig ist)  Konditionierung einer Vermeidungsreaktion (Page & Hall, 1953) o 2 Gruppen von Raten, die gelernt hatten durch Flucht in andere Kammer Schock zu vermeiden o



Gruppe 1: normale Löschung ohne Reaktionsverhinderung Gruppe 2: wird in der Versuchskammer festgehalten Ergebnis: bessere Löschung bei Gruppe 2 o Erklärung nach Zweifaktorentheorie  erzwungene Konfrontation mit CS führt zu Extinktion der konditionierten Angstreaktion o Erklärung nach Einfaktortheorie  offensichtlicher Reizwechsel (geschlossene Tür) führt zu schnellerer Extinktion o Erklärung nach kognitiver Theorie  Gruppe 2 wird gezwungen Erwartung zu ändern, Gruppe 1 nicht  Flooding kann auch in der Verhaltenstherapie eingesetzt werden o effektiver als systematische Desensibilisierung, wenn er Patient mitmacht und Therapeut wirklich Vermeidungsreaktion verhindert o ethisch problematischer als SD Biologische Randbedingungen beim Vermeidungslernen  Bolles (1970) zu Folge ist lerntheoretische Interpretation von Vermeidung bei Wildtieren nicht sinnvoll  Tiere lernen Vermeidung nicht durch erworbene Angst, sondern vermeiden instinktiv (speziesspezifische Abwehrreaktionen, SSDRs) o gehören in er Regel einer von drei Kategorien an: erstarren, fliehen, kämpfen o z.B. Ratten lernen leicht das Verhalten Springen oder Laufen, aber nicht Hebeldrücken um Schock zu vermeiden Erlernte Hilflosigkeit  Seligmans Begriff für eine Minderung der Fähigkeit eine Vermeidungsreaktion zu erlernen, die auftritt, nachdem das Individuum unvermeidbaren aversiven Reizen ausgesetzt war  Beispiel 1 (Overmier & Seligman, 1967)  Hunde wurden erst unvermeidbaren Schocks ausgesetzt und dann in Zweikammerkäfig gesperrt  Hunde zeigten kaum den Versuch einer Vermeidung  Beispiel 2 (Hiroto 1974)  Trainingsphase: Studenten hörten Lärm, den sie abstellen sollte, vor ihnen Knopf o Gruppe 1: Drücken beendete Lärm o Gruppe 2: Drücken hatte keinen Effekt  Testphase: VP’s hörten nun Lärm, der durch Licht angekündigt wurde und mit Hebel beendet werden konnte o Gruppe 1 vermied Lärm in 88% der Fälle o Gruppe 2 nur in 50% der Fälle  Beispiel 3 (Hiroto & Seligman 1975)  Studenten wurde Lärm präsentiert, den sie nicht vermeiden konnten  hatten wesentlich größere Schwierigkeiten bei der anschließenden Lösung von Anagrammen als Kontrollgruppe  Erklärung: frühere Erfahrung mit nicht kontrollierbaren aversiven Ereignissen erzeugt Gefühl der Hilflosigkeit, dass sich auf andere Situationen überträgt (Generalisierung; führt zu Lern‐ und Leistungsschwächen)  drei Komponenten erlernter Hilflosigkeit:  motivationale (vermindertes Bemühen)  kognitive (verminderte Fähigkeit aus eigenen Erfahrungen zu lernen)  emotionale (Depression etc.)  ursprüngliche Theorie erklärt nicht,  wann und warum Erwartung generalisiert  wann Selbstwertstörung entsteht  Erklärung von Abramson, Seligman, Teasdale, 1978  nicht objektive sondern wahrgenommene Nichtkontingenz ist Auslöser  Hilflosigkeit hat 3 Dimensionen o auf bestimmte Situation bezogen oder global (erklärt Generalisierung) o internale/externale faktoren (erklärt Selbstwertstörung) o stabil/variabel (erklärt Dauer der Störung)  Stärke der Störung hängt von dem Wert ab, der dem Ergebnis beigemessen wird Kapitel 8b: Bestrafung  Bestrafungsexperiment von Skinner (1938)  Ratten lernen einen Hebel zu drücken, anschließend eine Gruppe mit normaler 
Löschung, andere Gruppe mit Bestrafung während der ersten 10 min (Hebel schlägt gegen Pfote) Ratten mit Bestrafung führten am Ende der Sitzung genauso viele Reaktionen aus wie andere Gruppe 

Skinners Schlussfolgerung: Bestrafung keine effektive Form der Verhaltenskontrolle Problem: Bestrafung nur sehr kurz…. o Experimente zeigen, dass Auswirkungen von Bestrafung denen von Verstärkung direkt entgegengesetzt sind Faktoren, die Effektivität von Bestrafung beeinflussen  Intensität  bei zu schwacher Bestrafung kann Gewöhnung eintreten  daher sollte Bestrafung von Beginn an mit voller Intensität ausgeführt werden  Beispiel: Tauben werden Stromschläge versetzt um Tastenpicken zu unterdrücken o bei 80V von Beginn an vollständige Unterdrückung o bei Beginn mit niedrigen Stärken am Ende 130V nötig  Unmittelbarkeit (Kontingenz)  direkter Zusammenhang zwischen Unmittelbarkeit von Bestrafung und Verhaltensunterdrückung o bei direkter Bestrafung ist die Unterdrückung höher  Beispiel: bei Ratten wurde Bestrafung zwischen 0s und 60s nach der Reaktion variiert o sofortige Bestrafung wesentlich effektiver  Prinzip, dass im Alltag häufig missachtet wird (z.B. schlechtes Benehmen im Unterricht  Gespräch am Ende des Tages…)  Bestrafungspläne (konsequent)  kontinuierliche Bestrafung führt schneller zum Erfolg als intermittierende o FI‐Plan: Reduktion am Ende des Intervalls am größten o bei FR‐Plan: Reduktion nach 70‐90% am größten  Verhaltensmotivation  ist ein Individuum besonders motiviert eine Handlung auszuführen, so muss es stärker bestraft werden um dieses Verhalten einzustellen  Beispiel: hungrige Tauben ertragen stärkere Stromschläge um an Futter zu gelangen als solche die nicht hungrig sind  Bedeutung in der Praxis: bei Abwertung des Verstärkers für unerwünschtes Verhalten weniger Bestrafung nötig  Verfügbarkeit alternativer Verhaltensweisen  wenn alternative Verhaltensweisen verfügbar, die verstärkt werden, dann größerer Erfolg der Bestrafung des unerwünschten Verhaltens  Beispiel: o Tauben werden beim Tastenpicken für Futter bestraft  Reduktion des Verhaltens um 100% wenn alternative Taste verfügbar (sonst nur 10%)  Bedeutung in der Praxis: Problemverhalten (Streit) wird bestraft und gleichzeitig Verstärker für alternatives Verhalten (zusammen spielen) in Aussicht gestellt  Bestrafung als diskriminativer Hinweisreiz  Bestrafung selbst kann zum diskriminativen Hinweisreiz für weiteres Verhalten werden  Beispiel: Tauben, die nur während Phasen mit Schock Futter bekamen erhöhten nach einem Schock die Verhaltensweise  Bedeutung für Praxis: erklärt manche Fälle von selbstschädigendem verhalten, das dann zu Aufmerksamkeit und Mitgefühl führt (z.B. Masochismus) Nachteile von Bestrafung  emotionale Nebenwirkungen, die Performanz allgemein beeinträchtigen können  Angst, Wut, Hilflosigkeit…  Verhaltenshemmung  es muss klar sein, welches Verhalten genau bestraft wird, sonst allgemeine Verringerung von Verhalten  Überwachung des Verhaltens häufig schwierig  Asymmetrie von Verstärkung und Bestrafung (Kind macht darauf aufmerksam, wenn es Verstärker will, wird aber nie um Bestrafung betteln)  Umgehung von Bestrafung  Kind schwänzt beispielsweise die Schule, um den Bestrafungen des Lehrers zu entgehen  Aggression  Bestrafung führt zu Aggression gegen den der bestraft oder gegen andere  z.B. Ratten die vorher friedlich waren begannen einander zu bekämpfen als sie Elektroschocks bekamen  Bestrafung hat viele Nachteile, wenn eben möglich sollte Verstärkung eingesetzt werden  viele Fragen die Bestrafung betreffen wurden nie ausreichend erforscht Verhaltensreduktion in der Verhaltenstherapie  Ziel: Verlangsamung, Verringerung oder Beseitigung eines bestimmten Verhaltens  Bestrafung kontrollierbaren Verhaltens o z.B. schimpfen (etwas Bestrafung bei Kindern), Elektroschocks bei selbstverletzendem Verhalten o wirksam, kann aber auch als Verstärker dienen (Aufmerksamkeit)  Bestrafung automatischen Verhaltens z.B. Bruxismus (Zähneknirschen im Schlaf): lautes Geräusch auf jedes Knirschen, ging um 30% zurück Verhaltenskosten, z.B. Token Economies Time‐Out: Zeit, in der ein Verstärker nicht verfügbar ist o z.B. Kind wird als Bestrafung allein in sein Zimmer geschickt Überkorrektur o sollte aufwändiger sein als das Fehlverhalten und eine Wiedergutmachung sowie die Einübung eines besseren Verhaltens beinhalten o z.B. bei Streit unter Geschwistern erst Entschuldigung und dann Spielzeug teilen oder ähnliches Extinktion o Aufmerksamkeit häufig ein Verstärker für unerwünschtes Verhalten o Problemverhalten wird häufig negativ verstärkt, indem sich Person negativen Konsequenzen entzieht o Konsequenzen (positive Verstärker) müssen eliminiert werden, so dass Extinktion eintreten kann Verstärkung von Alternativverhalten o eine der effektivsten Methoden o hier wird dem Patient nicht nur gezeigt was er nicht tun soll, sondern auch das korrekte Verhalten Sättigung o wenn Verstärker nicht eliminiert werden kann, kann man versuchen, den Wert durch Sättigung zu verringern o z.B. Patientin, die Handtücher hortete begann sie selbst wegzubringen, als sie 600 davon hatte o






Kapitel 9: Theorien und Forschung zur operanten Konditionierung  Was wird beim instrumentellen Lernen gelernt?  nach Thorndike stärkt eine positive Konsequenz die Stimulus‐Reaktions‐Verbindung, eine negative schwächt diese  Reaktion ist zum Lernen notwendig  Kernfragen: o Braucht man Reaktion und Verstärker zum Lernen? o Was ist generell ein wirksamer Verstärker? Rolle der Reaktion  Thorndike behauptete, dass Ratten, die in einem Korb passiv durch ein Labyrinth geführt wurden und am Ende Futter erhielten nicht in der Lage sind, Weg allein zu finden  haben nie entsprechende Reaktionen ausgeführt  Wiederlegung dieser Aussage durch Experimente  Ratten in Labyrinth o Kontrollgruppe: übliche Art (korrekter Weg führt zum Futter) o Experimentalgruppe:  jede Ratte einer aus der Kontrollgruppe zugeordnet  wurden in Käfig auf genau die gleiche Weise durch Labyrinth geführt wie „Partnerratte“ o Ergebnis: während anschließender Löschung wählten die beiden Gruppen gleich häufig den richtigen Weg  Tolman kritisierte Thorndike:  nach ihm beinhaltet operante Konditionierung Bildung einer Erwartung  außerdem behauptete er, dass Ratte eine kognitive Landkarte des Labyrinths entwickelt Rolle des Verstärkers  nach Definition sollte Verstärkung für operante Konditionierung unverzichtbar sein  aber Verstärkung ist für das Erlernen neuer Verhaltensweisen nicht notwendig  Experiment zum latenten Lernen (Tolman & Honzik, 1930)  führten mit Ratten 17 Trials (1/Tag) in einem T‐Labyrinth durch o Gruppe 1: kein Futter in Zielkammer, wurden einfach herausgenommen o Gruppe 2: bei jedem Durchgang Futter in der Zielkammer o Gruppe 3: nur Futter in Durchgängen 11 bis 17  Ergebnisse: o Ratten der Gruppe 2 zeigen typische Lernkurve (allmähliche Abnahme der Fehlerrate o Ratten der Gruppe 1 zeigten wesentlich schlechtere Lernleistung o Ratten der Gruppe 3 zeigen bei Durchgängen 1‐11 ungefähr gleiche Fehlerrate wie Gruppe 1, dann (nach Futtergabe) rapide Abnahme unter Gruppe 2  Schlussfolgerung: o Tiere der Gruppe 3 hatten genauso viel gelernt wie die der Gruppe 2 (Kompetenz) o da sie jedoch kein Futter erhielten waren sie nicht motiviert genug ihr Wissen auch in Verhalten umzusetzen (Performanz)  für Kompetenzerwerb ist Verstärkung nicht notwendig, jedoch für Performanz  Verstärker energetisieren das Verhalten (Rolle der Motivation)  nach Thorndike: Verstärker = eine Art Katalysator, der S‐R‐Assoziationen verstärkt, selbst aber nicht Teil von diesen ist  im Gegensatz dazu: Verstärker ist Teil des assoziativen Netzwerks  Tier entwickelt Erwartung, dass Verstärker auf eine bestimmte Reaktion folgt  Experiment von Colwill & Rescorla zum Lernen von R‐K‐Assoziationen (1985)  Ratten lernten zwei Reaktionen: o Hebeldrücken  Futter, o Ketteziehen  Zuckerwasser  anschließend Verabreichung von Toxin (Übelkeit)  Testphase: Konfrontation mit Hebel und Kette ohne Futter o Ratten mit Toxin nach Futter drückten selten Hebel o Ratten mit Toxin nach Wasser zogen selten Kette  Schlussfolgerungen: o Hebeldrücken wird mit Futter, Ketteziehen mit Wasser assoziiert o Reaktion, die mit krankmachendem Futter assoziiert wurde wird gemieden o Bildung einer Reaktion‐Verstärker Assoziation (Abwertung des Verstärkers führt zu Schwächung der Reaktion) Verstärkung bei klassischer Konditionierung  Einfaktortheorie:  bei klassischer und operanter Konditionierung einheitlicher Lernmechanismus wirksam  z.B. Hull: CR wird durch (versteckte) Verstärker aufrechterhalten o Speichelfluss (CR) erhöht Schmackhaftigkeit o Lidschluss (CR) reduziert Wirkung des aversiven Reizes  Zweifaktorentheorie:  KK ist nur kontingenzabhängig (CS und US), OK hängt von Verstärkung der CR ab  Entscheidungsexperiment von Gormezano & Coleman (1973)  Vergleich zweier Versuchsgruppen o Gruppe zur klassischen Konditionierung: US: Elektroschock am Auge; CS: Ton; UR/CR: Lidschluss o Gruppe zur operanten Konditionierung: US konnte durch Lidschluss nach dem CS abgewandt werden  Ergebnis: Akquisition der CR erfolgte in der Gruppe der operanten Konditionierung langsamer jedes Ausbleiben des Schocks kann nach der KK als Löschungsvorgang gewertet werden o widerspricht der Analyse der Verstärkung  Ergebnisse schwächen die Einfaktortheorie, da sie zeigen, dass CRs nicht einfach durch Verstärker oder Bestrafungen beeinflusst werden können o
Konditionierung autonomer Reaktionen  Experiment von Miller und DiCara (1967)  Ratten wurden mit Curare gelähmt und künstlich beatmet  Verstärker: elektrische Stimulation des Gehirns (ESG) über implantierte Elektrode  Shaping von z.B. Herzfrequenz (mehr ESG bei Erhöhung/Erniedrigung der Frequenz)  Ergebnis: tatsächlich hinterher durchschnittlich höhere/niedrigere Raten  Experimente schlecht replizierbar, bringen keine eindeutigen Ergebnisse, Unklarheiten Biofeedback  Verfahren, die Personen Feedback zu einem körperlichen Prozess geben  z.B. bei Anspannung der Stirnmuskulatur Signal auf Monitor, damit besser entspannt wird (Vermeidung von Kopfschmerzen)  Ziel: gezielte Wahrnehmung und Beeinflussung körperlicher Prozesse  in vielen Fällen sehr erfolgreiches Verfahren Das Premack’sche Prinzip  Sind Verstärker und Verhalten unterschiedliche Kategorien von Dingen?  fragwürdig, denn Verstärkung besteht meistens aus einem Reiz (Wasser) und einem Verhalten (trinken)  Premacks Vorschlag:  Kontingenz die gelernt wird ist die zwischen zwei Verhaltensweisen  nicht Aufteilung in verstärkendes und verstärkbares Verhalten sondern Einteilung von Verhalten auf einer Wahrscheinlichkeitsskala  Premack’sches Prinzip  Verhalten, das mit höherer Wahrscheinlichkeit auftritt, dient als Verstärker für Verhalten, das mit geringer Wahrscheinlichkeit auftritt  Studie von Premack (1963)  Cebusaffen konnten verschieden Verhaltensweisen ausführen  Baseline‐Phase: Verhalten frei verfügbar, Messung der Wahrscheinlichkeit  Testphase: o Paarung verschiedener Reize miteinander o Verstärker war verschlossen und konnte erst nach Auftreten einer operante Reaktion betätigt werden o T  H: Tür muss geöffnet werden bevor Hebel gedrückt werden kann 
Ergebnisse: o das Verhalten, dass auf der Skala weiter oben stand diente als Verstärker für Verhalten, das weiter unten auf der Skala stand o besonders interessant: Öffnen der Tür (mittlere Wahrscheinlichkeit)  K T: Türöffnen = Verstärker  T  H: Türöffnen = verstärkbare Reaktion o Bestätigung des Premack’schen Prinzips (auch Prinzip der Relativität der Verstärkung)  keine absoluten Kategorien  Funktion eines Verhaltens hängt von relativer Position auf der Wahrscheinlichkeitsskala ab  Reziproke Kontingenz  Bestrafungsprinzip nach Premack: Verhalten, das mit geringerer Wahrscheinlichkeit auftritt, dient als Bestrafung für Verhalten, das mit höherer Bestrafung auftritt o Versuchstier führt weniger wahrscheinliche Reaktion evtl. nicht aus, also Nutzung der reziproken Kontingenz  stellt sicher, das zwei Verhaltensweisen in einer festen Quote zueinander auftreten  Experiment mit Ratten von Mazur (1975)  Verhalten mit höherer Wahrscheinlichkeit (Trinken) verstärkte das mit niedriger Wahrscheinlichkeit (Laufen)  Trinken wurde durch die Anforderung des Laufens bestraft  Premack’sche Prinzip in der Verhaltenstherapie  von hoher praktischer Relevanz  Verhaltenshierarchien von Individuen müssen aufgedeckt werden, um so verstärkende Verhaltensweisen zu identifizieren  kann auch zu Bestrafung angewandt werden  Beispiel der Anwendung:  Junge, der kaum Speisen isst, erhält seine Lieblingsspeise erst, wenn er etwas einer neuen probiert Funktionsanalyse von Verhalten und Verstärkern  Welche Funktion hat das unerwünscht Verhalten für die Person?  Was sind die das unerwünscht Verhalten aufrechterhaltenden Verstärker?  typische Verstärkerfunktionen:  erhöhte Aufmerksamkeit durch Bezugsperson  Beendigung der aversiven Situation (Fluchtfunktion)  Belohnung durch unerwünschtes Verhalten selbst (automatische Verstärkung)  wenn Funktion analysiert ist, kann Therapie entsprechend ansetzen  unerwünschtem Verhalten keine Aufmerksamkeit schenken  vorzeitiges Beenden einer aversiven Situation erlauben oder deren Durchhalten belohnen  Belohnung entwerten (bspw. Nägelkauen durch Bitterstoffe auf Nägeln verhindern) Kapitel 12: Beobachtungslernen  Bandura & Walters: Social Learning & Personality Development (1963)  weißen darauf hin, dass Lerntheorie eklatant unvollständig ist, da sie Rolle des Beobachtungslernen vernachlässigt  klassische Lerntheorie: unmittelbare individuelle Erfahrung als Basis für Lernen  Menschen jedoch nicht auf individuelle Erfahrung angewiesen o können aus Beobachtung des Verhaltens und der Verhaltenskonsequenzen anderer Personen lernen Arten von Imitation  Mimikry  Nachahmen von Gesten und Mimiken , die bei einem Modell beobachtete werden, ohne dabei ein Ziel (außer evtl. das der Imitation selbst) zu verfolgen  z.B.: kleine Kinder imitieren in diesem Sinne etwa Erwachsene wenn sie spielen  Emulationslernen  das Nutzen bereits bekannter Mittel, um ein Ziele zu erreichen, das durch das Modell salient wurde (Lernen über ein Objekt, nicht über Mittel‐Ziel‐Beziehung  z.B.: Affe sieht Menschen Nuss öffnen, lernt, dass Nuss essbaren Kern hat und versucht diese mit eigenen Mitteln zu öffnen  Soziale Erleichterung  nach Thorpes: Nachahmung, bei der das Verhalten eines Individuums bei einem anderen ein ähnliches Verhalten auslöst, dieses Verhalten aber bereits zum Repertoire des Nachahmenden gehört  z.B. wenn ein Tier frisst folgen andere dem Beispiel, Radfahrer fahren in der Gruppe schneller als allein ….  Stimulus Enhancement  Verhalten eines Modells lenkt die Aufmerksamkeit des Lernenden auf ein bestimmtes Objekt oder eine Stelle in der Umgebung, sodass der Lernende ein neues Verhalten schneller lernt als durch Versuch und Irrtum  z.B.: Affen, die andere Affen an Schnur ziehen sehen lenken ihre Aufmerksamkeit eher auf diese und imitieren das Verhalten  Echte Imitation  Übernahme einer Handlung, um selbst das zugehörige Handlungsziel zu erreichen o z.B. größere Kinder lernen selbst den Computer hochzufahren und ein Programm zu öffnen um ein Spiel zu spielen  nach Thorpes: Nachahmung einer Verhaltensweise, die für die Spezies so ungewöhnlich oder unwahrscheinlich ist, dass sie nur selten durch Versuch und Irrtum gelernt wird o z.B. Meisen lernen Milchflaschen aufzupicken um Sahne zu trinken (Fisher & Hinde, 1949)  Imitation vs. Emulation bei Affen und Kindern  lernen durch Beobachtung Box mit Süßigkeiten z öffnen  Kinder imitieren Handlungen viel genauer als Affen  Affen verstehen irgendwann, das in der Kiste Süßigkeiten sind und lassen überflüssige Handlungen weg (eher Emulation)  Erwachsene imitieren ähnlich wie Affen o
aus Imitationshäufigkeit kann nicht einfach auf das Verstehen der Handlungen und Absichten anderer geschlossen werden  Imitation bei Neugeborenen  McDougall (1908) hielt Imitation für Instinkt o z.B. streckte sein 4 Monate alter Sohn Zunge raus wenn er es tat o aber: evtl. frühere Verstärkung der Imitation?  Wiederholung der Experimente mit jüngeren Neugeborenen (Meltzoff & Moore) o Säuglinge zeigten sehr oft das Verhalten, das sie gerade gesehen hatten Physiologische Grundlagen  Imitation impliziert Korrespondenzproblem  Wie ist es möglich, visuellen Input in motorischen Output zu übersetzen?  Rizzolatti fand sogenannte Spiegelneuronen im prämotorischen Kortex von Affen  Neuronen feuern kurz vor einer bestimmten Bewegung (z.B. Erdnuss nehmen), aber auch, wenn diese nur beobachtet wird o feuern nicht bei Erdnuss ohne Bewegung oder Bewegung ohne Erdnuss Konditionieren vs. Beobachtungslernen  Miller & Dollard analysierten Imitation als Dreifachkontingenz: SD → R → SV  Hinweisreiz: Verhalten des Modells  Verhalten: Imitation des Modells  Verstärkung: Lob, Belohnung  Bandura (1971/76) kritisierte:  häufig wird Verhalten nicht sofort nach Beobachtung imitiert o nur SD vorhanden, während R  SV fehlt  häufig wird Imitation nicht verstärkt o nur R vorhanden, SD und SV fehlen  Beispiel: 2‐Jährige beobachtet Mutter beim Müsli machen, imitiert sie als sie später allein ist Banduras Imitationstheorie  1. Bobo‐Doll‐Experiment (1965)  4‐jährige sahen Kurzfilm, in dem Erwachsener aggressives Verhalten gegenüber einer aufblasbaren Puppe zeigte (Schläge auf die Nase o.ä.)  aufgeteilt in drei Gruppen Gruppe 1 sah, wie Erwachsener mit Süßigkeiten belohnt und gelobt wurde Gruppe 2 sah, wie der Erwachsene einen Klaps bekam, ausgeschimpft und ermahnt wurde o Gruppe 3 sah keine Konsequenz  Ergebnis: o imitatives aggressives Verhalten wurde in Gruppe 1 mehr gezeigt, als in Gruppe 2 und 3 o wurde allen Kindern hinterher eine Belohnung versprochen, zeigten alle das aggressive Verhalten  Schlussfolgerungen: o beobachtete Konsequenzen des Verhaltens waren ausschlaggebend für das Zeigen von Verhalten (Performanz) o Kompetenz hatten alle Kinder, jedoch ist Erwartung von Verstärkung wesentlich für die Ausführung  2. Bobo‐Doll‐Experiment (Bandura, Ross & Ross, 1963)  Aufteilung der Kinder in 4 Gruppen o Gruppe 1: direkte Beobachtung der Szene o Gruppe 2: Szene als Realfilm o Gruppe 3: Cartoon‐Film o Gruppe 4: Kontrollgruppe  Ergebnis: o Gruppen 1‐3 aggressiver als Gruppe 4 o Beobachtung eines aggressiven Modells (medial oder real) vermittelt eine Zunahme imitativen aggressiven Verhaltens  Imitationstheorie  vier Faktoren bestimmten, ob Imitation auftritt Ausführungsphase Modellierende Ereignisse o
o
Aufmerksamkeits‐
prozess



Gedächtnisprozess
motorischer Reproduktions‐
prozess
Anreiz‐ und Motivations‐
prozess
Unterscheidung von Kompetenz und Performanz (Kompetenz umfasst nur 1‐3) Aneignungsphase Nachbildungsleistung gelernt werden insbesondere Verhalten‐Effekt‐Kontingenzen Einzelheiten o Aufmerksamkeit:  Modell: Salienz, Valenz, Komplexität, funktionaler Wert  Beobachter: Motivation, Wachheit, Diskrimination Gedächtnis:  Kodierung: bildlich – verbal  Organisation, Wiederholung o Reproduktion  körperliche Fähigkeiten  Verfügbarkeit der Teilreaktionen  Feedback o Verstärkung  extern – selbst Leistungsmotivation durch Modelllernen  direkte Verstärkung und beobachtendes Lernen wirken zusammen und bringen Selbstdisziplin und Verhaltensmotivation hervor  mögliche Leistungsmotive  etwas Schwieriges zustande bringen  Menschen, Ideen oder Objekte beeinflussen, manipulieren, organisieren  Hindernisse überwinden, konkurrieren, Selbstachtung steigern  Bandura & Kupers (1964)  Modell belohnte sich beim Bowlingspielen für 10 oder 20 Punkte  Kinder tendierten zum gleichen Leistungsstandard wie Modell  Kinder ohne Modell belohnten sich nach jedem Wurf  Rosen & D‘Andrade (1959)  Kinder von Eltern mit hohen Leistungsstandards entwickeln selbst hohe Leistungsstandards Phobien durch Modelllernen  Phobiker geben häufig an, Phobie durch Beobachtung bei anderen erworben zu haben  Korrelationen zwischen Kindern und ihren Eltern bestätigen dies (sind aber mehrdeutig)  Mineka et al. (1984)  isoliert aufgezogene Affen beobachteten (Video) die Angst eines anderen Affen vor einer Schlange  zeigten im Nachtest Angst vor der Schlange Modelllernen in der Verhaltenstherapie  teilnehmende Modellierung: Therapeut zeigt sich beispielsweise als Vorbild, indem er mit der Schlange oder Spinne spielt  Bandura, Blanchard & Ri’er (1989): teilnehmende Modellierung doppelt so wirksam wie systematische Desensibilisierung o
 Förderung seltenen Verhaltens  z.B. schüchteren Kinder sehen Film wie andere Kinder zusammen spielen (erst ruhige Aktionen, dann mehr Beteiligung)  graduelle Modellierung  Ergebnis: fünffache Erhöhung sozialer Aktionen  Aneignung neuer Verhaltensweisen  neue Verhaltensweisen werden vom Therapeuten vorgeführt  z.B. Sprachtraining mit autistischen Kindern Kapitel 13: Motorisches Lernen Arten motorischer Fertigkeiten  diskrete motorische Fertigkeiten  werden abgeschlossen kurz nachdem sie begonnen wurden  können meist als Open‐Loop‐Bewegungen bezeichnet werden o wenn Bewegung einmal begonnen hat können keine Korrekturen mehr vorgenommen werden (zu schnell)  z.B. Drücken einer Stoppuhr  kontinuierliche motorische Fertigkeiten  können sich über unbegrenzt lange Zeitspanne erstrecken  können meist als Closed‐Loop‐Bewegungen bezeichnet werden o Individuum erhält dauernde Feedback über Bewegungsablauf und kann darauf reagieren  z.B. Balancieren auf einem Baumstamm  „diskret“ und „kontinuierlich“ bezeichnen zwei Enden eines Spektrums  viele Verhaltensweisen fallen zwischen dies Extreme  weitere Unterscheidungsmöglichkeit: gleiche Bewegung vs. Anpassung der Bewegung  z.B. Freiwurf beim Basketball vs. Golf Verstärkung und Ergebniswissen  Thorndike führte Experiment zum Erlernen motorische Fertigkeiten durch  VP mussten 3 Zoll Linie zeichnen  erhielten Feedback „richtig“, „falsch“  Ergebnis: wesentlich größerer Fortschritt als in Kontrollgruppe ohne Feedback  Thorndike schloss, dass Gesetz des Effekts gilt (Feedback = Verstärkung)  Kritik durch Trowbridge & Cason (1932)  mit „richtig“/„falsch“ bekam die VP Information /Feedback über die Richtigkeit jeder Reaktion  Rückmeldung kein Verstärker sondern Information  Ergebniswissen (knowledge of results, KR) o Rückmeldung an Lernenden, wie nahe Bewegung dem Ziel gekommen ist  Beleg durch Replikation des Experiments von Thorndike  Aufteilung der VP in vier statt zwei Gruppen o Kein‐KR‐Gruppe: Übung ohne Feedback o Qualitatives‐KR‐Gruppe: „richtig“/“falsch“ aber keine Angabe der Größe des Fehlers o Quantitatives‐KR‐Gruppe: Richtung und Größe des Fehlers wurde angegeben o Irrelevantes‐KR‐Gruppe: nutzloses Feedback (sinnlose Silben)  Ergebnis: o irrelevantes‐KR und kein KR zeigen keine Verbesserung o qualitatives‐KR zeigt wesentliche Verbesserung, quantitatives‐KR jedoch am Besten  Schlussfolgerungen: o Information nicht Verstärkung ausschlaggebend o genauere qualitative KR führt zu besserer Performanz  Effekt der Rückmeldungsrate  intermittierende Rückmeldung (z.B. in 50% der Fälle) effektiver als kontinuierliche  Erklärung durch Leitungshypothese o KR liefert Informationen, die helfen neue motorische Fähigkeit zu erlernen o VP mit intermittierender Rückmeldung müssen sich auf Fähigkeit selbst Fehler zu erkennen verlassen o kontinuierliche KR hilft in Akquisitionsphase, dann jedoch Abhängigkeit von dieser und in der Testphase schlechtere Ergebnisse  verzögertes Feedback kann ebenfalls sehr effektiv sein o gibt VP Zeit, selbst über Fehler nachzudenken, diese zu erkennen und zu korrigieren Performanzwissen (knowledge of performance, KP)  detaillierte Rückmeldung an den Lernenden, z.B. Informationen darüber, welche Teile der Bewegung gut ausgeführt wurden und wie andere verbessert werden können  Beispiel: Leistung bei einer simulierten Baseballschlag‐Aufgabe  eine Gruppe erhielt KR (Schlagweite), andere KR+KP (Winkel des Rückschwungs im Vergleich zum optimalen)  Ergebnis: Leistung der KR+KP‐Gruppe wesentlich besser  Experiment von Hatze (1976): Videorückmeldung  Personen sollte gegen ein Objekt treten  Ausführung wurde aufgenommen und dann mit der Animation einer idealen Ausführung gezeigt o Bewegungszeit ging nach dem Video weiter zurück  Handlungsbeobachtung aktiviert das motorische System  Spiegelneuronen Adams‘ Zwei‐Phasen‐Theorie  motorisches Lernen erfordert Bildung einer perzeptuellen Spur/Wahrnehmungsspur (sensorische Referenzgröße) und einer motorischen Spur (Bewegungsgedächtnis)  1. Phase: verbal‐motorische Phase  Lernender ist Feedback‐abhängig o sensorisches Lernen: Wie fühlt sich richtige Bewegung an?  2. Phase: motorische Phase  Lernender kann sich auf innere Wahrnehmungsspur verlassen und ich Feedback‐unabhängig o motorisches Lernen: Wie führe ich richtige Bewegung aus?  Beispiel: Experiment von Newell (1974)  VP mussten Schieber eine bestimmte Strecke bewegen  Gruppen erhielten unterschiedlich lange qualitative KR (z.B. 2, 7, 17 Durchgänge lang)  Ergebnisse:  2 KR nicht genug um Performanz zu verbessern  Gruppen 7, 17,32 zogen Nutzen aus KR  Gruppe 52 zog genauso gut wie die, die immer KR erhielt o Gruppe 52 war bis zur motorischen Phase fortgeschritten  Problem: Theorie beschränkt auf einzelne repetitive Bewegungen  keine Aussage über Situationen, in denen Stimulusbedingungen unterschiedlich sind Schmidts Schematheorie  bezieht sich auf vielseitige Bewegungen, bei denen Personen evtl. noch nie geübte Aufgabe ausführen muss  Üben einer Aufgabe führt zum Erwerb von allgemeinen Regeln (Schemata), wie man die richtige Reaktion erkennen und produzieren kann  Beispiel Golfspieler: o entwickelt mit der Zeit Schema zu Beziehung zwischen Kraftaufwand und zurückgelegter Entfernung des Balles (Anpassung z.B. an Gefälle möglich)  neben solchen motorischen Schemata auch Wahrnehmungsschemata  Golfspieler kann voraussagen ob Ball trifft ohne Resultat zu sehen  Vorteile der Theorie:  macht verständlich, wie Menschen flexible motorische Fähigkeiten entwickeln o Fertigkeit entwickelt sich während Person sich allgemeine Regeln und Schemata aneignet 
erlaubt die Annahme, dass man aus Fehlern lernen kann o nach Adams verschlechtern Fehler das Lernen, weil Person vergisst, wie korrekte Bewegung sich anfühlt Battigs Theorie der Kontext‐Interferenz  Merkmale einer Lernsituation, die die das Lernen einer neuen Aufgabe erschweren, aber langfristig zu einer besseren Leistung führen können  Beispiel: Armbewegungen auf bestimmte Signale (Shea & Morgan, 1979)  geblockte Übung: gleiche Aufgabenvarianten hintereinander  gemischte Übung: Aufgaben werden gemischt geübt (mehr Kontext‐Interferenz)  Ergebnis: geblocktes Lernen geht schneller, aber gemischtes Lernen ist stabiler Erlernen von Bewegungsabläufen  Verhaltensketten  Beispiel Gehen: Bewegung des linken Beins könnte diskriminativer Hinweisreiz für Bewegung des linken sein  Verbesserung beispielsweise der Geschwindigkeit kann als Verstärker gesehen werden, der zur Verbesserung der notwendigen Motorik führt  aber korrekte Ausführung mancher Bewegungssequenzen ist nicht von kontinuierlichem motorischen Feedback abhängig (z.B. Tippen auf einer Tastatur) Motorische Programme (Lashley)  Definition:  Mechanismus im Gehirn oder Rückenmark, der eine Bewegungsabfolge steuert und nicht auf sensorisches Feedback einer Bewegung angewiesen ist, um nächste Bewegung einzuleiten  menschliche Reaktionen zu langsam als das sensorisches Feedback einer Bewegung als Stimulus dienen könnte  Musiker führen jedoch bis zu 16 Fingerbewegungen/Minute aus  Verlust der Wahrnehmung von sensorischem Feedback führt nicht zu Verlust von Bewegungen  Affen können trotz durchtrennter Nerven ihre Vorderläufe benutzen  Fehlerarten die bei schnellen Bewegungssequenzen auftreten durch Verhaltenskette nicht erklärbar (z.B. Buchstabendreher beim Tippen)  Programm, dass aus mehreren/komplizierteren Bewegungen besteht braucht länger um zu starten als kurzes Sensorisches Feedback in motorischen Programmen  entgegen der ursprünglichen Theorie zu motorischen Programmen spielt sensorisches Feedback auch hier eine Rolle  liefert Informationen zu den Anfangsbedingungen  hilft bei der Bewertung der Gesamtsequenz  liefert Informationen über Fehler und nötige Korrektur  mittels sensorischen Feedbacks können zukünftige Teilprogramme modifiziert werden, während andere schon/noch laufen  Existenz generalisierter motorischer Programme  motorisches Programm, das verschiedenen Situationen angepasst werden kann Zusammenfassende Theorie des motorischen Lernens  Fitts 3‐Phasen‐Modell (1964)  Kognitive Phase: verbale Repräsentation (Selbst‐und Fremdinstruktion)  Assoziative Phase: Bewegungskomponenten werden mit Erfolg/Misserfolg assoziiert (Feedback)  Automatische Phase: keine bewusste Kontrolle nötig (in der Regel), keine verbale Repräsentation, automatischer Programmablauf Kapitel 15: Implizites Lernen Definitionen  Nutzen von Regelhaftigkeiten in der Umwelt ohne Einsicht oder Bewusstsein  nach Reber, 1989  „Implizites Lernen steht für einen allgemeinen, modalitätsfreien Urprozess, eine fundamentale Funktion, über die wichtige Kovariationen in der Reizumgebung gelernt werden“  nach Hoffmann, 1993  beiläufiges, unaufgefordertes Lernen und Nutzen von Regelhaftigkeiten, eine Anpassung an die Reizumgebung ohne entsprechende Aufforderung oder Bewusstheit“  Perrig, 1996  „Implizites Lernen resultiert in einer Veränderung im Verhalten oder im Verhaltenspotenzial, die auf Erfahrung zurückgeht, ohne mit Einsicht oder berichtbarer Erkenntnis einherzugehen“ Beispiele  Was muss man tun um mit einem Fahrrad nicht umzukippen?  implizit gelernt, explizit nicht verfügbar  Welcher grammatische Fall wird im Deutschen wann benutzt?  Muttersprache: implizit gelernt, explizit nicht verfügbar  Welcher Buchstabe ist wo auf der Tastatur?  ursprünglich explizit gelernt, mit zunehmender Übung prozeduralisiert, dann nicht mehr explizit verfügbar  Perzeptuelles Priming  Vorteile in der Identifikation von und Reaktion auf schon einmal gezeigte Stimuli, selbst wenn diese dann „degradiert“ (nur noch schwach dargestellt) werden  Wortstammkomplettierung  Worte, die vorher ausgeschrieben zu sehen waren werden mit höherer Wahrscheinlichkeit und auch schneller ergänzt  resultierende Fragestellungen  Lernen Menschen „unbewusst“/ohne Einsicht?  Ist implizites Lernen die Grundlage für das Phänomen Intuition (korrektes Schließen ohne verfügbares explizites Wissen) ? Unterscheidung der Lernformen Typische Untersuchungsparadigmen  Erlernen künstlicher Grammatiken  VPN müssen sich Buchstabensequenzen einprägen  ohne dass ihnen dies bewusst ist, sind Abfolgen durch Regelsystem generiert worden  im Anschluss beurteilen, ob neue Sequenzen grammatikalische richtig oder falsch sind o Ergebnis: VPn können dies überzufällig gut (ohne explizites Wissen)  Sequenzlernaufgabe  beim Aufleuchten bestimmter Kreise müssen VPn bestimmte Tasten drücken, Reaktionszeit wird gemessen  Kreise leuchten in regelhafter Reihenfolge auf o Ergebnis: nach einigen Durchgängen deutliche Verringerung der Reaktionszeiten, Wissen jedoch nicht explizit verfügbar  Kovariationslernen  unbemerkt beeinflussen Korrelationen zwischen Eigenschaften unser Verhalten  experimentelles Beispiel: o Gesichter von Dozenten werden mit Eigenschaft fair‐unfair gezeigt o Gesichtsform korreliert mit Eigenschaft o VPn müssen Fairness neuer Gesichter beurteilen  eingeschätzte Fairness korreliert mit der Gesichtsform  Komplexe Systeme steuern  VPn sollen komplexe Systeme steuern, ohne die dem System zugrundeliegenden regeln zu kennen o Beispiel: Zuckerproduktion: Wie viele Arbeiter müssen für optimale Produktionsmenge eingestellt werden?  Input wird gesteuert, Info über Output, aber keine Info über Regeln  VPn werden immer besser, erwerben aber kein explizites Wissen über zugrundeliegende Regeln  evtl. Dissoziation von explizitem und implizitem Wissen (bei besserer Kontrolle weniger explizites Wissen) Abgrenzung von explizitem und implizitem Lernen  Prozessdissoziationsmodell nach Jacoby (Trennung kontrollierter und automatischer Prozesse)  in erster Lernphase Wörter lesen, in zweiter Wörter hören  zwei Rekognitionstests mit alten und neuen Wörtern unter zwei Bedingungen o Inklusionsbedingung: bei Wörtern aus Phase 1 oder 2 „ja“ (vertraut) oder „nein“ (neu) o Exklusionsbedingung: bei Wörtern aus Phase 2 „ja“, bei neuen und Phase 2 „nein“  Exklusionsbedingung nur möglich, wenn Wörter aktiv den Phasen zugeordnet werden können und nicht nur vertraut erscheinen Arten der gelernten Reaktionen  Assoziationen zwischen dargebotenen Reizen (auf Licht A folgt Licht B)  Assoziationen zwischen Reaktionen und den darauffolgenden Reizen (auf Drücken der A‐
Taste folgt Licht)  Assoziationen zwischen Reaktionen (auf Drücken der A‐Taste folgt Drücken der B‐Taste)  untersuchbar durch Variation der Lernphasen und Messung der Transferleistung  Beispiel: falscher Stimulus in der Sequenz, der aber die gleiche Reaktion erfordert wie die Ursprungssequenz erzeugt gleiche Reaktion (Assoziation zw. Reaktionen) 
Herunterladen