zf-lernen

Werbung
Anmerkung: Bei Fragen oder falls ihr Fehler entdecken solltet, bitte Mail an [email protected]
Kapitel 6 Lernen
6.1 Einführung (sehr grob)
- Erforschung der Lerngesetze besonders durch Behavioristen, wollten allgemeingültige Lerngesetze
allein auf Basis objektiv beobachtbarer Verhaltensmerkmale aufstellen, Verhalten beeinflussen
- Umsetzung in Verhaltenstherapie, heute allerdings auf wesentlich breiterer theoretischer Grundlage
- Lerntechnologie von Skinner nicht erfolgreich, heutiger computergestützter Unterricht auf gänzlich
anderer theoretischer Grundlage. Überhaupt teils geradezu naiver Glaube an Allgemeingültigkeit
von Lerngesetzen sowie Objektivität experimenteller Erkenntnisse
→ kognitive Wende (Bandura, aber auch Bolles, Rescorla, Tolman)
6.2 Klassische Konditionierung
6.2.1 Iwan Petrowitsch Pawlow: Speichelsekretion bei Hunden
Pawlow entdeckte bei Arbeiten zur Physiologie der Verdauung, dass auch zuvor neutrale Reize, wie
etwa die nahenden Schritte des Experimentators, Speichelfluss auslösten, wenn sie schon einige
Male mit oder knapp vor der Futtergabe aufgetreten waren.
→ zunächst „psychische Sekretion“ genannt, später wurden solche Lernphänomene als
„konditionierte Reflexe“ bezeichnet
→ heute: „Klassische Konditionierung“: neben Reflexen auch andere Arten von Reaktionen
berücksichtigt, die durch gelernte Reize ausgelöst werden können
Terminologie und Vorgang der klassischen Konditionierung:
Terminologie:
US: unkonditionierter Stimulus (Fleischpulver)
UR: unkonditionierte Reaktion (Speichelfluss)
NS: neutraler Stimulus (Glockenton)
OR: Orientierungsreaktion (Ohren aufstellen usw.)
CS: konditionierter Stimulus (Glockenton) (Engl.: conditioned stimulus)
CR: konditionierte Reaktion (Speichelfluss)
Vorgehensweise: Kontrollphase
US löst aus: UR
(Unterteilung)
NS löst aus: OR
Konditionierungsphase:
NS ist gepaart mit US
US löst aus: UR
Ergebnis des Konditionierungstrainings: NS wird CS
CS löst aus CR
Löschungsphase:
Kein US
CS löst mit abnehmend. Wirkung aus: CR
Ergebnis der Löschungsphase:
Keine spezifische Reaktion auf den CS
Spontanerholung:
Kein US
CS löst nochmals aus: CR
Der Aufbau des klassischen Experiments von Pawlow:
-Hund erhält Fleischpulver (US) ins Maul → sondert Speichel ab (UR)
-nun Hund mehrmals in Verbindung mit dem Fleischpulver der NS (z.B. Glockenton) dargeboten
→ wenn oft genug durchgeführt: Glockenton allein bewirkt Speichelfluss
→ aus neutralem Glockenton (NS) wurde CS. Dieser löst nun auch ohne Paarung mit
unkonditioniertem (unbedingtem) Stimulus (US) die konditionierte (bedingte) Reaktion (CR) aus
Das typische experimentelle Vorgehen kann in drei bzw. vier Phasen unterteilt werden:
Kontrollphase (Phase 1): Es ist zu Prüfen, ob US ein zufälliger Auslöser UR ist. Hingegen darf der
NS in der Kontrollphase noch nicht die UR auslösen. Er ruft jedoch – falls er dem Tier unbekannt ist –
die sog. Orientierungsreaktion (OR) hervor. Sie beinhaltet eine Hinwendung zur Reizquelle – z.B.
Hund blickt zur Glocke – und eine allgemeine Steigerung der Aufmerksamkeit – z.B.
Pupillenerweiterung, erhöhter Herzschlag. Die Einzelnen Komponenten der UR sollten sich deutlich
von denen der OR unterscheiden. Ansonsten könnte die OR fälschlicherweise als CR interpretiert
werden.
Konditionierungsphase (Phase 2): Der NS und US werden mehrmals gemeinsam dargeboten,
wobei der US die UR auslöst. Sehr wichtig ist die zeitliche Beziehung zwischen den beiden Reizen.
Abbildung 6.2 zeigt vier besonders häufig untersuchte Varianten: verzögerte Konditionierung,
simultane Konditionierung, Spurenkonditionierung und rückwirkende Konditionierung. Der zeitliche
Abstand zwischen dem Beginn des NS und dem Einsetzen des US wird als Interstimulusintervall
(ISI) bezeichnet.
- verzögerte Konditionierung führt am schnellsten zu bedingter Reaktion
- „rückwirkende Konditionierung“: umstritten, ob überhaupt ein systematischer Lerneffekt eintritt
- bei schnellen Reaktionen der Muskulatur (z.B. Lidschlag, Abwehrbewegungen, zurückziehen von
Gliedmaßen): optimaler Abstand zwischen Beginn des NS und Einsetzen des US liegt im Bereich
von wenigen Zehntelsekunden.
- bei nicht willentlich beeinflussbaren Reaktionen (z.B. Speichelfluss, galvanische Hautreaktion)
beträgt günstigstes ISI hingegen mehrere Sekunden.
→ ISI ist dann von optimaler Dauer, wenn es etwas länger als die physiologisch bedingte Latenzzeit
der Reaktion ist.
Abbildung 6.2. zeitliche Beziehung zwischen NS und US
Löschungsphase (Phase 3): Der CS wird ohne Koppelung mit dem US, d.h. alleine dargeboten.
- bei erfolgreicher Konditionierung: bedingte Reaktion tritt in den ersten Durchgängen deutlich auf
(aber meist schwächer als unbedingte Reaktion → mit ein Grund, terminologisch zwischen UR und
CR zu unterscheiden)
- nach einer Reihe von Darbietungen nimmt CR in ihrer Stärke ab, bis sie schließlich gelöscht ist
Spontanerholung (Phase 4): Wird dem Versuchstier nach einer längeren Pause nochmals der CS
geboten, tritt die zuvor gelöschte Reaktion wieder auf.
- allerdings ist diese CR deutlich schwächer als CR zu Beginn der Löschungsphase, und sie
verschwindet bei weiteren Durchgängen rasch (→ Abbildung 6.3)
Abbildung 6.3. Löschungsphase und Spontanerholung bei der klassischen Konditionierung. Daten nach Pawlow
(1927) zu einem Experiment mit Speichelfluss als UR bzw. CR und Anblick von Futterpulver als CS.
- die Löschung einer bedingten Reaktion ist kein Vergessensprozess, sondern kann als weitere
Phase eines Lernvorgangs aufgefasst werden → Organismus lernt, dass Koppelung von CS und US
nicht mehr gegeben ist; der Reiz büßt seinen Signalcharakter ein
- lässt man bloß Zeit verstreichen, hat dies nur einen geringen Einfluss auf die Stärke einer
konditionierten Reaktion
Maße zur Quantifizierung einer bedingten Reaktion:
- Reaktionsamplitude: Ausmaß / Stärke der bedingten Reaktion (z.B. Speichelfluss)
- Reaktionslatenz: Schnelligkeit, mit der bedingte Reaktion auf konditionierten Reiz folgt
- Löschungswiderstand: z.B. ermittelt anhand Anzahl der Durchgänge, in denen der konditionierte
Reiz ohne Paarung mit dem unkonditionierten Reiz vorgegeben werden muss, bis bedingte Reaktion
nicht mehr auftritt
Frage: wird bei klassischer Konditionierung eine CS -US (-CR) Verbindung oder eine direkte CS -CR
Verbindung aufgebaut?
- In beiden Fällen Annahme, dass vor Konditionierung Verbindung des US mit UR besteht.
- Auslösung einer der UR verwandten CR könnte über das Erlernen einer Assoziation von CS und US
oder aber über den Erwerb einer direkten Assoziation von CS und CR erfolgen
- Rescorla (1973): Hinweis, dass CS mit US verknüpft: In Experiment wurde nach KonditionierungsPhase die Wirkung des US durch Habituation reduziert (Habituation = Abnahme der Stärke einer
reflexartigen Reaktion (UR) nach wiederholter Darbietung des auslösenden Stimulus (US).
- da dadurch auch die Wirksamkeit des CS eingeschränkt wurde:
→ scheinbar bei klassischer Konditionierung eine CS-US Verbindung aufgebaut
6.2.2 Reizgeneralisierung und Reizdiskrimination
- bisher: Annahme, dass CS bei jeder Darbietung identisch
- aber auch ähnlicher Reiz vermag konditionierte Reaktion auslösen: „Reizgeneralisierung“
z.B. - Hund hat gelernt, auf optischen Reiz „Kreis“ mit Speichelsekretion zu antworten
- Reaktion im Allgemeinen auch durch kreisförmige Ellipse ausgelöst
- komplementärer Vorgang: „Reizdiskriminierung“
- bewirkt, dass bedingte Reaktion nur durch einen genau definierten Reiz, nicht aber durch einen ihm
ähnlichen ausgelöst wird
Diskriminationstraining: z.B. zwei ähnliche Reize in unregelmäßiger Folge dargeboten. In
Verbindung
mit dem einen Reiz (etwa einem Kreis) jedes Mal unkonditionierter Reiz präsentiert, auf anderen
Reiz (z.B. Ellipse), folgt unkonditionierter Reiz nicht.
→ nach mehreren Versuchsdurchgängen reagiert Versuchstier nur noch auf Kreis mit CR
→ hat also gelernt, zwischen Reizen „Kreis“ und „Ellipse“ zu unterscheiden
- der Diskriminationsfähigkeit sind Grenzen gesetzt. Ihre Überschreitung ist mit einer deutlichen
emotional-motivationalen Reaktion verknüpft: wenn z.B. Unterschied zwischen den beiden Reizen
„Kreis“ und „Ellipse“ im Verlauf des Trainings zunehmend verringert:
→ Diskriminationleistung sinkt drastisch ab
→ Anzeichen emotionaler Störungen sichtbar: als Ellipsen + Kreise bei Pawlow fast identisch:
massive Verhaltensstörungen (z.B. Winseln, Nahrungsverweigerung): „experimentelle Neurose“
6.2.3 Angst und Phobien
Bedingte Furcht- / Angst-Reaktion
Bisher: klassische Konditionierung anhand von Reflexen (angeborene, spezifische Reaktionen auf
einen bestimmten Reiz). Ein wesentlicher Teil der Bedeutung, die der klass. Kond. zugemessen wird,
beruht aber darauf, dass auch emotional-motivationale Reaktionen an unterschiedliche, zuvor
neutrale Reize gekoppelt werden können. So wird der Erwerb von Furcht- / Angst-Reaktionen
gegenüber bestimmten Objekten und Situationen auf Vorkommnisse in der individuellen
Lebensgeschichte eines Menschen zurückgeführt, die als Vorgänge einer klass. Kond. interpretiert
werden können.
Beispiel: Watson und Rayner (1920) Untersuchung des „kleinen Albert“: lernte Ratte zu fürchten
- Alter: zwischen 9 und 13 Monaten, in Kinderheim aufgezogen, Untersuchung über mehrere Monate
- Überprüft, ob auf unvermutetes Hämmern auf Stahlstab (US) Schreck- / Angst-Reaktion (UR)
- Reaktion auf Tiere, u.a. Ratte getestet → Albert interessiert und zutraulich
- Konditionierungstraining: Ratte (NS) gezeigt, dabei jedes Mal hinter Rücken auf Stahlstab
gehämmert → lautes Geräusch (US), löste i. Allg. UR aus
- nach wenigen Koppelungen: allein bei Anblick der Ratte Weinen und Abwenden
→ NS „weiße Ratte“ durch mehrmalige gemeinsame Darbietung mit aversivem Reiz selbst Furcht
und Angst auslösender Reiz geworden (generalisierte teils auch auf andere Felltiere und -Objekte)
→ emotionale Reaktion an neuen Reiz gekoppelt
- UR, Schreck- /Angst-Reaktion und CR, Furcht- /Angst-Reaktion nicht völlig identisch (→ siehe 6.4.1)
- erlernte Reaktion wurde nicht aufgehoben, Experiment insgesamt berüchtigt
Phobien und ihre Behandlung
Phobie: unbegründete und starke Angst vor bestimmten Objekten und Situationen (z.B. Höhenangst,
geschlossene enge Räume, Angst vor Spinnen).
→ schwerwiegende Folgen: Betroffene vermeiden alles, was sie dem Objekt der Angst aussetzen
könnte, schließen sich von Teilen des soz. Lebens aus (Bsp. Albert: Erklärungsmöglichk. für Entst.)
- verschiedene verhaltenstherapeutische Techniken zur Behandlung von Phobien berücksichtigen
Erkenntnisse zur klass. Kond. (basieren aber nicht ganz allein auf behavioristischen Erkenntnissen)
Konfrontationstherapie: Phobiker gezielt Angst auslösenden Reizen ausgesetzt (z.B. Ratte)
- graduelle Steigerung zu immer schwieriger bewältigbaren Situationen (durch Therapeut unterstützt)
- Ziel: Lernen, dass CS (z.B. Ratte) nicht mehr mit aversivem Reiz (US, z.B. Hämmern) gekoppelt ist
→ somit keine Gefahr signalisiert → Furcht- / Angst-Reaktion unbegründet
- Konfrontation mit realen Reizen / Situationen (nicht bloß vorgestellten) ist sehr erfolgreich
systematische Desensibilisierung: mit Gegenkonditionierung Angst auslösende Reize gezielt mit
Verhalten gepaart, zu dem Angst nicht kompatibel ist
→ alternative Reaktion auf die Reize gelernt, z.B. bei Entspannungstraining
- oft hierarchische Liste der ängstigenden Situationen erstellt
- Entspannung unter Vorstellung dieser Situationen, beginnend mit gering angstauslös. Vorstellungen
(Inzwischen auch zunehmend Verwendung von Simulationen virtueller Realitäten)
6.2.4 Weitere Anwendungsgebiete der klassischen Konditionierung
- physiologische Reaktionen (z.B. Herzschlag) lassen sich konditionieren
z.B. starker Kaffee: positiv angeregtes Gefühl schon bevor Koffein seine Wirkung entfaltet
- Untersuchungen zum Einfluss psychischer Faktoren auf Funktion des Immunsystems
z.B. Adler und Cohen (1975): Immunreaktion durch klassischen Konditionierung veränderbar
- Ratten bekamen mit Saccharin gesüßtes Wasser + Immunsystem schwächende Substanz
→ nach Wartezeit erhielt ein Teil der Ratten wieder gesüßtes Wasser, der andere Teil normales
Wasser (Kontrollbedingung)
→ Immunreaktion der Tiere in Experimentalbedingung fiel schwächer aus als in Kontrollbedingung
6.2.5 Neurobiologische Basis der klassischen Konditionierung
Aplysia: große Meeresschnecke, hat nur einige tausend sehr große Neurone
Kandel und Tauc (1964): aus drei Neuronen bestehende Zellverbände:
- zu Beginn: Neuron 2 aktivierte Neuron 3, Neuron 1 hatte keinen entsprechenden Effekt, obwohl
auch zwischen 1 und 3 eine synaptische Verbindung bestand
- nach mehreren Durchgängen paralleler Aktivierung der Neuronen 1 und 2 löste auch bloße
Aktivierung von Neuron eins eine Erregung von Neuron 3 aus
→ synaptische Verbindung zwischen 1 und 2 wurde durch Lernen wirksam
Hawkins, Carew und Kandel (1983) arbeiteten mit Kiemenreflex (Einziehen der Kiemen) von Apysia
- Kiemenreflex als UR und CR, US war schwacher Elektroschock des Schwanzes
- zuvor NS, dann CS: Stimulation der Atemröhre
→ Reizung der Atemröhre halbe Sekunde vor aversiver Reizung des Schwanzes
→ nach einigen Paarungen: Stimulation der Atemröhre allein löste Kiemenreflex aus
→ dabei konnte sowohl ein parasynaptischer Mechanismus, verstärkte Transmitterfreisetzung durch
sensorischen Neuronen der Atemröhre als auch erhöhte Sensibilität der postsynaptischen
Neuronen als Lerneffekte nachgewiesen werden (Bao, Kandel und Hawkins, 1998)
→ bei vielen Lernvorgängen bestehen die neuronalen Veränderungen in einer Modifikation der
Effizienz der synaptischen Verbindungen zwischen Nervenzellen
- andererseits sind trotz verwandter Mechanismen je nach konditioniertem Reflex oder Reaktion ganz
andere Hirnareale beteiligt:
Beispiel: Liedschlagreflex: unter Beteiligung der motorischen Kerne durch Luftstoß auslösbar
- bei Konditionierung des Liedschlagreflexes spielt Cerebellum zentrale Rolle
→ bei Schädigung des Cerebellums: Liedschlagkonditionierung nicht möglich, obwohl der Reflex
durch Luftstoß noch ausgelöst werden kann
- bei klass Kond. der Furcht- / Angst-Reaktion hingegen v. a. Amygdala + Hippocampus beteiligt
6.3 Operante Konditionierung
6.3.1 Lernen am Erfolg: Das Versuchsparadigma der operanten
Konditionierung
Thorndike und Skinner: Katzen, Ratten und Tauben
Beispiel: hungrige Katze wird in Käfig gesperrt, Schale mit Futter gut sichtbar vor Käfig aufgestellt
- Käfigtüre könnte durch Zug an Schlaufe, die von Decke hängt, geöffnet werden
- Katze läuft unruhig umher, tritt irgendwann zufällig in Schlaufe → Weg zum Futter frei
→ bei mehrfacher Wiederholung des Versuchs wird sich benötigte Zeit zum Türöffnen immer mehr
verringern, bis schließlich Griff zur Schlaufe die erste Bewegung der eingesperrten Katze wird
→ Katze hat nach Versuch und Irrtum gelernt
Dieser Versuch geht auf Thorndike zurück, welcher auch das Gesetz des Effekts (1911) formulierte.
Dieses besagt, dass „unter verschiedenen Reaktionen, die auf dieselbe Situation hin ausgeführt
werden, diejenigen stärker mit der Situation verknüpft werden, die von einem für das Tier
befriedigenden Zustand begleitet oder innerhalb kurzer Zeit gefolgt werden“.
→ mechanistische Auffassung des Lernens am Erfolg durch Versuch und Irrtum stand bewusst im
Gegensatz zu der zu diesem Zeitpunkt verbreiteten Auffassung, dass Tiere in derartigen
Situationen durch Denken zur Lösung kommen
Unterschied: bei klassischer Konditionierung: natürliche, angeborene Reaktion des Organismus
auf einen bestimmten und bekannten auslösenden Reiz wird mit einem anderen (ursprünglich
neutralen) Reiz gekoppelt
- bei operanter Konditionierung: Auftretenswahrscheinlichkeit eines auf die Umwelt einwirkenden
Verhaltens wird aufgrund positiver Konsequenzen erhöht
→ ein Verhalten eines Lebewesens wirkt auf die Umwelt ein, wobei die zu diesem Verhalten
führenden Reize häufig nicht im Detail bekannt sind; man spricht von operantem, nicht im Sinne
der klass. Kond. reizgebundenem Verhalten. Folgt dem Auftreten einer operanten
Verhaltensweise ein verstärkender Reiz:
→ Auftretenswahrscheinlichkeit des Verhaltens
in ähnlichen oder gleichen Situationen erhöht
Versuchstiere oft in „Skinner-Boxen“ trainiert
(Abbildung 6.4)
Abbildung 6.4: Skinner-Box
Phasen einer operanten Konditionierung
Beim Aufbau einer operanten Konditionierung mithilfe eines positiven Verstärkers (wie Futter) lassen
sich häufig (analog klass. Kond.) vier Phasen unterscheiden (Abbildung 6.5):
1. Bestimmung der Basisrate (Grundrate):
- Der Experimentator registriert, wie oft das zu konditionierende Verhalten ohne Verstärkung auftritt
z.B. aufgezeichnet, wie häufig pro Zeiteinheit Ratte in Skinner-Box spontan den Hebel drückt
2. Verstärkung des Verhaltens in der Trainingsphase:
- zu konditionierendes Verhalten wird gezielt verstärkt: beispielsweise rollt nach jedem Hebeldruck
des Tieres ein Futterkügelchen in den Trog → Häufigkeit des Verhaltens nimmt zu
3. Löschung (Extinktion) des Verhaltens:
- Verhalten nicht weiter verstärkt: auch bei Hebeldruck kein Futter → Abschwächung des Verhaltens,
sodass i. A. nach ausgedehnter Löschungsphase kein Effekt der Konditionierung mehr beobachtbar
4. Spontanerholung:
- abgeschwächte Reaktionen treten nach einiger Zeit ohne Verstärkung wieder gehäuft auf, wenn
experimentelle Situation nach zeitweiliger Aufhebung wiederhergestellt wird → Ratte, die nach
Löschung einige Zeit außerhalb von Skinner-Box war, betätigt wieder Hebel, jedoch nicht so oft wie
am Ende der Trainingsphase
Abbildung 6.5: Vier Phasen einer operanten Konditionierung (fiktive Daten)
- nicht immer alle vier Phasen gleich wichtig: z.B. bei klinischer Verhaltenstherapie oder bei
Interventionen im Erziehungsbereich kommt es häufig darauf an, ein Verhalten dauerhaft
aufzubauen (Phase 2) oder dauerhaft zu löschen (Phase 3)
- gelegentlich Unterscheidung zwischen operanter und instrumenteller Konditionierung
→ in instrumenteller Situation: Wiederholung des Verhaltens nicht ohne Intervention des VL möglich
z.B.: Ratte soll schnell durch Laufgang rennen, muss nach Durchlaufen ans Ziel zurückgesetzt
werden. In Skinner-Box (oper. Situat.) kann Ratte ein Verhalten hingegen beliebig oft wiederholen
6.3.2 Verstärkung, Bestrafung, Hinweisreize
- bisher: nachdem bestimmtes Verhalten gezeigt, Situation angenehmer Reiz hinzugefügt (z.B.
Futter nach Hebeldruck) → „positive Verstärkung“ („Belohnungstraining“)
- aber auch Entfernung eines unangenehmen Reizes aus Situation kann verstärkend wirken:
„negative Verstärkung“ z.B. Versuchskäfig ähnlich einer Skinner-Box, aber aus zwei Abteilen
bestehend, welche durch eine verschließbare Öffnung miteinander verbunden sind. Wenn
Bodengitter in dem Abteil, in dem Ratte sich befindet unter Strom gesetzt → Ratte lernt nach
wenigen Durchgängen, in anderes Abteil zu fliehen
→ „Fluchttraining“: aversiver Reiz endet, wenn Tier das gewünschte Verhalten zeigt
→ positive wie negative Verstärkung (Abbildung 6.6) erhöhen beide die
Auftretenswahrscheinlichkeit eines Verhaltens („negativ“ charakterisiert zentrale Eigenschaft
eines Reizes, nicht Effekt auf Verhaltenshäufigkeit, also ~ hinzufügen / wegnehmen)
Bestrafung (Abbildung 6.7) zielt hingegen auf Verhaltensunterdrückung
→ Auftretenswahrscheinlichkeit des Verhaltens verringert. Auch dies kann auf zwei Arten geschehen:
- entweder unangenehmer Reiz zur Situation hinzugefügt (Bestrafung Typ 1), z.B. Stromstoß über
Bodengitter nach Hebeldruck → Unterdrückung dieses Verhaltens
- oder angenehmer Reiz entfernt (Bestrafung Typ 2), z.B. Ratte verliert mehrmals ein FutterKügelchen durch Bodengitter aufgrund bestimmter Bewegung → Unterdrückung d. Verhaltens
→ passives Vermeidungslernen: Verhaltensunterlassung aufgrund negativer Konsequenzen
diskriminative Hinweisreize (Abbildungen 6.6 und 6.7):
-diskriminatives Belohnungstraining: Verhalten nur verstärkt, wenn Hinweisreiz vorliegt
z.B. Ratte erhält bei Hebeldruck in Skinner-Box nur Futter, wenn zugleich Lampe im Käfig leuchtet
→ lernt nach mehreren Durchgängen, Hebel nur zu Drücken, wenn Lampe leuchtet
- aktives Vermeidungslernen: Hinweisreiz kurz vor aversivem Reiz. Bestimmtes Verhalten erlaubt
es, unangenehmem Reiz zu entgehen
z.B. (abgewandelter Fluchttrainingsversuch): Licht leuchtet, kurz bevor Stromstoß durch Bodengitter
→ Ratte lernt, auf Lichtreiz hin in anderes Käfigabteil zu laufen; wenn schnell genug: Schmerzreiz
ganz vermieden (→ Unterschied zu Fluchttraining)
- diskriminatives passives Vermeidungslernen: Bestrafung Typ 1 / 2 gekoppelt mit Hinweisreiz
Kind hilft in Küche
→ Mutter lobt
→ Kind hilft öfter
Oma hasst Unruhe
→ kein Lob wenn Kind
Oma hilft
→ Kind hilft nicht bei
Oma, aber bei
Mutter
Kind nervt Mutter
→ sperrt Kind in
Keller
→ Laune besser
(sperrt Kind
zukünftig öfter
in Keller)
Wie oben, aber:
Vater findet in
Keller sperren
schlecht
→ Mutter sperrt
Kind nur in Keller,
wenn Vater weg
Kind macht
ins Töpfchen
→ Lob von Mutter
Abbildung 6.6: Formen von Verstärkung
Kind wirft mit Klötzchen
→ Mutter ohrfeigt Kind
Vater reagiert nie
→ Kind wird künftig
nur werfen, wenn
Mutter nicht da
(bei Vater schon)
Kind wirft mit Klötzchen
→ Mutter ohrfeigt Kind
→ Kind wird künftig
nicht mehr werfen
Abbildung 6.7: Formen von Bestrafung
Kind wirft mit
Klötzchen auf
Mutter
→ Mutter nimmt
Klötzchen weg
→ Kind wirft
künftig nicht
mehr
wie oben, aber:
wenn Kind auf
Oma wirft: Oma
macht nichts
→ Kind wird
künftig nur
nicht werfen,
wenn Mutter da (sonst schon)
6.3.3 Positive Verstärkung
Arten von Verstärkung
primäre Verstärker: befriedigen physiologische Bedürfnisse, z.B. Hunger, Durst
- wirken ohne vorhergehenden Lernprozess
- Wirksamkeit ist abhängig von den jeweiligen Bedürfnissen des Organismus: z.B. Futter als primärer
Verstärker → Tiere müssen hungrig sein
zuvor neutraler Reiz wird durch häufige Darbietung mit primärem Verstärker zu sekundärem
Verstärker: vergrößert nun selbst Auftretenswahrscheinlichkeit eines Verhaltens
z.B. wenn erscheinen einer Futterpille im Trog immer ein Geräusch im Futtermagazin vorhergeht
→ nach Reihe von Durchgängen wirkt schon allein dieses Geräusch als Verstärker
-sekundäre Verstärker wichtig für Aufbau von Verhaltenssequenzen (Ketten von Verhaltensweisen)
generalisierte Verstärker: beziehen ihre Wirksamkeit aus der in der Lerngeschichte des Individuums
erfolgten Verknüpfung mit mehreren primären und sekundären Verstärkern
z.B. wirken im Alltagsleben Geld oder Verbesserung des sozialen Status auf diese Weise verstärkend
- Personenverstärker: Zuwendung einer geliebten Person
- Premack-Prinzip: beliebte Aktivität kann als Verstärker für weniger beliebte Aktivität eingesetzt
werden.
→ findet auch Anwendung bei Selbstverstärkung (Gegensatz: Fremdverstärkung): Für Lernen mit
Musikhören selber belohnt
- kortikale Reizung: elektrische Reizung des Hypothalamus wirkt verstärkend
z.B. Routtenberg und Lindy (1965): Ratten konnten selber zwischen elektrischer Reizung und
Futtergabe wählen → trotz massiver Futterdeprivation fast immer kortikale Reizung gewählt
Verstärkungspläne
Nach Art und Koppelung von Verhalten und Verstärkung lassen sich verschiedene Formen der
Verstärkung und Verstärkungspläne unterscheiden (Abbildung 6.8)
jedes Auftreten des Verhaltens
(z.B. Hebeldrücken) wird verstärkt
nicht jedes Auftreten wird verstärkt
Verstärkung nach bestimmter
Anzahl von Reaktionen
Verstärkung jeweils
für erste Reaktion
nach festgelegtem
Zeitintervall
Zeitabstände bleiben gleich
Zeitabstände wechseln zufällig
Abbildung 6.8: Verstärkungspläne
genau jede n-te Reaktion
wird verstärkt
Anzahl der Reaktionen
ohne Verstärkung
zufällig,
Dichte der
Verstärkung
jedoch festgelegt,
indem durchschnittlich jede n-te Reaktion verstärkt
Die Art des Verstärkungsplans kann man als unabhängige Variable betrachten, als abhängige
Variablen (a) die Lerngeschwindigkeit, gemessen an der Veränderung der Reaktionshäufigkeit und
der Intensität der Reaktionen über die Zeit, und (b) den Löschungswiderstand des Verhaltens.
Zwischen dem Verstärkungsplan und des diesen AVs bestehen charakteristische Zusammenhänge:
- kontinuierliche Verstärkung: führt rascher zum angestrebten Verhalten als intermittierende
Verstärkung (hohe Ausführungshäufigkeit + Verhaltensintensität auf diese Weise schneller erreicht)
- Intermittierende Verstärkung: Verhalten ist dafür löschungsresistenter
- Quotenpläne führen i. A. zu höherer Reaktionshäufigkeit als Intervallpläne
- Variable Verhaltenspläne haben über Zeit gesehen sehr gleichmäßiges Verhalten zur Folge
- Fixierte Pläne führen zu stark wechselnden Verhaltenshäufigkeiten
Beispiel: fixierter Intervallplan:
- Ratten zeigen pro Verstärkung etwa gleich viele Reaktionen → Folge: beispielsweise bei
Vierminutenplan nur Hälfte der Reaktionen von Zweiminutenplan aufgetreten / registriert.
- Tier pausiert nach Erhalt der Verstärkung häufig, erst nach Ablauf des Zeitintervalls Verhalten
wieder vermehrt gezeigt. Unmittelbar vor Bekräftigung: Reaktionsfrequenz sehr hoch
→ Zeitdiskrimination
variabler Intervallplan: Zeitpunkt der Verstärkung nicht vorhersehbar → führt zu stabilem und
einheitlichem Verhalten
→ oft genutzt, wenn der Effekt anderer Bedingungen auf gelerntes Verhalten untersucht wird
im Alltag: Kind klettert alleine auf Stuhl: Eltern loben zuerst immer (→ Personenverstärker: Lob +
Aufmerksamkeit), dann nur noch ab und zu, schließlich gar nicht mehr
→ ohne negative Konsequenzen für Auftretenshäufigkeit, da neues Verhalten gelernt und ev. nun
andere Verstärker (Dinge auf Tisch)
→ optimaler Verstärkerplan: Kontinuierliche Verstärkung zum Verhaltensaufbau, gefolgt von einer
über einen langen Zeitraum abnehmenden intermittierenden variablen Verstärkung zur
Verhaltensstabilisierung
- nicht kontingente Verstärkung (zeitlich nicht zusammentreffend):
Verstärkung unabhängig vom Auftreten eines bestimmten Verhaltens nach variablem oder fixiertem
Zeitintervallplan → Auftretenswahrscheinlichkeit des zufällig vor einer Verstärkung gezeigten
Verhaltens erhöht (somit auch vor nächst. Verstärkung erhöht, usw…)
→ seltsame Rituale erzeugbar: „abergläubisches Verhalten“ z.B. in Kreis drehende Taube
Verstärkungsmenge
Veränderung der Verstärkungsmenge (Crespi, 1942) (Abbildung 6.9)
- Futterdeprivierte Ratten liefen durch Gang, an Zielende Verstärkung (Futter)
- Zeit für Zurücklegen der Laufstrecke gemessen.
- Eine KG, die immer 16 Futtereinheiten als Verstärkung erhielt, zwei Experimentalgruppen: eine
erhielt zu Beginn 256 Futtereinheiten, die andere 64
- nach 20 Tagen erhielten alle Gruppen nur noch 16 Futtereinheiten
Ergebnisse: -je größer Verstärkungsmenge, desto größer Laufgeschwindigkeit
- bei Reduktion: Laufgeschwindigkeit reduziert sich drastisch (negativer Kontrasteffekt), fiel sogar
unter KG → Depressionseffekt (Umgekehrt ist auch möglich: Laufgeschwindigkeit kann durch
Erhöhung der Verstärkung sprunghaft gesteigert werden: positiver Kontrasteffekt)
→ generell: In Trainingsphase wächst Stärke des kond. Verhaltens mit Verstärkungsmenge
Abbildung 6.9: negativer Kontrasteffekt
bei reduzierter Verstärkungsmenge
Abbildung 6.10: Versuch zum latenten Lernen
Latentes Lernen: Kompetenz und Performanz
Was geschieht wenn phasenweise, insbesondere zu Beginn des Trainings, überhaupt keine
Verstärkung geboten?
Tolman und Honzik (1930a): Ratten sollten in großem, verwinkeltem Labyrinth zu Zielkammer laufen
- eine Gruppe von Beginn an verstärkt (kontinuierliche Verstärkung mit Futter), eine zweite gar nicht,
eine dritte erst ab dem 11. Versuchstag
-Abbildung 6.10: zeigt die durchschnittliche Fehlerzahl (Betreten von Sackgassen) über Tage hinweg
- kontinuierlich verstärkte Gruppe: üblicher Lerneffekt (Fehlerzahlen sinken, anfangs Lerngewinn
deutlicher)
- bei Gruppe ohne Verstärkung nimmt Fehleranzahl etwas, aber nur wenig, ab
- bei dritter Gruppe: nach Einsetzen der Verstärkung: unmittelbar bei Durchgang danach gleich gute
oder bessere Ergebnisse als kontinuierlich verstärkte Tiere
→ Ratten mussten schon an den ersten zehn Tagen gelernt haben, zeigten die erworbene
Kompetenz jedoch nicht: „latentes Lernen“ (Kompetenz, die zunächst keinen Niederschlag im
Verhalten findet, typischerweise unter der Bedingung geringen Antriebs oder fehlender Verstärkung)
→ Unterschied: Erwerb einer Kompetenz und Umsetzung im beobachtbaren Verhalten
(Performanz), Kritik: bei Ratten natürliches Explorationsverhalten, Verstärkung nicht durch
Futter, aber durch Reduktion der „Neugier“. (Explorationsverhalten umso häufiger, je komplexer ein
Labyrinth)
- wirklich latentes Lernen (Lernen ohne Verstärkung)? aber sicher: wesentlicher Teil des Gelernten
erst umgesetzt, wenn Verstärkung gegeben
→ Bereits damals eigentlich Widerlegung des Behaviorismus
Zeitintervall zwischen Verhalten und Verstärkung
Je größer das Zeitintervall ist, das zwischen der Ausübung des Verhaltens und der Verabreichung
des Verstärkers verstreicht, desto langsamer wird gelernt.
- Spence (1947): zeitliche Verzögerung unterbindet Lernen, nur über sekundäre Verstärkung
Lernerfolg möglich (z.B. charakteristische Reize auf Weg)
- (Grice 1948): Ausschaltung derartiger Reize und Verhinderung sekundärer Verstärkung: Einfluss
zeitlich verzögerter Verstärkung
- Ratten sollten durch weißen Gang in Zielkammer laufen. Unmittelbar hinter Start zunächst
Diskriminationskammer (eine Hälfte weiß, führte in kurzen weißen Gang mit weißem Vorhang,
andere Seite schwarz, schwarzer Gang und Vorhang → diskriminativer Hinweisreiz), hinter der
jeweils noch ein grauer Gang lag
→ Reize hinter Diskriminationskammer und Ziel gleichgehalten (grauer Gang), sowohl bei
korrekten Verhalten (weiß) als auch bei falschem Verhalten (schwarz)
- Zeit bis zum Ziel manipuliert (Türen eingebaut, Gang konnte verlängert werden,…):
→ 6 Gruppen: 0 Sekunden (Verstärkung direkt hinter Kammer); 0,5 / 1,2 / 2 / 5 / 10 Sekunden
→ je länger Verstärkung verzögert, desto langsamer wurde gelernt. In Gruppe mit 10 Sekunden
Verzögerung erreichte die Mehrzahl der Tiere das Lernkriterium (18 von 20 Durchgängen korrekt)
selbst nach 1440 Durchgängen nicht (Abbildung 6.11)
Abbildung 6.11: Effekt zeitlicher Verzögerung der
Verstärkung
- Für viele Alltagssituationen gilt, dass sekundäre Verstärkung zwischen Verhalten und verzögerter
primärer Verstärkung vermittelt. Kinder und Erwachsene können zwar durchaus ein längeres
Zeitintervall in der Vorstellung überbrücken. Auch für sie und insbesondere Kleinkinder ist jedoch
sofortige Verstärkung am wirksamsten
„soziale Fallen“: Situationen, in denen positive Konsequenzen sofort eintreten, negative aber nur mit
starker zeitlicher Verzögerung (z.B. bei Rauchen, Umweltproblemen)
Rachlin und Green (1972): Wechselwirkung von zeitlicher Verzögerung der Verstärkung und der
Menge der Verstärkung:
- Tauben konnten auf rotes Licht picken → sofort kleine Verstärkung; oder auf grünes Licht picken
→ große Verstärkung, allerdings erst nach 4 Sekunden
→ sofortige kleine Verstärkung eindeutig bevorzugt. „Diskontierung“: Verringerung des subjektiven
Werts bei zeitlicher Verzögerung (beim Menschen aber längere Zeiträume betrachtet)
(ev. nachlesen: quasi Erweiterung dieses Versuchs: S. 364 rechts unten)
6.3.4 Reizdiskrimination, Verhaltensdifferenzierung, Aufbau von
Verhaltensketten
Möglichkeiten, im Rahmen der operanten Kond. besonders Situationsangepasstes, differenziertes
und aus mehreren Einheiten bestehendes Verhalten aufzubauen: Reizdiskrimination,
Verhaltensdifferenzierung und Verhaltensverkettung
Reizdiskrimination: Beispielsweise bei diskriminativem Hinweisreiz, oder beim Versuch mit weißer
und schwarzer Kammer
→ Ausblenden („fading“): das schrittweise Ausblenden eines (zu Beginn starken) diskriminativen
Hinweisreizes bzw. das Ausblenden von Unterschieden zwischen zwei derartigen Reizen. Lernen
bedeutet in diesem Kontext die differenzierte Berücksichtigung von minimalen Reizunterschieden
Beispiele: „lesende“ Taube von Reese (1966):
- wenn das Wort „turn“ auf Schild erschien, drehte sie sich im Kreis, bei „peck“ begann sie zu picken.
- zu Beginn hatten die beiden Wörter „peck“ und „turn“ stark unterschiedliches Aussehen (Größe und
Farbe). Versuchstier lernte, auf jeden der noch leicht unterscheidbaren Reize mit der
entsprechenden Verhaltensweise zu reagieren. Dann wurden die Unterschiede Schrittweise
reduziert. (Tauben besitzen gutes optisches Diskriminationsvermögen)
Wasserman, Kiedinger und Bhatt (1988):
- Tauben wurden trainiert, in Abhängigkeit von jeweils gezeigtem Bild auf eine von vier Tasten zu
picken
- Taste 1 bei Bild einer Katze aus erstem Satz von 10 Katzenbildern, Taste 2 bei Bild einer Katze aus
zweitem Satz von 10 Katzenbildern, Taste 3 bei Bild einer Blume aus erstem Satz von 10
Blumenbildern und auf Taste 4 bei Bild einer Blume aus zweitem Satz von Blumenbildern
- Tauben konnten recht gut zwischen Katzen und Blumen unterscheiden (Tasten 1 und 2)
- Tasten 1 und 2 bzw. 3 und 4 wurden häufig verwechselt. Innerhalb der Katzen / Tauben war die
Diskriminationsleistung schlecht
Lernen, wie man lernt: Tiere, die eine Reihe von Diskriminationsaufgaben zu bewältigen haben,
lösen derartige Lernaufgaben zunehmend rascher und effektiver.
- deutliche Unterschiede in Effektivität des Lernens zu lernen aber auch bei Vergleich
unterschiedlicher Tierarten (Anhand der Verbesserung der Lernleistung bei aufeinander folgenden
Aufgaben): Rhesusaffen > Totenkopfäffchen > Krallenaffen > Katzen > Ratten > Eichhörnchen
(Warren 1965).
→ Fähigkeit, die Lösung von Diskriminationsaufgaben zu lernen als Indikator von
Intelligenzunterschieden zwischen Tierarten
Reizgeneralisierung: Stärke der generalisierten Reaktion auf Reize unterschiedlicher
Ähnlichkeit untersucht:
- Tier mit positiver Verstärkung trainiert, auf best. Reiz ein Verhalten zu zeigen. In Löschungsphase
wird geprüft, inwieweit dem Hinweisreiz ähnliche Reize ebenfalls zu einer entsprechenden Reaktion
führen bzw. inwieweit die Stärke der Reaktion mit Unähnlichkeit des Reizes abnimmt.
Guttman und Kalish (1956):
- Tauben pickten auf Plastikscheibe, Futter als Verstärkung. Ein in Farbe und Wellenlänge genau
definiertes Licht diente als diskriminativer Hinweisreiz.
- in Löschungsphase wurde die Stärke der Reaktion (Anzahl der Reaktionen) in Abhängigkeit von der
Ähnlichkeit der Reize geprüft. Reaktionshäufigkeit sank mit zunehmender Unähnlichkeit zwischen
dem ursprünglich gelernten diskr. Hinweisreiz und den Testreizen.
- Die sich ergebende Funktion wird Generalisierungsgradient genannt
Verhaltensdifferenzierung: einzelne Merkmale eines Verhaltens, wie seine Geschwindigkeit oder
Intensität, werden im Lernprozess verändert
- um dies zu erreichen: Verhalten selektiv nur dann verstärken, wenn es das in Frage stehende
Merkmal in gewünschtem Ausprägungsgrad aufweist.
- soll etwa eine Ratte lernen, einen Hebel in Skinner-Box sehr kräftig zu drücken, so wird zunächst
jedes Drücken verstärkt, dann nur noch, wenn das Verhalten mit hoher Intensität auftritt, zuletzt
ausschließlich bei sehr kräftigem Druck des Hebels
→ sukzessive Verhaltensformung („shaping“), stufenweise Annäherung an gewünscht. Verhalten
→ neuartige und komplizierte, nicht im natürlichen Repertoire vorkommende Verhaltensweisen
können so aufgebaut werden
- Beispiel: Tier soll lernen den richtigen Knopf eines Fernsehers zu drücken. In der ersten Phase
schon Hinwendung zu Gerät verstärkt, dann nur noch die Hinwendung des Kopfes zu Knöpfen, dann
Berührung des richtigen Knopfes, zuletzt nur noch Drücken des Knopfes mit der Schnauze
- Verstärkungen mit steigender Dauer des Trainings nur noch für Verhaltensweisen gegeben, die
besser mit angestrebtem Zielverhalten übereinstimmen
→ wichtige Rolle bei klinischer Verhaltensmodifikation, wenn es etwas darum geht, ein neues
Verhalten aufzubauen: beispielsweise soll scheues Kind zu intensiverem Sozialkontakt mit
Gleichaltrigen geführt werden (Blackham und Silberman, 1975):
- Zu Beginn für jede Zuwendung der Aufmerksamkeit zu anderen Kindern verstärkt, später für
Näherkommen, dann nur noch für Beteiligung an gemeinsamen Aktivitäten der Kinder
Für den Aufbau komplexer Verhaltensabläufe spielt neben Verhaltensformung auch der Aufbau von
Verhaltensketten (chaining) eine wichtige Rolle:
- Verhalten m (primär durch Futter verstärkt), das in Kette an letzter Stelle stehen soll, wird auf
diskriminativen Hinweisreiz n trainiert. Auf Hinweisreiz n-1 wird Verhalten m-1 konditioniert, wobei als
Verstärker der diskriminativen Hinweisreiz n dient. Dabei handelt es sich um einen sekundären
Verstärker, der durch seine Koppelung mit dem primären Verstärker Futter die Auftretenswahrscheinlichkeit des Verhaltens m-1 erhöht. (Und immer so weiter… bei großem Interesse bitte auf
Seite 367 nachlesen, diesen SCHEISS schreib ich nicht ab)
→ Nach einem längeren Training genügt dann schon der erste diskriminative Hinweisreiz, um die
gesamte Verhaltenskette, vermittelt über die von ihnen ausgelösten inneren Reize, ablaufen zu
lassen. Eine Verhaltenskette stellt demnach eine Abfolge von Reiz-Reaktions-Einheiten dar.
6.3.5 Bestrafung, Löschung und Ablösung von Verhalten
Um die Ausführungshäufigkeit eines Verhaltens zu reduzieren, gibt es drei unterschiedliche
Möglichkeiten:
1) die das Verhalten aufrecht erhaltenden Verstärker können entzogen werden, sodass es zur
Löschung kommt
2) es kann ein konkurrierendes Verhalten durch Verstärkung aufgebaut werden, das das alte ablöst
und
3) das Verhalten kann Bestraft werden
Löschung von Verhalten durch Ignorieren
Verstärker können auch unerwünschte Reaktionen aufrecht erhalten. Die Reduktion der Auftretenshäufigkeit eines Verhaltens ist nach dieser Betrachtungsweise möglich, wenn man die betreffenden
Verstärker ausfindig macht und aus der Situation entfernt
→ Löschung der Verhaltensweise
Beispiel Williams (1959):
- zweijähriges Kind bekam während Krankheit sehr viel Zuwendung (pos. Verstärkung).
- zwang nach Gesundung die Eltern nach Zubettgehen mit Schreikrämpfen noch bis zu 2 Stunden bei
ihm am Bett zu bleiben. Erziehungsberater empfahl, diese Form der Zuwendung als Verstärker zu
entziehen: Eltern sollten Kind ruhig und liebevoll zu Bett bringen, dann aber Zimmer trotz Weinen
verlassen.
→ Dauer des Weinens sank, Zubettgehen nach 10 Tagen völlig entspannt. Als Tante Kind zu Bett
brachte noch einmal Geschrei, dann aber endgültige Löschung
(Vorgehen wäre schlecht, falls Angst oder Schmerz der tatsächliche Grund für Schreien gewesen, da
dann Weinen unterdrückt, aber wirkliche Grund nicht ins Blickfeld gerückt)
Ablösung von Verhalten
Besonders wirkungsvoll ist die Löschung von Verhalten, wenn gleichzeitig ein konkurrierendes
Verhalten durch positive Verstärkung aufgebaut wird:
- neues Verhalten konkurriert mit abzulösendem Verhalten, macht ihm in Verhaltensablauf Platz
streitig
- kommt nicht wie sonst bei Löschung zu Entzug positiver Verstärkung (bei Beispiel: Eltern könnten
mit Kind beruhigende „Schlaf-Rituale“ einüben, z.B. Aufziehen von Musikbär)
Bestrafung
Estes (1944): Frage der Wirksamkeit von Bestrafung zur Reduzierung der Ausführungshäufigkeit eines Verhaltens (Abbildung 6.12)
- Ratten zunächst in Skinner-Box mit positiver Verstärkung auf häufiges Hebeldrücken konditioniert
- während 1. Löschungsphase wurden Tiere in Experimentalgruppe nicht nur nicht mehr verstärkt,
sondern auch noch oft, aber nicht immer über Bodengitter leicht elektrisch geschockt. Die Tiere in
der KG wurden weder verstärkt noch bestraft (Löschung). In der 2. und 3. Phase wurde das
Verhalten in beiden Gruppen nur gelöscht.
→ nach Bestrafung in Experimentalgruppe war die Häufigkeit des dort Hebeldrücken deutlich
niedriger als in KG, nahm jedoch wieder zu. In 2. Phase war die Verhaltenshäufigkeit in beiden
Gruppen etwa gleich, in 3. Phase übertraf Häufigkeit in Experimentalgruppe sogar die KG
Abbildung 6.12: Effekt von Bestrafung nach Estes
Estes folgerte, dass Bestrafung zwar zu einer gewissen Unterdrückung von Verhalten führt, aber
insgesamt gesehen nicht sehr wirkungsvoll ist.
→ die Auffassung, dass Bestrafung eine relativ unwirksame Methode zur Erzielung überdauernder
Verhaltensänderungen sei, wurde in den folgenden Jahren zu einem wichtigen Lerntheoretischen
Argument für positive Verstärkung und gegen negative Verhaltenskonsequenzen im Erziehungsund Therapiebereich.
- frühe Experimente arbeiteten jedoch mit schwachen aversiven Reizen, unterschätzten die
Wirksamkeit von Bestrafung
Zusammenfassend lässt sich sagen:
- Unterdrückung von Verhalten ist umso stärker und dauerhafter, je intensiver der Strafreiz ist. Bei
intermittierender Bestrafung ist Unterdrückungseffekt langfristiger als bei kontinuierlicher. Wichtig ist,
dass der Strafreiz direkt auf das fragliche Verhalten folgt.
Die Wirksamkeit der Bestrafung wird herabgesetzt, wenn dem Verhalten gelegentlich positive
Verstärkung folgt. Auch nicht kontingente, „grundlose“ Bestrafung reduziert die Wirkung nachfolgender Bestrafung.
Wenn gleichzeitig mit der Bestrafung zur Unterdrückung eines Verhaltens eine Alternativreaktion
aufgebaut wird und diese die Verstärkung erfährt, die zuvor die nun bestrafte Reaktion erfahren hat,
so ist diese Vorgehen besonders wirkungsvoll. (Auch gibt es Belege, dass eine einmalige negative
Erfahrung zu einer vollständigen Unterdrückung eines Verhaltens führen kann)
Kritische Aspekte von Bestrafung:
Bestrafung unterdrückt Verhalten und ist nicht mit Löschung gleichzusetzen. Ein Verhalten wird nicht
„vergessen“, die Bestrafung hat primär Einfluss auf Häufigkeit des Auftretens (Performanz). Das
bestrafte Verhalten tritt aller Voraussicht nach wieder auf, wenn das Individuum keine weitere
Bestrafung erwartet, weil beispielsweise der Bestrafende nicht zugegen ist. Kritisch ist auch, dass die
Aufmerksamkeit des Bestraften gerade auf das nicht gewünschte Verhalten gelenkt wird (nur
durch Aufbau von Alternativverhalten vermeidbar). Auch die Beeinträchtigung der Beziehung
zwischen Bestraftem und Bestrafendem ist zu berücksichtigen, sowie der Aspekt, dass der
Bestrafende in einer unerwünschten Form zu einem Modell für den Bestraften wird. Zudem sind die
ungünstigen emotionalen und motivationalen Folgen (Angst, Aggression) für den Bestraften zu
bedenken.
Negative Konsequenzen eines Verhaltens werden häufig nicht als Bestrafung (im eigentlichen Sinn)
aufgefasst, wenn die Bestrafungsfolgen „naturgegeben“ sind oder so aufgefasst werden.
Beispiel: Kind fasst auf heiße Herdplatte → Verhalten tritt nicht mehr auf
Mutter haut Kind für Verhalten auf die Finger → Verhaltensvorhersage schwieriger, emotionale
Betroffenheit größer
→ naturgegeben negative Konsequenzen werden leichter ertragen als Bestrafung durch anderen
Menschen, wenn dem Betroffenen klar ist, dass es in der Entscheidung des Anderen liegt, ihn zu
bestrafen oder nicht.
im 1. Fall: neg. Konsequenzen haben v. a. informative Funktion, im 2. Fall zudem vielschichtige
soziale Komponente
→ je deutlicher die informative Funktion für den Bestraften ist und je mehr sie dazu beiträgt, Schaden
von ihm abzuwenden, desto eher ist die Bestrafung zu rechtfertigen
Aus Tierexperimenten folgt:
Strafe sollte konsequent (→ informativ) sein und zeitnah auf das Verhalten folgen. Neuerliche
zwischenzeitliche Verstärkungen sind zu vermeiden. Grundlose Bestrafung reduziert die Wirkung
nachfolgender gezielter Bestrafung.
Auszeit („time-out“): Unerwünschtes Verhalten von Kindern wird zu löschen versucht, indem alle
potentiellen Verstärker aus der Situation entfernt werden
Beispiel: Kind blödelt beim Essen, Geschwister lachen, Kind blödelt deshalb noch mehr
→ Auszeit: Kind muss für einige Minuten alleine in anderem Zimmer sitzen, bevor es wieder am
gemeinsamen Essen teilnehmen darf. Geschwister werden ermahnt, nicht mehr auf Blödeleien
einzugehen. (wird z.B. in der Kinderpsych. angewandt, habe ich selber gesehen / gemacht)
Herunterladen