Burrhus F. Skinner (1904-1990) Burrhus F. Skinner

Werbung
Burrhus F. Skinner (1904-1990)
Burrhus F. Skinner - Literatur
• Skinner, Burrhus F. (1948). 'Superstition' in the
pigeon. Journal of Experimental Psychology,
38, 168-172 [Aberglauben bei Tauben]
• Skinner, Burrhus F. (1956). A case history in
scientific method. American Psychologist,
11(5), 211-233 [Übersicht über Skinners Forschung]
• Skinner, Burrhus F. (1973). Wissenschaft und
menschliches Verhalten. München: Kindler
[insbesondere Kapitel 5 & 6]
Burrhus F. Skinner
• Skinner hat mehr als 20 Bücher und fast 200 Artikel
verfasst
• Skinner führte Experimente mit Tauben und Ratten
durch, um die operante Konditionierung
experimentell nachweisen zu können.
• Hierfür konstruierte er in den 1930 Jahren einen
Untersuchungskasten, bei dem alle Bedingungen
systematisch kontrolliert werden konnten: die
Skinner-Box. (siehe: problem box bei Watson)
Skinner-Box - Aufbau
• Durch das Drücken eines Hebels kann sich das
jeweilige Versuchstier mit Futter oder Wasser
versorgen.
• Die Belohnung bzw. Verstärkung (Futter od.
Wasser) wird nur dann freigegeben, wenn das Tier
bestimmte erwünschte Reaktionen zeigt.
• Die Skinner-Box ist gegen äußere Störeinflüsse
(z.B. Geräusche) abgeschirmt.
Skinner-Box - Aufbau
Skinner-Box - Aufbau
• An den Wänden der Box werden bisweilen Lampen
angebracht.
• Am Boden der Box befindet sich manchmal ein
Gitter, durch welches Strom fließt.
• Eine Kamera nimmt das Verhalten des Tieres im
Inneren der Schachtel auf.
Skinner-Box Forschungsperspektive
Skinner-Box –
Beispiel einer Versuchsanordnung
• In der Skinner-Box sind die Versuchstiere
'Werkzeuge' des Verhaltensforschers.
• Eine Versuchsratte wurde in eine Skinner-Box
gesperrt.
• Untersuchungsgegenstand war ausschließlich das
Verhalten.
• In der Box befanden sich folgende Apparaturen:
• Alle anderen psychologischen Konzepte
(Kognitionen, Emotionen, Wahrnehmungen,
Erleben usw.) spielten bei den Experimenten keine
Rolle.
–
–
–
ein Nahrungstrichter
ein Gitter, durch das Strom geleitet werden
konnte
einen Hebel, der je nach Versuchstier eine andere
Konsequenz darbot.
Beispiel einer Versuchsanordnung
• Ratte 1: bekam immer Futter, wenn sie den Hebel
betätigte.
• Ratte 2: konnte durch das Betätigen des Hebels
den Strom abschalten, der durch das Bodengitter
floss.
• Ratte 3: erhielt einen Stromschlag, wenn sie den
Hebel betätigte.
Beispiel einer Versuchsanordnung
• Diesen Lerneffekt (Wiederholung od. Vermeidung
des Verhaltens) nannte Skinner: 'Lernen durch
Verstärkung'.
• Mit der Skinner-Box gelang Skinner der Nachweis
der operanten Konditionierung.
Beispiel einer Versuchsanordnung
• Verhalten der Ratten nach mehreren Versuchen:
– Ratte 1 & 2: betätigten den Hebel immer wieder
J Aufgrund der positiven Konsequenz (Futter
bekommen, Strom abschalten) hatte die Ratten 1
& 2 gelernt, ihr Verhalten zu wiederholen.
– Ratte 3: betätigte den Hebel nicht mehr
J Aufgrund der negativen Konsequenz
(Stromschlag) hatte Ratte 3 gelernt, ihr
Verhalten zu vermeiden.
Skinner-Box - Versuchsdesign
• Je kürzer die Intervalle zwischen den
Verstärkungen waren, desto rascher und
ausgeprägter wurden die Reaktionen
konditioniert.
• Je länger die Intervalle waren, desto größer war
die Anzahl der dazwischen liegenden Reaktionen
ohne Verstärkung.
• Werden die Verstärkungsintervalle zu lange, kam
es zur Extinktion der Reaktionen.
Skinner-Box - Versuchsdesign
Skinner-Box - Versuchsdesign
• Wurde eine Reaktion einmal konditioniert,
konnte das Verstärkungsintervall verlängert
werden, ohne dass die Reaktion der Tauben
abgeschwächt wurde.
• Bei einer Taube wurde der Verstärkungsintervall
um zwei Minuten ausgedehnt, ohne dass die
Häufigkeit der konditionierte Reaktionen
abgeschwächt wurde.
• Eine weitere Taube zeigt bei einem
Verstärkungsintervall von einer Minute über
• Die zuletzt beschrieben Taube zeigte jedoch nach
einigen Stunden eine deutliche Abweichung von
ihrer anfänglich konditionierten Reaktion.
• Die Taube führte eine hüpfende Schrittbewegung
vom rechten auf den linken Fuß durch.
• Skinner stellte den Taubenkäfig auf eine große
Trommel und machte eine akustische Aufnahme
der Schrittbewegungen der Taube.
Skinner-Box - Versuchsdesign
Skinner-Box - Versuchsdesign
• Die Aufnahme der Schrittbewegungen gleichte
der charakteristischen Kurve der
Verstärkungsintervalle, während denen eine
zufällige Reaktion konditioniert worden war.
• Die Taube reagierte nicht sofort nach der
Futtergabe, sondern erst wenn 10, 15 oder sogar
20 Sekunden verstrichen waren. Die Reaktion
wurde fortgesetzt, bis die Taube die Verstärkung
erhielt.
• D
Edward L. Thorndike - Effektgesetz
• Warum verstärkt ein Verstärker?
J Effektgesetz (Law of Effect) von
Thorndike:
Ein bestimmtes Verhalten wird dann
ausgeprägt, wenn dieses bestimmte
Konsequenzen hat.
Operante Konditionierung
• Der Begriff 'operant': das Individuum wirkt auf
die Umwelt aktiv ein, um Konsequenzen (z.B.
Verstärkung) zu hervorzurufen.
• vom lateinischen Verb operari = arbeiten,
mitwirken.
Edward L. Thorndike (1874-1949) Effektgesetz
• Effektgesetz (Law of Effect):
–
–
Sperrt man eine Katze in einen Käfig, aus dem sie
nur entweichen kann, wenn sie die Käfigtür
öffnet, so wird die Katze viele Arten von
Verhalten zeigen, von denen manche zum Öffnen
der Käfigtür führen.
Thorndike fand heraus, dass, als man die Katze
immer wieder in den Käfig sperrte, die
Verhaltensweise, die zur Flucht führte, immer
früher auftrat, bis die Flucht schließlich so
einfach und rasch wie möglich gelang.
Operante Konditionierung
• Bei der operanten Konditionierung wird eine
Reaktion so verstärkt, dass diese wahrscheinlicher
oder unwahrscheinlicher wird:
Z.B.: Ein Student bereit sich einen Tag vor einer
Prüfung auf diese vor. Da der Student auf die
Prüfung eine gute Note bekommt, empfindet er die
Konsequenz für sein Verhalten als positiv.
* Durch diesen positiven Verstärker wird sich der
Student voraussichtlich auch in Zukunft nur
kurzfristig auf eine Prüfung vorbereiten.
Operante Konditionierung
• Im Fall der Skinner-Box ist das Futter der
Verstärker.
• Die Verstärkung besteht in der Futtergabe,
immer dann, wenn eine Reaktion erfolgt.
* die Reaktion wird konditioniert = die
Häufigkeit, mit der die Reaktion gezeigt wird,
nimmt zu oder ab.
4 Arten der Verstärkung
Respondentes / operantes Verhalten
• Unterschied:
– respondentes ('reagierendes') Verhalten:
• ausgelöst durch Auslösereize
• bei der klassischen Konditionierung
– operantes ('aktiv mitwirkendes') Verhalten:
• kein Auslösereiz
• durch Verstärkung modifizierbar
• bei der operanten Konditionierung
(1) Positive Verstärkung des Verhaltens
• durch Gabe eines angenehmen Reizes
• erhöht die Auftrittswahrscheinlichkeit eines
Verhaltens: wird, nachdem ein Verhalten erfolgt ist,
ein angenehmer Reiz gegeben, wird dieses Verhalten
verstärkt.
–
Z.B.: Immer, wenn ein Verbraucher, die
Pfandflaschen im Supermarkt retourniert,
bekommt er dafür einen Geldbon. In der Folge
wird der Verbraucher Pfandflaschen öfter
zurückgeben.
(2) Negative Verstärkung des Verhaltens
• durch Wegfall eines unangenehmen Reizes
• erhöht die Auftrittswahrscheinlichkeit eines
Verhaltens: fällt, nachdem ein Verhalten erfolgt ist,
ein unangenehmer Reiz weg, wird dieses Verhalten
verstärkt.
–
Z.B. Vermeidungsverhalten: Da ein Schüler vor
einer Prüfung große Angst hat (unangenehmer
Reiz), absolviert er diese nicht (Verhalten). Das
Nichtantreten bei Prüfungen wird durch den
Wegfall der unangenehmen Angst verstärkt = der
Schüler vermeidet fortan Prüfungen.
(4) Negative Bestrafung des Verhaltens
(3) Positive Bestrafung des Verhaltens
• durch Gabe eines unangenehmen Reizes
• vermindert die Auftrittswahrscheinlichkeit eines
Verhaltens: wird, nachdem ein Verhalten erfolgt ist,
ein unangenehmer Reiz gegeben, wird dieses
Verhalten reduziert.
–
Z.B.: Da ein U-Bahnfahrgast ohne gültige
Fahrkarte fährt, bekommt er vom Kontrolleur
einen Strafzettel. Weitere U-Bahnfahrten wird er
nicht ohne Fahrkarte machen.
Operante / instrumentellen
Konditionierung
• durch Wegfall eines angenehmen Reizes
• vermindert die Auftrittswahrscheinlichkeit eines
Verhaltens: fällt, nachdem ein Verhalten erfolgt ist,
ein angenehmer Reiz weg, wird dieses Verhalten
reduziert.
–
Z.B.: Ein Kind ist wütend, weil es zu einer
Tätigkeit keine Lust hat. Die Eltern teilen dem
Kind mit, dass es nicht mehr Fernsehen darf, wenn
es nicht zum Toben aufhört. Das Kind beruhigt
sich.
• Operante Konditionierung nach Skinner:
– das Versuchstier ist völlig frei, ein beliebiges
Verhalten zu zeigen.
• Instrumentelle Konditionierung nach Thorndike:
– das Versuchstier kann nur ein bestimmtes Verhalten
zeigen oder nicht (wird nach Zeigen des
Zielverhaltens vom Versuchsleiters zum
Ausgangspunkt zurückgesetzt).
Operante Konditionierung –
(I) Bestimmung der Basisrate
• Phase I: Bestimmung der Basisrate
– Versuchsleiter bestimmt die Auftretenshäufigkeit
eines Verhaltens ohne eine Verstärkung
Operante Konditionierung –
(III) Extinktion
• Phase III: Extinktion (Löschungsphase)
– durch die Wegnahme der positiven Reize wird
das Verhalten abgeschwächt oder sogar
gelöscht
Operante Konditionierung –
(II) Trainingsphase
• Phase II: Trainingsphase
– das zu konditionierende Verhalten wird durch
einen positiven Reiz (z. B. die Gabe von Futter)
verstärkt
– Häufigkeit des zu konditionierenden Verhalten
nimmt dadurch zu
Operante Konditionierung (IV) Spontanerholung
• Phase IV: Spontanerholung
– erhöhte Auftrittwahrscheinlichkeit des
konditionierten Verhaltens
– diese Auftrittwahrscheinlichkeit ist jedoch
keineswegs so hoch wie die nach der
Trainingsphase beobachtete
Wahrscheinlichkeit.
Operante Konditionierung
Versuch mit Tauben 'Superstition' in the pigeon (1948)
• Skinners Forschungsergebnisse der operanten
Konditionierung haben eine wichtige Rolle
etwa bei der Gestaltung des Schulunterrichts
gespielt.
Literatur
• Skinner, Burrhus F. (1948). 'Superstition' in the
pigeon. Journal of Experimental Psychology, 38,
168-172
'Abergläubische' Tauben?
• Skinners Annahme: Das bloße
Vorhandensein eines Verstärker reicht aus,
dass ein zufällige Reaktion konditioniert
wird.
• Skinner versuchte diese Annahme durch ein
berühmt gewordenes Experiment mit
Tauben nachzuweisen.
'Abergläubische' Tauben?
• Skinner versetzte Tauben in den Zustand des
Hungers.
• Die Tauben wurden jeden Tag für einige Minuten in
einen Käfig gesperrt.
• Durch einen Nahrungstrichter wurde den Tauben als
Verstärkung automatisch alle 15 Sekunden Futter
dargeboten, gleichgültig welche Reaktion sie
vorher gezeigt haben (= nicht-kontingente
Verstärkung).
'Abergläubische' Tauben?
• Da die Reaktionen, die verstärkt wurden,
zufällig waren, zeigten die Tauben
'merkwürdige' Reaktionen:
–
–
–
–
Drehen gegen den Uhrzeigersinn
Drängen des Kopfes in die oberen Ecken des
Käfigs
Pendelbewegung des Kopfes und des Körpers
usw.
'Abergläubische' Tauben?
• Die Verstärkung (Darbietung von Futter) sollte
die Tauben nur auf zufällig gezeigte Reaktion,
die sie auf die Umgebung zeigten,
konditionieren.
'Abergläubische' Tauben?
• Für einen Alltagsbeobachter mag es so scheinen,
als ob die Tauben abergläubisch sind, da sie so
agierten, als ob die Gabe von Futter eine Belohnung
für ihre 'seltsamen' Reaktionen war.
• Tatsächlich erfolgte aber die Verstärkung
vollkommen unabhängig von dem zuvor gezeigten
Verhalten - stand also mit diesem Verhalten in
keinerlei Zusammenhang.
'Abergläubische' Menschen?
• Wird bei Menschen ein Verhalten zufällig verstärkt,
neigen Sie zum 'Aberglauben', dass es zwischen der
Verstärkung und ihrem Verhalten eine Kontingenz
(einen Zusammenhang) gäbe. Sie wiederholen das
Verhalten, um wieder die Verstärkung zu erlangen
(z.B. Glücksspiel, Rituale, Zauberei).
• Skinner wollte durch sein Taubenexperiment
zeigen, dass dieser 'Aberglaube' durch operante
Konditionierung erklärt werden kann.
'Abergläubische' Menschen?
• Skinners Versuch demonstriert, wie wirkungsvoll
zufällige Verstärkung sein kann:
–
Machen wir bei einem Verhalten zufällig eine
angenehmen Erfahrung, kann dies ausreichend
sein, dass wir unser Verhalten weiter
beibehalten.
Herunterladen