Burrhus F. Skinner (1904-1990) Burrhus F. Skinner - Literatur • Skinner, Burrhus F. (1948). 'Superstition' in the pigeon. Journal of Experimental Psychology, 38, 168-172 [Aberglauben bei Tauben] • Skinner, Burrhus F. (1956). A case history in scientific method. American Psychologist, 11(5), 211-233 [Übersicht über Skinners Forschung] • Skinner, Burrhus F. (1973). Wissenschaft und menschliches Verhalten. München: Kindler [insbesondere Kapitel 5 & 6] Burrhus F. Skinner • Skinner hat mehr als 20 Bücher und fast 200 Artikel verfasst • Skinner führte Experimente mit Tauben und Ratten durch, um die operante Konditionierung experimentell nachweisen zu können. • Hierfür konstruierte er in den 1930 Jahren einen Untersuchungskasten, bei dem alle Bedingungen systematisch kontrolliert werden konnten: die Skinner-Box. (siehe: problem box bei Watson) Skinner-Box - Aufbau • Durch das Drücken eines Hebels kann sich das jeweilige Versuchstier mit Futter oder Wasser versorgen. • Die Belohnung bzw. Verstärkung (Futter od. Wasser) wird nur dann freigegeben, wenn das Tier bestimmte erwünschte Reaktionen zeigt. • Die Skinner-Box ist gegen äußere Störeinflüsse (z.B. Geräusche) abgeschirmt. Skinner-Box - Aufbau Skinner-Box - Aufbau • An den Wänden der Box werden bisweilen Lampen angebracht. • Am Boden der Box befindet sich manchmal ein Gitter, durch welches Strom fließt. • Eine Kamera nimmt das Verhalten des Tieres im Inneren der Schachtel auf. Skinner-Box Forschungsperspektive Skinner-Box – Beispiel einer Versuchsanordnung • In der Skinner-Box sind die Versuchstiere 'Werkzeuge' des Verhaltensforschers. • Eine Versuchsratte wurde in eine Skinner-Box gesperrt. • Untersuchungsgegenstand war ausschließlich das Verhalten. • In der Box befanden sich folgende Apparaturen: • Alle anderen psychologischen Konzepte (Kognitionen, Emotionen, Wahrnehmungen, Erleben usw.) spielten bei den Experimenten keine Rolle. – – – ein Nahrungstrichter ein Gitter, durch das Strom geleitet werden konnte einen Hebel, der je nach Versuchstier eine andere Konsequenz darbot. Beispiel einer Versuchsanordnung • Ratte 1: bekam immer Futter, wenn sie den Hebel betätigte. • Ratte 2: konnte durch das Betätigen des Hebels den Strom abschalten, der durch das Bodengitter floss. • Ratte 3: erhielt einen Stromschlag, wenn sie den Hebel betätigte. Beispiel einer Versuchsanordnung • Diesen Lerneffekt (Wiederholung od. Vermeidung des Verhaltens) nannte Skinner: 'Lernen durch Verstärkung'. • Mit der Skinner-Box gelang Skinner der Nachweis der operanten Konditionierung. Beispiel einer Versuchsanordnung • Verhalten der Ratten nach mehreren Versuchen: – Ratte 1 & 2: betätigten den Hebel immer wieder J Aufgrund der positiven Konsequenz (Futter bekommen, Strom abschalten) hatte die Ratten 1 & 2 gelernt, ihr Verhalten zu wiederholen. – Ratte 3: betätigte den Hebel nicht mehr J Aufgrund der negativen Konsequenz (Stromschlag) hatte Ratte 3 gelernt, ihr Verhalten zu vermeiden. Skinner-Box - Versuchsdesign • Je kürzer die Intervalle zwischen den Verstärkungen waren, desto rascher und ausgeprägter wurden die Reaktionen konditioniert. • Je länger die Intervalle waren, desto größer war die Anzahl der dazwischen liegenden Reaktionen ohne Verstärkung. • Werden die Verstärkungsintervalle zu lange, kam es zur Extinktion der Reaktionen. Skinner-Box - Versuchsdesign Skinner-Box - Versuchsdesign • Wurde eine Reaktion einmal konditioniert, konnte das Verstärkungsintervall verlängert werden, ohne dass die Reaktion der Tauben abgeschwächt wurde. • Bei einer Taube wurde der Verstärkungsintervall um zwei Minuten ausgedehnt, ohne dass die Häufigkeit der konditionierte Reaktionen abgeschwächt wurde. • Eine weitere Taube zeigt bei einem Verstärkungsintervall von einer Minute über • Die zuletzt beschrieben Taube zeigte jedoch nach einigen Stunden eine deutliche Abweichung von ihrer anfänglich konditionierten Reaktion. • Die Taube führte eine hüpfende Schrittbewegung vom rechten auf den linken Fuß durch. • Skinner stellte den Taubenkäfig auf eine große Trommel und machte eine akustische Aufnahme der Schrittbewegungen der Taube. Skinner-Box - Versuchsdesign Skinner-Box - Versuchsdesign • Die Aufnahme der Schrittbewegungen gleichte der charakteristischen Kurve der Verstärkungsintervalle, während denen eine zufällige Reaktion konditioniert worden war. • Die Taube reagierte nicht sofort nach der Futtergabe, sondern erst wenn 10, 15 oder sogar 20 Sekunden verstrichen waren. Die Reaktion wurde fortgesetzt, bis die Taube die Verstärkung erhielt. • D Edward L. Thorndike - Effektgesetz • Warum verstärkt ein Verstärker? J Effektgesetz (Law of Effect) von Thorndike: Ein bestimmtes Verhalten wird dann ausgeprägt, wenn dieses bestimmte Konsequenzen hat. Operante Konditionierung • Der Begriff 'operant': das Individuum wirkt auf die Umwelt aktiv ein, um Konsequenzen (z.B. Verstärkung) zu hervorzurufen. • vom lateinischen Verb operari = arbeiten, mitwirken. Edward L. Thorndike (1874-1949) Effektgesetz • Effektgesetz (Law of Effect): – – Sperrt man eine Katze in einen Käfig, aus dem sie nur entweichen kann, wenn sie die Käfigtür öffnet, so wird die Katze viele Arten von Verhalten zeigen, von denen manche zum Öffnen der Käfigtür führen. Thorndike fand heraus, dass, als man die Katze immer wieder in den Käfig sperrte, die Verhaltensweise, die zur Flucht führte, immer früher auftrat, bis die Flucht schließlich so einfach und rasch wie möglich gelang. Operante Konditionierung • Bei der operanten Konditionierung wird eine Reaktion so verstärkt, dass diese wahrscheinlicher oder unwahrscheinlicher wird: Z.B.: Ein Student bereit sich einen Tag vor einer Prüfung auf diese vor. Da der Student auf die Prüfung eine gute Note bekommt, empfindet er die Konsequenz für sein Verhalten als positiv. * Durch diesen positiven Verstärker wird sich der Student voraussichtlich auch in Zukunft nur kurzfristig auf eine Prüfung vorbereiten. Operante Konditionierung • Im Fall der Skinner-Box ist das Futter der Verstärker. • Die Verstärkung besteht in der Futtergabe, immer dann, wenn eine Reaktion erfolgt. * die Reaktion wird konditioniert = die Häufigkeit, mit der die Reaktion gezeigt wird, nimmt zu oder ab. 4 Arten der Verstärkung Respondentes / operantes Verhalten • Unterschied: – respondentes ('reagierendes') Verhalten: • ausgelöst durch Auslösereize • bei der klassischen Konditionierung – operantes ('aktiv mitwirkendes') Verhalten: • kein Auslösereiz • durch Verstärkung modifizierbar • bei der operanten Konditionierung (1) Positive Verstärkung des Verhaltens • durch Gabe eines angenehmen Reizes • erhöht die Auftrittswahrscheinlichkeit eines Verhaltens: wird, nachdem ein Verhalten erfolgt ist, ein angenehmer Reiz gegeben, wird dieses Verhalten verstärkt. – Z.B.: Immer, wenn ein Verbraucher, die Pfandflaschen im Supermarkt retourniert, bekommt er dafür einen Geldbon. In der Folge wird der Verbraucher Pfandflaschen öfter zurückgeben. (2) Negative Verstärkung des Verhaltens • durch Wegfall eines unangenehmen Reizes • erhöht die Auftrittswahrscheinlichkeit eines Verhaltens: fällt, nachdem ein Verhalten erfolgt ist, ein unangenehmer Reiz weg, wird dieses Verhalten verstärkt. – Z.B. Vermeidungsverhalten: Da ein Schüler vor einer Prüfung große Angst hat (unangenehmer Reiz), absolviert er diese nicht (Verhalten). Das Nichtantreten bei Prüfungen wird durch den Wegfall der unangenehmen Angst verstärkt = der Schüler vermeidet fortan Prüfungen. (4) Negative Bestrafung des Verhaltens (3) Positive Bestrafung des Verhaltens • durch Gabe eines unangenehmen Reizes • vermindert die Auftrittswahrscheinlichkeit eines Verhaltens: wird, nachdem ein Verhalten erfolgt ist, ein unangenehmer Reiz gegeben, wird dieses Verhalten reduziert. – Z.B.: Da ein U-Bahnfahrgast ohne gültige Fahrkarte fährt, bekommt er vom Kontrolleur einen Strafzettel. Weitere U-Bahnfahrten wird er nicht ohne Fahrkarte machen. Operante / instrumentellen Konditionierung • durch Wegfall eines angenehmen Reizes • vermindert die Auftrittswahrscheinlichkeit eines Verhaltens: fällt, nachdem ein Verhalten erfolgt ist, ein angenehmer Reiz weg, wird dieses Verhalten reduziert. – Z.B.: Ein Kind ist wütend, weil es zu einer Tätigkeit keine Lust hat. Die Eltern teilen dem Kind mit, dass es nicht mehr Fernsehen darf, wenn es nicht zum Toben aufhört. Das Kind beruhigt sich. • Operante Konditionierung nach Skinner: – das Versuchstier ist völlig frei, ein beliebiges Verhalten zu zeigen. • Instrumentelle Konditionierung nach Thorndike: – das Versuchstier kann nur ein bestimmtes Verhalten zeigen oder nicht (wird nach Zeigen des Zielverhaltens vom Versuchsleiters zum Ausgangspunkt zurückgesetzt). Operante Konditionierung – (I) Bestimmung der Basisrate • Phase I: Bestimmung der Basisrate – Versuchsleiter bestimmt die Auftretenshäufigkeit eines Verhaltens ohne eine Verstärkung Operante Konditionierung – (III) Extinktion • Phase III: Extinktion (Löschungsphase) – durch die Wegnahme der positiven Reize wird das Verhalten abgeschwächt oder sogar gelöscht Operante Konditionierung – (II) Trainingsphase • Phase II: Trainingsphase – das zu konditionierende Verhalten wird durch einen positiven Reiz (z. B. die Gabe von Futter) verstärkt – Häufigkeit des zu konditionierenden Verhalten nimmt dadurch zu Operante Konditionierung (IV) Spontanerholung • Phase IV: Spontanerholung – erhöhte Auftrittwahrscheinlichkeit des konditionierten Verhaltens – diese Auftrittwahrscheinlichkeit ist jedoch keineswegs so hoch wie die nach der Trainingsphase beobachtete Wahrscheinlichkeit. Operante Konditionierung Versuch mit Tauben 'Superstition' in the pigeon (1948) • Skinners Forschungsergebnisse der operanten Konditionierung haben eine wichtige Rolle etwa bei der Gestaltung des Schulunterrichts gespielt. Literatur • Skinner, Burrhus F. (1948). 'Superstition' in the pigeon. Journal of Experimental Psychology, 38, 168-172 'Abergläubische' Tauben? • Skinners Annahme: Das bloße Vorhandensein eines Verstärker reicht aus, dass ein zufällige Reaktion konditioniert wird. • Skinner versuchte diese Annahme durch ein berühmt gewordenes Experiment mit Tauben nachzuweisen. 'Abergläubische' Tauben? • Skinner versetzte Tauben in den Zustand des Hungers. • Die Tauben wurden jeden Tag für einige Minuten in einen Käfig gesperrt. • Durch einen Nahrungstrichter wurde den Tauben als Verstärkung automatisch alle 15 Sekunden Futter dargeboten, gleichgültig welche Reaktion sie vorher gezeigt haben (= nicht-kontingente Verstärkung). 'Abergläubische' Tauben? • Da die Reaktionen, die verstärkt wurden, zufällig waren, zeigten die Tauben 'merkwürdige' Reaktionen: – – – – Drehen gegen den Uhrzeigersinn Drängen des Kopfes in die oberen Ecken des Käfigs Pendelbewegung des Kopfes und des Körpers usw. 'Abergläubische' Tauben? • Die Verstärkung (Darbietung von Futter) sollte die Tauben nur auf zufällig gezeigte Reaktion, die sie auf die Umgebung zeigten, konditionieren. 'Abergläubische' Tauben? • Für einen Alltagsbeobachter mag es so scheinen, als ob die Tauben abergläubisch sind, da sie so agierten, als ob die Gabe von Futter eine Belohnung für ihre 'seltsamen' Reaktionen war. • Tatsächlich erfolgte aber die Verstärkung vollkommen unabhängig von dem zuvor gezeigten Verhalten - stand also mit diesem Verhalten in keinerlei Zusammenhang. 'Abergläubische' Menschen? • Wird bei Menschen ein Verhalten zufällig verstärkt, neigen Sie zum 'Aberglauben', dass es zwischen der Verstärkung und ihrem Verhalten eine Kontingenz (einen Zusammenhang) gäbe. Sie wiederholen das Verhalten, um wieder die Verstärkung zu erlangen (z.B. Glücksspiel, Rituale, Zauberei). • Skinner wollte durch sein Taubenexperiment zeigen, dass dieser 'Aberglaube' durch operante Konditionierung erklärt werden kann. 'Abergläubische' Menschen? • Skinners Versuch demonstriert, wie wirkungsvoll zufällige Verstärkung sein kann: – Machen wir bei einem Verhalten zufällig eine angenehmen Erfahrung, kann dies ausreichend sein, dass wir unser Verhalten weiter beibehalten.