I Lehren und Lernen - EWS

Werbung
PÄDAGOGISCHE PSYCHOLOGIE
I. GRUNDPROZESSE DES LERNENS
1. Was ist „Lernen“?
1.1. Begriffsklärung

Prinzipiell fallen unter den Lernbegriff alle (relativ dauerhaften) Veränderungen,
die in irgendeiner Weise auf Erfahrung beruhen.
 Vom „Lernen“ abgegrenzt werden müssen daher Veränderungen, die auf…
1) Angeborene Verhaltenstendenzen (Reflexe, Erbkoordinationen)
2) Reifung
3) Vorübergehende organismische Zustände (Ermüdung, Drogenkonsum)
…zurückzuführen sind.
1.2. Behavioristische- und kognitive Lerntheorien


Lerntheorien sind systematische Versuche, menschliches Verhalten zu erklären und
vorherzusagen. Dabei lassen sich innerhalb der Lernpsychologie 2 Richtungen
unterscheiden: der Behaviorismus und der Kognitivismus.
1. Behavioristische bzw. verhaltensorientierte Lerntheorien: betrachten den
Organismus als „Black Box“. Aus methodischen Überlegungen wird
menschliches Verhalten und Lernen bewusst auf die beobachtbaren Variablen
„Reiz“, „Reaktion“ und „Verstärkung“ (=Konsequenz) reduziert.
 Bekannte Vertreter sind: Pawlow, Watson, Thorndike, Skinner
2. Seit der „kognitiven Wende“ in den 60er Jahren wendet sich die Psychologie
wieder vermehrt kognitiven und emotionalen Aspekten des Verhaltens zu.
Dementsprechend betrachten kognitive Theorien Lernen nicht als bloße ReizReaktions-Verbindung, sondern als Prozess der Informationsverarbeitung.
 Vertreter sind u.a.: Tolman, Bruner und Piaget
Gemeinsamkeiten und Unterschiede:
 Der behavioristische Ansatz betont, dass es sich bei gelernten Veränderungen
um Veränderungen des Verhaltens bzw. des „Verhaltenspotentials“ handelt
(Bower & Hilgard). Der kognitive Ansatz rückt demgegenüber „innere“
Veränderungen in den Vordergrund: Was sich verändert, sind die kognitiven
Strukturen, dazu zählen u.a. das deklarative, prozedurale und metakonzeptuelle
Wissen, aber auch Überzeugungen und Einstellungen.
 Der behavioristische Ansatz konzentriert sich ganz auf das beobachtbare
Verhalten bzw. dessen Bedingungen (Reize) und Konsequenzen (Verstärkung
und Bestrafung). Kognitive Ansätze berücksichtigen dagegen auch mentale
Prozesse (Informationsaufnahme, -bearbeitung, -speicherung und -wiedergabe).
 Gemeinsam ist den beiden Ansätzen, dass sie „Erfahrung“ als das konstitutive
Merkmal eines Lernprozesses hervorheben!
1
1.2. Lernformen



EDELMANN unterscheidet zwischen 4 Grundformen des Lernens:
1) Reiz-Reaktions-Lernen (Klassische Konditionierung)
 Verbindung zw. vorhergehendem Reiz und Verhalten
2) Instrumentelles Lernen (Operante Konditionierung)
 Verbindung zwischen Verhalten und nachfolgender Konsequenz
3) Begriffsbildung und Wissenserwerb
 Verbindung zw. Begriffen bzw. kognitiven Strukturen
4) Prozedurales Lernen und Problemlösen
 Verbindung zw. Wissen und Handeln
Bei den ersten beiden Lernformen spielen äußere Reize und das Verhalten die
ausschlaggebende Rolle (Außensteuerung); bei den anderen beiden Lernformen
stehen dagegen kognitive Prozesse im Vordergrund (Innensteuerung).
 Durch Konditionierung und Beobachtungslernen werden Verhaltensweisen,
emotionale Reaktionen und Einstellungen gelernt.
Von vielen Autoren wird darüber hinaus das sog. Modelllernen (soziales Lernen) als
eigenständige Lernform aufgefasst!
2
2. Klassische Konditionierung: „Reiz-Reaktions-Lernen“
2.1. Der Grundgedanke




Das klassische Konditionieren geht auf den russischen Psychologen PAWLOW
zurück.
Berühmtestes Beispiel: der „Pawlowsche Hund“
Dadurch, dass die Futtervergabe wiederholt mit dem Erklingen eines bestimmten
Tons einherging, „lernte“ der Hund, bereits beim Hören des Tons Speichel
abzusondern.
Beim klassischen Konditionieren wird also ein neuer bzw. „bedingter“ Reiz als
Auslöser für eine biologisch vorgegebene Verhaltensweise gelernt!
 Man spricht deshalb auch von Reiz-Reaktions- bzw. S-R-Lernen.
Ein unbedingter Reiz (z.B. Nahrung) führt zu einer unbedingten Reaktion (z.B.
Speichelsekretion). Im Rahmen der Konditionierung wird der unbedingte Reiz an
einen neutralen Reiz (z.B. das Aufleuchten einer Lampe) gekoppelt.
 Wichtig ist dabei a) die zeitliche- und räumliche Nähe des bedingten und
unbedingten Reizes (Kontiguität) sowie b) die Wiederholung dieser
Reizkombination.
 Ist beides gegeben, wird der neutrale Reiz mit dem unbedingten assoziiert
(deshalb auch: assoziatives Lernen)!
Dadurch entsteht eine neue Reiz-Reaktions-Beziehung: Der ursprünglich neutrale
Reiz (Lampe) wird zu einem bedingten Reiz, der allein ausreicht, um die jew.
Reaktion (nun eine bedingte Reaktion) hervorzurufen.
 Ein Prinzip, das z.B. in der Werbung angewendet wird, wenn ein Produkt
(neutraler Reiz) an einen unbedingten Reiz (wie Sex; Kinderaugen etc)
gekoppelt wird.
2.2. Die wichtigsten Prinzipien



Bekräftigung / Verstärkung: Im Gegensatz zum operanten Konditionieren (s.u.)
bezeichnet Bekräftigung bzw. Verstärkung im Kontext des klassischen
Konditionierens nicht die Konsequenz eines Verhaltens, sondern die Anzahl der
Paarungen zw. neutralem- und unkonditioniertem Reiz.
 Meist sind mehrere solcher Paarungen nötig, um erwünschten Effekt zu erzielen.
 Sonderfall (GUTHRIE’S „Ein-Schuss-Lerntheorie“): Die einmalige Kopplung
von Reiz und Reaktion reicht aus, um bei Wiederholung des Reizes die
entsprechende Reaktion erneut auszulösen; Wiederholungen sind nur dann nötig,
wenn der Reiz nicht völlig identisch ist (was meistens der Fall ist).
Reizgeneralisierung: Um eine bedingte Reaktion zu konditionieren, müssen die
bedingten Reize nicht identisch sein; es reicht aus, wenn sie einander ähnlich sind.
Z.B. konnte die Speichelproduktion beim „Pawlowschen Hund“ nicht nur durch
denselben-, sondern auch durch verschieden hohe Töne ausgelöst werden.
 Generell gilt jedoch: Je ähnlicher die verwendeten Auslöser, desto stärker die
konditionierte Reaktion (Generalisationsgradient).
Reizdifferenzierung: Koppelt man immer nur einen von mehreren einander
ähnlichen Reizen mit dem unbedingten Reiz, erfolgt die Reaktion nur auf diesen
(Kontrastmethode).
 Reizdifferenzierung bildet die Grundlage für das Diskrimationslernen bei Tieren.
So kann z.B. Hunden beigebracht werden, zw. Kreisen und Ellipsen zu
unterscheiden. Wird die Unterscheidung aufgrund zu starker Annäherung
unmöglich => experimentelle Neurosen
3




Extinktion bzw. Löschung: Im Gegensatz zu deklarativem Wissen werden
konditionierte Reaktionen im Allgemeinen nicht „vergessen“. Sie können aber
gelöscht werden, indem man den bedingten Reiz mehrfach ohne den unbedingten
Reiz darbietet.
 Das Prinzip der Extinktion wird z.B. zur Angsttherapie eingesetzt (s.u.)
Konditionierung höherer Ordnung: Auch durch die mehrfache Kopplung mit
einem bedingten Reiz (Ton) kann ein neutraler Reiz (Licht) konditioniert werden
und die entsprechende Reaktion (Speichelsekretion) auslösen.
 In der Werbung: Produkt (neutraler Reiz) + populäre Persönlichkeit (bedingter
Reiz)
Individuelle Unterschiede: Ängstliche Personen werden leichter bzw. schneller
konditioniert als weniger ängstliche.
Beispiel aus der Schule:
1) Lob (= unbedingter Reiz) => Freude, Stolz (= unbedingte Reaktion)
2) Lehrer (neutraler Reiz) + Lob => Freude, Stolz (unbedingte Reaktion)
3) Lehrer (bedingter Reiz) => Freude,Stolz, positive Einstellung (bedingte Reaktion)
2.3. Klassische Konditionierung im Humanbereich


Im Humanbereich spielen klassische Konditionierungsprozesse v.a. bei der
Entwicklung emotionaler Reaktionen (Furcht, Wut, Liebe) eine Rolle.
 Das zeigen v.a. die klassischen Experimente John Watsons. WATSON gilt als
Begründer des Behaviorismus. Er war einer der ersten, der das lerntheoretische
Paradigma der Konditionierung auf den Menschen übertrug.
WATSON:
Der Fall Albert
WATSON konditionierte den 11 Monate alten Albert darauf, sich vor einer
weißen Ratte (NS bzw. CS) zu fürchten, vor der er ursprünglich keine
Angst hatte. Jedes Mal, wenn der Junge die Ratte (NS) sah, schlug Watson
auf eine Eisenstange und koppelte dadurch die Ratte, anfangs neutral- oder
sogar positiv besetzt, an ein angstbesetztes Geräusch (UCS).
COVER-JONES: Der Fall Peter
Mary Cover-Jones versuchte bei einem 3jährigen Jungen (Peter) eine
Angstreaktion gegenüber Kaninchen abzubauen; am effektivsten erwies
sich dabei die Methode der Gegenkonditionierung. Dabei wurde das
gefürchtete Objekt (der Hase) mit einem angenehmen Reiz (Eis essen)
gekoppelt, wobei der Hasenkäfig von Tag zu Tag näher an Peter
herangestellt wurde (Desensibilisierung).
Aus pädagogischer Sicht ist Reiz-Reaktions-Lernen v.a. im Zusammenhang mit dem
Abbau von Ängsten und anderen negativen emotionalen Reaktionen relevant.
 Verhaltensmodifikationen, die auf klassischer Konditionierung beruhen:
1) Gegenkonditionierung und Desensibilisierung
Gegenkonditionierung bezeichnet die Kopplung eines negativ besetzten
Stimulus mit positiv besetzten Reizen (z.B. Essen, Entspannung etc.), um
auf diese Weise die Reaktion umzukonditionieren. Dabei ist es wichtig,
schrittweise vorzugehen (Desensibilisierung), d.h. die Intensität des
negativ besetzten Reizes allmählich zu erhöhen. Andernfalls besteht die
Gefahr, dass sich die negative Reaktion auf den angenehmen Reiz (Eis)
überträgt, anstatt durch diesen gelöscht zu werden.
 JOSEF WOLPE: Entspannung als inkompatible Reaktion (progressive
Muskelentspannung nach Jacobson) + Erstellen von Angsthierarchien
=> systematische Gegenkonditionierung
4


2) Flooding / Implosionstherapie
Intensive Darbietung des angstauslösenden Reizes => Überstrapazierung
des Angstreflexes => Körperliche Erschöpfung und Hemmung der
Reflexbereitschaft
3) Aversionstherapie
Konditionierung von Angstreaktionen zur Blockierung unerwünschter
Verhaltensweisen (z.B. Suchttherapie, „Clock-work orange“); wird heute
aufgrund ethischer Probleme kaum noch angewandt.
GUTHRIE nennt 3 Methoden, mit Hilfe derer unerwünschte Reaktionen bzw.
Gewohnheiten ersetzt werden können:
 Die Methode inkompatibler Reize (siehe Gegenkonditionierung)
 Die Schwellenmethode
(siehe: Desensibilisierung)
 Die Ermüdungsmethode
(siehe: Flooding)
Im schulischen Alltag werden die Prinzipien des klassischen Konditionierens eher
intuitiv, als professionell angewendet.
 Progressive
Muskelentspannung
nach
JACOBSON
und
dezidierte
Angsthierarchien finden im Schulalltag wohl eher selten Anwendung - aber auch
emotionale Wärme und aufmunternde Worte von Seiten des Lehrers (z.B. in
Prüfungssituationen) können im Sinne einer Gegenkonditionierung wirksam
werden!
 Vermeidung bedingter und unbedingter Angstauslöser!
 Sukzessive Anspruchssteigerung (z.B. bei Klassenarbeiten die schwierigsten
Aufgaben zuletzt bringen) als Form der Desensibilisierung!
5
3. Operante Konditionierung: „Instrumentelles Lernen“
3.1. Der Grundgedanke



Als Begründer des operanten Konditionierens gilt B.F. SKINNER.
Wie bei der klassischen Konditionierung handelt es ich dabei um eine Form des
assoziativen Lernens.
 Allerdings wird beim operanten Lernen kein vorhergehender Reiz mit einer
Reaktion-, sondern eine Verhaltensweise mit der nachfolgenden Konsequenz
assoziiert.
 B.F. SKINNER unterscheidet dementsprechend zwischen respondentem- und
operantem Verhalten.
 Ersteres wird durch vorhergehende Reize, letzteres durch die nachfolgenden
Konsequenzen bestimmt.
Das Grundprinzip operanten Verhaltens formuliert THORNDIKE in seinem Gesetz
der Auswirkung („Law of effect“): Das Gesetz besagt, dass Verhaltensweisen, die
angenehme Konsequenzen haben, mit hoher Wahrscheinlichkeit wiederholt werden,
während Verhaltensweisen mit negativen Folgen eher nicht wiederholt werden.
B.F. SKINNER: Die „Skinner-Box“
Mit Hilfe dieses Prinzips konditionierte SKINNER z.B. Ratten und Tauben
darauf, einen Mechanismus (Hebel, Knopf etc.) zu betätigen, um die
Futterzufuhr (positive Verstärkung) zu regulieren- oder Stromschläge zu
vermeiden (negative Verstärkung).
3.2. Die wichtigsten Prinzipien
 Verstärkung: Verstärker sind nach SKINNER alle Konsequenzen, die die

Auftretenswahrscheinlichkeit eines Verhaltens erhöhen. Zu unterscheiden ist dabei
zwischen positiver und negativer Verstärkung.
 Positive Verstärkung: Darbietung eines angenehmen Reizes,
 Negative Verstärkung: Beseitigung eines unangenehmen (aversiven) Reizes
 Negative Verstärkung ist demnach nicht mit Bestrafung gleichzusetzen!
Bestrafung: Bestrafung umfasst alle Konsequenzen, die zur Unterdrückung eines
Verhaltens führen. Auch hier sind 2 Formen zu unterscheiden.
 Bestrafung I: Hinzufügung eines aversiven Reizes (negativer Verstärker)
 Bestrafung II: Beseitigung eines angenehmen Reizes (positiver Verstärker)
 Primäre und sekundäre Verstärker: Primäre Verstärker beruhen auf den

Grundbedürfnissen eines Organismus; sie sind nicht erlernt, sondern wirken per se
verstärkend (z.B. Nahrung, Sex). Sekundäre Verstärker beruhen dagegen auf der
assoziativen Paarung mit primären Verstärkern; sie sind gelernt (z.B. Geld etc.).
Verstärkungspläne: Zu unterscheiden ist zwischen kontinuierlichen und
intermittierenden Verstärkungsplänen.
 Bei kontinuierlicher Verstärkung wird ein Verhalten immer verstärkt.
 Beschleunigt den Verhaltensaufbau, daher zu Beginn einer Lernphase zu
empfehlen.
 Bei der intermittierenden bzw. gelegentlichen Verstärkung wird ein Verhalten
nicht immer, sondern in bestimmten Abständen verstärkt (Quotenverstärkung
= Verstärkung erfolgt nach Quoten, z.B. jede 10.Reaktion; Intervallverstärkung
= Verstärkung erfolgt in zeitlichen Abständen, z.B. alle 5 Minuten)
 Führt zu hoher Löschungsresistenz; zu empfehlen, wenn das gewünschte
Verhalten bereits aufgebaut ist („Fading-out“).
6
 Fading-out: Intermittierende Verstärkung am Ende eines Lernprozesses.
 Shaping (Verhaltensformung): Unter „Shaping“ wird die stufenweise
Annäherung an eine gewünschte Verhaltensweise verstanden. Zu diesem Zweck
wird anfänglich jede Verhaltensweise verstärkt, die in Richtung des erwünschten
Endverhaltens weist.
 Auf diese Weise konnte SKINNER Tieren verhältnismäßig komplexe
Verhaltensweisen beibringen, die über das bloße Lernen am Erfolg (Versuch
und Irrtum) wesentlich langsamer oder überhaupt nicht gelernt worden wären
(Shaping als Dressurmethode).
 Beim Menschen spielen Shapingprozesse z.B. beim Spracherwerb eine
entscheidende Rolle: Anfangs wird das Kind für jeden Laut gelobt, später nur
noch für Wörter und Sätze!
Symbolische Verhaltensregulierung: Das behavioristische Paradigma muss
mittlerweile dahingehend erweitert werden, dass nicht nur die Verstärkung selbst,
sondern auch deren kognitive Repräsentation das Verhalten eines Organismus
beeinflusst.

3.3. Verfahren der (pädagogischen) Verhaltensmodifikation
3.3.1. Möglichkeiten zum Verhaltensaufbau


Gewünschte Verhaltensweisen können durch positive und negative Verstärkung
gefördert werden. Zu unterscheiden sind dabei materielle-, soziale-, informationelleund Tätigkeitsverstärker.
 Materielle Verstärker: Häufig angewendet wird das sog. „Token-System“, bei
dem erwünschtes Verhalten mit Münzen (sog. Tokens) belohnt wird, die dann
gegen reale Verstärker eingetauscht werden können.
 „Dangerous Minds“: Michelle Pfeiffer, die ihre Schüler mit Schokoriegeln
ködert!
 Soziale Verstärker: Lob, Zuwendung, Aufmerksamkeit etc.
 Entscheidend ist dabei die „Echtheit“ des Erziehers (TAUSCH & TAUSCH)!
 Informationelle Verstärker: Die Lerntätigkeit selbst kann als verstärkend
erlebt werden (Neugier, Bedürfnis nach Konsequenz etc.)
 Ansprechende Unterrichtsgestaltung
 Tätigkeitsverstärker (das Premack-Prinzip): Verhaltensweisen, die mit
höherer Wahrscheinlichkeit auftreten (beliebte Aktivitäten)
dienen als
Verstärker für Verhalten, das mit geringerer Wahrscheinlichkeit auftritt (weniger
beliebte Tätigkeiten); kurz: „Erst die Arbeit, dann das Vergnügen“!
 z.B. erst Grammatik, dann kreatives Schreiben oder Gruppenarbeit (Problem:
Nicht jeder Schüler bevorzugt die gleichen Arbeitsformen)
Das erwünschte Verhalten und die versprochenen Verstärker können in sog.
Kontingenzverträgen (z.B. zw. Lehrer und Schüler) festgelegt werden: dabei
sollten Kontingenzverträge positiv formuliert, transparent und gerecht sein. Sie
sind besonders effektiv, wenn sie von beiden Vertragsparteien ausgehandelt – und
nicht von einer Partei festgesetzt werden!
 Kontingenzverträge sind v.a. dann zu empfehlen, wenn die Interaktion hoch
aversiv ist;
 Negativ zu bewerten ist der Tauschcharakter (positives Verhalten wird
sozusagen „bezahlt“)
7
3.3.2. Möglichkeiten zum Verhaltensabbau

WICHTIG: Der Abbau unerwünschter Verhaltensweisen sollte immer mit dem
Aufbau positiven Verhaltens verbunden sein!
A) Bestrafung



In der erzieherischen Praxis wird Bestrafung häufig angewandt; ihre Wirksamkeit ist
jedoch fraglich. Aus Sicht vieler Psychologen führt Bestrafung nicht zum Abbau-,
sondern lediglich zur (situationsspezifischen) Unterdrückung unerwünschter
Verhaltensweisen.
ESTES (1944) konnte in Experimenten mit Ratten zeigen, dass Löschung, d.h.
konsequente Nicht-Verstärkung, zu einer stabileren Verhaltensänderung führt als
Bestrafung.
Auf die Gefahren bzw. „Nebenwirkungen“ von Strafe weisen u.a. TAUSCH &
TAUSCH hin:
 Aufmerksamkeitsfokus wird auf die unerwünschte Verhaltensweise gelenkt; oft
ohne positive Alternativen nahezulegen => die Wahrscheinlichkeit, dass
Bestrafung zu positivem Verhalten führt, ist daher eher gering
 Bestrafung verhindert Löschung (Nicht-Verstärkung) => Keine nachhaltige
Veränderung-, sondern lediglich Unterdrückung des Verhaltens
 Strafe wird nicht mit dem Verhalten, sondern dem Strafenden assoziiert
(Generalisierung der Bestrafung auf den Bestrafenden) => Schulangst,
Beziehungsstörung etc.
 Der strafende Erzieher als negatives Modell für aggressives Verhalten
 Willkürliche bzw. nicht klar nachvollziehbare Bestrafung => Gelernte
Hilflosigkeit
Grundsätzlich sollten folgende Aspekte berücksichtigt werden:
1) Die Strafe muss dem Verhalten möglichst unmittelbar folgen und sollte gleich
zu Beginn einer Verhaltenskette stehen.
2) Ferner muss die Bestrafung immer mit einer Begründung einhergehen.
3) Dem Bestraften müssen positive Alternativen aufgezeigt werden.
4) Aversive Reize verlieren durch Gewöhnung ihre Wirksamkeit und sollten daher
variiert werden!
5) Zu empfehlen sind „natürliche Konsequenzen“.
6) Die Androhung von Strafe reicht oftmals aus; „sanfte“ (nicht öffentliche)
Ermahnungen sind am effektivsten!
7) Prinzipiell ist Bestrafung weniger effektiv als Verstärkung!
B) Operante Löschung

Operante Löschung ist die konsequente Nicht-Verstärkung unerwünschten
Verhaltens (Ignorieren)! Diese Methode wirkt zwar nachhaltiger als Bestrafung, ist
aber in der Praxis meist nur schwer umzusetzen.
 Alle bisherigen Verstärker müssen identifiziert und konsequent ausgeschaltet
werden, andernfalls wird das Verhalten nicht gelöscht, sondern intermittierend
verstärkt; die Wirkung wäre kontraproduktiv: Erhöhung der Löschungsresistenz!
 Im Schulalltag ist es kaum möglich, alle Verstärker auszuschalten,
schließlich wirkt nicht nur der Lehrer, sondern auch die Mitschüler und
Eltern verstärkend.
 Nicht-Verstärkung führt zunächst zu einer Zunahme des Verhaltens – und erst
nach einiger Zeit zu einem allmählichen Verhaltensabbau. Löschung erfordert
demnach einen langen Atem, der bei akutem Problemverhalten kaum gegeben
sein dürfte.
8
3.4. Anwendung im schulischen Alltag: eine Zusammenfassung



Die Prinzipien des operanten Konditionierens werden von den meisten Lehrern
intuitiv angewandt; trotzdem sollten sie sich über ihre genaue Wirkung bewusst sein.
 Im schulischen Alltag spielt Bestrafung (Verweise, schlechte Noten, Nachsitzen
etc.) in der Regel eine größere Rolle als Verstärkung, obwohl letzteres
erwiesener Maßen effektiver ist (s.o.).
 Außerdem sollten Lehrer sich darüber bewusst sein, dass die Wirksamkeit von
Verstärkern und Strafen durch deren subjektive Wahrnehmung bestimmt wird.
 Z.B. müssen Ermahnungen nicht als Bestrafung gewertet werden; sie können
auch als geschenkte Aufmerksamkeit interpretiert werden; in dem Fall
würden sie als sozialer Verstärker wirken!
Dem Paradigma des Behaviorismus zufolge wird unser Verhalten ausschließlich
durch vorhergehende Reize und/oder nachfolgende Konsequenzen bestimmt.
Selbst, wenn man dieser Vereinfachung zustimmt und kognitive Aspekte außer Acht
lässt, bleiben die Zusammenhänge zu komplex, um sie in der Realität vollständig zu
kontrollieren.
 Ein Klassenzimmer ist keine „Skinner-Box“! Die Mittel des Lehrers sind
beschränkt. Verstärkungen und Bestrafungen gehen nicht nur von ihm, sondern
auch von Mitschülern, Eltern und Kollegen aus.
 Wie komplex die Zusammenhänge auch unter dem Paradigma des operanten
Konditionierens sind, zeigt die Verhaltensgleichung von KANFER & PHILLIPS
(SORCK-Gleichung). Der Gleichung zufolge, die zwischen vorausgehenden und
nachfolgenden Bedingungen unterscheidet, erfordert eine systematische
Verhaltensänderung folgende Schritte:
 Genaue Analyse des Problemverhaltens (Erstellung einer Base-line);
Festellen der verhaltensauslösenden Bedingungen (diskriminative- und
negative Hinweisreize); Feststellung der zugrunde liegenden Kontingenzen
und wirksamen Verstärker; Festlegung eines Zielverhaltens; Aufstellen
adäquater Verstärker => Intervention; Fading out und Nachkontrolle
 Die kooperative Verhaltensmodifikation nach REDLICH & SCHLEY sieht
eine enge Zusammenarbeit zw. Schülern und Lehrer vor. Es werden nicht nur die
Ziele der Verhaltensänderung gemeinsam festgelegt, sondern auch deren
Erreichung bzw. Nichterreichung gemeinsam überprüft; auf externe Verstärker
wird weitgehend verzichtet; positiv verstärkend wirkt die Zielerreichung selbst.
 wurde in verschiedenen Schulklassen erfolgreich getestet; ist aber mit
enormer Mehrbelastung für den Lehrer verbunden (Beratungsgespräche etc.)!
Allgemeine Kritik am behavioristischen Ansatz:
 Der Behaviorismus kann menschliches Verhalten nur bedingt erklären: Unklar
bleibt z.B. die Rolle der Veranlagung. Außerdem kann nicht plausibel erklärt
werden, warum eine Verhaltensweise zum ersten Mal auftritt.
 Die These, dass alle Lernprozesse entweder durch die Kopplung von Reizen
oder „Versuch und Irrtum“ initiiert werden, ist wenig überzeugend.
 Höhere kognitive Lernleistungen wie Wissenserwerb und Problemlösen können
weder als respondentes, noch als operantes Verhalten erklärt werden.
 Die vorgeschlagenen Methoden zur Verhaltensmodifikation zielen lediglich auf
eine Veränderung des Verhaltens, nicht aber der Einstellung. Kognitive und
emotionale Komponenten des Lernens bleiben unberücksichtigt.
 Verstärkung und Bestrafung fördern lediglich die extrinsische Motivation;
die intrinsische Motivation bleibt unberücksichtigt („overjustification effect“;
„insufficient punishment“; Bem’s Selbstwahrnehmungstheorie und
Festinger’s Theorie der kognitiven Dissonanz).
9
EINSCHUB: Erlernte Hilflosigkeit





Das Phänomen der erlernten Hilflosigkeit geht auf MARTIN SELIGMAN zurück.
SELIGMAN konnte anhand verschiedener Experimente zeigen, dass Tiere, wenn
sie zuvor einer unkontrollierbaren Situation (willkürliche Elektroschocks)
ausgeliefert wurden, in einer späteren Situation, in der die Elektroschocks
theoretisch vermieden werden könnten, unfähig sind, die zugrunde liegenden
Kontingenzen zu lernen.
Gelernte Hilflosigkeit resultiert demnach aus mehreren Misserfolgserlebnissen in
einer unkontrollierbaren Situation. Das Phänomen ist durch kognitive,
motivationale und emotionale Defizite gekennzeichnet.
 Unter kognitiven Gesichtspunkten führt die erfahrene Unkontrollierbarkeit zu
einer Generalisierung der Hilflosigkeit. Das Handeln wird durch die Erwartung
bestimmt, die Ereignisse nicht kontrollieren zu können.
 Dadurch kommt es zum einem zu einem Mangel an Motivation (Apathie,
Resignation und Passivität); zum anderen zu Depression und
Niedergeschlagenheit.
Auch unkontrollierbare Verstärkungen können sich negativ auswirken:
„Erfolgsdepression“!
Der Attributionstheorie zufolge ist erlernte Hilflosigkeit die Folge pessimistischer
Attributionsstile. In welcher Form und in welchem Ausmaß sie auftritt, hängt
davon ab, auf welche Ursachen der eigene Misserfolg zurückgeführt wird.
 Dabei sind folgende Dimensionen zu unterscheiden:
1) Lokation der Ursache: internal vs. external
 Ein Verlust des Selbstwertgefühls ist nur dann zu erwarten, wenn eine
Person sich selbst für den Misserfolg verantwortlich macht.
2) Globalität der Ursache: global vs. spezifisch
 Zu einer Generalisierung der Hilflosigkeit kommt es nur, wenn der
Misserfolg auf globale Ursachen zurückgeführt wird (z.B. auf generelle
Unfähigkeit und nicht auf eine spezifische Schwäche)
3) Stabilität der Ursache: zeitstabil vs. zeitinstabil
 Dauerhaft ist gelernte Hilflosigkeit nur dann, wenn sie auf stabile
Ursachen (z.B. auf die eigene Fähigkeit und nicht auf die Anstrengung)
zurückgeführt wird.
Pädagogische Konsequenzen: Demnach gilt es als Lehrer, den Schülern positive
Attributionsmuster nahe zu legen (Anstrengung statt Fähigkeit etc.); auf willkürliche
Bestrafung zu verzichten; Möglichkeiten zur Verhaltensänderung aufzuweisen,…!
 Siehe: Sozialpsychologie
10
4. Sozial-kognitive Lerntheorie: „Modelllernen“
4.1. Die sozial-kognitive Lerntheorie nach Bandura





Unter Modelllernen versteht man Lernprozesse, die auf der Beobachtung und
Nachahmung anderer Personen beruhen.
 Lernen am Modell wird daher auch als Beobachtungs- oder Imitationslernen
bezeichnet.
 Zu unterscheiden ist zwischen realen- und symbolisch vermittelten Modellen
(erstere sind reale Personen; zu letzteren gehören z.B. Romanfiguren oder
Filmhelden).
Modelllernen spielt v.a. im Zusammenhang mit sozialen Lernprozessen eine Rolle.
 Am Modell wird gelernt, welches Verhalten in einer sozialen Situation adäquat
ist und welches nicht.
 Daher die große Bedeutung des Modelllernens für prosoziales- und
aggressives Verhalten
Dabei lassen sich folgende Lerneffekte unterscheiden:
 Neuerwerb von Verhaltensweisen (modellierender Effekt): Am Modell
können Verhaltensweisen gelernt werden, die dem Beobachter vorher noch nicht
bekannt waren (z.B. Autofahren etc.).
 Der hemmende- und enthemmende Effekt: Je nachdem welche Konsequenzen
das Verhalten des Modells hat, treten bereits vorhandene Verhaltensweisen in
Folge des Modelllernens häufiger oder seltener auf.
 Der auslösende Effekt: Eine bereits vorhandene Verhaltensweise wird
unmittelbar nachdem ein Modell sie ausführt, nachgeahmt (z.B. Klatschen im
Konzert)
Die wichtigste Theorie zum Modelllernen ist die sozial-kognitive Theorie von
BANDURA; sie geht davon aus, dass die Nachahmung eines Verhaltens sowohl von
internalen-, als auch von externalen Bedingungen abhängt.
 Bandura’s Theorie verbindet somit kognitive u. verhaltenstheoretische Aspekte.
Ob ein modelliertes Ereignis nachgeahmt wird, hängt BANDURA zufolge von 4
Prozessen ab. Dabei unterscheidet er zwischen einer Aneignungsphase
(Aufmerksamkeits- und Gedächtnisprozesse) und einer Ausführungsphase
(Motorische Reproduktions- und Motivationsprozesse):
1) Aufmerksamkeitsprozesse
 Damit ein Modell wirksam werden kann, muss es beachtet werden; insofern
spielen Aufmerksamkeitsprozesse eine entscheidende Rolle beim
Beobachtungslernen.
 Die Aufmerksamkeit wird dabei zum einen von Merkmalen des Modells
(Prestige, Kompetenz, Attraktivität, Auffälligkeit etc.), zum anderen von
Merkmalen des Beobachters bestimmt (Kompetenz, Motivation, kognitive
Kapazität etc.).
2) Gedächtnisprozesse
 Darüber hinaus muss das beobachtete Verhalten kognitiv verarbeitet und im
Gedächtnis gespeichert werden: Zu diesem Zweck muss es bildlich- oder
verbal repräsentiert und in entsprechende Schemata transformiert werden.
 Bandura betont, dass es sich bei diesem Verarbeitungs- und
Speicherungsprozess um einen aktiven Vorgang handelt; es ist daher
wichtig, zwischen dem modellierten Verhalten – und dessen innerer
Repräsentation zu unterscheiden!
11
3) Motorische Reproduktionsprozesse
 Damit ein beobachtetes Verhalten ausgeführt werden kann, muss es vorher –
mental oder physisch - geübt werden.
4) Motivations- bzw. Verstärkungsprozesse

 Ob das beobachtete- und kognitiv verarbeitete Verhalten dann tatsächlich
nachgeahmt wird, hängt schließlich von motivationalen Faktoren ab.
 Dabei unterscheidet BANDURA zwischen äußerer Verstärkung,
stellvertretender Verstärkung und Selbstverstärkung.
A) Äußere Verstärkung liegt vor, wenn der Beobachter selbst für die
Nachahmung des Verhaltens belohnt wird (tatsächliche Verstärkung).
B) Stellvertretende Verstärkung liegt dagegen vor, wenn das Modell für
das Verhalten belohnt wird.
C) Selbstverstärkung beruht auf intrinsischen Anreizen (Verhalten
verschafft hohes Selbstwertgefühl etc.)
Experimente zum Modelllernen gehen üblicher Weise in 3 Schritten vor. In einer
1. Phase wird das spontan gezeigte Verhalten in einer Situation registriert. In einer
2. Phase wird den Vpn ein Modell (Live-Situationen, Filme, Geschichten etc.)
vorgeführt, das ein bestimmtes Verhalten (z.B. Aggression) zeigt. In einer 3. Phase
wird überprüft, ob sich das Verhalten der Pbn in Abhängigkeit von dem
vorgeführten Modell verändert.
BANDURA, ROSS & ROSS (1963): Kindergartenkinder, die zuvor einen
Erwachsenen beim Ausführen aggressiver Handlungen beobachten konnten (auf
Video oder real), zeigten in einer anschließenden Spielphase doppelt so häufig
aggressive Handlungen wie Kinder aus der Kontrollgruppe; darüber hinaus ließ
sich beobachten, dass sie die zuvor gesehenen Handlungen an einer Plastikpuppe
z.T. exakt imitierten.
LEFKOWITZ (1955): Baseline: 99% der Fußgänger gehen nur bei grün über die
Straße; geht ein „Modell“ in guter Kleidung (hoher Status) bei rot über die
Ampel, halten sich nur noch 86% der Passanten an die Verkehrsregel; bei einem
schäbig gekleideten „Modell“ fällt der Effekt wesentlich geringer aus!
4.2. Interventionsmethoden nach dem Lernen am Modell




Stellvertretende Desensibilisierung: Hochängstliche Schüler werden neben
weniger ängstliche Schüler gesetzt; Grundgedanke: durch die Beobachtung wenig
ängstlicher Mitschüler Bewältigungsstrategien lernen!
Stellvertretende operante Konditionierung (Stellvertretende Verstärkung,
stellvertretende Bestrafung): Mitschüler, die in der Klasse eine herausragende
Stellung einnehmen (Modellschüler), können vom Lehrer zur stellvertretenden
Verstärkung bzw. Bestrafung genutzt werden.
 Schüler, die positiv auffallen, die Rolle des Vorbilds zuzuschieben, ist dabei
ebenso problematisch, wie Schüler die Rolle des Negativ-Beispiels zu drängen
(Vorsicht: Keine Exempel statuieren!)
Lehrer sind aufgrund ihrer herausragenden Rolle in besonderem Maße Modell
(Macht, Aufmerksamkeit etc.). Es gilt daher, ganz besonders auf eigene Äußerungen
und Verhaltensweisen zu achten: harte Bestrafung, Wutausbrüche etc. sind zu
vermeiden!
Lernen am Modell in der Gruppenarbeit, in Rollenspielen usw.!
12
5. Begriffsbildung und Wissenserwerb
5.1. Wissen und Wissenserwerb



Grundsätzlich lassen sich 2 Formen von Wissen unterscheiden:
 Das Handlungswissen (prozedurales Wissen) bezieht sich auf automatisierte
motorische und kognitive Fertigkeiten wie z.B. Fahrradfahren oder
Multiplizieren. Es ist überwiegend implizit (unbewusst).
 Unter Sachwissen (deklaratives Wissen) versteht man dagegen explizites, d.h.
bewusstes und verbalisierbares Wissen.
Im Folgenden geht es um den Erwerb von Sachwissen. Dabei handelt es sich nach
heutiger Auffassung nicht um das bloße Auswendiglernen von Fakten, sondern um
die kognitive Verarbeitung und Strukturierung von Informationen.
 Wissenserwerb meint zum einen die Bildung und mentale Repräsentation von
Begriffen, zum anderen deren Zusammenfügung und Vernetzung zu
übergeordneten Wissensstrukturen.
 Da diese Prozesse zu einem großen Teil vom Subjekt selbst ausgehen, ist der
Erwerb von Wissen als aktive, konstruktive Leistung des lernenden Subjekts
anzusehen ( Behaviorismus).
 Wissenserwerb ≠ Auswendiglernen (s.u.)
Im Folgenden wird Wissenserwerb unter den Aspekten der (1) Begriffsbildung
(Begriffe als „Bausteine des Wissens“), (2) Assimilation (Verankerung des neuen
Wissens in der kognitiven Struktur), (3) Repräsentation und (4) Vernetztheit
beschrieben.
5.2. Begriffsbildung



Ein Begriff (engl.: concept) ist die Zusammenfassung von Objekten zu Klassen
aufgrund gemeinsamer Merkmale und Beziehungen.
 Begriffe dienen also der Organisation unseres Wissens; sie helfen dabei, die
zahllosen Informationen aus unserer Umwelt mittels sinnvoll zu reduzieren.
 Begriffsbildung
beruht
dabei
auf
Generalisierungsund
Differenzierungsprozessen: Einerseits muss von den Besonderheiten des
Einzelfalls abstrahiert-, andererseits müssen die gemeinsamen
Eigenschaften erkannt und hervorgehoben werden.
 Da wir in und mit Begriffen denken, sind sie gleichermaßen Inhalt und
Instrument des Denkens. Sie sind fundamental für unser Erleben und
Verhalten!
Wie Begriffsbildung und -identifikation im Einzelnen ablaufen, ist umstritten (siehe:
Entwicklungspsychologie, Kap. 2). Feststeht, dass sowohl induktive-, als auch
deduktive Denkvorgänge eine Rolle spielen und die Entwicklung begrifflichen- und
sprachlichen Denkens sich gegenseitig beeinflussen.
 Beim induktiven Vorgehen werden die konstitutiven Merkmale eines Begriffes
aus den Daten erschlossen (Ganzheitsstrategie).
 Beim deduktiven Vorgehen werden dagegen hypothetische Annahmen darüber
gemacht, was die konstitutiven Merkmale sind, und diese Annahmen dann an der
Realität geprüft (Teilschrittstrategie).
Begriffe bzw. Kategorien sind hierarchisch geordnet. Drei Klassifikationsebenen
können unterschieden werden:
1) Eine globale bzw. übergeordnete Ebene (z.B. Tier / Fahrzeug)
2) Eine mittlere oder basale Ebene (z.B. Vögel / Autos)
3) Eine detaillierte oder untergeordnete Ebene (z.B. Schwalbe/ VW-Käfer)
13

Begriffe verfügen über eine sachliche (denotative) und eine emotionale (konnotative)
Komponente (z.B. die Begriffe „Mutter“, „Vaterland“ etc.); Begriffsbildung ist
insofern nicht zuletzt ein subjektiver, in gewissem Sinne willkürlicher Prozess.
 Die meisten Begriffe sind zwar sprachlich repräsentiert; allerdings sind Begriffe nicht
zwangsläufig an sprachliche Bezeichnungen geknüpft und in keinem Fall mit diesen
identisch (Begriff ≠ Wort)!
 Auch wenn den meisten Begriffen ein entsprechender Term (=Wort) zugeordnet
werden kann, ist zwischen der Bezeichnung und deren Bedeutung zu
unterscheiden.
 Z.B. kann ein Begriff mehrere Bezeichnungen haben (sog. Synonyme:
„Kartoffel“ und „Erdapfel“ / in verschiedenen Sprachen: „Kartoffel“ vs.
„potatoe“) oder ein Begriff durch verschiedene Namen bezeichnet werden
(sog. Homonyme: „Heide“).
 BUNGE daher Sinne eine Differenzierung zwischen Term, Begriff und
Sachverhalt vor.
 Es gibt verschiedene Theorien darüber, wie Begriffe mental repräsentiert sind. Zu
unterscheiden ist dabei u.a. zwischen merkmals- und theoriebasierten Ansätzen (siehe
Entwicklungspsychologie, Kap. 2)!
 Merkmalsbasierte Ansätze gehen entweder davon aus, dass Begriffe anhand
definierender oder anhand typischer Merkmale repräsentiert sind. Erstere
Position ist die klassische Theorie; letztere wird als Prototypentheorie
bezeichnet (s.u.).
 Theoriebasierten Ansätzen zufolge sind Begriffe nicht nur Kategorien, sondern
gleichzeitig Erklärungen. Sie enthalten in sich schon theoretische Annahmen.
Wissenserwerb und Begriffsbildung sind damit kaum voneinander zu trennen;
eine Unterscheidung zwischen „Begriffen“ und „Regeln“ bzw. „Begriffsketten“,
wie Gagné sie trifft (s.u.), ist sinnlos!
 Tatsächlich lassen sich viele Begriffe (z.B. der Begriff „Lernen“) nur vor
dem Hintergrund einer bestimmten Theorie sinnvoll erklären!
 EDELMANN unterscheidet vor diesem Hintergrund zwischen Eigenschafts- und
Erklärungsbegriffen: Erstere beruhen auf Merkmalsassoziationen; sie sind
gleichzusetzen mit Kategorien. Letztere dienen nicht nur der Kategorisierung-,
sondern auch der Erklärung von Phänomenen; sie sind an spezifische Theorien
geknüpft.
 FAZIT: Unser Wissen basiert auf Begriffen. Die Grenzen zwischen
Begriffsbildung und Wissenserwerb sind insofern fließend!
5.3. Assimilation
5.3.1. Das Regellernen nach Gagné

GAGNÉ beschreibt Wissenserwerb als den Erwerb von „Regeln“, die er als
„Begriffsketten“ definiert.
 Die Begriffe als solche enthalten demnach noch kein „Wissen“ im eigentlichen
Sinn; sie sind lediglich dessen Grundbausteine. Wissenserwerb findet erst statt,
wenn die einzelnen Begriffe sinnvoll zu „Ketten“ bzw. „Regeln“
zusammengefügt werden (Wissen als Kombination von Begriffen).
 Dabei ist zwischen „begrifflichen“ und „sprachlichen“ Ketten zu
unterscheiden. Erstere beruhen auf einem tieferen Verständnis; letztere nicht: sie
werden lediglich auswendig gelernt, ohne dass dabei die Beziehungen zwischen
den einzelnen Begriffen erfassen werden.
14




Regellernen bzw. Wissenserwerb findet GAGNÉ zufolge überwiegend durch verbale
Unterweisung statt.
 Dabei muss darauf geachtet werden, dass nicht nur sprachliche Ketten
auswendig gelernt-, sondern die Regeln verstanden werden (die einzelnen
Begriffe müssen klar sein, die begrifflichen Ketten in anderen Worten
wiedergegeben und angewandt werden können etc.)
GAGNÉ unterscheidet 3 Lernformen, die logisch aufeinander aufbauen und sich
wechselseitig bedingen:
1) Begriffsbildung => Kategorisierung
2) Wissenserwerb => Regellernen (Bildung von Begriffsketten)
3) Problemlösen => Anwendung von Regeln
Der ideale Unterrichtsaufbau sollte sich GAGNÉ zufolge an dieser hierarchischen
Abfolge orientieren. Er spricht in diesem Zusammenhang von sog.
„Lernstrukturen“.
 Konkret: Erst die Begriffe klären, dann die Regeln lehren und im letzten Schritt
das gelernte Wissen auf konkrete Probleme anwenden lassen.
Kritik: Eine saubere Trennung zwischen Begriffen und Regeln ist kaum möglich,
insofern viele Begriffe selbst schon Erklärungen sind und erst im Kontext
bestimmter Theorien Sinn ergeben (s.o.).
5.3.2. Ausubel’s Assimilationstheorie



AUSUBEL zufolge gibt es verschiedene Formen des sprachlichen Lernens. Er
unterscheidet diese anhand zweier Dimensionen:
 Entsprechend der von ihm zugrunde gelegten Dimensionen bewegt sich verbales
Lernen zwischen den Polen „sinnvoll“ – „mechanisch“ und „rezeptiv“ –
„entdeckend“.
 Die verschiedenen Arten des Wissenserwerbs lassen sich demnach in Form
einer 4-Felder-Tafel systematisieren, wobei die Übergänge zwischen den Polen
jeweils fließend sind.
„Sinnvolles Lernen“ zeichnet sich dabei durch 2 Kriterien aus:
 Erstens, sollte der Stoff inhaltlich und nicht wortwörtlich gelernt werden.
 Zweitens, muss das Gelernte zufallsfrei, d.h. sinnvoll mit dem jeweiligen
Vorwissen verknüpft werden (Assimilation).
 Dabei unterscheidet AUSUBEL, je nach Art der Verknüpfung, zwischen
unterordnendem, überordnendem und kombinatorischem Lernen.
- Beim unterordnenden Lernen (Subsumtion) ist der Allgemeinheitsgrad
des Vorwissens größer als der des neu gelernten Stoffs; dementsprechend
wird letzterer dem Vorwissen subsumiert und dient entweder der
Veranschaulichung oder der Spezifizierung des Vorwissens; beim
überordnenden Lernen ist es umgekehrt.
 Bei älteren Kindern und Erwachsenen ist die häufigste Form des Lernens die
„korrelative Subsumtion“: D.h. es besteht bereits ein allgemeines und
ungefähres Vorwissen, das durch neu Gelerntes spezifiziert und modifiziert
wird.
- AUSUBEL: „progressive Differenzierung des Wissens“
Assimilation (=Verknüpfung zwischen Vorwissen und neu Gelerntem) ist nach
AUSUBEL immer ein wechselseitiger Prozess: Neue Informationen werden in
Abhängigkeit vom Vorwissen verarbeitet und verändern ihrerseits das Vorwissen
und alte Wissensstrukturen.
 Vorwissen und neu Gelerntes beeinflussen sich also gegenseitig!
15



„Mechanisches Lernen“ meint wortwörtliches und stupides Auswendiglernen.
Inhalt und Bedeutung des Stoffes werden nicht verstanden; das Gelernte kann
dementsprechend nicht assimiliert werden.
 „Mechanisches Lernen“ im Sinne Ausubel’s entspricht dem „Lernen
sprachlicher Ketten“ bei Gagné. Beide betrachten diese Form des Lernens nicht
als Wissenserwerb.
Beim „rezeptiven Lernen“ wird der Lernstoff dem Schüler in fertiger Form
dargeboten (z.B. in Form eines Lehrervortrags oder Schulbuchkapitels); beim
„entdeckenden Lernen“ werden die Lernergebnisse vom Schüler selbst erarbeitet
(Versuche, Projekt- und Gruppenarbeit etc.)
 AUSUBEL propagiert „sinnvoll-rezeptives Lernen“ als die beste Variante,
BRUNER dagegen bevorzugt das „sinnvoll-entdeckende Lernen“ (s.u.).
Ziel des schulischen Lernens ist nach AUSUBEL die Ausbildung einer klar
gegliederten, hierarchisch geordneten Wissensstruktur. Erreicht wird dieses Ziel
primär durch sinnvoll-rezeptives Lernen, wobei die Richtung des Lernens durch
progressive Differenzierung gekennzeichnet sein sollte: Allgemeine Begriffe und
Regeln sollten durch neues Wissen spezifiziert werden.
 AUSUBEL zufolge wird Wissenserwerb also überwiegend durch deduktive
Denkprozesse vorangetrieben: Es wird vom Allgemeinen aufs Besondere
geschlossen bzw. das Besondere dem Allgemeinen zu- und untergeordnet
(unterordnendes Lernen).
5.3.3. Entdeckendes Lernen nach Bruner


Die beste Form schulischen Lernens ist nach BRUNER das „sinnvoll-entdeckende“
Lernen.
 a) weil es die intrinsische Motivation („Kompetenzmotivation“) fördert und b)
weil es zur Entwicklung einer allgemeinen Problemlösefähigkeit beiträgt!
 Letztere ist nach BRUNER oberstes Ziel des Schulunterrichts! Da schulisches
Lernen immer nur exemplarisch stattfinden kann, gilt es, positiven Transfer zu
fördern.
 Von „positivem Transfer“ spricht man, wenn früheres Lernen späteres
Lernen positiv beeinflusst. Positiver Transfer bezeichnet also die Fähigkeit,
bereits angeeignetes Wissen bzw. erworbene Fertigkeiten in neuen
Anforderungssituationen erfolgreich anzuwenden.
Während der Schulzeit sollte induktives Denken im Vordergrund stehen (vom
Besonderen zum Allgemeinen), später kann neuer Stoff dann deduktiv erschlossen
werden.
16
6. Problemlösen:
6.1. Was ist ein „Problem“?





Nach DUNCKER liegt ein Problem vor, „wenn ein Lebewesen ein Ziel hat und
nicht weiß, wie es dieses Ziel erreichen soll.“
DÖRNER: „Ein Individuum steht einem Problem gegenüber, wenn es sich in einem
inneren oder äußeren Zustand befindet, den es aus irgendwelchen Gründen nicht für
wünschenswert hält, aber im Moment nicht über die Mittel verfügt, um den
unerwünschten Zustand in einen wünschenswerteren zu überführen.“
 Ein Problem ist demnach durch 3 Merkmale gekennzeichnet:
1) Unerwünschter Ausgangszustand
2) Erwünschter Zielzustand
3) Barriere, die die Überführung des Ausgangszustandes in den Zielzustand
verhindert.
Vor diesem Hintergrund lassen sich Probleme von Aufgaben abgrenzen. Bei
letzteren ist der Lösungsweg bekannt, bei ersteren muss dieser erst erschlossen
werden.
 Je nach Problemtyp sind die Grenzen zwischen Problem und Aufgabe
allerdings fließend (s.u.).
 Prinzipiell entscheiden v.a. die individuellen Vorerfahrungen einer Person
darüber, was für sie ein Problem und was eine Aufgabe ist.
 Hat man für eine Prüfung nicht gelernt, besteht sie nicht aus Aufgaben,
sondern Problemen!
DÖRNER zufolge unterscheiden sich Probleme hinsichtlich des Bekanntheitsgrades
der Mittel und der Klarheit der Zielkriterien. Anhand dieser beiden Dimensionen
differenziert er zwischen 4 Problemtypen:
1) Sind sowohl die Mittel als auch die Zielkriterien klar, liegt eine
„Interpolationsbarriere“ vor.
 Es müssen lediglich die besten Mittel ausgewählt und korrekt angewandt
werden.
 Probleme dieser Art sind von Aufgaben nur noch schwer abzugrenzen.
2) Eine „Synthesebarriere“ liegt vor, wenn das Ziel zwar bekannt ist, aber die
Mittel zur Erreichung unklar sind.
3) Eine „dialektische Barriere“ liegt vor, wenn die Mittel zwar prinzipiell
bekannt sind, aber das Ziel unklar ist (Verschönerung des Klassenraumes etc.)
 DÖRNER: „schlecht definierte“ Probleme
4) Der 4. Problemtyp zeichnet sich durch eine Kombination aus dialektischerund Synthesebarriere aus: Weder Mittel noch Ziel sind klar!
Probleme treten in verschiedenen Realitätsbereichen auf (Beziehungsprobleme,
Autopannen, Textaufgaben etc.). Ein Realitätsbereich besteht aus Sachverhalten
und Operatoren. Operatoren sind Handlungen, die einen Sachverhalt in Richtung
Zielzustand verändern. Daraus folgt:
 Um ein Problem zu lösen benötigt der Problemlöser Wissen über den
betreffenden Realitätsbereich.
 Problemlöseprozesse lassen sich als „Suchbäume“ darstellen. In solchen
„Suchbäumen“ werden alle möglichen Zustände bzw. Sachverhalte bis zur
Erreichung des Zielzustands abgetragen und durch die jeweiligen Operatoren
verbunden.
 Die kürzeste Operatorsequenz entspricht der optimalen Problemlösung.
17
6.2. Was ist „Problemlösen“?







Ausgehend von der oben genannten Definition bezeichnet „Problemlösen“ die
planvolle Überwindung von Barrieren zur Erreichung eines Ziels.
 Ein solcher Prozess erfordert nicht nur die sinnvolle Anwendung vorhandenen
Wissens, sondern darüber hinaus die Erarbeitung neuer Lösungen.
DÖRNER unterscheidet dementsprechend zwischen 2 Ebenen bzw. kognitiven
Strukturen: der epistemischen- und der heuristischen Struktur.
 Erstere enthält das deklarative und prozedurale Wissen einer Person. Zur
Lösung von Aufgaben reicht diese Struktur aus; sie ermöglicht reproduktives
Denken.
 Die heuristische Struktur enthält sog. „Heurismen“, worunter allgemeine
Problemlöseverfahren zu verstehen sind. Ein verhältnismäßig einfacher und oft
angewandter Heurismus ist z.B. der des Versuchs und Irrtums.
 Heurismen (s.u.) kommen zur Anwendung, wenn rein reproduktives Denken
zur keiner Lösung führt; sie dienen der Konstruktion neuer Operatoren.
In der Terminologie PIAGET’S: Die epistemische Struktur dient der Assimilation
(also der Anwendung bekannter Schemata auf die Umwelt); die heuristischen Struktur
dagegen der Akkomodation (also der Anpassung der Denkstrukturen an die Umwelt).
Während unter Heurismen allgemeine Problemlöseverfahren zu verstehen sind,
bezeichnen Operatoren konkrete Handlungen, die einen bestimmten Sachverhalt in
einen anderen überführen (z.B. das Auswechseln einer Glühbirne, die Anwendung
einer Rechenformel etc.).
 Häufig angewandte Heurismen sind z.B.:
1) Versuch und Irrtum
2) Analytischer Heurismus: Aufteilung eines komplexen Problems in
Unterprobleme
3) Umstrukturierung des Problems
4) Entdeckungsheurismus => kreative Problemlösung
Problemlöseoperatoren werden durch direkte Instruktion, durch Analogiebildung
(die Lösung eines Beispielproblems wird auf das aktuelle Problem übertragen) oder
Entdeckung (schlussfolgerndes Denken; Versuch und Irrtum) erworben.
Der „Problemraum“ bezeichnet die innere Repräsentation eines Problems; er
beinhaltet das Wissen einer Peron über den betreffenden Realitätsbereich, die
Kenntnis anwendbarer Operatoren und das subjektive Verständnis der Barrieren.
 Graphisch dargestellt werden kann der Problemraum in Form eines
„Suchbaumes“, der die Menge aller möglichen Zustände und Operatoren enthält
(s.o.).
DUNKER unterteilt Problemlöseprozesse in eine Ziel- und eine Situationsanalyse.
 Bei der Zielanalyse geht es um die Frage, was gesucht ist und was nicht
(Überwindung der dialektischen Barriere).
 Die Situationsanalyse beschäftigt sich mit den Barrieren und deren
Überwindung. Dementsprechend lässt sie sich in eine Konflikt- und eine
Materialanalyse unterteilen.
 In ersterer geht es um die Frage, woran die Problemlösung scheitert, in
letzterer darum, welche Mittel bzw. Operatoren zur Lösung des Problems zur
Verfügung stehen und einsetzbar sind.
 Durch die Ziel- und Situationsanalyse ist der Problem- bzw. Suchraum
abgesteckt. Wie die anschließende Lösungssuche im Einzelnen abläuft, hängt
von den verwendeten Heurismen ab (s.o.).
18


Der Vorgang des Problemlösens kann als sog. TOTE-Einheit beschrieben werden
(„test“ => „operation“ => „test“ => „exit“).
 Nach der Durchführung einer Operation („operation“) wird deren Ergebnis
geprüft („test“); je nachdem, ob die angewandte Operation zum Zielzustand
geführt hat oder nicht, wird der Vorgang entweder beendet („exit“) oder eine
andere Operation durchgeführt („operation“).
FAZIT: Ob ein Problem gelöst wird, hängt von Merkmalen des Problems und
Merkmalen der Person ab.
 Problemmerkmale: Art der Barriere (s.o.), Komplexität; Transparenz,
Vernetztheit und Eigendynamik des Problems etc.
 Personenmerkmale: Wissensumfang und –organsiation im jeweiligen
Realitätsbereich; Verfügbarkeit von Heurismen, Motivation
6.3. Problemlösen durch Versuch und Irrtum


Beim Versuchs-und-Irrtums-Verfahren werden unsystematisch Lösungsversuche
generiert und nachträglich überprüft.
 Je größer der Problemraum, desto ineffektiver das Verfahren.
Dem klassischen Behaviorismus zufolge (THORNDIKE) erfolgt Problemlösen
überwiegend, wenn nicht ausschließlich durch Versuch und Irrtum.
Ein klassisches Beispiel ist THORNDIKE’S Vexierkäfig: Hungrige Katzen, die in
einen solchen Käfig eingesperrt werden, zeigen zunächst willkürliche
Fluchtversuche (kratzen, beißen etc.), bis sie durch Zufall auf den Mechanismus
(Hebel) stoßen, mit dem der Käfig geöffnet werden kann.
6.4. Problemlösen durch Umstrukturierung



Die Gestaltpsychologen (WERTHEIMER, DUNCKER, KÖHLER) wenden sich gegen die
behavioristische Sichtweise. Sie beschreiben das Lösen von Problemen als
Umstrukturierung der Wahrnehmung. Zu dieser Umstrukturierung kommt es nicht
durch Versuch und Irrtum, sondern durch „Einsicht“.
KÖHLER untersuchte diesen Prozess anhand zahlreicher Versuche mit Affen.
Eines der bekanntesten Beispiele ist der Affe „SULTAN“, der plötzlich auf die
Idee kommt („Aha-Erlebnis“), zwei Stangen ineinander zu stecken, um damit an
Futter außerhalb des Käfigs zu gelangen.
Die Gestaltpsychologie geht davon aus, dass wir zu einer ganzheitlichen
Wahrnehmung tendieren (Gesetz der guten Gestalt). Probleme zeichnen sich durch
eine unklare Gestalt aus: sie sind unüberschaubar und verwirrend. Der
Problemlöseprozess besteht darin, die Wahrnehmung der jeweiligen Situation so
umzustrukturieren, dass die einzelnen Teile (z.B. Sultan’s Stock) neu gewichtet
werden und in Bezug auf das Ziel Sinn ergeben.
 Dieser Prozess kann entweder sukzessive oder schlagartig erfolgen. In letzterem
Fall spricht man von einem „Aha-Erlebnis“: die Wahrnehmung der Situation
kippt wie bei einem Vexierbild um!
DUNCKER beschreibt den Prozess der Umstrukturierung als Situations- und
Zielanalyse (s.o.).
 Ihm zufolge entspricht die präziseste Fassung eines Problems dessen Lösung!
19


Die Umstrukturierung der Wahrnehmung erfordert Kreativität.
 Kreativen Problemlösungen geht häufig eine Inkubationszeit voraus, in der sich
das Subjekt vorübergehend vom Problem abwendet. Vermutlich wird dadurch
die Tendenz geschwächt, bereits ausprobierte und fehlgeschlagene
Lösungsversuche zu wiederholen bzw. in festgefahrenen Denkmustern zu
verharren!
 Nach GUILFORD zeichnet sich kreatives Denken durch 4 Aspekte aus:
1) Sensitivität gegenüber Problemen (erfordert nicht zuletzt Wissen)
2) Flüssigkeit des Denkens (Anzahl der Ideen, Assoziationen etc.)
3) Flexibilität des Denkens (Wechsel von Bezugssystemen etc.)
4) Originalität des Denkens (Neuheit/Seltenheit der Produkte)
In der Schule wird kreatives Denken häufig behindert (s.u.): Konventionelle
Problemlösungen werden gefördert; strikte Erfolgsorientierung; Vermeidung von
Misserfolgen; bürokratisch-administrative Organisation der Unterrichtsarbeit
(festgelegte Stundendauer etc.); extrinsische Motivation; Konformitätsdruck etc.
Methoden zur Anregung kreativer Problemlösungen (v.a. bei dialektischen Problemen
zu empfehlen):
 Brainstorming: Sammeln von Lösungsvorschlägen in der Gruppe (Wichtig:
die verschiedenen Lösungsvorschläge dürfen während des Brainstormings nicht
bewertet werden; die Durchführbarkeit der Vorschläge spielt in der
Sammelphase eine untergeordnete Rolle)
 Methode 635: eine Art schriftliches Brainstorming, bei dem negative
Gruppenprozesse ausgeschaltet werden; jeder von 6 Personen schreibt 3
Lösungsvorschläge auf einen Zettel (5 Minuten Zeit) und gibt den Zettel an
seinen Nachbarn weiter, der 3 weitere Vorschläge notiert. Der Vorgang wird
solange wiederholt (6 Mal), bis jeder Teilnehmer auf jeden Zettel 3 Vorschläge
notiert hat.
 Morphologischer Kasten: Das zu lösende Problem wird in seine
Problembestandteile zerlegt, für die dann jeweils einzeln Lösungen gesucht
werden.
6.5. Problemlösen durch Systemdenken


Bei komplexeren Problemen geht es nicht um die Erreichung eines Ziels, sondern der
Problemlöser sieht sich mit einer Vielzahl möglicher Ziele („Polytelie“) konfrontiert,
die sich u.U. sogar widersprechen.
 Weitere Merkmale von komplexen Problemen: Vielzahl von Variablen,
intransparente Situation (fehlende Informationen), wechselseitige Abhängigkeit,
Eigendynamik
In diesem Fall erfordert das Lösen von Problemen die Fähigkeit zu vernetztem
Denken; statt linear in den Kategorien Ursache und Wirkung zu denken, müssen
Neben- und Wechselwirkungen beachtet werden.
Untersucht wurde diese Art des Problemlösens u.a. anhand des
„Lohhausenproblems“ (DÖRNER): Dabei schlüpfen die Pbn im Rahmen einer
Computersimulation für mehrere Sitzungen in die Rolle eines Bürgermeisters.
 Die Ergebnisse solcher Studien zeigen, dass sich die meisten Menschen mit
komplexeren Problemen äußerst schwer tun. Neben- und Wechselwirkungen
werden übersehen, die Eigendynamik der Situation nicht bedacht und
langfristige Konsequenzen falsch eingeschätzt. Ein großer Anteil der Vpn
wirtschaftet Lohhausen in kürzester Zeit in den Bankrott!
 Bemerkenswert: Die Leistungen in komplexen Problemlöseaufgaben sind
nicht durch den IQ vorhersagbar (siehe: Differentielle Psychologie)!
20
6.6. Schlussfolgerndes Denken




Schlussfolgerndes Denken bedeutet allgemein, von etwas Gegebenem zu etwas
Neuem zu kommen.
Drei Formen des schlussfolgernden Denkens sind zu unterscheiden (Es gibt 3
Schlussfolgerungsmethoden bzw. Inferenzen in der Logik):
1) Deduktives Schließen
 Von gegebenen Sachverhalten wird auf weitere geschlossen; dazu muss
man erkennen, welche weiteren Sachverhalte in dem gegebenen impliziert
(mit eingeschlossen) sind.
 Kurz: Es wird vom Allgemeinen auf das Besondere geschlossen!
2) Induktives Schließen
 Aus einer Folge wiederkehrender Phänomene wird auf allgemeine
Regelmäßigkeiten oder Gesetzmäßigkeiten geschlossen;
 Kurz: Vom Besonderen (von Einzelbeobachtungen) wird aufs Allgemeine
geschlossen!
 Im Vergleich zur Deduktion ist die Induktion eine nicht ganz korrekte
Schlussweise, da es immer Ausnahmen geben kann, die noch nicht
beobachtet wurden (Vgl.: Popper’s schwarzen Schwan).
 Wichtig bei der Begriffsbildung, der Generierung von Hypothesen und der
Voraussage von Ereignissen.
 Letztlich wird all unser Wissen über Induktion gewonnen!
3) Analoges Schließen
 Von der Übereinstimmung in einigen Punkten (Ähnlichkeit) wird auf
Entsprechung auch in anderen Punkten bzw. auf die Gleichheit von
Verhältnissen geschlossen.
 Kurz: Etwas Bekanntes nutzen, um etwas noch Unbekanntes (aber
Ähnliches) zu verstehen: Z.B.
Nach PIAGET entwickelt sich die Fähigkeit zu schlussfolgerndem Denken erst auf der
Stufe des formal-operativen Denkens, also ab dem 11./12. Lebensjahr.
Neure Untersuchungen widersprechen dem aber; sie legen nahe, dass Kinder schon
früh zu schlussfolgerndem Denken in der Lage sind – sofern man ihnen nur die
richtigen Aufgaben stellt.
Induktives Schließen: Anhand von Syllogismusaufgaben (Gesetz, Prämisse =>
Consecutio) zeigen DIAS & HARRIS, dass bereits 5- bis 6-jährige Kinder zu
induktiven Schlüssen in der Lage sind.
Analoges Schließen:
EXPERIMENT (Holyoack et al., 1984): Der Magier und seine Strategie
Kleinkinder bekommen eine von 2 Geschichten vorgelesen. Im nachfolgenden
Versuchsabschnitt müssen sie Bälle in ein entferntes Gefäß befördern, ohne
dabei vom Stuhl aufzustehen. Haben die Kinder zuvor die Geschichte gehört, in
der ein Magier seinen Teppich zu einer Röhre rollt, um Edelsteine durchgleiten
zu lassen, rollen sie ein Stück Papier zusammen und lassen die Bälle dadurch ins
Gefäß rollen. Ihnen gelingt ein Analogie-Schluss!
21
6.7. Erfolgreiche und erfolglose Problemlöseprozesse



Erfolgreiche Problemlöser weisen nach DÖRNER folgende Merkmale auf:
1) Umgang mit Komplexität
 Vernetztes statt lineares Denken: die Struktur und Dynamik von Systemen
erkennen; Fähigkeit zur Strukturierung von Problemsituationen
2) Spezifische intellektuelle Leistungsfähigkeit
 IQ spielt eine untergeordnete Rolle; wichtiger sind ein breit gefächertes
Wissen (Kenntnis verschiedener Realitätsbereiche) und die Fähigkeit zu
analogem und deduktivem Denken.
3) Entscheidungsfreudigkeit
 Es werden relativ viele Hypothesen generiert und überprüft (Fähigkeit zu
induktivem Denken)
4) Selbstsicherheit
 Mut zum Fehler; Unsicherheit aushalten; keine übertriebene Tendenz, ein
positives Fähigkeitsselbstkonzept aufrecht zu erhalten
5) Verantwortung und Stabilität des Handelns
 Ausdauer; keine Delegation von Problemen; kein Ausweichen auf
unbedeutende Nebenfragen
Analogien (Ähnlichkeiten) erleichtern das Lernen und Verstehen von Sachverhalten
und fördern Problemlöseprozesse.
 Beim analogen Denken werden bereits bekannte Schemata auf einen anderen
Bereich übertragen und dadurch neue Schemata gebildet (Transfer).
 Z.B. wird der Aufbau des Atoms häufig anhand des Sonnensystems erklärt.
 Im Zusammenhang mit dem Lösen von Problemen bedeutet Analogiebildung,
dass das Lösungsprinzip eines Problems auf ein anderes Problem übertragen
wird. Die große Wirkung solcher Prozesse auf das Lösen von Problemen konnte
experimentell vielfach nachgewiesen werden.
HOLYOACK et al. gab seinen Pbn folgendes Problem vor: Die Vpn sollten
sich in die Lage eines Arztes versetzen, der einen bösartigen Tumor zu
behandeln hat. Das Problem besteht darin, dass die Bestrahlung, die nötig
wäre, um diesen Tumor zu beseitigen, auch das gesunde Gewebe schädigen
würde.
 Ohne entsprechende Hilfe können nur wenige Pbn dieses Problem
lösen; gibt man ihnen aber zusätzlich eine Geschichte zu lesen, in der
ein analoges Problem behandelt wird, gelingt es den meisten, das
Lösungsprinzip zu übertragen. (In der analogen Geschichte geht es
darum, dass ein General eine Festung von allen Seiten stürmen lässt,
weil die Straßen vermint sind, und immer nur von einigen wenigen
Soldaten passiert werden können).
Die Art der Instruktion (Lehrmethode) hat Einfluss auf die Transfer- und
Behaltensleistung in Problemlöseaufgaben.
 KANTONA hat diesen Effekt anhand seiner berühmt gewordenen
„Streichholzaufgaben“ eindrücklich nachgewiesen.
In diesen Streichholzaufgaben geht es darum, durch das Umlegen einer
vorgegeben Anzahl von Streichhölzern neue Figuren herzustellen (z.B. aus
5 Quadraten 4 Quadrate zu legen). Das Prinzip wurde den Pbn in einer
Übungsphase erklärt und in einem unmittelbar darauf folgenden und einem
Nachtest (4 Wochen später) anhand bekannter und neuer Beispiele
überprüft.
UV: Variiert wurde lediglich die Art der Instruktion in der Übungsphase.
22
Gruppe A (Einprägenlassen der Lösung): Einem Teil der Pbn wurden die
einzelnen Lösungsschritte mehrmals hintereinander in der gleichen Weise
erklärt (=> mechanisches Einprägen).
Gruppe B (Unterstütztes Lernen): Einem anderen Teil wurden die
Lösungsschritte erst erklärt, nachdem die Pbn sich kurz selbst an der
Lösung versucht hatten; die Erklärung zielte dabei auf das Verständnis der
Pbn. Sie erfolgte an 2 Beispielen, wurde aber nicht so oft wiederholt!
Gruppe C (Darbietung einer abstrakten Regel): Der 3. Versuchsgruppe
wurden nicht die einzelnen Lösungsschritte erklärt, sondern die allgemeine
Regel 2 Mal vorgelesen und an 2 Beispielen angewendet.
Kontrollgruppe: Die Kontrollgruppe nahm an keiner Übungsphase teil.
 Wie zu erwarten erzielte die Kontrollgruppe in dem Nachtest die
schlechtesten Ergebnisse.
 Die 2. Versuchsgruppe erzielte die besten Ergebnisse; Vpn, denen die
Lösung einsichtig erklärt worden war, hatten mit unbekannten
Aufgaben genauso wenige Probleme wie mit bekannten.
 Gleiches gilt für die 3. Versuchsgruppe, die insgesamt aber weniger
Punkte erzielte.
 Gruppe A erzielte lediglich bei bereits bekannten Aufgaben hohe
Punktwerte, nicht aber bei unbekannten.
Eine sinnvolle Instruktion anhand von Beispielen unter aktiver
Beteiligung der Schüler begünstigt positiven Transfer und führt v.a.
auf längere Sicht zu besseren Leistungen als mechanisch eingeprägte
Lösungswege oder die Vermittlung einer abstrakten Regel!
6.8. Mögliche Hindernisse beim Problemlösen



Behinderung aufgrund vorhandenen Wissens
KARMILOFF-SMITH: 4- und 8-jährige Kinder sollten die Gleichgewichtspunkte
von Stäben bestimmen, wobei an manchen Stäben ein für die Kinder nicht
sichtbares Gewicht angebracht war. Die 8-jährigen Kinder, die bereits wussten,
dass der Schwerpunkt von Objekten im Allgemeinen in der Mitte liegt, hatten
bei dieser Aufgabe größere Probleme als die jüngeren Kinder, die nach einer
Versuch-und-Irrtums-Strategie vorgingen.
Behinderung aufgrund von vorhergehender Übung
 Hat sich eine Strategie als erfolgreich erwiesen, bleibt man häufig in ihr
befangen, obwohl neue Strategien effektiver wären.
LEVINE: Sollen Vpn zwischen 2 Buchstaben (A oder B) wählen und war in
einem ersten Durchlauf die Lösung abhängig von der Positionssequenz („2 Mal
rechts, ein Mal links, 2 Mal rechts“) kommen die meisten Pbn erst spät auf die
einfachere Lösung des 2. Durchgangs („wähle immer A“).
Behinderung aufgrund der „funktionellen Gebundenheit“ von Objekten
DUNCKER: Gegeben sind eine Schachtel Streichhölzer, Reisnägel und eine
Kerze. Aufgabe ist es, die Kerze an einer Tür zu befestigen. Weniger als die
Hälfte der Pbn kommt auf die Idee, die Streichholzschachtel mit einzubeziehen,
da diese lediglich in ihrer fixierten Funktion (Aufbewahrungsort)
wahrgenommen wird.
23
6.9. Wie Problemlösefähigkeiten im Unterricht gefördert werden können








Vgl. BRUNER: „sinnvoll-entdeckendes Lernen“ (Experimente etc.) => fördert
induktives Denken und die allgemeine Problemlösefähigkeit
 je nach Anzahl der Vorgaben: „geleitetes entdeckendes Lernen“
Analoges Denken fördern => Transferaufgaben (im Gegensatz zu
Reproduktionsaufgaben)
Deduktives Schlussfolgern üben
Förderung vernetzten Denkens => Auf Zusammenhänge hinweisen,
fächerübergreifender Unterricht etc.
Zu Versuch und Irrtum animieren => keine Lösungen vorgeben; die Schüler
Hypothesen generieren lassen etc.
Förderung kreativen Denkens => verschiedene Lösungen zulassen; (kreatives
Schreiben; Brainstorming, Methode 635, Morphologischer Kasten)
Entsprechende Strategien lehren (z.B. die Methode des „lauten Denkens“; Probleme
strukturieren üben, etc.)
Entsprechende Instruktionen geben (Kein mechanisches Auswendiglernen, sondern
Verständnis fördern), die Schüler selber probieren lassen etc.
24
7. Das Gedächtnis
7.1. Das Mehrspeichermodell (Atkinson & Shiffrin)


Im Grunde stehen alle neueren Gedächtnismodelle unter dem Paradigma der
Informationsverarbeitung.
 Dabei wird der menschliche Geist in Analogie zum Computer als
Verarbeitungs- und Speichermedium beschrieben.
Das Mehrspeichermodell von ATKINSON & SHIFFRIN geht von 3 funktionell
verschiedenen Gedächtnistypen bzw. Stadien der Informationsverarbeitung aus.
7.1.1. Ultrakurzzeitgedächtnis (auch: sensorisches Register)



Im UKZG werden zunächst alle eintretenden Reize gespeichert; allerdings nur für
äußerst kurze Zeit (ca. 0,5 bis 2 Sek.), da die Information fortwährend durch neues
Material verdrängt wird.
SPERLING (1960/63): Vollständige Speicherung im ikonischen Gedächtnis
Vpn bekommen für kurze Zeit eine aus 9 Buchstaben bestehende Matrix
dargeboten.
Methode des vollständigen Berichtens: Vpn können nur 3-4 Buchstaben
wiedergeben.
Methode des teilweise Berichtens: Wissen die Vpn vor der Darbietung, dass sie
danach nur eine Zeile wiedergeben müssen, können sie diese danach
wiedergeben, auch wenn sie vorher nicht wussten, welche!
 Ergo: Die gesamte Information (Matrix) muss – zumindest kurz –
abgespeichert worden sein!
Der Zugang zum UKZG ist aufmerksamkeitsunabhängig (präattentiv); eine
semantische Verarbeitung findet auf dieser Ebene noch nicht statt (präkategorial).
 Zweck des sensorischen Speichers ist eine kontinuierliche Wahrnehmung trotz
diskontinuierlicher Reizaufnahme.
Je nach Reizmodalität kann das sensorische Register in verschiedene
„Gedächtnisse“ unterteilt werden:
 Das ikonische Gedächtnis dient z.B. der Speicherung visueller Reize; im
echoischen Gedächtnis werden akustische Reize abgebildet.
7.1.2. Kurzzeitgedächtnis (auch: Arbeitsspeicher)



Das KZG dient nicht nur der kurzfristigen Speicherung von Information (bis zu 30
Sek.), sondern v.a. deren Verarbeitung (daher auch: Arbeitsgedächtnis).
 Die Kapazität des Arbeitsspeichers ist begrenzt; sie entspricht der sog.
Gedächtnisspanne (Anzahl der in korrekter Reihenfolge reproduzierten Items)
und umfasst ca. 7 (plus/minus 2) Items bzw. Informationseinheiten.
Durch Wiederholung und Elaboration der im KZG gespeicherten Informationen
werden diese vom KZG ins LZG übertragen (s.u).
 Informationen, die weder ins Langzeitgedächtnis übertragen-, noch im KZG
erhalten werden können, gehen verloren. Das KZG wird daher oft mit einem
Flaschenhals verglichen.
Als empirischer Beleg für die Existenz des Kurzzeitgedächtnisses gilt u.a. der
Primacy-Recency-Effekt. Die ersten und letzten Items einer Serie können besser
reproduziert werden als die mittleren.
 Erklärung: Die ersten Items einer Reihe können öfter wiederholt werden, da der
Arbeitsspeicher anfangs noch leer ist. Dementsprechend werden sie besser ins
LZG übertragen (Primacy-Effekt); sobald mehr als 7 Items dargeboten wurden,
ist die Kapazität des KZG erschöpft. Items müssen ausgeschieden werden, ohne
25


vorher ins LZG übertragen werden zu können. Die letzten Items können nur
deshalb abgerufen werden, weil sie sich noch im KZG befinden.
ATKINSON & SHIFFRIN zufolge hängt die dauerhafte Speicherung von Informationen
v.a. von deren Wiederholung ab. Durch ständige Wiederholung (Memorieren) bleibt
die Information länger im KZG erhalten und wird dadurch besser ins LZG übertragen.
 Dass Wiederholung (rehearsal) tatsächlich eine effektive Gedächtnisstrategie ist,
die zu besseren Leistungen führt, ist experimentell vielfach nachgewiesen
worden.
Eines der bekanntesten Beispiele ist ein EXPERIMENT von FLAVELL:
Kindergartenkindern, Zweit- und Fünftklässlern wurde eine Serie von
Bildern gezeigt mit der Aufforderung, sie sich in der richtigen Reihenfolge
zu merken. Nach der Präsentation bekamen die Kinder 15 Sek. Zeit, sich auf
die Reproduktion der Sequenz vorzubereiten.
10 % der Kindergartenkinder bewegten dabei ihre Lippen oder wiederholten
die Wörter laut; von 5-Klässlern wendeten 85% diese Strategie an!
Außerdem konnte für jede Altersgruppe gezeigt werden, dass die
Anwendung der Wiederholungsstrategie zu besseren Leistungen führt.
Ob Informationen vom KZG ins LZG übertragen werden, hängt aber nicht nur von
deren Wiederholung ab, sondern auch von der Organisation und Elaboration des
jeweiligen Materials.
 Die Organisation von Informationen zielt auf deren Vereinfachung ab
(reduktive Kodierung): Ein häufig angewandtes Organisationsprinzip ist z.B. die
Kategorisierung nach Oberbegriffen oder die assoziative Verknüpfung neuer
Infos (kategoriales und assoziatives Gruppieren, Clustering etc.). Auf diese
Weise können mehrere Informationen zu Einheiten zusammengefasst- und
dementsprechend leichter verarbeitet werden.
CHASE & SIMON (1973): Chunking bei Schachexperten
Schachexperten sind wesentlich besser darin, komplexe Schachstellungen zu
rekonstruieren als Schachnovizen; allerdings nur, wenn es sich bei den
Vorgaben um sinnvolle- und nicht zufällige Schachpositionen handelt.
 Erklärung: Experten sind dazu in der Lage, beim Enkodieren jeweils
mehrere Figuren zu Mustern zusammenzufassen. Sie merken sich nicht
Einzelpositionen,
sondern
typische
Konstellationen
(z.B.
„Königsstellung“) => Eine solche Informationsverdichtung (Chunking)
erleichtert nicht nur die Speicherung, sondern auch den Abruf der
betroffenen Informationen: Die Experten erinnerten sich „klumpenweise“
an die Positionen der Vorlage!
CHI zeigte anhand eines analogen Experiments mit Kindern, dass durch
Vorwissen
bzw.
Expertise
sogar
Altersunterschiede
in
der
Gedächtnisleistung nivelliert werden.
SCHNEIDER zeigte 7- und 10-jährigen Kindern verschiedene Bilder und
forderte sie explizit dazu auf, „alles zu tun, was ihnen später hilft, sich an die
Dinge zu erinnern.“
 Von den 7-jährigen Pbn ordneten nur 10% die Bilder nach ihrer
Kategorienzugehörigkeit (z.B. Tiere, Fahrzeuge, Möbel etc.) von den
10-jährigen wandten 60% diese Strategie an und erzielten
dementsprechend bessere Ergebnisse.
 Von Elaboration spricht man, wenn neue Informationen mit bereits Bekanntem
verknüpft werden, z.B. indem der Lernstoff durch bekannte Details angereichertoder in eigenen Worten ausgedrückt wird (elaborative Kodierung).
 „Reconstructive memory“ (s.u.)
26

Sowohl die Organisation als auch die Elaboration von Informationen erfordert
Vorwissen. Insofern findet die Informationsverarbeitung im Arbeitsgedächtnis nicht
unabhängig vom LZG statt. Das KZG ist gewissermaßen die Schnittstelle zwischen
bereits bekannten- und neuartigen Informationen. Es aktiviert die relevanten Inhalte
im LZG und verbindet diese mit dem jeweils neuen Material.
 ERGO: Nach dem Mehrspeichermodell erfolgt der Informationsfluss zwar in
eine Richtung (UKZG => LZG); das LZG ist aber an allen Stufen der
Informationsverarbeitung beteiligt.
7.1.3. Langzeitgedächtnis




Im LZG sind alle Informationen aus zurückliegenden Denk- und Lernprozessen
dauerhaft gespeichert; gleichzeitig steuern die im LZG gespeicherten Inhalte die
Informationsverarbeitung im Arbeitsgedächtnis (s.o.).
 Insofern ist das LZG gleichermaßen Folge- und Voraussetzung von
Lernprozessen!
Die Kapazität des LZG ist vermutlich unbegrenzt.
Informationen, die im LZG gespeichert wurden, gehen nicht vollständig verloren;
wenn sie „vergessen“ werden, sind sie lediglich nicht mehr zugänglich.
Das zeigen u.a. entsprechende Hypnose-Experimente (TRUE). Vpn, die in
Hypnose versetzt wurden, können sich überzufällig oft daran erinnern, auf
welchen Wochentag ihr 4., 7. und 10. Geburtstag gefallen ist. Vpn im
Wachzustand können dagegen nur raten.
EBBINGHAUS (1911): Was man schon einmal gelernt hat, lernt man beim
nächsten Mal wesentlich schneller; selbst, wenn der Stoff erst Jahre später
wiederholt wird (Ebbinghaus lernte zu diesem Zweck Stanzen aus Byron’s „Don
Juan“ auswendig und lernte sie 17 Jahre später nochmals).
Das LZG lässt sich in ein explizites- und implizites Gedächtnis unterteilen:
 Das explizite Gedächtnis umfasst bewusst verfügbare Wissensinhalte, die
verbalisiert werden können und deshalb auch als deklaratives Wissen bezeichnet
werden.
 Dazu gehört das Sach- bzw. Weltwissen einer Person (semantisches
Gedächtnis) ebenso wie das Wissen um persönlich erfahrene Episoden
(episodisches Gedächtnis).
 Die im impliziten Gedächtnis gespeicherten Inhalte sind unbewusst und
werden als nicht-deklaratives Wissen bezeichnet.
 Dazu gehört zum einen das prozedurale Wissen einer Person. Damit sind
psychomotorische und kognitive Fertigkeiten wie Skifahren oder Rechnen
gemeint; also Handlungsabläufe und Fertigkeiten, die aufgrund hinreichender
Übung automatisiert ablaufen.
 Ebenfalls unbewusst und damit dem impliziten Gedächtnis zuzuordnen ist
das perzeptuelle Gedächtnis einer Person, das die schnellere Erkennung
„geprimter“ Reize ermöglicht. Beim „priming“ („vorwärmen“ bzw.
vorbereiten) wird die Wahrscheinlichkeit, einen Reiz wiederzuerkennen
dadurch erhöht, dass zuvor ein assoziativ damit verknüpfter Gedächtnisinhalt
aktiviert wird. Diese „assoziative Aktivierung“ kann bewusst oder unbewusst
(subliminal) erfolgen.
Explizites Gedächtnis
(deklarativ)
Episodisches
Gedächtnis
Semantisches
Gedächtnis
Implizites Gedächtnis
(nicht-deklarativ)
Prozedurales
Gedächtnis
Perzeptuelles
Gedächtnis
27
A) Episodisches Gedächtnis



Das episodische Gedächtnis bezieht sich auf persönlich erfahrene Ereignisse; es
enthält nicht nur die Informationen als solche, sondern auch deren Kontext, also wann
und wo sie erlebt bzw. gespeichert wurden.
Es wird allgemein angenommen, dass die Inhalte des episodischen Gedächtnisses
weniger vernetzt und daher störungsanfälliger sind.
Das episodische Gedächtnis kann z.B. anhand von Lernexperimenten mit sinnarmen
Material (z.B. sinnlose Silben) untersucht werden, da in diesem Fall keine semantische
Verarbeitung stattfinden kann.
Klassisch sind in diesem Zusammenhang die Experimente von EBBINGHAUS,
der sinnfreie Silben auswendig lernte und anhand von regelmäßigen Nachtests
sog. „Vergessenskurven“ erstellte.
 Die typische Vergessenskurve ist durch einen steilen Anfangsabfall und
einen asymptotischen Verlauf gekennzeichnet.
 Der genaue Verlauf ist u.a. abhängig von der Art des Lernmaterials (sinnlos
vs. sinnvoll), der Prüfmethode (Reproduktion vs. Wiedererkennung), der
Anzahl der Wiederholungen und Darbietungen, der Aufteilung des
Lernstoffs und der Anzahl der beteiligten Sinne (s.u.).
B) Semantisches Gedächtnis und Wissensrepräsentation



Das semantische Gedächtnis enthält das Sach- und Faktenwissen einer Person, man
spricht auch von begrifflichem Wissen.
Das begriffliche oder semantische Wissen einer Person ist generativ: es kann nicht nur
abgerufen und reproduziert werden, sondern ermöglicht darüber hinaus das
Erschließen neuer Sachverhalte.
Darüber, wie Wissen bzw. Begriffe im semantischen Gedächtnis repräsentiert sind,
gibt es verschiedene Theorien (s.u.).
 Prinzipiell
wird
zwischen
bedeutungs-,
wahrnehmungsund
handlungsbasierten Repräsentationsformen unterschieden.
 Was die bedeutungsbasierte Wissensrepräsentation betrifft ist zwischen
propositionalen- und semantischen Netzwerkmodellen zu unterscheiden. Hinzu
kommen verschiedene Theorien zur Begriffsbildung.
7.2. Genaueres zum Kurzzeitgedächtnis
7.2.1. Alan Baddeley


BADDELEY & HITCH zufolge ist das Kurzzeitgedächtnis kein einfacher
Zwischenspeicher, sondern ein modular aufgebautes Arbeitsgedächtnis, das aus einer
zentralen Exekutive und zwei modalitätsspezifischen Dienstleistungssystemen besteht:
 Die zentrale Exekutive ist modalitätsunspezifisch und dient v.a. der
Aufmerksamkeitslenkung und Kontrolle.
 Die artikulatorische oder phonologische Schleife („phonological loop“) ist für
die Verarbeitung und Bereithaltung verbaler Informationen zuständig.
 Bildhafte Infos werden im „visuell-räumlichen Notizblock“ verarbeitet.
Die Wiederholung von Informationen in der artikulatorischen Schleife
(„phonological loop“) bzw. dem visuell-räumlichen Notizblock (visuo-spatial scratch
pad“) dient dabei weniger der Übertragung von Informationen ins LZG, als vielmehr
der Bereithaltung relevanter Infos im Arbeitsgedächtnis.
Als empirischer Beleg für dieses Modell kann u.a. der sog. „Wortlängeneffekt“
gelten, dem zufolge die Behaltensleistung eine Funktion der Wortlänge ist. Es
können z.B. können mehr 2-silbige Wörter kurzfristig gespeichert werden als 5silbige.
28
7.2.2. Robbie Case

ROBBIE CASE erweitert das Modell vom KZG, indem er zwischen Arbeits- und
Kurzzeitspeicher differenziert.
(1) „Operating space“ (Arbeitsspeicher): zuständig für die kognitiven Prozesse, die
zu einem gegebenen Zeitpunkt gerade durchgeführt werden.
(2) „Storage space“ (Kurzzeitspeicher): zuständig für die Speicherung der
Ergebnisse gerade abgelaufener Prozesse.
7.3. Das Einspeichermodell nach Craik & Lockhart




Das Einspeichermodell von CRAIK & LOCKHART geht davon aus, dass es neben dem
LZG keine weiteren Speichereinheiten gibt.
 Das KZG ist demzufolge kein eigenständiger Speicher, sondern lediglich der
aktuell aktivierte Teil des Langzeitgedächtnisses.
Statt von verschiedenen Gedächtnistypen auszugehen, gehen CRAIK & LOCKHART von
verschiedenen Verarbeitungsebenen aus (=> prozessorientierter Ansatz).
 Unterschieden wird dabei zwischen einer „oberflächlichen“ und einer „tiefen“
Verarbeitung.
 Ein Wort wie „HASE“ kann z.B. orthographisch, phonologisch,
lexikalisch und semantisch verarbeitet werden. Die orthographische
Verarbeitung ist am oberflächlichsten, da sie sich lediglich an sensorischäußerlichen Merkmalen (Schreibweise, Schrifttyp etc.) orientiert, die
semantische Verarbeitung ist am tiefsten, insofern die Bedeutung erfasst
und in einen semantischen Kontext gestellt wird.
Je tiefer die Verarbeitung einer Information, desto umfassender wird diese gespeichert
und später erinnert.
Die Annahme, dass die einzelnen Verarbeitungsebenen sequentiell durchlaufen
werden, Informationen also zunächst oberflächlich und erst danach tief verarbeitet
werden, wurde fallengelassen. In einer neueren Version des Modells wird stattdessen
von einer simultanen Verarbeitung ausgegangen.
 Statt von Verarbeitungstiefe wird dementsprechend von Verarbeitungsbreite
gesprochen.
29
8. Wissensrepräsentation
8.0. Einleitung



Wissen basiert auf der mentalen Repräsentation äußerer Gegebenheiten.
Auf einer basalen Ebene kann dabei zwischen wahrnehmungs- und
bedeutungsbasierten Formen der Wissensrepräsentation unterschieden werden.
 Die wahrnehmungsbasierte Repräsentation von Wissen ist bildhaft und analog
(ähnlich) zu den sensorisch-perzeptuellen Qualitäten der abzubildenden Objekte.
 Die bedeutungsbasierte Repräsentation beruht auf mehr oder minder abstrakten
Begriffen.
Schematisch können die verschiedenen Aspekte der Wissensrepräsentation
folgendermaßen dargestellt werden:
Repräsentationsformen des deklarativen Wissens
Bedeutungsbasierte, aussagenartige
Repräsentation (abstrakt)
Propositionale
Netzwerke
semantische
Netzwerke
wahrnehmungsbasierte,
bildhaft-anschauliche
Repräsentation (analog)
Schemata
8.1. Bedeutungsbasierte Repräsentation


Bezüglich der abstrakten Repräsentation von Wissen stellen sich 2 Fragen:
1) Wie sind die einzelnen Begriffe, aus denen sich unser Wissen zusammensetzt,
repräsentiert?
2) Wie ist unser Wissen als Ganzes organisiert?
Auch wenn beides miteinander zusammenhängt, wird im Folgenden zwischen
Modellen zur Begriffsbildung und Modellen zur Wissensrepräsentation unterschieden.
8.1.1. Verschiedene Modelle zur Repräsentation von Begriffen
8.1.1.1. Die klassische Theorie (deterministisches Merkmalsmodell)



Die klassische Theorie geht davon aus, dass Begriffe anhand ihrer definierenden
Merkmale und deren Verknüpfung repräsentiert sind.
 Die Verknüpfung bzw. Kombination der einzelnen Merkmale erfolgt dabei nach
formal-logischen Regeln (Affirmation, Konjunktion, Disjunktion etc.).
 Beispiel: „Eine Großmutter ist die Mutter von einem der Elternteile.“
Begriffe werden also aufgrund von Merkmalskombinationen gebildet, die für alle
Elemente einer Kategorie zutreffen. Je größer die Anzahl „kritischer Attribute“, desto
kleiner die Kategorie. Anders ausgedrückt: Je spezifischer der Begriffsinhalt, desto
kleiner der Begriffsumfang!
Kritik: Das Hauptproblem deterministischer Theorien liegt darin, dass es nicht für
alle Begriffe hinreichende Definitionskriterien gibt. Die meisten im Alltag
verwendeten Begriffe sind unscharf und kontextabhängig.
 Was z.B. sollen die definitorischen Merkmale des Begriffs „Spiel“ sein?
WITTGENSTEIN
(1953)
widerlegt
anhand
dieses
Begriffs
die
sprachphilosophische Position, dass „gleicher Begriff gleiche Extension der
Merkmale“
bedeutet.
Er
schlägt
stattdessen
den
Begriff
der
„Familienähnlichkeit“ vor.
30
8.1.1.2. Die Prototypentheorie (probabilistisches Merkmalsmodell)



Der Prototypentheorie (z.B. ROSCH) zufolge werden Begriffe in Form von Prototypen
abgespeichert. Die Begriffsbildung basiert demnach nicht auf definierenden-, sondern
auf wahrscheinlichen bzw. typischen Merkmalen („Großmütter sind alt.“).
 Außerdem wird davon ausgegangen, dass die Zuordnung zu einer Kategorie
weniger formal-logischen, als vielmehr pragmatischen Kriterien folgt.
 Ein Klavier, eigentlich ein Musikinstrument, wird bei einem Umzug zu
einem gewöhnlichen Möbelstück degradiert (die Merkmale „Größe“ und
„Gewicht“ treten in den Vordergrund).
Die Exemplare einer Kategorie unterscheiden sich hinsichtlich ihrer „Typikalität“
(Ähnlichkeit zum Prototyp); die einzelnen Merkmale hinsichtlich ihrer
„Hinweisgültigkeit“.
 Für das Konzept „Vogel“ ist z.B. „Flugfähigkeit“ ein Merkmal mit hoher
Hinweisgültigkeit („Schlüsselmerkmal“): Die meisten Vögel können fliegen, die
meisten anderen Dinge nicht. Daher ist ein Spatz repräsentativer für die
Kategorie „Vogel“ als z.B. ein Strauß.
Tatsächlich zeigen entsprechende Reaktionszeitexperimente, dass
Exemplare mit hoher „Typikalität“ schneller zugeordnet werden können, als
eher untypische Exemplare.
„Prototyp“ ist im Grunde ein Synonym für „Schema“ (s.u.).
8.1.1.3. Theoriebasierter Ansatz (Theorie-Theorie)

Theoriebasierten Ansätzen (z.B. WELLMAN & GELMAN) zufolge sind Begriffe nicht
nur Kategorien, sondern gleichzeitig Erklärungen. Sie enthalten in sich schon
theoretische Annahmen. Wissenserwerb und Begriffsbildung sind damit kaum
voneinander zu trennen; eine Unterscheidung zwischen „Begriffen“ und „Regeln“
bzw. „Begriffsketten“, wie Gagné sie trifft (s.u.), ist sinnlos.
 Tatsächlich lassen sich viele Begriffe (z.B. der Begriff „Wissensrepräsentation“)
nur vor dem Hintergrund einer bestimmten Theorie sinnvoll erklären!
 EDELMANN unterscheidet vor diesem Hintergrund zwischen Eigenschafts- und
Erklärungsbegriffen: Erstere beruhen auf Merkmalsassoziationen; sie sind
gleichzusetzen mit Kategorien. Letztere dienen nicht nur der Kategorisierung-,
sondern auch der Erklärung von Phänomenen; sie sind an spezifische Theorien
geknüpft.
8.1.2. Verschiedene Modelle zur Wissensrepräsentation
8.1.2.1. Propositionale Wissensrepräsentation


Das Modell der propositionalen Wissensrepräsentation geht davon aus, dass der
Bedeutungsgehalt von Ereignissen und Sachverhalten in Form abstrakter
Aussagen, sog. Propositionen, abgespeichert wird.
 Der Begriff „Proposition“ ist der Logik bzw. Linguistik entnommen. Es handelt
sich dabei um die kleinste Bedeutungseinheit, die als selbständige Aussage
gelten kann.
Eine solche Proposition besteht aus einer logischen Relation (Prädikat) und
Argumenten (z.B. Agens, Objekt, Rezipient etc.).
 Meistens entsprechen die Relationen den Verben oder Adjektiven- und die
Argumente den Nomen einer Sprachäußerung.
 Allerdings sind Propositionen der Theorie nach keine sprachlichen, sondern
kognitive Konstrukte. Es handelt sich nicht um Sätze, sondern um abstrakte,
voneinander unabhängige Wissenseinheiten.
31

Dargestellt werden Propositionen meist in Form von Ellipsen, die durch
entsprechende Pfeile mit ihren Argumenten und Prädikaten bzw. Relationen
verbunden sind.
 z.B.: „Paul liebt Paula“  LIEBEN (PAUL, PAULA)
Agens
Objekt
PAUL
PAULA
Relation
LIEBEN

Die einzelnen Wissenseinheiten bleiben allerdings nicht isoliert, sondern stehen
netzartig miteinander in Beziehung (= propositionale Netzwerke).
8.1.2.2. Semantische Netzwerke





Zahlreiche Theorien gehen davon aus, dass unser konzeptuelles Wissen in
semantischen Netzwerken bzw. Begriffshierarchien organisiert ist.
Ein Begriff ist diesem Ansatz zufolge durch seine Verknüpfung mit anderen
Begriffen und seine spezifischen Attribute repräsentiert.
 Insofern sind hierarchische Netzwerkmodelle kompatibel zur klassischen
Theorie der Begriffsbildung (s.o.).
Die Aktivierung eines Knotens bzw. Begriffes führt dabei der Theorie zufolge
automatisch zur Aktivierung weiterer, im Umkreis befindlicher Knoten.
Diese Annahme kann anhand von Priming-Experimenten bestätigt werden.
Dem ursprünglichen Modell nach erfolgt die Speicherung der Attribute nach dem
Prinzip der „kognitiven Ökonomie“: Attribute werden immer nur auf der
höchstmöglichen Hierarchieebene abgespeichert. Direkt zugeordnet sind den
verschiedenen Begriffen also immer nur deren spezifischen Merkmale!
 Das Merkmal „Flugfähigkeit“ ist z.B. nur an den Oberbegriff „Vogel“ geknüpft,
aber nicht an das Konzept „Rotkehlchen“ oder „Kanarienvogel“. Um die
Aussage, dass Kanarienvögel fliegen können, zu verifizieren, muss demnach eine
Stufe höher gegangen werden.
 Dabei gilt: Je mehr Knotenpunkte durchlaufen werden müssen, desto länger der
Denkprozess.
Anhand von Reaktionszeitexperimenten konnten verschiedene Annahmen
des Modells bestätigt werden. Zum Beispiel wird die Aussage, dass
Kanarienvögel fliegen können, tatsächlich langsamer bestätigt als die
Aussage, Kanarienvögel seien gelb.
In anderen Fällen widersprechen die Reaktionszeiten allerdings den
Annahmen des Modells; die Aussage, dass Sonnenblumen Samen haben,
wird z.B. äußerst schnell verifiziert, obwohl dieses Attribut eigentlich nur auf
der übergeordneten Ebene „Pflanze“ abgespeichert sein dürfte.
Eine neuere Fassung des Modells geht deshalb davon aus, dass Begriffe nicht so sehr
nach hierarchischen Kriterien, sondern eher nach ihrer semantischen bzw.
assoziativen Nähe einander zugeordnet sind.
 Je mehr Eigenschaften zwei Begriffe gemeinsam haben bzw. je mehr
semantische Relationen zwischen ihnen bestehen, desto enger sind sie
miteinander verbunden.
 Diese Fassung des Netzwerkmodells ist durchaus kompatibel mit der
Prototypentheorie (s.o.).
32
8.1.2.3. Schemata




Schemata sind übergeordnete Wissensstrukturen, die dazu dienen, die Umwelt zu
strukturieren und unser Wissen zu organisieren.
 Schemata enthalten spezifische Vorannahmen und Leerstellen, die erst noch zu
spezifizieren sind.
 Man kann sich z.B. sicher sein, dass ein Korkenzieher dem Entfernen von
Korken dient und eine Spindel enthält. Form und Beschaffenheit des Griffs
sind dagegen variabel (=Leerstellen).
 Im Grunde sind Schema und Prototyp synonyme Begriffe.
Schemata, die sich auf Ereignisse und häufige Handlungsabläufe, z.B. einen
Restaurantbesuch, beziehen, werden als Skripts („Drehbücher“) bezeichnet.
 NELSON spricht von „Generalized Event Representations“ (GERs)
Schemata haben Einfluss auf die Informationsaufnahme, deren Enkodierung und
den Abruf von Informationen („reconstructive memory“).
 Vorteile: sparen Zeit und kognitive Kapazität, lenken unsere Aufmerksamkeit,
helfen bei der Interpretation (v.a. mehrdeutiger) Informationen, dienen der
Verhaltensvorhersage, ermöglichen sinnvolles Ausfüllen von Erinnerungslücken,
erleichtern schlussfolgerndes Denken…
 Nachteile: selektive Wahrnehmung(!), Verzerrungen, insofern gespeicherte
Information vorhandenen Schemata angeglichen wird – und schemainkonsistente
Details oft übersehen oder später nicht erinnert werden; Schubladendenken,
Vorurteile, Self-fulfilling prophecy (Schema = Erwartungshaltung),…
„Reconstructive Memory“: Schemata beeinflussen unsere Erinnerung.
Gedächtnislücken werden durch schemakonsistente Details aufgefüllt. D.h.: Nicht
alles, woran wir uns erinnern, ist tatsächlich so passiert. Vieles ist erst im Nachhinein
von uns ergänzt worden – und zwar entsprechend der von uns verwendeten Schemata.
EXPERIMENT (Linda Carli, 1999): Barbara und Jack auf der Skihütte
Probanden bekamen eine Geschichte mit unterschiedlichem Ausgang zu lesen
und wurden 2 Wochen später gefragt, woran sie sich erinnern. Je nach
Ausgang der Geschichte wurden unterschiedliche Schemata aktiviert – und
entsprechende, schemakonsistente Details „erinnert“, die in der Geschichte gar
nicht vorgekommen waren!
 UV: Ausgang der Geschichte: Heiratsantrag vs. Vergewaltigung
 In der Geschichte geht es darum, dass ein Paar (Barbara und Jack)
ein Wochenende auf einer Skihütte verbringen.
 AV: Erinnerungstest 2 Wochen später: Erinnerung schemakonsistenter,
aber falscher Ereignisse
 Z.B.: „Jack schenkte Barbara Rosen“
33
8.3. Ein propositionales Textverarbeitungsmodell (Knitsch)



KNITSCH geht davon aus, dass lediglich das Wesentliche einer Information im LZG
gespeichert wird; Details werden beim Abruf rekonstruiert.
 Auf
Basis
dieser
Annahme
entwirft
er
ein
propositionales
Textverarbeitungsmodell.
Komplexe Informationen werden mit Hilfe von Makrooperatoren auf ihren
Sinngehalt reduziert. Im LZG gespeichert werden lediglich die wichtigsten
Propositionen bzw. die Makrostruktur eines Textes.
 Zu diesem Zweck werden Informationen entweder weggelassen (Tilgung,
Selektion) oder durch übergeordnete Propositionen ersetzt (Generalisation,
Konstruktion). Die Kohärenz des Textes wird durch Überlappungen der
Argumente sichergestellt.
 Der Satz „Peter zündete sich eine Zigarette an und begann genüsslich zu
rauchen“ könnte z.B. auf die Makrostruktur „Peter rauchte“ reduziert
werden.
Beim Abruf wird die ursprüngliche Information anhand von Schemata rekonstruiert.
 Zu diesem Zweck werden die im LZG gespeicherten Makrostrukturen
spezifiziert und ergänzt.
 KNITSCH spricht in diesem Zusammenhang von sog. Rekonstruktionsoperatoren. Sie sind das Gegenstück zu den informationsreduzierenden
Makrooperatoren.
8.4. Fazit

Die Grenzen zwischen den einzelnen Gedächtnisinhalten und Repräsentationsformen
sind fließend. Die verschiedenen Theorien sollten daher nicht in Konkurrenz
zueinander gesehen werden, sondern eher als komplementäre, einander ergänzende
Erklärungsversuche.
 Die Annahme, dass unser Wissen in Netzwerken aufgebaut ist, erscheint
plausibel und wird durch verschiedene Befunde bestätigt.
 Allerdings sollte das Netzwerkmodell nicht einseitig auf bedeutungsbasierte
Repräsentationen beschränkt werden. Vielmehr scheint an vielen Stellen des
Netzwerkes eine multiple Repräsentation vorzuliegen; auch eine Verknüpfung
zwischen Begriffen und Episoden ist nahe liegend.
34
8.2. Wahrnehmungsbasierte Wissensrepräsentation
8.2.1. Die Dual-Code-Theorie von Paivio





PAIVIO unterscheidet zwischen einem bildhaften (imaginalen) und einem verbalen
Kodierungssystem.
 Das bildhafte System verarbeitet nicht-sprachliche Reize (Bilder, Berührungen,
Gerüche etc.) und speichert diese in Form anschaulicher Vorstellungen.
 Man spricht in diesem Zusammenhang von analogen (ähnlichen) oder
wahrnehmungsbasierten Repräsentationen.
 Das verbale System verarbeitet sprachliche Reize und speichert deren abstrakte
Bedeutung.
 In diesem Zusammenhang spricht man von symbolischer oder semantischer
Repräsentation.
Synonyme
Begriffe
sind
aussagenartige
oder
bedeutungbezogene Repräsentation.
Nicht-sprachliche Informationen werden parallel verarbeitet, während sprachliche
Informationen im verbalen System sequentiell verarbeitet werden.
PAIVIO zufolge arbeiten das verbale und das bildhafte System zunächst unabhängig
voneinander: es ist also nicht möglich, dass sprachliche Information von Anfang an
bildhaft bzw. nonverbale Information direkt sprachlich kodiert wird.
Erst zu einem späteren Zeitpunkt der Informationsverarbeitung – auf der sog.
„referentiellen Ebene“ – wird das eine System unter Umständen durch das jeweils
andere aktiviert: Ein Wort kann ein Vorstellungsbild auslösen; Bilder können verbal
bezeichnet werden.
 Ob bzw. in welchem Ausmaß die beiden Systeme auf diese Weise
zusammenwirken, hängt PAIVIO zufolge von dem zu verarbeitenden Material ab.
 Bilder werden ihm zufolge am ehesten dual verarbeitet und deshalb am
besten gespeichert.
 Inwieweit sprachliche Information dual verarbeitet wird, hängt von deren
Abstraktionsgrad ab. Je konkreter ein Wort, desto wahrscheinlicher ist eine
duale, d.h. semantische und bildhafte Verarbeitung (=> multiple
Repräsentation).
PAIVIO’S Modell hat 2 Vorteile: Zum einen entspricht es den neuropsychologischen
Befunden, denen zufolge sprachliches Material eher in der linken und bildhaftes
Material eher in der rechten Hemisphäre verarbeitet wird - zum anderen erklärt es den
sog. „Bildüberlegenheitseffekt“, demzufolge Bildmaterial besser gemerkt wird als
sprachliches.
KIRKPATRICK: Bildreihen werden länger behalten als Wortlisten!
8.2.2. Die multimodale Gedächtnistheorie (Multi-Code-Theorie) von Engelkamp


Die Speicherung von Informationen wird nicht nur durch deren bildhafte
Veranschaulichung verbessert, sondern auch durch entsprechende Handlungen.
ENGELKAMP (1980): der „Tu-Effekt“
ENGELKAMP konnte zeigen, dass das Behalten von Verb-Objekt-Phrasen (z.B.:
„Computer einschalten“) durch die symbolische Ausführung der bezeichneten
Handlung verbessert wird.
Ausgehend von diesen Ergebnissen erweitert ENGELKAMP das Modell PAIVIO’S um
ein motorisches Gedächtnissystem.
 Wissen wird demnach nicht nur durch abstrakte bzw. konkrete Vermittlung von
Informationen erworben, sondern auch durch den handelnden Umgang mit den
Dingen.
 Es gibt 3 Formen der mentalen Repräsentation: Wissen kann semantisch,
bildhaft und motorisch (handlungsmäßig) repräsentiert sein.
35
SCHULE: Nicht nur verbale Vermittlung von Wissen, sondern ganzheitliches
Lernen (Ziel ist eine möglichst umfassende Verarbeitung des Lernstoffes)
 Schon COMENIUS
fordert das Lernen mit allen Sinnen => ähnlich
PESTALOZZI: „Mit Kopf, Herz und Hand“
 Praktische Umsetzung: unterschiedliche Unterrichtsmaterialien, anschauliche
Beispiele etc. => im Idealfall: Projektarbeit
 Schon bei alltäglichen Unterrichtsmethoden werden verschiedene Sinne
einbezogen: Diktatschreiben (Hören, Motorik, Sehen), zuhörendes Lesen
(akustische und optische Reize), etc.
36
9. Lern- und Gedächtnisstrategien
9.0. Systematisierung



Lernstrategien sind mental repräsentierte Schemata bzw. Handlungspläne zur
Steuerung des eigenen Lernverhaltens.
Es gibt verschiedene Arten von Lernstrategien; BAUMERT unterscheidet zwischen
kognitiven, metakognitiven und ressourcenbezogenen Lernstrategien. Eine ähnliche
Systematik liegt auch dem „Fragebogen zur Erfassung von Lernstrategien im
Studium“ (LIST) zugrunde; allerdings wir hier von Informationsverarbeitungs-,
Kontroll- und Stützstrategien gesprochen.
1) Kognitive Lernstrategien bzw. Informationsverarbeitungsstrategien
 Wiederholung
 Organisation
 Elaboration
2) Metakognitive Lernstrategien bzw. Kontrollstrategien
 Planung (z.B. das Setzen von Lernzielen)
 Selbstüberwachung (Kontrollfragen, Überprüfung, ob das Gelesene
verstanden wurde)
 Regulation (Anpassung an die jeweiligen Anforderungen; Lernzeitallokation)
3) Ressourcenbezogene Lernstrategien (auch Stützstrategien genannt)
 Interne Ressourcen: Anstrengung, Aufmerksamkeit, Zeitmanagement
 Externe Ressourcen: Gestaltung der Lernumgebung, Beschaffung von gutem
Lernmaterial, kooperatives Lernen
Mit Mnemotechniken (griechisch „mneme“ = Gedächtnis) sind Lern- bzw.
Gedächtnisstrategien gemeint, mit deren Hilfe Informationen so verarbeitet und
organisiert werden, dass sie später leichter abrufbar sind.
 Die wichtigsten Mnemotechniken sind Wiederholungs-, Elaborations- und
Organisationsstrategien.
9.1. Wiederholungsstrategien


Die Wiederholung des Lernstoffes bzw. diesen auswendig zu lernen ist eine häufig
angewandte Lernstrategie. Allerdings ist sie nur in Kombination mit anderen
Techniken effektiv. Damit Wiederholungsstrategien wirksam werden können, muss
der zu lernende Stoff entsprechend strukturiert und verstanden werden.
 „Mechanisches Lernen“ im Sinne von stupidem Auswendiglernen sollte
vermieden werden.
Um die Wiederholung eines Sachgebiets möglichst effektiv zu gestalten, ist es z.B.
sinnvoll, eine Lernkartei anzulegen oder Zusammenfassungen (Exzerpte ;)
anzufertigen.
 Die entsprechenden Techniken sollten den Schülern frühzeitig vermittelt werden.
37
9.2. Organisationsstrategien


Mit Organisationsstrategien sind Kategorisierungs- und Ordnungsprozesse gemeint,
die der Informationsreduktion dienen.
 Begriffshierarchien bilden; Chunking (s.o.), Clusterbildung, Sortieren etc.
Konkrete Anwendung im Unterricht:
 V.a. bei der Bearbeitung von Texten spielen Organisationsprozesse eine
entscheidende Rolle: Schüler sollten dazu angeregt werden, Texte in
Unterabschnitte zu gliedern, entsprechende Überschriften zu finden,
Zusammenfassungen anzufertigen, gezielte Unterstreichungen vorzunehmen…
 Eine effektive Methode, die den Schülern in diesem Zusammenhang
beigebracht werden könnte, ist die sog. SQ3R-Methode (s.u.).
 Außerdem Mapping-Techniken (s.u.)
 Der Lehrer selbst sollte beim Erstellen von Arbeitsblättern und Tafelbildern auf
Übersichtlichkeit und eine klare Strukturierung achten (gegenstandsorientierte
vs. aspektweise Textorganisation).
9.3. Elaborationsstrategien


Bei Elaborationsstrategien werden neue Informationen mit bereits Bekanntem in
Verbindung gebracht. Anders als bei Organisationsstrategien wird der Lernstoff also
nicht reduziert, sondern sinnvoll erweitert, z.B. indem…
 Vorwissen aktiviert,
 weitere Beispiele gesucht,
 Querverbindungen hergestellt
 und Analogien gefunden werden
 oder der Stoff in eigenen Worten wiederholt wird.
Mnemotechniken (griech.„mneme“ = „Gedächtnis“) sind Elaborationsstrategien, die
sich vor allem zum Merken von einfachem Lernmaterial (z.B. Vokabeln oder
Begriffslisten) eignen. Dabei werden die Informationen so verarbeitet (mit Bedeutung
angereichert) bzw. organisiert, dass sie später leichter abrufbar sind.
 Mnemotechniken sind zwar sehr effektiv, müssen aber hinreichend geübt
werden!
9.3.1. Mnemotechniken
 Loci-Technik: Ein bekannte Mnemotechnik ist die sog. „Loci-Methode“; dabei ruft

man sich zunächst einen vertrauten Ort - z.B. die eigne Wohnung; den Schulweg etc. –
in Erinnerung. In einem zweiten Schritt stellt man sich die zu merkenden Items
bildhaft vor und verknüpft sie mit diesem Ort. Beim Abruf der Informationen geht
man den Ort in Gedanken ab und „stößt“ dabei auf die dort abgelegten
Vorstellungsbilder.
 Bei entsprechender Übung können mit dieser Technik beachtliche
Gedächtnisleistungen erzielt werden. Im Alltag kann die Loci-Methode z.B. für
das Behalten von Einkaufslisten genutzt werden.
 In der Schule ist das Verfahren allerdings bedingt anwendbar, da es wie alle
Mnemotechniken nicht dazu geeignet ist, Zusammenhänge zu lernen.
Vorstellungsbilder (bildhafte Mediatoren): Eine weitere effektive
Mnemotechnik besteht darin, die zu lernenden Begriffe mit möglichst intensiven
Vorstellungsbildern zu verknüpfen (siehe: PAIVIO). Dabei sollten zwischen den
einzelnen Bildern lebendige Assoziationen gebildet werden
 ein „Hund“ schwitzt in der „Sonne“ und hat eine „Schleife“ um den Hals.
38



„Schlüsselwortmethode“: Dabei wird eine zu lernende Vokabel mit einem ähnlich
klingenden Wort der eigenen Sprache assoziativ zu einem Bild verknüpft.
 lat. „cubare“ klingt wie „Kuh“ und „Bahre“ => Assoziation: „Die Kuh liegt
auf der Bahre“ => Dekodierung: cubare => Kuh liegt auf der Bahre => liegen.
„Eselsbrücken“: Auch Eselsbrücken sind Mnemotechniken und in diesem Sinne
elaborative Gedächtnisstrategien.
 Häufig angewandte Eselsbrücken sind zum Beispiel…
 Reime: „333- bei Issos Keilerei“; „Wer nämlich mit h schreibt, ist dämlich“
 Akrostichone: Merksätze, bei denen der Anfangsbuchstabe jedes Wortes den
eigentlich zu merkenden Inhalt bezeichnet: „Geh Du alter Esel, hole
Fische.“ (für die Dur-Tonarten)
 Akronyme: Merkwörter, die aus den Anfangsbuchstaben der eigentlich zu
merkenden Wörter zusammengesetzt sind. Z.B. „SQ3R-Methode“ (s.u.)
 Wie die Beispiele zeigen, werden Eselsbrücken im schulischen Kontext durchaus
verwendet; allerdings helfen sie nur sehr partiell weiter.
Narrative Verknüpfungen: Die zu lernenden Wörter in Geschichten einkleiden
(eine Methode, die in jedem Englischbuch angewandt wird.)
9.3.2. Elaborationsstrategien für komplexere Lerngegenstände

Die Schüler zur tieferen Elaboration (Assimilation) des Stoffes anzuregen, ist eine der
Hauptaufgaben des Lehrers.
 Der Lehrer sollte Verständnisfragen stellen und die Schüler dazu anregen, auch
selbst entsprechende Fragen zu formulieren.
 Erzeugung kognitiver Konflikte beim Lerner (die Schüler auf Widersprüche
aufmerksam machen und sie aktiv nach Lösungen suchen lassen): Vgl. PIAGET!
 Verwendung von Beispielen, Bildmaterial etc.
 Vermittlung entsprechender Methoden (SQ3R-Methode, Mapping-Techniken)
A) SQ3R-Methode



Die auf ROBINSON zurückgehende SQ3R-Methode ist ein bewährtes Verfahren zum
effektiven Umgang mit Texten. Bei dem Namen handelt es sich um ein Akronym:
Die einzelnen Buchstaben stehen für „Survey, Question, Read, Recite, Review“.
1. Die Textarbeit sollte zunächst damit beginnen, sich z.B. anhand der
Überschriften oder des Vorworts einen groben Überblick („Survey“) zu
verschaffen.
2. In einem zweiten Schritt gilt es, konkrete Fragen an den Text zu stellen
(„Question“). Dabei kann man entweder vom eigenen Interesse ausgehen oder
sich vom Text leiten lassen (z.B. die Überschriften in Fragen umformulieren
etc.).
3. Erst danach wird mit dem eigentlichen Lesen begonnen („Read“). Dabei sollte
man sich primär an den zuvor gestellten Fragen zu orientieren.
4. Nach dem Lesen muss der Inhalt wiederholt werden; am besten, indem die
zuvor gestellten Fragen schriftlich oder gedanklich beantwortet werden (Recite).
5. Als 5. Arbeitsschritt sollte eine abschließende Rückschau („Review“) erfolgen:
Sind die Fragen hinreichend beantwortet? Haben sich neue Fragen ergeben? Etc.
In einer modifizierten Fassung (SQ4R) erweitert ROBINSON das Verfahren um einen
weiteren Schritt; nämlich die Reflexion des Gelesenen („Reflect“), dabei wird der
Leser explizit aufgefordert, nach dem Lesen über den jeweiligen Text nachzudenken,
Beispiele zu finden, Querverbindungen herzustellen etc.
Die SQ3R-Methode ist äußerst effektiv. Sie regt nicht nur zur Organisation des
Lernstoffes, sondern auch zu dessen Elaboration und Wiederholung an.
39
B) Mapping-Verfahren bzw. die Erarbeitung von Begriffslandschaften





Beim sog. „Mapping-Verfahren“ werden die für einen bestimmten Wissensbereich
relevanten Begriffe als Knotenpunkte dargestellt und durch entsprechende Linien
(bzw. Relationen) miteinander verbunden.
 Auf diese Weise erhält man eine graphische Darstellung des betreffenden
Wissensbereichs („Begriffslandschaft“).
Eine solche Darstellung ist übersichtlich und anschaulich. Außerdem entspricht sie
der
semantischen
Netzwerktheorie
zufolge
(s.o.)
unserer
mentalen
Wissensrepräsentation.
 Daher auch die Bezeichnung „Mind Map“.
„Mind Maps“ bzw. „Begriffslandschaften“ können im Unterricht auf vielfältige
Weise zum Einsatz kommen.
 Am effektivsten ist es, den Schülern keine fertigen Begriffslandschaften
vorzugeben, sondern sie gemeinsam mit ihnen zu erarbeiten.
 z.B. in Form eines „Brainstormings“, um vorhandenes Wissen zu aktivieren
oder am Ende einer Unterrichtseinheit, um das neu erworbene Wissen zu
sondieren.
 Darüber hinaus ist es sinnvoll, Begriffslandschaften sukzessive zu erweitern und
zu ergänzen. Auf diese Wiese können die Schüler ihren eigenen Lernfortschritt
besser verfolgen.
Zahlreiche Befunde zeigen, dass „Mind Maps“ weitaus lernwirksamer sind als z.B.
zusammenfassende Texte (Vgl. hierzu JÜNGST).
Ursachen für die hohe Effektivität von Begriffslandschaften:
 Begriffslandschaften dienen der Visualisierung und begünstigen dadurch eine
duale Verarbeitung des Lernstoffs (s.o.: PAIVIO).
 Der Einsatz von Bildern (Diagramme, Schemazeichnungen, Filme, Fotos
etc.) zur Unterstützung verbal vermittelter Informationen ist generell
empfehlenswert.
 Das Erstellen und Verstehen von Begriffslandschaften setzt die aktive
Auseinandersetzung mit dem dargestellten Wissensbereich voraus. Insofern
werden elaborative Prozesse förmlich herausgefordert.
 Die einzelnen Begriffe werden nicht isoliert, sondern als Teil eines
semantischen Netzwerkes gelernt (=> „sinnvolles Lernen“)
 Insofern Mind Maps hierarchisch oder zumindest thematisch geordnet
erleichtern sie die Organisation des Lernstoffs. Komplexe Inhalte werden auf
das Wesentliche reduziert und entsprechend strukturiert.
 Das erleichtert sowohl die Speicherung als auch den späteren Abruf der
dargestellten Information.
 Anhand von Mind Maps können sich Schüler schnell über den eigenen
Wissensstand informieren. Insofern erleichtern Mapping-Verfahren die
Kontrolle des eigenen Lernprozesses.
40
10. Aufmerksamkeit
10.0. Einleitung


Aufgrund unserer begrenzten Verarbeitungskapazität sind Aufmerksamkeitsprozesse
notwendig. Nur die Informationen, auf die wir unsere Aufmerksamkeit richten,
werden uns bewusst – und evtl. im LZG gespeichert. Der Rest wird ausgeblendet.
Darüber, wie Aufmerksamkeitsprozesse ablaufen und auf welcher Ebene der
Informationsverarbeitung sie anzusiedeln sind, gibt es verschiedene Theorien.
 Prinzipiell lassen sich Filter- und Ressourcenmodelle unterscheiden. Erstere
betrachten die Informationsverarbeitung und -filterung als seriellen (linearen)-,
letztere als parallelen (simultanen) Prozess.
10.1. Das Filter-Modell (Broadbent)




BROADBENT geht von einem Informationskanal aus, in dem die eingehenden Reize
linear (sequentiell) verarbeitet- und schon früh gefiltert werden.
Nur die Informationen, denen wir unsere Aufmerksamkeit zuwenden, erreichen das
Kurzzeitgedächtnis, wo sie semantisch verarbeitet werden. Alle anderen Reize werden
aufgrund begrenzter Verarbeitungskapazität schon vor deren Verarbeitung im KZG
herausgefiltert.
Diese frühe Selektion basiert ausschließlich auf physikalischen Reizeigenschaften und
erfolgt nach dem „Alles-oder-Nichts-Prinzip“.
Empirische Befunde, die BROADBENT’S Modell stützen:
CHERRY (1953): Dichotisches Hören
Beim dichotischen Hören wird dem rechten Ohr (über Kopfhörer) etwas anderes
dargeboten als dem linken. Die Pbn werden aufgefordert, jeweils einen der
beiden Texte mitzusprechen („shadowing“), um auf diese Weise ihre
Aufmerksamkeit zu lenken.
 CHERRY zeigte, dass die „verschattete“, also die nicht nachgesprochene,
Botschaft
lediglich
hinsichtlich
physikalischer
Eigenschaften
wahrgenommen wird. Eine semantische Verarbeitung des Gehörten findet
nicht statt.
 Die Pbn merkten z.B. nicht, wenn die verschattete Botschaft in einer anderen
Sprache gesprochen- oder 35 Mal hintereinander dasselbe Wort wiederholt
wurde. Physikalische Veränderungen, wie z.B. der Wechsel von einer
Männer- zu einer Frauenstimme – wurden dagegen bemerkt!
10.2. Das Verdünnungs- oder Abschwächungsmodell (Treisman)


In dem Verdünnungs- oder Abschwächungsmodell von TREISMAN wird ebenfalls von
einer sequentiellen Informationsverarbeitung ausgegangen; allerdings erfolgt dabei
die Filterung der Informationen nicht nach dem „Alles-oder-Nichts-Prinzip“, sondern
stufenweise.
 Irrelevante Informationen werden nicht vollständig weggefiltert, sondern
lediglich weniger vollständig verarbeitet.
Dabei hängt das Verarbeitungsniveau davon ab, wie unähnlich sich die betreffenden
Reize sind. Unterscheiden sich die Informationen physikalisch (z.B. Männer- vs.
41
Frauenstimme), reicht eine Analyse auf dieser Ebene aus; sind sich die dargebotenen
Informationen dagegen ähnlicher ist evtl. eine semantische Analyse notwendig.
10.3. Das Späte-Selektions-Modell (Deutsch & Deutsch)


DEUTSCH & DEUTSCH gehen im Gegensatz zu BROADBENT davon aus, dass die
Selektion der eingehenden Informationen erst auf einer späteren Stufe der
Informationsverarbeitung stattfindet.
 Ihnen zufolge werden aufmerksamkeitsirrelevante Informationen erst nach deren
semantischer Identifikation im KZG herausgefiltert.
Empirische Befunde, die dieses Modell stützen:
„Effekt des eigenen Namens“: Wird im nicht zu beachtenden Ohr der eigene
Name eingespielt, wird dieser von der betreffenden Person wahrgenommen.
10.4. Das Modell der flexiblen Ressourcen-Allokation (Kahneman)





Anders als Filtermodelle, gehen Ressourcenmodelle davon aus, dass die
Informationsverarbeitung simultan bzw. parallel abläuft.
 Dementsprechend werden Aufmerksamkeitsprozesse nicht an einem
bestimmten Punkt der Informationsverarbeitung festgemacht.
KAHNEMAN geht davon aus, dass die Aufmerksamkeit auf verschiedene
Informationsquellen gleichzeitig gerichtet werden kann.
 Tatsächlich kann man mit einiger Übung Autofahren und Telefonieren
gleichzeitig.
Ihm zufolge verfügt der Mensch über einen begrenzten Pool kognitiver Ressourcen,
die er flexibel einsetzen kann.
 Aufmerksamkeitsprozesse erfolgen demnach nicht nach dem „Alles-oder-NichtsPrinzip“, sondern basieren auf der ökonomischen Verteilung kognitiver
Ressourcen.
Zu welchem Zeitpunkt die aufmerksamkeitsbedingte Selektion von Informationen
erfolgt, hängt nach KAHNEMAN von 3 Faktoren ab:
1) Der Schwierigkeit der primären Aufgabe
 Je schwieriger eine Aufgabe, desto unwahrscheinlicher ist es, dass parallel
dazu noch weitere Informationen verarbeitet werden können.
 Ist die verschattete Aufgabe schwierig, wird früh selektiert, steht dagegen
genügend Kapazität zur Verfügung, z.B. weil beide Aufgaben leicht sind und
eine simultane Verarbeitung zulassen, wird spät oder überhaupt nicht
selektiert.
 Wichtig ist in diesem Zusammenhang die Unterscheidung zwischen
kontrollierter und automatischer Informationsverarbeitung. Erstere ist
bewusst und erfordert viel Kapazität; letztere läuft unbewusst ab und
beansprucht nur wenig kognitive Ressourcen (automatisierte Prozesse wie
Abschreiben, Autofahren, etc.).
2) Dem Umfang der verfügbaren Ressourcen
 Momentaner Erregungszustand einer Person (Müdigkeit, Geräuschkulisse
etc.).
3) Der „Ressourcen-“ bzw. „Verteilungspolitik der betreffenden Person
Die „Ressourcenpolitk“ einer Person bzw. deren Aufmerksamkeitslenkung hängt
dabei von folgenden Faktoren ab:
 Überdauernden Dispositionen
 z.B. wird bewegten Reizen automatisch mehr Aufmerksamkeit zugewendet
als unbewegten.
42
 Den momentanen Absichten einer Person
 Reizeigenschaften
 Schwierigen Aufgaben, die mehr Kapazität erfordern, wird mehr
Aufmerksamkeit geschenkt, als leichten Aufgaben.
10.5. Modell der multiplen Ressourcen

Das Modell der multiplen Ressourcen geht anders als KAHNEMAN’S Modell nicht von
einer generellen Ressource aus, sondern von mehreren inhaltsspezifischen
Ressourcen.
Anlass zu dieser Annahme geben Experimente, in denen Vpn 2 Aufgaben
gleichzeitig erledigen müssen. Zu Interferenzen kommt es dabei v.a., wenn die
gestellten Aufgaben ähnlich sind: Z.B. inferrieren Bild-Vorstellungen mit
visuellen Aufgaben, Geräuschvorstellungen mit auditiven Aufgaben.
10.6. Anwendung im Unterricht




Die besprochenen Theorien und Experimente zeigen, welche entscheidende Rolle der
Aufmerksamkeit bei der Verarbeitung und Speicherung von Informationen zukommt.
 Bei entsprechender Ablenkung (Geräuschpegel, Zettelchen Schreiben etc.) kann
es passieren, dass der Unterricht vollständig an den Schülern vorbeigeht.
Alle dargestellten Modelle gehen davon aus, dass Unterschiede auf der
perzeptuellen Ebene am ehesten bewusst werden.
 Dementsprechend kommt äußeren Stimuluseigenschaften eine entscheidende
Rolle bei der Aufmerksamkeitslenkung zu: Durch entsprechende
Hervorhebungen (z.B. Unterstreichungen oder den Einsatz verschiedener
Farben) kann die visuelle Aufmerksamkeit erregt werden; durch das Heben der
Stimme die auditive Aufmerksamkeit! Etc.
Methoden zur Erregung der Aufmerksamkeit:
 Stimuluseigenschaften (z.B. lautes Sprechen, veränderte Stimmlage, visuelle
Hervorhebungen etc.)
 Explizite Hinweise (ein wesentliches Mittel der Aufmerksamkeitslenkung ist die
Sprache; einzelne Schüler mit Namen ansprechen, das Wesentliche explizit
betonen; Aufforderungscharakter)
 Motivational-emotionale Aspekte (Interesse fördern etc.)
 Überraschungseffekte
Modell der flexiblen Ressourcen-Allokation: Schüler dürfen nicht überfordert
werden, sie haben lediglich einen begrenzten Umfang an kognitiven Ressourcen zur
Verfügung. Nur Routine-Tätigkeiten können parallel durchgeführt werden. Schwierige
Aufgaben erfordern dagegen volle Konzentration. Welche Aufgaben als „schwierig“
einzustufen sind, hängt dabei von der Übung der Schüler ab.
 Ein Anfänger hat z.B. Probleme damit, einen fremdsprachigen Text laut
vorzulesen und parallel dazu dessen Inhalt voll zu erfassen. Letzteres gelingt
erst, wenn die Artikulation hinreichend automatisiert ist und dadurch weniger
kognitive Kapazität erfordert.
43
44
Herunterladen