PÄDAGOGISCHE PSYCHOLOGIE I. GRUNDPROZESSE DES LERNENS 1. Was ist „Lernen“? 1.1. Begriffsklärung Prinzipiell fallen unter den Lernbegriff alle (relativ dauerhaften) Veränderungen, die in irgendeiner Weise auf Erfahrung beruhen. Vom „Lernen“ abgegrenzt werden müssen daher Veränderungen, die auf… 1) Angeborene Verhaltenstendenzen (Reflexe, Erbkoordinationen) 2) Reifung 3) Vorübergehende organismische Zustände (Ermüdung, Drogenkonsum) …zurückzuführen sind. 1.2. Behavioristische- und kognitive Lerntheorien Lerntheorien sind systematische Versuche, menschliches Verhalten zu erklären und vorherzusagen. Dabei lassen sich innerhalb der Lernpsychologie 2 Richtungen unterscheiden: der Behaviorismus und der Kognitivismus. 1. Behavioristische bzw. verhaltensorientierte Lerntheorien: betrachten den Organismus als „Black Box“. Aus methodischen Überlegungen wird menschliches Verhalten und Lernen bewusst auf die beobachtbaren Variablen „Reiz“, „Reaktion“ und „Verstärkung“ (=Konsequenz) reduziert. Bekannte Vertreter sind: Pawlow, Watson, Thorndike, Skinner 2. Seit der „kognitiven Wende“ in den 60er Jahren wendet sich die Psychologie wieder vermehrt kognitiven und emotionalen Aspekten des Verhaltens zu. Dementsprechend betrachten kognitive Theorien Lernen nicht als bloße ReizReaktions-Verbindung, sondern als Prozess der Informationsverarbeitung. Vertreter sind u.a.: Tolman, Bruner und Piaget Gemeinsamkeiten und Unterschiede: Der behavioristische Ansatz betont, dass es sich bei gelernten Veränderungen um Veränderungen des Verhaltens bzw. des „Verhaltenspotentials“ handelt (Bower & Hilgard). Der kognitive Ansatz rückt demgegenüber „innere“ Veränderungen in den Vordergrund: Was sich verändert, sind die kognitiven Strukturen, dazu zählen u.a. das deklarative, prozedurale und metakonzeptuelle Wissen, aber auch Überzeugungen und Einstellungen. Der behavioristische Ansatz konzentriert sich ganz auf das beobachtbare Verhalten bzw. dessen Bedingungen (Reize) und Konsequenzen (Verstärkung und Bestrafung). Kognitive Ansätze berücksichtigen dagegen auch mentale Prozesse (Informationsaufnahme, -bearbeitung, -speicherung und -wiedergabe). Gemeinsam ist den beiden Ansätzen, dass sie „Erfahrung“ als das konstitutive Merkmal eines Lernprozesses hervorheben! 1 1.2. Lernformen EDELMANN unterscheidet zwischen 4 Grundformen des Lernens: 1) Reiz-Reaktions-Lernen (Klassische Konditionierung) Verbindung zw. vorhergehendem Reiz und Verhalten 2) Instrumentelles Lernen (Operante Konditionierung) Verbindung zwischen Verhalten und nachfolgender Konsequenz 3) Begriffsbildung und Wissenserwerb Verbindung zw. Begriffen bzw. kognitiven Strukturen 4) Prozedurales Lernen und Problemlösen Verbindung zw. Wissen und Handeln Bei den ersten beiden Lernformen spielen äußere Reize und das Verhalten die ausschlaggebende Rolle (Außensteuerung); bei den anderen beiden Lernformen stehen dagegen kognitive Prozesse im Vordergrund (Innensteuerung). Durch Konditionierung und Beobachtungslernen werden Verhaltensweisen, emotionale Reaktionen und Einstellungen gelernt. Von vielen Autoren wird darüber hinaus das sog. Modelllernen (soziales Lernen) als eigenständige Lernform aufgefasst! 2 2. Klassische Konditionierung: „Reiz-Reaktions-Lernen“ 2.1. Der Grundgedanke Das klassische Konditionieren geht auf den russischen Psychologen PAWLOW zurück. Berühmtestes Beispiel: der „Pawlowsche Hund“ Dadurch, dass die Futtervergabe wiederholt mit dem Erklingen eines bestimmten Tons einherging, „lernte“ der Hund, bereits beim Hören des Tons Speichel abzusondern. Beim klassischen Konditionieren wird also ein neuer bzw. „bedingter“ Reiz als Auslöser für eine biologisch vorgegebene Verhaltensweise gelernt! Man spricht deshalb auch von Reiz-Reaktions- bzw. S-R-Lernen. Ein unbedingter Reiz (z.B. Nahrung) führt zu einer unbedingten Reaktion (z.B. Speichelsekretion). Im Rahmen der Konditionierung wird der unbedingte Reiz an einen neutralen Reiz (z.B. das Aufleuchten einer Lampe) gekoppelt. Wichtig ist dabei a) die zeitliche- und räumliche Nähe des bedingten und unbedingten Reizes (Kontiguität) sowie b) die Wiederholung dieser Reizkombination. Ist beides gegeben, wird der neutrale Reiz mit dem unbedingten assoziiert (deshalb auch: assoziatives Lernen)! Dadurch entsteht eine neue Reiz-Reaktions-Beziehung: Der ursprünglich neutrale Reiz (Lampe) wird zu einem bedingten Reiz, der allein ausreicht, um die jew. Reaktion (nun eine bedingte Reaktion) hervorzurufen. Ein Prinzip, das z.B. in der Werbung angewendet wird, wenn ein Produkt (neutraler Reiz) an einen unbedingten Reiz (wie Sex; Kinderaugen etc) gekoppelt wird. 2.2. Die wichtigsten Prinzipien Bekräftigung / Verstärkung: Im Gegensatz zum operanten Konditionieren (s.u.) bezeichnet Bekräftigung bzw. Verstärkung im Kontext des klassischen Konditionierens nicht die Konsequenz eines Verhaltens, sondern die Anzahl der Paarungen zw. neutralem- und unkonditioniertem Reiz. Meist sind mehrere solcher Paarungen nötig, um erwünschten Effekt zu erzielen. Sonderfall (GUTHRIE’S „Ein-Schuss-Lerntheorie“): Die einmalige Kopplung von Reiz und Reaktion reicht aus, um bei Wiederholung des Reizes die entsprechende Reaktion erneut auszulösen; Wiederholungen sind nur dann nötig, wenn der Reiz nicht völlig identisch ist (was meistens der Fall ist). Reizgeneralisierung: Um eine bedingte Reaktion zu konditionieren, müssen die bedingten Reize nicht identisch sein; es reicht aus, wenn sie einander ähnlich sind. Z.B. konnte die Speichelproduktion beim „Pawlowschen Hund“ nicht nur durch denselben-, sondern auch durch verschieden hohe Töne ausgelöst werden. Generell gilt jedoch: Je ähnlicher die verwendeten Auslöser, desto stärker die konditionierte Reaktion (Generalisationsgradient). Reizdifferenzierung: Koppelt man immer nur einen von mehreren einander ähnlichen Reizen mit dem unbedingten Reiz, erfolgt die Reaktion nur auf diesen (Kontrastmethode). Reizdifferenzierung bildet die Grundlage für das Diskrimationslernen bei Tieren. So kann z.B. Hunden beigebracht werden, zw. Kreisen und Ellipsen zu unterscheiden. Wird die Unterscheidung aufgrund zu starker Annäherung unmöglich => experimentelle Neurosen 3 Extinktion bzw. Löschung: Im Gegensatz zu deklarativem Wissen werden konditionierte Reaktionen im Allgemeinen nicht „vergessen“. Sie können aber gelöscht werden, indem man den bedingten Reiz mehrfach ohne den unbedingten Reiz darbietet. Das Prinzip der Extinktion wird z.B. zur Angsttherapie eingesetzt (s.u.) Konditionierung höherer Ordnung: Auch durch die mehrfache Kopplung mit einem bedingten Reiz (Ton) kann ein neutraler Reiz (Licht) konditioniert werden und die entsprechende Reaktion (Speichelsekretion) auslösen. In der Werbung: Produkt (neutraler Reiz) + populäre Persönlichkeit (bedingter Reiz) Individuelle Unterschiede: Ängstliche Personen werden leichter bzw. schneller konditioniert als weniger ängstliche. Beispiel aus der Schule: 1) Lob (= unbedingter Reiz) => Freude, Stolz (= unbedingte Reaktion) 2) Lehrer (neutraler Reiz) + Lob => Freude, Stolz (unbedingte Reaktion) 3) Lehrer (bedingter Reiz) => Freude,Stolz, positive Einstellung (bedingte Reaktion) 2.3. Klassische Konditionierung im Humanbereich Im Humanbereich spielen klassische Konditionierungsprozesse v.a. bei der Entwicklung emotionaler Reaktionen (Furcht, Wut, Liebe) eine Rolle. Das zeigen v.a. die klassischen Experimente John Watsons. WATSON gilt als Begründer des Behaviorismus. Er war einer der ersten, der das lerntheoretische Paradigma der Konditionierung auf den Menschen übertrug. WATSON: Der Fall Albert WATSON konditionierte den 11 Monate alten Albert darauf, sich vor einer weißen Ratte (NS bzw. CS) zu fürchten, vor der er ursprünglich keine Angst hatte. Jedes Mal, wenn der Junge die Ratte (NS) sah, schlug Watson auf eine Eisenstange und koppelte dadurch die Ratte, anfangs neutral- oder sogar positiv besetzt, an ein angstbesetztes Geräusch (UCS). COVER-JONES: Der Fall Peter Mary Cover-Jones versuchte bei einem 3jährigen Jungen (Peter) eine Angstreaktion gegenüber Kaninchen abzubauen; am effektivsten erwies sich dabei die Methode der Gegenkonditionierung. Dabei wurde das gefürchtete Objekt (der Hase) mit einem angenehmen Reiz (Eis essen) gekoppelt, wobei der Hasenkäfig von Tag zu Tag näher an Peter herangestellt wurde (Desensibilisierung). Aus pädagogischer Sicht ist Reiz-Reaktions-Lernen v.a. im Zusammenhang mit dem Abbau von Ängsten und anderen negativen emotionalen Reaktionen relevant. Verhaltensmodifikationen, die auf klassischer Konditionierung beruhen: 1) Gegenkonditionierung und Desensibilisierung Gegenkonditionierung bezeichnet die Kopplung eines negativ besetzten Stimulus mit positiv besetzten Reizen (z.B. Essen, Entspannung etc.), um auf diese Weise die Reaktion umzukonditionieren. Dabei ist es wichtig, schrittweise vorzugehen (Desensibilisierung), d.h. die Intensität des negativ besetzten Reizes allmählich zu erhöhen. Andernfalls besteht die Gefahr, dass sich die negative Reaktion auf den angenehmen Reiz (Eis) überträgt, anstatt durch diesen gelöscht zu werden. JOSEF WOLPE: Entspannung als inkompatible Reaktion (progressive Muskelentspannung nach Jacobson) + Erstellen von Angsthierarchien => systematische Gegenkonditionierung 4 2) Flooding / Implosionstherapie Intensive Darbietung des angstauslösenden Reizes => Überstrapazierung des Angstreflexes => Körperliche Erschöpfung und Hemmung der Reflexbereitschaft 3) Aversionstherapie Konditionierung von Angstreaktionen zur Blockierung unerwünschter Verhaltensweisen (z.B. Suchttherapie, „Clock-work orange“); wird heute aufgrund ethischer Probleme kaum noch angewandt. GUTHRIE nennt 3 Methoden, mit Hilfe derer unerwünschte Reaktionen bzw. Gewohnheiten ersetzt werden können: Die Methode inkompatibler Reize (siehe Gegenkonditionierung) Die Schwellenmethode (siehe: Desensibilisierung) Die Ermüdungsmethode (siehe: Flooding) Im schulischen Alltag werden die Prinzipien des klassischen Konditionierens eher intuitiv, als professionell angewendet. Progressive Muskelentspannung nach JACOBSON und dezidierte Angsthierarchien finden im Schulalltag wohl eher selten Anwendung - aber auch emotionale Wärme und aufmunternde Worte von Seiten des Lehrers (z.B. in Prüfungssituationen) können im Sinne einer Gegenkonditionierung wirksam werden! Vermeidung bedingter und unbedingter Angstauslöser! Sukzessive Anspruchssteigerung (z.B. bei Klassenarbeiten die schwierigsten Aufgaben zuletzt bringen) als Form der Desensibilisierung! 5 3. Operante Konditionierung: „Instrumentelles Lernen“ 3.1. Der Grundgedanke Als Begründer des operanten Konditionierens gilt B.F. SKINNER. Wie bei der klassischen Konditionierung handelt es ich dabei um eine Form des assoziativen Lernens. Allerdings wird beim operanten Lernen kein vorhergehender Reiz mit einer Reaktion-, sondern eine Verhaltensweise mit der nachfolgenden Konsequenz assoziiert. B.F. SKINNER unterscheidet dementsprechend zwischen respondentem- und operantem Verhalten. Ersteres wird durch vorhergehende Reize, letzteres durch die nachfolgenden Konsequenzen bestimmt. Das Grundprinzip operanten Verhaltens formuliert THORNDIKE in seinem Gesetz der Auswirkung („Law of effect“): Das Gesetz besagt, dass Verhaltensweisen, die angenehme Konsequenzen haben, mit hoher Wahrscheinlichkeit wiederholt werden, während Verhaltensweisen mit negativen Folgen eher nicht wiederholt werden. B.F. SKINNER: Die „Skinner-Box“ Mit Hilfe dieses Prinzips konditionierte SKINNER z.B. Ratten und Tauben darauf, einen Mechanismus (Hebel, Knopf etc.) zu betätigen, um die Futterzufuhr (positive Verstärkung) zu regulieren- oder Stromschläge zu vermeiden (negative Verstärkung). 3.2. Die wichtigsten Prinzipien Verstärkung: Verstärker sind nach SKINNER alle Konsequenzen, die die Auftretenswahrscheinlichkeit eines Verhaltens erhöhen. Zu unterscheiden ist dabei zwischen positiver und negativer Verstärkung. Positive Verstärkung: Darbietung eines angenehmen Reizes, Negative Verstärkung: Beseitigung eines unangenehmen (aversiven) Reizes Negative Verstärkung ist demnach nicht mit Bestrafung gleichzusetzen! Bestrafung: Bestrafung umfasst alle Konsequenzen, die zur Unterdrückung eines Verhaltens führen. Auch hier sind 2 Formen zu unterscheiden. Bestrafung I: Hinzufügung eines aversiven Reizes (negativer Verstärker) Bestrafung II: Beseitigung eines angenehmen Reizes (positiver Verstärker) Primäre und sekundäre Verstärker: Primäre Verstärker beruhen auf den Grundbedürfnissen eines Organismus; sie sind nicht erlernt, sondern wirken per se verstärkend (z.B. Nahrung, Sex). Sekundäre Verstärker beruhen dagegen auf der assoziativen Paarung mit primären Verstärkern; sie sind gelernt (z.B. Geld etc.). Verstärkungspläne: Zu unterscheiden ist zwischen kontinuierlichen und intermittierenden Verstärkungsplänen. Bei kontinuierlicher Verstärkung wird ein Verhalten immer verstärkt. Beschleunigt den Verhaltensaufbau, daher zu Beginn einer Lernphase zu empfehlen. Bei der intermittierenden bzw. gelegentlichen Verstärkung wird ein Verhalten nicht immer, sondern in bestimmten Abständen verstärkt (Quotenverstärkung = Verstärkung erfolgt nach Quoten, z.B. jede 10.Reaktion; Intervallverstärkung = Verstärkung erfolgt in zeitlichen Abständen, z.B. alle 5 Minuten) Führt zu hoher Löschungsresistenz; zu empfehlen, wenn das gewünschte Verhalten bereits aufgebaut ist („Fading-out“). 6 Fading-out: Intermittierende Verstärkung am Ende eines Lernprozesses. Shaping (Verhaltensformung): Unter „Shaping“ wird die stufenweise Annäherung an eine gewünschte Verhaltensweise verstanden. Zu diesem Zweck wird anfänglich jede Verhaltensweise verstärkt, die in Richtung des erwünschten Endverhaltens weist. Auf diese Weise konnte SKINNER Tieren verhältnismäßig komplexe Verhaltensweisen beibringen, die über das bloße Lernen am Erfolg (Versuch und Irrtum) wesentlich langsamer oder überhaupt nicht gelernt worden wären (Shaping als Dressurmethode). Beim Menschen spielen Shapingprozesse z.B. beim Spracherwerb eine entscheidende Rolle: Anfangs wird das Kind für jeden Laut gelobt, später nur noch für Wörter und Sätze! Symbolische Verhaltensregulierung: Das behavioristische Paradigma muss mittlerweile dahingehend erweitert werden, dass nicht nur die Verstärkung selbst, sondern auch deren kognitive Repräsentation das Verhalten eines Organismus beeinflusst. 3.3. Verfahren der (pädagogischen) Verhaltensmodifikation 3.3.1. Möglichkeiten zum Verhaltensaufbau Gewünschte Verhaltensweisen können durch positive und negative Verstärkung gefördert werden. Zu unterscheiden sind dabei materielle-, soziale-, informationelleund Tätigkeitsverstärker. Materielle Verstärker: Häufig angewendet wird das sog. „Token-System“, bei dem erwünschtes Verhalten mit Münzen (sog. Tokens) belohnt wird, die dann gegen reale Verstärker eingetauscht werden können. „Dangerous Minds“: Michelle Pfeiffer, die ihre Schüler mit Schokoriegeln ködert! Soziale Verstärker: Lob, Zuwendung, Aufmerksamkeit etc. Entscheidend ist dabei die „Echtheit“ des Erziehers (TAUSCH & TAUSCH)! Informationelle Verstärker: Die Lerntätigkeit selbst kann als verstärkend erlebt werden (Neugier, Bedürfnis nach Konsequenz etc.) Ansprechende Unterrichtsgestaltung Tätigkeitsverstärker (das Premack-Prinzip): Verhaltensweisen, die mit höherer Wahrscheinlichkeit auftreten (beliebte Aktivitäten) dienen als Verstärker für Verhalten, das mit geringerer Wahrscheinlichkeit auftritt (weniger beliebte Tätigkeiten); kurz: „Erst die Arbeit, dann das Vergnügen“! z.B. erst Grammatik, dann kreatives Schreiben oder Gruppenarbeit (Problem: Nicht jeder Schüler bevorzugt die gleichen Arbeitsformen) Das erwünschte Verhalten und die versprochenen Verstärker können in sog. Kontingenzverträgen (z.B. zw. Lehrer und Schüler) festgelegt werden: dabei sollten Kontingenzverträge positiv formuliert, transparent und gerecht sein. Sie sind besonders effektiv, wenn sie von beiden Vertragsparteien ausgehandelt – und nicht von einer Partei festgesetzt werden! Kontingenzverträge sind v.a. dann zu empfehlen, wenn die Interaktion hoch aversiv ist; Negativ zu bewerten ist der Tauschcharakter (positives Verhalten wird sozusagen „bezahlt“) 7 3.3.2. Möglichkeiten zum Verhaltensabbau WICHTIG: Der Abbau unerwünschter Verhaltensweisen sollte immer mit dem Aufbau positiven Verhaltens verbunden sein! A) Bestrafung In der erzieherischen Praxis wird Bestrafung häufig angewandt; ihre Wirksamkeit ist jedoch fraglich. Aus Sicht vieler Psychologen führt Bestrafung nicht zum Abbau-, sondern lediglich zur (situationsspezifischen) Unterdrückung unerwünschter Verhaltensweisen. ESTES (1944) konnte in Experimenten mit Ratten zeigen, dass Löschung, d.h. konsequente Nicht-Verstärkung, zu einer stabileren Verhaltensänderung führt als Bestrafung. Auf die Gefahren bzw. „Nebenwirkungen“ von Strafe weisen u.a. TAUSCH & TAUSCH hin: Aufmerksamkeitsfokus wird auf die unerwünschte Verhaltensweise gelenkt; oft ohne positive Alternativen nahezulegen => die Wahrscheinlichkeit, dass Bestrafung zu positivem Verhalten führt, ist daher eher gering Bestrafung verhindert Löschung (Nicht-Verstärkung) => Keine nachhaltige Veränderung-, sondern lediglich Unterdrückung des Verhaltens Strafe wird nicht mit dem Verhalten, sondern dem Strafenden assoziiert (Generalisierung der Bestrafung auf den Bestrafenden) => Schulangst, Beziehungsstörung etc. Der strafende Erzieher als negatives Modell für aggressives Verhalten Willkürliche bzw. nicht klar nachvollziehbare Bestrafung => Gelernte Hilflosigkeit Grundsätzlich sollten folgende Aspekte berücksichtigt werden: 1) Die Strafe muss dem Verhalten möglichst unmittelbar folgen und sollte gleich zu Beginn einer Verhaltenskette stehen. 2) Ferner muss die Bestrafung immer mit einer Begründung einhergehen. 3) Dem Bestraften müssen positive Alternativen aufgezeigt werden. 4) Aversive Reize verlieren durch Gewöhnung ihre Wirksamkeit und sollten daher variiert werden! 5) Zu empfehlen sind „natürliche Konsequenzen“. 6) Die Androhung von Strafe reicht oftmals aus; „sanfte“ (nicht öffentliche) Ermahnungen sind am effektivsten! 7) Prinzipiell ist Bestrafung weniger effektiv als Verstärkung! B) Operante Löschung Operante Löschung ist die konsequente Nicht-Verstärkung unerwünschten Verhaltens (Ignorieren)! Diese Methode wirkt zwar nachhaltiger als Bestrafung, ist aber in der Praxis meist nur schwer umzusetzen. Alle bisherigen Verstärker müssen identifiziert und konsequent ausgeschaltet werden, andernfalls wird das Verhalten nicht gelöscht, sondern intermittierend verstärkt; die Wirkung wäre kontraproduktiv: Erhöhung der Löschungsresistenz! Im Schulalltag ist es kaum möglich, alle Verstärker auszuschalten, schließlich wirkt nicht nur der Lehrer, sondern auch die Mitschüler und Eltern verstärkend. Nicht-Verstärkung führt zunächst zu einer Zunahme des Verhaltens – und erst nach einiger Zeit zu einem allmählichen Verhaltensabbau. Löschung erfordert demnach einen langen Atem, der bei akutem Problemverhalten kaum gegeben sein dürfte. 8 3.4. Anwendung im schulischen Alltag: eine Zusammenfassung Die Prinzipien des operanten Konditionierens werden von den meisten Lehrern intuitiv angewandt; trotzdem sollten sie sich über ihre genaue Wirkung bewusst sein. Im schulischen Alltag spielt Bestrafung (Verweise, schlechte Noten, Nachsitzen etc.) in der Regel eine größere Rolle als Verstärkung, obwohl letzteres erwiesener Maßen effektiver ist (s.o.). Außerdem sollten Lehrer sich darüber bewusst sein, dass die Wirksamkeit von Verstärkern und Strafen durch deren subjektive Wahrnehmung bestimmt wird. Z.B. müssen Ermahnungen nicht als Bestrafung gewertet werden; sie können auch als geschenkte Aufmerksamkeit interpretiert werden; in dem Fall würden sie als sozialer Verstärker wirken! Dem Paradigma des Behaviorismus zufolge wird unser Verhalten ausschließlich durch vorhergehende Reize und/oder nachfolgende Konsequenzen bestimmt. Selbst, wenn man dieser Vereinfachung zustimmt und kognitive Aspekte außer Acht lässt, bleiben die Zusammenhänge zu komplex, um sie in der Realität vollständig zu kontrollieren. Ein Klassenzimmer ist keine „Skinner-Box“! Die Mittel des Lehrers sind beschränkt. Verstärkungen und Bestrafungen gehen nicht nur von ihm, sondern auch von Mitschülern, Eltern und Kollegen aus. Wie komplex die Zusammenhänge auch unter dem Paradigma des operanten Konditionierens sind, zeigt die Verhaltensgleichung von KANFER & PHILLIPS (SORCK-Gleichung). Der Gleichung zufolge, die zwischen vorausgehenden und nachfolgenden Bedingungen unterscheidet, erfordert eine systematische Verhaltensänderung folgende Schritte: Genaue Analyse des Problemverhaltens (Erstellung einer Base-line); Festellen der verhaltensauslösenden Bedingungen (diskriminative- und negative Hinweisreize); Feststellung der zugrunde liegenden Kontingenzen und wirksamen Verstärker; Festlegung eines Zielverhaltens; Aufstellen adäquater Verstärker => Intervention; Fading out und Nachkontrolle Die kooperative Verhaltensmodifikation nach REDLICH & SCHLEY sieht eine enge Zusammenarbeit zw. Schülern und Lehrer vor. Es werden nicht nur die Ziele der Verhaltensänderung gemeinsam festgelegt, sondern auch deren Erreichung bzw. Nichterreichung gemeinsam überprüft; auf externe Verstärker wird weitgehend verzichtet; positiv verstärkend wirkt die Zielerreichung selbst. wurde in verschiedenen Schulklassen erfolgreich getestet; ist aber mit enormer Mehrbelastung für den Lehrer verbunden (Beratungsgespräche etc.)! Allgemeine Kritik am behavioristischen Ansatz: Der Behaviorismus kann menschliches Verhalten nur bedingt erklären: Unklar bleibt z.B. die Rolle der Veranlagung. Außerdem kann nicht plausibel erklärt werden, warum eine Verhaltensweise zum ersten Mal auftritt. Die These, dass alle Lernprozesse entweder durch die Kopplung von Reizen oder „Versuch und Irrtum“ initiiert werden, ist wenig überzeugend. Höhere kognitive Lernleistungen wie Wissenserwerb und Problemlösen können weder als respondentes, noch als operantes Verhalten erklärt werden. Die vorgeschlagenen Methoden zur Verhaltensmodifikation zielen lediglich auf eine Veränderung des Verhaltens, nicht aber der Einstellung. Kognitive und emotionale Komponenten des Lernens bleiben unberücksichtigt. Verstärkung und Bestrafung fördern lediglich die extrinsische Motivation; die intrinsische Motivation bleibt unberücksichtigt („overjustification effect“; „insufficient punishment“; Bem’s Selbstwahrnehmungstheorie und Festinger’s Theorie der kognitiven Dissonanz). 9 EINSCHUB: Erlernte Hilflosigkeit Das Phänomen der erlernten Hilflosigkeit geht auf MARTIN SELIGMAN zurück. SELIGMAN konnte anhand verschiedener Experimente zeigen, dass Tiere, wenn sie zuvor einer unkontrollierbaren Situation (willkürliche Elektroschocks) ausgeliefert wurden, in einer späteren Situation, in der die Elektroschocks theoretisch vermieden werden könnten, unfähig sind, die zugrunde liegenden Kontingenzen zu lernen. Gelernte Hilflosigkeit resultiert demnach aus mehreren Misserfolgserlebnissen in einer unkontrollierbaren Situation. Das Phänomen ist durch kognitive, motivationale und emotionale Defizite gekennzeichnet. Unter kognitiven Gesichtspunkten führt die erfahrene Unkontrollierbarkeit zu einer Generalisierung der Hilflosigkeit. Das Handeln wird durch die Erwartung bestimmt, die Ereignisse nicht kontrollieren zu können. Dadurch kommt es zum einem zu einem Mangel an Motivation (Apathie, Resignation und Passivität); zum anderen zu Depression und Niedergeschlagenheit. Auch unkontrollierbare Verstärkungen können sich negativ auswirken: „Erfolgsdepression“! Der Attributionstheorie zufolge ist erlernte Hilflosigkeit die Folge pessimistischer Attributionsstile. In welcher Form und in welchem Ausmaß sie auftritt, hängt davon ab, auf welche Ursachen der eigene Misserfolg zurückgeführt wird. Dabei sind folgende Dimensionen zu unterscheiden: 1) Lokation der Ursache: internal vs. external Ein Verlust des Selbstwertgefühls ist nur dann zu erwarten, wenn eine Person sich selbst für den Misserfolg verantwortlich macht. 2) Globalität der Ursache: global vs. spezifisch Zu einer Generalisierung der Hilflosigkeit kommt es nur, wenn der Misserfolg auf globale Ursachen zurückgeführt wird (z.B. auf generelle Unfähigkeit und nicht auf eine spezifische Schwäche) 3) Stabilität der Ursache: zeitstabil vs. zeitinstabil Dauerhaft ist gelernte Hilflosigkeit nur dann, wenn sie auf stabile Ursachen (z.B. auf die eigene Fähigkeit und nicht auf die Anstrengung) zurückgeführt wird. Pädagogische Konsequenzen: Demnach gilt es als Lehrer, den Schülern positive Attributionsmuster nahe zu legen (Anstrengung statt Fähigkeit etc.); auf willkürliche Bestrafung zu verzichten; Möglichkeiten zur Verhaltensänderung aufzuweisen,…! Siehe: Sozialpsychologie 10 4. Sozial-kognitive Lerntheorie: „Modelllernen“ 4.1. Die sozial-kognitive Lerntheorie nach Bandura Unter Modelllernen versteht man Lernprozesse, die auf der Beobachtung und Nachahmung anderer Personen beruhen. Lernen am Modell wird daher auch als Beobachtungs- oder Imitationslernen bezeichnet. Zu unterscheiden ist zwischen realen- und symbolisch vermittelten Modellen (erstere sind reale Personen; zu letzteren gehören z.B. Romanfiguren oder Filmhelden). Modelllernen spielt v.a. im Zusammenhang mit sozialen Lernprozessen eine Rolle. Am Modell wird gelernt, welches Verhalten in einer sozialen Situation adäquat ist und welches nicht. Daher die große Bedeutung des Modelllernens für prosoziales- und aggressives Verhalten Dabei lassen sich folgende Lerneffekte unterscheiden: Neuerwerb von Verhaltensweisen (modellierender Effekt): Am Modell können Verhaltensweisen gelernt werden, die dem Beobachter vorher noch nicht bekannt waren (z.B. Autofahren etc.). Der hemmende- und enthemmende Effekt: Je nachdem welche Konsequenzen das Verhalten des Modells hat, treten bereits vorhandene Verhaltensweisen in Folge des Modelllernens häufiger oder seltener auf. Der auslösende Effekt: Eine bereits vorhandene Verhaltensweise wird unmittelbar nachdem ein Modell sie ausführt, nachgeahmt (z.B. Klatschen im Konzert) Die wichtigste Theorie zum Modelllernen ist die sozial-kognitive Theorie von BANDURA; sie geht davon aus, dass die Nachahmung eines Verhaltens sowohl von internalen-, als auch von externalen Bedingungen abhängt. Bandura’s Theorie verbindet somit kognitive u. verhaltenstheoretische Aspekte. Ob ein modelliertes Ereignis nachgeahmt wird, hängt BANDURA zufolge von 4 Prozessen ab. Dabei unterscheidet er zwischen einer Aneignungsphase (Aufmerksamkeits- und Gedächtnisprozesse) und einer Ausführungsphase (Motorische Reproduktions- und Motivationsprozesse): 1) Aufmerksamkeitsprozesse Damit ein Modell wirksam werden kann, muss es beachtet werden; insofern spielen Aufmerksamkeitsprozesse eine entscheidende Rolle beim Beobachtungslernen. Die Aufmerksamkeit wird dabei zum einen von Merkmalen des Modells (Prestige, Kompetenz, Attraktivität, Auffälligkeit etc.), zum anderen von Merkmalen des Beobachters bestimmt (Kompetenz, Motivation, kognitive Kapazität etc.). 2) Gedächtnisprozesse Darüber hinaus muss das beobachtete Verhalten kognitiv verarbeitet und im Gedächtnis gespeichert werden: Zu diesem Zweck muss es bildlich- oder verbal repräsentiert und in entsprechende Schemata transformiert werden. Bandura betont, dass es sich bei diesem Verarbeitungs- und Speicherungsprozess um einen aktiven Vorgang handelt; es ist daher wichtig, zwischen dem modellierten Verhalten – und dessen innerer Repräsentation zu unterscheiden! 11 3) Motorische Reproduktionsprozesse Damit ein beobachtetes Verhalten ausgeführt werden kann, muss es vorher – mental oder physisch - geübt werden. 4) Motivations- bzw. Verstärkungsprozesse Ob das beobachtete- und kognitiv verarbeitete Verhalten dann tatsächlich nachgeahmt wird, hängt schließlich von motivationalen Faktoren ab. Dabei unterscheidet BANDURA zwischen äußerer Verstärkung, stellvertretender Verstärkung und Selbstverstärkung. A) Äußere Verstärkung liegt vor, wenn der Beobachter selbst für die Nachahmung des Verhaltens belohnt wird (tatsächliche Verstärkung). B) Stellvertretende Verstärkung liegt dagegen vor, wenn das Modell für das Verhalten belohnt wird. C) Selbstverstärkung beruht auf intrinsischen Anreizen (Verhalten verschafft hohes Selbstwertgefühl etc.) Experimente zum Modelllernen gehen üblicher Weise in 3 Schritten vor. In einer 1. Phase wird das spontan gezeigte Verhalten in einer Situation registriert. In einer 2. Phase wird den Vpn ein Modell (Live-Situationen, Filme, Geschichten etc.) vorgeführt, das ein bestimmtes Verhalten (z.B. Aggression) zeigt. In einer 3. Phase wird überprüft, ob sich das Verhalten der Pbn in Abhängigkeit von dem vorgeführten Modell verändert. BANDURA, ROSS & ROSS (1963): Kindergartenkinder, die zuvor einen Erwachsenen beim Ausführen aggressiver Handlungen beobachten konnten (auf Video oder real), zeigten in einer anschließenden Spielphase doppelt so häufig aggressive Handlungen wie Kinder aus der Kontrollgruppe; darüber hinaus ließ sich beobachten, dass sie die zuvor gesehenen Handlungen an einer Plastikpuppe z.T. exakt imitierten. LEFKOWITZ (1955): Baseline: 99% der Fußgänger gehen nur bei grün über die Straße; geht ein „Modell“ in guter Kleidung (hoher Status) bei rot über die Ampel, halten sich nur noch 86% der Passanten an die Verkehrsregel; bei einem schäbig gekleideten „Modell“ fällt der Effekt wesentlich geringer aus! 4.2. Interventionsmethoden nach dem Lernen am Modell Stellvertretende Desensibilisierung: Hochängstliche Schüler werden neben weniger ängstliche Schüler gesetzt; Grundgedanke: durch die Beobachtung wenig ängstlicher Mitschüler Bewältigungsstrategien lernen! Stellvertretende operante Konditionierung (Stellvertretende Verstärkung, stellvertretende Bestrafung): Mitschüler, die in der Klasse eine herausragende Stellung einnehmen (Modellschüler), können vom Lehrer zur stellvertretenden Verstärkung bzw. Bestrafung genutzt werden. Schüler, die positiv auffallen, die Rolle des Vorbilds zuzuschieben, ist dabei ebenso problematisch, wie Schüler die Rolle des Negativ-Beispiels zu drängen (Vorsicht: Keine Exempel statuieren!) Lehrer sind aufgrund ihrer herausragenden Rolle in besonderem Maße Modell (Macht, Aufmerksamkeit etc.). Es gilt daher, ganz besonders auf eigene Äußerungen und Verhaltensweisen zu achten: harte Bestrafung, Wutausbrüche etc. sind zu vermeiden! Lernen am Modell in der Gruppenarbeit, in Rollenspielen usw.! 12 5. Begriffsbildung und Wissenserwerb 5.1. Wissen und Wissenserwerb Grundsätzlich lassen sich 2 Formen von Wissen unterscheiden: Das Handlungswissen (prozedurales Wissen) bezieht sich auf automatisierte motorische und kognitive Fertigkeiten wie z.B. Fahrradfahren oder Multiplizieren. Es ist überwiegend implizit (unbewusst). Unter Sachwissen (deklaratives Wissen) versteht man dagegen explizites, d.h. bewusstes und verbalisierbares Wissen. Im Folgenden geht es um den Erwerb von Sachwissen. Dabei handelt es sich nach heutiger Auffassung nicht um das bloße Auswendiglernen von Fakten, sondern um die kognitive Verarbeitung und Strukturierung von Informationen. Wissenserwerb meint zum einen die Bildung und mentale Repräsentation von Begriffen, zum anderen deren Zusammenfügung und Vernetzung zu übergeordneten Wissensstrukturen. Da diese Prozesse zu einem großen Teil vom Subjekt selbst ausgehen, ist der Erwerb von Wissen als aktive, konstruktive Leistung des lernenden Subjekts anzusehen ( Behaviorismus). Wissenserwerb ≠ Auswendiglernen (s.u.) Im Folgenden wird Wissenserwerb unter den Aspekten der (1) Begriffsbildung (Begriffe als „Bausteine des Wissens“), (2) Assimilation (Verankerung des neuen Wissens in der kognitiven Struktur), (3) Repräsentation und (4) Vernetztheit beschrieben. 5.2. Begriffsbildung Ein Begriff (engl.: concept) ist die Zusammenfassung von Objekten zu Klassen aufgrund gemeinsamer Merkmale und Beziehungen. Begriffe dienen also der Organisation unseres Wissens; sie helfen dabei, die zahllosen Informationen aus unserer Umwelt mittels sinnvoll zu reduzieren. Begriffsbildung beruht dabei auf Generalisierungsund Differenzierungsprozessen: Einerseits muss von den Besonderheiten des Einzelfalls abstrahiert-, andererseits müssen die gemeinsamen Eigenschaften erkannt und hervorgehoben werden. Da wir in und mit Begriffen denken, sind sie gleichermaßen Inhalt und Instrument des Denkens. Sie sind fundamental für unser Erleben und Verhalten! Wie Begriffsbildung und -identifikation im Einzelnen ablaufen, ist umstritten (siehe: Entwicklungspsychologie, Kap. 2). Feststeht, dass sowohl induktive-, als auch deduktive Denkvorgänge eine Rolle spielen und die Entwicklung begrifflichen- und sprachlichen Denkens sich gegenseitig beeinflussen. Beim induktiven Vorgehen werden die konstitutiven Merkmale eines Begriffes aus den Daten erschlossen (Ganzheitsstrategie). Beim deduktiven Vorgehen werden dagegen hypothetische Annahmen darüber gemacht, was die konstitutiven Merkmale sind, und diese Annahmen dann an der Realität geprüft (Teilschrittstrategie). Begriffe bzw. Kategorien sind hierarchisch geordnet. Drei Klassifikationsebenen können unterschieden werden: 1) Eine globale bzw. übergeordnete Ebene (z.B. Tier / Fahrzeug) 2) Eine mittlere oder basale Ebene (z.B. Vögel / Autos) 3) Eine detaillierte oder untergeordnete Ebene (z.B. Schwalbe/ VW-Käfer) 13 Begriffe verfügen über eine sachliche (denotative) und eine emotionale (konnotative) Komponente (z.B. die Begriffe „Mutter“, „Vaterland“ etc.); Begriffsbildung ist insofern nicht zuletzt ein subjektiver, in gewissem Sinne willkürlicher Prozess. Die meisten Begriffe sind zwar sprachlich repräsentiert; allerdings sind Begriffe nicht zwangsläufig an sprachliche Bezeichnungen geknüpft und in keinem Fall mit diesen identisch (Begriff ≠ Wort)! Auch wenn den meisten Begriffen ein entsprechender Term (=Wort) zugeordnet werden kann, ist zwischen der Bezeichnung und deren Bedeutung zu unterscheiden. Z.B. kann ein Begriff mehrere Bezeichnungen haben (sog. Synonyme: „Kartoffel“ und „Erdapfel“ / in verschiedenen Sprachen: „Kartoffel“ vs. „potatoe“) oder ein Begriff durch verschiedene Namen bezeichnet werden (sog. Homonyme: „Heide“). BUNGE daher Sinne eine Differenzierung zwischen Term, Begriff und Sachverhalt vor. Es gibt verschiedene Theorien darüber, wie Begriffe mental repräsentiert sind. Zu unterscheiden ist dabei u.a. zwischen merkmals- und theoriebasierten Ansätzen (siehe Entwicklungspsychologie, Kap. 2)! Merkmalsbasierte Ansätze gehen entweder davon aus, dass Begriffe anhand definierender oder anhand typischer Merkmale repräsentiert sind. Erstere Position ist die klassische Theorie; letztere wird als Prototypentheorie bezeichnet (s.u.). Theoriebasierten Ansätzen zufolge sind Begriffe nicht nur Kategorien, sondern gleichzeitig Erklärungen. Sie enthalten in sich schon theoretische Annahmen. Wissenserwerb und Begriffsbildung sind damit kaum voneinander zu trennen; eine Unterscheidung zwischen „Begriffen“ und „Regeln“ bzw. „Begriffsketten“, wie Gagné sie trifft (s.u.), ist sinnlos! Tatsächlich lassen sich viele Begriffe (z.B. der Begriff „Lernen“) nur vor dem Hintergrund einer bestimmten Theorie sinnvoll erklären! EDELMANN unterscheidet vor diesem Hintergrund zwischen Eigenschafts- und Erklärungsbegriffen: Erstere beruhen auf Merkmalsassoziationen; sie sind gleichzusetzen mit Kategorien. Letztere dienen nicht nur der Kategorisierung-, sondern auch der Erklärung von Phänomenen; sie sind an spezifische Theorien geknüpft. FAZIT: Unser Wissen basiert auf Begriffen. Die Grenzen zwischen Begriffsbildung und Wissenserwerb sind insofern fließend! 5.3. Assimilation 5.3.1. Das Regellernen nach Gagné GAGNÉ beschreibt Wissenserwerb als den Erwerb von „Regeln“, die er als „Begriffsketten“ definiert. Die Begriffe als solche enthalten demnach noch kein „Wissen“ im eigentlichen Sinn; sie sind lediglich dessen Grundbausteine. Wissenserwerb findet erst statt, wenn die einzelnen Begriffe sinnvoll zu „Ketten“ bzw. „Regeln“ zusammengefügt werden (Wissen als Kombination von Begriffen). Dabei ist zwischen „begrifflichen“ und „sprachlichen“ Ketten zu unterscheiden. Erstere beruhen auf einem tieferen Verständnis; letztere nicht: sie werden lediglich auswendig gelernt, ohne dass dabei die Beziehungen zwischen den einzelnen Begriffen erfassen werden. 14 Regellernen bzw. Wissenserwerb findet GAGNÉ zufolge überwiegend durch verbale Unterweisung statt. Dabei muss darauf geachtet werden, dass nicht nur sprachliche Ketten auswendig gelernt-, sondern die Regeln verstanden werden (die einzelnen Begriffe müssen klar sein, die begrifflichen Ketten in anderen Worten wiedergegeben und angewandt werden können etc.) GAGNÉ unterscheidet 3 Lernformen, die logisch aufeinander aufbauen und sich wechselseitig bedingen: 1) Begriffsbildung => Kategorisierung 2) Wissenserwerb => Regellernen (Bildung von Begriffsketten) 3) Problemlösen => Anwendung von Regeln Der ideale Unterrichtsaufbau sollte sich GAGNÉ zufolge an dieser hierarchischen Abfolge orientieren. Er spricht in diesem Zusammenhang von sog. „Lernstrukturen“. Konkret: Erst die Begriffe klären, dann die Regeln lehren und im letzten Schritt das gelernte Wissen auf konkrete Probleme anwenden lassen. Kritik: Eine saubere Trennung zwischen Begriffen und Regeln ist kaum möglich, insofern viele Begriffe selbst schon Erklärungen sind und erst im Kontext bestimmter Theorien Sinn ergeben (s.o.). 5.3.2. Ausubel’s Assimilationstheorie AUSUBEL zufolge gibt es verschiedene Formen des sprachlichen Lernens. Er unterscheidet diese anhand zweier Dimensionen: Entsprechend der von ihm zugrunde gelegten Dimensionen bewegt sich verbales Lernen zwischen den Polen „sinnvoll“ – „mechanisch“ und „rezeptiv“ – „entdeckend“. Die verschiedenen Arten des Wissenserwerbs lassen sich demnach in Form einer 4-Felder-Tafel systematisieren, wobei die Übergänge zwischen den Polen jeweils fließend sind. „Sinnvolles Lernen“ zeichnet sich dabei durch 2 Kriterien aus: Erstens, sollte der Stoff inhaltlich und nicht wortwörtlich gelernt werden. Zweitens, muss das Gelernte zufallsfrei, d.h. sinnvoll mit dem jeweiligen Vorwissen verknüpft werden (Assimilation). Dabei unterscheidet AUSUBEL, je nach Art der Verknüpfung, zwischen unterordnendem, überordnendem und kombinatorischem Lernen. - Beim unterordnenden Lernen (Subsumtion) ist der Allgemeinheitsgrad des Vorwissens größer als der des neu gelernten Stoffs; dementsprechend wird letzterer dem Vorwissen subsumiert und dient entweder der Veranschaulichung oder der Spezifizierung des Vorwissens; beim überordnenden Lernen ist es umgekehrt. Bei älteren Kindern und Erwachsenen ist die häufigste Form des Lernens die „korrelative Subsumtion“: D.h. es besteht bereits ein allgemeines und ungefähres Vorwissen, das durch neu Gelerntes spezifiziert und modifiziert wird. - AUSUBEL: „progressive Differenzierung des Wissens“ Assimilation (=Verknüpfung zwischen Vorwissen und neu Gelerntem) ist nach AUSUBEL immer ein wechselseitiger Prozess: Neue Informationen werden in Abhängigkeit vom Vorwissen verarbeitet und verändern ihrerseits das Vorwissen und alte Wissensstrukturen. Vorwissen und neu Gelerntes beeinflussen sich also gegenseitig! 15 „Mechanisches Lernen“ meint wortwörtliches und stupides Auswendiglernen. Inhalt und Bedeutung des Stoffes werden nicht verstanden; das Gelernte kann dementsprechend nicht assimiliert werden. „Mechanisches Lernen“ im Sinne Ausubel’s entspricht dem „Lernen sprachlicher Ketten“ bei Gagné. Beide betrachten diese Form des Lernens nicht als Wissenserwerb. Beim „rezeptiven Lernen“ wird der Lernstoff dem Schüler in fertiger Form dargeboten (z.B. in Form eines Lehrervortrags oder Schulbuchkapitels); beim „entdeckenden Lernen“ werden die Lernergebnisse vom Schüler selbst erarbeitet (Versuche, Projekt- und Gruppenarbeit etc.) AUSUBEL propagiert „sinnvoll-rezeptives Lernen“ als die beste Variante, BRUNER dagegen bevorzugt das „sinnvoll-entdeckende Lernen“ (s.u.). Ziel des schulischen Lernens ist nach AUSUBEL die Ausbildung einer klar gegliederten, hierarchisch geordneten Wissensstruktur. Erreicht wird dieses Ziel primär durch sinnvoll-rezeptives Lernen, wobei die Richtung des Lernens durch progressive Differenzierung gekennzeichnet sein sollte: Allgemeine Begriffe und Regeln sollten durch neues Wissen spezifiziert werden. AUSUBEL zufolge wird Wissenserwerb also überwiegend durch deduktive Denkprozesse vorangetrieben: Es wird vom Allgemeinen aufs Besondere geschlossen bzw. das Besondere dem Allgemeinen zu- und untergeordnet (unterordnendes Lernen). 5.3.3. Entdeckendes Lernen nach Bruner Die beste Form schulischen Lernens ist nach BRUNER das „sinnvoll-entdeckende“ Lernen. a) weil es die intrinsische Motivation („Kompetenzmotivation“) fördert und b) weil es zur Entwicklung einer allgemeinen Problemlösefähigkeit beiträgt! Letztere ist nach BRUNER oberstes Ziel des Schulunterrichts! Da schulisches Lernen immer nur exemplarisch stattfinden kann, gilt es, positiven Transfer zu fördern. Von „positivem Transfer“ spricht man, wenn früheres Lernen späteres Lernen positiv beeinflusst. Positiver Transfer bezeichnet also die Fähigkeit, bereits angeeignetes Wissen bzw. erworbene Fertigkeiten in neuen Anforderungssituationen erfolgreich anzuwenden. Während der Schulzeit sollte induktives Denken im Vordergrund stehen (vom Besonderen zum Allgemeinen), später kann neuer Stoff dann deduktiv erschlossen werden. 16 6. Problemlösen: 6.1. Was ist ein „Problem“? Nach DUNCKER liegt ein Problem vor, „wenn ein Lebewesen ein Ziel hat und nicht weiß, wie es dieses Ziel erreichen soll.“ DÖRNER: „Ein Individuum steht einem Problem gegenüber, wenn es sich in einem inneren oder äußeren Zustand befindet, den es aus irgendwelchen Gründen nicht für wünschenswert hält, aber im Moment nicht über die Mittel verfügt, um den unerwünschten Zustand in einen wünschenswerteren zu überführen.“ Ein Problem ist demnach durch 3 Merkmale gekennzeichnet: 1) Unerwünschter Ausgangszustand 2) Erwünschter Zielzustand 3) Barriere, die die Überführung des Ausgangszustandes in den Zielzustand verhindert. Vor diesem Hintergrund lassen sich Probleme von Aufgaben abgrenzen. Bei letzteren ist der Lösungsweg bekannt, bei ersteren muss dieser erst erschlossen werden. Je nach Problemtyp sind die Grenzen zwischen Problem und Aufgabe allerdings fließend (s.u.). Prinzipiell entscheiden v.a. die individuellen Vorerfahrungen einer Person darüber, was für sie ein Problem und was eine Aufgabe ist. Hat man für eine Prüfung nicht gelernt, besteht sie nicht aus Aufgaben, sondern Problemen! DÖRNER zufolge unterscheiden sich Probleme hinsichtlich des Bekanntheitsgrades der Mittel und der Klarheit der Zielkriterien. Anhand dieser beiden Dimensionen differenziert er zwischen 4 Problemtypen: 1) Sind sowohl die Mittel als auch die Zielkriterien klar, liegt eine „Interpolationsbarriere“ vor. Es müssen lediglich die besten Mittel ausgewählt und korrekt angewandt werden. Probleme dieser Art sind von Aufgaben nur noch schwer abzugrenzen. 2) Eine „Synthesebarriere“ liegt vor, wenn das Ziel zwar bekannt ist, aber die Mittel zur Erreichung unklar sind. 3) Eine „dialektische Barriere“ liegt vor, wenn die Mittel zwar prinzipiell bekannt sind, aber das Ziel unklar ist (Verschönerung des Klassenraumes etc.) DÖRNER: „schlecht definierte“ Probleme 4) Der 4. Problemtyp zeichnet sich durch eine Kombination aus dialektischerund Synthesebarriere aus: Weder Mittel noch Ziel sind klar! Probleme treten in verschiedenen Realitätsbereichen auf (Beziehungsprobleme, Autopannen, Textaufgaben etc.). Ein Realitätsbereich besteht aus Sachverhalten und Operatoren. Operatoren sind Handlungen, die einen Sachverhalt in Richtung Zielzustand verändern. Daraus folgt: Um ein Problem zu lösen benötigt der Problemlöser Wissen über den betreffenden Realitätsbereich. Problemlöseprozesse lassen sich als „Suchbäume“ darstellen. In solchen „Suchbäumen“ werden alle möglichen Zustände bzw. Sachverhalte bis zur Erreichung des Zielzustands abgetragen und durch die jeweiligen Operatoren verbunden. Die kürzeste Operatorsequenz entspricht der optimalen Problemlösung. 17 6.2. Was ist „Problemlösen“? Ausgehend von der oben genannten Definition bezeichnet „Problemlösen“ die planvolle Überwindung von Barrieren zur Erreichung eines Ziels. Ein solcher Prozess erfordert nicht nur die sinnvolle Anwendung vorhandenen Wissens, sondern darüber hinaus die Erarbeitung neuer Lösungen. DÖRNER unterscheidet dementsprechend zwischen 2 Ebenen bzw. kognitiven Strukturen: der epistemischen- und der heuristischen Struktur. Erstere enthält das deklarative und prozedurale Wissen einer Person. Zur Lösung von Aufgaben reicht diese Struktur aus; sie ermöglicht reproduktives Denken. Die heuristische Struktur enthält sog. „Heurismen“, worunter allgemeine Problemlöseverfahren zu verstehen sind. Ein verhältnismäßig einfacher und oft angewandter Heurismus ist z.B. der des Versuchs und Irrtums. Heurismen (s.u.) kommen zur Anwendung, wenn rein reproduktives Denken zur keiner Lösung führt; sie dienen der Konstruktion neuer Operatoren. In der Terminologie PIAGET’S: Die epistemische Struktur dient der Assimilation (also der Anwendung bekannter Schemata auf die Umwelt); die heuristischen Struktur dagegen der Akkomodation (also der Anpassung der Denkstrukturen an die Umwelt). Während unter Heurismen allgemeine Problemlöseverfahren zu verstehen sind, bezeichnen Operatoren konkrete Handlungen, die einen bestimmten Sachverhalt in einen anderen überführen (z.B. das Auswechseln einer Glühbirne, die Anwendung einer Rechenformel etc.). Häufig angewandte Heurismen sind z.B.: 1) Versuch und Irrtum 2) Analytischer Heurismus: Aufteilung eines komplexen Problems in Unterprobleme 3) Umstrukturierung des Problems 4) Entdeckungsheurismus => kreative Problemlösung Problemlöseoperatoren werden durch direkte Instruktion, durch Analogiebildung (die Lösung eines Beispielproblems wird auf das aktuelle Problem übertragen) oder Entdeckung (schlussfolgerndes Denken; Versuch und Irrtum) erworben. Der „Problemraum“ bezeichnet die innere Repräsentation eines Problems; er beinhaltet das Wissen einer Peron über den betreffenden Realitätsbereich, die Kenntnis anwendbarer Operatoren und das subjektive Verständnis der Barrieren. Graphisch dargestellt werden kann der Problemraum in Form eines „Suchbaumes“, der die Menge aller möglichen Zustände und Operatoren enthält (s.o.). DUNKER unterteilt Problemlöseprozesse in eine Ziel- und eine Situationsanalyse. Bei der Zielanalyse geht es um die Frage, was gesucht ist und was nicht (Überwindung der dialektischen Barriere). Die Situationsanalyse beschäftigt sich mit den Barrieren und deren Überwindung. Dementsprechend lässt sie sich in eine Konflikt- und eine Materialanalyse unterteilen. In ersterer geht es um die Frage, woran die Problemlösung scheitert, in letzterer darum, welche Mittel bzw. Operatoren zur Lösung des Problems zur Verfügung stehen und einsetzbar sind. Durch die Ziel- und Situationsanalyse ist der Problem- bzw. Suchraum abgesteckt. Wie die anschließende Lösungssuche im Einzelnen abläuft, hängt von den verwendeten Heurismen ab (s.o.). 18 Der Vorgang des Problemlösens kann als sog. TOTE-Einheit beschrieben werden („test“ => „operation“ => „test“ => „exit“). Nach der Durchführung einer Operation („operation“) wird deren Ergebnis geprüft („test“); je nachdem, ob die angewandte Operation zum Zielzustand geführt hat oder nicht, wird der Vorgang entweder beendet („exit“) oder eine andere Operation durchgeführt („operation“). FAZIT: Ob ein Problem gelöst wird, hängt von Merkmalen des Problems und Merkmalen der Person ab. Problemmerkmale: Art der Barriere (s.o.), Komplexität; Transparenz, Vernetztheit und Eigendynamik des Problems etc. Personenmerkmale: Wissensumfang und –organsiation im jeweiligen Realitätsbereich; Verfügbarkeit von Heurismen, Motivation 6.3. Problemlösen durch Versuch und Irrtum Beim Versuchs-und-Irrtums-Verfahren werden unsystematisch Lösungsversuche generiert und nachträglich überprüft. Je größer der Problemraum, desto ineffektiver das Verfahren. Dem klassischen Behaviorismus zufolge (THORNDIKE) erfolgt Problemlösen überwiegend, wenn nicht ausschließlich durch Versuch und Irrtum. Ein klassisches Beispiel ist THORNDIKE’S Vexierkäfig: Hungrige Katzen, die in einen solchen Käfig eingesperrt werden, zeigen zunächst willkürliche Fluchtversuche (kratzen, beißen etc.), bis sie durch Zufall auf den Mechanismus (Hebel) stoßen, mit dem der Käfig geöffnet werden kann. 6.4. Problemlösen durch Umstrukturierung Die Gestaltpsychologen (WERTHEIMER, DUNCKER, KÖHLER) wenden sich gegen die behavioristische Sichtweise. Sie beschreiben das Lösen von Problemen als Umstrukturierung der Wahrnehmung. Zu dieser Umstrukturierung kommt es nicht durch Versuch und Irrtum, sondern durch „Einsicht“. KÖHLER untersuchte diesen Prozess anhand zahlreicher Versuche mit Affen. Eines der bekanntesten Beispiele ist der Affe „SULTAN“, der plötzlich auf die Idee kommt („Aha-Erlebnis“), zwei Stangen ineinander zu stecken, um damit an Futter außerhalb des Käfigs zu gelangen. Die Gestaltpsychologie geht davon aus, dass wir zu einer ganzheitlichen Wahrnehmung tendieren (Gesetz der guten Gestalt). Probleme zeichnen sich durch eine unklare Gestalt aus: sie sind unüberschaubar und verwirrend. Der Problemlöseprozess besteht darin, die Wahrnehmung der jeweiligen Situation so umzustrukturieren, dass die einzelnen Teile (z.B. Sultan’s Stock) neu gewichtet werden und in Bezug auf das Ziel Sinn ergeben. Dieser Prozess kann entweder sukzessive oder schlagartig erfolgen. In letzterem Fall spricht man von einem „Aha-Erlebnis“: die Wahrnehmung der Situation kippt wie bei einem Vexierbild um! DUNCKER beschreibt den Prozess der Umstrukturierung als Situations- und Zielanalyse (s.o.). Ihm zufolge entspricht die präziseste Fassung eines Problems dessen Lösung! 19 Die Umstrukturierung der Wahrnehmung erfordert Kreativität. Kreativen Problemlösungen geht häufig eine Inkubationszeit voraus, in der sich das Subjekt vorübergehend vom Problem abwendet. Vermutlich wird dadurch die Tendenz geschwächt, bereits ausprobierte und fehlgeschlagene Lösungsversuche zu wiederholen bzw. in festgefahrenen Denkmustern zu verharren! Nach GUILFORD zeichnet sich kreatives Denken durch 4 Aspekte aus: 1) Sensitivität gegenüber Problemen (erfordert nicht zuletzt Wissen) 2) Flüssigkeit des Denkens (Anzahl der Ideen, Assoziationen etc.) 3) Flexibilität des Denkens (Wechsel von Bezugssystemen etc.) 4) Originalität des Denkens (Neuheit/Seltenheit der Produkte) In der Schule wird kreatives Denken häufig behindert (s.u.): Konventionelle Problemlösungen werden gefördert; strikte Erfolgsorientierung; Vermeidung von Misserfolgen; bürokratisch-administrative Organisation der Unterrichtsarbeit (festgelegte Stundendauer etc.); extrinsische Motivation; Konformitätsdruck etc. Methoden zur Anregung kreativer Problemlösungen (v.a. bei dialektischen Problemen zu empfehlen): Brainstorming: Sammeln von Lösungsvorschlägen in der Gruppe (Wichtig: die verschiedenen Lösungsvorschläge dürfen während des Brainstormings nicht bewertet werden; die Durchführbarkeit der Vorschläge spielt in der Sammelphase eine untergeordnete Rolle) Methode 635: eine Art schriftliches Brainstorming, bei dem negative Gruppenprozesse ausgeschaltet werden; jeder von 6 Personen schreibt 3 Lösungsvorschläge auf einen Zettel (5 Minuten Zeit) und gibt den Zettel an seinen Nachbarn weiter, der 3 weitere Vorschläge notiert. Der Vorgang wird solange wiederholt (6 Mal), bis jeder Teilnehmer auf jeden Zettel 3 Vorschläge notiert hat. Morphologischer Kasten: Das zu lösende Problem wird in seine Problembestandteile zerlegt, für die dann jeweils einzeln Lösungen gesucht werden. 6.5. Problemlösen durch Systemdenken Bei komplexeren Problemen geht es nicht um die Erreichung eines Ziels, sondern der Problemlöser sieht sich mit einer Vielzahl möglicher Ziele („Polytelie“) konfrontiert, die sich u.U. sogar widersprechen. Weitere Merkmale von komplexen Problemen: Vielzahl von Variablen, intransparente Situation (fehlende Informationen), wechselseitige Abhängigkeit, Eigendynamik In diesem Fall erfordert das Lösen von Problemen die Fähigkeit zu vernetztem Denken; statt linear in den Kategorien Ursache und Wirkung zu denken, müssen Neben- und Wechselwirkungen beachtet werden. Untersucht wurde diese Art des Problemlösens u.a. anhand des „Lohhausenproblems“ (DÖRNER): Dabei schlüpfen die Pbn im Rahmen einer Computersimulation für mehrere Sitzungen in die Rolle eines Bürgermeisters. Die Ergebnisse solcher Studien zeigen, dass sich die meisten Menschen mit komplexeren Problemen äußerst schwer tun. Neben- und Wechselwirkungen werden übersehen, die Eigendynamik der Situation nicht bedacht und langfristige Konsequenzen falsch eingeschätzt. Ein großer Anteil der Vpn wirtschaftet Lohhausen in kürzester Zeit in den Bankrott! Bemerkenswert: Die Leistungen in komplexen Problemlöseaufgaben sind nicht durch den IQ vorhersagbar (siehe: Differentielle Psychologie)! 20 6.6. Schlussfolgerndes Denken Schlussfolgerndes Denken bedeutet allgemein, von etwas Gegebenem zu etwas Neuem zu kommen. Drei Formen des schlussfolgernden Denkens sind zu unterscheiden (Es gibt 3 Schlussfolgerungsmethoden bzw. Inferenzen in der Logik): 1) Deduktives Schließen Von gegebenen Sachverhalten wird auf weitere geschlossen; dazu muss man erkennen, welche weiteren Sachverhalte in dem gegebenen impliziert (mit eingeschlossen) sind. Kurz: Es wird vom Allgemeinen auf das Besondere geschlossen! 2) Induktives Schließen Aus einer Folge wiederkehrender Phänomene wird auf allgemeine Regelmäßigkeiten oder Gesetzmäßigkeiten geschlossen; Kurz: Vom Besonderen (von Einzelbeobachtungen) wird aufs Allgemeine geschlossen! Im Vergleich zur Deduktion ist die Induktion eine nicht ganz korrekte Schlussweise, da es immer Ausnahmen geben kann, die noch nicht beobachtet wurden (Vgl.: Popper’s schwarzen Schwan). Wichtig bei der Begriffsbildung, der Generierung von Hypothesen und der Voraussage von Ereignissen. Letztlich wird all unser Wissen über Induktion gewonnen! 3) Analoges Schließen Von der Übereinstimmung in einigen Punkten (Ähnlichkeit) wird auf Entsprechung auch in anderen Punkten bzw. auf die Gleichheit von Verhältnissen geschlossen. Kurz: Etwas Bekanntes nutzen, um etwas noch Unbekanntes (aber Ähnliches) zu verstehen: Z.B. Nach PIAGET entwickelt sich die Fähigkeit zu schlussfolgerndem Denken erst auf der Stufe des formal-operativen Denkens, also ab dem 11./12. Lebensjahr. Neure Untersuchungen widersprechen dem aber; sie legen nahe, dass Kinder schon früh zu schlussfolgerndem Denken in der Lage sind – sofern man ihnen nur die richtigen Aufgaben stellt. Induktives Schließen: Anhand von Syllogismusaufgaben (Gesetz, Prämisse => Consecutio) zeigen DIAS & HARRIS, dass bereits 5- bis 6-jährige Kinder zu induktiven Schlüssen in der Lage sind. Analoges Schließen: EXPERIMENT (Holyoack et al., 1984): Der Magier und seine Strategie Kleinkinder bekommen eine von 2 Geschichten vorgelesen. Im nachfolgenden Versuchsabschnitt müssen sie Bälle in ein entferntes Gefäß befördern, ohne dabei vom Stuhl aufzustehen. Haben die Kinder zuvor die Geschichte gehört, in der ein Magier seinen Teppich zu einer Röhre rollt, um Edelsteine durchgleiten zu lassen, rollen sie ein Stück Papier zusammen und lassen die Bälle dadurch ins Gefäß rollen. Ihnen gelingt ein Analogie-Schluss! 21 6.7. Erfolgreiche und erfolglose Problemlöseprozesse Erfolgreiche Problemlöser weisen nach DÖRNER folgende Merkmale auf: 1) Umgang mit Komplexität Vernetztes statt lineares Denken: die Struktur und Dynamik von Systemen erkennen; Fähigkeit zur Strukturierung von Problemsituationen 2) Spezifische intellektuelle Leistungsfähigkeit IQ spielt eine untergeordnete Rolle; wichtiger sind ein breit gefächertes Wissen (Kenntnis verschiedener Realitätsbereiche) und die Fähigkeit zu analogem und deduktivem Denken. 3) Entscheidungsfreudigkeit Es werden relativ viele Hypothesen generiert und überprüft (Fähigkeit zu induktivem Denken) 4) Selbstsicherheit Mut zum Fehler; Unsicherheit aushalten; keine übertriebene Tendenz, ein positives Fähigkeitsselbstkonzept aufrecht zu erhalten 5) Verantwortung und Stabilität des Handelns Ausdauer; keine Delegation von Problemen; kein Ausweichen auf unbedeutende Nebenfragen Analogien (Ähnlichkeiten) erleichtern das Lernen und Verstehen von Sachverhalten und fördern Problemlöseprozesse. Beim analogen Denken werden bereits bekannte Schemata auf einen anderen Bereich übertragen und dadurch neue Schemata gebildet (Transfer). Z.B. wird der Aufbau des Atoms häufig anhand des Sonnensystems erklärt. Im Zusammenhang mit dem Lösen von Problemen bedeutet Analogiebildung, dass das Lösungsprinzip eines Problems auf ein anderes Problem übertragen wird. Die große Wirkung solcher Prozesse auf das Lösen von Problemen konnte experimentell vielfach nachgewiesen werden. HOLYOACK et al. gab seinen Pbn folgendes Problem vor: Die Vpn sollten sich in die Lage eines Arztes versetzen, der einen bösartigen Tumor zu behandeln hat. Das Problem besteht darin, dass die Bestrahlung, die nötig wäre, um diesen Tumor zu beseitigen, auch das gesunde Gewebe schädigen würde. Ohne entsprechende Hilfe können nur wenige Pbn dieses Problem lösen; gibt man ihnen aber zusätzlich eine Geschichte zu lesen, in der ein analoges Problem behandelt wird, gelingt es den meisten, das Lösungsprinzip zu übertragen. (In der analogen Geschichte geht es darum, dass ein General eine Festung von allen Seiten stürmen lässt, weil die Straßen vermint sind, und immer nur von einigen wenigen Soldaten passiert werden können). Die Art der Instruktion (Lehrmethode) hat Einfluss auf die Transfer- und Behaltensleistung in Problemlöseaufgaben. KANTONA hat diesen Effekt anhand seiner berühmt gewordenen „Streichholzaufgaben“ eindrücklich nachgewiesen. In diesen Streichholzaufgaben geht es darum, durch das Umlegen einer vorgegeben Anzahl von Streichhölzern neue Figuren herzustellen (z.B. aus 5 Quadraten 4 Quadrate zu legen). Das Prinzip wurde den Pbn in einer Übungsphase erklärt und in einem unmittelbar darauf folgenden und einem Nachtest (4 Wochen später) anhand bekannter und neuer Beispiele überprüft. UV: Variiert wurde lediglich die Art der Instruktion in der Übungsphase. 22 Gruppe A (Einprägenlassen der Lösung): Einem Teil der Pbn wurden die einzelnen Lösungsschritte mehrmals hintereinander in der gleichen Weise erklärt (=> mechanisches Einprägen). Gruppe B (Unterstütztes Lernen): Einem anderen Teil wurden die Lösungsschritte erst erklärt, nachdem die Pbn sich kurz selbst an der Lösung versucht hatten; die Erklärung zielte dabei auf das Verständnis der Pbn. Sie erfolgte an 2 Beispielen, wurde aber nicht so oft wiederholt! Gruppe C (Darbietung einer abstrakten Regel): Der 3. Versuchsgruppe wurden nicht die einzelnen Lösungsschritte erklärt, sondern die allgemeine Regel 2 Mal vorgelesen und an 2 Beispielen angewendet. Kontrollgruppe: Die Kontrollgruppe nahm an keiner Übungsphase teil. Wie zu erwarten erzielte die Kontrollgruppe in dem Nachtest die schlechtesten Ergebnisse. Die 2. Versuchsgruppe erzielte die besten Ergebnisse; Vpn, denen die Lösung einsichtig erklärt worden war, hatten mit unbekannten Aufgaben genauso wenige Probleme wie mit bekannten. Gleiches gilt für die 3. Versuchsgruppe, die insgesamt aber weniger Punkte erzielte. Gruppe A erzielte lediglich bei bereits bekannten Aufgaben hohe Punktwerte, nicht aber bei unbekannten. Eine sinnvolle Instruktion anhand von Beispielen unter aktiver Beteiligung der Schüler begünstigt positiven Transfer und führt v.a. auf längere Sicht zu besseren Leistungen als mechanisch eingeprägte Lösungswege oder die Vermittlung einer abstrakten Regel! 6.8. Mögliche Hindernisse beim Problemlösen Behinderung aufgrund vorhandenen Wissens KARMILOFF-SMITH: 4- und 8-jährige Kinder sollten die Gleichgewichtspunkte von Stäben bestimmen, wobei an manchen Stäben ein für die Kinder nicht sichtbares Gewicht angebracht war. Die 8-jährigen Kinder, die bereits wussten, dass der Schwerpunkt von Objekten im Allgemeinen in der Mitte liegt, hatten bei dieser Aufgabe größere Probleme als die jüngeren Kinder, die nach einer Versuch-und-Irrtums-Strategie vorgingen. Behinderung aufgrund von vorhergehender Übung Hat sich eine Strategie als erfolgreich erwiesen, bleibt man häufig in ihr befangen, obwohl neue Strategien effektiver wären. LEVINE: Sollen Vpn zwischen 2 Buchstaben (A oder B) wählen und war in einem ersten Durchlauf die Lösung abhängig von der Positionssequenz („2 Mal rechts, ein Mal links, 2 Mal rechts“) kommen die meisten Pbn erst spät auf die einfachere Lösung des 2. Durchgangs („wähle immer A“). Behinderung aufgrund der „funktionellen Gebundenheit“ von Objekten DUNCKER: Gegeben sind eine Schachtel Streichhölzer, Reisnägel und eine Kerze. Aufgabe ist es, die Kerze an einer Tür zu befestigen. Weniger als die Hälfte der Pbn kommt auf die Idee, die Streichholzschachtel mit einzubeziehen, da diese lediglich in ihrer fixierten Funktion (Aufbewahrungsort) wahrgenommen wird. 23 6.9. Wie Problemlösefähigkeiten im Unterricht gefördert werden können Vgl. BRUNER: „sinnvoll-entdeckendes Lernen“ (Experimente etc.) => fördert induktives Denken und die allgemeine Problemlösefähigkeit je nach Anzahl der Vorgaben: „geleitetes entdeckendes Lernen“ Analoges Denken fördern => Transferaufgaben (im Gegensatz zu Reproduktionsaufgaben) Deduktives Schlussfolgern üben Förderung vernetzten Denkens => Auf Zusammenhänge hinweisen, fächerübergreifender Unterricht etc. Zu Versuch und Irrtum animieren => keine Lösungen vorgeben; die Schüler Hypothesen generieren lassen etc. Förderung kreativen Denkens => verschiedene Lösungen zulassen; (kreatives Schreiben; Brainstorming, Methode 635, Morphologischer Kasten) Entsprechende Strategien lehren (z.B. die Methode des „lauten Denkens“; Probleme strukturieren üben, etc.) Entsprechende Instruktionen geben (Kein mechanisches Auswendiglernen, sondern Verständnis fördern), die Schüler selber probieren lassen etc. 24 7. Das Gedächtnis 7.1. Das Mehrspeichermodell (Atkinson & Shiffrin) Im Grunde stehen alle neueren Gedächtnismodelle unter dem Paradigma der Informationsverarbeitung. Dabei wird der menschliche Geist in Analogie zum Computer als Verarbeitungs- und Speichermedium beschrieben. Das Mehrspeichermodell von ATKINSON & SHIFFRIN geht von 3 funktionell verschiedenen Gedächtnistypen bzw. Stadien der Informationsverarbeitung aus. 7.1.1. Ultrakurzzeitgedächtnis (auch: sensorisches Register) Im UKZG werden zunächst alle eintretenden Reize gespeichert; allerdings nur für äußerst kurze Zeit (ca. 0,5 bis 2 Sek.), da die Information fortwährend durch neues Material verdrängt wird. SPERLING (1960/63): Vollständige Speicherung im ikonischen Gedächtnis Vpn bekommen für kurze Zeit eine aus 9 Buchstaben bestehende Matrix dargeboten. Methode des vollständigen Berichtens: Vpn können nur 3-4 Buchstaben wiedergeben. Methode des teilweise Berichtens: Wissen die Vpn vor der Darbietung, dass sie danach nur eine Zeile wiedergeben müssen, können sie diese danach wiedergeben, auch wenn sie vorher nicht wussten, welche! Ergo: Die gesamte Information (Matrix) muss – zumindest kurz – abgespeichert worden sein! Der Zugang zum UKZG ist aufmerksamkeitsunabhängig (präattentiv); eine semantische Verarbeitung findet auf dieser Ebene noch nicht statt (präkategorial). Zweck des sensorischen Speichers ist eine kontinuierliche Wahrnehmung trotz diskontinuierlicher Reizaufnahme. Je nach Reizmodalität kann das sensorische Register in verschiedene „Gedächtnisse“ unterteilt werden: Das ikonische Gedächtnis dient z.B. der Speicherung visueller Reize; im echoischen Gedächtnis werden akustische Reize abgebildet. 7.1.2. Kurzzeitgedächtnis (auch: Arbeitsspeicher) Das KZG dient nicht nur der kurzfristigen Speicherung von Information (bis zu 30 Sek.), sondern v.a. deren Verarbeitung (daher auch: Arbeitsgedächtnis). Die Kapazität des Arbeitsspeichers ist begrenzt; sie entspricht der sog. Gedächtnisspanne (Anzahl der in korrekter Reihenfolge reproduzierten Items) und umfasst ca. 7 (plus/minus 2) Items bzw. Informationseinheiten. Durch Wiederholung und Elaboration der im KZG gespeicherten Informationen werden diese vom KZG ins LZG übertragen (s.u). Informationen, die weder ins Langzeitgedächtnis übertragen-, noch im KZG erhalten werden können, gehen verloren. Das KZG wird daher oft mit einem Flaschenhals verglichen. Als empirischer Beleg für die Existenz des Kurzzeitgedächtnisses gilt u.a. der Primacy-Recency-Effekt. Die ersten und letzten Items einer Serie können besser reproduziert werden als die mittleren. Erklärung: Die ersten Items einer Reihe können öfter wiederholt werden, da der Arbeitsspeicher anfangs noch leer ist. Dementsprechend werden sie besser ins LZG übertragen (Primacy-Effekt); sobald mehr als 7 Items dargeboten wurden, ist die Kapazität des KZG erschöpft. Items müssen ausgeschieden werden, ohne 25 vorher ins LZG übertragen werden zu können. Die letzten Items können nur deshalb abgerufen werden, weil sie sich noch im KZG befinden. ATKINSON & SHIFFRIN zufolge hängt die dauerhafte Speicherung von Informationen v.a. von deren Wiederholung ab. Durch ständige Wiederholung (Memorieren) bleibt die Information länger im KZG erhalten und wird dadurch besser ins LZG übertragen. Dass Wiederholung (rehearsal) tatsächlich eine effektive Gedächtnisstrategie ist, die zu besseren Leistungen führt, ist experimentell vielfach nachgewiesen worden. Eines der bekanntesten Beispiele ist ein EXPERIMENT von FLAVELL: Kindergartenkindern, Zweit- und Fünftklässlern wurde eine Serie von Bildern gezeigt mit der Aufforderung, sie sich in der richtigen Reihenfolge zu merken. Nach der Präsentation bekamen die Kinder 15 Sek. Zeit, sich auf die Reproduktion der Sequenz vorzubereiten. 10 % der Kindergartenkinder bewegten dabei ihre Lippen oder wiederholten die Wörter laut; von 5-Klässlern wendeten 85% diese Strategie an! Außerdem konnte für jede Altersgruppe gezeigt werden, dass die Anwendung der Wiederholungsstrategie zu besseren Leistungen führt. Ob Informationen vom KZG ins LZG übertragen werden, hängt aber nicht nur von deren Wiederholung ab, sondern auch von der Organisation und Elaboration des jeweiligen Materials. Die Organisation von Informationen zielt auf deren Vereinfachung ab (reduktive Kodierung): Ein häufig angewandtes Organisationsprinzip ist z.B. die Kategorisierung nach Oberbegriffen oder die assoziative Verknüpfung neuer Infos (kategoriales und assoziatives Gruppieren, Clustering etc.). Auf diese Weise können mehrere Informationen zu Einheiten zusammengefasst- und dementsprechend leichter verarbeitet werden. CHASE & SIMON (1973): Chunking bei Schachexperten Schachexperten sind wesentlich besser darin, komplexe Schachstellungen zu rekonstruieren als Schachnovizen; allerdings nur, wenn es sich bei den Vorgaben um sinnvolle- und nicht zufällige Schachpositionen handelt. Erklärung: Experten sind dazu in der Lage, beim Enkodieren jeweils mehrere Figuren zu Mustern zusammenzufassen. Sie merken sich nicht Einzelpositionen, sondern typische Konstellationen (z.B. „Königsstellung“) => Eine solche Informationsverdichtung (Chunking) erleichtert nicht nur die Speicherung, sondern auch den Abruf der betroffenen Informationen: Die Experten erinnerten sich „klumpenweise“ an die Positionen der Vorlage! CHI zeigte anhand eines analogen Experiments mit Kindern, dass durch Vorwissen bzw. Expertise sogar Altersunterschiede in der Gedächtnisleistung nivelliert werden. SCHNEIDER zeigte 7- und 10-jährigen Kindern verschiedene Bilder und forderte sie explizit dazu auf, „alles zu tun, was ihnen später hilft, sich an die Dinge zu erinnern.“ Von den 7-jährigen Pbn ordneten nur 10% die Bilder nach ihrer Kategorienzugehörigkeit (z.B. Tiere, Fahrzeuge, Möbel etc.) von den 10-jährigen wandten 60% diese Strategie an und erzielten dementsprechend bessere Ergebnisse. Von Elaboration spricht man, wenn neue Informationen mit bereits Bekanntem verknüpft werden, z.B. indem der Lernstoff durch bekannte Details angereichertoder in eigenen Worten ausgedrückt wird (elaborative Kodierung). „Reconstructive memory“ (s.u.) 26 Sowohl die Organisation als auch die Elaboration von Informationen erfordert Vorwissen. Insofern findet die Informationsverarbeitung im Arbeitsgedächtnis nicht unabhängig vom LZG statt. Das KZG ist gewissermaßen die Schnittstelle zwischen bereits bekannten- und neuartigen Informationen. Es aktiviert die relevanten Inhalte im LZG und verbindet diese mit dem jeweils neuen Material. ERGO: Nach dem Mehrspeichermodell erfolgt der Informationsfluss zwar in eine Richtung (UKZG => LZG); das LZG ist aber an allen Stufen der Informationsverarbeitung beteiligt. 7.1.3. Langzeitgedächtnis Im LZG sind alle Informationen aus zurückliegenden Denk- und Lernprozessen dauerhaft gespeichert; gleichzeitig steuern die im LZG gespeicherten Inhalte die Informationsverarbeitung im Arbeitsgedächtnis (s.o.). Insofern ist das LZG gleichermaßen Folge- und Voraussetzung von Lernprozessen! Die Kapazität des LZG ist vermutlich unbegrenzt. Informationen, die im LZG gespeichert wurden, gehen nicht vollständig verloren; wenn sie „vergessen“ werden, sind sie lediglich nicht mehr zugänglich. Das zeigen u.a. entsprechende Hypnose-Experimente (TRUE). Vpn, die in Hypnose versetzt wurden, können sich überzufällig oft daran erinnern, auf welchen Wochentag ihr 4., 7. und 10. Geburtstag gefallen ist. Vpn im Wachzustand können dagegen nur raten. EBBINGHAUS (1911): Was man schon einmal gelernt hat, lernt man beim nächsten Mal wesentlich schneller; selbst, wenn der Stoff erst Jahre später wiederholt wird (Ebbinghaus lernte zu diesem Zweck Stanzen aus Byron’s „Don Juan“ auswendig und lernte sie 17 Jahre später nochmals). Das LZG lässt sich in ein explizites- und implizites Gedächtnis unterteilen: Das explizite Gedächtnis umfasst bewusst verfügbare Wissensinhalte, die verbalisiert werden können und deshalb auch als deklaratives Wissen bezeichnet werden. Dazu gehört das Sach- bzw. Weltwissen einer Person (semantisches Gedächtnis) ebenso wie das Wissen um persönlich erfahrene Episoden (episodisches Gedächtnis). Die im impliziten Gedächtnis gespeicherten Inhalte sind unbewusst und werden als nicht-deklaratives Wissen bezeichnet. Dazu gehört zum einen das prozedurale Wissen einer Person. Damit sind psychomotorische und kognitive Fertigkeiten wie Skifahren oder Rechnen gemeint; also Handlungsabläufe und Fertigkeiten, die aufgrund hinreichender Übung automatisiert ablaufen. Ebenfalls unbewusst und damit dem impliziten Gedächtnis zuzuordnen ist das perzeptuelle Gedächtnis einer Person, das die schnellere Erkennung „geprimter“ Reize ermöglicht. Beim „priming“ („vorwärmen“ bzw. vorbereiten) wird die Wahrscheinlichkeit, einen Reiz wiederzuerkennen dadurch erhöht, dass zuvor ein assoziativ damit verknüpfter Gedächtnisinhalt aktiviert wird. Diese „assoziative Aktivierung“ kann bewusst oder unbewusst (subliminal) erfolgen. Explizites Gedächtnis (deklarativ) Episodisches Gedächtnis Semantisches Gedächtnis Implizites Gedächtnis (nicht-deklarativ) Prozedurales Gedächtnis Perzeptuelles Gedächtnis 27 A) Episodisches Gedächtnis Das episodische Gedächtnis bezieht sich auf persönlich erfahrene Ereignisse; es enthält nicht nur die Informationen als solche, sondern auch deren Kontext, also wann und wo sie erlebt bzw. gespeichert wurden. Es wird allgemein angenommen, dass die Inhalte des episodischen Gedächtnisses weniger vernetzt und daher störungsanfälliger sind. Das episodische Gedächtnis kann z.B. anhand von Lernexperimenten mit sinnarmen Material (z.B. sinnlose Silben) untersucht werden, da in diesem Fall keine semantische Verarbeitung stattfinden kann. Klassisch sind in diesem Zusammenhang die Experimente von EBBINGHAUS, der sinnfreie Silben auswendig lernte und anhand von regelmäßigen Nachtests sog. „Vergessenskurven“ erstellte. Die typische Vergessenskurve ist durch einen steilen Anfangsabfall und einen asymptotischen Verlauf gekennzeichnet. Der genaue Verlauf ist u.a. abhängig von der Art des Lernmaterials (sinnlos vs. sinnvoll), der Prüfmethode (Reproduktion vs. Wiedererkennung), der Anzahl der Wiederholungen und Darbietungen, der Aufteilung des Lernstoffs und der Anzahl der beteiligten Sinne (s.u.). B) Semantisches Gedächtnis und Wissensrepräsentation Das semantische Gedächtnis enthält das Sach- und Faktenwissen einer Person, man spricht auch von begrifflichem Wissen. Das begriffliche oder semantische Wissen einer Person ist generativ: es kann nicht nur abgerufen und reproduziert werden, sondern ermöglicht darüber hinaus das Erschließen neuer Sachverhalte. Darüber, wie Wissen bzw. Begriffe im semantischen Gedächtnis repräsentiert sind, gibt es verschiedene Theorien (s.u.). Prinzipiell wird zwischen bedeutungs-, wahrnehmungsund handlungsbasierten Repräsentationsformen unterschieden. Was die bedeutungsbasierte Wissensrepräsentation betrifft ist zwischen propositionalen- und semantischen Netzwerkmodellen zu unterscheiden. Hinzu kommen verschiedene Theorien zur Begriffsbildung. 7.2. Genaueres zum Kurzzeitgedächtnis 7.2.1. Alan Baddeley BADDELEY & HITCH zufolge ist das Kurzzeitgedächtnis kein einfacher Zwischenspeicher, sondern ein modular aufgebautes Arbeitsgedächtnis, das aus einer zentralen Exekutive und zwei modalitätsspezifischen Dienstleistungssystemen besteht: Die zentrale Exekutive ist modalitätsunspezifisch und dient v.a. der Aufmerksamkeitslenkung und Kontrolle. Die artikulatorische oder phonologische Schleife („phonological loop“) ist für die Verarbeitung und Bereithaltung verbaler Informationen zuständig. Bildhafte Infos werden im „visuell-räumlichen Notizblock“ verarbeitet. Die Wiederholung von Informationen in der artikulatorischen Schleife („phonological loop“) bzw. dem visuell-räumlichen Notizblock (visuo-spatial scratch pad“) dient dabei weniger der Übertragung von Informationen ins LZG, als vielmehr der Bereithaltung relevanter Infos im Arbeitsgedächtnis. Als empirischer Beleg für dieses Modell kann u.a. der sog. „Wortlängeneffekt“ gelten, dem zufolge die Behaltensleistung eine Funktion der Wortlänge ist. Es können z.B. können mehr 2-silbige Wörter kurzfristig gespeichert werden als 5silbige. 28 7.2.2. Robbie Case ROBBIE CASE erweitert das Modell vom KZG, indem er zwischen Arbeits- und Kurzzeitspeicher differenziert. (1) „Operating space“ (Arbeitsspeicher): zuständig für die kognitiven Prozesse, die zu einem gegebenen Zeitpunkt gerade durchgeführt werden. (2) „Storage space“ (Kurzzeitspeicher): zuständig für die Speicherung der Ergebnisse gerade abgelaufener Prozesse. 7.3. Das Einspeichermodell nach Craik & Lockhart Das Einspeichermodell von CRAIK & LOCKHART geht davon aus, dass es neben dem LZG keine weiteren Speichereinheiten gibt. Das KZG ist demzufolge kein eigenständiger Speicher, sondern lediglich der aktuell aktivierte Teil des Langzeitgedächtnisses. Statt von verschiedenen Gedächtnistypen auszugehen, gehen CRAIK & LOCKHART von verschiedenen Verarbeitungsebenen aus (=> prozessorientierter Ansatz). Unterschieden wird dabei zwischen einer „oberflächlichen“ und einer „tiefen“ Verarbeitung. Ein Wort wie „HASE“ kann z.B. orthographisch, phonologisch, lexikalisch und semantisch verarbeitet werden. Die orthographische Verarbeitung ist am oberflächlichsten, da sie sich lediglich an sensorischäußerlichen Merkmalen (Schreibweise, Schrifttyp etc.) orientiert, die semantische Verarbeitung ist am tiefsten, insofern die Bedeutung erfasst und in einen semantischen Kontext gestellt wird. Je tiefer die Verarbeitung einer Information, desto umfassender wird diese gespeichert und später erinnert. Die Annahme, dass die einzelnen Verarbeitungsebenen sequentiell durchlaufen werden, Informationen also zunächst oberflächlich und erst danach tief verarbeitet werden, wurde fallengelassen. In einer neueren Version des Modells wird stattdessen von einer simultanen Verarbeitung ausgegangen. Statt von Verarbeitungstiefe wird dementsprechend von Verarbeitungsbreite gesprochen. 29 8. Wissensrepräsentation 8.0. Einleitung Wissen basiert auf der mentalen Repräsentation äußerer Gegebenheiten. Auf einer basalen Ebene kann dabei zwischen wahrnehmungs- und bedeutungsbasierten Formen der Wissensrepräsentation unterschieden werden. Die wahrnehmungsbasierte Repräsentation von Wissen ist bildhaft und analog (ähnlich) zu den sensorisch-perzeptuellen Qualitäten der abzubildenden Objekte. Die bedeutungsbasierte Repräsentation beruht auf mehr oder minder abstrakten Begriffen. Schematisch können die verschiedenen Aspekte der Wissensrepräsentation folgendermaßen dargestellt werden: Repräsentationsformen des deklarativen Wissens Bedeutungsbasierte, aussagenartige Repräsentation (abstrakt) Propositionale Netzwerke semantische Netzwerke wahrnehmungsbasierte, bildhaft-anschauliche Repräsentation (analog) Schemata 8.1. Bedeutungsbasierte Repräsentation Bezüglich der abstrakten Repräsentation von Wissen stellen sich 2 Fragen: 1) Wie sind die einzelnen Begriffe, aus denen sich unser Wissen zusammensetzt, repräsentiert? 2) Wie ist unser Wissen als Ganzes organisiert? Auch wenn beides miteinander zusammenhängt, wird im Folgenden zwischen Modellen zur Begriffsbildung und Modellen zur Wissensrepräsentation unterschieden. 8.1.1. Verschiedene Modelle zur Repräsentation von Begriffen 8.1.1.1. Die klassische Theorie (deterministisches Merkmalsmodell) Die klassische Theorie geht davon aus, dass Begriffe anhand ihrer definierenden Merkmale und deren Verknüpfung repräsentiert sind. Die Verknüpfung bzw. Kombination der einzelnen Merkmale erfolgt dabei nach formal-logischen Regeln (Affirmation, Konjunktion, Disjunktion etc.). Beispiel: „Eine Großmutter ist die Mutter von einem der Elternteile.“ Begriffe werden also aufgrund von Merkmalskombinationen gebildet, die für alle Elemente einer Kategorie zutreffen. Je größer die Anzahl „kritischer Attribute“, desto kleiner die Kategorie. Anders ausgedrückt: Je spezifischer der Begriffsinhalt, desto kleiner der Begriffsumfang! Kritik: Das Hauptproblem deterministischer Theorien liegt darin, dass es nicht für alle Begriffe hinreichende Definitionskriterien gibt. Die meisten im Alltag verwendeten Begriffe sind unscharf und kontextabhängig. Was z.B. sollen die definitorischen Merkmale des Begriffs „Spiel“ sein? WITTGENSTEIN (1953) widerlegt anhand dieses Begriffs die sprachphilosophische Position, dass „gleicher Begriff gleiche Extension der Merkmale“ bedeutet. Er schlägt stattdessen den Begriff der „Familienähnlichkeit“ vor. 30 8.1.1.2. Die Prototypentheorie (probabilistisches Merkmalsmodell) Der Prototypentheorie (z.B. ROSCH) zufolge werden Begriffe in Form von Prototypen abgespeichert. Die Begriffsbildung basiert demnach nicht auf definierenden-, sondern auf wahrscheinlichen bzw. typischen Merkmalen („Großmütter sind alt.“). Außerdem wird davon ausgegangen, dass die Zuordnung zu einer Kategorie weniger formal-logischen, als vielmehr pragmatischen Kriterien folgt. Ein Klavier, eigentlich ein Musikinstrument, wird bei einem Umzug zu einem gewöhnlichen Möbelstück degradiert (die Merkmale „Größe“ und „Gewicht“ treten in den Vordergrund). Die Exemplare einer Kategorie unterscheiden sich hinsichtlich ihrer „Typikalität“ (Ähnlichkeit zum Prototyp); die einzelnen Merkmale hinsichtlich ihrer „Hinweisgültigkeit“. Für das Konzept „Vogel“ ist z.B. „Flugfähigkeit“ ein Merkmal mit hoher Hinweisgültigkeit („Schlüsselmerkmal“): Die meisten Vögel können fliegen, die meisten anderen Dinge nicht. Daher ist ein Spatz repräsentativer für die Kategorie „Vogel“ als z.B. ein Strauß. Tatsächlich zeigen entsprechende Reaktionszeitexperimente, dass Exemplare mit hoher „Typikalität“ schneller zugeordnet werden können, als eher untypische Exemplare. „Prototyp“ ist im Grunde ein Synonym für „Schema“ (s.u.). 8.1.1.3. Theoriebasierter Ansatz (Theorie-Theorie) Theoriebasierten Ansätzen (z.B. WELLMAN & GELMAN) zufolge sind Begriffe nicht nur Kategorien, sondern gleichzeitig Erklärungen. Sie enthalten in sich schon theoretische Annahmen. Wissenserwerb und Begriffsbildung sind damit kaum voneinander zu trennen; eine Unterscheidung zwischen „Begriffen“ und „Regeln“ bzw. „Begriffsketten“, wie Gagné sie trifft (s.u.), ist sinnlos. Tatsächlich lassen sich viele Begriffe (z.B. der Begriff „Wissensrepräsentation“) nur vor dem Hintergrund einer bestimmten Theorie sinnvoll erklären! EDELMANN unterscheidet vor diesem Hintergrund zwischen Eigenschafts- und Erklärungsbegriffen: Erstere beruhen auf Merkmalsassoziationen; sie sind gleichzusetzen mit Kategorien. Letztere dienen nicht nur der Kategorisierung-, sondern auch der Erklärung von Phänomenen; sie sind an spezifische Theorien geknüpft. 8.1.2. Verschiedene Modelle zur Wissensrepräsentation 8.1.2.1. Propositionale Wissensrepräsentation Das Modell der propositionalen Wissensrepräsentation geht davon aus, dass der Bedeutungsgehalt von Ereignissen und Sachverhalten in Form abstrakter Aussagen, sog. Propositionen, abgespeichert wird. Der Begriff „Proposition“ ist der Logik bzw. Linguistik entnommen. Es handelt sich dabei um die kleinste Bedeutungseinheit, die als selbständige Aussage gelten kann. Eine solche Proposition besteht aus einer logischen Relation (Prädikat) und Argumenten (z.B. Agens, Objekt, Rezipient etc.). Meistens entsprechen die Relationen den Verben oder Adjektiven- und die Argumente den Nomen einer Sprachäußerung. Allerdings sind Propositionen der Theorie nach keine sprachlichen, sondern kognitive Konstrukte. Es handelt sich nicht um Sätze, sondern um abstrakte, voneinander unabhängige Wissenseinheiten. 31 Dargestellt werden Propositionen meist in Form von Ellipsen, die durch entsprechende Pfeile mit ihren Argumenten und Prädikaten bzw. Relationen verbunden sind. z.B.: „Paul liebt Paula“ LIEBEN (PAUL, PAULA) Agens Objekt PAUL PAULA Relation LIEBEN Die einzelnen Wissenseinheiten bleiben allerdings nicht isoliert, sondern stehen netzartig miteinander in Beziehung (= propositionale Netzwerke). 8.1.2.2. Semantische Netzwerke Zahlreiche Theorien gehen davon aus, dass unser konzeptuelles Wissen in semantischen Netzwerken bzw. Begriffshierarchien organisiert ist. Ein Begriff ist diesem Ansatz zufolge durch seine Verknüpfung mit anderen Begriffen und seine spezifischen Attribute repräsentiert. Insofern sind hierarchische Netzwerkmodelle kompatibel zur klassischen Theorie der Begriffsbildung (s.o.). Die Aktivierung eines Knotens bzw. Begriffes führt dabei der Theorie zufolge automatisch zur Aktivierung weiterer, im Umkreis befindlicher Knoten. Diese Annahme kann anhand von Priming-Experimenten bestätigt werden. Dem ursprünglichen Modell nach erfolgt die Speicherung der Attribute nach dem Prinzip der „kognitiven Ökonomie“: Attribute werden immer nur auf der höchstmöglichen Hierarchieebene abgespeichert. Direkt zugeordnet sind den verschiedenen Begriffen also immer nur deren spezifischen Merkmale! Das Merkmal „Flugfähigkeit“ ist z.B. nur an den Oberbegriff „Vogel“ geknüpft, aber nicht an das Konzept „Rotkehlchen“ oder „Kanarienvogel“. Um die Aussage, dass Kanarienvögel fliegen können, zu verifizieren, muss demnach eine Stufe höher gegangen werden. Dabei gilt: Je mehr Knotenpunkte durchlaufen werden müssen, desto länger der Denkprozess. Anhand von Reaktionszeitexperimenten konnten verschiedene Annahmen des Modells bestätigt werden. Zum Beispiel wird die Aussage, dass Kanarienvögel fliegen können, tatsächlich langsamer bestätigt als die Aussage, Kanarienvögel seien gelb. In anderen Fällen widersprechen die Reaktionszeiten allerdings den Annahmen des Modells; die Aussage, dass Sonnenblumen Samen haben, wird z.B. äußerst schnell verifiziert, obwohl dieses Attribut eigentlich nur auf der übergeordneten Ebene „Pflanze“ abgespeichert sein dürfte. Eine neuere Fassung des Modells geht deshalb davon aus, dass Begriffe nicht so sehr nach hierarchischen Kriterien, sondern eher nach ihrer semantischen bzw. assoziativen Nähe einander zugeordnet sind. Je mehr Eigenschaften zwei Begriffe gemeinsam haben bzw. je mehr semantische Relationen zwischen ihnen bestehen, desto enger sind sie miteinander verbunden. Diese Fassung des Netzwerkmodells ist durchaus kompatibel mit der Prototypentheorie (s.o.). 32 8.1.2.3. Schemata Schemata sind übergeordnete Wissensstrukturen, die dazu dienen, die Umwelt zu strukturieren und unser Wissen zu organisieren. Schemata enthalten spezifische Vorannahmen und Leerstellen, die erst noch zu spezifizieren sind. Man kann sich z.B. sicher sein, dass ein Korkenzieher dem Entfernen von Korken dient und eine Spindel enthält. Form und Beschaffenheit des Griffs sind dagegen variabel (=Leerstellen). Im Grunde sind Schema und Prototyp synonyme Begriffe. Schemata, die sich auf Ereignisse und häufige Handlungsabläufe, z.B. einen Restaurantbesuch, beziehen, werden als Skripts („Drehbücher“) bezeichnet. NELSON spricht von „Generalized Event Representations“ (GERs) Schemata haben Einfluss auf die Informationsaufnahme, deren Enkodierung und den Abruf von Informationen („reconstructive memory“). Vorteile: sparen Zeit und kognitive Kapazität, lenken unsere Aufmerksamkeit, helfen bei der Interpretation (v.a. mehrdeutiger) Informationen, dienen der Verhaltensvorhersage, ermöglichen sinnvolles Ausfüllen von Erinnerungslücken, erleichtern schlussfolgerndes Denken… Nachteile: selektive Wahrnehmung(!), Verzerrungen, insofern gespeicherte Information vorhandenen Schemata angeglichen wird – und schemainkonsistente Details oft übersehen oder später nicht erinnert werden; Schubladendenken, Vorurteile, Self-fulfilling prophecy (Schema = Erwartungshaltung),… „Reconstructive Memory“: Schemata beeinflussen unsere Erinnerung. Gedächtnislücken werden durch schemakonsistente Details aufgefüllt. D.h.: Nicht alles, woran wir uns erinnern, ist tatsächlich so passiert. Vieles ist erst im Nachhinein von uns ergänzt worden – und zwar entsprechend der von uns verwendeten Schemata. EXPERIMENT (Linda Carli, 1999): Barbara und Jack auf der Skihütte Probanden bekamen eine Geschichte mit unterschiedlichem Ausgang zu lesen und wurden 2 Wochen später gefragt, woran sie sich erinnern. Je nach Ausgang der Geschichte wurden unterschiedliche Schemata aktiviert – und entsprechende, schemakonsistente Details „erinnert“, die in der Geschichte gar nicht vorgekommen waren! UV: Ausgang der Geschichte: Heiratsantrag vs. Vergewaltigung In der Geschichte geht es darum, dass ein Paar (Barbara und Jack) ein Wochenende auf einer Skihütte verbringen. AV: Erinnerungstest 2 Wochen später: Erinnerung schemakonsistenter, aber falscher Ereignisse Z.B.: „Jack schenkte Barbara Rosen“ 33 8.3. Ein propositionales Textverarbeitungsmodell (Knitsch) KNITSCH geht davon aus, dass lediglich das Wesentliche einer Information im LZG gespeichert wird; Details werden beim Abruf rekonstruiert. Auf Basis dieser Annahme entwirft er ein propositionales Textverarbeitungsmodell. Komplexe Informationen werden mit Hilfe von Makrooperatoren auf ihren Sinngehalt reduziert. Im LZG gespeichert werden lediglich die wichtigsten Propositionen bzw. die Makrostruktur eines Textes. Zu diesem Zweck werden Informationen entweder weggelassen (Tilgung, Selektion) oder durch übergeordnete Propositionen ersetzt (Generalisation, Konstruktion). Die Kohärenz des Textes wird durch Überlappungen der Argumente sichergestellt. Der Satz „Peter zündete sich eine Zigarette an und begann genüsslich zu rauchen“ könnte z.B. auf die Makrostruktur „Peter rauchte“ reduziert werden. Beim Abruf wird die ursprüngliche Information anhand von Schemata rekonstruiert. Zu diesem Zweck werden die im LZG gespeicherten Makrostrukturen spezifiziert und ergänzt. KNITSCH spricht in diesem Zusammenhang von sog. Rekonstruktionsoperatoren. Sie sind das Gegenstück zu den informationsreduzierenden Makrooperatoren. 8.4. Fazit Die Grenzen zwischen den einzelnen Gedächtnisinhalten und Repräsentationsformen sind fließend. Die verschiedenen Theorien sollten daher nicht in Konkurrenz zueinander gesehen werden, sondern eher als komplementäre, einander ergänzende Erklärungsversuche. Die Annahme, dass unser Wissen in Netzwerken aufgebaut ist, erscheint plausibel und wird durch verschiedene Befunde bestätigt. Allerdings sollte das Netzwerkmodell nicht einseitig auf bedeutungsbasierte Repräsentationen beschränkt werden. Vielmehr scheint an vielen Stellen des Netzwerkes eine multiple Repräsentation vorzuliegen; auch eine Verknüpfung zwischen Begriffen und Episoden ist nahe liegend. 34 8.2. Wahrnehmungsbasierte Wissensrepräsentation 8.2.1. Die Dual-Code-Theorie von Paivio PAIVIO unterscheidet zwischen einem bildhaften (imaginalen) und einem verbalen Kodierungssystem. Das bildhafte System verarbeitet nicht-sprachliche Reize (Bilder, Berührungen, Gerüche etc.) und speichert diese in Form anschaulicher Vorstellungen. Man spricht in diesem Zusammenhang von analogen (ähnlichen) oder wahrnehmungsbasierten Repräsentationen. Das verbale System verarbeitet sprachliche Reize und speichert deren abstrakte Bedeutung. In diesem Zusammenhang spricht man von symbolischer oder semantischer Repräsentation. Synonyme Begriffe sind aussagenartige oder bedeutungbezogene Repräsentation. Nicht-sprachliche Informationen werden parallel verarbeitet, während sprachliche Informationen im verbalen System sequentiell verarbeitet werden. PAIVIO zufolge arbeiten das verbale und das bildhafte System zunächst unabhängig voneinander: es ist also nicht möglich, dass sprachliche Information von Anfang an bildhaft bzw. nonverbale Information direkt sprachlich kodiert wird. Erst zu einem späteren Zeitpunkt der Informationsverarbeitung – auf der sog. „referentiellen Ebene“ – wird das eine System unter Umständen durch das jeweils andere aktiviert: Ein Wort kann ein Vorstellungsbild auslösen; Bilder können verbal bezeichnet werden. Ob bzw. in welchem Ausmaß die beiden Systeme auf diese Weise zusammenwirken, hängt PAIVIO zufolge von dem zu verarbeitenden Material ab. Bilder werden ihm zufolge am ehesten dual verarbeitet und deshalb am besten gespeichert. Inwieweit sprachliche Information dual verarbeitet wird, hängt von deren Abstraktionsgrad ab. Je konkreter ein Wort, desto wahrscheinlicher ist eine duale, d.h. semantische und bildhafte Verarbeitung (=> multiple Repräsentation). PAIVIO’S Modell hat 2 Vorteile: Zum einen entspricht es den neuropsychologischen Befunden, denen zufolge sprachliches Material eher in der linken und bildhaftes Material eher in der rechten Hemisphäre verarbeitet wird - zum anderen erklärt es den sog. „Bildüberlegenheitseffekt“, demzufolge Bildmaterial besser gemerkt wird als sprachliches. KIRKPATRICK: Bildreihen werden länger behalten als Wortlisten! 8.2.2. Die multimodale Gedächtnistheorie (Multi-Code-Theorie) von Engelkamp Die Speicherung von Informationen wird nicht nur durch deren bildhafte Veranschaulichung verbessert, sondern auch durch entsprechende Handlungen. ENGELKAMP (1980): der „Tu-Effekt“ ENGELKAMP konnte zeigen, dass das Behalten von Verb-Objekt-Phrasen (z.B.: „Computer einschalten“) durch die symbolische Ausführung der bezeichneten Handlung verbessert wird. Ausgehend von diesen Ergebnissen erweitert ENGELKAMP das Modell PAIVIO’S um ein motorisches Gedächtnissystem. Wissen wird demnach nicht nur durch abstrakte bzw. konkrete Vermittlung von Informationen erworben, sondern auch durch den handelnden Umgang mit den Dingen. Es gibt 3 Formen der mentalen Repräsentation: Wissen kann semantisch, bildhaft und motorisch (handlungsmäßig) repräsentiert sein. 35 SCHULE: Nicht nur verbale Vermittlung von Wissen, sondern ganzheitliches Lernen (Ziel ist eine möglichst umfassende Verarbeitung des Lernstoffes) Schon COMENIUS fordert das Lernen mit allen Sinnen => ähnlich PESTALOZZI: „Mit Kopf, Herz und Hand“ Praktische Umsetzung: unterschiedliche Unterrichtsmaterialien, anschauliche Beispiele etc. => im Idealfall: Projektarbeit Schon bei alltäglichen Unterrichtsmethoden werden verschiedene Sinne einbezogen: Diktatschreiben (Hören, Motorik, Sehen), zuhörendes Lesen (akustische und optische Reize), etc. 36 9. Lern- und Gedächtnisstrategien 9.0. Systematisierung Lernstrategien sind mental repräsentierte Schemata bzw. Handlungspläne zur Steuerung des eigenen Lernverhaltens. Es gibt verschiedene Arten von Lernstrategien; BAUMERT unterscheidet zwischen kognitiven, metakognitiven und ressourcenbezogenen Lernstrategien. Eine ähnliche Systematik liegt auch dem „Fragebogen zur Erfassung von Lernstrategien im Studium“ (LIST) zugrunde; allerdings wir hier von Informationsverarbeitungs-, Kontroll- und Stützstrategien gesprochen. 1) Kognitive Lernstrategien bzw. Informationsverarbeitungsstrategien Wiederholung Organisation Elaboration 2) Metakognitive Lernstrategien bzw. Kontrollstrategien Planung (z.B. das Setzen von Lernzielen) Selbstüberwachung (Kontrollfragen, Überprüfung, ob das Gelesene verstanden wurde) Regulation (Anpassung an die jeweiligen Anforderungen; Lernzeitallokation) 3) Ressourcenbezogene Lernstrategien (auch Stützstrategien genannt) Interne Ressourcen: Anstrengung, Aufmerksamkeit, Zeitmanagement Externe Ressourcen: Gestaltung der Lernumgebung, Beschaffung von gutem Lernmaterial, kooperatives Lernen Mit Mnemotechniken (griechisch „mneme“ = Gedächtnis) sind Lern- bzw. Gedächtnisstrategien gemeint, mit deren Hilfe Informationen so verarbeitet und organisiert werden, dass sie später leichter abrufbar sind. Die wichtigsten Mnemotechniken sind Wiederholungs-, Elaborations- und Organisationsstrategien. 9.1. Wiederholungsstrategien Die Wiederholung des Lernstoffes bzw. diesen auswendig zu lernen ist eine häufig angewandte Lernstrategie. Allerdings ist sie nur in Kombination mit anderen Techniken effektiv. Damit Wiederholungsstrategien wirksam werden können, muss der zu lernende Stoff entsprechend strukturiert und verstanden werden. „Mechanisches Lernen“ im Sinne von stupidem Auswendiglernen sollte vermieden werden. Um die Wiederholung eines Sachgebiets möglichst effektiv zu gestalten, ist es z.B. sinnvoll, eine Lernkartei anzulegen oder Zusammenfassungen (Exzerpte ;) anzufertigen. Die entsprechenden Techniken sollten den Schülern frühzeitig vermittelt werden. 37 9.2. Organisationsstrategien Mit Organisationsstrategien sind Kategorisierungs- und Ordnungsprozesse gemeint, die der Informationsreduktion dienen. Begriffshierarchien bilden; Chunking (s.o.), Clusterbildung, Sortieren etc. Konkrete Anwendung im Unterricht: V.a. bei der Bearbeitung von Texten spielen Organisationsprozesse eine entscheidende Rolle: Schüler sollten dazu angeregt werden, Texte in Unterabschnitte zu gliedern, entsprechende Überschriften zu finden, Zusammenfassungen anzufertigen, gezielte Unterstreichungen vorzunehmen… Eine effektive Methode, die den Schülern in diesem Zusammenhang beigebracht werden könnte, ist die sog. SQ3R-Methode (s.u.). Außerdem Mapping-Techniken (s.u.) Der Lehrer selbst sollte beim Erstellen von Arbeitsblättern und Tafelbildern auf Übersichtlichkeit und eine klare Strukturierung achten (gegenstandsorientierte vs. aspektweise Textorganisation). 9.3. Elaborationsstrategien Bei Elaborationsstrategien werden neue Informationen mit bereits Bekanntem in Verbindung gebracht. Anders als bei Organisationsstrategien wird der Lernstoff also nicht reduziert, sondern sinnvoll erweitert, z.B. indem… Vorwissen aktiviert, weitere Beispiele gesucht, Querverbindungen hergestellt und Analogien gefunden werden oder der Stoff in eigenen Worten wiederholt wird. Mnemotechniken (griech.„mneme“ = „Gedächtnis“) sind Elaborationsstrategien, die sich vor allem zum Merken von einfachem Lernmaterial (z.B. Vokabeln oder Begriffslisten) eignen. Dabei werden die Informationen so verarbeitet (mit Bedeutung angereichert) bzw. organisiert, dass sie später leichter abrufbar sind. Mnemotechniken sind zwar sehr effektiv, müssen aber hinreichend geübt werden! 9.3.1. Mnemotechniken Loci-Technik: Ein bekannte Mnemotechnik ist die sog. „Loci-Methode“; dabei ruft man sich zunächst einen vertrauten Ort - z.B. die eigne Wohnung; den Schulweg etc. – in Erinnerung. In einem zweiten Schritt stellt man sich die zu merkenden Items bildhaft vor und verknüpft sie mit diesem Ort. Beim Abruf der Informationen geht man den Ort in Gedanken ab und „stößt“ dabei auf die dort abgelegten Vorstellungsbilder. Bei entsprechender Übung können mit dieser Technik beachtliche Gedächtnisleistungen erzielt werden. Im Alltag kann die Loci-Methode z.B. für das Behalten von Einkaufslisten genutzt werden. In der Schule ist das Verfahren allerdings bedingt anwendbar, da es wie alle Mnemotechniken nicht dazu geeignet ist, Zusammenhänge zu lernen. Vorstellungsbilder (bildhafte Mediatoren): Eine weitere effektive Mnemotechnik besteht darin, die zu lernenden Begriffe mit möglichst intensiven Vorstellungsbildern zu verknüpfen (siehe: PAIVIO). Dabei sollten zwischen den einzelnen Bildern lebendige Assoziationen gebildet werden ein „Hund“ schwitzt in der „Sonne“ und hat eine „Schleife“ um den Hals. 38 „Schlüsselwortmethode“: Dabei wird eine zu lernende Vokabel mit einem ähnlich klingenden Wort der eigenen Sprache assoziativ zu einem Bild verknüpft. lat. „cubare“ klingt wie „Kuh“ und „Bahre“ => Assoziation: „Die Kuh liegt auf der Bahre“ => Dekodierung: cubare => Kuh liegt auf der Bahre => liegen. „Eselsbrücken“: Auch Eselsbrücken sind Mnemotechniken und in diesem Sinne elaborative Gedächtnisstrategien. Häufig angewandte Eselsbrücken sind zum Beispiel… Reime: „333- bei Issos Keilerei“; „Wer nämlich mit h schreibt, ist dämlich“ Akrostichone: Merksätze, bei denen der Anfangsbuchstabe jedes Wortes den eigentlich zu merkenden Inhalt bezeichnet: „Geh Du alter Esel, hole Fische.“ (für die Dur-Tonarten) Akronyme: Merkwörter, die aus den Anfangsbuchstaben der eigentlich zu merkenden Wörter zusammengesetzt sind. Z.B. „SQ3R-Methode“ (s.u.) Wie die Beispiele zeigen, werden Eselsbrücken im schulischen Kontext durchaus verwendet; allerdings helfen sie nur sehr partiell weiter. Narrative Verknüpfungen: Die zu lernenden Wörter in Geschichten einkleiden (eine Methode, die in jedem Englischbuch angewandt wird.) 9.3.2. Elaborationsstrategien für komplexere Lerngegenstände Die Schüler zur tieferen Elaboration (Assimilation) des Stoffes anzuregen, ist eine der Hauptaufgaben des Lehrers. Der Lehrer sollte Verständnisfragen stellen und die Schüler dazu anregen, auch selbst entsprechende Fragen zu formulieren. Erzeugung kognitiver Konflikte beim Lerner (die Schüler auf Widersprüche aufmerksam machen und sie aktiv nach Lösungen suchen lassen): Vgl. PIAGET! Verwendung von Beispielen, Bildmaterial etc. Vermittlung entsprechender Methoden (SQ3R-Methode, Mapping-Techniken) A) SQ3R-Methode Die auf ROBINSON zurückgehende SQ3R-Methode ist ein bewährtes Verfahren zum effektiven Umgang mit Texten. Bei dem Namen handelt es sich um ein Akronym: Die einzelnen Buchstaben stehen für „Survey, Question, Read, Recite, Review“. 1. Die Textarbeit sollte zunächst damit beginnen, sich z.B. anhand der Überschriften oder des Vorworts einen groben Überblick („Survey“) zu verschaffen. 2. In einem zweiten Schritt gilt es, konkrete Fragen an den Text zu stellen („Question“). Dabei kann man entweder vom eigenen Interesse ausgehen oder sich vom Text leiten lassen (z.B. die Überschriften in Fragen umformulieren etc.). 3. Erst danach wird mit dem eigentlichen Lesen begonnen („Read“). Dabei sollte man sich primär an den zuvor gestellten Fragen zu orientieren. 4. Nach dem Lesen muss der Inhalt wiederholt werden; am besten, indem die zuvor gestellten Fragen schriftlich oder gedanklich beantwortet werden (Recite). 5. Als 5. Arbeitsschritt sollte eine abschließende Rückschau („Review“) erfolgen: Sind die Fragen hinreichend beantwortet? Haben sich neue Fragen ergeben? Etc. In einer modifizierten Fassung (SQ4R) erweitert ROBINSON das Verfahren um einen weiteren Schritt; nämlich die Reflexion des Gelesenen („Reflect“), dabei wird der Leser explizit aufgefordert, nach dem Lesen über den jeweiligen Text nachzudenken, Beispiele zu finden, Querverbindungen herzustellen etc. Die SQ3R-Methode ist äußerst effektiv. Sie regt nicht nur zur Organisation des Lernstoffes, sondern auch zu dessen Elaboration und Wiederholung an. 39 B) Mapping-Verfahren bzw. die Erarbeitung von Begriffslandschaften Beim sog. „Mapping-Verfahren“ werden die für einen bestimmten Wissensbereich relevanten Begriffe als Knotenpunkte dargestellt und durch entsprechende Linien (bzw. Relationen) miteinander verbunden. Auf diese Weise erhält man eine graphische Darstellung des betreffenden Wissensbereichs („Begriffslandschaft“). Eine solche Darstellung ist übersichtlich und anschaulich. Außerdem entspricht sie der semantischen Netzwerktheorie zufolge (s.o.) unserer mentalen Wissensrepräsentation. Daher auch die Bezeichnung „Mind Map“. „Mind Maps“ bzw. „Begriffslandschaften“ können im Unterricht auf vielfältige Weise zum Einsatz kommen. Am effektivsten ist es, den Schülern keine fertigen Begriffslandschaften vorzugeben, sondern sie gemeinsam mit ihnen zu erarbeiten. z.B. in Form eines „Brainstormings“, um vorhandenes Wissen zu aktivieren oder am Ende einer Unterrichtseinheit, um das neu erworbene Wissen zu sondieren. Darüber hinaus ist es sinnvoll, Begriffslandschaften sukzessive zu erweitern und zu ergänzen. Auf diese Wiese können die Schüler ihren eigenen Lernfortschritt besser verfolgen. Zahlreiche Befunde zeigen, dass „Mind Maps“ weitaus lernwirksamer sind als z.B. zusammenfassende Texte (Vgl. hierzu JÜNGST). Ursachen für die hohe Effektivität von Begriffslandschaften: Begriffslandschaften dienen der Visualisierung und begünstigen dadurch eine duale Verarbeitung des Lernstoffs (s.o.: PAIVIO). Der Einsatz von Bildern (Diagramme, Schemazeichnungen, Filme, Fotos etc.) zur Unterstützung verbal vermittelter Informationen ist generell empfehlenswert. Das Erstellen und Verstehen von Begriffslandschaften setzt die aktive Auseinandersetzung mit dem dargestellten Wissensbereich voraus. Insofern werden elaborative Prozesse förmlich herausgefordert. Die einzelnen Begriffe werden nicht isoliert, sondern als Teil eines semantischen Netzwerkes gelernt (=> „sinnvolles Lernen“) Insofern Mind Maps hierarchisch oder zumindest thematisch geordnet erleichtern sie die Organisation des Lernstoffs. Komplexe Inhalte werden auf das Wesentliche reduziert und entsprechend strukturiert. Das erleichtert sowohl die Speicherung als auch den späteren Abruf der dargestellten Information. Anhand von Mind Maps können sich Schüler schnell über den eigenen Wissensstand informieren. Insofern erleichtern Mapping-Verfahren die Kontrolle des eigenen Lernprozesses. 40 10. Aufmerksamkeit 10.0. Einleitung Aufgrund unserer begrenzten Verarbeitungskapazität sind Aufmerksamkeitsprozesse notwendig. Nur die Informationen, auf die wir unsere Aufmerksamkeit richten, werden uns bewusst – und evtl. im LZG gespeichert. Der Rest wird ausgeblendet. Darüber, wie Aufmerksamkeitsprozesse ablaufen und auf welcher Ebene der Informationsverarbeitung sie anzusiedeln sind, gibt es verschiedene Theorien. Prinzipiell lassen sich Filter- und Ressourcenmodelle unterscheiden. Erstere betrachten die Informationsverarbeitung und -filterung als seriellen (linearen)-, letztere als parallelen (simultanen) Prozess. 10.1. Das Filter-Modell (Broadbent) BROADBENT geht von einem Informationskanal aus, in dem die eingehenden Reize linear (sequentiell) verarbeitet- und schon früh gefiltert werden. Nur die Informationen, denen wir unsere Aufmerksamkeit zuwenden, erreichen das Kurzzeitgedächtnis, wo sie semantisch verarbeitet werden. Alle anderen Reize werden aufgrund begrenzter Verarbeitungskapazität schon vor deren Verarbeitung im KZG herausgefiltert. Diese frühe Selektion basiert ausschließlich auf physikalischen Reizeigenschaften und erfolgt nach dem „Alles-oder-Nichts-Prinzip“. Empirische Befunde, die BROADBENT’S Modell stützen: CHERRY (1953): Dichotisches Hören Beim dichotischen Hören wird dem rechten Ohr (über Kopfhörer) etwas anderes dargeboten als dem linken. Die Pbn werden aufgefordert, jeweils einen der beiden Texte mitzusprechen („shadowing“), um auf diese Weise ihre Aufmerksamkeit zu lenken. CHERRY zeigte, dass die „verschattete“, also die nicht nachgesprochene, Botschaft lediglich hinsichtlich physikalischer Eigenschaften wahrgenommen wird. Eine semantische Verarbeitung des Gehörten findet nicht statt. Die Pbn merkten z.B. nicht, wenn die verschattete Botschaft in einer anderen Sprache gesprochen- oder 35 Mal hintereinander dasselbe Wort wiederholt wurde. Physikalische Veränderungen, wie z.B. der Wechsel von einer Männer- zu einer Frauenstimme – wurden dagegen bemerkt! 10.2. Das Verdünnungs- oder Abschwächungsmodell (Treisman) In dem Verdünnungs- oder Abschwächungsmodell von TREISMAN wird ebenfalls von einer sequentiellen Informationsverarbeitung ausgegangen; allerdings erfolgt dabei die Filterung der Informationen nicht nach dem „Alles-oder-Nichts-Prinzip“, sondern stufenweise. Irrelevante Informationen werden nicht vollständig weggefiltert, sondern lediglich weniger vollständig verarbeitet. Dabei hängt das Verarbeitungsniveau davon ab, wie unähnlich sich die betreffenden Reize sind. Unterscheiden sich die Informationen physikalisch (z.B. Männer- vs. 41 Frauenstimme), reicht eine Analyse auf dieser Ebene aus; sind sich die dargebotenen Informationen dagegen ähnlicher ist evtl. eine semantische Analyse notwendig. 10.3. Das Späte-Selektions-Modell (Deutsch & Deutsch) DEUTSCH & DEUTSCH gehen im Gegensatz zu BROADBENT davon aus, dass die Selektion der eingehenden Informationen erst auf einer späteren Stufe der Informationsverarbeitung stattfindet. Ihnen zufolge werden aufmerksamkeitsirrelevante Informationen erst nach deren semantischer Identifikation im KZG herausgefiltert. Empirische Befunde, die dieses Modell stützen: „Effekt des eigenen Namens“: Wird im nicht zu beachtenden Ohr der eigene Name eingespielt, wird dieser von der betreffenden Person wahrgenommen. 10.4. Das Modell der flexiblen Ressourcen-Allokation (Kahneman) Anders als Filtermodelle, gehen Ressourcenmodelle davon aus, dass die Informationsverarbeitung simultan bzw. parallel abläuft. Dementsprechend werden Aufmerksamkeitsprozesse nicht an einem bestimmten Punkt der Informationsverarbeitung festgemacht. KAHNEMAN geht davon aus, dass die Aufmerksamkeit auf verschiedene Informationsquellen gleichzeitig gerichtet werden kann. Tatsächlich kann man mit einiger Übung Autofahren und Telefonieren gleichzeitig. Ihm zufolge verfügt der Mensch über einen begrenzten Pool kognitiver Ressourcen, die er flexibel einsetzen kann. Aufmerksamkeitsprozesse erfolgen demnach nicht nach dem „Alles-oder-NichtsPrinzip“, sondern basieren auf der ökonomischen Verteilung kognitiver Ressourcen. Zu welchem Zeitpunkt die aufmerksamkeitsbedingte Selektion von Informationen erfolgt, hängt nach KAHNEMAN von 3 Faktoren ab: 1) Der Schwierigkeit der primären Aufgabe Je schwieriger eine Aufgabe, desto unwahrscheinlicher ist es, dass parallel dazu noch weitere Informationen verarbeitet werden können. Ist die verschattete Aufgabe schwierig, wird früh selektiert, steht dagegen genügend Kapazität zur Verfügung, z.B. weil beide Aufgaben leicht sind und eine simultane Verarbeitung zulassen, wird spät oder überhaupt nicht selektiert. Wichtig ist in diesem Zusammenhang die Unterscheidung zwischen kontrollierter und automatischer Informationsverarbeitung. Erstere ist bewusst und erfordert viel Kapazität; letztere läuft unbewusst ab und beansprucht nur wenig kognitive Ressourcen (automatisierte Prozesse wie Abschreiben, Autofahren, etc.). 2) Dem Umfang der verfügbaren Ressourcen Momentaner Erregungszustand einer Person (Müdigkeit, Geräuschkulisse etc.). 3) Der „Ressourcen-“ bzw. „Verteilungspolitik der betreffenden Person Die „Ressourcenpolitk“ einer Person bzw. deren Aufmerksamkeitslenkung hängt dabei von folgenden Faktoren ab: Überdauernden Dispositionen z.B. wird bewegten Reizen automatisch mehr Aufmerksamkeit zugewendet als unbewegten. 42 Den momentanen Absichten einer Person Reizeigenschaften Schwierigen Aufgaben, die mehr Kapazität erfordern, wird mehr Aufmerksamkeit geschenkt, als leichten Aufgaben. 10.5. Modell der multiplen Ressourcen Das Modell der multiplen Ressourcen geht anders als KAHNEMAN’S Modell nicht von einer generellen Ressource aus, sondern von mehreren inhaltsspezifischen Ressourcen. Anlass zu dieser Annahme geben Experimente, in denen Vpn 2 Aufgaben gleichzeitig erledigen müssen. Zu Interferenzen kommt es dabei v.a., wenn die gestellten Aufgaben ähnlich sind: Z.B. inferrieren Bild-Vorstellungen mit visuellen Aufgaben, Geräuschvorstellungen mit auditiven Aufgaben. 10.6. Anwendung im Unterricht Die besprochenen Theorien und Experimente zeigen, welche entscheidende Rolle der Aufmerksamkeit bei der Verarbeitung und Speicherung von Informationen zukommt. Bei entsprechender Ablenkung (Geräuschpegel, Zettelchen Schreiben etc.) kann es passieren, dass der Unterricht vollständig an den Schülern vorbeigeht. Alle dargestellten Modelle gehen davon aus, dass Unterschiede auf der perzeptuellen Ebene am ehesten bewusst werden. Dementsprechend kommt äußeren Stimuluseigenschaften eine entscheidende Rolle bei der Aufmerksamkeitslenkung zu: Durch entsprechende Hervorhebungen (z.B. Unterstreichungen oder den Einsatz verschiedener Farben) kann die visuelle Aufmerksamkeit erregt werden; durch das Heben der Stimme die auditive Aufmerksamkeit! Etc. Methoden zur Erregung der Aufmerksamkeit: Stimuluseigenschaften (z.B. lautes Sprechen, veränderte Stimmlage, visuelle Hervorhebungen etc.) Explizite Hinweise (ein wesentliches Mittel der Aufmerksamkeitslenkung ist die Sprache; einzelne Schüler mit Namen ansprechen, das Wesentliche explizit betonen; Aufforderungscharakter) Motivational-emotionale Aspekte (Interesse fördern etc.) Überraschungseffekte Modell der flexiblen Ressourcen-Allokation: Schüler dürfen nicht überfordert werden, sie haben lediglich einen begrenzten Umfang an kognitiven Ressourcen zur Verfügung. Nur Routine-Tätigkeiten können parallel durchgeführt werden. Schwierige Aufgaben erfordern dagegen volle Konzentration. Welche Aufgaben als „schwierig“ einzustufen sind, hängt dabei von der Übung der Schüler ab. Ein Anfänger hat z.B. Probleme damit, einen fremdsprachigen Text laut vorzulesen und parallel dazu dessen Inhalt voll zu erfassen. Letzteres gelingt erst, wenn die Artikulation hinreichend automatisiert ist und dadurch weniger kognitive Kapazität erfordert. 43 44