Volltext - Universität Heidelberg

Werbung
1
Kritik / Reinterpretation des »Gedächtnis«-Konzeptes als kognitivistischer Fassung des
Lernproblems
Vorbemerkung
Mit der kognitiven Wende, durch welche sich (wie gesagt) die bisher dominante SRPsychologie in die zweite Reihe verwiesen sah, wurden einerseits kognitive Ansätze und Fragestellungen der alten Bewußtseinspsychologie - die von Ebbinghaus inaugurierte assoziationspsychologische Gedächtnisforschung, die Würzburger Schule der Denkpsychologie, die
Berliner Schule der Gestalttheorie, etc. - die seinerzeit durch die behavioristische Umwälzung
zurückgedrängt worden waren - Mitte oder Ende der fünfziger Jahre wieder aufgegriffen. (Insoweit konnte Sigmund Koch, der kritische Historiograph der Mainstream-Psychologie, die
kognitive Wende in Anlehnung an die Freudsche Formel als »Wiederkehr des Verdrängten«
charakterisieren.) Andererseits aber gewann der neue Kognitivismus von Anfang an dadurch
gegenüber der alten kognitiven Psychologie seine Besonderheit, daß hier die kognitiven Prozesse nach dem Muster wissenschaftlicher und technischer Verfahren modelliert wurden: Als
»Hypothesenprüfungen«, »Strategien«, »Heuristiken«, »intuitive Statistik« etc., vor allem
(und die anderen Aspekte einbeziehend) aber als »Informationsverarbeitungs-Prozesse« durch
Computer. Dabei muß die Besonderheit der Kognitiven Psychologie auf dem Hintergrund der
sich ungefähr gleichzeitig entwickelnden interdisziplinären »cognitive science« gesehen werden, in welcher u.a. die Computer-Simulation psychischer Prozesse (etwa mit der Konstruktion computergestützter »Lernmaschinen« o.ä.) versucht wurde und sich das heute sehr bedeutsame Gebiet der »artificial intelligence« (AI), also »künstlichen Intelligenz« (KI) herausbildete. Hier sollen nicht psychische Prozesse simuliert, sondern leistungsfähige Hilfsmittel zur
Problemlösung, Wissenskumulation etc. in verschiedenen Bereichen entwickelt werden. Die
eigentliche Kognitive Psychologie ist (trotz vielfältiger Verbindungen und Überschneidungen) gegenüber diesen Bereichen dadurch gekennzeichnet, daß es hier nicht (notwendig) um
reale Computeranwendungen, sondern um die theoretische Modellierung kognitiver Prozesse
nach Analogie der Computer-Hardware und besonders -Software geht.
Die den Kognitivismus kennzeichnende theoretische Computer-Metaphorik war es wohl auch,
aus der die Möglichkeit der Durchsetzung des kognitiven »Paradigmas« gegenüber der SRPsychologie erwuchs: Man hatte jetzt dem wesentlich an der Physik und Physiologie orientierten Naturwissenschaftlichkeitsanspruch der SR-Psychologie einen offenbar gleichrangigen, aus der Informatik bzw. Computerwissenschaft entliehenen wissenschaftlichen Exaktheitsanspruch entgegenzusetzen, wobei man gleichzeitig dadurch im Vorteil war, daß nunmehr auch bisher nicht als wissenschaftsfähig geltende Bewußtseinsprozesse streng wissenschaftlich untersuchbar schienen. Die durch solche Bedingungen begünstigte Entwicklung
verlief so rasch, daß bereits im Jahre 1967 Eric Neisser - in seinem Buch »Cognitive Psychology« - den Vollzug des »Paradigma-Wechsels« verkünden und dokumentieren konnte. Wenig später kam es zu den ersten Gründungen einschlägiger Zeitschriften, so im Jahre 1970 der
Zeitschrift »Cognitive Psychology« (die noch heute zu den einflußreichsten psychologischen
Periodika gehört).
Mit dieser Wende vollzog sich naturgemäß ein Wechsel der psychologischen Wissenschaftssprache von der bisherigen Stimulus-Response-Terminologie zur metaphorisch gemeinten
Computer-Terminologie: Statt von »Reiz«, »Reaktion«, »Kontingenz«, »Verstärkung« etc.
redet man hier mit Bezug auf das menschliche Individuum von »Input«, »Output«, Enkodierung und Abruf, verschiedenartigen »Speichern« (als computersprachlicher Fassung des Gedächtnisses), hierarchischen Such- und Entscheidungsbäumen etc. Dabei kommen (in einem
bestimmten Zweig der Kognitiven Psychologie, s.u.) innerhalb dieses neuen Sprachduktus
auch kybernetische Konzepte über Steuerung und Kontrolle in offenen Systemen als fließende
Einregulierng der Ist-Werte auf einen Soll-Wert durch Rückkoppelungsprozesse zur Geltung.
In unserem Problemzusammenhang besonders wichtig ist der schon erwähnte Umstand, daß
2
mit der neuen »kognitiven« Terminologie auch der Begriff des »Lernens«, der bisher im Mittelpunkt der SR-psychologischen Theorienbildung stand (so daß man die ganze Richtung berechtigt als »Lerntheorie« bezeichnen kann), nunmehr seine zentrale Position einbüßte. Dies
ging so weit, daß in dem erwähnten Manifest der kognitiven Wende von Neisser (1967) der
Terminus »Lernen« als in irgendeinem Sinne systematischer Begriff praktisch nicht mehr
vorkommt. In neuerer Zeit hat das Konzept des Lernens allerdings durch den im Umkreis der
»Künstlichen Intelligenz« angesiedelten (und von manchen als Alternative dazu betrachteten)
»konnektionistischen« Ansatz eine gewisse Wiederbelebung erfahren - allerdings selbst wieder in einer reduzierten, mehr »metaphorischen« Weise, indem bestimmte Optimierungsvorgänge, die in nach dem Muster neuronaler Netzwerke aufgebauten und programmierten Computern erreicht werden können, als »Lernprozesse« des Systems bezeichnet werden (s.u.).
Wenn also »Lernen« im Kognitivismus kaum eine selbständige konzeptionelle Bedeutung
hat: Warum beschäftigen wir uns dennoch in unserer Arbeit über Lernen mit bestimmten Aspekten der Kognitiven Psychologie? Dies versteht sich einerseits daraus, daß aus der erwähnten kybernetischen Variante der Kognitiven Psychologie, insbesondere durch deren handlungstheoretische Weiterentwicklungen, wesentliche Gesichtspunkte für die Entfaltung eines
begründungstheoretischen Lernkonzepts gewinnbar sind (dies wird jedoch erst im nächsten
Teilkapitel 2.4 dargestellt und diskutiert); weiterhin daraus, daß - während andere Zweige des
Kognitivismus, wie »Begriffsbildung«, »Problemlösen« etc. (wie z.T. später noch erörtert)
mehr der abgrenzenden Präzisierung des Lernkonzepts dienlich sind - das kognitivistische
Gedächtnis-Konzept für die Klärung des Lernproblems unmittelbar relevant ist. Dies geht
soweit, daß man (wie etwa aus einer Gegenüberstellung der SR psychologischen und kognitivistischen Grundbegriffe von Bredenkamp & Wippich, 1977, S.13f, hervorgeht) das »Gedächtnis« in gewissem Sinne als die kognitivistische Fassung oder Spezifizierung des SRtheoretischen Lernkonzeptes betrachten kann.
In die gleiche Richtung weist die Benennungsänderung einer (besonders wichtigen und repräsentativen) psychologischen Zeitschrift, die noch im Jahre 1962 unter dem Skinner verpflichteten Titel »Journal of Verbal Learning and Verbal Behavior« gegründet, aber 1985, mit ihrem 24. Band, in »Journal of Memory and Language« umbenannt wurde. Zur Begründung
weisen die Herausgeber (M.A. Just und P.A. Carpenter), darauf hin, daß diese Umbenennung
eigentlich schon seit mehreren Jahren überfällig gewesen sei, da sie dem wirklichen Inhalt der
Zeitschrift und der Natur des Forschungsfeldes entspreche. Im gleichen Trend werden in neueren Gesamtdarstellungen das »Lernen« (im SR-psychologischen Sinne) und das »Gedächtnis« (als kognitivistisches Konzept) oft zusammen abgehandelt, meist, indem einem ersten
Teil über »Lernen« ein zweiter Teil über »Gedächtnis« folgt. Nicht selten kommen nach der
Durchsetzung der kognitiven Wende beide Bezeichnungen, »learning« und »memory«, schon
im Titel einschlägiger Lehrbücher o.ä. vor, so u.a. bei Stein & Rosen (1974), Crowder (1976),
Flaherty et al. (1977), Wickelgren (1977), Hintzman (1978), Tarpy & Mayer (1978), Bugelski
(1979), Ellis et al. (1979), Spear & Campbell (1979) und Houston (1981).
Aus der damit dargelegten Nähe zwischen »Lernen« und »Gedächtnis« (die ja auch dem alltäglichen Vorverständnis entspricht) ist der Umstand, daß wir uns im folgenden mit der
kognitivistischen Gedächtnisforschung beschäftigen wollen, wohl hinreichend plausibel gemacht. Dies bedeutet aber nun keineswegs, daß das begriffliche Verhältnis zwischen »Lernen« und »Gedächtnis« in der Literatur schon geklärt worden ist, so daß wir bei unseren Analysen darauf zurückgreifen könnten. Im Gegenteil: In den einschlägigen Darstellungen werden
ziemlich durchgehend das »Lernen« als Spezialität der SR-Psychologie und das »Gedächtnis«
als Spezialität der Kognitiven Psychologie mehr oder weniger begriffslos aneinandergereiht
oder gegenübergestellt.
So müssen wir also bei unseren Bemühungen um eine begründungstheoretische Kritik und
Reinterpretation der kognitivistischen Gedächtnisforschung auch die Voraussetzungen dafür
3
zu schaffen suchen, später den Stellenwert des Gedächtniskonzepts innerhalb einer subjektwissenschaftlichen Lerntheorie genauer auseinanderlegen zu können.
Theoretische Grundkonzeptionen kognitivistischer Gedächtnisforschung
Wie im Kognitivismus generell Fragestellungen aus der frühen bewußtseinspsychologischen
Phase der Psychologie vor der Durchsetzung des Funktionalismus/Behaviorismus aufgegriffen und neu gefaßt wurden, so knüpft auch die kognitivistische Gedächtnisforschung an klassischen Untersuchungen, nämlich denen von Ebbinghaus und seinen unmittelbaren Nachfolgern über das menschliche Gedächtnis an. Ebbinghaus (1885 etc.) ging es (gemäß dem »strukturalistischen« Grundansatz der damaligen Psychologie) - wie Wundt - nicht um die Bedingtheiten des Verhaltens anderer Menschen, sondern um die Aufbauelemente und -gesetze des
Psychischen. Das Phänomen, dessen Aufbau Ebbinghaus erforschen wollte, war jedoch nicht
das Bewußtsein im Ganzen, sondern spezieller das Gedächtnis als quasi zeitlicher ProzeßAspekt des Bewußtseins. Aber auch dabei war es sein Ziel, die Elemente, hier von Gedächtnisprozessen, zunächst möglichst rein, d.h. unbeeinflußt von zusätzlichen komplizierenden
Faktoren, zu erfassen, um so den Gedächtnis-Aufbau »von unten« her auf die assoziativen
Verknüpfungsgesetze der Elemente hin untersuchen zu können. Das »Gedächtniselement«,
das Ebbinghaus unter dieser Zielsetzung herausanalysierte (und das in gewissem Sinne die
gleiche forschungsstrategische Funktion hatte wie Wundts einfache Empfindungen und Gefühle), war die »sinnlose Silbe«: Ein Kunstwort aus drei Buchstaben, zwei Konsonanten und
einem von diesen umschlossenen Vokal, z.B. MUB, NUF, MEV. Durch das Lernen und spätere Reproduzieren bzw. Wiedererkennen solcher sinnloser Silben sollten die Gesetze des
Behaltens und Vergessens ohne Verfälschungen durch schon vorher im Alltag Gelerntes und
Eingeprägtes, eben in reiner Form, faßbar werden. Dazu entwickelten Ebbinghaus und seine
Mitarbeiter (so insbesondere Müller & Schumann, 1894) spezifische »Gedächtnismethoden« ‚
z.B. »Methode des Erlernens«, »Ersparnismethode«, »Methode des Behaltens«; das zeitliche
Verhältnis zwischen Lernen und Vergessen des Materials wurde in sog. Gedächtniskurven
bzw. Vergessenkurven dargestellt (vgl. die später von dem Ebbinghaus-Schüler Jost, 1897,
aufgestellten »Jostschen Gesetze«) etc.
Die kognitivistische Gedächtnisforschung hat mit der klassischen Gedächtnisforschung gemeinsam, daß dabei so gut wie ausschließlich sprachliches bzw. symbolisches Material
(i.w.S.) benutzt wird, allerdings neben sinnlosen Silben zunehmend auch bedeutungsvolle
Wörter, Sätze, bis hin zu ganzen Texten. Das entscheidende Spezifikum der Gedächtnisforschung nach der kognitiven Wende ist jedoch - wie gesagt - die Verwendung von auf die
Computer-Metapher gestützten Termini und Modellen. Dabei wurde praktisch von Anfang an
(seit den fünfziger Jahren) nicht nur das Gedächtnis in Analogie zum Computerspeicher gesetzt, sondern man entwickelte darüber hinaus theoretische Konzepte, in denen das Gedächtnis als aus nicht nur einem, sondern aus zwei bzw. drei unterschiedlichen Speichern bestehend
modelliert wurde. Die (heute allerdings gebrochene, s.u.) Herrschaft von solchen »Mehrspeicher-« oder »Mehrkomponentenmodellen« begann wohl mit Broadbent (1959), dessen Untersuchungen über die begrenzte Kanalkapazität des menschlichen Sensoriums die Annahme
eines »Zwischenspeichers« (»buffer«), der bei Überschreitung der sensorischen Aufnahmefähigkeit die ein kommende Information kurzfristig festhalten kann, als vom bisher allein betrachteten Langzeitgedächtnis unterscheidbar nahelegte. Im weiteren wurde daraus, über
mehrfache Umdeutungen und Erweiterungen, ein Dreispeichermodell des Gedächtnisses, wie
es von Atkinson & Shiffrin (1968) in Zusammenfassung vorgängiger Untersuchungen und
Diskussionen entworfen worden ist und in gewissen Strömungen der Kognitiven Psychologie
noch heute (teilweise abgewandelt und ergänzt) tradiert wird. Demnach hat man einen Ultrakurzzeitspeicher mit einer Haltezeit von 1/4 bis 2 Sekunden als »Sensorisches Register« (SR),
einen Kurzzeit-Speicher (Short term memory = STM) mit mehreren (5-20) Sekunden Halte-
4
zeit und einen Langzeit-Speicher (LTM) mit unbegrenzter Haltezeit (das eigentliche »Gedächtnis«) zu unterscheiden. Dabei ist vorausgesetzt, daß Schwierigkeiten bei der Aktualisierung von Daten aus dem Langzeit-Speicher nicht auf Grenzen der Haltezeit, sondern auf
Mängel der Wiedererinnerung, also des Abrufprozesses, zurückgehen. Der Informationsfluß
soll gemäß diesen Modellvorstellungen vom SR zum STM, von da aus zum LTM und (beim
Erinnern als »Abruf« aus dem LTM) wieder in den STM (und von da aus u.U. noch in eine
Art von »Response-Generator«, der die Umsetzung der Information in manifestes Verhalten
besorgt) gehen.
Die Differenzierung zwischen sensorischem Register und Kurzzeitspeicher wurde als Übergang von der bloßen Reizinformation zu einer ersten (von mir gleich näher charakterisierten)
Versprachlichung im STM gekennzeichnet, wobei die Aufnahme der Information in das sensorische Register aufmerksamkeitsunabhängig, deren Überführung in den STM aber nur aufgrund von Aufmerksamkeitsprozessen vollziehbar sein soll (vgl. etwa Crowder & Morton
1969).
Zur Begründung der Unterscheidung zwischen STM und LTM wurde etwa auf vielfältige
Befunde verwiesen, denen gemäß der STM eine gegenüber dem LTM begrenzte Aufnahmekapazität haben soll (entsprechend den meisten experimentellen Resultaten zwischen 5 und 9
gleichzeitig rezipierbare Items), so daß, um die weitere Informationsaufnahme zu ermöglichen, der Inhalt des STM im LTM abgelegt werden muß. Weiter wurden experimentelle Ergebnisse angeführt, aus denen hervorgehen soll, daß die im Kurzzeit-Speicher enthaltenen
Informationen nur durch aktive Kontrollprozesse wie Wiederholen, Memorieren und andere
Behaltensstrategien zu fixieren, also quasi durch eine Verbalschleife aufrechtzuerhalten sind.
Solche Aktivitäten sollen die Voraussetzung für die Überführbarkeit in den LTM darstellen,
wo sie dann ohne besondere Behaltensstrategien verharren. (Lediglich im STM gespeicherte
Telefonnummern z.B. halten sich nur durch inneres Wiederholen und erzwingen alsbaldiges
Wählen, da sie sonst wieder entfallen, während im LTM gespeicherte Telefonnummern jederzeit beliebig abrufbar sind, vgl. Schönpflug & Schönpflug 1983, S.204). Häufig wurde dabei indem man das Ausmaß der genannten Kontrollprozesse als zeitabhängig betrachtete - eine
einfache Entsprechung zwischen der Verweildauer im STM und der Behaltensleistung im
LTM angenommen und experimentell »bestätigt«. Als besonders schlüssig zur Begründung
für die Notwendigkeit der Unterscheidung zwischen STM und LTM gelten Befunde, aus denen hervorgeht, daß bei manchen Formen von Amnesie der Kurzzeitspeicher bei voller Funktionsfähigkeit des Langzeitspeichers gestört sein kann (vgl. etwa Milner 1970 und Warrington
1971).
In besonderem Grade theoretisch relevant sind Hypothesen und Resultate über verschiedene
»Kodierungsstufen« bei der Aufnahme der Information in den Kurzzeitspeicher und bei deren
Übergang in den Langzeit-Speicher: Während im Kurzzeitspeicher, obzwar der Input bereits
durch die Überführung aus dem sensorischen Register in sprachlicher Form vorliegt, per Kodierung dennoch eine mehr sensorische Ordnung nach den akustischen bzw. phonetischen
Merkmalen der verbalen Items entstehen soll, wird als Resultat einer zweiten Kodierungsstufe
eine Ordnung nach (sprachlichen) Bedeutungsbeziehungen unabhängig von der sinnlichen
Erscheinungsweise der Elemente, also eine semantische Ordnung unterstellt (vgl. Baddeley
1966) - also etwa im STM phonetische Ordnung nach Klangähnlichkeit: BAUM, SAUM,
RAUM, TRAUM, und im LTM semantische Ordnung: KAMPF, KRIEG, FEHDE,
SCHLACHT (vgl. Schönpflug & Schönpflug 1983, S.205).
Die Kodierungsprozesse sind im übrigen, in mehr oder weniger enger Verbindung mit dem
geschilderten Mehrspeicher-Modell, noch differenzierter untersucht und klassifiziert worden.
Dabei unterschied man etwa eine »reduktive Kodierung«, in welcher (ggf. innerhalb des
STM) aufgrund der begrenzten Aufnahmekapazität die Information hinsichtlich bestimmter
Aspekte selegiert, in »Chunks« bzw. »Clustern« gebündelt etc., und so auf bestimmte Kenn-
5
werte für die Gesamtinformation reduziert wird, von einer »elaborativen Kodierung«, in welcher (ggf. im LTM) von den Individuen zwecks Behaltens und Abrufbarkeit aktiv Bedeutungsimplikationen und -zusammenhänge, die ursprünglich im Material gar nicht enthalten
waren, her ausgehoben werden (vgl. dazu die ausführlichen Darstellungen von Bredenkamp &
Wippich II, 1977, S.4Off).
Auf der Grundlage des Dreispeicher-Modells sind auch darauf bezogene Vorstellungen über
die Eigenart des Wiedererinnerns, also der »Abrufvorgänge«, entwickelt worden. So wurde
etwa angenommen, daß bei jedem Abrufvorgang zunächst eine spezifische Abruf-Information
(»probe information«) im STM quasi als Frage an das LTM im STM gespeichert ist, wodurch
selektiv bestimmte Informationen aus dem LTM aktiviert und (u.U. per Eintritt in das STM)
zugänglich bzw. bewußt gemacht werden. Dabei soll mit je dem vollzogenen Abruf die damit
aktivierte Information im LTM gegenüber anderen Informationen selektiv gestärkt, d.h. aktualisierbar werden, womit - wenn weitere LTM-Inhalte erfordert sind - zur Relativierung solcher
Einengungen die Abruf-Information ausgewechselt werden muß. Die Wirksamkeit einer Abruf-Information ist - so wird angenommen - darüber hinaus von bestimmten KontextBedingungen abhängig: Demnach kann - wenn der Kontext, in dem eine Information steht,
sich von der Speicherungssituation bis zur Abrufphase verändert hat - der Zugang zum LTM
blockiert sein. Weiterhin werden für bestimmte Abruf-Schwierigkeiten Interferenzen zwischen ähnlichen Items (etwa im STM phonemische Ähnlichkeiten, im LTM semantische Ahnlichkeiten) verantwortlich gemacht, wodurch mit der Aktualisierung einer ähnlichen irrelevanten Information die relevante (d.h. in der Abruf-Information erfragte) Information quasi
verstellt wäre (vgl. dazu auch Bredenkamp & Wippich II, 1977, S.88ff).
Neben der Unterscheidung zwischen SR, STM und LTM sind - in wechselndem Verhältnis
zum Dreispeicher-Modell - weitere Unterscheidungen verschiedener Gedächtnisarten vorgeschlagen, diskutiert und teilweise wie der verworfen worden. Die wohl relevanteste dieser
Unterscheidungen, die sich bis heute weitgehend eingebürgert hat, ist die von Tulving (1972)
erstmals eingebrachte Differenzierung zwischen einem »episodischen« und einem »semantischen« Gedächtnis. Als dem episodischen Gedächtnis zugehörig gelten Gedächtnisinhalte, die
sprachliche Repräsentanzen jeweils bestimmter, raumzeitlich bzw. geographisch-historisch
fixierbarer Ereignisse darstellen, bei denen der Einprägungsvorgang lokalisiert werden kann:
Ich habe dich das letzte mal vor 3 Jahren in Kopenhagen gesehen (was impliziert, daß ich mir
damals an diesem Ort eingeprägt habe, was ich heute erinnern kann).
Im semantischen Gedächtnis dagegen sollen nicht Repräsentanzen konkreter Ereignisse, sondern Repräsentanzen begrifflicher Strukturen oder Ordnungen gespeichert sein, wobei der
Zusammenhang zwischen diesen Repräsentanzen nicht im raumzeitlichen Bezugssystem,
sondern nach Regeln, Formeln, Algorithmen hergestellt ist, die über die aufgenommene Information hinausgehende Inferenzen, Schlußfolgerungen enthalten bzw. gestatten. So habe
ich das Statement »ein physischer Gegenstand kann sich nicht gleichzeitig an verschiedenen
Orten befinden« mir niemals für sich genommen eingeprägt, kann es aber dennoch über Inferenzaktivitäten jederzeit aus meinem semantischen Gedächtnis abrufen. Aber auch einfache
sprachliche Über- und Unterordnungen, wie »Löwen sind Säugetiere« oder »ein Mann ist ein
männlicher Mensch«, haben keine »episodische«, sondern eine »semantische« Struktur, gehören also nicht zu meinem anschaulichen »Weltwissen«, sondern zu meinem »propositionalen«
(aussagebezogenen) Wissen als Grundlage (und Resultat) von Denkaktivitäten aller Art (vgl.
Bower & Hilgard 1984, S.258f). In Abhängigkeit von der somit unterstellten unterschiedlichen Struktur des episodischen und semantischen Gedächtnisses werden für beide auch unterschiedliche Arten von Wiedererinnerns- bzw. Abrufvorgängen zur Aktualisierung der jeweiligen Repräsentanzen angenommen: Mit Bezug auf »episodisch« gespeicherte Repräsentanzen
soll das Erinnern in raumzeitlich orientierten Suchprozessen bestehen (warte mal, 1984 waren
wir in Norwegen in Ferien, danach bin ich krank geworden, seitdem waren wir nicht mehr
6
weg, also muß der Oesterreich-Urlaub früher gewesen sein). Beim Erinnern von Repräsentanzen im semantischen Gedächtnis dagegen bewege man sich innerhalb der dort »abgelegten«
sprachlichen, logischen, axiomatischen Ordnungen hin und her, um schließlich den Schnittpunkt im Wissenssystem zu finden, der jeweils konkret »gefragt« ist (ob ich dies als »ideologisch« bezeichnen kann, hängt davon ab, wieweit mit »Ideologien« lediglich verschleiernde
Rechtfertigungssysteme oder auch positive Welt- und Lebensdeutungen gemeint sind; nach
dem aktuellen Bedeutungszusammenhang scheint die erste Variante hier angemessener). Zur
Spezifizierung derartiger Zusammenhangsstrukturen wurden im weiteren verschiedene Modelle sog. semantischer Netzwerke vorgeschlagen, in denen unterschiedliche hierarchische,
topographische etc. Ordnungsprinzipien der einschlägigen Gedächtnisrepräsentanzen angenommen und untersucht werden (vgl. etwa Bredenkamp & Wippich II, 1977, S.l08ff). Dieses
zunehmende Interesse an semantischen Strukturen führte (wie erwähnt) zu bestimmten Änderungen der Materialien für die Gedächtnisforschung von einzelnen Elementen (sinnlosen Silben, Buchstaben, Symbolen, Worten) und deren Auflistung hin zu ganzen Texten bzw. Diskursen, deren Rezeption, Strukturierung und Reproduktion empirisch analysiert wurde (die
neueren Entwicklungen dieses Forschungszweiges sind von Bower, der - z.B. zusammen mit
Anderson - dazu selbst Modellvorstellungen bzw. Resultate beigetragen hat, zusammenfassend dargestellt worden; vgl. Bower & Hilgard 1984, S.275ff).
Mit der wachsenden Bedeutung semantischer Zusammenhänge und Strukturen innerhalb der
kognitivistischen Gedächtnisforschung gingen (naturgemäß) zunehmende terminologische
und theoretische Bezüge zur Linguistik einher - wobei derartige Affinitäten entscheidend dadurch begünstigt wurden, daß auch die Linguistik (in bestimmten Strömungen) eine »informationale« Wende durchgemacht hat und heute als Kognitive Linguistik sich mehr oder weniger
der Computer-Metapher verpflichtet sieht. Als eine Art von Reaktion darauf, aus welcher die
(später noch zu diskutierende) »semantische« Einseitigkeit moderner kognitivistischer Gedächtnisforschung schlaglichtartig erhellt, wurde von Cohen & Squire (1980) eine weitere
Unterscheidung, nämlich die zwischen »propositionalem Gedächtnis« (»knowing that«) und
»prozeduralem Gedächtnis« (»knowing how«) als wesentlich nahegelegt (und ebenfalls u.a.
mit Hinweis auf die getrennte Störbarkeit beider »Gedächtnisse« bei amnestischen Patienten
begründet). Damit werden praktisch alle bisher unterschiedenen Gedächtnisarten (bis auf das
in diesem Zusammenhang nicht diskutierte »Sensorische Register«), da an verbalem bzw.
symbolischem Material realisiert, auf die Seite des »propositionalen«, d.h. aussagebezogenen,
Gedächtnisses geschlagen: Auf diese Weise ist die hier bisher vernachlässigte Selbstverständlichkeit in Erinnerung gebracht ist, daß auch nichtverbale Aktivitäten in entsprechenden Fähigkeiten oder Fertigkeiten (etwa eine Ebene feilen oder Klavierspielen zu können) als »gespeichert« und bei Bedarf »abrufbar« betrachtet werden können. Tulving, der (wie gesagt)
seinerzeit die Unterscheidung zwischen episodischem und semantischem Gedächtnis eingeführt hatte, zog daraus in neuerer Zeit (1985a, b) die Konsequenz, indem er das episodische
und semantische Gedächtnis (einschließlich vorgeordneter Kurzzeitspeicher) als »deklaratives« Gedächtnis zusammenfaßte und diesem das »prozedurale Gedächtnis« gegenüberstellte,
das keine Bewußtseinsprozesse voraussetze, im ganzen ein primitiveres System darstelle und
deswegen bereits bei Tieren zu finden sei. Damit ist hier zwar einerseits eine wenigstens klassifikatorische Einbeziehung der nichtverbalen Verhaltensweisen, wie sie von der SR Psychologie untersucht wurden, in das Gedächtnis-Konzept vollzogen. Andererseits aber wird auf
diese Weise deutlich, daß praktisch die gesamte, aus der Ebbinghausschen Tradition des verbalen Assoziationslernens stammende und theoretisch wie methodisch auf verbalsymbolisches Material fixierte kognitivistische Gedächtnisforschung bis in ihre neuesten
Entwicklungen zur Analyse des menschlichen Bewegungslernens kaum beigetragen hat: Statt
dessen wurde das Problem des »motor learning« einem Spezialgebiet überantwortet, in welchem zwar u.a. auch theoretische Anleihen bei der kognitivistischen Gedächtnisforschung
gemacht werden, die aber im wesentlichen ihre eigene konzeptuelle Tradition, die kaum auf
7
die Entwicklung des Kognitivismus im Ganzen zurückwirkte, hervorgebracht hat (ich komme
darauf zurück).
Die üblichen, mit dem Umfang des empirischen Materials stetig wachsen den Schwierigkeiten
bei der Reproduktion und Interpretation der Befunde (die hier nicht im einzelnen dargestellt
werden sollen) führten nun dazu, daß seit den frühen siebziger Jahren (mindestens neben den
Speichermodellen) ein anderer theoretischer Grundansatz hervortrat: Die alternative Modellierung von Gedächtnisprozessen im Konzept der »Verarbeitungsebenen« (»levels of processing«) von Craik & Lockart, das 1972 in einem berühmten Artikel zum erstenmal vorgestellt
wurde.
Craik und Lockart glossieren in diesem Artikel (»Levels of Processing. A framework for memory research«) die den überkommenen Mehrspeicher Modellen zugrundliegende Konzeption des »Speichers« als »box model« und stellen diese von da aus hinsichtlich ihrer theoretischen und empirischen Tragfähigkeit grundsätzlich in Frage: Die damit verbundene Vorstellung des Durchlaufs der Information durch verschiedene fixierte Speicher sei zu unflexibel
und würde zudem die verschiedene Behaltensdauer von unterschiedlich kodierten Items eher
(durch die Definition der »Speicher«) hypostasieren als wirklich erklären. Außerdem seien
vorliegende experimentelle Befunde (hinsichtlich Behaltenskapazität, Kodierung und Eigenart
des Vergessensprozesses) mit dem Speichermodell nicht hinreichend zu interpretieren.
Das alternative Modell von Craik & Lockart bezieht sich (in seiner ursprünglichen Form) wesentlich auf den Einprägungs- bzw. Kodierungsprozeß als erste Phase des Gedächtnisvorgangs. Die Besonderheit dieses Modells besteht global gesehen darin, daß hier in einer generellen Umorientierung der Untersuchungsstrategien die Behaltensleistung nicht als Eigenschaft des jeweiligen Speichers, sondern als Nebenprodukt der perzeptiv-begrifflichen Verarbeitung des Materials betrachtet wird. Dabei kehrt man das Verhältnis zwischen Kodierung
und Haltezeit quasi um: Die kürzere oder längere Haltezeit ist demnach nicht das Charakteristikum verschiedener Speicher mit unterschiedlichen Kodierungsformen, sondern unterschiedliche Kodierungsformen führen aufgrund unterschiedlich intensiver Auseinandersetzung mit
dem Material zu verschiedenen Haltezeiten. Diese verschiedenen Kodierungsformen werden
als unterschiedliche »Verarbeitungsebenen« (»levels of processing«) - 1. Analyse von physikalischen oder sensorischen Zügen, 2. figurale Mustererkennung bzw. phonetische Identifizierung, also perzeptuelle Ebene, 3. semantische Analyse - näher bestimmt. Im Konzept der sensorischen Prozessebene ist das »sensorische Register«, in der perzeptuellen Ebene das STM
und in der semantischen Ebene das LTM (einschließlich der dazu beigebrachten experimentellen Befunde) reinterpretiert bzw. »funktionalisiert«.
Die somit herausgehobenen Ebenen werden - dies ist ihre entscheidende Bestimmung - durch
wachsende »Tiefe« (»depth«) der Auseinandersetzung mit dem Material, d.h. Akzentuierung
der elaborativen Kodierung gekennzeichnet. Dabei sollen auch innerhalb einer Verarbeitungsebene noch unterschiedliche Grade der Verarbeitungstiefe möglich sein, z.B. indem man auf
der semantischen Ebene den Kontext eines Begriffs unterschiedlich umfassend und eindringend expliziert. Demnach wäre die Verarbeitungstiefe eher ein Kontinuum mit qualitativen
Umschlägen von einer Ebene zur nächst höheren. Generell wird dabei angenommen, daß es
von der so gefaßten Tiefe der Informationsverarbeitung abhängig sei, wie stark sich die jeweilige Gedächtnisspur ausprägt, wie lange also die entsprechende Information behalten wird.
Der dergestalt angenommene Zusammenhang zwischen Prozeßebenen Tiefe und Behaltensdauer wird mit Hinweis auf damit verbundene wachsende Aktualisierbarkeit von schon erworbenen, stabilisierenden Wissens-Kontexten begründet: Während auf der sensorischen Ebene lediglich aktuelle Merkmale, die entsprechend schnell wieder entfallen, kodierbar seien,
werde das Material auf der perzeptuellen und besonders auf der semantischen Prozeßebene in
vorhandene Wissensstrukturen eingeordnet, so als Teil bzw. Aspekt des schon erworbenen
8
überdauernden Wissens integriert und damit selbst überdauernder Wissensbestand des Individuums.
Eine in diesem Zusammenhang charakteristische experimentelle Untersuchung (mit zehn Einzelexperimenten) stammt von Craik & Tulving (1975): Hier bot man den Vpn eine Liste mit
Wörtern kurzzeitig dar, wobei vor der Darbietung jedes Wortes eine darauf bezogene Frage
gestellt wurde. Als wesentliche unabhängige Variable diente die Variation der Fragen hinsichtlich der damit zu induzierenden Verarbeitungstiefe (>depth of semantic involvement<,
S.268) bei der Kodierung der jeweiligen Wörter: Eine sensorische Analyse des jeweiligen
Wortes sollte durch Fragen über dessen physische Struktur (ist das Wort in Großbuchstaben
gedruckt?) induziert werden; eine phonemische Analyse durch Fragen über die ReimCharakteristik (reimt sich das Wort auf »train«?); eine semantische Analyse durch kategoriale
Fragen (ist das Wort ein Tiername?) oder durch Satzergänzungs-Fragen (paßt das Wort in den
Satz »the girl placed the - on the table«?). Nach einer langen Serie von derartigen Fragen mit
anschließenden Wortdarbietungen (wobei jeweils die Hälfte der Fragen mit Ja bzw. mit Nein
zu beantworten waren) wurden die Vpn (mit verschiedenen »Gedächtnismethoden«) einer für
sie unerwarteten Behaltensprüfung unterzogen. Als all gemeines Resultat ergab sich dabei,
daß die Versuchspersonen bei den >tieferen< Kodierungsformen sowohl längere Zeit zur Einprägung brauchten wie in der Behaltensprüfung zu besseren Resultaten kamen.
Um die Frage zu beantworten, wieweit nur die längere Dauer der Kodierungsphase oder tatsächlich die wachsende Verarbeitungstiefe zu den besseren Behaltensleistungen geführt hatte,
wurden u.a. in einem weiteren Experiment Bedingungen hergestellt, unter denen komplexere
sensorische Kodierungsaufgaben längere Zeit in Anspruch nahmen als leichtere semantische
Kodierungen, wobei sich ergab, daß dennoch auf dem semantischen Verarbeitungsniveau
bessere Behaltensleistungen erzielt wurden etc.
Als eine Quintessenz aus ihren (hier nur ausschnitthaft dargestellten) Untersuchungen heben
die Autoren heraus: »All these studies conform to the new look of memory research in that
the stress is on mental operations, items are remembered not as presented stimuli acting on the
organism, but as components of mental activity. Subjects remember not what was ‘out there‘
but what they did during encoding« (S.292).
Weiterhin wurde innerhalb der Verarbeitungsebenen-Konzeption die unterschiedliche Funktion der Aufmerksamkeit für die Kodierung auf den verschiedenen Ebenen hervorgehoben: Die
sensorische Kodierung verlaufe ohne Aufmerksamkeits-Zuwendung. Die perzeptive Kodierung sei dagegen an Aufmerksamkeitsprozesse gebunden, wobei die so kodierten Inhalte nur
solange behalten würden, wie ihnen Aufmerksamkeit zugewendet wird, nach dem Aufmerksamkeitsentzug aber vergessen; generell wird davon ausgegangen, daß die Inhalte des Kurzzeitgedächtnisses dem Individuum phänomenal präsent sein müssen, also keinen bewußtseinsunabhängigen Bestand haben. Die semantische Kodierung schließlich komme durch spezifische intensivierte Aufmerksamkeitszentrierung auf die perzeptiv kodierten Inhalte zustande
und sei, wenn vollzogen, in ihrem Bestand nicht mehr von der Aufmerksamkeit bzw. vom
Bewußtsein abhängig etc.
Von diesen Vorstellungen aus kamen Craik & Lockart zu einer Differenzierung verschiedener
Typen des Einprägensprozesses: Im »Typ I«-Prozeß erfolge die Einprägung durch bestimmte
Aktivitäten des Memorierens innerhalb der perzeptiven Verarbeitungsebene, ohne daß dabei
eine den aktuellen Einprägungs- bzw. Festhaltensprozeß über dauernde Gedächtnisspur
zustandekäme. Im »Typ II«-Prozeß dagegen erfolge eine zunehmend tiefere Analyse des Materials; das Einprägen geschehe mithin durch den Übergang zur höheren, semantischen, Prozeßebene, womit ein Festhalten des Gedächtnisinhaltes über die aktuelle Kodierungs/Einprägungssituation hinaus erreichbar sei. In diesem Problemzusammenhang kommen die
9
Autoren u.a. zu einer neuen Deutung von vor liegenden experimentellen Resultaten über den
Effekt der Wiederholung für das Behalten:
Das memorierende Wiederholen der einzuprägenden Items führe als solches, d.h. wenn es
innerhalb der gleichen (perzeptiven) Prozeßebene verharre, nicht zu einer Verbesserung der
überdauernden Behaltensleistung. Wiederholen sei vielmehr nur dann für die Bildung von
Gedächtnisspuren effektiv, wenn damit eine wachsende Tiefe der Analyse und Verarbeitung,
also der Übergang zur höheren, semantischen Prozeßebene erreicht werde.
Die damit gekennzeichneten Verarbeitungsebenen sind von allem Anfang an nicht als notwendig zeitlich aufeinanderfolgende Stufen, sondern eher als unterschiedliche »funktionale«
Niveaus der Informationsaufnahme bestimmt. So heben Graik & Lockart (1972, S.675f) ausdrücklich hervor, daß man unter bestimmten Umständen die Reizgegebenheiten zunächst auf
einem tieferen, d.h. semantischen Niveau auffassen kann, ehe man sich über die dem zugrundeliegenden figuralen bzw. phonetischen Merkmale klar wird, so daß man hier - anders als
hinsichtlich des Informationsflusses von »Speicher« zu »Speicher« - keine »Hierarchie von
notwendig aufeinanderfolgenden Schritten« annehmen dürfe.
Diese allgemeinere »funktionale« Sicht wurde bekräftigt durch spätere Konzeptionen in der
gleichen Forschungstradition, in denen das Verarbeitungsebenen Modell nicht auf die Erklärung von Einprägungs- bzw. Kodierungsprozessen beschränkt blieb, sondern durch zusätzliche Annahmen über entsprechende Verarbeitungsebenen des Abrufprozesses (im episodischen Gedächtnis) ergänzt wurde: Während bei relativ geringerem zeitlichem Abstand zwischen der Kodierungs- und der Abrufphase die Abrufinformation lediglich zur Selektion des
zu reproduzierenden Ereignisses in einem »rückwärts gerichteten seriellen Suchprozeß«
(»backward serial search«) diene, sei es bei längerem zeitlichen Zurückliegen der Einprägungsphase nicht mehr möglich, sämtliche auf das gesuchte Ereignis hinführende Ereignisse
durchzugehen. In diesem Falle sei der Abruf von Information als ein Rekonstruktionsprozeß
aufzufassen, bei welchem die verfügbare Abrufinformation genutzt wird, um die ursprüngliche Kodierung des gesuchten Ereignisses wieder herzustellen. In diesem Falle hänge es von
der »Tiefe« des Prozeßniveaus der Kodierung der Abrufinformation - damit dem Grad und
der Art ihrer zusammenhangstiftenden Funktion - ab, wieweit das gesuchte Ereignis aus den
unmittelbar verfügbaren Erinnerungsbruchstücken rekonstruiert werden kann (vgl. Craik &
Jacoby 1975).
In einem neueren Grundsatzartikel hat Craik (1985) noch einmal die im VerarbeitungsebenenAnsatz enthaltenen prinzipiellen Vorstellungen über die Eigenart des »Gedächtnisses« herausgehoben: Dieser Konzeption nach sei das Gedächtnis nicht als strukturelles System - quasi als Ding im Kopf - zu betrachten, sondern vielmehr als Prozeß des Sich-Erinnerns, der von
der jeweiligen aktuellen Reizsituation, der Kontextinformation und dem verfügbaren Vorwissen geleitet sei. Dieser Erinnerungsprozeß sei als eine Rekapitulation der ursprünglichen Erfahrung aufzufassen, wobei es von der Art der jeweiligen Erinnerungsaufgabe abhänge, wieweit sich diese Rekapitulation in einem relativ »wörtlichen« Durchgang durch die erfahrenen
Ereignisse oder als Rekonstruktion aufgrund von Information höherer Ordnung, die aus der
Erfahrung abstrahiert worden ist, vollziehe. Das Gedächtnis enthalte demgemäß nicht selbst
irgendwelche Bilder, sondern habe vielmehr lediglich das Potential, aufgrund der spezifischen
aktuellen Information erst derartige Bilder zu produzieren, die somit als Resultat einer Interaktion zwischen Gedächtnisfunktion und der je konkreten Informationslage aufzufassen seien.
Das Sich- Erinnern sei in dieser Sichtweise kein passiver, von der Abrufinformation mechanisch ausgelöster Prozeß, sondern ein aktiver, von den Individuen bewußt intendierter Vollzug, in welchem unterschiedliche Rekapitulations- bzw. Rekonstruktionsstrategien angewendet würden, um die Erinnerungsaufgabe zu bewältigen. Entsprechend seien auf menschlichem
Niveau die phänomenalen Charakteristika des Erinnerns, wie die Erfahrung des Vergangenseins (»feelings of ‚pastness’« durch welche das Individuum etwa das Sich-Erinnern vom
10
Wahrnehmen zu unterscheiden vermag, hinsichtlich ihres funktionalen und genetischen Zusammenhangs in Rechnung zu stellen. Diese seine »prozessuale« Sichtweise auf das Gedächtnisphänomen akzentuiere bestimmte (mindestens seit Bartlett 1932) auch von anderen
Autoren vertretene Auffassungen in spezifischer Weise und habe sich für ihn während seiner
zehn jährigen Forschungstätigkeit auf diesem Gebiet als dem verbreiteten »strukturellen«
Verständnis des Gedächtnisses, wie es etwa in den Mehrspeicher Modellen zum Ausdruck
komme, überlegen erwiesen (Craik 1985, S.2000.
Auch das Verarbeitungsebenen-Modell wurde von dem Prozeß der mit wachsenden Datenmengen zunehmenden Mehrdeutigkeit und mangelnden Interpretierbarkeit der Befunde nicht
verschont (vgl. etwa Bower & Hilgard 1985, S.245) und entsprechend mehr oder weniger
radikal kritisiert, wobei diesem Ansatz z.B. der Mangel an einheitlicher Erklärungskraft vorgeworfen wurde. In diesem Zusammenhang wurde etwa auch auf die Ähnlichkeit dieses Ansatzes mit dem eigentlich zu überwindenden Mehrspeicher-Ansatz hingewiesen, vor allem
darauf, daß die »Schichtung« des Gedächtnisses in einen perzeptiven, einen phonematischen
und einen semantischen Subspeicher sich praktisch unverändert auch in der »Levels of processing«-Theorie wiederfinde. Besonders einflußreich wurde die Kritik von Baddeley am Verarbeitungsebenen-Modell unter dem Titel »The trouble with levels: A reexamination of Craik
and Lockart‘s framework for memory research« (1978). Im Zuge solcher Problematisierungen
kam es - auch durch das Aufgreifen neuerer Entwicklungen in der Informatik / Computerwissenschaft - in der Folge zu einer modifizierten Reaktualisierung der Mehrspeichermodelle,
wobei einerseits bestimmte Aspekte des Verarbeitungsebenen-Modells berücksichtigt wurden,
und man andererseits teilweise Gesichtspunkte aus dem Problembereich der »Programmsprache« einführte, also etwa kognitive Theorien nach Art programmsprachlicher »Produktionen«
(IF-THEN-Ketten) zu formulieren versuchte - vgl. dazu etwa das Modell des »MaltheserKreuzes« von Broadbent (1984) und insbesondere das in neuerer Zeit besonders populär gewordene »ACT“-Modell« von Anderson (1983), s.u.
Neue Gesichtspunkte mit Bezug auf das kognitivistische Verständnis des »Lernens« - mit
anderen, von den klassischen Speichermodellen abweichen den Vorstellungen über die Kumulation der Information - ergeben sich aus dem (schon erwähnten) im Umkreis von »Künstlicher Intelligenz« und Computersimulation psychischer Prozesse angesiedelten Forschungszweig des »Konnektionismus« bzw. (dies eine andere Benennung) der künstlichen »Neural
Networks« (vgl. etwa Rumelhart & McClelland 1986 und McClelland & Rumelhart 1986,
quasi als konnektionistische Gründungsmanifeste). Diese Arbeitsrichtung hat sich (nach zunächst im Konkurrenzkampf mit der klassischen KI auch durch mangelnde Forschungsförderung wieder unterdrückten Vorläufern schon in den sechziger Jahren) - auch unterstützt durch
die Verfügbarkeit und Erschwinglichkeit bestimmter schneller, parallel prozessierender Computer - zu einem regelrechten Trend entwickelt: Hier soll das klassische Programmiermodell
der Symbolmanipulation durch ein leistungsfähigeres Modell »verteilter« Repräsentationen
ersetzt werden, das in Analogie zu »natürlichen« neuronalen Netzwerken im Gehirn (»brain
metapher«) »Knoten« als Einheiten und einsinnige Signalwege als »connections« zwischen
den Einheiten enthält. Dabei wird angenommen, daß solche Netzwerke mit einem jeweils
bestimmten »Environment« interagieren, so daß manche Einheiten (als »input units«) Signale
aus der Umgebung empfangen und andere Einheiten (als »output units«) Signale an die Umgebung abgeben, außerdem »verborgene« Einheiten, die in keiner eindeutigen Beziehung zum
Input oder Output stehen, bestimmte Vermittlungsfunktionen haben, etc. Das Spezifikum solcher künstlicher »Neural Networks« besteht nun darin, daß der Rechner hier nicht durch vollständig vorgegebene Programmbefehle gesteuert wird, sondern (aufgrund geeigneter Algorithmen) in zeitlichen Annäherungsprozessen durch Bewegen großer Datenmengen aus dem
(u.U. scheinbar chaotischen) Input kumulativ bestimmte Regelmäßigkeiten extrahiert werden
können, die durch veränderte Gewichtungen, d.h. Aktivierungen der Verbindungen zwischen
11
den Knoten des Netzwerks, zustandekommen: Deswegen redet man hier auch von adaptiv»selbstorganisierenden« Programmen (Verwandtschaften etwa zu Maturanas Konzept der
»Autopoiesis« sind offensichtlich, sollen hier aber nicht diskutiert werden). Das Problem, ob
der Konnektionismus tatsächlich einen Fortschritt gegenüber der Symbol-KI darstellt, als neues Paradigma in der Informatik bzw. der Kognitiven Psychologie betrachtet werden darf, den
Status eines kruden Assoziationismus überschreitet etc., war und ist Gegenstand heftiger Kontroversen (vgl. etwa Fodor & Pylishyn, 1988, als Parteigänger der Symbol-KI, und Smolensky, 1989, der den Konnektionismus gegen deren Kritik verteidigt).
Die erwähnte Herausbildung von Regularitäten als Optimierung der Systemfunktion unter
jeweils bestimmten Randbedingungen (Fehlerminimierung durch wiederholte Gewichtungsmodifikationen der Informationsübertragungen im Netz anhand eines gewünschten Outputs)
wird in diesem Kontext häufig als »Lernen« des Systems bezeichnet. Je nach der Stärke des
Eingriffs der Randbedingungen in den kumulativen Optimierungsprozeß unterscheidet man
dabei etwa »supervised learning« mit Umgebungsinformation über die angemessene Lösung,
»reinforcement learning«, bei welchem die Umgebung lediglich mit einer gewissen Regelmäßigkeit auf den Output des Systems reagiert, und »unsupervised learning«, in welchem die
Regelmäßigkeiten ganz ohne Umgebungsinformation allein aus dem Signalfluß im Network
selbst entstehen (vgl. u.a. etwa Hinton 1988). Als für das Netzwerk spezifische Form des
»Lernens« wird verbreitet das »Lernen« durch »back propagation« herausgestellt: Eine Komplizierung des »reinforcement learning«, wobei die am Zustandekommen eines unrichtigen
Ergebnisses beteiligten Gewichtungen nicht um einen festen Betrag erhöht oder erniedrigt wer
den, sondern das Ausmaß der Erhöhung/Erniedrigung einer Gewichtung vom Grad ihrer Beteiligung am Ergebnis abhängig gemacht wird. Die Resultate von Prozessen lokaler Fehlerminimierung werden dabei an alle Parameter des Netzwerks zurückgemeldet. Solche konnektionistischen »Lern«-Konzepte sind auf verschiedene Problemfelder angewendet worden, so u.a.
z.B. auch zur Computer-Simulation der selektiven Aufmerksamkeit im SLAM (Selective Attention Model) von Phaf, van der Hejden & Hudson (1990): Hier sollte gezeigt werden, daß
man unter Voraussetzung lediglich zweier Mechanismen (»object selection« und »attribute
selection«) mit Hilfe entsprechen der Spezifikationen des Netzwerk-Modells die zeitliche
Herausfilterung von Aufmerksamkeitsprozessen (mit »natürlicher« Streuung von Reaktionszeiten etc.) angesichts von mehrdeutigen Environments simulieren kann. Im Ganzen gesehen
sind (so wird angenommen) aufgrund solcher »Lernfähigkeiten« die konnektionistischen Systeme weder auf die Koordination und Supervision durch eine übergeordnete Zentralinstanz
noch auf eindeutige Vorgaben angewiesen, sondern können sich jeweils »selbst« (d.h. mittels
kumulativer Approximationsprozesse) an die häufig unpräzisen, unvollständigen, stets wechselnden Eigenschaften der Umwelt (soweit sie in den System-Environments berücksichtigt
sind) anpassen.
Die Beziehung des so verstandenen konnektionistischen Ansatzes zum Gedächtniskonzept
versteht sich generell aus dem Umstand, daß die Optimierungsvorgänge in den ComputerNetzwerken - indem hier zeitliche Veränderungen berücksichtigt werden, mit welchen die
jeweils schon extrahierten Regelmäßigkeiten weiter vereindeutigt oder stabilisiert werden kumulativer Art sind. Daraus ergeben sich Implikationen des Konnektionismus hinsichtlich
der Konzeptualisierung und Implementierung von Gedächtnis-Funktionen. Pionierarbeit in
diesem Bereich leistete Kohonen, so in seiner Arbeit mit dem Titel »Self-organization and
associative memory« (1984). Die dabei entwickelten Modellvorstellungen weichen jedoch
aufgrund der Konstruktionsprinzipien der neural networks prinzipiell von den Speichermodellen der Symbol-KI ab. Die »Architektur« eines bestimmten Netzwerk-Modells, die Anzahl,
Art und Wechselwirkung der dabei eingeführten Module etc. ergeben sich aus der jeweils
gestellten Aufgabe (Mustererkennung, Spracherwerb, Aufmerksamkeit etc.), womit auch die
Art der genannten Kumulationsprozesse entsprechend unterschiedlich ausfallen muß.
12
Im Ganzen gesehen ist, wie schon aus der Affinität seiner »Lern«-Konzeptionen zu verschiedenen Spielarten der »Verstärkung« hervorgeht, der Konnektionismus - obwohl im kognitivistischen Kontext von Künstlicher Intelligenz und Computer-Simulation entstanden - inhaltlich u.U. angemessener als eine bestimmte Art von Computerisierung SR-theoretischer
Grundansätze zu betrachten und deswegen nur bedingt der Kognitionswissenschaft zuzurechnen - was aber noch genauer zu untersuchen wäre (vgl. da zu Lenz & Meretz 1992).
Nach der damit abgeschlossenen Darstellung der kognitivistischen Gedächtnis-Konzeptionen
und ihrer Varianten bzw. Alternativen müßte jetzt - gemäß unseren bisherigen Gepflogenheiten - der Aufweis ihres impliziten BGM-Charakters und der daran anschließende Versuch
ihrer begründungstheoretischen Reinterpretation folgen. Nun ergibt sich aber im gegenwärtigen Problemzusammenhang eine spezifische Schwierigkeit: Einerseits versteht sich schon aus
der Formulierung der kognitivistischen Gedächtnistheorien in Termini der ComputerHardware und besonders -Software, daß es sich dabei (soweit überhaupt die i. e. S. psychologische Ebene angesprochen ist) um Begründungsmuster handeln muß, und zwar deswegen,
weil die Computer / Computerprogramme ja als Hilfsmittel zur optimalen Bewältigung bestimmter Aufgaben konstruiert wurden, so daß auch in den als Computer-Analogien formulierten Gedächtnistheorien in irgendeiner Weise »gut begründete«, »vernünftige« Kognitionsaktivitäten angesprochen sein müssen. Andererseits aber ist es (mindestens teilweise) nicht
auf Anhieb möglich, derartige Begründungsmuster zu identifizieren, weil das Subjekt (der
»Akteur«), von dessen Standpunkt aus die Begründetheit der kognitiven Aktivitäten allein
faßbar werden könnte, in den kognitivistischen Gedächtnistheorien kaum auszumachen ist.
Diese Problematik muß von uns erst bewältigt werden, ehe wir zu unseren Reinterpretationsversuchen übergehen können. Dem dient der folgende eingeschobene Abschnitt.
Die Aufhebung der mystifizierenden Hineinverlegung des Subjekts ins »System« als
Voraussetzung begründungstheoretischer Reinterpretierbarkeit der kognitivistischen
Gedächtnismodelle
Um einen Ansatz zur Klärung der benannten Schwierigkeit zu finden, muß man sich verdeutlichen, daß die direkt auf Computerstrukturen und/oder -operationen bezogenen Aussagen,
wenn sie in metaphorischer Weise als kognitionstheoretische Termini benutzt werden - indem
hier der Computer quasi vom Hilfsmittel zum Modell menschlicher Kognition umgedeutet
wird (vgl. Holzkamp 1989) - eine spezifische Transformation durchmachen: Bei der Anwendung von realen Computern / Computerprogrammen steht der »User« als Subjekt der Anwendung eindeutig außerhalb des informationsverarbeitenden Systems. Wenn nun aber der Computer als Modell menschlicher Kognitionsprozesse verwendet wird, so ergibt sich daraus die
nahe liegende, d.h. - wenn dem nicht reflexiv gegengesteuert wird - spontan sich durchsetzende Tendenz, auch den Anwender des Computers in Termini des »Systems« zu modellieren.
Damit geht aber sein Platz außerhalb des Systems verloren und das System wird so quasi zum
»Subjekt« seiner eigenen Anwendung. Anders: Sofern hier das individuelle Subjekt so betrachtet wird, als ob es ein Computer sei, kann es nicht gleichzeitig als Benutzer, Programmierer, Hersteller des Computers abgebildet werden. Damit wäre quasi keiner mehr da, der außerhalb des Computers diesen benutzen, programmieren etc. könnte: Vielmehr ist das Subjekt
der Computeranwendung und -programmierung hier in das informationsverarbeitende System-Individuum selbst hineinverlegt und das wirkliche individuelle Subjekt damit mystifiziert.
Die Tendenz zu einer solchen Mystifizierung des Handlungssubjekts muß dann noch begünstigt werden, wenn man bereits die Operationen des realen Computers derart versprachlicht,
daß dieser in quasi animistischer Weise als selbständiges »Subjekt« seiner Operationen erscheint, also schon auf dieser Ebene dessen »Mittel«-Charakter verlorengeht, womit das der-
13
gestalt konstituierte Computer-Subjekt mit der metaphorischen Fassung des Computers als
Modell menschlicher Kognition unmittelbar in das Individuum »hineinwandert«. So charakterisiert etwa Bower die gängige Verwendung der Computer-Sprache, in welcher seiner Auffassung nach »äußerst attraktive Metaphern und Analogien für psychologische Deutungsversuche« angeboten wer den, um deren »Nutzen« zu verdeutlichen, auf folgende Weise: »Man
sagt von programmierten Maschinen, daß sie Stimuli entdecken, identifizieren, vergleichen
und klassifizieren; daß sie Informationen speichern und wieder abrufen; daß sie lernen und
Fragen beantworten; daß sie denken, Probleme lösen und über die Verwendung von Strategien entscheiden usw. Weil wir die ‚Mechanik‘ dessen sehen können, wie diese Prozesse im
Computerprogramm ausgeführt werden, glauben wir, daß wir jetzt verstehen, wie richtige
Organismen diese Dinge tun, die wir mit den angegebenen Namen bezeichnen« (Bower &
Hilgard 1984, S.215). Die auf diesem Wege vorerst noch implizit vollzogene Hineinverlagerung des Computer-Subjekts in das Individuum, damit Eliminierung des wirklichen Handlungssubjekts aus der Wissenschaftssprache, wird mit aller Klarheit offenbar, wenn Bower
aus seinen Überlegungen die Konsequenz zieht: »So ist das kognitive System in der Lage,
sich selbst für erfolgreiche Anpassungen und Handlungen in seiner Umwelt zu programmieren« (a.a.O., S.227, Hervorh. K.F1.). In dieser Modellvorstellung vom sich selbst programmierenden Computer, worin der Computer vom Hilfsmittel des Menschen zur mythischen
»causa sui« stilisiert wird (also die Computer-Metapher sich quasi selbst aufhebt), verdichten
sich in besonders zugespitzter Weise gängige kognitivistische Denk- und Redeweisen, in welchen »informationsverarbeitende Systeme« oder Untersysteme animistisch als Subjekte ihrer
eigenen Operationen angesehen werden und so der metaphorische Computer mit allerlei Homunculi bevölkert ist, die »von innen« dessen Anwendungsarten, die Wechselwirkung seiner
Teilsysteme u.ä., planen und realisieren. Diese Homunculus-Annahme ist in den Anfängen
des Kognitivismus gelegentlich offengelegt, problematisiert, aber auch (so von Attneave,
1961, in einem Artikel »In defence of homunculi«) verteidigt worden. In der Sprache der heutigen Kognitiven Psychologie dagegen ist die »Homunculisierung« von Systemkomponenten
vielerorts mehr oder weniger unhinterfragt gang und gäbe, wobei oft - besonders wenn nicht
theoretische Modelle diskutiert, sondern die Aktivitäten von Versuchspersonen im Experiment interpretiert werden - damit vermischt auch Formulierungen antreffbar sind, in denen
von wirklichen Individuen als Ursprung der Systemoperationen die Rede ist - dies als Ausdruck der prinzipiellen Unklarheit darüber, wo und was in der kognitivistischen Theorie eigentlich das »Subjekt« sei.
Begriffsverwirrungen wie die damit aufgewiesenen sind von Herrmann (1982) als »SystemAkteur-Kontaminationen« innerhalb des Kognitivismus umschrieben und an Beispielen
sprachanalytisch expliziert worden. Von da aus stellt er an die Wissenschaftssprache der
Kognitiven Psychologie die Forderung, sie müsse »stilrein sein; Kontaminationen ... aus mehreren disparaten Modellvorstellungen oder auch Sprachspielen müssen vermieden werden«.
Demnach habe man sich zu »entscheiden, ob man den Kognizierenden beispielsweise als informationsverarbeitendes System konzipiert, zu dem Untersysteme von der Art der Speicher,
Prozessoren und dgl. gehören und dessen output registriert wird, oder ob man ihn etwa als ein
absichtsvoll handelndes Subjekt konzipiert, welches Situationen interpretiert, welches sich
Ziele setzt und welches die Folgen seiner Handlungen bewertet« (S.7). Im Kontext unseres
gegenwärtigen Argumentationszusammenhangs, wo es um die Aufhebung der Mystifizierung
des Subjekts kognitiver Aktivitäten innerhalb der impliziten Begründungsmuster kognitivistischer Gedächtnistheorien geht, können wir diese Forderung nach »Stilreinheit« noch spezifizieren: Zur Vorbereitung ihrer begründungstheoretischen Reinterpretation sind die Konzepte
der kognitivistischen Gedächtnisforschung (wo nötig bzw. möglich) so zu analysieren und zu
reformulieren, daß dabei mystifizierende Hineinverlegungen von »Subjekten« in das Individuum als »informationsverarbeitendes System« aufgehoben und demgegenüber der reale Subjektstandpunkt von Individuen außerhalb des »Systems« rekonstruiert ist.
14
Wenn man unter diesen Gesichtspunkten die dargestellte Entwicklung der kognitivistischen
Gedächtnisforschung von den »Mehrspeicher-Modellen« zur Theorie der »Verarbeitungsebenen« überblickt, so zeigt sich, daß man die damit vollzogene kategoriale Umorientierung in
gewissem Sinne selbst schon als Aufhebung der mystifizierenden Hineinverlagerung des Subjekts in das System durch Rekonstruktion des realen Subjektstandpunktes betrachten kann:
Aus der Craik & Lockartschen Programmatik, die menschlichen Behaltensleistungen seien
nicht als Eigenschaft des jeweiligen »Speichers«, sondern als Ergebnis der unterschiedlich
»tiefen« perzeptiv-begrifflichen Verarbeitung des zu behaltenden Materials aufzufassen, verdeutlicht sich »ex negativo«, daß in den damit kritisierten Mehrspeicher-Modellen, indem
man hier unterschiedliche Kodierungsprozesse usw. als abhängige Größe der jeweiligen Speicherart definiert, tatsächlich irgendwie die Speicher selbst als Subjekte des Transfers der Information von einem Speicher zum anderen und der damit vollzogenen Kodierungsleistungen
o.ä. unterstellt sind. Dabei werden solche Systemsubjekte oft direkt benannt - »der Kurzzeitspeicher ruft Information aus dem Langzeitspeicher ab« - häufig wird deren Explikation aber
auch durch Passiv-Formulierungen, wie »die einkommende sensorische Information wird im
Kurzzeitspeicher unter phonematischen Gesichtspunkten kodiert« umgangen etc. Im Verarbeitungsebenen-Modell dagegen ist es zweifelsfrei das reale Subjekt außerhalb des »Systems«, das hier aufgrund unterschiedlicher Tiefe der Materialverarbeitung die Information in
verschiedener Weise, etwa phonematisch oder semantisch, kodiert, von dessen Aktivitäten es
also abhängt, was wie lange behalten wird (daraus resultiert die konzeptuelle Überlegenheit
des Verarbeitungsebenen-Modells gegenüber dem Mehrspeicher-Modell, unabhängig von den
erwähnten Schwierigkeiten bei deren empirischer Realisierung).
Die Überwindung des »introjektiven« Systemsubjekts und Rekonstruktion des wirklichen
Subjekts außerhalb des Systems im Verarbeitungsebenen-Ansatz bedeutet eine Aufhebung
oder mindestens Zurückdrängung der Computer-Analogie. Entsprechend ist in dem geschilderten, aus der Kritik an Craik & Lockart erwachsenen Roll-Back der Speicher-Modelle (vgl.
S.131) mit der Bekräftigung der computer- bzw. programmsprachlichen Fassung der Gedächtnistheorien die Entmystifizierung des Subjekts als kategorialer Fortschritt unversehens
wieder rückgängig gemacht. Mithin findet man in diesem Kontext im erwähnten ACT*Modell von Anderson wiederum als gängige Redeweise die Einsetzung von homunculi als
»Subjekte« in das System, so in Formulierungen wie: Übung führe »to increased production
strength, when the system has no reason to judge the performance as failure« (1983, S252,
Hervorh. K.H.): Nicht menschliche Subjekte, sondern »Systeme« haben demnach Gründe für
bestimmte Handlungen bzw. Urteile!
Auch in der skizzierten neuen Arbeitsrichtung des Konnektionismus ist die Deutung der Systeme bzw. Netzwerke als Subjekte ihrer eigenen Optimierungsaktivitäten gang und gäbe.
Formulierungen wie die von Williams (1988) in seiner Arbeit »Connectionist learning
through gradient following«:
»the objective is for the network to discover statistical regularities or clusters in the stream of
input patterns« (S.6, Hervorh. K.H.), stehen mithin für beliebig viele andere. Allgemeiner
gesehen ist bereits die hier übliche Verwendung des Begriffes »Lernen« zu problematisieren:
Indem dabei die jeweils aufgewiesenen Prozesse der Optimierung, Fehlerminimierung, Approximation o.ä. als »Lernprozesse« des Systems oder des Netzwerks bezeichnet werden (so
heißt es etwa bei Dalenoort, 1990, programmatisch »intelligent systems can learn; if a system
cannot learn it is not intelligent«, S.9), sind wiederum diese unter der Hand als Subjekte des
»Lernens« eingesetzt. So ist hier durch eine Art von animistischem Etikettenschwindel der
Umstand verschleiert, daß dabei von menschlichem Lernen, das ein wirkliches Subjekt voraussetzt, das hier lernt, überhaupt nicht die Rede ist.
Zusätzliche Verwirrung bringt ein solcher Sprachgebrauch in diesem Kontext dadurch mit
sich, daß im Konzept der »neural networks« ja gerade Optimierungs-, Regulierungs- und Sta-
15
bilisierungsprozesse abbildbar werden sollen, die ohne bewußte Intentionen von Subjekten
allein aufgrund der Struktur bzw. Architektur der jeweiligen Netzwerk-Modelle (einschließlich ihrer Wechselwirkung mit dem in bestimmter Weise definierten Environment) ablaufen:
Selbstoptimierung, Selbstregulierung, Selbstorganisation bedeutet hier Optimierung, Regulierung, Organisation nicht durch ein außerhalb des Systems stehendes »Selbst«, sondern eben
allein durch das System »selbst«. Damit ist also eine unspezifische Ebene der Ordnung und
Vereindeutigung der Umgebungsbeziehung unterhalb des i.e.S. psychologischen Niveaus
menschlicher Subjektivität angesprochen, die gleichzeitig wieder mystifiziert wird, in dem
durch die benannte Redeweise der Systemfunktion der Netzwerke etc. selbst schon Subjektcharakter zugesprochen ist. So bleibt der Umstand mehr oder weniger dunkel, daß mit dem
konnektionistischen Netzwerk-Modell über subjekthaft-aktives menschliches Handeln noch
gar nichts ausgesagt worden ist; dementsprechend kann auch das Verhältnis zwischen den in
Netzwerk- Modellen abbildbaren unspezifischen Optimierungsprozessen und der Ebene subjektiv intendierter Lernhandlungen erst gar nicht zum Problem werden.1 (ausgelassene Fußnote)
Anstatt »Gedächtnis«: Behalten/Erinnern im Begründungsdiskurs
Wenn wir uns nach diesen Zwischenüberlegungen nun dem bisher aufgeschobenen Versuch
einer begründungstheoretischen Reinterpretation der kognitivistischen Gedächtnisforschung
etc. zuwenden, so wird sogleich deutlich, daß es sich bei der in den Mehrspeichermodellen
praktizierten analogisierenden Hineinverlegung von Computer-Speichern »in« das Individuum um eine Spielart jener verdinglichenden Begriffsbildungen handelt, wie wir sie früher
an den Motivations-Vorstellungen der (kognitiv erweiterten) SR-Theorie aufgewiesen haben:
Auch hier sind die verdinglichenden Bezeichnungsweisen der Alltagssprache, in welchen
mein »Gedächtnis« quasi als Ursache meiner Behaltensleistungen unterstellt wird (ich »habe«
eben ein »schlechtes Gedächtnis« o.ä.) ohne reflexive Hinterfragung wissenschaftlich stilisiert: Die Art und der Umfang des Behaltens werden zirkulär aus den Systemeigenschaften
des jeweiligen Speichers »erklärt«. Damit wird auch an dieser Stelle das Weiterfragen nach
den Begründungszusammenhängen meiner »Gedachtnisleistungen«, d.h. den Bedingungen /
Prämissen und Intentionen, von denen deren Besonderheit und Effektivität abhängen, abgeschnitten. Dies verdeutlicht sich noch, wenn wir die Art und Weise berücksichtigen, wie man
zu der begrifflichen Ausdifferenzierung immer weiterer »Speicher« kam: Dabei wurde offensichtlich bestimmten ausmachbaren funktionalen oder inhaltlichen Verschiedenheiten von
Gedächtnisleistungen einfach eine besondere Speicherart (Ultrakurzzeitspeicher, Kurzzeitspeicher, episodischer und semantischer Langzeitspeicher, Arbeitsspeicher, prozeduraler und
deklarativer Speicher etc.) unterschoben und daraus dann die Besonderheit der jeweiligen
Behaltens-/Erinnernsaktivitäten »erklärt«. Entsprechend beliebig könnten (gemäß der unbegrenzten Heraushebbarkeit speziellerer funktionaler oder inhaltlicher Eigenheiten der Behaltens-/Erinnernsprozesse) immer weitere Speicherarten hinzuerfunden werden (eine Facette
der von Herrmann, 1982, so genannten kognitivistischen »Begriffsinflation«). Gleichermaßen
beliebig ist auch die Weise, in der solche Speicheraufteilungen wieder rückgängig gemacht
wurden - bis (etwa bei Norman, 1978) nur noch ein Einspeicher-Modell bzw. (wenn man die
Beibehaltung der Annahme eines sensorischen Registers berücksichtigt) Zweispeicher-Modell
übrigblieb.
Nach Aufhebung bzw. Reflexion der genannten Mystifizierungen des Handlungssubjekts und
der damit zusammenhängenden reifizierenden Begriffsbildungen läßt sich nun auch der
BGM-Charakter der funktionalen Konzepte in den Mehrspeichermodellen explizieren: Es
1
Den >psychologischen< Verfremdungen und Mystifikationen innerhalb der konnektionistischen Wissenschaftssprache, ihren Gründen und
Konsequenzen, ist die Diplomarbeit von Lenz & Meretz (1992) gewidmet. Dort wird auch demonstriert, dass und in welcher Weise das
Netzwerk-Modell ohne mystifizierende Einführung von System-Subjekten verschiedener Art verssprachlicht werden kann. Ich bin in meinen
vorstehenden einschlägigen Ausführungen dieser Arbeit wesentlich verpflichtet.
16
wird klar, daß die dort angesprochenen »Strategien», »Suchprozesse« etc. auf Aktivitäten des
Subjekts bezogen sind, deren sich dieses »vernünftigerweise« zur Optimierung seiner Behaltens- und Abrufleistungen bedient. Die theoretische Spezifizierung der Voraussetzungen für
die Anwendung dieser oder jener der benannten »Strategien« etc. ist also nicht auf vorfindliche Empirie bezogen, sondern eben (qua BGM) die Definition »gut begründeter« Kognitionsaktivitäten unter den jeweils spezifizierten Bedingungen als Prämissen. Entsprechendes läßt
sich auch an Konzepten nachweisen, in denen die Optimierungsfunktion der benannten Aktivitäten nicht schon aus der Wortbedeutung selbst hervorgeht, wie etwa an dem kognitivistischen Grundkonzept der »Kodierung«: Die »reduktive Kodierung«, Bildung von »Clustern«,
»Chunks« etc., soll ja (wie dargestellt) der Überwindung der begrenzten Kapazität zur Aufnahme verschiedener Informationseinheiten durch Bildung von übergeordneten Kennwerten
für mehrere Elemente o.ä. dienen, ist also auch eine »Strategie«, hier zur Optimierung des
Behaltens trotz begrenzter Aufnahmekapazität. M.a.W: Die »reduktive Kodierung« ist ein
unter der Prämisse meiner begrenzten Kapazität zur Aufnahme mehrerer Elemente »gut begründeter« Versuch der Realisierung meiner Behaltensintention, d.h. es ist »vernünftig«, unter
dieser Prämisse und Intention mehrere Items zu höheren Einheiten zusammenzufassen, um
diese Einheitenbildung bei Bedarf per »Dekodierung« durch Dekomposition wieder rückgängig machen zu können: So kann ich nämlich sehr viel mehr Elemente behalten und erinnern,
als ich gleichzeitig aufzufassen und festzuhalten vermag. Entsprechend läßt sich auch das
Konzept der »elaborativen Kodierung« (u.U. in Form erhöhter »Verarbeitungstiefe«) als
BGM verdeutlichen: Es ist unter der Prämissen des Gegebenseins unverbundener Elemente
»vernünftig«, diese Elemente in übergreifende, schon etablierte Wissenszusammenhänge einzuordnen, weil so das jeweilige Element durch seine Ortung innerhalb derartiger Zusammenhänge leichter reproduzierbar ist, o.ä. Auch der Umstand, daß es sich bei den »Produktionen«,
wie sie von Newell & Simon in die kognitivistische Theorie eingeführt und (wie erwähnt)
etwa von Anderson als Basiskonzepte seines ACT* -Modells benutzt worden sind, tatsächlich
um Begründungsmuster handelt, ist - hat man dies einmal expliziert - offensichtlich: Die Produktionen sind ja in psychologische Theoreme konvertierte Befehlsfolgen als Computerprogramme, wobei der BGM-Charakter solcher Theoreme sich unmittelbar aus dem Charakter
der in den Programmen enthaltenen »IF-THEN«-Ketten als Mittel zu optimaler Problemlösung anhand von Erfolgsrückmeldungen ergibt, die in ihrer »psychologischen« Wendung quasi als Selbstinstruktionen fungieren (s.u.): Die jeweiligen »IFs« sind so gesehen quasi die
Prämissen, unter denen die »THENs« als kognitive Operationen »gut begründet«, d.h. »vernünftig« sind. Anderson bringt dies - allerdings wiederum ohne daraus die erforderlichen theoretisch-methodologischen Konsequenzen zu ziehen - selbst zum Ausdruck, etwa wenn er in
dem angeführten Zitat feststellt, »the system (d.h. das darin mystifizierte Subjekt/K.I-I:) has
no reason to judge the performance as failure« (1983, S.252, Hervorh. K.H.). Weitere derartige Beispiele sind - da beliebig beizubringen - wohl nicht erforderlich.
Man mag nun gegen solche BGM-Explikationen einwenden, dabei sei ja vorausgesetzt, daß
die Individuen die jeweiligen Operationen intendiert, also bewußt vollziehen, es könne sich
hier aber doch auch um »automatische«, »unbewußte« o.ä. Mechanismen handeln, deren subjektive Begründetheit man also nicht annehmen dürfe. Tatsächlich werden solche automatischen Prozesse in manchen Ausprägungen der kognitivistischen Gedächtnisforschung mehr
oder weniger eindeutig unterstellt, was sich sicherlich schon aus dem »mechanischen« Charakter der hier analogisierend »introjizierten« Computer-Operationen ergibt. Somit fänden wir
an dieser Stelle ein Problem wieder, das wir bereits als Frage der »awareness« von Konditionierungsprozessen innerhalb SR-psychologischer Experimente diskutiert haben (vgl. S.44ff),
wobei mindestens die dort begründeten Zweifel an einer methodisch tragfähigen Nachweisbarkeit der Nichtbeteiligung des Bewußtseins auch auf die hier zu erörternde Problemlage zu
übertragen sind. Darüber hinaus ist man bei der Verteidigung des automatischen oder mechanischen Charakters von Gedächtnisoperationen im Rahmen des kognitivistischen Ansatzes in
17
einer noch ungleich schwierigeren Situation, da die Kognitive Psychologie ja gerade zur Rehabilitation des menschlichen Bewußtseins gegenüber seiner Eliminierung durch die SRPsychologie angetreten ist. Entsprechend »mentalistisch« sind denn auch wesentliche Konzepte der kognitivistischen Gedächtnisforschung: »Aufmerksamkeit«, »Strategien«, ja sogar
»Ziele« und »Intentionen« (gerade deswegen war man gezwungen, einschlägige Homunkuli,
die aufmerksam sein, Strategien verfolgen, Ziele oder Intentionen haben können, in das informationsverarbeitende System einzusetzen). Wenn man unter diesen Umständen die Automatismus-These beibehalten will, so bleibt einem mithin nichts anderes übrig, als derartige
Konzepte nachträglich mit dem Attribut »automatisch« zu versehen, also automatische Aufmerksamkeitsprozesse, Strategien, Ziele, Intentionen zu unterstellen, womit die beabsichtigte
Rehabilitierung des Bewußtseins in der Psychologie unversehens wieder zurückgenommen
wäre.
Aufgrund der bisherigen Diskussion bietet es sich an, im begründungstheoretischen Kontext
nicht von »Gedächtnis« zu sprechen, sondern von »Behalten« und »Erinnern« als menschlichen Handlungen: Mit dieser »funktionalen« Terminologie (wie sie ja bereits etwa von Craik
vorgeschlagen wurde, vgl. S. 130f) sind zum einen alle Anklänge an die diskutierten reifizieren den Begriffsbildungen vermieden, und zum anderen ist damit der aufgewiesene BGMCharakter der einschlägigen Theorien, etwa in der Spezifizierung des Behaltens bzw. Erinnerns als in der Behaltens- bzw. Erinnernsintention begründete Strategien o.ä., leicht auf den
Punkt zu bringen. Damit erhebt sich nun aber sogleich die Frage, wie das Verhältnis zwischen
Behalten und Erinnern im Begründungsdiskurs genauer zu bestimmen ist.
Innerhalb der traditionellen Gedächtnisforschung (sei es klassischer oder kognitivistischer
Art) wird meist schon durch die Art der Standardanordnungen das Verhältnis zwischen Behalten und Erinnern als kontingente Beziehung zwischen unabhängiger und abhängiger Variable
aufgefaßt: In den jeweiligen Anordnungen wird hier (innerhalb welcher Designs auch immer)
ein erstes Stadium des Lernens, Einprägens, Behaltens, der Übung des Materials einem zweiten Stadium der Reproduktion, des Abrufs, des »retrieval«, des »recall«, gegenübergestellt.
Im ersten Stadium des Lernens sollen dabei die unabhängigen Variablen eingeführt sein, von
denen aus die Reproduktion des gelernten Materials im zweiten Stadium vorhersagbar werden
soll. »Behalten« und »Erinnern« werden hier also als Wenn-Dann-Komponenten einer empirischen Hypothese aufgefaßt, deren Glieder sich in keinem logischen bzw. implikativen, sondern eben in einem kontingenten, bloß faktischen Zusammenhang befinden. Diese »Variabilisierung« des Verhältnisses zwischen Behalten und Erinnern schlägt sich auf theoretischer
Ebene darin nieder, daß hier in verschiedenen Versionen das Behalten als ein Prozeß aufgefaßt wird, dessen Effektivität zwar mittels Erinnernsprüfung festgestellt werden kann, der aber
als solcher mit dem Erinnern nichts zu tun hat. Entsprechend erscheint dabei auch das Erinnern als ein selbständiger Prozeß, der zwar durch die Art des Behaltensprozesses beeinflußt
wird, aber in sich keinerlei Bestimmungsmomente des vorgängigen Behaltens impliziert. Eine
besonders schlagende und verbreitete Konkretisierung erfährt diese wechselseitige konzeptionelle Isolierung von »Behalten« und »Erinnern« innerhalb der klassischen Gedächtnisexperimente, aber auch vielerorts innerhalb der kognitivistischen Gedächtnisforschung gebräuchlichen Gleichsetzung des Lernens bzw. Einprägens eines bestimmten Materials mit dessen Übung, d.h. Wiederholung, wobei die Anzahl der Wiederholungen mehr oder weniger eindeutig
als Maß für den Grad des »Lernens« (also Behaltens in unserem Sinne) genommen wird. Besonders schwerwiegend ist dabei, daß diese theoretische Gleichsetzung von Lernen/Behalten
und Wiederholung bereits in die Standardmethoden zur Messung der Behaltensleistung, wie
sie von Ebbinghaus bzw. Müller & Schumann eingeführt und seither in mannigfachen Abwandlungen immer wieder benutzt wurden, eingegangen ist: So wird der Vp bei der Methode
des »Erlernens« eine Liste mit sinnlosen Silben (oder anderem Gedächtnismaterial) solange
wiederholt dargeboten, bis sie sie fehlerfrei reproduzieren kann, wobei die Anzahl der dazu
18
nötigen Wiederholungen als Maß für die Gedächtnisleistung dient; die »Ersparnismethode«
und die »Methode des Behaltens« basieren bei etwas anderer Struktur ebenfalls auf diesem
Wiederholungskonzept. Dies ist unabhängig davon, ob das Gelernte sodann durch »gepaarte
Assoziationen«, »serielle« Reproduktion von Listen oder »freie Reproduktion« abgefragt
wird. Der allgemeinere theoretische Rahmen für eine derartige Gleichsetzung von Einprägen
und Wiederholen ist die geschilderte assoziationistische Grundüberzeugung als Charakteristikum praktisch der gesamten traditionellen Gedächtnisforschung bzw. die ebenso verbreitete
Vorstellung des »Einprägens« als »Spurenbildung« im Gedächtnis bzw. im Gehirn: Die »Festigkeit« der assoziativen Verknüpfungen bzw. die Ausprägung der Spurenbildung erscheint
danach als selbstverständliches Resultat der Anzahl der Wiederholungen im Einprägungsprozeß. Damit ist notwendig zugleich eine Isolierung des Einprägevorgangs von der Erinnerungsanforderung impliziert: Die jeweiligen Assoziationen bzw. Spuren bilden sich unabhängig vom Erinnernsprozeß und werden über diesen lediglich in ihrem jeweiligen Ausprägungsgrad diagnostizierbar.
Wenn man das Behalten nun im Begründungsdiskurs als intendierte menschliche Handlung
reinterpretiert, so wird (wie schon aus unseren früheren Darlegungen hervorgeht) deutlich,
daß es sich bei dem Verhältnis zwischen »Behalten« und »Erinnern« um keine kontingentempirische, sondern um eine inferentiell-implikative Beziehung handelt: Meine Behaltensaktivitäten sind darin begründet, daß ich später (in welcher situationalen Konkretisierung auch
immer) das Behaltene erinnern will. Behaltensintentionen ohne antizipierte Erinnernsanforderung sind vom Subjektstandpunkt offensichtlich sinnlos; bzw., noch weiter zugespitzt, die
Behaltensintention ist in gewisser Weise mit der Intention, mich später an das Behaltene erinnern zu wollen, identisch. So haben wir es in den einschlägigen Experimenten wiederum mit
einer Variante der schon früher aufgewiesenen Inkongruenz zwischen der bedingungsanalytischen Begriffsbildung des Experimentators und dem begründeten Handeln der Versuchsperson unter den gesetzten Bedingungen als Handlungsprämissen zu tun: In der Theorie ist von
durch Übung d.h. Wiederholung geförderten Einprägungsprozessen die Rede, wobei implizit
davon ausgegangen wird, daß die Vpn mit der Übernahme der Lernaufgabe ebenfalls nur
Gründe dafür sehen, das Material zu Einprägungszwecken möglichst oft mechanisch zu wiederholen; dies kommt u.a. in der geschilderten Auffassung zum Ausdruck, daß die Einprägeleistung der Vpn umso besser ist, je mehr Zeit ihnen für das »innere« Wiederholen des Materials zur Verfügung steht (diese Annahme wird gelegentlich »Gesamtzeithypothese« genannt,
vgl. etwa Baddeley, 1979, S.34ff). Vom Subjektstandpunkt der Vp hingegen antizipiert diese
eine bestimmte Erinnerungsanforderung und begründet darin ihre jeweilige Behaltensstrategie
mit den vorgegebenen Versuchsbedingungen als Handlungsprämissen - dies wiederum unabhängig da von, wieweit ihr die Tatsache und/oder die Art der späteren »Prüfsituation« vom
Experimentator mitgeteilt wurde oder nicht: Sie muß sich in Abwesenheit anderer Informationen hier notwendig selbst bestimmte Hypothesen über die Art der Erinnernsanforderung bilden, da sie andernfalls keinerlei Gründe für das vom Experimentator verlangte intendierte
Lernen des Materials hätte, also gar nicht in der Lage wäre, dessen Instruktion nachzukommen.
Die in Gedächtnisuntersuchungen aufgrund nomologischer Theorienbildung mit assoziationistisch-mechanistischen Vorannahmen bestehende Diskrepanz zwischen dem, was die Vpn
hier tatsächlich tun, und den Annahmen des Experimentators darüber ist von Miller, Galanter
& Pribram (1960) in ihrem Buch »Plans and the structure of behavior« (auf das wir später
noch in prinzipielleren Zusammenhängen eingehen) überzeugend veranschaulicht und konkretisiert worden. Die Autoren legen - obwohl sie diese selbst in den Trend der damals im
Aufschwung begriffenen Kognitiven Psychologie einordnen - ihrer Arbeit tatsächlich einen
um die Begriffe der »Intentionalität« und des »Planes« zentrierten Ansatz zugrunde, der (obwohl nicht konsequent zuende gebracht und später kaum in seiner Eigenart erkannt und wei-
19
tergeführt, s.u.) sie zu Einsichten über kognitive Prozesse vom Standpunkt des Subjekts befähigt hat, die den Rahmen des üblichen kognitivistischen Denkens weit überschreiten. In ihrem
mit den traditionellen Gedächtnisexperimenten befaßten Kapitel »Plans for remembering«
(S.125ff) stellen sie dementsprechend die Forderung nach Berücksichtigung der Intentionalität, damit Subjektivität der Vpn im Experiment gegen deren übliche, in theoretischen Vorurteilen gegründete Vernachlässigung heraus.
Wie aber gewinnt man Zugang zur Intentionalität/Subjektivität der Versuchspersonen im
klassischen Gedächtnisexperiment? Miller, Galanter & Pribram finden darauf die gleiche
Antwort, wir wir sie im Kontext unseres »intersubjektiven« Methodenansatzes gegeben haben: »Ordinarily the simplest way to find out what a person is doing is to ask him« (S.126).
Gerade dieses Fragen werde aber von den Psychologen aus Gründen methodischer »Objektivität« eliminiert. Wenn man jedoch eine Vp danach frage, was sie in den traditionellen, mit
sinnlosen Silben durchgeführten Untersuchungen getan habe, so stelle sich heraus, daß diese,
um die ihnen aufgetragene Aufgabe des »memorizing« erfüllen zu können, notwendig die
Absichten des Experimentators durchkreuzen müsse, indem sie versucht, die sorgfältig ausgesuchten »sinnlosen Silben« dennoch in einen sinnvollen Zusammenhang zu bringen: »Well, it
wasn‘t easy, but he did it« (S.126). Miller, Galanter & Pribram bringen dafür mannigfache
Beispiele aus ihrer experimentellen Arbeit und verallgemeinern diese mit der Feststellung,
daß die Vpn dabei »two different kinds of plans« ausführen müßten: »On the one hand, the
subject is attempting to construct a Plan that will, when executed, generate the nonsense syllables in the correct order. But at the same time he must adopt a Plan to guide his memorizing,
he must choose a strategy for constructing the Plan for recall« (S.128). Dafür stünden der Vpn
verschiedene Wege offen: Sie könnten z.B. die sinnlosen Silben in Worte übersetzen, diese in
Sätze einordnen und aus diesen eine Geschichte erfinden, um bei der geforderten Wiedergabe
(als seriellem Lernen) den gleichen Weg rückwärts zu gehen und so die korrekte Reihenfolge
der Silben rekonstruieren zu können. Ein anderer möglicher Plan bestehe in der rhythmischen
Gruppierung der Silben, ein wieder anderer darin, die Silben in einem imaginären Raum anzuordnen und beim Erinnern jeweils dahin zu »blicken« und die Reihenfolge der Silben dort
»abzulesen«, wo sie »stehen« (S.128f).
Dies wird von Miller, Galanter & Pribram in folgender Weise verallgemeinert auf den Begriff
gebracht: »Unless a person has some kind of Plan for learning, nothing happens. Subjects
have read nonsense syllables hundreds of times and learned almost nothing about them if they
were not aware that they would later be tested for recall. In order to get the list memorized, a
subject must have that mysterious something called an ‚intent to learn‘. An intention to learn
means that the subject executes a Plan to form a Plan to guide recall«. Solche Pläne mögen, so
Miller, Galanter & Pribram, u.U. lediglich fragmentarischer Natur sein, mehr oder weniger
»absent minded« und zufällig erfolgen, wobei die Vpn also auch ohne eindeutige und bewußte Intentionen einiges lernen könnten (s.u.): »The important thing« sei jedoch »to have a
Plan to execute for generating the recall response; ordinary, but not invariably, that Plan will
not be achieved without intend to learn, that is to say, without a metaplan for constructing a
Plan that will guide recall« (S.129)
In dieser Sichtweise ist nun auch die Funktion der Wiederholung für das Lernen bzw. Einprägen des Materials im Gedächtnisexperiment begründungstheoretisch reinterpretierbar: Die
Wiederholung hat so betrachtet keineswegs schon als solche einen »einprägenden«, »spurenbildenden« etc. Effekt, sondern ermöglicht lediglich unter bestimmten experimentellen Bedingungen die Entwicklung einer adäquaten subjektiven Strategie zur Erfüllung der antizipierten Erinnernsanforderung (so wird die Vp im von Miller, Galanter & Pribram angeführten
Beispiel die Strategie der Verknüpfung der sinnlosen Silben mit sinnvollen Wörtern, deren
Einordnung in Sätze und die Zusammenfügung dieser Sätze zu einer Geschichte nicht schon
beim einmaligen Lesen einer Liste fertig haben, sondern erst von Wiederholung zu Wiederho-
20
lung allmählich aufbauen können). Von da aus würden sich dann auch die erwähnten widersprüchlichen Befunde über den Effekt der Wiederholungen für den Behaltensprozeß erklären
(so fanden, wie dargestellt, etwa Craik & Lockart, daß bloßes Wiederholen ohne erhöhte
»Verarbeitungstiefe« keine Verbesserung der Erinnerungsleistung bringe, was etwa von Baddeley bestritten und gegen die Verarbeitungsebenen-Theorie ins Feld geführt wurde): Wiederholungen werden dann die Erinnernsleistungen verbessern, wenn bei den Vpn im Experiment die Bedingungen/Prämissen und die Intentionen dafür gegeben waren, diese Wiederholungen zum Aufbau von an der Antizipation der Erinnernsanforderung orientierten Behaltensstrategien zu nutzen; keine förderliche Wirkung der Wiederholungen auf die Erinnerung bestünde hingegen dann, wenn für die Vpn keine Möglichkeit und/oder kein Grund zur Entwicklung derartiger Strategien vorhanden war. Befunde, in denen ein Zusammenhang zwischen Wiederholung und Erinnerungsleistung feststellbar ist bzw. fehlt, sind mithin - wie stets
bei der bedingungsanalytischen »Brechung« des Verhältnisses zwischen Experimentator und
Versuchsperson - in diesem Kontext notwendigerweise mehrdeutig und letztlich uninterpretierbar, weil hier über die nur in intersubjektivem Frage- und Antwortspiel aufzuweisenden
wirklichen Handlungsbegründungen der Vpn hinwegspekuliert wird.
Aus unserer (an das Konzept der Verarbeitungsebenen angelehnten und begründungstheoretisch gefaßten) Umformulierung von »Gedächtnis«-Modellen in Konzepte über intentionale
Behaltens-/Erinnernsaktivitäten ergibt sich, daß die vorgeblich besonderen Funktionen von
»Speichern« o.ä. als funktionale Spezifika der jeweiligen Behaltensstrategien verstanden werden müssen: Es hängt so gesehen von der Art der intendierten Erinnernsleistung ab, welche
Arten von typischen Behaltens-/Erinnernsstrategien dabei begründetermaßen in Anschlag zu
bringen sind, wobei bestimmte Inhalte um so dauerhafter behalten werden können, je umfassender und stabiler die schon vorhandenen Wissensstrukturen sind, in denen das ZuBehaltende durch die jeweilige Behaltensstrategie verankert wird. Eine Uminterpretation des
sensorischen Registers, Kurzzeitspeichers und Langzeitspeichers unter solchen Gesichtspunkten ist (mindestens im Prinzip, also unabhängig von den jeweiligen inhaltlichen Bestimmungen, s.u.) in Craik & Lockarts Konzept der »Tiefe« der Verarbeitung bereits versucht worden
(wobei der BGM-Charakter dieses Ansatzes auf der Hand liegt). In entsprechender Weise
müßten nun aber auch andere Einteilungen, wie etwa die dargestellte gängige Unterscheidung
zwischen episodischem und semantischem Gedächtnis reinterpretierbar sein. Die Voraussetzungen dazu sind (wie sich zeigen wird) auf dem gegenwärtigen Stand unserer Diskussion
allerdings noch nicht gegeben, wir kommen deshalb später, bei der Darlegung einer bestimmten Entfaltungsstufe der von uns zu erarbeitenden subjektwissenschaftlichen Lerntheorie, darauf zurück.
Gesamteinschätzung: Gerichtetheit auf Permanenz des Gelernten in den Schranken
immanent-sprachlicher Bedeutungsbezüge
Wir weiten jetzt wiederum den begrifflichen Rahmen der Darstellung aus, indem wir die bloße Begründungsanalyse überschreitend unsere kategorialen Bestimmungen der umfassenden
sachlich-sozialen Bedeutungskonstellationen, die als Prämissen in die Handlungsbegründungen eingehen, explizit auf die bisherigen Resultate unserer Reinterpretation der kognitivistischen Gedächtnistheorien beziehen: Welche prinzipiellen Beschränkungen und Möglichkeiten
des von uns bisher reinterpretativ daraus gewonnenen Konzepts subjektiv begründeter Behaltens-/Erinnernsaktivitäten werden in dieser Sichtweise erkennbar? Welche über die Schlußfolgerungen aus der Reinterpretation (kognitiv erweiterter) SR-psychologischer Ansätze hinausgehenden Fragestellungen für die weitere lerntheoretische Analyse sind auf diesem Wege
zu explizieren?
Aus den kognitiven Erweiterungen der SR-Theorien ergab sich für uns (wie dargestellt) die
Notwendigkeit der Unterscheidung zwischen Lernen und Ausführung und weiterhin der Ausdifferenzierung des Lernens in intendiertes und inzidentelles Lernen. Wie verhält sich nun das
21
neue Konzept der intendierten Behaltens-/Erinnernsaktivitäten zu diesen begrifflichen Differenzierungen? Offensichtlich ist einerseits das »Behalten/Erinnern« (zunächst gleichviel ob
intendiert oder inzidentell) zwanglos dem »Lernen« zuzuordnen (entsprechend redet man in
der traditionellen Gedächtnisforschung häufig statt von der Behaltens- oder Einprägungsphase
auch von der »Lernphase« als erstem Stadium des experimentellen Ablaufs). Andererseits
aber ist, wenn man von »Lernen« als »Behalten« redet, ein bestimmter Aspekt des Lernens
hervorgehoben, nämlich die Dauerhaftigkeit oder Permanenz des Lernresultats: Dies ist es ja,
was in den Vorstellungen vom »Gedächtnis« als »Speicher« etc. seinen verdinglichten Ausdruck findet. Damit verdeutlicht sich, daß eine derartige Permanenz im Konzept des Lernens
implizit stets in irgendeiner Weise mitgemeint sein dürfte: »Lernen« hat demnach nicht schon
dann statt gefunden, wenn in einer bestimmten Situation erfahrungsbedingte Änderungen der
Leistung, Einstellung etc. feststellbar sind, sondern erst dann, wenn diese Änderungen über
die spezielle Situation, in der sie erworben wurden, hinaus erhalten bleiben, so daß in einer
nächsten einschlägigen Situation weitere Änderungsprozesse quasi darauf aufbauen können.
Eine solche transsituationale Permanenz und Kumulation soll in unseren späteren Ausführungen als (weiteres) spezifisches Merkmal des Lernhandelns aufgegriffen werden. Bei Akzentuierung der Unterscheidung »inzidentell-intendiert« verdeutlicht sich, daß im inzidentellen
Lernen die Permanenz sich irgendwie von selbst, als Nebeneffekt der Erfahrungsbildung, herstellen muß. Bei intentionalem Lernen sind dagegen zwei Möglichkeiten in Rechnung zu stellen: Entweder sind hier die Lernintentionen auf andere Dimensionen als das Behalten / Erinnern (etwa »Können« oder »Verstehen«) gerichtet, dann ergibt sich die Permanenz als lediglich mitintendiert; oder das Behalten/Erinnern stellt die einzige oder mindestens dominante
Dimension der Lernintentionen dar, dann ist die Permanenzintention das Spezifikum der
Lernaktivitäten. Intendiertes Behalten/Erinnern wäre so bestimmt als intentionales Lernen
unter der Dominanz der Permanenzintention. Definitorisch gesehen könnte mithin die Gedächtnisforschung, indem hier Lernaktivitäten thematisiert sind, bei welchen das Individuum
in verselbständigter Weise die Dauerhaftigkeit seiner Lernresultate anstrebt, als ein Spezialfall
der Lernforschung eingestuft werden. Faktisch allerdings stehen (wie gesagt) in den einschlägigen Forschungstraditionen »Lernen« und »Gedächtnis« weitgehend begriffslos nebeneinander, so daß wir im Laufe unserer weiteren Überlegungen die sich aus einer derartigen Verhältnisbestimmung ergebenden lerntheoretischen Konsequenzen erst noch herausarbeiten
müssen.
Ein weiteres Desiderat, das in unserer späteren lerntheoretischen Entwicklungsarbeit aufzugreifen ist, ergibt sich aus folgendem: Wenn man die (immer: intendierten) Behaltens/Erinnernsaktivitäten, wie wir sie in Reinterpretation der kognitivistischen Gedächtnisforschung gekennzeichnet haben, im Lichte unserer benannten Kategorialbestimmungen betrachtet, so wird schon auf den ersten Blick deutlich: Die dort angesprochenen Strategien etwa des
Clustering, der Kodierung verschiedener Art, des Suchens, der Rekonstruktion, Ortung in
semantischen Netzwerken, die verschiedengradige Verarbeitungstiefe etc. werden niemals als
in sachlich-soziale Bedeutungszusammenhänge hineinwirkende, realitätsverändernde, spurenhinterlassende, praktische Handlungen, sondern durchgehend als lediglich »innere«, gedankliche, mentale Handlungen verstanden. Dies geht soweit, daß selbst dort, wo etwa vom »prozeduralen Gedächtnis« die Rede ist, üblicherweise keineswegs - wie man meinen könnte - »äußere« Handlungsfolgen, sondern wiederum bloß mentale »Prozeduren« gemeint sind. (So
stellt etwa Anderson mit Bezug auf das »Produktionsgedächtnis« als seine Version des »prozeduralen Gedächtnisses« zunächst fest, darunter könnte ja ein Gedächtnis für eigentliche
rnotorische Fähigkeiten, wie Fahrradfahren oder Schreibmaschineschreiben verstanden werden, die ACT-Theorie befasse sich aber in diesem Kontext aus schließlich mit kognitiven,
programmsprachlich formulierbaren Prozeduren, wie Entscheidungsfindung, mathematisches
Problemlösen, Sprachentstehung etc., vgl. 1983, S.215). Können denn aber derartige externe,
praktische Handlungen überhaupt als Behaltens-/Erinnernsaktivitäten fungieren, macht es also
22
einen Sinn, sie in diesem Kontext zu vermissen? Genau diese Frage ist es, die wir später,
wenn wir bei der Auseinanderlegung unseres Entwurfs einer subjektwissenschaftlichen Lerntheorie soweit gekommen sein werden, aufgreifen müssen.
Allgemeiner gesehen tritt bei Reflexion der möglichen Bezüge menschlichen Behaltens und
Erinnerns auf die sachlich-sozial bedeutungsvolle Welt der Umstand hervor, daß durch die
kognitivistische Gedächtnisforschung derartige Bezüge radikal ausgeklammert sind: Zwar
wird (gerade in den neueren Entwicklungen des Kognitivismus) zunehmend auf die »Bedeutung« des zu behaltenden und erinnernden Materials abgehoben, dabei sind jedoch (im Einklang mit der allgemeinen Beschränkung der traditionellen Gedächtnistheorien auf sprachlichsymbolische Gegebenheiten) ausschließlich i.w.S. sprachliche Bedeutungen gemeint, deren
Beziehung zu den gegenständlichen Weltbedeutungen unsichtbar bleibt (s.u.). Auch wo innerhalb des Kognitivismus die Wechselwirkung des Systems mit bestimmten Merkmalen des
»Environments« in Rechnung gestellt wird, handelt es sich nicht um die wirkliche Umgebung,
sondern nur um die programmsprachliche Repräsentanz von bestimmten gesetzten Umgebungs-Parametern. So tritt hier an die Stelle der Welt das »Weltwissen« und an die Stelle der
Berücksichtigung der verschiedenen Ausprägungen sachlich-sozialer Bedeutungsstrukturen
im Handlungs- und Praxiszusammenhang der Individuen die Unterscheidung verschiedener
»Wissensdomänen« o.ä. (vgl. dazu die kritischen Analysen von Lave, 1988, etwa S.83ff).
Durch eine derartige Sprachimmanenz scheint das Subjekt in die »innere« Welt seiner sprachlichen Bedeutungsbezüge eingesperrt: Es führt mit Bezug auf mein eigenes Handeln wie mit
Bezug auf meine Erfahrungsmöglichkeiten auch hier kein Weg hinaus in die wirkliche, historisch gewordene, von »uns allen« in unserer Lebenspraxis geteilte gesellschaftliche Lebenswelt. Graumann & Sommer (1985) haben dies in verallgemeinerter Weise aufgewiesen, indem sie als Hauptgefahr der »Computerisierung« kognitionspsychologischer Modellbildungen
»Einkapselung (encapsulation) und, deswegen, Realitätsverlust (loss of reality)« herausheben:
»Die gesamte Welt, einschließlich dessen, was wir soziale Realität nennen, ist (in der Kognitiven Psychologie/K.H.) konzentriert in individuellen ‚brains‘ and ‚minds‘, als kognitive Repräsentationen zwischen Input und Output von Information eingeschlossen, um verarbeitet,
gespeichert und abgerufen zu werden« (S 66f., Ubers. K.H.).
Aus der Reflexion auf die Ausklammerung realer sachlich-sozialer Bedeutungszusammenhänge fällt auch neues Licht auf die (schon angedeutete) Kontinuität des Assoziationsprinzips
(i.w.S.) von der SR-Psychologie zum Kognitivismus: In der SR-Psychologie bezieht (wie
früher etwa im Kontext unseres Bremslicht-Beispiels aufgewiesen, vgl. S.60f) das Konzept
der Konditionierung als assoziativer Verknüpfung von Signal und Signalisiertem bzw. Verhalten und Verhaltenskonsequenz seine theoretische Unverzichtbarkeit daraus, daß die
»Welt« hier nicht in ihren vergegenständlichten Bedeutungszusammenhängen, sondern nur
als Inbegriff von isolierten Gegebenheitszufällen sichtbar wird, so daß alle Verknüpfungsleistungen dem Individuum aufgebürdet werden müssen. Wenn nun, wie gerade herausgestellt,
im Kognitivismus in dieser Richtung quasi noch ein Schritt weitergegangen wird, in dem die
»Welt« im Ganzen durch Zentrierung auf bloß »innere« Prozesse der Informationsverarbeitung ausgeklammert ist, so würde daraus folgen, daß hier trotz aller Kritik an der SRPsychologie deren prinzipiell »assoziationistischer« Denkweise kaum etwas entgegengesetzt
werden könnte, vielmehr in diesem Punkt eine (vielleicht z. T. verschwiegene) Kontinuität
zwischen SR Theorie und Kognitivismus aufweisbar sein müßte.
Eine solche Fortschreibung assoziationistischer Prinzipien von der SR Psychologie zur kognitivistischen Gedächtnisforschung wurde auf überraschende Weise in der schon erwähnten, an
der schwedischen Universität Umea abgehaltenen Konferenz unter dem Thema »Perspectives
on learning and memory« (vgl. Nilsson & Archer 1985) deutlich. Bei der Suche nach Gemeinsamkeiten zwischen beiden Grundansätzen wurde dabei immer wieder das Assoziationsprinzip als möglicher »gemeinsamer Nenner« benannt - einschlägige Diskussionen ziehen
23
sich wie ein roter Faden durch fast alle der dort gehaltenen Beiträge. Man war sich unter SRPsychologen und Kognitivisten in Umea weitgehend einig, daß das Assoziationsprinzip (möglicherweise in ausgeweiteter und »liberalisierter« Form) psychologisch unverzichtbar sei und
ein wesentliches Verbindungsglied zwischen beiden Positionen darstelle. So konnten denn
Rönnberg & Ohlsson (1985) bei ihrer Synopse der in Umea gehaltenen Beiträge hervorheben,
daß das Assoziationsprinzip nicht nur - erwarteterweise - die moderne SR-Psychologie beherrscht, sondern (mindestens implizit) den wesentlichen Ansätzen kognitivistischer Gedächtnisforschung zugrunde liegt: »Human memory theorists, in their turn, have hidden the explicit
associative assumptions in their models. Closer scrutiny reveals that the association is alive
and well established even in such models« (S.184). Dies gilt nicht nur für die Aufbauprinzipien des sensorischen Registers und Kurzzeitgedächtnisses, sondern - wie Nilsson & Archer
hervorheben - ebenso etwa für die modernen Modelle des semantischen Gedächtnisses: In den
hier formulierten Konzepten über semantische »Netzwerke« oder »Hierarchien« sei die Assoziation notwendig als strukturbildender Faktor vorausgesetzt. Auch auf die assoziationistische
Grundlage des ACT* von Anderson wird von den Autoren hingewiesen (S.294, vgl. dazu
Anderson selbst, 1983, S.202). Nilsson & Archer fassen zusammen: »The association is a
robust concept and perhaps necessary to the fields of learning and memory« (S.295). Auch
der moderne Konnektionismus muß (obwohl man über die Besonderheiten des kognitivistischen gegenüber früheren, einfachen Formen des Assoziationismus streiten kann, vgl. etwa
Fodor & Pylishyn 1988 und Smolensky 1989) - da hier Knoten und gerichtete Verbindungen
angenommen sind, zwischen denen durch rückwirkende Gewichtungsmodifikation Verbindungen sich herausbilden - in einem weiteren Sinne als eine besondere Art von Assoziationismus bezeichnet werden. Dementsprechend konnte (wie dargelegt) etwa Kohonen (1984)
das »Gedächnis« in konnektionistischer Fassung umstandslos als »associative memory« bezeichnen.
Wenn wir auf unsere drei »Gesamteinschätzungen« jeweils am Ende der begründungstheoretischen Reinterpratationsversuche der vorher diskutierten traditionellen lern- bzw. gedächtnistheoretischen Ansätze zurückblicken, so verdeutlicht sich, daß dabei in jeweils anderem Kontext das kategoriale Problem des beschränkten Weltbezuges im Mittelpunkt der Kritik stand:
Die »Welt« der SR-theoretischen Konzeption erwies sich als Inbegriff isolierter Einwirkung
von Umweltkontingenzen auf den Organismus (wobei der konnektionistische Weltbezug u.U.
als eine Spielart des SR-theoretischen aufgefaßt werden kann). Nach Diskussion der kognitiv
erweiterten SR-theoretischen Lernkonzepte erwies sich, daß mit dem hier (explizit und implizit) zugrundeliegenden »Erwartungskonzept« der aktiv-ändernde Ausgriff des Subjekts auf
seine Lebenswelt (damit auch Veränderung der Prämissen des eigenen Handelns) nicht konzeptualisierbar ist. Aus der Erörterung der kognitivistischen Gedächtnisforschung ließ sich
verallgemeinern, daß hier der »Input« und der »Output«, also die Eingabe- und Ausgabefunktion des »Systems«, an die Stelle der unabhängigen Lebenswelt tritt und daß dabei die Sprache (i.w.S.) quasi als undurchdringliche Mauer zwischen dem Subjekt und der Außenwelt
steht. Aus alldem ergibt sich, daß wir diese Beschränkungen in unserer später zu erarbeitenden subjektwissenschaftlichen Lerntheorie rückgängig machen bzw. vermeiden müssen. Es
muß uns gelingen, den subjekthaft-aktiven Charakter des Lernens als Zugang des Subjekts zur
wirklichen Welt sachlich-sozialer Bedeutungszusammenhänge zu konzeptualisieren. Oder
(anders gewendet): Wir müssen zu lerntheoretischen Grundkonzepten jenseits der (gleichviel
ob aus dem SR-psychologischen Reiz-Reduktionismus oder der kognitivistischen Sprachimmanenz resultierenden) Weltlosigkeit der traditionellen Lerntheorien gelangen.
Bevor wir damit beginnen können, ist jedoch erst noch ein weiterer lerntheoretischer Grundansatz darzustellen und zu reinterpretieren, der der später zu erarbeitenden subjektwissenschaftlichen Lernkonzeption einen wesentlichen Schritt näher kommt: Aus der kognitivistischen Tradition erwuchs (wie schon erwähnt) neben der gerade diskutierten Gedächtnisfor-
24
schung noch ein anderer lernpsychologisch relevanter Entwicklungszweig als »kybernetischer« Theorieansatz, wie er heute in Gestalt der Handlungsregulationstheorie vorliegt. Mit
diesem Ansatz ist in gewissem Sinne eine Verbindung zwischen dem Kognitivismus und dem
tätigkeitstheoretischen Ansatz, aus dessen kritischer Rezeption unsere subjektwissenschaftliche Grundkonzeption entstanden ist, hergestellt. So könnte von da aus der Übergang zwischen
unseren Reinterpretationsbemühungen und eigener lerntheoretischer Entwicklungsarbeit in
besonders stringenter Weise vollziehbar werden.
Herunterladen