Prüfungsfragen und Antwortvorschläge zu LV Kognitive

Werbung
Prüfungsfragen und Antwortvorschläge zu LV Kognitive Psychologie
II (SS 2000)
Ao. Univ.-Prof. Dr. Michael Trimmel
Prüfungsfragenausarbeitung von:
Culha Yasmine
Linhart Verena
Paljakka Sanni Ilona
Vitalisova Barbara
Wulz Bettina
Die o.g. Kolleginnen haben 80 Prüfungsfragen (nach Anderson, 1996) engagiert
ausgearbeitet. Es handelt sich dabei um ANTWORTVORSCHLÄGE, da zu den Fragen
manchmal auch andere Antworten als richtig anzusehen sind. Ich wollte die Ausarbeitungen
aber NICHT im Detail korrigieren, ausweiten oder verkürzen. Zur Stoffeingrenzung habe ich
51 Fragen durch Fettschrift markiert und manchmal kleine Änderungen vorgenommen allerdings ohne damit die volle Verantwortung, bzw. die Identifikation zur Repräsentativität
der Fragen/Antworten, auch im Verhältnis zum vorgetragenen Stoff in der LV zu übernehmen.
Michael Trimmel
Kapitel 1: Die Wissenschaft von der Kognition
1.) Faktoren, die in den 60er Jahren zur Entwicklung der Kognitiven Psychologie, wie wir sie heute
kennen, beigetragen haben
Die erste Einflußgröße waren die Forschungen zur Leistungsfähigkeit und Leistungsausführung des
Menschen, die besonders während des 2. Weltkrieges an Bedeutung gewonnen hatten. Die bis dahin
die Psychologie prägende Schule des Behaviorismus hatte ja keine Antworten auf so praxisbezogene
Probleme wie Leistung, Training und Aufmerksamkeit der Soldaten. Nach dem Krieg übernahm unter
anderen der britische Psychologe Broadbent diese Ideen und brachte sie mit der Informationstheorie
zusammen, die in abstrakter Weise die Informationsverarbeitung analysiert. Broadbent untersuchte
diese Vorstellung in Bezug auf Wahrnehmung und Aufmerksamkeit und setzte damit den Anfang für
Analysen, die die ganze kognitive Psychologie prägen.
Weiters hatten Fortschritte in der Computerwissenschaft, der Künstlichen Intelligenz, einen enormen,
indirekten Einfluß auf die kognitive Psychologie. Diese übernahm nämlich deren Begriffe und
Konzepte, um sie in ihren Theorien einzusetzen. Außerdem konnte man das Vorgehen bei der
Analyse von intelligentem Verhalten bei Computern und Menschen vergleichen und sich so von
Hemmungen und Fehlkonzepten lösen.
Der dritte Einflußfaktor war die Linguistik, und dabei insbesondere Arbeiten von Noam Chomsky zur
Analyse der Sprachstruktur. Er zeigte, daß Sprache weit komplexer sei als ursprünglich angenommen.
ein Argument, dem der Behaviorismus nichts entgegensetzen konnte.
Als Reaktion auf Entwicklungen in diesen 3 Gebieten konnte sich die Kognitive Psychologie
schließlich ganz vom Behaviorismus abspalten.
2.) Der Informationsverarbeitungsansatz nach Sternberg - das Sternberg-Paradigma
Das bekannteste Beispiel der Beschreibung des Informationsverarbeitungsansatzes, also der
Untersuchung des menschlichen Denkens, bietet Sternberg um 1966. In Sternbergs Experiment
mußten sich die Probanden eine Anzahl von Ziffern merken und später Fragen, ob eine bestimmte
Testziffer unter der zu merkenden Menge befand, so schnell wie möglich beantworten.
Sternberg fand eine annähernd lineare Beziehung zwischen der zu behaltenden Zahlenmenge und
der Beurteilungszeit.
Nun entwickelte Sternberg einen abstrakten Erklärungsansatz für den Denkprozeß seiner Probanden,
der seiner Meinung nach so ähnlich abläuft wie das schnelle Durchkalkulieren eines Computers:
zuerst mußte der Reiz enkodiert, dann mit jedem Element der Zahlenmenge verglichen werden, der
Proband mußte zu einem Urteil kommen und dieses hervorbringen. Diesen Prozeß hielt er als ein
Flußdiagramm fest, ein damals beliebtes Mittel zur Darstellung der Informationsverarbeitungsschritte,
das aus der Computerwissenschaft übernommen worden war.
Sternbergs Modell verzichtet gänzlich auf den Versuch, die ablaufende Informationsverarbeitung im
Gehirn zu lokalisieren oder sie an Hand von Prozessen im Gehirn zu konzeptualisieren.
Überwiegend wird sie in dem Modell nämlich symbolisch konzeptualisiert, die Zahlen sind also
Symbole, die miteinander verglichen werden, wobei Sternberg auch mögliche neuronale
Repräsentationen der Symbole nicht beachtet.
Theorien dieser Art waren recht erfolgreich, um größere Mengen an Erkenntnissen über die
menschliche Kognition zusammenzutragen.
3.)Was versteht man unter "situierter Kognition"?
Bei der Frage geht es um die Auseinandersetzung darüber, ob man innere oder äußere Strukturen zur
Erklärung des menschlichen Verhaltens heranziehen sollte.
Der Psychologe J .J. Gibson steht mit seinem ökologischen Ansatz der Postulierung innerer
Strukturen, wie etwa dem Informationsverarbeitungsansatz, gegenüber. Man solle die Kognition als
Reaktion auf relevante Strukturen in der Umgebung auffassen und daher besser die Struktur der
(sozialen) Umwelt statt der Struktur des Geistes untersuchen.
Gibson selbst beschäftigte sich hauptsächlich mit Fragen der Wahrnehmung, aber auch andere
Forscher machen sich (im Zusammenhang mit höheren kognitiven Prozessen) für seine Sichtweise
stark, eben im Rahmen der sogenannten situierten Kognition, die im Grunde eine Rückwendung zum
Behaviorismus darstellt: es sei nicht notwendig, geistige Mechanismen zu postulieren, sondern eben
nur die Umwelt zu untersuchen.
Ein weiterer Begriff dieser Denkschule ist der "Aufforderungscharakter", der sich auf das Vorliegen
unmittelbar erkennbarer Verhaltensmöglichkeiten in der Umwelt bezieht: obwohl nicht bestritten wird,
daß Menschen planen, verlaufen die Handlungen nicht unbedingt nach dem Plan, sondern sind
direkte Reaktionen auf die Wahrnehmung der Umwelt. In einem Beispiel mit einem Kanu und
Stromschnellen, wird etwa die Wahrnehmung eines Felsens zu der Handlung "auffordern", ihm
auszuweichen. Diese Handlung war nicht Teil des Plans, sondern eben eine direkte Reaktion auf die
Wahrnehmung des Felsens.
4.) Der Informationsverarbeitungsansatz im Zusammenhang mit dem Computer. - Was versteht man
unter "Symbolmanipulation"?
In dieser Auseinandersetzung ging es darum, wie weit man die Kognition auf konkrete Funktionen des
Gehirns beziehen oder über abstraktere Zusammenhänge erklären sollte. Allerdings ist die
Untersuchung der physiologischen Grundlagen - des Gehirns - zu aufwendig und das Zusammenspiel
der Nervenzellen etwa bei der Lösung einer Aufgabe zu detailliert, um brauchbar zu sein.
So stützte sich die Kognitive Psychologie immer mehr auf einen Informationsverarbeitungsansatz, der
stark von den neuronalen Detail abstrahiert war und zum besseren Verständnis des menschlichen
Analogien zum Computer verwendete. Denn der Computer besteht wie das Gehirn, aus Millionen von
Komponenten. Es wäre sinnlos, bei einer Aufgabe das Verhalten des Computers durch die
Untersuchung einer jeden physikalischen Komponente verstehen zu wollen.
Allerdings kann man über höhere, abstrakte Programmiersprachen ohne Berücksichtigung von Details
das Gesamtverhalten des Computers erfassen. So sollte auch die kognitive Theorie das kognitive
Verhalten präzise erfassen, aber in einer handhabbaren, abstrakten Weise. Besonders einflußreich,
aber auch umstritten, war (und ist) die Übernahme von Vorstellungen aus der Künstlichen Intelligenz.
Programme im Rahmen der Künstlichen Intelligenz lösen Probleme üblicherweise so, daß sie zum
einen abstrakte Konzepte verwenden und zum anderen Regeln, mit denen man logisch über diese
Konzepte nachdenken kann.
Solche Erklärungsansätze der Kognition nennt man Symbolmanipulation, weil sie das Denken anhand
abstrakter Symbole beschreiben und das Problem der neuronalen Realisierung dieser Symbole außer
Acht lassen.
5.) Das Neuron - Informationsverarbeitung im Nervensystem
Ein Neuron ist eine Nervenzelle; sie akkumuliert elektrische Aktivität und leitet diese weiter. Das
menschliche Gehirn selbst enthält etwa 100 Milliarden Neuronen. Der Prototyp eines Neurons besteht
aus Zellkörper (Soma), den von ihr ausgehenden Verästelungen (Dendriten), sowie einem
schlauchartigen Fortsatz (Axon). Ein Axon ist die feste Verbindung zwischen Neuronen, sie führt zu
den Dendriten eines anderen Neurons, diese Kontaktstelle nennt man Synapse. Am Ende des Axons
werden Neurotransmitter freigesetzt, die auf die Membran des empfangenden Dendriten einwirken
und deren elektrisches Potential ändern. Erhöhen sie das Aktivationsniveau, sind es erregende
(exzitatorische) Synapsen, senken sie es, nennt man sie hemmende (inhibitorische) Synapsen.
Die Impulse, die auf diese Weise weitergeleitet werden, machen die gesamte neuronale
Informationsverarbeitung aus und die Intelligenz ergibt sich aus diesem einfachen System neuronaler
Wechselwirkungen.
Wir wissen allerdings nicht genau, wie die Kognition im Gehirn in Form von neuronalen Mustern
kodiert wird, aber es gibt etliche Anhaltspunkte dafür, daß menschliche Wissensbestände nicht in
einem Neuron lokalisiert sind, sondern in ausgedehnten Aktivationsmustern über die Menge der
Neuronen verteilt sind. Die Zerstörung einer gerinen Anzahl von Neuronen im Gehirn führt im
allgemeinen nicht zum Verlust spezifischer Gedächtnisinhalte.
Solche Aktivationsmuster bestehen aber nur vorübergehend und man vermutet, daß
Gedächtnisinhalte durch Veränderungen der synaptischen Verbindungen zwischen Neuronen kodiert
werden. Durch die Veränderung der synaptischen Wege kann sich das Gehirn selbst in den Stand
versetzen, bestimmte Muster zu reproduzieren. Es gibt zum Beispiel Belege, daß
Synapsenverbindungen sich beim Lernen ändern, erstens hinsichtlich der erhöhten Freisetzung von
Neurotransmittern und zweitens der Empfindlichkeit auf Seiten der empfangenden Dendriten.
6.) Unterschiedliche Spezialisierung des Gehirns für unterschiedliche kognitive Funktionen
Den Neocortex kann man sich als dünne Schicht von Neuronen vorstellen (beim Menschen ¾ aller
Neuronen), die vielfach gefaltet und gewunden ist. Sie teilt sich in die linke und rechte Hemisphäre.
Dabei besteht eine enge Verbindung zwischen der rechten Körperhälfte und der linken Hemisphäre
und umgekehrt zwischen der linken Körperhälfte und der rechten Hemisphäre. Beide Hemisphären
gliedern sich folgendermaßen: der Frontallappen, dessen hinterer Teil mit motorischen Funktionen
und vordere Teil mit höheren Funktionen zusammenhängt, der Occipitallappen, der die primären
visuellen Felder beinhaltet, der Parietallappen, der mit einigen sensorischen Funktionen zu tun hat
und der Temporallappen, der die primären auditiven Felder enthält und an der Objekterkennung
beteiligt ist.
Von den höheren kognitiven Funktionen wissen wir, daß die beiden Hemisphären jeweils auf
unterschiedliche Funktionsbereiche spezialisiert zu sein scheinen. Generell die linke Hemisphäre auf
Sprache und analytische Verarbeitung und die rechte auf wahrnehmungsgebundene und räumliche
Prozesse.
Aus der Untersuchung von Patienten, die Verletzungen an bestimmten Hirnregionen erlitten hatten,
ergab sich auch, daß es im linken Cortex Bereiche gibt, die für das Sprechen besonders wichtig sind:
das Broca-Zentrum (für Grammatik) und das Wernicke-Zentrum (für Wortschatz und sinnvolle
Sprache). Außerdem ist in vielen Regionen des Cortex die Informationsverarbeitung räumlich, also
topographisch organisiert, das heißt benachbarte Körperteile sind auch im Nervengewebe
aneinandergrenzend repräsentiert. Zellen reagieren auf verschiedene überlappende Körperregionen
und jeder einzelne Punkt erregt eine unterschiedliche Gruppe von Zellen. (Dies spricht für die
Vorstellung, daß neuronale Information meistens in Form von Aktivationsmustern repräsentiert ist.)
In jüngster Zeit gab es in der Neurowissenschaft immer mehr Fortschritte bei der
Funktionsbestimmung einzelner Hirnregionen und zwar durch Anwendung immer ausgefeilterer
Geräte und Methoden; dazu gehören etwa die Positronen-Emissions-Tomographie, die
Durchblutungsveränderungen in Hirnregionen mißt, das MRI, das den Blutfluß anhand der
Veränderungen im magnetischen Feld mißt oder das ERP zur Aufzeichnung elektrischer Aktivität des
Gehirns.
7.) Ein konnektionistisches Modell: das PDP?
Der Konnektionismus befaßt sich mit der Verknüpfung neuronaler Elemente und mit der Art und
Weise, wie sich dadurch höhere Kognitionen darstellen und erklären lassen. Weil die Forschung mit
den Phänomenen der höheren kognitiven Prozesse noch am Anfang steht, geht der Konnektionismus
nicht davon aus, erklären zu wollen, wie das Gehirn diese Prozesse tatsächlich bewerkstelligt,
sondern wie es sie bewältigen könnte.
Die Ausgangsfrage lautet, auf welche Weise sich höhere Funktionen dadurch erzielen lassen, indem
man Grundelemente von der Art der Neuronen miteinander verknüpft (Konnektion = Verknüpfung).
Eine Rahmenvorstellung für solche konnektionistischen Modelle ist das PDP (parallel distributed
processing model) von McClelland und Rumelhart. Ihr Modell lehnt sich eng an die Vorstellung an,
daß Information in Form von Aktivationsmustern über neuronale Elemente hinweg repräsentiert ist.
(Diese Elemente verarbeiten die Information, indem sie Aktivation ansammeln und erregende oder
hemmende Einflüsse auf andere Elemente ausüben.)
McClelland und Rumelhart verwenden Abbildungen von solchen Netzwerken, um eben neuronale
Informationsverarbeitung zu modellieren. In einer solchen Abbildung stehen Elemente für die
Neuronen und die Verbindungslinien für die neuronalen Verknüpfungen, wobei es hemmende und
erregende Verbindungen gibt. Die Aktivation eines Elements (auch: Unit) hemmt im allgemeinen die
Aktivation der restlichen Elemente. Das System legt quasi sozial intelligentes Verhalten an den Tag, in
dem ihm eine Beschreibung eines Elementes gegeben wird und es dann das jeweilige Unit durch
starke Aktivation als Antwort ausgibt. Außerdem kommt es auf Basis von Ähnlichkeiten zu
Schlußfolgerungen. So ist es eine Demonstration von Möglichkeiten, wie man sich neuronale
Mechanismen als Grundlage von recht differenzierten Gedächtnisurteilen vorstellen kann. Tatsächlich
stimmt es mit Verhaltensdetails überein, nach denen gewisse Einschätzungen funktionieren,
außerdem helfen solche Modelle, die Kluft zwischen Grundfunktionen des Gehirns und höheren
kognitiven Prozessen zu überbrücken.
Kapitel 2: Die Wahrnehmung
1.) Die frühen visuellen Prozesse
Licht durchquert die Linse und den Glaskörper und fällt auf die Netzhaut an der Rückseite der
Netzhaut, wo lichtempfindliche Zellen - Photorezeptoren - darauf reagieren. Es gibt zwei Typen von
Photorezeptoren: Zapfen, die für das Farbsehen sowie Schärfe zuständig sind, und Stäbchen für
weniger scharfes Schwarz-weiß-Sehen. Viele Zapfen befinden sich vor allem in einem kleinen Bereich
der Netzhaut, der Fovea. Foveales Sehen betrifft die Erkennung feiner Details, der Rest des visuellen
Feldes ist für die Erkennung feiner Details, der Rest des visuellen Feldes für die Erkennung von
globaler Information sowie Bewegung verantwortlich.
Das Licht wird also durch einen photochemischen Prozeß in Nervenimpulse umgewandelt.
Die Rezeptorzellen sind synaptisch mit den Bipolarzellen und diese mit Ganglionzellen verbunden,
deren Axone aus dem Auge austreten und den optischen Nerv bilden, der zum Gehirn führt.
Informationen werden durch die Ganglionzellen enkodiert.
Durch teilweise Überkreuzung der optischen Nerven erreicht Information über das linke visuelle Feld
die rechte Gehirnhälfte und umgekehrt.
Die Fasern der Ganglien sind synaptisch mit Zellen von Hirnarealen unterhalb des Cortex verbunden.
Einige Ganglionzellen zeigen einen Anstieg der Spontanrate des Feuerns, wenn Licht auf das
empfindliche Zentrum fällt, die On-Off-Zellen. Bei Off-On-Zellen jedoch sinkt die Spontanrate bei Licht
auf das Zentrum und steigt bei Licht auf die Umgebung.
Diese Ganglionzellen verknüpfen sich entweder zum Aufbau von Kantendetektoren, die positiv auf
Licht an der einen Seite und negativ auf Licht an der anderen Seite reagieren oder zu
Balkendetektoren, die im Zentrum positiv und in der Peripherie negativ auf Licht reagieren. Beide
Arten von Detektoren sind spezifisch in Bezug auf positive Ausrichtung und Ausdehnung und werden
durch bestimmte Muster stimuliert.
Sogar auf diesem niedrigen Niveau verarbeitet das Nervensystem Information in der Art von Mustern
neuronaler Aktivität.
2.) Hinweisreize zur Wahrnehmung von Tiefe und Oberfläche und der Beitrag von Marr (1982)?
Das Grundproblem an der Wahrnehmung einer dreidimensionalen Welt ist, daß die an der Netzhaut
anliegende Information von Natur aus zweidimensional ist. So bedient sich das visuelle System einer
ganzen Anzahl an Hinweisreizen zu Wahrnehmung von Tiefe und Oberfläche.
Einer dieser Hinweisreize ist der Texturgradient. Die wahrgenommenen Elemente scheinen mit
steigender Entfernung dichter gepackt zu sein, so kann eine ebene Fläche durch Veränderung der
Textur den Eindruck von Tiefe übermitteln.
Ein anderer Hinweisreiz ist die Stereopsie, die sich auf die einfache Tatsache bezieht, daß jedes Auge
ein eigenes, zum anderen etwas unterschiedliches Bild bekommt. Ohne diese stereoptische
Information haben wir den Eindruck eines sehr flachen Bildes. Etwa 3-D-Brillen beruhen auf diesem
Prinzip.
Eine dritte Informationsquelle ist die Bewegungsparallaxe. Bewegt man den Kopf, bewegen sich nahe
Objekte schneller über die Netzhaut als weiter entfernte. Durch die Kopfbewegung erkennen wir auch
wenn wir ein Auge geschlossen haben klar die Dreidimensionale Struktur eines Objekts, sowie die
relative Lage von Objekten zueinander.
Es ist aber eine weit komplexere Sache zu verstehen, wie das Gehirn diese Informationen tatsächlich
verarbeitet.
David Marr (1982) schlug den Begriff 2 ½.-D-Skizze vor: die verschiedenen Informationsquellen
arbeiten zusammen um eine solche Skizze zu erstellen, die erlaubt, die relative Lage eines Objekts
zum Betrachter zu bestimmen. Diese Repräsentation ist aber noch weit von der tatsächlichen
Wahrnehmung der Welt. So ermöglicht erst die 3-D-Skizze die Bestimmung, welche Objekte sich in
der Umgebung befinden.
3.) Gestaltgesetze der Wahrnehmungsorganisation
Die Organisation von Objekten zu Einheiten folgt bestimmten Gesetzen (Mechanismen):
Das Gesetz der Nähe: nahe beieinanderliegende Elemente organisieren sich oft zu Einheiten.
Das Gesetz der Ähnlichkeit: wir neigen dazu, ähnlich aussehende Objekte zu einer Gruppe
zusammenzufassen.
Das Gesetz des glatten Verlaufs: wir bevorzugen Linien mit glattem Verlauf gegenüber Linien, die
stark abgeknickt sind.
Das Gesetz der guten Gestalt: im Zweifelsfall sehen wir vertraute, geschlossene Formen lieber als
nichtdefinierbare Gestalten.
Aufgrund dieser Gesetze schließen wir auch unbekannte Stimuli zu Einheiten zusammen. Man glaubt,
daß die grundliegenden visuellen Mechanismen zum großen Teil angeboren sind. Schon im
Säuglingsalter scheinen Objekte und Formen wiedererkannt und ihre Lage im Raum eingeschätzt zu
werden.
4.) 3 Ansätze zur visuellen Mustererkennung?
3 Ansätze werden diskutiert: die Schablonenabgleich und die Merkmalsanalyse in Bezug auf
Mustererkennung sowie die Objekterkennung.
Die Wahrnehmungstheorie des Schablonenabgleichs beruht auf der Annahme, daß ein getreues
Netzhautbild eines Objekts an das Gehirn übermittelt und dann der Versuch unternommen wird, es mit
bereits gespeicherten Mustern (Schablonen) direkt zu vergleichen. Nach dieser Grundannahme sollte
das System etwa bei einem Buchstaben einen Vergleich mit den Schablonen durchführen, die es für
jeden Buchstaben besitzt und die Schablone mit der besten Übereinstimmung melden. Allerdings
kann das kaum ein glaubwürdiges Modell für die menschliche Mustererkennung sein, denn diese ist
seht flexibel und erkennt auch Buchstaben mit so ungewöhnlicher Schreibweise, Stellung usw., daß
sie nicht mehr in die Schablonen passen.
Nach einem anderen Modell beruht die Mustererkennung auf der Merkmalsanalyse. Jeder Reiz ist
eine Kombination elementarer Merkmale, die erkannt werden.
Das Modell hat gegenüber dem Schablonenabgleich einige Vorteile: die Merkmale sind einfacher
strukturiert, es können diejenigen Beziehungen zwischen den Merkmalen angegeben werden, die für
das Muster charakteristisch sind und die Zahl der benötigten Muster ist geringer (als die der
Schablonen), da dieselben Merkmale in vielen Mustern vorkommen. Aus Verhaltensexperimenten
ergeben sich viele Belege für diese Theorie, so etwa werden Buchstaben, die viele Merkmale
gemeinsam haben, öfter verwechselt als ganz deutlich unterschiedliche Buchstaben.
Es gibt viele Belege dafür, daß die gleichen Prozesse auch dem Erkennen von Objekten (wie Pferden
oder Tassen) zugrundeliegen. Die entscheidende Annahme dabei ist, daß die Objekterkennung durch
die Erkennung der Komponenten des Objekts vermittelt ist. Das Objekt wird also in Teilobjekte
untergliedert, jedes Teilobjekt kann klassifiziert werden und das Objekt wird als dasjenige Muster
erkannt, das aus diesen Teilen zusammengesetzt ist.
Biederman (1987) vertritt die Ansicht, daß es 36 solcher Teilobjekte gibt, die er Geons nennt. Das
Erkennen eines Geons ist mit dem Erkennen eines Buchstabens vergleichbar, es gibt auch hierbei
viele kleine Variationen des jeweiligen Geons, die aber nicht entscheidend für das Erkennen sind.
Zum Beispiel muß nur bestimmt werden, ob eine Kante gerade oder gekrümmt ist, wie stark sie
gekrümmt ist oder ihre Farbe Textur oder kleine Details spielen keine Rolle
5.) Zur Merkmalsanalyse der gesprochenen Sprache?
Die Prozesse der Merkmalsanalyse und der Merkmalskombination bei visuellem Erkennen scheinen
auch der Sprachwahrnehmung zugrunde zu liegen.
Einzelne Phoneme (die kleinsten sprachlichen Einheiten, die Sprachlaute) bestehen wie einzelne
Buchstaben aus einer Anzahl von Merkmalen. Durch die Identifikation von Phonemen erkennen wir
Wörter. Die Schwierigkeit liegt darin, daß das Sprechen kontinuierlich verläuft und Phoneme deshalb
nicht so voneinander getrennt sind wie etwa gedruckte Buchstaben. Ein weiteres
Segmentierungsproblem liegt in dem Phänomen der Koartikulation, daß beim Sprechen viele
Phoneme sich überlappen und daß das Klangmuster eines Phonems durch den Kontext der anderen
Phoneme mitbestimmt wird.
Die Sprachwahrnehmung umfaßt also spezielle Mechanismen, die über die allgemeinen
Mechanismen der akustischen Wahrnehmung hinausgehen. Zu den Mechanismen gehört es, die
Mermale der Phoneme zu erkennen. Zu den Merkmalen von Lautklassen gehören
Konsonanzmerkmal, Stimmhaftigkeit und der Artikulationsort.
Das Konsonanzmerkmal ist vorhanden, wenn es sich um einen Konsonanten (im Gegensatz zum
Vokal) handelt.
Die Stimmhaftigkeit bezieht sich auf den Klang eines Lautes. Wird er durch Schwingungen der
Stimmlippen gebildet und vibriert der Kehlkopf, so ist der Laut stimmhaft.
Und als Artikulationsort bezeichnet man den Ort, an dem der Vokaltrakt bei der Erzeugung eines
Phonems geschlossen wird. Der Vokaltrakt wird beim Hervorbringen der meisten Konsonanten zu
irgendeinem Zeitpunkt geschlossen.
Bei Experimenten zeigte sich, daß Probanden Laute, die sich nur in einem dieser Merkmale
unterscheiden, am häufigsten miteinander verwechseln. Außerdem ist man sich weitgehend einig, daß
die Wahrnehmung von Phonemen als kategorial bezeichnet werden kann, das heißt, wir wir nehmen
sie als verschiedenen Kategorien entstammend wahr. In Experimenten können Probanden 2 Laute
nur dann unterscheiden, wenn zwischen ihnen eine Phonemgrenze verläuft (etwa von stimmhaft zu
stimmlos). Es gibt sogar eine Sichtweise, die besagt, daß wir zudem nicht in der Lage sind, zwischen
Stimuli innerhalb einer Kategorie zu unterscheiden.
6.) Kontextinformation und ihr Beitrag zur Mustererkennung?
Objekte treten meist in Kontexten auf und diese können wir nutzen, um die Mustererkennung zu
steuern. Wenn das geschieht oder wenn allgemeines Weltwissen die Wahrnehmung steuert,
bezeichnen wir das als Top-down-Verarbeitung, im Gegensatz zum Begriff Bottom-up-Information, die
der Reiz liefert. Diese beiden Begriffe spielen eine große Rolle in der Wahrnehmungsforschung.
Zu diesen Top-down-Kontexteffekten gibt es zahlreiche Experimente. In einer Untersuchung zum
Wortüberlegenheitseffekt fand man, daß im Gegensatz zur Verwendung von Einzelbuchstaben als
Stimuli bei der Verwendung von ganzen Wörtern weniger Fehlentscheidungen gemacht wurden. Der
Proband kann den Buchstaben in einem Wortkontext leichter erschließen, wobei die
Schlußfolgerungen dabei automatisch und unbewußt ablaufen.
Und ebenso wie bei der Buchstabenerkennung Merkmalsinformationen durch Wortkontext ergänzt
werden, werden bei Worterkennung die Merkmalsinformationen durch den Satzkontext ergänzt. Liegt
ein Kontext vor, brauchen wir dem Wort selbst weniger Information entnehmen, um es zu erkennen
und wir können den Kontext sogar benützen, um Wörter einzufügen, die gar nicht aufgetreten sind.
Auch bei gesprochener Sprache ergänzen wir bei Bedarf automatisch Phoneme durch den Kontext
(=Phonemergänzungseffekt); Und ebenso zur Identifikation von Objekten (Gesichtern und Szenen...)
wird der Kontext herangezogen.
7.) Das FLMP- und das PDP-Modell, eine Gegenüberstellung
Das FLMP-Modell von Massaro und das PDP-Modell von McClelland und Rumelhart liefern zwei
verschiedenen Grundideen über die genauen Wirkmechanismen einer Wahrnehmungssituation.
Das FLMP-Modell besagt, daß der Kontext und der Stimulus zwei unabhängige Informationsquellen
zur Interpretation des Stimulusmusters darstellen.
Massaro argumentiert mit Experimenten als Beleg, daß Evidenzen aus dem Kontext und Evidenzen
aus dem Stimulus unabhängig voneinander kombiniert werden.
Diese Evidenzen stellen im wesentlichen Wahrscheinlichkeiten dar, die Massaro fuzzy truth values
nennt (FLMP steht für fuzzy logical model of perception).
Auch stellt Massaro eine Gleichung auf, nach der 2 verschiedene Evidenzquellen für eine Hypothese
kombiniert werden können.
Im großen und ganzen hat diese Theorie für die Erklärung zur Kombination von Informationen gute
Dienste geleistet.
McClelland und Rumelhart haben ein ganz anderes Modell zu dieser Kombination vorgeschlagen, ein
konnektionistisches Modell, das PDP-Modell (von Parallel Distributed Processing).
Die Wissenschaftler haben Abbildungen von ganzen Netzwerken zur Mustererkennung entworfen,
wobei diese Netzwerke über exzitatorische oder inhibitorische Prozesse Merkmale zu Buchstaben und
Buchstaben wieder zu Worten kombinieren.
Das Modell beschreibt Verarbeitungsprozesse im Nervensystem und sagt voraus, daß über den
Kontext Top-down-Prozesse die momentane Empfindlichkeit zur Erkennung spezifischer Buchstaben
beeinflussen.
Die Kognition wird also anhand des Zusammenspiels untereinander verbundener, nervenartiger
Elemente beschrieben.
Massaro kritisiert, daß das Modell zu unempfindlich auf Effekte der Stimulusinformation reagiere,
wenn diese der Kontextinformation zuwiderliefen.
Allerdings ist das PDP-Modell - auf niedrigerem Abstraktionsniveau - besser als das FLMP-Modell in
der Lage, Vorhersagen über die Kombination von Informationen zu treffen und Details wie etwa die
Effekte der Verarbeitung aufeinanderfolgender Buchstaben zu umfassen.
Aber auch in diesem Modell sind wir weit davon entfernt, genau zu verstehen, wie die Verarbeitung
innerhalb eines solchen Netzwerks funktioniert.
Kapitel 3: Aufmerksamkeit und Leistung
1.) Der Begriff Aufmerksamkeit?
Das menschliche Informationsverarbeitungssystem ist ein System beschränkter Kapazität. Bei der
Verarbeitung müssen wir uns also für die wichtige Information entscheiden und weniger wichtige
Information vernachlässigen. Diese Zuweisung von kognitiven Ressourcen wird oft Aufmerksamkeit
genannt. Ein Großteil der Forschung über menschliche Aufmerksamkeitsprozesse bezieht sich auf die
Verteilung von Ressourcen bei der Wahrnehmung.
Die Art und Weise, wie die kognitive Psychologie das Aufmerksamkeitsproblem behandelt, unterliegt
allmählichen Verschiebungen. Lange Zeit lag dem die implizite Annahme zugrunde, daß
Aufmerksamkeit stark an das Bewußtsein gebunden ist - wir können einem Objekt nicht
Aufmerksamkeit zukommen lassen, bevor wir uns dieses Objekts bewußt sind.
Immer stärker gelangt man zu einer gegenteiligen Ansicht und damit auch zur Einsicht, daß
Aufmerksamkeit kein einheitliches System darstellen muß und es nicht einen, sondern mehrere
Mechanismen der Ressourcenzuteilung gibt.
In der Tradition von Broadbent lassen sich Selektion, Bewußtheit und Kontrolle als
grundlegende Funktionen der Aufmerksamkeit unterscheiden, wonach also nicht bloß die
selektive Funtion in der Wahnehmung sondern auch der Handlungsaspekt und
Bewußtseinsphänomene als Funktionen der Aufmerksamkeit betrachtet werden.
2.) Aufmerksamkeitstheorien zur Wahrnehmung gesprochener Sprache?
Broadbent stellte 1958 eine Theorie zur Wahrnehmung gesprochener Sprache vor, die Filtertheorie.
Die Grundannahme besteht darin, daß die sensorische Information das System ungehindert
durchläuft, bis sie eine Verengung, einen sogenannten Flaschenhals erreicht. Nun muß auf der Basis
verschiedener physikalischer Charakteristika entschieden werden, welche Information
weiterverarbeitet wird, die restliche Information wird ausgefiltert. Man kann sich vorstellen, daß das
Gehirn bestimmte Nervenbahnen auswählt, die besondere Aufmerksamkeit garantieren sollen.
Das Problem bei dieser Theorie war die zentrale Annahme, daß wir die Auswahl, welcher Information
wir folgen, nach physikalischen Merkmalen (Stimmlage,...) treffen. Nun gibt es Beobachtungen und
Experimente darüber, daß wir diese Auswahl eher anhand des semantischen Inhalts treffen.
So schlug Treisman 1964 eine Modifikation des Broadbent-Modells vor, die Dämpfungstheorie. In
diesem Modell wird angenommen, daß bestimmte Information zwar gedämpft, jedoch nicht aufgrund
ihrer physikalischen Eigenschaften völlig herausgefiltert werden.
Eine dritte Erklärung bieten 1963 Deutsch und Deutsch in ihrer Theorie der späten Auswahl an.
Danach wird die Auswahl der Information manchmal aufgrund des körperlichen Organs, manchmal
aufgrund des semantischen Inhalts getroffen. Sie vertreten die Ansicht, daß die gesamte Information
völlig ungedämpft verarbeitet wird. Ein Reaktionsfilter (im Gegensatz zu Treismans
Wahrnehmungsfilter) tritt erst auf, nachdem der Reiz einer Analyse des verbalen Inhalts unterzogen
wurde. Man kann verschiedene Informationen wahrnehmen, aber zu jedem Zeitpunkt immer nur eine
beachten, nicht etwa aufgrund der Begrenzung der Kapazität des Wahrnehmungssystems, sondern
aufgrund der Begrenzung der Kapazität des Reaktionssystems.
3.) Aufmerksamkeitstheorien zur visuellen Verarbeitung?
Bei der visuellen Wahrnehmung ist die Kapazitätsbegrenzung groß. Wir registrieren nur einen
bestimmten Anteil des visuellen Feldes und das Bild auf der Retina weist unterschiedliche Schärfe auf.
Wenn wir einen Punkt fixieren, richten wir den Bereich der maximalen Schärfe, die Fovea, genau auf
diesen Punkt.
Es trifft jedoch nicht zu, daß wir nur dem, was wir foveal fixieren, Aufmerksamkeit schenken. Ohne die
Augen zu bewegen, können wir die Aufmerksamkeit auf Positionen lenken, die bis zu 24 Grad von der
Fovea abweichen. Außerdem müssen wir fähig sein, einer interessanten, nichtfovealen Region
Aufmerksamkeit zu schenken, um diese als interessant zu identifizieren, und dann erst diesen Bereich
zu fixieren.
Eine häufige Metapher für visuelle Aufmerksamkeit ist die Spotlight-Metapher, eine Theorie, die
vertritt, daß wir unsere Aufmerksamkeit umherbewegen können, um verschiedene Teile des visuellen
Feldes zu fokussieren.
Es kann so fokussiert werden, daß es nur wenige Grade des Sehwinkels ausmacht. Je größer der
Bereich des visuellen Feldes aber ist, den das Spotlight umfaßt, desto schlechter ist die Verarbeitung
aller Teile des visuellen Feldes.
Experimente von Sperling (1960) legen die Existenz eines visuellen sensorischen Speichers nahe,
des ikonischen Speichers. Dieser Speicher kann die gesamte Information einer visuellen Anordnung
effektiv erfassen. Wird Aufmerksamkeit auf die Information gelenkt, können die Elemente
wiedergegeben werden, wird ihr keine Aufmerksamkeit zuteil, geht sie nach einer kurzen Zeit schon
verloren.
4.) Mustererkennung und Aufmerksamkeit?
Treisman hat in der Merkmals-Integrationstheorie die These vertreten, daß zuerst Aufmerksamkeit auf
den Reiz gelenkt werden muß, bevor die Merkmale zu Mustern zusammengesetzt werden können.
Experimente dazu wurden 1980 von Treisman und Gelade durchgeführt. Dabei schien überraschend
zu sein, daß Aufmerksamkeit benötigt wird, um Muster von Merkmalen zu erkennen.
Weiters untersuchten Treisman und Schmidt 1982 Merkmalskombinationen bei Stimuli, die außerhalb
des Fokus der Aufmerksamkeit liegen. Es ergab sich ebenfalls, daß wir nur dann inder Lage sind,
merkmale zu einer zutreffenden Wahrnehmung zu kombinieren, wenn wir unsere Aufmerksamkeit auf
das Objekt lenken. Ansonsten nehmen wir zwar die Merkmale gut wahr, kombinieren sie aber falsch.
Experimente von LaBerge 1973 zeigten, daß es beim Aufmerksamkeitsprozeß bei Mustererkennung
auch um die Vertrautheit der Muster geht. Bei nichtvertrauten Stimuli muß erst die Aufmerksamkeit zu
dem Muster verschoben werden und die Verschiebung kostet Zeit. Dieser Vorgang wird erleichtert,
wenn ein Vorreiz das Muster erwarten läßt (Priming).
5.) Neglect des visuellen Feldes und Aufmerksamkeit?
Es wurde gezeigt, daß Schädigungen der Gehirnareale beim Menschen, speziell im Parietallappen, zu
Defiziten der visuellen Aufmerksamkeit führen.
Beispielsweise haben Patienten mit einer solchen Schädigung Schwierigkeiten, die Aufmerksamkeit
von einer Seite des visuellen Feldes abzuziehen und sie auf jene Hälfte des visuellen Feldes zu
lenken, die durch diese Hirnregion verarbeitet wird.
Posner et al. (1984) führten dazu ein Experiment durch; Patienten erhielten einen Hinweisreiz, daß der
Stimulus rechts oder links des Fixationspunktes auftauchen wird. Der Stimulus trat in 80% der Fälle
tatsächlich an dieser Stelle auf und in 20% auf der nicht erwarteten Stelle. Wurde der Stimulus bei
Patienten mit Schädigung des rechten Parietallappens im rechten Feld dargeboten, ergab sich für die
Probanden nur ein geringer Nachteil, wenn der Stimulus nicht mit dem Hinweisreiz übereinstimmte,
beim Stimulus auf der linken Seite (mit Hinweisreiz im rechten Feld), zeigte sich ein starker Defizit.
Posner verglich dies mit dem klinischen Phänomen der visuellen Löschung bei Patienten mit einer
Schädigung des parietooccipitalen Areals. Patienten mit einer Schädigung der rechten Hirnhälfte
hatten keine Schwierigkeiten, Objekte im linken visuellen Feld - das in der geschädigten Hirnregion
verarbeitet wird - zu beachten, wird aber ein konkurrierendes Objekt im rechten visuellen Feld
dargeboten, können Sie das Objekt im linken Feld nicht mehr wahrnehmen.
Eine noch extremere Version dieser Aufmerksamkeitsstörung ist der unilaterale visuelle Neglect.
Patienten mit einer Schädigung der rechten Hirnhälfte ignorieren die linke Seite des visuellen Feldes
und Patienten mit einer Schädigung der rechten Hälfte die rechte Seite.
6.) Automatisiertheit und Stroop-Effekt?
Wir können kognitive Prozesse in 2 Klassen unterteilen, in automatische und kontrollierte Prozesse.
Automatische Prozesse beanspruchen im Gegensatz zu den kontrollierten Prozessen, wenig oder
keine Aufmerksamkeit, das heißt sie laufen ohne bewußte Kontrolle ab (z.B.: Sprachverstehen oder
Autofahren).
Je stärker Aufgaben geübt werden, desto stärker werden sie automatisiert und verbrauchen weniger
Aufmerksamkeitsressourcen. Schneider und Shiffrin führten zu dem Thema Experimente durch und
ließen etwa ihre Probanden Buchstabenfelder nach Zahlen oder bestimmten Buchstaben absuchen.
Das Erkennen von Zahlen ist ein vielgeübter und daher weitgehend automatisierter Prozeß und
verbraucht weniger Zeit als das mühsame Überprüfen jedes einzelnen Buchstabens. Sie bewiesen
außerdem, daß auch kontrollierte Prozesse bei hinreichender Übung automatisiert werden können.
Automatische Prozesse erfordern nicht nur wenig oder keine Aufmerksamkeit, ihre Ausführung scheint
auch schwer zu unterbrechen zu sein. Ein gutes Beispiel ist die Worterkennung bei geübten Lesern.
Es ist praktisch unmöglich, ein bekanntes Wort zu sehen und es nicht zu lesen.
Das Phänomen, daß Wörter eine inhaltliche Verarbeitung auslösen wird mit dem Stroop-Effekt
veranschaulicht.
Das Experimente verlangt von den Probanden die Druckfarbe (Farbe der Schrift) zu nennen, mit der
Wörter geschrieben sind, wobei das zu lesende Wort ein Farbwort oder ein neutrales Wort sein kann.
Zum Teil setzt sich das dargebotene Farbwort gegen die zu benennende Druckfarbe durch (d.h. die
Personen geben als Antwort die benannte Farbe und nicht die Farbe der Schrift), weil das Lesen ein
so stark automatisierter Prozeß ist.
7.) Doppelaufgaben - Paradigma und Erkenntnisse?
Wir versuchen in vielen Situationen, mehrere Aufgaben gleichzeitig auszuführen und dazu kann die
Anstrengung in unterschiedlichen Ausmaßen verteilt werden.
In einem repräsentativen Experiment zur Ausführung von sogenannten Doppelaufgaben ließen
Wickens und Gopher 1977 ihre Probanden gleichzeitig eine Nachführaufgabe und eine serielle
Reaktionsaufgabe durchführen. Sie wurden instruiert, der Nachführaufgabe 70, 50, 30 oder 0% ihrer
Bemühungen zuzuordnen. Es fand sich, daß eine Verbesserung der Leistung in der einen Aufgabe
immer auf Kosten der Leistung in der anderen Aufgabe geht.
Eines der Paradigmen, unter denen solche konfligierenden Anforderungen untersucht wurden heißt
Doppelreiz-Paradigma. Die Probanden sollten auf kurz aufeinanderfolgende Reize reagieren und es
wurden die dabei auftretenden Interferenzerscheinungen untersucht.
Solche Experimente führten zur Ein-Kanal-Hypothese, die besagt, daß es einen einzigen Kanal für die
Reaktion auf Reize gebe. Die Reaktion auf den 2. Reiz könne den Kanal nicht passieren, solange
noch die Reaktion auf den 1. Reiz verarbeitet würde. Aus diesem Grund sei die Reaktion auf den 2.
Reiz verzögert.
Es gibt also begrenzte Ressourcen und bei gleichzeitiger Verarbeitung mehrerer Informationen erhält
der eine Verarbeitungsprozeß in dem Ausmaß weniger Ressourcen, in dem diese dem anderen
Verarbeitungsprozeß zugeteilt werden.
Welches Ausmaß an Interferenz durch die eine auf die andere Aufgabe entsteht, hängt auch davon
ab, wie automatisiert diese Aufgabe ist .
8.) Die Theorie multipler Ressourcen?
Diese Theorie geht davon aus, daß es nicht nur eine einzige Ressource gibt, die zwischen allen
gleichzeitig auszuführenden Aufgaben aufgeteilt werden muß. Die Grundannahme ist, daß es mehrere
Ressourcen gibt und daß das Ausmaß an Interferenz zweier Aufgaben davon abhängt, ob sie die
gleiche Ressourcen beanspruchen.
Es können experimentelle Belege dafür angeführt werden, daß es schwieriger ist, zwei
Nachführaufgaben oder zwei Zahlenerkennungsaufgaben gleichzeitig auszuführen als eine
Kombination der beiden.
In einer weiteren Untersuchung ließen Vidulich und Wickens 1981 eine visuelle Nachführaufgabe und
eine Reaktionszeitaufgabe simultan bearbeiten. Die Reaktionszeitaufgabe führte zu einer stärkeren
Interferenz, wenn entweder die Reize oder die Reaktionen die gleiche Ressourcen beanspruchten,
wie die Nachführaufgabe.
Die Schwierigkeit bei dieser Theorie besteht darin, daß sie empirisch schwer zu widerlegen ist, da für
jede Interferenzkonfiguration eine Ressourcenkonfiguration postuliert werden kann.
Eine plausible Basis für diese Theorie stellen stellen unterschiedliche Modalitäten dar, für die eine
(weitgehende) Unabhängigkeit der Ressourcen angenommen werden.
Kapitel 4: Wahrnehmungsbasierte Repräsentationen
1) Was sind Repräsentationen?
Unter Repräsentationen versteht man mentale Organisationsformen, die nicht nur das individuelle
Wissen umfassen, sondern auch die Prozesse der Veränderung dieses Wissens beinhalten. Weiters
werden Ableitungen von neuem Wissen durch bewußte oder unbewußte Schlußfolgerungsprozesse
und die Generierung von Handlungsplänen mit eingeschlossen. In der Auseinandersetzung mit den
Objekten, Situationen, Ereignissen und Menschen schaffen wir ein inneres Modell, das auf diese
äußere Realitäten Bezug nimmt. Ohne diese "inneren Abbilder" wären wir nicht in der Lage,
(verändernd) auf unsere Umwelt einzuwirken. Repräsentation ist somit ein (der) zentrale Begriff der
Kognitiven Psychologie.
2) Erläuterns Sie kurz die Theorie der "Dualen Kodierung" von Paivio!
Paivio schlägt zwei voneinander unabhängige, jedoch miteinander verknüpfte Kodierungssysteme und
deren Interaktion vor - ein verbales und ein imaginales (=bildhafte Vorstellung) System.
Das verbale System bildet die linguistischen Informationen ab und verarbeitet sie. Es liefert aber auch
eine Abbildung der zeitlichen Abfolge von Informationen. Die sequentielle Arbeitsweise dieses
Systems führt zu einer internen Repräsentation, die der Wahrnehmung oder Produktion von
Wortfolgen sehr ähnlich ist - die aber keine Bedeutungsextraktion vornimmt. Im Gegensatz dazu
kodiert das imaginale System die Informationen räumlich parallel und liefert somit analoge
Abbildungen perzeptueller Gegebenheiten.Auch hierbei wird keine abstrakte Verarbeitung
angenommen.
Beide Systeme stehen in Beziehung zueinander. Bilder können sowohl bildhaft kodiert, als auch
verbal benannt und entsprechend kodiert werden. Sprachliche Inhalte können sowohl verbal kodiert,
als auch mit bildhaften Vorstellungen ergänzt und verknüpft werden.
3) Vergleichen sie verbale und visuelle Verarbeitung!
Ein Experiment von Santa veranschaulicht den Unterschied zwischen visuellen und verbalen
Repräsentationen. Er bot seinen Versuchspersonen einen visuellen Vorgabereiz (geometrische
Bedingung: Dreieck, Kreis und Quadrat), den sie sich einprägen mußten. Anschließend wurde sofort
eine Anzahl von Prüfreizen präsentiert. Der erste Prüfreiz war ident mit dem Vorgabereiz, der zweite
wurde in linearer Folge präsentiert. Die Versuchspersonen mußten nun entscheiden, ob die Prüfreize
die gleichen Elemente enthalten. Ergebnis: Die Probanden erkannten den ersten Reiz schneller, da
das visuelle Gedächtnis die räumlichen Informationen des Vorgabereizes aufrechterhalten hatten.
Dann nahm er eine Abänderung seines Experimentes vor. Der Vorgabereiz wurde in Wörter exponiert,
die räumliche Konfiguration blieb ident mit dem vorigen Versuch (=Reizmaterial bot keine bildhaften
Eigenschaften). Ergebnis: Da die Probanden die Wortanordnung wie beim normalen Lesen enkodiert
hatte, das heißt von links nach rechts und von oben nach untern, reagierten sie nun am schnellsten
auf die linearen Prüfreize.
Die Befunde aus Santas Experiment legen den Schluß nahe, daß ein Teil der visuellen Informationen
(z. Bsp. geometr. Objekte) eher entsprechend ihrer räumlichen Anordnung, andere Informationen (z.
Bsp. Wörter) hingegen eher als lineare Anordnung gespeichert werden. Roland und Friberg belegten
dies durch Untersuchung der Veränderungen der Blutzufuhr im visuellen Cortex. Es zeigte sich, daß
unterschiedliche Hirnregionen in die Verarbeitung verbaler und räumlicher Informationen involviert
sind.
4) Was versteht man unter mentalen Bildern?
Mentale Bilder zeigen z. Bsp. ein Bild einer Szene oder eines Objektes vor unserem geistigen Auge.
Man kann sie auch als anschauliche Vorstellungen bezeichnen. Paivio benannte sie als die visuelle
Repräsentation der Hypothese der dualen Kodierung. Zu berücksichtigen ist aber auch, daß nicht nur
visuelle sondern auch räumliche Informationen in diesen Vorstellungen enthalten sind, die unabhängig
von den sensorischen Modalitäten sind. Neuropsychologische Befunden legen nahe, daß
verschiedene Hirnregionen für die Unterstützung der räumlichen und der visuellen Aspekte von
mentalen Vorstellungen zuständig sind. Komplexe mentale Bilder werden oft in Teilstrukturen zerlegt,
die einer hierarchischen Ordnung unterliegen. Dabei sind Teile der visuellen Vorstellung innerhalb
größerer Teile repräsentiert. Jede dieser Einheiten von Wissensrepräsentationen wird als Chunk
bezeichnet.
5) Erklären sie anhand drei verschiedener Beispiele unsere Fähigkeit zur Herstellung mentaler
Bilder (Belege für die analoge Repräsentation)!
a) Mentale Rotationen. Zahlreiche Forschungsarbeiten zu mentalen Rotationen wurden von Roger
Shepard durchgeführt. Er legte seinen Versuchspersonen paarweise zweidimensionale Darstellungen
von dreidimensionalen Objekten vor. Als Aufgabe mußten sie nun bestimmen, ob diese Paare
identisch waren oder nicht, abgesehen von der räumlichen Ausrichtung. Die Versuchspersonen gaben
an, die Übereinstimmung solcher Objektpaare dadurch herauszufinden, indem sie eines der Objekte in
ihrer Vorstellung so weit drehten, bis es mit dem anderen Objekt zur Deckung kam. Wie dieser Prozeß
genau funktioniert ist ungewiß, er scheint aber analog zur physikalischen Rotation zu verlaufen. Es
ergab sich nämlich ein linearer Zusammenhang zwischen der Zeit, bis die Versuchsperson zu einer
Übereinstimmung kam und demjenigen Betrag, um den ein Objekt rotiert werden mußte. Je weniger
der Gegenstand gedreht werden mußte, umso kürzer war die Reaktionszeit. Neuere
Untersuchungsergebnisse unterstützen, daß mentale Rotationen eine Verschiebung der Zellaktivität
mit sich bringen.
b) Scannen mentaler Bilder. Kosslyn ließ seine Versuchspersonen eine Landkarte mit verschiedenen
Objekten einprägen. Anschließend forderte er sie auf, diese Objekte in ihrer Vorstellung auf der
imaginären Landkarte Punkt für Punkt abzusuchen (=scannen).Er erhob dabei die
Reaktionszeitunterschiede in Abhängigkeit von der Entfernung zwischen den Objekten. Das Ergebnis
zeigte auch hier (wie bei Shepard), daß ein linearer Zusammenhang zwischen der Reaktionszeit und
der Distanz zweier Orte besteht. Je näher sich die Orte auf der Karte sind, umso schneller kann man
sich den zweiten vorstellen.
c) Vergleich visueller Ausprägungen. Es besteht auch die Möglichkeit, mentale Bilder (z. Bsp. Löwe
und Hund) zu relativen Größenvergleichen heranzuziehen. Der Größenvergleich zweier vorgestellter
Objekte - genau wie der zweier wahrgenommener Objekte - ist umso schwieriger, je ähnlicher sich die
Objekte hinsichtlich der Größe sind.
6) Entsprechen visuelle Vorstelllungen der visuelle Wahrnehmung?
Wenn man Operationen an mentalen Bildern ausführt, so scheinen diese Prozesse analog zu den
Operationen an physikalischen Objekten zu verlaufen. Trotz vieler Gemeinsamkeiten zwischen
visuellen Vorstellungen und visuellen Wahrnehmungen sind die beiden nicht ident. Ein wesentlicher
Unterschied ist der, daß die Aktivität des visuellen Cortex während einer mentalen Vorstellung
wesentlich größer ist. Weiters ist es viel schwieriger für visuelle Vorstellungen eine zweite
Interpretation zu finden (=zu reinterpretieren). Obwohl mentale Bilder beliebig veränderbar sind,
kommt es nur selten zu Verwechslungen zwischen mentalen Vorstellungen und
Wahrnehmungsbegebenheiten. In Fällen psychischer Krankheiten kann es allerdings manchmal zum
Verlust dieser Fähigkeit kommen. Diese Menschen sind dann nicht mehr in der Lage, zwischen
Realität und Phantasie zu unterscheiden.
7) Beschreiben sie kurz die Repräsentation serieller Ordnungen!
Die Repräsentation serieller Ordnungen ist die zweite Art der Wissensrepräsentationen nach Paivios
Schema der dualen Wissensrepräsentation. Er entdeckte, daß allein die Tatsache, daß es verbale
Repräsentationen gibt, die Situation noch nicht ausreichend erklärt wird. Es gibt Komponenten
verbaler Repräsentationen, die mit serieller Ordnung zu tun haben, die auf mehr als nur verbales
Material zuzutreffen scheinen.Wörter sind demnach nur eine Art von Objekten, die man seriell
anordnen kann, sowie z. Bsp. Akten oder Ereignisse. Menschen neigen dazu, eher serielle
Ordnungen abzubilden, als verbales Material zu verarbeiten.
Folgende Experimente wurden dazu durchgeführt: Versuchspersonen mußten eine Buchstabenreihe
wie z. Bsp. KRTB lernen. Anschließend legte man ihnen eine neue Kombination vor und sie mußten
erkennen, ob es sich um eine Variation der ersten Reihe (z. Bsp. KRBT) handelte. Die
Versuchspersonen kamen viel schneller zu einem Urteil, wenn die ersten beiden Buchstaben identisch
waren, als wenn alle Buchstaben vertauscht waren. Daraus ließ sich der Schluß folgern, daß seriell
geordnete Informationen so repräsentiert werden, daß die Informationen der Anfangs- und der
Endelemente am leichtesten erreicht werden können (=Anfangsanker- /bzw. Endankereffekt). Weiters
mußten die Versuchspersonen eine Reihe von Zahlen auswendig lernen (z. Bsp. 3241). Dann nannte
der Versuchsleiter eine Zahl aus der Reihe (z. Bsp. 4) und die Probanden hatten die darauffolgende
Zahl (hier: 1) zu nennen. Es zeigte sich, daß die Versuchspersonen stets zur ersten Ziffer den
schnelleren Zugang hatten und zum Ende der Reihe hin immer langsamer wurden. Man folgte daraus,
daß die serielle Suche entlang einer Informationsstruktur durchgeführt wird. Weitere Versuche zeigten
noch, daß bei längeren Folgen Elemente hierarchisch in Unterfolgen und höhere Folgen eingeteilt
werden. Je weiter zwei Elemente innerhalb einer linearen Ordnung voneinander entfernt sind, desto
schneller kann ihre relative Position bestimmt werden.
8) Mit welcher Regel können synaptische Assoziationsstärken gelernt werden?
Mit Hilfe der Delta-Regel können synaptische Assoziationsstärken gelernt werden. Gluck und Bower
definierten diese weitverbreitete neuronale Lernregel. Sie lautet: Delta Aij=a.Ai(Tj-Aj), wobei Delta Aij
die Veränderung der Stärke der synaptischen Verbindungen von der Eingabe i zur Ausgabe j
bezeichnet. Ai ist die Aktivationshöhe des Eingabeneurons i, Aj die Aktivationshöhe des
Ausgabeneurons j. Tj ist die Soll-Aktivation von j. Der Parameter a in der Gleichung steuert die
Lernrate. Diese Regel ist im wesentlichen eine Regel zur Fehlerkorrektur. Sie zielt darauf ab, die
Assoziationsstärken zwischen den Neuronen so zu verändern, daß die Differenz zwischen der
tatsächlichen Aktivation (der Ist-Aktivation) und der Soll-Aktivation der Ausgabeneuronen minimiert
wird. Der interessante Aspekt liegt darin, daß die Schemarepräsentation im wesentlichen in den
synaptischen Gewichten lokalisiert ist. Die synaptische Verbindungsstärke zwischen einem Eingabeund einem Ausgabeneuron ist im Grunde genommen ein Maß dafür, wie typisch verschiedene
Merkmale für eine Kategorie sind.
Kapitel 5: Bedeutungsbezogene Repräsentationen
1) Bedeutungsbezogene Gedächtniseffekte?
Es gibt das bedeutungsbezogene Gedächtnis für verbale und visuelle Informationen. Auf den verbalen
Bereich bezogen ist es natürlich möglich, Informationen mit Hilfe der linearen Ordnung in exakter
Reihenfolge der Wörter zu speichern, z. Bsp. einzelne Teile von Gedichten oder Liedern. Allerdings
sind wir nicht in der Lage, jede erhaltene Information immer wortwörtlich zu speichern. Aus diesem
Grund führte Wanner ein Experiment durch, das die Umstände illustrierte, unter denen sich Menschen
an die Informationen im genauen Wortlaut erinnerten oder nicht. Er fand heraus, das
Wortlautveränderungen, die zu Bedeutungsunterschieden führten, besser erinnert wurden als
Wortlautveränderungen die lediglich eine stilistische Veränderung hervorriefen. Die Überlegenheit des
bedeutungsbezogenen Gedächtnisses weist darauf hin, daß der Mensch normalerweise die
Bedeutung einer sprachlichen Nachricht extrahiert und sich nicht an den ganzen Wortlaut erinnert. Es
gehört somit zum üblichen Verstehensprozeß, sich die Bedeutung einer Äußerung zu merken. Wird
man allerdings dazu angehalten, ist man in der Lage, die Aufmerksamkeit auf die genaue Information
zu lenken. Unser Gedächtnis scheint eine weit höhere Kapazität für visuelle Informationen zu besitzen
als für verbale Infromationen. Dazu wurden viele Experimente durchgeführt (z. Bsp. von Shepard), die
alle zu einer analogen Schlußfolgerung des Wanner´schen Experimes führten: Versuchspersonen
sind besonders empfindlich für bedeutungsbezogene Veränderungen eines Bildes, an
Oberflächendetails können sie sich aber nur schlecht erinnern. Ist die wahrnehmungsbezogene
Information (egal ob Satz oder Bild) erst einmal vergessen, dann merkt man sich nur noch die
Bedeutung bzw. die Interpretation. Es zeigte sich auch, daß man wenig bedeutungshaltiges Material
dann leichter behalten kann, wenn man es in bedeutungshaltiges Material umwandelt.
2) Definieren sie den Begriff "Propositionen" und was versteht man unter propositionalen
Darstellungen?
Eine Proposition ist die kleinste Wissenseinheit, die eine selbständige (das heißt von anderen
Wissenseinheiten unabhängige) Aussage bilden kann. Damit ist die Proposition die kleinste Einheit,
sie sich sinnvoll als wahr oder falsch beurteilen läßt. Eine propositionale Darstellung ist ein
Notationssystem, das die bedeutungsbezogenen Strukturen beschreibt, wenn man die
wahrnehmungsbezogenen Details abstrahiert. Kintsch (1974) beschrieb jede Proposition als eine
Struktur, die aus einer Relation und einer geordneten Menge von Argumenten besteht. Im deutschen
Sprachgebrauch wird die Relation einer Proposition meist als Prädikat bezeichnet, das die Struktur der
Argumente organisiert. Propositionale Analysen stellen das Erinnerungsvermögen für komplexe Sätze
an Hand einfacher, abstrakter propositionierter Einheiten dar.
3) In welcher Form können Propositionen dargestellt werden?
Man trifft oft auf Propositionen, die entweder in Form eines Netzwerkes oder als eine Menge linearer
Propositionen dargestellt werden. Die lineare Darstellung ist etwas übersichtlicher und kompakter,
dafür hebt die Netzwerkstellung die Verbindungen zwischen den Elementen (=Knoten des
Netzwerkes) deutlich hervor. Die räumliche Anordnung der Elemente in einem Netzwerk ist für seine
Interpretation völlig irrelevant - es kommt nur darauf an, welche Elemente mit welchen verknüpft sind.
Eine Reihe von Experimenten spricht dafür, daß es sinnvoll ist, sich die Knoten in solchen Netzwerken
als Vorstellungen und die Verbindungen zwischen den Knoten als Assoziationen zwischen diesen
Vorstellungen zu denken. Als Beweis gilt hierfür auch z. Bsp. der Versuch von Weisberg, der
Assoziationsaufgaben verwendete.
4) Erläutern Sie zwei Ansätze zur Repräsentation konzeptuellen Wissens!
a) Semantische Netzwerke. Auch hier werden netzwerkartige Repräsentationen herangezogen. Nach
Quillian speichern Menschen die Informationen über verschiedene Kategorien z. Bsp. Dorsch, Vogel
usw. in einer Netzwerkkonstruktion ab. Zu jeder Kategorie gibt es einen Hierarchieaufbau - Dorsch ist
ein Fisch, Fisch ist ein Tier. Diese Verbindung erfolgt über sogenannte "isa-Verbindungen"
(=Oberbegriff-/Unterbegriffrelation) zwischen den jeweiligen Kategorien. Mit den einzelnen Kategorien
sind die jeweils zutreffenden Eigenschaften verbunden. Eigenschaften, die für Kategorien auf einer
höheren Hierarchieebene zutreffen, gelten auch für die darunterliegenden Ebenen. Quillian testete
nun, ob die Versuchspersonen nach ihrem kategorialen Wissen reagierten oder ob noch andere
Einflußfaktoren auf den Zugriff zu bestimmten Informationen eine Rolle spielten. Seine Testergebnisse
zeigten, daß sowohl der Abstand zwischen zwei Konzepten als auch die verwendete Häufigkeit
(=Erfahrungshäufigkeit) eines Konzeptes inklusive dessen Assoziationen die Zugriffsgeschwindigkeit
zu bestimmten Informationen bestimmt.
b) Schemata. In Schemata ist kategoriales Wissen in Form einer Struktur von Leerstellen
repräsentiert; solche Leerstellen nennt man in diesem Zusammenhang Slots. In die Slots eines
Schemas werden die Ausprägungen, die die einzelnen Exemplare einer Kategorie auf verschiedene
Attribute besitzen, eingesetzt. Z. Bsp. Schema: Haus, Slot: Form, Ausprägung: rund oder oval.
Merkmale eines Schemas können propositionaler Natur , z. Bsp. Häuser dienen dem Menschen als
Wohnung oder perzeptueller Art - z. Bsp. die Größe betreffend - sein. Dadurch können Schemata das
repräsentieren, was bestimmten Dingen in der Regel gemeinsam ist. Eine Hierarchie wird in
Schematas über "isa-Verbindungen" und über eine "Teil-Ganzes-Beziehung" aufgebaut. Sie
repräsentieren Konzepte in Form von Oberbegriffen, Teilen und anderen Zuweisungen von
Ausprägungen zu Attributen.
5) Wie kann die psychische Ralität von Schemata belegt werden?
Es gehört zu den Kennzeichen eines Schemas, daß es für bestimmte Attribute Default-Werte
(=typische Ausprägungen einzelner Attribute) annimmt. Dadurch sind Schemata mit einerm nützlichen
Schlußfolgerungsmechanismus ausgestattet. Wenn man erkennt, daß ein Objekt einer bestimmten
Objektklasse angehört, kann man daraus folgern, daß es - sofern kein expliziter Widerspruch besteht diejenigen Default-Werte besitzt, die mit dem Schema des entsprechenden Objektklassenkonzepts
assoziiert sind. Brewer und Treyens bewiesen diesen Effekt mit einem Versuch. Einzelne
Versuchspersonen wurden in einen Raum gebracht, den sie für das Büro des Versuchsleiters hielten.
Nach kurzer Zeit wurden sie in den Nebenraum geholt und erhielten die Instruktion, alles
aufzuschreiben, was sie aus dem Büro (=Experimentalraum) noch im Gedächtnis hatten. Das
Befundmuster ergab sich wie erwartet. Die Wiedergabe von Gegenständen, die zu einem BüroSchema dazugehörten, war sehr gut. Jene Ausstattungsgegenstände, die nicht zum Büro-Schema
gehörten, wurden kaum benannt. Es kam sogar vor, daß einige Versuchspersonen Büroutensilien
nannten, die sich gar nicht im Experimentalraum befanden. Dies bedeutet, daß Menschen davon
ausgehen, daß ein Objekt die Default-Werte seiner Objektklasse besitzt, solange sie nicht explizit
etwas anderes feststellen.
6) Einflüsse auf Klassenzugehörigkeit in Begriffen und Schemata?
Eine wichtige Eigenschaft der Schemata besteht darin, daß die Objekte, die zu einem Schema
passen, gewisse Unterschiede aufweisen können. Daraus kann man die Erwartung ableiten, daß es
keine festen Kategoriegrenzen (= unterschiedliche Bergiffe) gibt, weil ein Objekt noch nicht allein
deshalb von der Zugehörigkeit zu einer Kategorie ausgeschlossen wird, weil es nicht die typischen
Default-Ausprägungen aufweist. Labov zeigte dies 1973 in einem Experiment. Er versuchte
herauszufinden, welche Figuren noch als Tasse bezeichnet werden und welche nicht. Seine
Darstellungen dieses Gefäßes reichten von einer Tasse über eine Schale bis hin zu einer Schüssel
(19 verschiedene Ausprägungen). Er fand heraus, daß der Übergang fließend bewertet wurde und
daß die Klassifikationsurteile auch mit dem Kontext variierten, in dem man sich die Objekte vorstellte
bzw. indem sie den Versuchspersonen dargeboten wurden.
7) Belege und Effekte von Handlungsschemata (Scripts)?
Er weist die entwickelte Variante eines Ereignischemata auf, das sich Script nennt. Darin wird
hervorgehoben, daß in vielen Zusammenhängen stereotype Handlungssequenzen auftreten. Bower,
Black & Turner berichteten über eine Experimentalreihe zur Prüfung der psychischen Realität von
Scripts. Sie ließen ihre Versuchspersonen die aus ihrer jeweiligen Sicht wichtigsten 20 Teilergebnisse
einer Episode aufzählen, z. Bsp. die eines Restaurantbesuches. Innerhalb der gesamten
Versuchspersonen gab es keine vollständige Übereinstimmung über die Teilergebnisse. Dennoch
waren beträchtliche Übereinstimmungen in stereotypen Abfolgen zu finden - wie z. Bsp. Platz
nehmen, Speisekarte lesen, bestellen, essen, bezahlen und gehen.. Bower, Black & Turner wiesen
außerdem eine Reihe von Effekten nach, die solche Handlungsscripts auf die Erinnerung an
Ereignisabläufe haben. Insgesamt ergibt sich aus den vielen Experimenten der Hinweis, daß neue
Ereignisse unter Berücksichtigung solcher allgemeinen Schemata enkodiert werden und daß auch die
spätere Wiedergabe unter dem Einfluß der Schemata steht. Sie bilden damit eine nützliche Grundlage
für das Auffüllen fehlender Informationen und für die Berichtigungen falscher Informationen.
8) Theorien zum Konzepterwerb?
Es gibt zwei allgemeine Klassen solcher Theorien, die Abstraktionstheorien (auch Theorien der
Begriffsbildung) und die Exemplartheorie (Prototypentheorien).
Die Abstraktionstheorie vertritt die These, daß wir Schemata speichern, indem wir bestimmte
allgemeine Merkmale und Eigenschaften abstrahieren. Dazu gehören Modelle, in denen der Mensch
einen einzigen Prototyp eines Exemplares der jeweiligen Kategorie speichert. Anhand dieser Kriterien
werden dann andere Exemplare, die eine Ähnlichkeit aufweisen, enkodiert. In anderen Modellen
speichert der Mensch Repräsentationen als Prototyp, der dann wieder zur Enkodierung ähnlicher
Repräsentationen herangezogen wird.
Die Exemplartheorien nehmen an, daß wie kein zentrales Konzept speichern, sondern nur einzelne
Exemplare. Wenn die Aufgabe dann beurteilt werden muß - z. Bsp. wie typisch ein bestimmtes Objekt
für Vögel im allgemeinen ist, vergleichen wir dieses Objekt mit bestimmten, konkret spezifizierten
Vögeln und kommen so zu einer Art Einschätzung der mittleren Unterschiede. Durch zahlreiche
Experimente konnten aber für diese beiden völlig verschiedenen Theorien ähnliche Vorhersagen
gemacht werden. Z. Bsp. erwarten beide Klassen eine bessere Verarbeitung der zentralen Mitglieder
einer Kategorie. Auch gibt es für beide Typen Realisierungsvorschläge in konnekionistischen
Modellen. Die Effekte, die im Zusammenhang mit der Struktur von Kategorien auftreten, lassen sich
sowohl durch die Annahme erklären, daß wir die zentrale Tendenz von Kategorien extrahieren, als
auch durch die Annahme, daß wir bestimmte Exemplare der Kategorien speichern.
Kapitel 6: Gedächtnis Enkodierung und Speicherung
1) Erläutern sie kurz die Geschichte des Kurzzeitgedächtnisses, seine Vorteile und seine
Kritikpunkte!
Die Theorie des Kurzzeitgedächtnisses entstand in den 60er Jahren des 20. Jahrhunderts. Vorläufer
dieser Theorie war Broadbent allerdings waren es erst Atkinson und Shiffrin, die die Theorie
systematisch entwickelten. Wenn auch heute viele Kritiken laut werden, spielt das Kurzzeitgedächtnis
vor allem in der Kognitiven Psychologie noch immer eine große Rolle. Die Theorie des
Kurzzeitgedächtnisses sagt aus, daß die mit Aufmerksamkeit versehene Informationen in ein
zwischengeschaltetes Kurzzeitgedächtnis überführt werden. Dort müssen diese Informationen
memoriert werden, bevor sie in ein relativ andauerndes Langzeitgedächtnis gelangen können. Das
Kurzzeitgedächtnis wies nur eine begrenzte Kapazität zum Behalten von Informationen auf. Eine
Zeitlang wurde seine Kapazität mit der Gedächtnisspanne gleichgesetzt. Die Gedächtnisspanne
bezeichnet die Zahl der Elemente, die man unmittelbar nach der Darbietung wiedergeben kann. Einer
anderen Sichtweise zufolge wurde angenommen, daß im Kurzzeitgedächtnis Platz für sieben
Elemente sei, obwohl andere Theoretiker - wie z. Bsp. Broadbent - der Auffassung sind, daß die
Kapazität geringer ist und die Gedächtnisspanne nicht nur vom Kurzzeitgedächtnis, sondern auch von
anderen Gedächtnissystemen abhängt. Wenn ein Item allerdings das Kurzzeitgedächtnis verlassen
hat, bevor eine dauerhafte Repräsentation im Langzeitgedächtnis aufgebaut werden konnte, dann ist
es für immer verloren. Man kann im Kurzzeitgedächtnis keine Informationen auf ewig behalten, da
ständig neue Informationen eintreffen, die die alten aus dem begrenzten Kurzzeitgedächtnis
verdrängen. Experimente von Shepard bestätigten diese Annahme. Ein anderer Grund, dieser Theorie
zuzustimmen bestand in Belegen dafür, daß das Ausmaß des Memorierens die Menge an
Informationen bestimmt, die in das Langzeitgedächtnis überführt werden. Craik und Lockhart vertraten
einen anderen Ansatz. Ihrer Meinung nach ist das Entscheidende nicht die Dauer des Memorierens,
sondern vielmehr die Tiefe, in der die Informationen verarbeitet werden. Diese sogenannte Theorie
der Verarbeitungstiefe besagt, daß das Memorieren der Gedächtnisleistung nur dann verbessert wird,
wenn man das Material in einer tieferen und bedeutungshaltigeren Art und Weise memoriert.
Experimente bestätigten auch diese Annahme. Demzufolge können Informationen auch von
sensorischen Gedächtnissystemen ins Langzeitgedächtnis gelangen.
2) Baddeleys Arbeitsspeichertheorie (Arbeitsgedächtnistheorie)?
Zahlreiche empirische Bekege sprechen gegen die Annahme eines separaten Kurzzeitspeichers.
Andererseits beobachten wir das Phänomen, dass die Informationsmenge beim Memorieren
beschränkt ist. Dazu vertritt Baddeley (1986) die Ansicht, daß der bestimmende Punkt für den
Umfang der Gedächtnisspanne darin liegt, wie schnell man das jeweilige Material memorieren kann
(was durch den Wortlängeneffekt belegt wird).
Im Hinblick auf verbales Material schlägt er eine artikulatorische Schleife (articulatory loop) vor, in der
man so viele Informationen halten kann - soviele man in einer bestimmten Zeitdauer memorieren
kann. Einer der auffälligsten Belege dafür ist der Wortlängeneffekt. Es wurde experimentell
nachgewiesen, daß man sich mehrere kürzere Wörter besser merkt als die gleiche Anzahl von
längeren Wörtern.
Einen weiteren Mechanismus stellt der visuelle Notitzblock (visuospatial sketchpad) dar. Er wird zum
Memorieren von Bildern verwendet.
Die zentrale Exekutive (central executive) kontrolliert den Einsatz dieser verschiedenen Hilfssysteme.
Sie kann Informationen in jedes dieser Hilfssysteme einspeisen oder Informationen aus diesen
Systemen abrufen. Weiterhin kann sie die Informationen eines Systems in ein anderes System
übersetzen. Baddeley nimmt für die zentrale Exekutive in Anspruch, daß diese einen eigenen
Übungsspeicher für Informationen benötigt, um Entscheidungen über die Kontrolle der Hilfssysteme
zu treffen.
Baddely schlägt also eine artikulatorische Schleife und einen visuell räumlichen Notizblock vor, die
durch den Einsatz der zentralen Executive kontrolliert werden. Der Unterschied zum
Kurzzeitgedächtnis liegt darin, daß Informationen keine Verweildauer in der artikulatorischen Schleife
haben müssen, um ins Langzeitgedächtnis gerlangen zu können. Die artikulatorische Schleife ist
vielmehr ein Hilfssystem um Informationen verfügbar zu halten.
3) Welche Erklärungsansätze gibt es zur Aktivation des Langzeitgedächtnisses und wie breitet
sich diese aus?
Es gibt viele Theorien, die von der Annahme ausgehen, daß die Verfügbarkeit verschiedener
Informationsteile im Langzeitgedächtnis von Zeitpunkt zu Zeitpunkt variieren können.
Die SAM-Theorie von Gillund und Shiffrin spricht von Bildern, die mehr oder weniger aktiviert werden,
in Abhängigkeit der Hinweisreize des Kontexts. Eine andere Theorie, die ACT-Theorie (adaptive
control of thought) von Anderson besagt, daß Gedächtnisspuren durch die Darbietung assoziierter
Konzepte aktiviert werden. Die zugrundeliegende Idee dabei ist, daß kurz nachdem man die
Information benutzt hat, diese sehr gut verfügbar ist - dann aber schnell wieder vergessen wird, wenn
sie nicht benutzt oder memoriert wird. Die Aktivationshöhe bestimmt die Wahrscheinlichkeit des
Zugriffs auf das Gedächtnis, so wie auch die Häufigkeit des Zugriffs. Häufigkeitseffekte können
dadurch aufgezeigt werden, indem man die Geschwindigkeit bestimmt, mit der man Informationen aus
dem Langzeitgedächtnis abruft. Die Aktivationsausbreitung setzt die Rahmenvorstellung eines
Netzwerks voraus und bezeichnet damit die Annahme, daß sich die Aktivation entlang der Pfade eines
solchen Netzwerks ausbreitet. Zu beachten ist, daß der Aktivationausbreitungsprozeß nicht völlig der
Willenskontrolle unterliegt. Viele Experimente haben diese unbewußte Bahnung von
Wissensstrukturen, die durch Aktivationsausbreitung erfolgt, nachgewiesen. Man nennt dies auch
assoziatieves Priming. Es zeigte sich, daß je stärker die Aktivationsausbreitung zu einem bestimmten
Material ist, diese umso schneller abgerufen werden kann. Ein weiterer Effekt zeigt, daß die Menge an
Aktivation, die sich zu einem Gedächtnisinhalt ausbreitet, von der Stärke dieses Gedächtnisinhaltes
abhängt.
4) Was besagt das Potenzgesetz des Lernens und worin besteht der Zusammenhang zur
Langzeitpotenzierung?
Die Verbesserung der Gedächtnisleistung folgt einer Potenzfunktion des Übens. Jedesmal, wenn man
eine Gedächtnisspur benutzt, wird ihre Stärke etwas ansteigen. Die Stärke einer Spur bestimmt zum
Teil wie stark sie aktiviert werden kann. Damit bestimmt sie auch, wie zugänglich sie sein wird. Die
Stärke einer Spur kann allmählich durch wiederholte Übung gesteigert werden. Diese Übungseffekte
wirken sehr stark auf den Gedächtnisabruf. Neewll und Rosenbloom nannten diesen Zusammenhang
Potenzgesetz des Lernens. Potenzgesetz deshalb, da die Übergangsmenge P zur Potenz erhoben
wird. Diese Potenzbeziehung zwischen der Leistung (gemessen durch Reaktionszeit und durch einige
andere Maße) und der Übergangsmenge ist ein allgegenwärtiges Phänomen beim Lernen, daß durch
viele Experimente belegt wurde. Das Potenzgesetz steht im Zusammenhang mit grundlegenden
neuronalen Veränderungen, die beim Lernen entstehen. Eine Art des neuronalen Lernens ist die
sogenannte Langzeitpotenzierung (long-term-potentation=LTP). Die LTP tritt im Hippocampus und in
Arealen des Cortex auf und ist eine Form des neuronalen Lernens, die mit Maßzahlen des Lernens
auf Verhaltensebene korrespondiert. Wenn eine Nervenbahn mit hochfrequentem Strom stimuliert
wird, hat dies eine gesteigerte Sensibilität der Zellen entlang dieser Nervenbahn für weitere
Stimulationen zur Folge. Barnes überprüfte dieses Phänomen an Ratten. Sein Ergebnis zeigt, daß
auch diese Form des neuronalen Lernens einem Potenzgesetz zu folgen scheint.
5) Welche Auswirkungen haben die elaborative Verarbeitung und die Absicht, etwas lernen zu
wollen, auf die Gedächnisleistung?
Es gibt Belege dafür, daß nicht nur die bedeutungshaltige Verarbeitung , sondern auch eine verstärkt
elaborative Verarbeitung zu einem besserem Behalten führt. Die elaborative Verarbeitung besteht aus
einer Anreicherung des zu behaltenden Materials um zusätzliche Informationen. Selbst wenn sich
diese Verarbeitung nicht auf die Bedeutung des Materials bezieht, führt diese Verarbeitung zu einem
besseren Behalten.
Weiters stellte sich heraus, daß es für die Gedächtnisleistung entscheidend ist, wie man das Material
verarbeitet und nicht, ob man beabsichtigt, das Material zu lernen. Forschungen zu inzidentellem
versus intentionalem Lernen zeigten, daß wenn ein Individuum die gleichen mentalen Aktivitäten beim
nicht intendierten wie beim intendierten Lernen ausführt, sich daraus jeweils die gleichen
Gedächtnisleistungen ergeben. Man zeigt nur typischerweise bessere Gedächtnisleistungen, wenn
man das Lernen beabsichtigt, weil man mit größerer Wahrscheinlichkeit Aktivitäten ausführt, die
besser für eine gute Gedächtnisleistung geeignet sind, wie z. Bsp. das Memorieren und die
elaborative Verarbeitung.
6) Was ist die PQ4R-Methode?
Die PQ4R-Methode ist eine von vielen Methoden, die die Behaltensleistung für Texte durch
elaborative Verarbeitung fördert. Der Name PQ4R-Methode leitet sich aus den sechs Phasen ab, die
zur Erarbeitung eines Lehrbuchkapitels vorgeschlagen werden und ist ein Akronym der
Anfangsbuchstaben der englischen Bezeichnungen dieser Phasen.
1) Vorprüfung (preview). Man überfliegt das Kapitel, um allgemeine Themen zu bestimmen, die darin
angesprochen werden. Dabei identifiziert man die Abschnitte, die als Einheit zu lesen sind.
2) Fragen (questions). Man formuliert Fragen zu den Abschnitten. Oftmals genügen
Umformulierungen der Abschnittsüberschriften, um angemessene Fragen zu erhalten.
3) Lesen (read). Man liest den Abschnitt sorgfältig und versucht, die eigenen, gestellten Fragen mental
zu beantworten.
4) Nachdenken (reflect). Man versucht, den Text während des Lesens zu verstehen, Beispiele zu
finden und ihn in Bezug zum eigenen Vorwissen zu stellen.
5) Wiedergeben (recite). Hat man den Abschnitt fertig bearbeitet, sollte man sich an die darin
enthaltene Information erinnern und die Fragen beantworten. Bei Schwierigkeiten kann man in den
jeweiligen Textpassagen nachlesen.
6) Rückblick (review). Nachdem man das Kapitel beendet hat, geht man es im Gedanken noch einmal
durch und versucht wiederum, mental die gestellten Fragen zu beantworten.
7) Erklären sie kurz den Frequency-Validity-Effekt und seine Erklärungsansätze.
Oftmals sind Menschen gezwungen, sich über die Wahrheit/Unwahrheit einer Aussage eine Meinung
zu bilden, obgleich ihnen die Information, die eine sichere Beurteilung ermöglichen würde,
gegenwärtig nicht zur Verfügung steht. Dadurch behält man nun einen Indifferenzstandpunkt
(Wahrheit/Unwahrheit der Aussage sind gleich wahrscheinlich), oder aber man fällt auf der Grundlage
der unmittelbar zugänglichen Information eine Eintscheidung unter Vorbehalt. Als erste untersuchten
Hasher, Goldstein und Toppino den Einfluß der Wiederholung derselben Aussage auf das
Urteilsverhalten unter experimentell kontrollierten Bedingungen - den sogenannten FrequencyValidity-Effekt. Hasher ging davon aus, das Menschen äußerst kompetent und zuverlässig
Informationen über Ereignishäufigkeiten verarbeiten, speichern und abrufen können. Die Güte dieser
frequentistischen Information rührt daher, daß sie automatisch enkodiert wird. Es gilt: Je größer die
erinnerte Darbietungshäufigkeit einer Aussage, desto größer ist die subjektive Überzeugung in deren
Richtigkeit. Diese Untersuchungen zeigten, daß sich dieser Effekt unabhängig davon, ob die
Darbietung der Aussagen durch wenige Minuten oder Wochen getrennt wurden, manifestiert. Die
Aussagen "Es wird gemeinhin geglaubt, daß ...(=affirmativ) versus "Wenige Leute glauben, daß
...(diskreditiv) haben nur den Effekt, daß die Erinnerungswahrscheinlichkeit an die Details der
Aussagen beeinflußt werden. In einem diskreditierenden Kontext erlernte Details werden weniger gut
erinnert. Bacon allerdings fand heraus, daß die kritische Variable, die den Frequency-Validity-Effekt
bedingt, nicht der faktische (wiederholt vs. nicht wiederholt) sondern der subjektive, zugeschriebene
Status (alt/neu) der Aussage ausschlaggebend ist. Er war der Meinung, daß dies die materielle
Grundlage dieses Effekts darstellt. In der Literatur wird zur Zeit der Standpunkt diskutiert, inwiefern die
Bacon´sche Annahme mit der Annahme von Hasher in Beziehung steht.
8) Erklären sie kurz den Hindsight-Bias-Effekt und seine Erklärungsansätze.
Der Hindsight-Bias (im Deutschen gelegentlich Rückschaufehler) beschreibt die Annäherung der
Erinnerung einer früher geäußerten Meinung an die inzwischen bekannt gewordene korrekte Antwort.
Nach Hawkins und Hastie wurden bislang vier allgemeine Strategien - 1) direkte Erinnerung an das
ursprüngliche Urteil, 2) anchoring and adjustment-Prozesse, 3) Neubeurteilung und 4) motivational
bedingte Adjustierungsprozesse - entwickelt, die dem Erinnerungsurteil innerhalb eines HindsightBias-Design zugrunde liegen. Die erste Strategie besteht darin, das ursprüngliche Urteil direkt aus
dem Langzeitspeicher abzurufen. Da dies aber nicht immer möglich ist und da der Hindsight-Bias nicht
auftreten würde, sobald alle Urteile direkt erinnert werden können, liegt die Vermutung nahe, daß das
Vergessen des ursprünglichen Urteils eine notwendige Bedingung zur Ausbildung des Hindsight-Bias
ist. Die zweite Strategie, das Erinnerungsurteile anchoring and adjustment-Prozessen zugrunde liegen
besagt, daß zunächst nach dem Erhalt der Informationen eine geformte Wissensbasis und eine
subjektive Sicherheit als Ausgangspunkt gewählt wird. Dieser Ausgangspunkt wird dann sukzessive
angepaßt (z. Bsp. durch die Frage "Was wußte ich denn bereits damals?"), um zu einem
Erinnerungsurteil zu gelangen, welches das ursprüngliche Wissen und die ursprüngliche subjektive
Sicherheit über das Ereignis wiederspiegelt. Kritikpunkte bilden hier die Fakten, daß diese Strategie
für wahre und falsche Ereignisse zu gleich großen Effekten führen soll. Tatsächlich ist der HindsightBias für wahre Ereignisse aber größer. Auch wurde nicht klar entschlüsselt, wie der
Adjustierungsprozeß genau funktioniert und warum dieser Prozeß Verzerrungen mit sich bringt. Die
dritte Strategie besteht in der Neubeurteilung des Ereignisses. Dieser Prozeß wird wiederum in drei
Stufen unterteilt - die Informationssammlung, -bewertung und -integration). Sammelt man
Informationen, kann man sich danach nur noch selektiv an die konkrete Wissensbasis erinnern.
Aschließend stellt man eine kausale Beziehung zwischen dem eigenem Vorwissen und den
Informationen her. Zuletzt wird dann dieses Modell über eine ganze Klasse von Ereignissen revidiert,
wobei Hinweisreize ihre Aussagekraft verlieren. Die letzte Strategie ist durch den Einfluß
motivationaler Variablen geprägt, wie z. Bsp. vorteilhafte Selbstdarstellung. Dadurch kann das
eigentlich gefällte Urteil verzerrt werden. Allerdings ist dieser Ansatz noch sehr stark eingeschränkt,
da die bis jetzt untersuchten Effekte eher gering sind oder nur in Interaktion mit kognitiven Variablen
zum Tragen kommen, die bekanntermaßen konzeptuell sehr schwer zu trennen sind.
Kapitel 7: Gedächtnis Behalten und Abruf
1) Stellen Sie die Interferenztheorie der Zerfallstheorie gegenüber und erörtern Sie deren
Bedeutung bei der Erklärung des Vergessens von Gedächtnisinhalten.
Nach der Theorie des zeitlichen Verfalls (decay Theorie) ist das Vergessen ein passiver
Prozeß, innerhalb dessen sich die Information spontan abschwächt oder zerfällt, wenn die Zeit
verstreicht. Demgegenüber geht die Interferenztheorie davon aus, daß das Vergessen nicht
einfach aus dem Verstreichen der Zeit resultiert, sondern mit Ereignissen zusammenhängt, die
mit dem zeitlichen Verstreichen auftreten. Hiebei unterscheidet man zwischen "proaktiver
Hemmung", bei welcher der Abruf der gelernten Information von Ereignissen beeinträchtigt
wird, die vor dem Lernen selbst aufgetreten sind, und "retroaktiver Hemmung", bei welcher
der Abruf gelernter Information von Ereignissen gestört wird, die nach dem Lernen folgen.
Ebbinghaus hatte bei seinen Forschungen zur Behaltensfunktion berichtet, daß nach langen
Behaltensintervallen das Ausmaß des Vergessens anstieg. Derartige Beobachtungen bildeten
um die Jahrhundertwende die Grundlage für die Zerfallstheorie. Untersuchungen von Jenkins
und Dallenbach (1924), die eine Gruppe von VPs nach Lernen einer Liste sinnloser Silben
während des Retentionsintervalls schliefen ließ, währen die andere Gruppe wach blieb,
zeigten jedoch, daß das Ausmaß an Vergessen bei beiden Gruppen nicht gleich groß war;
vielmehr hatten die wach gebliebenen VPs deutlich mehr vergessen. Obgleich die VPs, die
während des Retentionsintervalls geschlafen hatten, auch einiges vergessen hatten, begründete
Ekstrand (1972) dies mit der Tatsache,daß man beim Schlafen träumt und daher das
Vergessen durch Ereignisse gesteuert wurde, die in dieser Zeit auftraten und nicht durch
bloßes Verstreichen der Zeit.Studien von Baddeley und Scott (1971), die die Effekte des
zeitlichen Verfalls beim Fehlen proaktiver Hemmung überprüften, zeigten jedoch, daß das
Ausmaß des Vergessens mit der Dauer des Retentionsintervalls stieg. Nach Baddeley (1976)
sollten beide Theorien jedoch nicht als Konkurrenten angesehen werden, vielmehr wirken und
interagieren sie oft zusammen. Wenn eine Information im Laufe der Zeit verfällt, wird sie
vermutlich auch weniger distinktiv. Der Verlust der Distinktivität führt zu Interferenzen, da
die Information schwer abrufbar wird.
2) Beschreiben Sie mögliche Einflüsse von Interferenzeffekten auf die Reaktionszeit beim
Abruf von Gedächtnisinhalten (Fächereffekt).
Gehen wir mit Lewis und Anderson (1976) davon aus, daß sich durch die Darbietung eines
Stimulus Aktivation von diesem Begriff zu seinen Assoziationen ausbreitet und die Menge an
Aktivation, die von einer solchen Quelle ausgehen kann, begrenzt ist. So ist naheliegend, daß
sich umso weniger Aktivation zu einer bestimmten Gedächtnisstruktur ausbreitet, je mehr
Fakten mit dieser Quelle assoziiert sind. Dieser Interferenzeffekt, von Lewis und Anderson
als "Fächereffekt" bezeichnet, zeigt den Anstieg der Reaktionszeit, der mit zunehmender Zahl
von Fakten einhergeht, die mit einem Begriff assoziiert sind (also wenn der Fächer an Fakten
größer ist).
Anderson und Lewis konnten diesen Fächereffekt auch bei Wissensbeständen nachweisen, die
außerhalb des Labors gelernt wurden und mit neuen, im Labor gelernten Fakten interferierten.
Untersuchungen zeigten, daß, je mehr Phantasiefakten über eine bekannte Persönlichkeit
gelernt wurden, das Wiedererkennen eines bereits gewußten Faktums über dieses Individuum.
Bradshaw und Anderson stellten fest, daß Interferenzen jedoch nur dann auftreten , wenn
verschiedene Gedächtnisinhalte, die keine innere Beziehung zueinander haben, gelernt
werden. Das Lernen von redundantem Material führt hingegen nicht zur Interferenz mit einem
Gedächtnisinhalt und kann dessen Abruf sogar erleichtern, was u.U. mit sog. Interferenzen zu
erklären ist.
3) Wodurch kann der Aufbau von Interferenzen beim Abruf von Gedächtnisinhalten
erleichtert werden, und welche Vor- und Nachteile resultieren daraus?
Nach Reder (1982) beruhen viele Gedächtnisleistungen im täglichen Leben nicht auf exakter
Reproduktion, sondern auf plausiblen Schlußfolgerungen. Reder zeigte, daß sich Probanden
ganz unterschiedlich verhalten, je nachdem, ob sie zu einem möglichst exakten oder aber
plausiblen Abruf aufgefordert werden. Sie stellte fest, daß die Urteilszeiten für plausibles
Wiedererkennen von Sätzen nach längeren Verzögerungszeiten wesentlich kürzer waren als
für exaktes Wiedererkennen. Reder erklärte dies mit dem Schwächerwerden exakter
Gedächtnisspuren, Plausibilitätsurteile jedoch nicht von einer spezifischen Gedächtnisspur
abhängen und daher auch nicht in gleichem Maße für das Vergessen anfällig sind. Ebenso war
die Reaktionszeit umso kürzer, je mehr Tatsachen man über einen bestimmten Sachverhalt
gelernt hat, desto rascher erfolgt eine Beurteilung nach Sachverhalten, die aus
Plausibilitätsgründen wahr erscheinen.
Untersuchungen von Owens, Bower und Black erbrachten, daß zwischen semantischen
Elaborationen und Interferenzprozessen ein positiver Zusammenhang besteht. Durch die
elaborative Verarbeitung kommt es zu einer Anreicherung des zu behaltenden Materials um
zusätzliche Information und dies bildet die Grundlage für die Bildung von Interferenzen. Dies
bedeutet insofern einen Gewinn, als z.B. bei Wissensproduktionen in einer Prüfungssituation
von den Prüflingen erwartet wird, daß sie solche Schlußfolgerungen genauso leicht
wiedergeben können, wie den tatsächlichen Stoff.
Auch Schemanta helfen beim Aufbau von Interferenzen; so fand bereits Bartlett (1932) in
einem Experiment heraus, daß Schemanta zur Anwendung kommen, wenn Rückschlüsse auf
bestimmte, nicht beobachtete oder erwähnte Ereignisse gezogen werden. Somit stellen sie
einen wesentlichen Mechanismus sowohl bei der Elaboration der Inhalte während des Lernens
als auch bei der Rekonstruktion von Gedächtnisinhalten dar. Dieser Umstand kann jedoch
insofern nachteilig sein, wenn Informationen schlecht in ein kulturelles Schema passen und es
daher zu Verzerrungen bei der Reproduktion kommt.
4) Auf welchen Prinzipien beruht die "Methode der Orte"?
Es handelt sich um eine Memotechnik, bei der durch eine verbesserte Organisation des
Materials zum Zwecke des Abrufes von gelernten Inhalten, die zu erinnernden Items mit
Orten entlang eines uns bekannten Weges assoziiert werden. Dabei kommen zwei Prinzipien
in Anwendung:
Erstens erzwingt die Methode beim Lernen die Organisation eines ansonst unorganisierten
Materials.
Zweitens zwingt das Herstellen von Verbindungen zwischen den Orten eines uns bekannten
Weges und den Gegenständen, das Material bedeutungshaltig, elaborativ und mit Hilfe der
visuellen Vorstellung zu verarbeiten.
Bower und Reitmn konnten zeigen, daß mit der "Loci Methode" Interferenzen minimiert
werden können.
5) Inwiefern beeinflußt der Kontext beim Enkodieren die Wiedergabe von
Gedächtnisinhalten (Enkodierungsspezifität)?
Tulving und Thomson formulierten 1973 das Prinzip der Enkodierungsspezifität, demzufolge
ein Hinweisreiz einen Informationsabruf begünstigt, wenn dieser Informationen enthält, die
während der Codierung der Zielinformation verarbeitet wurden. Wir enkodieren demnach
nicht nur bestimmte Zielinformationen, sonder auch den situativen Kontext, in dem diese
Zielinfos auftreten.
Ein Experiment von Smith (1979) zeigte, daß die Theorie der Kodierungsspezifität nicht nur
auftritt, wenn die Abrufreize in einer bedeutungsvollen Beziehung zu der Zielinfo stehen,
sondern auch bei beiläufigen Hinweisreizen; wesentlich ist nur, daß die Reize beim
Enkodieren auch verarbeitet wurden.
Ebenso finden sich Belege für das Phänomen des zustandsabhängigen Lernens bzw.
Abrufens, nach dem man Informationen leichter wiedergeben kann, wenn man sich in
demselben emotionalen und körperlichen Zustand hineinversetzt, wie er in der Lernsituation
bestand. Ein durch starke Emotionen hervorgebrachter internaler Kontext beeinflußt ebenfalls
den Abruf von Infos. Befunde von Teasdale und Russell zeigten , daß VPs eine größere
Anzahl jener Wörter wiedergeben, die ihrem Stimmungszustand zum Testzeitpunkt
entsprachen. Wenn Stimmungselemente in einer Testsituation aktiviert werden, breitet sich
Aktivtion zu denjenigen Gedächtnisinhalten aus, die ebenfalls über diese Stimmungselemente
verfügen. Diese Elemente können selbst den Inhalt einer Gedächtnisspur darstellen, oder als
Bestandteil des Lernvorganges mit der Gedächtnisspur verbunden sein.
6) Was versteht Wolfgang Hell unter Gedächtnistäuschungen und auf welche Art
können sie bewirkt werden?
Darunter versteht er solche Fehlerinnerungen, bei denen die Erinnerung systematisch und in
vorhersagbarer Weise und Richtung von der korrekten Antwort abweicht. Dies wird
typischerweise auf 2 verschiedene Arten bewirkt:
a) Zu der eigentlich zu erinnernden Gedächtnisspur wird fast ausschließlich zeitlich später
eine weitere, inhaltlich abweichende Gedächtnisspur gesetzt. Zu einer Gedächtnistäuschung
wird kommt es , wenn die Erinnerung an die ursprüngl. Gedächtnisspur in Richtung auf die
später gesetzte hin verschoben wird. Dabei kann die später gesetzte Gedächtnisspur eine
Fehlinformation sein (zB. Misleading postevent information) oder eine korrekte Info (z.B.
hindsight Bias). Beide Gedächtnisspuren enthalten aber in beiden Fällen Infos über ein und
dieselbe Sache.
b) Die Erinnerung wird dadurch verzerrt, daß (meist beim Abruf) die VP eine bestimmte,
eventuell experimentell induzierte Perspektive einnimmt. Diese Perspektive kann dadurch
hergestellt werden, daß die VP einer bestimmten Kultur angehört, soziale Vorurteile hat oder
sie eine visuelle (verbale) Zusatzinfo erhält.Sowohl die inhaltlich abweichende
Gedächtnisspur als auch die neue Perspektive basieren auf einer Info, die der VP entweder
zusätzlich zur Verfügung gestellt wird, oder auf deren Vorhandensein man sich aufgrund der
Zugehörigkeit zu einer Kultur verlassen kann.
Im ersten Fall tritt die zusätzliche Gedächtnisspur in direkte Konkurrrenz zu der zu
reproduzierenden Gedächtnisspur, da beide zum gleichen Inhalt verschiedene Auskünfte
geben. Im 2. Fall liet hingegen keine direkt konkurrierende Info vor, sondern die
Reproduktion des abgefragten Gedächtnisinhaltes wird durch eine Zusatzinfo beeinflußt.
7) Hypothesen zum Einfluß von "Misleading Postevent Informations" auf die
Erinnerung?
Die Integrationshypothese von Loftus, Miller & Burns (1978) geht von der Integration der
Gedächtnisspuren aus! Unterstützt wurde diese Hypothese durch Befunde, wonach die Gabe
der irreführenden Info direkt vor dem Abruf wirkungsvoller ist als direkt nach der Kodierung!
Bekerian u. Bowers (1983) konnten jedoch zeigen, daß die Originalinfo unter bestimmten
experimentellen Manipulationen erinnert wurde!
Demgegenüber steht die Koexistenzhypothese von McCloskey & Zaragoza ( 1985) , nach der
beide Gedächtnisspuren miteinander koexistieren, ohne sich gegenseitig zu beeinflussen,
wobei jede für sich im Laufe der Zeit schwächer wird.
Das Model stellt eine Mischung aus korrekter Erinnerungen u. Ratestrategie dar. McCloskey
und Zaragoza unterscheiden 4 Fälle:
o
o
o
o
die VP erinnert sich an die Originalinfo, nicht aber an die irreführende Info
erinnert sie zusätzlich zr Originalinfo auch an Fehlinfo, antwortet sie unbeirrt
mit der Originalinfo
erinnert sie beide nicht, wird sie in einem Zwangswahltest per Zufall in der
Hälfte der Fälle die richtige Erinnerung haben
erinnert sie nur die Fehlinfo, gibt sie nur diese wieder.
Die Substitutionshypothese letztlich, nach der die neue Info die alte überschreibt und
unzulänglich macht, konnte der erdrückenden Anzahl widersprechender Befund nicht
standhalten.
Obgleich es zahlreiche Ergbnisse gibt, die die Koexistenzhypothese zu bestätigen scheinen,
gibt es 2 Probleme: erstens steht diese Hypothese in Widerspruch zu anderen gesicherten
Befunden, wie etwa zur retroaktiven Interferenz. Zweitens ist sie in ihren
Ergebnisvorhersagen kaum zu unterscheiden von einer moderaten Interpretationshypothese,
z.B. in der Version eine Beeinflussung durch die Fehlinfo im Sinn einer Interferenz.
8) Charakterisieren Sie den "Hindsight Bias"!
Der hindsight bias beschreibt die Annäherung der Erinnerung einer früher geäußerten
Meinung an die inzwischen bekannt gewordene korrekte Antwort. Man spricht auch von
"distorted hindsiht" od. "Rückschau-Fehler". Im Unterschied zur misleading postevent
information gibt es hier keinen prinzipiellen Konflikt zwischen beiden Gedächtnisspuren.
Motivationale Erklärungsevrsuche für die H.B. wie Selbstdarstellung, sich kenntnisreich
zeigen oder ego-involvement waren im allg. wenig erfolgreich. Alle Manipulationen, die
versuchen, experimentell das Ausmaß des H.B. zu reduzieren , indem sie die VPs zu einer
korrekten Erinnerung motivierten, waren erfolglos!
Fischhoff (1975) , der Begründer der kogn. Erklärungsansätze erklärte den H.B. mit "creeping
determinism" und sofortiger Angleichung ("immediate assimilation") der 2 Gedächtnisspuren.
Es war ein sofortiger und automatischer . d.h. durch bewußte Entscheidung , nicht
vermeidbarer Effekt. Aus diesen Überlegungen formulierten Hell, Gigerenzer , Gauggell,
Mall & Müller (1988) eine Theorie, nach welcher das Ausmaß des H.B. von der realativen
Stärke der beiden beteiligten Gedächtnisspuren zum Zeitpunkz des Abrufs abhängt.
Zahlreiche Untersuchungen konnten iese Annahme bestätigen. Die Ergebnisse zeigten aber
auch, daß analog zum Modell von Mc Closkey und Zaragoza zur misleading postevent
information , eine Mischung von korrekter Erinnerung und Ratestrategien dieses Phänomen
zu erklären vermag. Die idee muß natürlich an die Situation des H.B. angepaßt werden , in
dem die postevent info nicht "misleading" sondern korrekt sind.
9) Was versteht man unter dem Frequency Validity Effekt?
Hesher, Goldstein & Toppino (1977) untersuchten den Einfluß der Wiederholung derselben
Aussagen auf das Urteilsverhalten unter experimentell kontrollierten Bedingungen und
fanden, daß die Wiederholung einer plausiblen Aussage zu einer Erhöhung des Glaubens an
die Wahreheit dieser Aussage bei den Personen führt. Dies bezeichneten sie als FrequencyValidity- Effekt. Es handelt sich um ein Konfidenz-Urteil.Ausgangspunkt der Vorstellungen
von Hasher et.al. ist die Annahme, daß Menschen äußerst kompetent und zuverlässig Infos
über Ereignishäufigkeiten verarbeiten, speichern und abrufen können. Die zentrale Annahme
ist, daß Ereignishäufigkeiten automatisch und damit unter minimalen Verbrauch von
Aufmerksamkeit enkodiert werden.
Bei der wiederholten Darbietung von Aussagen , die zwar plausibel erscheinen , deren
Wahrheitswert man aber nicht eindeutig beurteilenkann, auf Wissen über die
Darbietungshäufigkeit der Items rekurriert , um daraus ein Konfidenz – Urteil abzuleiten. Je
größer die erinnerte Darbietungshäufigkeit einer Aussage , dest größer die subjektive
Überzeugung in deren Richtigkeit.
Kapitel 8: Problemlösen
1) Erläutern Sie in kurzen Sätzen die wichtigsten gestalttheoretischen Erkenntnisse auf dem
Gebiet des Problemlösens!
a) Funktionsfixierung bzw. funktionale Fixierung:
Darunter wird die Tendenz verstanden, Objekte in ihren üblichen Verwendungsmöglichkeiten
wahrzunehmen , und auf diese Weise die Sichtweise für eine unkonventionelle, neuartige
Verwendung der Objekte zu verhindern. Experimentelle Belege finden sich bei Dunckers Kerzen- oder
Schachtelproblem, Scheerers 9-Punkte Problem oder Maiers 2- Seiten oder Pendel Problem.
b) Einstellungseffekte bzw. Set- Theorie
Dieses Phänomen -auch als problem-solving-set in die Literatur eingenagen- besagt, daß
Vorerfahrungen die Problemlösemöglichkeiten einschränken können. Einstellungseffekte treten in der
Regel auf, wenn einige Wissensstrukturen auf Kosten anderer leicheter zugänglich sind , d.h. wurde
eine ausreichend gute und allgemeine Regel zur Lösung einer Aufgabe entwickelt, so neigt man dazu
sie beizubehalten. Befunde, die dies belegen sind u.a. Untersuchungen zu Wasserumfüllaufgaben von
Luchins, Bartletts kryptoarithmetische Aufgaben und Experimente von Safren zum Lösen von
Anagrammen.
c) Einsicht bzw. einsichtiges Verhalten:
Entgegen der vorherrschenden Ansicht der Behaviouristen gingen die Gestaltpsychologen mit Köhler
an der Spitze davon aus, daß der Vorgang des Problemlösens nicht lediglich auf Versuch und Irrtum
beruht, vielmehr eine Einsicht in die Struktur des Problems und eine damit verbundene Neu- und
Umstrukturierung maßgebend sind.
2) Unterscheiden Sie Heuristiken und Algothmen!
Bei beiden Termini handelt es sich um Problemlösestrategien im weitesten Sinne. Algorithmen sind
allgemein formulierte Vorgehensweisen, die einen bestimmten Problemtyp lösen, selbst wenn der
Lösende gar nicht weiß, warum diese Methode funktioniert. Es handelt sich also um eine Vorschrift
bzw. Bechreibung für ein System von Ausführungs- und Prüfoperationen, um in bestimmter
Reihenfolge bei entsprechenden Aufgaben richtige Lösungen zu erreichen.
Heuristiken sind "Daumenregeln", die zwar eine Lösung des Problems nicht garantieren, aber sehr viel
Zeit und Anstrengung sparen. Mit Tversky und Kahnemann unterscheiden wir:
a) Verfügbarkeitsheuristiken: Auffassung, daß die Zugänglichkeit bzw. Verfügbarkeit von
Gedächtnisinhalten im Sinne einer Strategie unmittelbaren Einfluß auf das Problemlösen hat.
b) Zugänglichkeitsheuristik: leichter erinnerbare Ereignisse werden wahrscheinlicher angenommen als
schwerer erinnerbare Ereignisse.
c) Repräsentativitätsheuristik (auch Ähnlichkeits- oder Prptotypenvergleichsheuristik): Ereignisse, die
für einen Prozeß typischer sind, sind auch wahrscheinlicher als untypische Ereignisse.
3) Wie erklären Allen Newell und Herbert Simon mit ihrer "Problem-Raum-Theorie" (problem space
theory) das Lösen von Problemen?
Newell und Simon nehmen an, daß jedes Problem durch eine bestimmte Anzahl von
Problemzuständen, die Repräsentationen des Problemzustandes einem gegebenen Stand der Lösung
darstellen, beginnend mit einem Anfangszustand, diversen Zwischenzuständen bzw. intermediären
Zuständen und mit einem Zielzustand endend, charakterisiert ist. Die Summe alles Zustände, die ein
Problemlösender erreichen kann, definiert den Problemraum.
Nach Newell und Simon untersucht der Problemlösende zuerst die Aufgabe, um eine innere
Abbildung, eben den Problemraum der Aufgabe im Gedächtnis zu formen. Die Lösung der Aufgabe
besteht nun in der Suche nach einer möglichen Sequenz von Operationen, also Prozessen, die
angewendet werden können, um von einem Zustand in den nächsten und letztlich zu dem Zielzustand
zu gelangen.
4) Problemlösestrategien bei der Auswahl von Operatoren?
a) Methode der Unterschiedsreduktion: Sie findet besonders bei wenig geläufigen Problemen
Anwendung. Es werden jene Operatoren gewählt, die den Problemzustand in einen neuen Zustand
überführen, der die Unterschiede reduziert und der dem Zielzustand ähnlicher ist, als der aktuelle
Zustand. Da diese Methode aber nur darauf abzielt, daß der direkt folgende Schritt eine Verbesserung
darstellt, jedoch außer acht läßt, ob der Gesamtplan funktioniert, ist der Erfolg nicht garantiert
b) Mittel-Ziel-Analyse: Diese Analyse besteht aus der Identifikation der prinzipiellen Unterschiede
zwischen der Anfanssituation und dem Ziel, sowie aus den Handlungen bzw. Teilzielen, die diese
Unterschiede reduzieren. Der Gegensatz zwischen der Unterscheidungsreduktion und der Mittel-ZielAnalyse besteht auch darin, daß bei letzterer ein Operator nicht verworfen wird, wenn er nicht
unmittelbar angewendet werden kann
c) Suchstrategien, die man unterteilen kann in:
o
o
o
o
Strategie des Generierens und Testens von Lösungen: in vielen Fällen unwirksam
und wenig effektiv, das sie eine relativ wenig diskreminierende Suche nach sich zieht;
Erfolg nur wenn wenig mögliche Lösungen denkbar sind.
Strategien der Begrenzung des Suchbereiches: die einfachste Methode besteht darin,
sich nur an die Handlungen zu erinnern und zu suchen, die in der Vergangenheit
wirksam waren.
Breitensuche: verläuft zuerst horizontal und dann vertikal; d.h. man untersucht erst
alle Entscheidungen auf einem Niveau, bevor man sich auf Entscheidungen auf
einem niedrigeren Niveau einläßt.
Tiefensuche: verläuft umgekehrt zur Breitensuche!
5) Beschreiben Sie das TOTE–Modell von Miller, Galanter und Pribram!
Das TOTE-Modell (Test-Operate-Test-Exit) wurde von Miller, Galanter und Pribram 1960/1973
entwickelt, als diese die bis dato vorherrschende Analyseeinheit des menschlichen Verhaltens den SR-(Stimulus-Response) Komplex kritisch beleuchteten und eine Art Rückkoppelungskreis des
Verhaltens vorschlugen. Asgehend von einer Inkongruenz, also einer Nichtübereinstimmung , die der
Organismus zwischen seinen Kriterien und den Eingangsenergien feststellt, wobei diese Feststellung
oder Prüfung von Autoren als Test bezeichnet wird,setzt er nun eine Aktion (Operate), die solange
anhälz, bis die Inkongruenz verschwunden ist (Exit), wobei sich zahlreiche Testphasen (Test)
dazwischenschalten können. Nach diesem Modell wird menschliches Verhalten also durch die
Rückkoppelung vom Handlungsresultat zu Testphase bestimmt. Die TOTE-Einheit bildet somit die
Grundlage von Handlungen.
6) Worin unterscheiden sich prozedurales und deklaratives Wissen ?
Die Unterscheidung zwischen prozeduralem und deklarativem Wissen bezieht sich auf den
Unterschied zwischen dem "Wissen,wie" und dem "Wissen, da?" ( Ryle, 1949).
Deklaratives Wissen deckt episodisches und semantisches Gedächtnis ab. Es wird über eine darauf
bezogene Aussage von einem Moment auf den anderen erlangt; prozedurales Wissen dagegen
allmählich, indem man eine Fertigkeit ausführt. Alle prozeduralen Fertigkeiten müssen geübt werden,
damit man sie beherrscht. Man kann sie nicht entwickeln indem man nur deklarative Informationen
durch Unterweisung aufnimmt.
Nach Cohen (1984) ist prozedurales Wissen involviert, wenn die Erfahrung dazu dient, Prozesse, die
Leistungen steuern zu beinflussen ohne auf das Wissen, das diesen Leistungen zugrunde iegt,
zurückzugreifen.
Deklaratives Wissen entspricht dem explizitem Gedächtnis, das prozedurale Wissen hingegen dem
implizitem Gedächtnis. Hendel, Bullers und Salman (1988) fanden heraus, daß "Huntington Patienten"
große Schwierigkeiten hatten neue motorische Fertigkeiten zu lernen aber normale Leistungen in
deklarativen Tests der Wiedererkennung erbrachten. Amnesie- Patienten erwerben viele motorische
Fertigkeiten wesentlichen schneller als Gesunde was mit der Behauptung übereinstimmt, daß das
Lernen prozeduraler Fertigkeiten nicht beeinträcchtigt ist. Qire, Knowlton und Musen fanden (1992)
unter Anwendung von PET (positron-emission-tomography), daß der Blutfluß in die rechte Hälfte des
Hippocampus wesentlich höher war, wenn Personen eine deklarative Wissensaufgabe zu leisten
hatten, als eine prozedurale Aufgabe, was für die verstärkte Beteiligung des Hippocampus bei
delkarativen Gedächtnisoperationen spricht.
7) Welche Merkmale zeichnen komplexe Probleme aus?
a) Große Komplexität durch eine Vielzahl von Variablen, welchen die Problemzustände beschreiben.
b) Vernetztheit der Variablen untereinander, womit die Zusammenhänge zwischen den Variablen
häufig nichtlinearen Funktionen folgen, sodaß die Prognosen des Verhaltens der einzelnen Variablen
und des ganzen Systems sehr schwierig wird.
c) Intransparenz - dadurch ist es fast nicht möglich, das Problem zu durchschauen.
d) Eigendynamik: es sind Variablen enthalten, die sich auch ohne Eingriffe durch den Problemlöser,
also von selbst verändern.
e) Polytelie: Komplexe Probleme erlauben immer viele Ziele zu verfolgen, somit ist eine uneindeutige
Zieldefinition gegeben und der Problemlöser kann seine Ziele im Laufe des Lösungsprozesses
wechseln
Bei sog. komplexen Problemen greifen Problemlöser oft auf vorhandenes Vorwissen, das weit über
den Inhalt der Instruktion hinausgeht, zurück.
Kapitel 9: Expertentum
1) Unterscheiden Sie mit Fitts & Posner (1967) die 3 Phasen bei der Herausbildung einer
speziellen Fertgkeit!
Zuerst wird in der sog. Kognitiven Phase eine deklarative Encodierung der Fertiglkeit
ausgebildet, also wir prägen uns jenes Wissen ein, das für die Ausführung der entsprechenden
Fertigkeit von Bedeutung ist. Da in diesem Stadium das Wissen noch nicht in prozeduraler
Form verfügbar ist, kann man bei Anfängern beobachten, daß sie diese Fakten innerlich oder
hörbar aufsagen.
Die 2.Phase ist die assoziative Phase, die dazu dient, die einzelnen Elemente, die führ die
erfolgreiche Ausführung der Tätigkeit erforderlich sind, stärker miteinander zu verbinden und
Fehler im anfänglichen Problemverständnis nach und nach aufzudecken und zu eliminieren.
Am Ende der assoziativen Phase liet demnach eine erfolgreiche Prozedur in Form von
Poduktionsregeln zur Ausübung der Fertigkeit vor. In der sog. "autonomen Phase" endlich
entwickeln die Fertigkeiten mit der Zeit einen immer stärkeren Automatisierungsgrad und
benötigen daher weniger Verarbeitungsressourcen und Aufmerksamreitsressourcen.
Kennzeichnend ist die zunehmende Angemessenheit, die Anderson (1982) sowie Rumelhart
& Norman (1978) als Tuning bzw. Feinabstimmung bezeichnen der Anwendung von
angelegten Produktionsregeln.
2) Was besagt das Potenzgesetz des Lernens?
Die Ausführung einer kogn. Fertigkeit verbessert sich als Potenzfunktion der Übung und
verschlechtert sich auch nach langen Behaltensintervallen nur geringfügig.
Es gibt physikalische Schranken, wie technische Ausrüstung, Leistungsfähigkeit der
beteiligten Muskelgruppen, Lebensalter, für die erreichbare Leistung, nicht jedoch für den
Geschwindigkeitszuwachs einer Fertigkeit. Unter der Voraussetzung, daß genug Übung
erfolgt, geht die für die kogn. Komponente einer Fertigkeit benötigte Zeit gegen Null.
Zwischen der logarithmisierten Zeit (T) und der log. Übung (P) besteht eine lineare
Beziehung, die sich wie folgt ausdrücken läßt:
Log (T) = A-b log (P)
Daraus resultiert das Potenzgesetz:
T=aP (hoch –b) mit a= 10 (hoch A)
Die Funktion ist neg. beschleunigt, d.h. daß die Abnahme der benötigten Bearbeitungszeit mit
zunehmender Übung sehr schnell recht gering wird bzw. , daß die Leistungsverbesserung am
Beginn der Übungszeit sehr hoch ist und dann sehr steil abfällt.
3) Was versteht Anderson unter Prozeduralisierung und in welchem Zusammenhang
verwendet er den Begriff?
Anderson geht in seiner Theorie zum Erwerb von Fertigkeiten von einem Mechansimus aus,
den er "knowledge compilation" nennt. Dieser Mechanismus liegt seinen ACT- Modellen
(adaptive control of thought) zugrunde und gliedert sich ähnlich der Theorie von Fitts und
Posner in 3 Phasen.
Der Mechanismus hat die Prozeduralisierung als Unterprozess. Unter Prozeduralisierung
versteht Anderson jenen Prozeß, der deklaratives Wissen in prozedurales Wissen überführt
Während nun der Novize bei seinen ersten Lösungsversuchen eine Reihe von Zwischenzielen
bildet (analog der Mittel-Ziel-Analyse), wozu er deklaratives Wissen, das er im Rahmen der
Instruktionen erworben hat, anwendet, wird sich im Laufe wiederholter Problemlöseversuche,
wenn ein bestimmtes deklaratives Wissen immer im Zusammenhang mit einem bestimmten
Zwischenziel auftritt, eine Produktionsregel herausbilden, welche das deklarative Wissen als
eine Art Vorgabe (den Wenn-Teil) und die ausführende Handlung, als dessen Verrichtung
(den Dann-Teil) hat. Diese Übergänge entsprechen jenen Kennzeichen, die nach Fitts &
Posner der assoziativen Phase zuzuschreiben sind.
4) Welche Lernprozesse macht ein Novize im Laufe seiner Entwicklung zum Experten durch
Im Verlauf des wiederholten Umgangs mit Problemen lernt er die Handlungsabfolgen
(Produktionsregeln), die zur Lösung des Problems oder von Teilen des Problems erforderlich
sind. Sie lernen Taktiken, also Folgen von Operationen, die zur Lösung von Teilproblemen
dienen.
Das strategische Lernen ermöglicht dem Novizen zunehmend sich geeignete Wege zum
strukturellen Aufbau des Problemlösens anzueignen, die für die auf dem jewiligen Gebiet
bestehenden Problemen optimal geeignet sind. Er lernt die lösung des Gesamtproblems zu
organisieren. Dadurch wird er in die Lage der versetzt systematisch vorzugehen und das
Gedächtnis nach Schlüsselreizen abzusuchen.
Dieses strategische Lernen wird durch das Erkennen von zusammenhängenden "Chunks" bei
Problemen erleichtert. So haben Rosenbloom und Newell (1986) erläutert, daß, wen eine
Serie von Produltionsregeln erforderlich ist, duch "chunking" eine neue Regel erzeugt werden
kann, die jene relevanten Bedingungen beinhaltet, die letztlich zum Ziel führt. Unter diesen
"chunks" versteht man ein Muster aus Elementen , die über verschiedene Probleme hinweg
immer wieder vorkommen.
Während Novizen vom Unbekannten ausgehen, und so mit einer Rückwärtssuche beginnen,
neigen Experten zu einer Vorwärtssuche, wobei sie mit einer Analyse des Geamtproblems
beginnen. Vor allem in der Physik und Geometrie bietet das vorwärtsgerichtete Suchen
insofern Vorteile, als hier die Notwenigkeit von Teilzielen entfällt und dadurch das
Arbeitsgedächtnis nicht so stark belastet wird. Im Laufe des Erwerbs von Fertigkeiten lernen
Novizen Probleme derart zu repräsentieren, daß die Anwendung effektiver
Problemlöseprozeduren möglich wird.
Während sich Novizen allzu rasch von oberflächlichen Ähnlichkeitsmerkmalen bei der
Klassifikation des Problems leiten lassen, besitzen Experten die Fähigkeit, die
Oberflächenmerkmale eines Problems auf die zugrundeliegenden Prinzipien zurückzuführen.
5) Themenbereiche zur Frage des Transfers von Fähigkeiten?
Pädagogische Psychologen, wie Angell, Pittsburg und Woodrow entwickelten um die
Jahrhundertwende eine Doktrin der formalen Disziplin. Ausgehend von der Annahme, daß der
menschliche Verstand über einzelne Gesiteskräfte verfügt, also aus einer Ansammlung von
allgemeinen Fähigkeiten, wie Aufmerksamkeit, Beobachtungsgabe,
Unterscheidungsvermögen, logischem Denken etc., besteht, vertraten sie die Auffassung, daß
diese Fähigkeiten mittels anstrengender, vom Gegenstand unabhängiger Übung
herausgebildet werden könne. Diese Unabhängigkeit vom Gegenstand der Übung impliziert
ebenso Unabhängigkeit vom Gegenstand der Anwendung.
Thorndike schlug, aufgrund durchgeführter Unterscuhungen, die keine begründeten
Ausgangspunkte für die Doktrin lieferten, seine Theorie der identischen Elemente vor.
Danach setzte sich der menschliche Geist aus speziellen Gewohnheiten und Assoziationen
zusammen, die einer Person eine Vielzahl enggefaßter Reaktionsmöglichkeiten auf sehr
spezifische Reize zur Verfügung stellen. Das Training einer Aktivität überträgt sich nach
Thorndike nur dann auf andere Aktivitäten, wenn die Tätigkeiten gemeinsame Elemente der
situationsspezifischen Reaktion aufweisen; d.h. der Transfer ist ausschließlich an die Identität
von Oberflächenelementen gebunden! Diese Annahme wurde jedoch durch die
Analogieforschung widerlegt!
Die neuere kogn. Psychologie geht davon aus, daß Transfer zwischen Fähigkeiten nur dann
auftritt, wenn an diesen Fähigkeiten dieselben abstrakten Wissenselemente beteiligt sind!
Kapitel 10: Logisches Denken, Entscheidungen
1) Unterscheiden Sie deduktives und induktives (Schlußfolgern) Schließen !
Beim deduktiven Schließen werden aus wahren Prämissen Konklusionen mit Gewissheit
abgeleitet. Mit "Gewißheit" bedeutet, daß die Konklusion wahr ist, wenn die Prämissen auch
wahr sind.
Ein Schluß ist demnach deduktiv zwingend, wenn es keinen strukturgleichen Schluß gibt,
dessen Prämissen wahr sind, desen Konklusion aber falsch ist (Savigny, 1976). Wobei
Schlüsse, die sich nur durch die Reihenfolge der Prämissen unterscheiden strukturgleich sind;
hingegen Schlüsse, die sich in der Anzahl der Prämissen unterscheiden, nicht als
strukturgleich gelten.
Innerhalb der denkpsychologischen Literatur werden das deduktive Denken und die dabei
auftretenden Schwierigkeiten zumeist unter "kategorische Syllogismen und konditionales
Schließen" behandelt. In beiden Fällen handelt es sich um "Syllogismen", d.h. um Schlüsse,
die aus 3 Urteilen bestehen: aus 2 Prämissen und 1 Konklusion. Der Unterschied besteht
darin, daß beim kategorischen Syllogismus "unbedingtes" Schließen und beim konditionalen
Schließen "bedingtes" Schließen gefordert wird. Beim kategor. Syllosgismus enthalten die
Aussagen Quantoren wie "alle,keine,einige und einige nicht". Beim konditionierten
Syllosgismus legt die erste Prämisse eine "wenn-dann-Beziehung" zwischen 2
Teilpropositionen "p.q" fest, die zweite Prämisse gibt eine der beiden Teilpropositionen
bejahend bzw. verneinend vor und in der Konklusion wird auf die andere Teilproposition
geschlossen.
Beim induktiven Schließen werden aus wahren Prämissen Konklusionen mit einer
bestimmten Wahrscheinlichkeit abgeleitet. Induktives Denken ist somit konstruktiv und
interaktiv. Sowohl Hypothesenbildung als auch Hypothesentestung sind wesentlich vom
Vorwissen des Menschen geprägt.
Im Gegensatz zum deduktiven Schließen zeichnen sich die Konklusionen beim induktiven
Schließen durch ihren Wahrscheinlichkeitscharakter aus, da sie nicht mit Gewißheit aus den
Prämissen abgeleitet werden können.
2) Heuristiken beim kategorischen Syllogismus?
a) der Umgebungseffekt (Atmosphärenhypothese):
Die Heuristik beim Umgebungseffekt besteht darin,daß der Gesamteindruck der
Prämissen die Konklusion bestimmt und nicht die kognitive Analyse der Prämissen.
Die Annahme dieser Heuristik wurde von Woodworth und Sells (1935) formuliert.
"Atmosphären" schaffen, die dazu verleitet, jene Konklusion zu akzeptieren, die
dieselben Quantoren beinhalten wie die Prämissen. Demnach neigen VPs dazu, eine
bejahende (verneinende) Konklusion als Folge von bejahenden (verneinenden)
Prämissen, sowie eine verneinende Konklusion bei gemischten Prämissen zu
akzeptieren.
Diese Hypothese sagt wenig darüber aus, was der Mensch beim Schlußfolgern
tatsächlich tut und warum er es tut. Auch trifft die Charakterisierung des Verhaltens
nur annähernd zu. Menschen legen oft eine gewisse Fähigkeit an den Tag,
Syllogismen logisch korrekt zu beurteilen.
b) Das Phänomen der falschen Umkehrung (Konversionshypothese):
Die Heuristik bei diesem Phänomen besteht darin, daß die Prämissensätze vereinfacht
interpretiert werden und deshalb zu falschen Konklusionen führen.
Die Annahme dieser Heuristik wurde von Chapman und Chapman (1959) als
Konversionshypothese formuliert, wonach Menschen derartige Sätze so interpretieren,
als ob Subjekt und Prädikat vertauschbar wären, was aber logisch nur bei "einige" und
"keine" zulässig wäre.
c) Der Kontexteffekt (Hypothese von der kognistiven Konsistenz):
Die Heuristik hier besteht darin, daß die Schlußfolgerung in Abhängigkeit von der
kognitiven Konsistenz (interne Widerspruchslosigkeit) geschieht. D.h., daß die
Konklusionen eher dann als richtig beurteilt werden, wen sie im Einklang stehen mit
dem eigenen Wissen bzw. mit der eigenen Einstellung
3) Welche Schlußregeln bei Konditionalaussagen sind Ihnen bekannt und welche Modelle
erklären deren Anwendung?
Konditionalaussagen bzw. bedingte Aussagen bestehen aus einem Wenn-Teil (=Anteccedens)
und einem Dann-Teil (=Konsequens).
Der Modus ponens, eine der wichtigsten Schlußregeln, erlaubt die Ableitung des Konsequens,
wenn der Anteccedens gegen ist.
Der Modus tollens schließt die Negation des Anteccedens aus der Negation des Konsequens.
Ein Experiment von Taplin und Staudenmayer (1973) zeigte, daß die VP keine
Schwierigkeiten mit dem Modus ponens, aber Probleme mit dem Modus tollens hatten. Taplin
und Staudenmayer gehen davon aus, daß die VP konditionale Aussagen als bikonditionale
Aussagen interpretieren (in der Sprache der Logiker definiert als: genau dann, wenn oder
dann und nur dann).
Bikonditional bedeutet, daß wenn eine der beiden Prämissen wahr ist, die jeweils andere auch
wahr ist, u. umgekehrt. Der Mesch schließt nach d. Regeln der Logik, interpretiert die
Prämissen aber nicht erwartungskonform.
Eine alternative Erklärung ist die, daß der Mensch nicht logisch, sondern probebilisitisch
schließt. Dies legt das probabilistische Modell (Haviland 1974, Rips 1990) nahe wonach die
Tendenz einer Conclusio für gültig zu halten von der Wahrscheinlichkeit der Conclusio bei
gegebenen Prämissen abhängt. Dieses Modell hat gegenüber dem logischen Modell, nach dem
WENN bikonditional interpretiert wird, einen Vorteil. Zwar können beide Modelle die
Bestätigung des Konsequens und d. Ableitung der Anteccadens erklären, doch nur das
probabilistische Modell liefert eine Erklärung für die geringere Akzeptanz der Gültigkeit des
modus tollens.
4) Erklären Sie die Vorgehensweise beim induktiven Schließen mit Hilfe des Bayes-Theorem
!
Das Bayes Theorem bringt 2 Arten von Wahrscheinlichleiten zusammen, die a priori
Wahrscheinlichkeit und die bedingten Wahrscheinlichkeiten,um daraus die so. "a-posterioriWahrscheinlichkeit" abzuleiten, die das graduelle Ausmaß des Zutreffens der Conclusio
angibt.
Die a-psteriori Wahrscheinlichkeit einer Hypothese gibt also an, mit welcher
Wahrscheinlichkiet dir Hypothese zutrifft, nachdem ein bestimmtes Ereignis eingetreten ist
bzw. bei Vorliegen bestimmter Daten.
Die a priori Wahrscheinlichkeit einer Hypothese hingegen gibt deren
Ausgangswahrscheinlichkeit an, d.h. sie gibt an , mit welcher Wahrscheinlichkeit die
Hypothese zutrifft, und zwar vor dem Eintreten eines bestimmten Ereignisses bzw. vor der
Kenntnis bestimmter Daten.
Eine bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit , daß ein bestimmtes Ereignis
eintritt, wenn eine bestimmte Hypothese utrifft. Das Byes Theorem beruht auf einer
mathematischen Analyse der Beschaffenheit von Wahrscheinlichkeiten. Es läßt sich
nachweisen, daß mit diesem Theorem Hypothesen korrekt eingeschränkt werden können.
P(H1/D) = p(H1).p(D/H1) / p(H1) . p(DD/H1) + p(H2) . p(D/H2)
P(H1/D) = a- posteriori Wahrscheinlichkeit
P (H1) = a priori Wahrscheinlichkeit
P ( D/H1) = bedingte Wahrscheinlichkeit
Folgende Heuristiken beim Schätzen von a posteriori Wahrscheinlichkeiten können nun
auftreten:
Erstens die konservativen Schätzungen von a posteriori Wahrscheinlichkeiten, die
darauf zurückzuführen sind, daß die Aussagekraft von bestimmten eingetretenen
Ereignissen unterbewertet wird. Infolgedessen kommen die Schätzungen nicht weit
von den apriori Wahrscheinlichkeiten zu liegen.
Die Schätzung von a posteriori Wahrscheinlichkeiten kann auch verfälscht werden
durch die Ignoranz der a priori Wahrscheinlichkeiten. Nun zeigte sich, daß die
bewußten Wahrscheinlichkeitsurteile der CPs oft nicht mit dem Bayes-Theorem
übereinstimmen, ihr tatsächliches Verhalten dagegen schon.
5) Heuristiken beim Schätzen von Wahrscheinlichkeiten bzw. Häufigkeiten?
a) Verfügbarkeitsheuristik:
Sie besteht darin, diejenigen Ereignisse als die wahrscheinlichsten bzw. häufigsten zu
beurteilen, die am leichtesten aus dem Gedächtnis abrufbar und damit verfügbar sind.
Die Leichtigkeit , mit welcher Bsp. Aus dem Gedächtnis abgerufen werden können,
dient als Basis für die Wahrscheinlichkeits- bzw. Häufigkeitsschätzung.
b) Prototypenvergleichsheuristik (Repräsentativitätsheuristik, Ähnlichkeitsheuristik):
Hiebei wird das typ. Bsp. als das wahrscheinlichste Ereignis betrachtet. Das führt
dazu, daß 2 Ereignisse mit der objektiv gleichen Auftrittswahrscheinlichkeit als
unterschiedlich wahrscheinlich hinsichtlich ihres tatsächlichen Eintretens eingeschätzt
werden, wennsie – gemessen am Prototyp – unterschiedlich typisch sind!
c) Anker-und Anpassungsheuristik
Sie besteht darin, daß Schätzungen nicht weit von einer Bezugsgröße (einem Anker)
zu liegenkommen. Die Korrektur des Ankers hinsichtlich der Fragestellung – die
Anpassung – fällt häufig zu gering aus.
d) Monte-Carlo-Effekt:
Die Heuristik ist hier, daß das Eintreten eines länger nicht aufgetretenen Ereignisses
für wahrscheinlicher zu halten. Beim M.C.-Effekt scheint die
Prototypenvergleichsheuristik in einer etwas abgewandelten Form zum Tragen zu
kommen.
6) Unterscheiden Sie die Begriffe "Urteilen" und "Entscheiden", und beschreiben Sie nach
welchen Kriterien Menschen in ihrer Entscheidungsfindung vorgehen !
Beim Urteilen (judgement) handelt es sich um den Prozeß, durch den wir Meinungen bilden,
zu Schlüssen gelangen und Ereignisse auf der Basis verfügbaren Materials kritisch bewerten.
Beim Entscheiden (decision making) handelt es sich hingegen um den Prozeß des Wählens
zwischen Alternativen, desAuswählens und Zurückweisens von Optionen.
Neumann & Morgenstern (1944) haben eine präskriptive Standardtheorie, die das Verhalten
in solchen Situationen vorgibt entwickelt, derzufolge man die Alternative mit dem höchsten
Erwartungswert wählen soll. Den Erwartungswert einer Alternative kann man berechnen,
indem man ihre Wahrscheinlichkeit mit ihrem Wert multipliziert.
Untersuchungen haben jedoch gezeigt, daß VPs sich oftmals anders entscheiden. Kahnemau
& Tversky (1984) erklären das damit , daß Probanden Entscheidungen unter Unsicherheit auf
der Basis aubjektiver Nutzwerte und subjektiver Wahrscheinlichkeiten treffen. In Fällen, in
denen es keine eindeutige Grundlage gibt auf der eine Entscheidung zu treffe ist, werden
Menschen durch den rahmenden Kontext beeinflußt, in dem ein Problem steht.
Auch wenn es individuelle Unterschiede gibt, besteht allgemein die Tendenz, schwierige
Entscheidungen zu vermeiden. Dabei spielen nach Beattie (1994) mehrere psycholog.
Faktoren eine Rolle. Menschen treffen nicht genug Entscheidungen, die zur Folge haben, daß
manche viel und andere wenig von einem begehrten Gut erhalten. Sie werden nicht gerne für
Entscheidungen verantwortlich gemacht , die zu schlechten Ergebnissen führen. Menschen
können sich vorstellen, wie sehr sie es bedauernd würden, wenn sich herausstellte, daß sie die
schlechtere Wahl getroffen haben und sie treffen nicht gerne Entscheidungen für andere!
Kapitel 11: Struktur der Sprache
1) Beschreiben sie die Aufgaben und Kennzeichen der Linguistik!
Die Linguistik versucht die Beschaffenheit und Struktur der natürlichen Sprache zu
beschreiben, dabei konzentrieren sich die Linguisten auf zwei Aspekte der Sprache
a) Produktivität: bezieht sich auf die Tatsache, dass in jeder Sprache eine unbegrenzte Anzahl
an Äußerungen möglich ist. Man braucht nur ein Buch aufzuschlagen und einen beliebigen
Satz auszuwählen. Würde man nun in die Bücherei gehen und versuchen denselben Satz in
einem anderen Buch zu finden, würde man sicher schnell aufgeben, denn es ist sehr
unwahrscheinlich den Satz unter den Milliarden von Sätzen ein zweites Mal zu finden.
Dennoch setzen sich die Sätze aus einer geringen Anzahl von Komponenten zusammen: im
Deutschen sind es 26 Buchstaben, etwa 40 Phoneme und einige zehntausend Wörter.
Dennoch können wir Billionen neuartiger Sätze erzeugen.
b) Regelhaftigkeit: bezieht sich darauf, daß die Äußerungen in vielerlei Hinsicht systematisch
beschaffen sind. Ziel der Linguistik ist es ein Regelsystem zu finden, ein solches Regelsystem
nennt man Grammatik. Es gibt drei Klassen von Regeln
Die Syntax bezieht sich auf die Wortstellung und die Flexion (Die Mädchen schlägt
die Jungen. – wäre falsch).
Die Semantik betrifft die Bedeutung von Sätzen (Farblose grüne Ideen schlafen
vehement – wäre falsch).
Die Phonologie betrifft die lautliche Struktur von Sätzen. Sätze können syntaktisch
und semantisch korrekt sein, aber falsch ausgesprochen werden.
2) Was versteht man unter dem Begriff "Phrasenstruktur"? Analysieren sie folgenden Satz
nach diesem Prinzip: "Der mutige Junge rettete das ertrinkende Mädchen"!
Die Phrasenstruktur eines Satzes ist die hierarchische Zergliederung des Satzes in Einheiten.
Satz
Nominalphrase
Artikel
Adjektiv
Verbalphrase
Nomen
Verb
NominalPhrase
Der
mutige
Junge
rettete
Artikel
Adjektiv
Nomen
das
ertrinkende
Kind
3) Erläutern sie den behavioristischen Ansatz in der Beziehung zwischen Sprache und Denken!
Wurden die Theorien bestätigt?
John B. Watson, war der Meinung Denken sei subvokales Sprechen. Wenn Menschen also mit
"mentalen" Tätigkeiten beschäftigt seien, sprächen sie zu sich selbst. Diese Aussage bekräftigte er,
indem er sagte, daß wir mit dem gesamten Körper denken, denn Taubstumme z.B. verwenden auch
im Traum die Zeichensprache.
Um diese Annahmen zu überprüfen wurde ein Experiment mit einem Curare-Präparat durchgeführt,
das die menschliche Muskulatur lähmt. Die Vp (der Forschungsmitarbeiter Smith) mußte durch
künstliche Beatmung am Leben gehalten werden. Da die gesamte Muskulatur vollständig gelähmt
war, konnte er unmöglich subvokal sprechen, dennoch konnte er beobachten, was um ihn herum
passierte, er konnte Sprache verstehen und über die stattfindenden Ereignisse nachdenken. Somit
wurde deutlich, daß denken auch ohne jegliche Muskelaktivität fortgesetzt werden kann. Denken ist
somit eine innere, nichtmotorische Aktivität.
Auch bei Forschungen bezüglich Gedächtnisspeicherung wird deutlich, das Denken nicht mit Sprache
gleichgesetzt werden darf, denn wir wissen, dass sich Menschen meist nicht den exakten Wortlaut
einer sprachlichen Mitteilung merken, sondern eine eher abstrakte Repräsentation der Bedeutung
dieser Mitteilung behalten.
4) Was bedeutet "linguistischer Determinismus" -- Die Theorie von Whorf (auch als SapierWhorf These bekannt)?
Linguistischer Determinismus bezeichnet die Annahme, dass die Sprache die Art wie jemand denkt
oder die Welt wahrnimmt, determiniert oder stark beeinflußt. Benjamin Lee Whorf (ein Schüler des
Anthropologen Edward Sapier, dessen Idee er entliehen hat) fand heraus, dass Inuits viele
verschiedene Wörter für Schnee haben (verwehten Schnee, matschigen Schnee, harten Schnee etc.),
Araber auf viele Arten Kamele bezeichnen und ein Stamm auf den Philippinen viele Namen für Reis
hat. Er glaubte, dass ein solcher Wortschatz die Sprachbenützer dazu veranlassen würde, die Welt
anders wahrzunehmen als jemand, dem nur ein einziges Wort gegeben ist, z.B. gibt es im Englischen
nur das Wort "snow".
(Anm.: Da die Menschen für wichtige Dinge Wörter haben, wird die Wortanzahl zu einem
bestimmten Bereich als Indikator für die Bedeutung des bereiches gesehen, wie es sich am
Beispiele der Fachjargone zeigt. Aber gerade die Behauptung Whorfs, wonach die
Eskimosprache viele (hunderte?) Wörter für Schnee hätte, wird von Geoffrey Pullum
bestritten; danach hätte das führende Lexikon der Eskimosprache gerade zwei Wortstämme,
einen für Schnee der fällt und einen für Schnee der lieg. -- Um herauszufinden ob Eskimos
nicht doch feiner differenzieren, muss man wohl eine Reise machen.)
Allerdings würde es niemanden überraschen, wenn er hört, dass Inuits mehr über Schnee wissen als
typische Personen im englischen Sprachraum. Schließlich spielt Schnee im Leben der Inuits eine
wichtigere Rolle. Die Frage ist nun, ob sich ihre Sprache auf ihre Wahrnehmung des Schnees auswirkt
und zwar über das hinaus, was durch Erfahrung bedingt ist.
Man kam, vor allem durch Experimente mit fokalen Farben, zu dem Schluß, dass Sprache sehr wohl
das Denken beeinflußt, aber nur indem sie Ideen mitteilt (wenn man z.B. ein Buch liest) und nicht die
Art der gedanklichen Vorstellungen determiniert.
5) Der Zusammenhang von Sprache und Denken und Belege dazu?
Wir gehen davon aus, dass Denken vor der Sprache auftritt, sei es bei einem Kleinkind, das zu
komplexen kognitiven Vorgängen fähig ist, oder aber bei Tierarten, die nicht sprechen können, aber
doch kognitive Fähigkeiten besitzen. So wird angenommen, dass die Sprache ein Werkzeug ist um
Gedanken mitzuteilen und weiters dass die Sprache so geformt ist, dass sie zu den Gedanken paßt.
Ein Beleg stammt aus den Forschungsarbeiten über fokale Farben. Das visuelle System des
Menschen weist für bestimmte Farben maximale Empfindlichkeit auf. Deshalb gibt es in vielen
Sprachen besondere, kurze häufig auftretende Wörter zur Bezeichnung dieser Farben: Schwarz,
Weiß, Rot, Gelb, Grün, Blau, Braun, Lila, Rosa, Orange und Grau. Folglich hat das visuelle System
bestimmt, wie das Farbenspektrum in diesen Sprachen eingeteilt ist.
Auch die Wortstellung weist auf den Einfluß des Denkens auf die Sprache hin. In jeder Sprache gibt
es eine bevorzugte Wortstellung von Subjekt (S), Prädikat (P) und Objekt (O), wobei das Subjekt dem
Objekt fast immer voransteht (SOP, SPO, PSO). Das erscheint sinnvoll, denn eine Handlung geht vom
Handelnden aus und wirkt sich dann auf das Objekt aus.
6) Spracherwerb des Kindes
Der Prozeß des kindlichen Spracherwerbs weist einige charakteristische Merkmale auf, die
unabhängig von der jeweiligen Muttersprache gelten: Von Geburt an produzieren Kinder Geräusche.
Zunächst bestehen ihre Vokalisationen ausschließlich aus einem "ah"-Laut (mit unterschiedlicher
Intensität und verschiedenen emotionalen Färbungen). Mit etwa sechs Monaten fangen sie an zu
lallen, wobei diese Laute noch völlig bedeutungslos klingen.
Die ersten Worte tauchen mit etwa einem Jahr auf, wobei die allerersten Worte nur für die eng
vertrauten Personen verständlich sind. Die früh gelernten Wörter sind konkret und beziehen sich auf
das Hier und Jetzt. Es handelt sich ausschließlich um Einwort-Äußerungen.
Mit etwa eineinhalb Jahren schließt sie Phase der Zweiwortsätze an. Wenn sie nun Sätze mit drei bis
acht Worten sprechen, lassen sie unwichtige Wörter wie Artikel oder die Kopula ist weg
(Telegrammstil). Kaum einen Satz kann man als wohlgeformt bezeichnen. Bedeutend ist, dass Kinder
alle Satzarten gleichzeitig lernen, die sich immer mehr an die Sätze der Erwachsenen annähern.
Mit sechs Jahren beherrschen Kinder den größten Teil ihrer Sprache, obwohl sie weitere Einzelheiten
noch bis mindestens ins 10. Lebensjahr aufgreifen.
7) Welcher Zusammenhang besteht zwischen Alter und Spracherwerb?
Jüngere Kinder finden sich leichter als Erwachsene in einer neuen Sprache zurecht, doch man sollte
auch die Unterschiede zwischen den beiden Altersgruppen betrachten: in welchem Ausmaß die
Sprache ausgesetzt sind, in welchen Zusammenhängen sie mit Sprache zu tun haben (Aktien oder
Gameboy) und ihrer Lernbereitschaft.
Man nimmt aber an, dass Kinder innerhalb des kritischen Zeitabschnittes von zwei bis elf Jahren eine
Sprache am leichtesten lernen.
Bei Untersuchungen von Menschen, die in ein fremdes Land zogen, fand man heraus, dass ältere
Kinder (über elf Jahre) schneller lernen als jüngere. Doch obwohl sie anfangs schneller lernen als
jüngere, scheinen sie nicht dasselbe Beherrschungsniveau erreichen zu können, was die feineren
Nuancen der Phonologie und der Morphologie betrifft. So wird z.B. die Fähigkeit, eine Fremdsprache
ohne Akzent zu sprechen, mit zunehmenden Alter deutlich schlechter.
8) Was sind "sprachliche Universalien"? Wozu dienen sie?
Sprachliche Universalien sind angeborene Mechanismen, die für den Spracherwerb nötig sind. Sie
wurden von Chomsky postuliert, der behauptete, dass es unmöglich wäre eine Sprache zu lernen,
ohne Informationen darüber zu haben, welche möglichen Formen der natürliche Sprache es gibt.
Somit sind sprachliche Universalien Einschränkungen hinsichtlich der Arten von Sprachen, die
Menschen erlernen können. Sie sind abstrakt und werden durch universelle Eigenschaften
(Eigenschaften, die für alle Sprachen gelten) widergespiegelt: z.B. treten Adjektive in der Nähe des
Substantivs auf, das sie näher bestimmen.
Wenn man nun sagt: "Die charmante Frau schlug den exotischen Mann.", so stellt man sich eine
charmante Frau vor, die einen exotischen Mann schlägt und nicht eine exotische Frau, die einen
charmanten Mann schlägt. Letzteres ist so abartig, dass diese Struktur in keiner natürlichen Sprache
vorkommt, obwohl es theoretisch möglich wäre.
Kapitel 12: Sprachverstehen
1) Die Stufen des Sprachverstehens
Das Verstehen kann man in drei Stufen gliedern:
Die erste Stufe sind die wahrnehmungsbezogenen Prozesse, durch die die akkustische oder
geschriebene Mitteilung zunächst enkodiert wird.
Die zweite Stufe ist die syntaktische und semantische Analyse, das s.g. PARSING. Darunter
versteht man den Prozeß, durch den die Wörter einer Mitteilung in eine mentale
Repräsentation überführt werden, die die zusammengesetzte Bedeutung der Wörter darstellt.
Auf der dritten Stufe, der VERWENDUNG, machen die Hörer bzw. Leser von dieser mentalen
Repräsentation der Satzbedeutung gebrauch. Ist der Satz zB. eine Behauptung, speichern die
Hörer / Leser vielleicht seine Bedeutung. Ist der Satz eine Frage, werden sie antworten.
Diese drei Stufen sind zeitlich geordnet, sie können sich aber auch überschneiden.
2) Was ist das "Prinzip der unmittelbaren Interpretation"?
Das Prinzip der unmittelbaren Interpretation besagt, dass Menschen beim Auftreten eines Wortes
versuchen, soviel Bedeutung wie möglich zu extrahieren und dass sie nicht bis zum Satzende oder
Phrasenende warten, bis sie eine Interpretation suchen.
Dieses Prinzip wurde in einem Experiment belegt, bei dem die Augenbewegungen beim Lesen eines
Satzes untersucht wurden. Normalerweise wird beim Lesen fast jedes einzelne Wort fixiert. Die
Autoren fanden nun heraus, dass sich die Zeit, die die Leser für die Fixation eines Wortes aufwenden,
sich proportional zum Informationsgehalt des jeweiligen Wortes verhält. So halten die Augen bei
einem unbekanntem oder wenig vertrauten Wort länger inne als bei einem alltäglichen. Unwichtige
Funktionswörter wie "the" oder "to" im Englischen können übersprungen werden.
Außerdem fanden sie heraus, dass wir am Ende jeder Phrase zusätzlich Zeit aufwenden, um die
Bedeutung, die die Phrase vermittelt, abschliessend zu integrieren.
3) Syntaktische und semantische Hinweise für das Sprachverstehen?
Bei der Analyse eines Satzes kombiniert man die Bedeutungen einzelner Wörter, um zu der
Bedeutung des ganzen Satzes zu kommen. Dabei gibt es zwei Hauptinformationsquellen für
syntaktische Hinweise:
Wortreihenfolge: "Die Katze biß die Maus" oder "Die Maus biß die Katze". Beide Sätze
bestehen aus denselben Wörtern, haben aber ganz verschiedene Bedeutungen.
Verwendung von Funktionswörtern: (z.B. Artikel, Relativpronomina) "The boy whom the girl
liked was sick." oder "The boy the girl liked was sick." In Satz 2 fehlt der Hinweis "whom" und
do ist Satz 2 schwieriger zu analysieren.
Wir setzen aber auch semantische Strategien beim Sprachverstehen ein: Wir können die Bedeutung
einer Wortkette auch dadurch bestimmen, dass wir überlegen, wie die Wörter zusammen einen Sinn
ergeben. Wir wissen, was Tarzan meint, wenn er sagt: "Jane Frucht essen", obwohl dieser Satz nicht
den syntaktischen Regeln entspricht.
"John wurde beerdigt und start" – Mehr als 60% würden diesen Satz so umschreiben, dass
John zuerst starb und dann beerdigt wurde.
In meisten Fällen, in denen ein semantisches Prinzip mit einem syntaktischen Prinzip im Konflikt steht,
scheint das semantische Prinzip die Interpretation zu bestimmen. Das ist aber auch kulturabhängig,
denn man fand heraus, dass Amerikaner eher das syntaktische Prinzip und Italiener eher das
semantische vorziehen.
4.) Arten der Mehrdeutigkeit
Man unterscheidet zwischen
a) lexikalischer Mehrdeutigkeit: mehrdeutige Wörter
b) syntaktischer Mehrdeutigkeit: mehrdeutige Satzkonstruktionen
und weiters zwischen
c) vorübergehender Mehrdeutigkeit: Sätze, die zwischenzeitlich mehrdeutig sind, aber am
Ende eindeutig werden
d) anhaltender Mehrdeutigkeit: Mehrdeutigkeit bleibt bis zum Ende des Satzes bestehen
Vorübergehende Mehrdeutigkeit ist in der Sprache weit verbreitet, deshalb gehen wir nach dem
Prinzip der unmittelbaren Verarbeitung vor, d.h., dass wir uns gleich auf eine Interpretation des
Wortes/der Phrase festlegen, obwohl wir nicht wissen, ob diese Interpretation zutrifft. Diese
Interpretation wird durch das Prinzip der minimalen Anbindung determiniert, das besagt, dass man
den Satz so interpretiert, dass die Komplexität des Satzes minimal ist.
Stimmt die Interpretation mit dem weiteren Satzverlauf nicht überein, korrigieren wir sie.
5.) Referenz in der Sprachverarbeitung:
Referenz bedeutet, dass sprachliche Ausdrücke auf außersprachliche Gegebenheiten verweisen, auf
sie referieren. Beim Dialog ist es nun entscheidend, dass man die gemeinsamen Referenten
identifiziert, um das Sprachverstehen zu gewährleisten.
Es gibt einige Prinzipien, die bei der Auflösung der Referenten hilfreich sind:
+ Unterschied zwischen unbestimmtem/bestimmtem Artikel:
z.B.: Vergangene Nacht sah ich den Mond. (= gewohnter Mond, ereignisarmer
Sachverhalt)
Vergangene Nacht sah ich einen Mond. (= neuer Mond, ungewohnter Sachverhalt)
+ Interpretation von Pronomina: Beim Verstehen zieht man mehrere mögliche Kandidaten als
Referenten für ein Pronomen in Betracht und verwendet bei der Auswhhl eines Referenten
syntaktische und semantische Anhaltspunkte:
 bezüglich Geschlecht und Fall: Kurt, Susi und ihr Kind gingen, als es müde wurde. (
es = das Kind)
 Pronomina, die in einem Sachverhalt dieselbe grammatikalische Rolle referieren:
Franz boxte Emil und dann trat er ihn.(er = Franz, ihn = Emil)
 Positionseffekt: Lisa aß den Kuchen; Tina aß ein Stück Torte; danach trank sie
noch Kaffee. (sie = Tina)
 Weltwissen: Tom schrie Eugen an, weil er den Kaffee verschüttet hatte. (er =
Eugen) / Tom schrie Eugen an, weil er Kopfweh hatte. (er = Tom)
6.) Verarbeitung von Negativsätzen?
Negativsätze scheinen eine positive Aussage zu unterstellen und diese dann zu bestreiten.
Beispielsweise setzt der Satz John ist kein Gauner voraus, dass es sinnvoll ist anzunehmen, John ist
ein Gauner, behauptet jedoch, dass dies nicht zutrifft.
In einem Experiment wurde Probanden eine Karte gezeigt (s. Abbildung) und sie wurden gebeten
Sätze über diese Karte als richtig oder falsch zu beurteilen:



Der Stern ist über dem Pluszeichen.
Das Pluszeichen ist über dem Stern
Das Pluszeichen ist nicht über dem Stern

Der Stern ist nicht über dem Pluszeichen
Die Versuchsleiter überprüften die Verarbeitungszeiten der jeweiligen Sätze und entwickelten daraus
ein mathematisches Modell. Sie kamen zu der Vorhersage, dass die Probanden mehr Zeit benötigten
Satz 3, einen wahren Negativsatz, zu beurteilen als Satz 4, einen falschen Negativsatz. Weiters
konnten sie auch feststellen, dass sie für Satz 2, einen falschen Affirmativsatz länger brauchten als für
Satz 1, den wahren Affirmativsatz.
Allgemein:
Beim Verstehen eines Negativsatzes wird zuerst die eingebettete Annahme und dann die
Negation verarbeitet.
*
+
Kapitel 13: Differentielle Aspekte der Kognition
1) Beschreiben Sie die 4 Entwicklungsstufen nach Jean Piaget
o
o
o
o
Sensumotorische Stufe: (1,2 Lebensjahr) auf dieser Stufe entwickeln Kinder
Schemata über die physikalische Welt, zB. lernen sie ein objekt als einen
beständigen Gegenstand anzusehen
Präoperatorische Stufe: (2-7 Lj.) Kind ist zu internalem Denken über die Welt
fähig, aber die mentalen prozesse sind noch intuitiv und es fehlt ihnen die
Systematik
Konkret-operatorische Stufe: (7-11 Lj.) Kind entwickelt eine Reihe von
mentalen Operationen, kann sich dadurch systematisch mit der physikalischen
Welt auseinandersetzen, doch die Fähigkeit zum abstrakten Denken ist noch
erheblich eingeschränkt
Formal-operatorische Stufe: (11-15 Lj.) Fähigkeit zum abstrakten Denken tritt
auf. nach dieser Stufe ist das Kind hinsichtlich seiner kognitiven Fähigkeiten
ein Erwachsener, also fähig zum schlußfolgernden, wissenschaftlichen
Denken.
2) Erklären Sie die Invarianzaufgabe von Flüssigkeiten
Man zeigt dem Kind zwei gleichgrosse Bechergläser, die beide gleich viel Wasser enthalten,
sowie ein hohes schmales glas. Auf die Frage hin, ob beide Bechergläser gleich viel Wasser
enthalten, antwortet das Kind mit Ja. Nun schüttet man das Wasser aus einem der Becher in
das hohe, schmale Glas. Das Kind wird nun behaupten, dass sich im hohen Glas mehr Wasser
befindet. Das Kind wird durch den äußeren Anschein beeinflußt und stellt keinen
Zusammenhand zwischen den Tatsachen her, dass die Flüssigkeitsmenge unverändert ist und
dass sie gesehen haben, wie das Wasser vom Becherglas in das hohe Glas geschüttet wurde.
3) Wie äußert sich die Invarianz auf der sensumotorischen Stufe
Wenn Kinder auf die Welt kommen, wissen sie nicht, dass Dinge trotz Transformationen in
Zeit und Raum weiterbestehen. Während des ersten Lebensjahres entwickeln sie erst ein
Konzept der Objektpermanenz. Wird ein Spielzeug, nach dem ein sechs Monate alter
Säugling gerade greift, mit Stoff bedeckt, so hört das Kind auf, danach zu greifen, und verliert
das Interesse daran. Das Spielzeug scheint für das Kind nicht mehr zu existieren. Das Konzept
der Objektpermanenz entwickelt sich langsam und erst nach 12 Monaten ist es vollständig
ausgereift.
4) Welche Relationen bestehen zwischen dem Denken und dem Älterwerden
Mit zunehmendem Alter lernen wir immer mehr Dinge, aber die kognitive Fähigkeit des
Menschen steigt mit den hinzukommenden jahren nicht in gleichen Maße an. Ein
Intelligenztest verdeutlicht, dass die verbale Intelligenz, also Wortschatz und
Sprachverständnis, über Jahre hinweg relativ stabil bleibt. Dem gegenüber fällt die
Leistungskurve stark ab, die sich auf Fähigkeiten wie das Schlußfolgern und das
Problemlösen bezieht.
Es gibt einen alterungsbedingten Rückgang verschiedener Gehirnfunktionen. So sterben etwa
Gehirnzellen ab oder sie schrumpfen. (Allerdings wachsen auch andere Zellen, um die
abgestorbenen zu kompensieren!) Außerdem können Ältere an verschiedenen Krankheiten
des Gehirns leiden (zB. Morbus Alzheimer) Eine Studie zeigte, dass Menschen in vielen
berufen ihre besten Arbeiten etwa mit Mitte Dreißig produzieren, außerdem besagte sie auch,
dass eine relativ hohe intellektuelle Leistung bis zum Alter von 40 bzw. 50 erhalten bleibt.
5) Diskutieren sie die Anlage-Umwelt-Kontroverse bezüglich der intellektuellen Entwicklung
Im Hinblick auf die Anlage-Umwelt-Debatte ergeben die Daten aus der Forschung ein
uneinheitliches Bild.
Einige sagen, dass Kinder mit zunehmendem Alter "besser denken", das heißt, die kognitiven
Prozesse verbessern sich. So können sie mehr Informationen im Arbeitsgedächtnis behalten,
oder sie können die Informationen schneller verarbeiten.
Andere wiederum behaupten, dass Kinder im Laufe der Entwicklung mehr Fakten und
Methoden lernen, sie können Aufgaben besser ausführen.
Natürlich ist der Fortschritt des Kindes auf beide Faktoren zurückzuführen, die Frage ist nur
wie gross der relative Anteil jedes Faktors ist. In den ersten beiden Lebensjahren trägt aber
die neuronale Entwicklung viel mehr zu kognitiven Entwicklung bei als nach dem 2. Lj.. So
kann man sagen, dass vor allem am Anfang die intellektuelle Kapazität mit den
Gehirnfunktionen einhergeht. Jedoch kann auch die Übung und das Wissen ein dominanterer
Faktor als das Alter sein.
6) Was mißt die Faktorenanalyse
Intelligenztests bestehen im allgemeinen aus einer Reihe von Untertests, wobei Personen, die
gute Leistungen in dem einen Test erbringen auch in anderen Tests gut abschneiden. Die
Beziehung zwischen den Tests wird mit dem Korrelationskoeffizienten ausgedrückt. Die
Korrelation ist 1, wenn die Person in beiden Tests gleich gut ist. Besteht kein Zusammenhang
zwischen den Tests, so ist die Korrelation 0. Die Faktorenanalyse bietet nun eine Möglichkeit,
solche Korrelationsmuster zu interpretieren. Die Tests werden so in einem
mehrdimensionalen Raum angeordnet, dass der Abstand der Tests untereinander der
Korrelation entspricht. Elemente, die nahe zusammen sind, besitzen hohe Korrelation.
Die Faktorenanalyse dient dazu, die Anzahl der Korrelationen zu reduzieren und zu einer
geringen Anzahl von Faktoren zu gelangen. Allerdings ist man sich nicht einig, was diese
Faktoren eigentlich sind. Ist es nur ein Faktor ("g-Faktor), sind es drei ("verbaler Faktor,
räumlicher F., schlußfolgerndes Denken") oder sind es überhaupt über 100 verschiedene
Faktoren.
7) Die Entwicklung des menschlichen Gehirns in Vergleich zu anderen Säugetieren
Menschen sind im Verhältnis zu ihrer Körpergröße mit einem sehr grossen Gehirn
ausgestattet, wodurch ein Problem entstand: Wie ließ sich die Geburt von Säuglingen mit so
grossem Gehirn bewerkstelligen? So vergrösserte sich der Geburtskanal so weit es das Skelett
zuließ. Außerdem ist der Schädel bei der Geburt so plastisch verformbar, dass er in eine
Kegelform zusammengepreßt werden kann. Trotzdem ist die Geburt im vergleich zu anderen
Säugetieren sehr schwierig.
Der Mensch wird – anders als viele Säugetiere – mit einem unreifen Gehirn geboren, ein
Großteil der neuronalen Entwicklung musste auf die Zeit nach der Geburt gelegt werden.
Trotz 9-monatiger Entwicklung im Mutterleib sind Menschen zum Zeitpunkt der Geburt recht
hilflos und brauchen etwa 15 Jahre bis zur Geschlechtsreife heranzuwachsen. Im Vergleich
dazu ist ein Hund mit 9-wöchigen Tragezeit in weniger als einem Jahr ausgewachsen und
fortpflanzungsfähig.
Da die moderne Gesellschaft so komplex ist, müssen wir uns auch noch soviel Wissen
aneignen, dass wir oft mehr als 25 Jahre brauchen, um ins Berufsleben einsteigen zu können.
8) Das Modell der multiplen Intelligenzen nach Gardner?
Gardner meint, dass es zumindest 6 verschiedene Arten von Intelligenz gäbe: sprachliche,
musikalische, mathematische, räumliche, kinästhetische und personale Intelligenz. All diesen
Formen von Intelligenz sind verschiedenen neuronalen Zentren im Gehirn zugeordnet. Es gibt
Menschen, die auf einer Dimension außerordentlich intelligent sind, und es macht keinen Sinn
zu sagen, dass eine Person intelligenter als eine andere sei. Intelligenz ist kein einheitliches
Konzept wie zB. Körpergrösse.
Bei sprachlicher Intelligenz ist das Vorhandensein verschiedener neuronaler Zentren gut
belegt, Gardner sieht Dichter und Schriftsteller als außerordentlich sprachlich talentiert an.
Als weiteren Beleg für räumliche Intelligenz (neben neuronalen Zentren) betrachtete Gardner
die weite Verbindung der bildenden Künste über fast alle Kulturen hinweg.
Für mathematische Intelligenz ist es schwieriger Belege zu finden, denn so wie sie in Tests
gemessen wird, gilt sie nur für westliche Gesellschaften. doch ist allen Völkern die Fähigkeit
zum Zählen gegeben. Eine Alternative wäre, statt für mathematische Intelligenz den Faktor
des schlussfolgernden Denkens anzuführen.
In der musikalischen Fähigkeit gibt es ebenfalls auffällige individuelle Unterschiede bis hin
zu Wunderkindern wie Mozart. Musik ist unbestritten eine kulturelle Universalie.
Bezüglich kinästhetischer Intelligenz betrachtet Gardner berühmte Pantomimen als sehr
intelligent.
Bei personaler Intelligenz unterscheidet er zwischen Selbstverständnis und Fähigkeit zum
sozialen Erfolg.
V000623
Herunterladen