Prüfungsfragen und Antwortvorschläge zu LV Kognitive Psychologie II (SS 2000) Ao. Univ.-Prof. Dr. Michael Trimmel Prüfungsfragenausarbeitung von: Culha Yasmine Linhart Verena Paljakka Sanni Ilona Vitalisova Barbara Wulz Bettina Die o.g. Kolleginnen haben 80 Prüfungsfragen (nach Anderson, 1996) engagiert ausgearbeitet. Es handelt sich dabei um ANTWORTVORSCHLÄGE, da zu den Fragen manchmal auch andere Antworten als richtig anzusehen sind. Ich wollte die Ausarbeitungen aber NICHT im Detail korrigieren, ausweiten oder verkürzen. Zur Stoffeingrenzung habe ich 51 Fragen durch Fettschrift markiert und manchmal kleine Änderungen vorgenommen allerdings ohne damit die volle Verantwortung, bzw. die Identifikation zur Repräsentativität der Fragen/Antworten, auch im Verhältnis zum vorgetragenen Stoff in der LV zu übernehmen. Michael Trimmel Kapitel 1: Die Wissenschaft von der Kognition 1.) Faktoren, die in den 60er Jahren zur Entwicklung der Kognitiven Psychologie, wie wir sie heute kennen, beigetragen haben Die erste Einflußgröße waren die Forschungen zur Leistungsfähigkeit und Leistungsausführung des Menschen, die besonders während des 2. Weltkrieges an Bedeutung gewonnen hatten. Die bis dahin die Psychologie prägende Schule des Behaviorismus hatte ja keine Antworten auf so praxisbezogene Probleme wie Leistung, Training und Aufmerksamkeit der Soldaten. Nach dem Krieg übernahm unter anderen der britische Psychologe Broadbent diese Ideen und brachte sie mit der Informationstheorie zusammen, die in abstrakter Weise die Informationsverarbeitung analysiert. Broadbent untersuchte diese Vorstellung in Bezug auf Wahrnehmung und Aufmerksamkeit und setzte damit den Anfang für Analysen, die die ganze kognitive Psychologie prägen. Weiters hatten Fortschritte in der Computerwissenschaft, der Künstlichen Intelligenz, einen enormen, indirekten Einfluß auf die kognitive Psychologie. Diese übernahm nämlich deren Begriffe und Konzepte, um sie in ihren Theorien einzusetzen. Außerdem konnte man das Vorgehen bei der Analyse von intelligentem Verhalten bei Computern und Menschen vergleichen und sich so von Hemmungen und Fehlkonzepten lösen. Der dritte Einflußfaktor war die Linguistik, und dabei insbesondere Arbeiten von Noam Chomsky zur Analyse der Sprachstruktur. Er zeigte, daß Sprache weit komplexer sei als ursprünglich angenommen. ein Argument, dem der Behaviorismus nichts entgegensetzen konnte. Als Reaktion auf Entwicklungen in diesen 3 Gebieten konnte sich die Kognitive Psychologie schließlich ganz vom Behaviorismus abspalten. 2.) Der Informationsverarbeitungsansatz nach Sternberg - das Sternberg-Paradigma Das bekannteste Beispiel der Beschreibung des Informationsverarbeitungsansatzes, also der Untersuchung des menschlichen Denkens, bietet Sternberg um 1966. In Sternbergs Experiment mußten sich die Probanden eine Anzahl von Ziffern merken und später Fragen, ob eine bestimmte Testziffer unter der zu merkenden Menge befand, so schnell wie möglich beantworten. Sternberg fand eine annähernd lineare Beziehung zwischen der zu behaltenden Zahlenmenge und der Beurteilungszeit. Nun entwickelte Sternberg einen abstrakten Erklärungsansatz für den Denkprozeß seiner Probanden, der seiner Meinung nach so ähnlich abläuft wie das schnelle Durchkalkulieren eines Computers: zuerst mußte der Reiz enkodiert, dann mit jedem Element der Zahlenmenge verglichen werden, der Proband mußte zu einem Urteil kommen und dieses hervorbringen. Diesen Prozeß hielt er als ein Flußdiagramm fest, ein damals beliebtes Mittel zur Darstellung der Informationsverarbeitungsschritte, das aus der Computerwissenschaft übernommen worden war. Sternbergs Modell verzichtet gänzlich auf den Versuch, die ablaufende Informationsverarbeitung im Gehirn zu lokalisieren oder sie an Hand von Prozessen im Gehirn zu konzeptualisieren. Überwiegend wird sie in dem Modell nämlich symbolisch konzeptualisiert, die Zahlen sind also Symbole, die miteinander verglichen werden, wobei Sternberg auch mögliche neuronale Repräsentationen der Symbole nicht beachtet. Theorien dieser Art waren recht erfolgreich, um größere Mengen an Erkenntnissen über die menschliche Kognition zusammenzutragen. 3.)Was versteht man unter "situierter Kognition"? Bei der Frage geht es um die Auseinandersetzung darüber, ob man innere oder äußere Strukturen zur Erklärung des menschlichen Verhaltens heranziehen sollte. Der Psychologe J .J. Gibson steht mit seinem ökologischen Ansatz der Postulierung innerer Strukturen, wie etwa dem Informationsverarbeitungsansatz, gegenüber. Man solle die Kognition als Reaktion auf relevante Strukturen in der Umgebung auffassen und daher besser die Struktur der (sozialen) Umwelt statt der Struktur des Geistes untersuchen. Gibson selbst beschäftigte sich hauptsächlich mit Fragen der Wahrnehmung, aber auch andere Forscher machen sich (im Zusammenhang mit höheren kognitiven Prozessen) für seine Sichtweise stark, eben im Rahmen der sogenannten situierten Kognition, die im Grunde eine Rückwendung zum Behaviorismus darstellt: es sei nicht notwendig, geistige Mechanismen zu postulieren, sondern eben nur die Umwelt zu untersuchen. Ein weiterer Begriff dieser Denkschule ist der "Aufforderungscharakter", der sich auf das Vorliegen unmittelbar erkennbarer Verhaltensmöglichkeiten in der Umwelt bezieht: obwohl nicht bestritten wird, daß Menschen planen, verlaufen die Handlungen nicht unbedingt nach dem Plan, sondern sind direkte Reaktionen auf die Wahrnehmung der Umwelt. In einem Beispiel mit einem Kanu und Stromschnellen, wird etwa die Wahrnehmung eines Felsens zu der Handlung "auffordern", ihm auszuweichen. Diese Handlung war nicht Teil des Plans, sondern eben eine direkte Reaktion auf die Wahrnehmung des Felsens. 4.) Der Informationsverarbeitungsansatz im Zusammenhang mit dem Computer. - Was versteht man unter "Symbolmanipulation"? In dieser Auseinandersetzung ging es darum, wie weit man die Kognition auf konkrete Funktionen des Gehirns beziehen oder über abstraktere Zusammenhänge erklären sollte. Allerdings ist die Untersuchung der physiologischen Grundlagen - des Gehirns - zu aufwendig und das Zusammenspiel der Nervenzellen etwa bei der Lösung einer Aufgabe zu detailliert, um brauchbar zu sein. So stützte sich die Kognitive Psychologie immer mehr auf einen Informationsverarbeitungsansatz, der stark von den neuronalen Detail abstrahiert war und zum besseren Verständnis des menschlichen Analogien zum Computer verwendete. Denn der Computer besteht wie das Gehirn, aus Millionen von Komponenten. Es wäre sinnlos, bei einer Aufgabe das Verhalten des Computers durch die Untersuchung einer jeden physikalischen Komponente verstehen zu wollen. Allerdings kann man über höhere, abstrakte Programmiersprachen ohne Berücksichtigung von Details das Gesamtverhalten des Computers erfassen. So sollte auch die kognitive Theorie das kognitive Verhalten präzise erfassen, aber in einer handhabbaren, abstrakten Weise. Besonders einflußreich, aber auch umstritten, war (und ist) die Übernahme von Vorstellungen aus der Künstlichen Intelligenz. Programme im Rahmen der Künstlichen Intelligenz lösen Probleme üblicherweise so, daß sie zum einen abstrakte Konzepte verwenden und zum anderen Regeln, mit denen man logisch über diese Konzepte nachdenken kann. Solche Erklärungsansätze der Kognition nennt man Symbolmanipulation, weil sie das Denken anhand abstrakter Symbole beschreiben und das Problem der neuronalen Realisierung dieser Symbole außer Acht lassen. 5.) Das Neuron - Informationsverarbeitung im Nervensystem Ein Neuron ist eine Nervenzelle; sie akkumuliert elektrische Aktivität und leitet diese weiter. Das menschliche Gehirn selbst enthält etwa 100 Milliarden Neuronen. Der Prototyp eines Neurons besteht aus Zellkörper (Soma), den von ihr ausgehenden Verästelungen (Dendriten), sowie einem schlauchartigen Fortsatz (Axon). Ein Axon ist die feste Verbindung zwischen Neuronen, sie führt zu den Dendriten eines anderen Neurons, diese Kontaktstelle nennt man Synapse. Am Ende des Axons werden Neurotransmitter freigesetzt, die auf die Membran des empfangenden Dendriten einwirken und deren elektrisches Potential ändern. Erhöhen sie das Aktivationsniveau, sind es erregende (exzitatorische) Synapsen, senken sie es, nennt man sie hemmende (inhibitorische) Synapsen. Die Impulse, die auf diese Weise weitergeleitet werden, machen die gesamte neuronale Informationsverarbeitung aus und die Intelligenz ergibt sich aus diesem einfachen System neuronaler Wechselwirkungen. Wir wissen allerdings nicht genau, wie die Kognition im Gehirn in Form von neuronalen Mustern kodiert wird, aber es gibt etliche Anhaltspunkte dafür, daß menschliche Wissensbestände nicht in einem Neuron lokalisiert sind, sondern in ausgedehnten Aktivationsmustern über die Menge der Neuronen verteilt sind. Die Zerstörung einer gerinen Anzahl von Neuronen im Gehirn führt im allgemeinen nicht zum Verlust spezifischer Gedächtnisinhalte. Solche Aktivationsmuster bestehen aber nur vorübergehend und man vermutet, daß Gedächtnisinhalte durch Veränderungen der synaptischen Verbindungen zwischen Neuronen kodiert werden. Durch die Veränderung der synaptischen Wege kann sich das Gehirn selbst in den Stand versetzen, bestimmte Muster zu reproduzieren. Es gibt zum Beispiel Belege, daß Synapsenverbindungen sich beim Lernen ändern, erstens hinsichtlich der erhöhten Freisetzung von Neurotransmittern und zweitens der Empfindlichkeit auf Seiten der empfangenden Dendriten. 6.) Unterschiedliche Spezialisierung des Gehirns für unterschiedliche kognitive Funktionen Den Neocortex kann man sich als dünne Schicht von Neuronen vorstellen (beim Menschen ¾ aller Neuronen), die vielfach gefaltet und gewunden ist. Sie teilt sich in die linke und rechte Hemisphäre. Dabei besteht eine enge Verbindung zwischen der rechten Körperhälfte und der linken Hemisphäre und umgekehrt zwischen der linken Körperhälfte und der rechten Hemisphäre. Beide Hemisphären gliedern sich folgendermaßen: der Frontallappen, dessen hinterer Teil mit motorischen Funktionen und vordere Teil mit höheren Funktionen zusammenhängt, der Occipitallappen, der die primären visuellen Felder beinhaltet, der Parietallappen, der mit einigen sensorischen Funktionen zu tun hat und der Temporallappen, der die primären auditiven Felder enthält und an der Objekterkennung beteiligt ist. Von den höheren kognitiven Funktionen wissen wir, daß die beiden Hemisphären jeweils auf unterschiedliche Funktionsbereiche spezialisiert zu sein scheinen. Generell die linke Hemisphäre auf Sprache und analytische Verarbeitung und die rechte auf wahrnehmungsgebundene und räumliche Prozesse. Aus der Untersuchung von Patienten, die Verletzungen an bestimmten Hirnregionen erlitten hatten, ergab sich auch, daß es im linken Cortex Bereiche gibt, die für das Sprechen besonders wichtig sind: das Broca-Zentrum (für Grammatik) und das Wernicke-Zentrum (für Wortschatz und sinnvolle Sprache). Außerdem ist in vielen Regionen des Cortex die Informationsverarbeitung räumlich, also topographisch organisiert, das heißt benachbarte Körperteile sind auch im Nervengewebe aneinandergrenzend repräsentiert. Zellen reagieren auf verschiedene überlappende Körperregionen und jeder einzelne Punkt erregt eine unterschiedliche Gruppe von Zellen. (Dies spricht für die Vorstellung, daß neuronale Information meistens in Form von Aktivationsmustern repräsentiert ist.) In jüngster Zeit gab es in der Neurowissenschaft immer mehr Fortschritte bei der Funktionsbestimmung einzelner Hirnregionen und zwar durch Anwendung immer ausgefeilterer Geräte und Methoden; dazu gehören etwa die Positronen-Emissions-Tomographie, die Durchblutungsveränderungen in Hirnregionen mißt, das MRI, das den Blutfluß anhand der Veränderungen im magnetischen Feld mißt oder das ERP zur Aufzeichnung elektrischer Aktivität des Gehirns. 7.) Ein konnektionistisches Modell: das PDP? Der Konnektionismus befaßt sich mit der Verknüpfung neuronaler Elemente und mit der Art und Weise, wie sich dadurch höhere Kognitionen darstellen und erklären lassen. Weil die Forschung mit den Phänomenen der höheren kognitiven Prozesse noch am Anfang steht, geht der Konnektionismus nicht davon aus, erklären zu wollen, wie das Gehirn diese Prozesse tatsächlich bewerkstelligt, sondern wie es sie bewältigen könnte. Die Ausgangsfrage lautet, auf welche Weise sich höhere Funktionen dadurch erzielen lassen, indem man Grundelemente von der Art der Neuronen miteinander verknüpft (Konnektion = Verknüpfung). Eine Rahmenvorstellung für solche konnektionistischen Modelle ist das PDP (parallel distributed processing model) von McClelland und Rumelhart. Ihr Modell lehnt sich eng an die Vorstellung an, daß Information in Form von Aktivationsmustern über neuronale Elemente hinweg repräsentiert ist. (Diese Elemente verarbeiten die Information, indem sie Aktivation ansammeln und erregende oder hemmende Einflüsse auf andere Elemente ausüben.) McClelland und Rumelhart verwenden Abbildungen von solchen Netzwerken, um eben neuronale Informationsverarbeitung zu modellieren. In einer solchen Abbildung stehen Elemente für die Neuronen und die Verbindungslinien für die neuronalen Verknüpfungen, wobei es hemmende und erregende Verbindungen gibt. Die Aktivation eines Elements (auch: Unit) hemmt im allgemeinen die Aktivation der restlichen Elemente. Das System legt quasi sozial intelligentes Verhalten an den Tag, in dem ihm eine Beschreibung eines Elementes gegeben wird und es dann das jeweilige Unit durch starke Aktivation als Antwort ausgibt. Außerdem kommt es auf Basis von Ähnlichkeiten zu Schlußfolgerungen. So ist es eine Demonstration von Möglichkeiten, wie man sich neuronale Mechanismen als Grundlage von recht differenzierten Gedächtnisurteilen vorstellen kann. Tatsächlich stimmt es mit Verhaltensdetails überein, nach denen gewisse Einschätzungen funktionieren, außerdem helfen solche Modelle, die Kluft zwischen Grundfunktionen des Gehirns und höheren kognitiven Prozessen zu überbrücken. Kapitel 2: Die Wahrnehmung 1.) Die frühen visuellen Prozesse Licht durchquert die Linse und den Glaskörper und fällt auf die Netzhaut an der Rückseite der Netzhaut, wo lichtempfindliche Zellen - Photorezeptoren - darauf reagieren. Es gibt zwei Typen von Photorezeptoren: Zapfen, die für das Farbsehen sowie Schärfe zuständig sind, und Stäbchen für weniger scharfes Schwarz-weiß-Sehen. Viele Zapfen befinden sich vor allem in einem kleinen Bereich der Netzhaut, der Fovea. Foveales Sehen betrifft die Erkennung feiner Details, der Rest des visuellen Feldes ist für die Erkennung feiner Details, der Rest des visuellen Feldes für die Erkennung von globaler Information sowie Bewegung verantwortlich. Das Licht wird also durch einen photochemischen Prozeß in Nervenimpulse umgewandelt. Die Rezeptorzellen sind synaptisch mit den Bipolarzellen und diese mit Ganglionzellen verbunden, deren Axone aus dem Auge austreten und den optischen Nerv bilden, der zum Gehirn führt. Informationen werden durch die Ganglionzellen enkodiert. Durch teilweise Überkreuzung der optischen Nerven erreicht Information über das linke visuelle Feld die rechte Gehirnhälfte und umgekehrt. Die Fasern der Ganglien sind synaptisch mit Zellen von Hirnarealen unterhalb des Cortex verbunden. Einige Ganglionzellen zeigen einen Anstieg der Spontanrate des Feuerns, wenn Licht auf das empfindliche Zentrum fällt, die On-Off-Zellen. Bei Off-On-Zellen jedoch sinkt die Spontanrate bei Licht auf das Zentrum und steigt bei Licht auf die Umgebung. Diese Ganglionzellen verknüpfen sich entweder zum Aufbau von Kantendetektoren, die positiv auf Licht an der einen Seite und negativ auf Licht an der anderen Seite reagieren oder zu Balkendetektoren, die im Zentrum positiv und in der Peripherie negativ auf Licht reagieren. Beide Arten von Detektoren sind spezifisch in Bezug auf positive Ausrichtung und Ausdehnung und werden durch bestimmte Muster stimuliert. Sogar auf diesem niedrigen Niveau verarbeitet das Nervensystem Information in der Art von Mustern neuronaler Aktivität. 2.) Hinweisreize zur Wahrnehmung von Tiefe und Oberfläche und der Beitrag von Marr (1982)? Das Grundproblem an der Wahrnehmung einer dreidimensionalen Welt ist, daß die an der Netzhaut anliegende Information von Natur aus zweidimensional ist. So bedient sich das visuelle System einer ganzen Anzahl an Hinweisreizen zu Wahrnehmung von Tiefe und Oberfläche. Einer dieser Hinweisreize ist der Texturgradient. Die wahrgenommenen Elemente scheinen mit steigender Entfernung dichter gepackt zu sein, so kann eine ebene Fläche durch Veränderung der Textur den Eindruck von Tiefe übermitteln. Ein anderer Hinweisreiz ist die Stereopsie, die sich auf die einfache Tatsache bezieht, daß jedes Auge ein eigenes, zum anderen etwas unterschiedliches Bild bekommt. Ohne diese stereoptische Information haben wir den Eindruck eines sehr flachen Bildes. Etwa 3-D-Brillen beruhen auf diesem Prinzip. Eine dritte Informationsquelle ist die Bewegungsparallaxe. Bewegt man den Kopf, bewegen sich nahe Objekte schneller über die Netzhaut als weiter entfernte. Durch die Kopfbewegung erkennen wir auch wenn wir ein Auge geschlossen haben klar die Dreidimensionale Struktur eines Objekts, sowie die relative Lage von Objekten zueinander. Es ist aber eine weit komplexere Sache zu verstehen, wie das Gehirn diese Informationen tatsächlich verarbeitet. David Marr (1982) schlug den Begriff 2 ½.-D-Skizze vor: die verschiedenen Informationsquellen arbeiten zusammen um eine solche Skizze zu erstellen, die erlaubt, die relative Lage eines Objekts zum Betrachter zu bestimmen. Diese Repräsentation ist aber noch weit von der tatsächlichen Wahrnehmung der Welt. So ermöglicht erst die 3-D-Skizze die Bestimmung, welche Objekte sich in der Umgebung befinden. 3.) Gestaltgesetze der Wahrnehmungsorganisation Die Organisation von Objekten zu Einheiten folgt bestimmten Gesetzen (Mechanismen): Das Gesetz der Nähe: nahe beieinanderliegende Elemente organisieren sich oft zu Einheiten. Das Gesetz der Ähnlichkeit: wir neigen dazu, ähnlich aussehende Objekte zu einer Gruppe zusammenzufassen. Das Gesetz des glatten Verlaufs: wir bevorzugen Linien mit glattem Verlauf gegenüber Linien, die stark abgeknickt sind. Das Gesetz der guten Gestalt: im Zweifelsfall sehen wir vertraute, geschlossene Formen lieber als nichtdefinierbare Gestalten. Aufgrund dieser Gesetze schließen wir auch unbekannte Stimuli zu Einheiten zusammen. Man glaubt, daß die grundliegenden visuellen Mechanismen zum großen Teil angeboren sind. Schon im Säuglingsalter scheinen Objekte und Formen wiedererkannt und ihre Lage im Raum eingeschätzt zu werden. 4.) 3 Ansätze zur visuellen Mustererkennung? 3 Ansätze werden diskutiert: die Schablonenabgleich und die Merkmalsanalyse in Bezug auf Mustererkennung sowie die Objekterkennung. Die Wahrnehmungstheorie des Schablonenabgleichs beruht auf der Annahme, daß ein getreues Netzhautbild eines Objekts an das Gehirn übermittelt und dann der Versuch unternommen wird, es mit bereits gespeicherten Mustern (Schablonen) direkt zu vergleichen. Nach dieser Grundannahme sollte das System etwa bei einem Buchstaben einen Vergleich mit den Schablonen durchführen, die es für jeden Buchstaben besitzt und die Schablone mit der besten Übereinstimmung melden. Allerdings kann das kaum ein glaubwürdiges Modell für die menschliche Mustererkennung sein, denn diese ist seht flexibel und erkennt auch Buchstaben mit so ungewöhnlicher Schreibweise, Stellung usw., daß sie nicht mehr in die Schablonen passen. Nach einem anderen Modell beruht die Mustererkennung auf der Merkmalsanalyse. Jeder Reiz ist eine Kombination elementarer Merkmale, die erkannt werden. Das Modell hat gegenüber dem Schablonenabgleich einige Vorteile: die Merkmale sind einfacher strukturiert, es können diejenigen Beziehungen zwischen den Merkmalen angegeben werden, die für das Muster charakteristisch sind und die Zahl der benötigten Muster ist geringer (als die der Schablonen), da dieselben Merkmale in vielen Mustern vorkommen. Aus Verhaltensexperimenten ergeben sich viele Belege für diese Theorie, so etwa werden Buchstaben, die viele Merkmale gemeinsam haben, öfter verwechselt als ganz deutlich unterschiedliche Buchstaben. Es gibt viele Belege dafür, daß die gleichen Prozesse auch dem Erkennen von Objekten (wie Pferden oder Tassen) zugrundeliegen. Die entscheidende Annahme dabei ist, daß die Objekterkennung durch die Erkennung der Komponenten des Objekts vermittelt ist. Das Objekt wird also in Teilobjekte untergliedert, jedes Teilobjekt kann klassifiziert werden und das Objekt wird als dasjenige Muster erkannt, das aus diesen Teilen zusammengesetzt ist. Biederman (1987) vertritt die Ansicht, daß es 36 solcher Teilobjekte gibt, die er Geons nennt. Das Erkennen eines Geons ist mit dem Erkennen eines Buchstabens vergleichbar, es gibt auch hierbei viele kleine Variationen des jeweiligen Geons, die aber nicht entscheidend für das Erkennen sind. Zum Beispiel muß nur bestimmt werden, ob eine Kante gerade oder gekrümmt ist, wie stark sie gekrümmt ist oder ihre Farbe Textur oder kleine Details spielen keine Rolle 5.) Zur Merkmalsanalyse der gesprochenen Sprache? Die Prozesse der Merkmalsanalyse und der Merkmalskombination bei visuellem Erkennen scheinen auch der Sprachwahrnehmung zugrunde zu liegen. Einzelne Phoneme (die kleinsten sprachlichen Einheiten, die Sprachlaute) bestehen wie einzelne Buchstaben aus einer Anzahl von Merkmalen. Durch die Identifikation von Phonemen erkennen wir Wörter. Die Schwierigkeit liegt darin, daß das Sprechen kontinuierlich verläuft und Phoneme deshalb nicht so voneinander getrennt sind wie etwa gedruckte Buchstaben. Ein weiteres Segmentierungsproblem liegt in dem Phänomen der Koartikulation, daß beim Sprechen viele Phoneme sich überlappen und daß das Klangmuster eines Phonems durch den Kontext der anderen Phoneme mitbestimmt wird. Die Sprachwahrnehmung umfaßt also spezielle Mechanismen, die über die allgemeinen Mechanismen der akustischen Wahrnehmung hinausgehen. Zu den Mechanismen gehört es, die Mermale der Phoneme zu erkennen. Zu den Merkmalen von Lautklassen gehören Konsonanzmerkmal, Stimmhaftigkeit und der Artikulationsort. Das Konsonanzmerkmal ist vorhanden, wenn es sich um einen Konsonanten (im Gegensatz zum Vokal) handelt. Die Stimmhaftigkeit bezieht sich auf den Klang eines Lautes. Wird er durch Schwingungen der Stimmlippen gebildet und vibriert der Kehlkopf, so ist der Laut stimmhaft. Und als Artikulationsort bezeichnet man den Ort, an dem der Vokaltrakt bei der Erzeugung eines Phonems geschlossen wird. Der Vokaltrakt wird beim Hervorbringen der meisten Konsonanten zu irgendeinem Zeitpunkt geschlossen. Bei Experimenten zeigte sich, daß Probanden Laute, die sich nur in einem dieser Merkmale unterscheiden, am häufigsten miteinander verwechseln. Außerdem ist man sich weitgehend einig, daß die Wahrnehmung von Phonemen als kategorial bezeichnet werden kann, das heißt, wir wir nehmen sie als verschiedenen Kategorien entstammend wahr. In Experimenten können Probanden 2 Laute nur dann unterscheiden, wenn zwischen ihnen eine Phonemgrenze verläuft (etwa von stimmhaft zu stimmlos). Es gibt sogar eine Sichtweise, die besagt, daß wir zudem nicht in der Lage sind, zwischen Stimuli innerhalb einer Kategorie zu unterscheiden. 6.) Kontextinformation und ihr Beitrag zur Mustererkennung? Objekte treten meist in Kontexten auf und diese können wir nutzen, um die Mustererkennung zu steuern. Wenn das geschieht oder wenn allgemeines Weltwissen die Wahrnehmung steuert, bezeichnen wir das als Top-down-Verarbeitung, im Gegensatz zum Begriff Bottom-up-Information, die der Reiz liefert. Diese beiden Begriffe spielen eine große Rolle in der Wahrnehmungsforschung. Zu diesen Top-down-Kontexteffekten gibt es zahlreiche Experimente. In einer Untersuchung zum Wortüberlegenheitseffekt fand man, daß im Gegensatz zur Verwendung von Einzelbuchstaben als Stimuli bei der Verwendung von ganzen Wörtern weniger Fehlentscheidungen gemacht wurden. Der Proband kann den Buchstaben in einem Wortkontext leichter erschließen, wobei die Schlußfolgerungen dabei automatisch und unbewußt ablaufen. Und ebenso wie bei der Buchstabenerkennung Merkmalsinformationen durch Wortkontext ergänzt werden, werden bei Worterkennung die Merkmalsinformationen durch den Satzkontext ergänzt. Liegt ein Kontext vor, brauchen wir dem Wort selbst weniger Information entnehmen, um es zu erkennen und wir können den Kontext sogar benützen, um Wörter einzufügen, die gar nicht aufgetreten sind. Auch bei gesprochener Sprache ergänzen wir bei Bedarf automatisch Phoneme durch den Kontext (=Phonemergänzungseffekt); Und ebenso zur Identifikation von Objekten (Gesichtern und Szenen...) wird der Kontext herangezogen. 7.) Das FLMP- und das PDP-Modell, eine Gegenüberstellung Das FLMP-Modell von Massaro und das PDP-Modell von McClelland und Rumelhart liefern zwei verschiedenen Grundideen über die genauen Wirkmechanismen einer Wahrnehmungssituation. Das FLMP-Modell besagt, daß der Kontext und der Stimulus zwei unabhängige Informationsquellen zur Interpretation des Stimulusmusters darstellen. Massaro argumentiert mit Experimenten als Beleg, daß Evidenzen aus dem Kontext und Evidenzen aus dem Stimulus unabhängig voneinander kombiniert werden. Diese Evidenzen stellen im wesentlichen Wahrscheinlichkeiten dar, die Massaro fuzzy truth values nennt (FLMP steht für fuzzy logical model of perception). Auch stellt Massaro eine Gleichung auf, nach der 2 verschiedene Evidenzquellen für eine Hypothese kombiniert werden können. Im großen und ganzen hat diese Theorie für die Erklärung zur Kombination von Informationen gute Dienste geleistet. McClelland und Rumelhart haben ein ganz anderes Modell zu dieser Kombination vorgeschlagen, ein konnektionistisches Modell, das PDP-Modell (von Parallel Distributed Processing). Die Wissenschaftler haben Abbildungen von ganzen Netzwerken zur Mustererkennung entworfen, wobei diese Netzwerke über exzitatorische oder inhibitorische Prozesse Merkmale zu Buchstaben und Buchstaben wieder zu Worten kombinieren. Das Modell beschreibt Verarbeitungsprozesse im Nervensystem und sagt voraus, daß über den Kontext Top-down-Prozesse die momentane Empfindlichkeit zur Erkennung spezifischer Buchstaben beeinflussen. Die Kognition wird also anhand des Zusammenspiels untereinander verbundener, nervenartiger Elemente beschrieben. Massaro kritisiert, daß das Modell zu unempfindlich auf Effekte der Stimulusinformation reagiere, wenn diese der Kontextinformation zuwiderliefen. Allerdings ist das PDP-Modell - auf niedrigerem Abstraktionsniveau - besser als das FLMP-Modell in der Lage, Vorhersagen über die Kombination von Informationen zu treffen und Details wie etwa die Effekte der Verarbeitung aufeinanderfolgender Buchstaben zu umfassen. Aber auch in diesem Modell sind wir weit davon entfernt, genau zu verstehen, wie die Verarbeitung innerhalb eines solchen Netzwerks funktioniert. Kapitel 3: Aufmerksamkeit und Leistung 1.) Der Begriff Aufmerksamkeit? Das menschliche Informationsverarbeitungssystem ist ein System beschränkter Kapazität. Bei der Verarbeitung müssen wir uns also für die wichtige Information entscheiden und weniger wichtige Information vernachlässigen. Diese Zuweisung von kognitiven Ressourcen wird oft Aufmerksamkeit genannt. Ein Großteil der Forschung über menschliche Aufmerksamkeitsprozesse bezieht sich auf die Verteilung von Ressourcen bei der Wahrnehmung. Die Art und Weise, wie die kognitive Psychologie das Aufmerksamkeitsproblem behandelt, unterliegt allmählichen Verschiebungen. Lange Zeit lag dem die implizite Annahme zugrunde, daß Aufmerksamkeit stark an das Bewußtsein gebunden ist - wir können einem Objekt nicht Aufmerksamkeit zukommen lassen, bevor wir uns dieses Objekts bewußt sind. Immer stärker gelangt man zu einer gegenteiligen Ansicht und damit auch zur Einsicht, daß Aufmerksamkeit kein einheitliches System darstellen muß und es nicht einen, sondern mehrere Mechanismen der Ressourcenzuteilung gibt. In der Tradition von Broadbent lassen sich Selektion, Bewußtheit und Kontrolle als grundlegende Funktionen der Aufmerksamkeit unterscheiden, wonach also nicht bloß die selektive Funtion in der Wahnehmung sondern auch der Handlungsaspekt und Bewußtseinsphänomene als Funktionen der Aufmerksamkeit betrachtet werden. 2.) Aufmerksamkeitstheorien zur Wahrnehmung gesprochener Sprache? Broadbent stellte 1958 eine Theorie zur Wahrnehmung gesprochener Sprache vor, die Filtertheorie. Die Grundannahme besteht darin, daß die sensorische Information das System ungehindert durchläuft, bis sie eine Verengung, einen sogenannten Flaschenhals erreicht. Nun muß auf der Basis verschiedener physikalischer Charakteristika entschieden werden, welche Information weiterverarbeitet wird, die restliche Information wird ausgefiltert. Man kann sich vorstellen, daß das Gehirn bestimmte Nervenbahnen auswählt, die besondere Aufmerksamkeit garantieren sollen. Das Problem bei dieser Theorie war die zentrale Annahme, daß wir die Auswahl, welcher Information wir folgen, nach physikalischen Merkmalen (Stimmlage,...) treffen. Nun gibt es Beobachtungen und Experimente darüber, daß wir diese Auswahl eher anhand des semantischen Inhalts treffen. So schlug Treisman 1964 eine Modifikation des Broadbent-Modells vor, die Dämpfungstheorie. In diesem Modell wird angenommen, daß bestimmte Information zwar gedämpft, jedoch nicht aufgrund ihrer physikalischen Eigenschaften völlig herausgefiltert werden. Eine dritte Erklärung bieten 1963 Deutsch und Deutsch in ihrer Theorie der späten Auswahl an. Danach wird die Auswahl der Information manchmal aufgrund des körperlichen Organs, manchmal aufgrund des semantischen Inhalts getroffen. Sie vertreten die Ansicht, daß die gesamte Information völlig ungedämpft verarbeitet wird. Ein Reaktionsfilter (im Gegensatz zu Treismans Wahrnehmungsfilter) tritt erst auf, nachdem der Reiz einer Analyse des verbalen Inhalts unterzogen wurde. Man kann verschiedene Informationen wahrnehmen, aber zu jedem Zeitpunkt immer nur eine beachten, nicht etwa aufgrund der Begrenzung der Kapazität des Wahrnehmungssystems, sondern aufgrund der Begrenzung der Kapazität des Reaktionssystems. 3.) Aufmerksamkeitstheorien zur visuellen Verarbeitung? Bei der visuellen Wahrnehmung ist die Kapazitätsbegrenzung groß. Wir registrieren nur einen bestimmten Anteil des visuellen Feldes und das Bild auf der Retina weist unterschiedliche Schärfe auf. Wenn wir einen Punkt fixieren, richten wir den Bereich der maximalen Schärfe, die Fovea, genau auf diesen Punkt. Es trifft jedoch nicht zu, daß wir nur dem, was wir foveal fixieren, Aufmerksamkeit schenken. Ohne die Augen zu bewegen, können wir die Aufmerksamkeit auf Positionen lenken, die bis zu 24 Grad von der Fovea abweichen. Außerdem müssen wir fähig sein, einer interessanten, nichtfovealen Region Aufmerksamkeit zu schenken, um diese als interessant zu identifizieren, und dann erst diesen Bereich zu fixieren. Eine häufige Metapher für visuelle Aufmerksamkeit ist die Spotlight-Metapher, eine Theorie, die vertritt, daß wir unsere Aufmerksamkeit umherbewegen können, um verschiedene Teile des visuellen Feldes zu fokussieren. Es kann so fokussiert werden, daß es nur wenige Grade des Sehwinkels ausmacht. Je größer der Bereich des visuellen Feldes aber ist, den das Spotlight umfaßt, desto schlechter ist die Verarbeitung aller Teile des visuellen Feldes. Experimente von Sperling (1960) legen die Existenz eines visuellen sensorischen Speichers nahe, des ikonischen Speichers. Dieser Speicher kann die gesamte Information einer visuellen Anordnung effektiv erfassen. Wird Aufmerksamkeit auf die Information gelenkt, können die Elemente wiedergegeben werden, wird ihr keine Aufmerksamkeit zuteil, geht sie nach einer kurzen Zeit schon verloren. 4.) Mustererkennung und Aufmerksamkeit? Treisman hat in der Merkmals-Integrationstheorie die These vertreten, daß zuerst Aufmerksamkeit auf den Reiz gelenkt werden muß, bevor die Merkmale zu Mustern zusammengesetzt werden können. Experimente dazu wurden 1980 von Treisman und Gelade durchgeführt. Dabei schien überraschend zu sein, daß Aufmerksamkeit benötigt wird, um Muster von Merkmalen zu erkennen. Weiters untersuchten Treisman und Schmidt 1982 Merkmalskombinationen bei Stimuli, die außerhalb des Fokus der Aufmerksamkeit liegen. Es ergab sich ebenfalls, daß wir nur dann inder Lage sind, merkmale zu einer zutreffenden Wahrnehmung zu kombinieren, wenn wir unsere Aufmerksamkeit auf das Objekt lenken. Ansonsten nehmen wir zwar die Merkmale gut wahr, kombinieren sie aber falsch. Experimente von LaBerge 1973 zeigten, daß es beim Aufmerksamkeitsprozeß bei Mustererkennung auch um die Vertrautheit der Muster geht. Bei nichtvertrauten Stimuli muß erst die Aufmerksamkeit zu dem Muster verschoben werden und die Verschiebung kostet Zeit. Dieser Vorgang wird erleichtert, wenn ein Vorreiz das Muster erwarten läßt (Priming). 5.) Neglect des visuellen Feldes und Aufmerksamkeit? Es wurde gezeigt, daß Schädigungen der Gehirnareale beim Menschen, speziell im Parietallappen, zu Defiziten der visuellen Aufmerksamkeit führen. Beispielsweise haben Patienten mit einer solchen Schädigung Schwierigkeiten, die Aufmerksamkeit von einer Seite des visuellen Feldes abzuziehen und sie auf jene Hälfte des visuellen Feldes zu lenken, die durch diese Hirnregion verarbeitet wird. Posner et al. (1984) führten dazu ein Experiment durch; Patienten erhielten einen Hinweisreiz, daß der Stimulus rechts oder links des Fixationspunktes auftauchen wird. Der Stimulus trat in 80% der Fälle tatsächlich an dieser Stelle auf und in 20% auf der nicht erwarteten Stelle. Wurde der Stimulus bei Patienten mit Schädigung des rechten Parietallappens im rechten Feld dargeboten, ergab sich für die Probanden nur ein geringer Nachteil, wenn der Stimulus nicht mit dem Hinweisreiz übereinstimmte, beim Stimulus auf der linken Seite (mit Hinweisreiz im rechten Feld), zeigte sich ein starker Defizit. Posner verglich dies mit dem klinischen Phänomen der visuellen Löschung bei Patienten mit einer Schädigung des parietooccipitalen Areals. Patienten mit einer Schädigung der rechten Hirnhälfte hatten keine Schwierigkeiten, Objekte im linken visuellen Feld - das in der geschädigten Hirnregion verarbeitet wird - zu beachten, wird aber ein konkurrierendes Objekt im rechten visuellen Feld dargeboten, können Sie das Objekt im linken Feld nicht mehr wahrnehmen. Eine noch extremere Version dieser Aufmerksamkeitsstörung ist der unilaterale visuelle Neglect. Patienten mit einer Schädigung der rechten Hirnhälfte ignorieren die linke Seite des visuellen Feldes und Patienten mit einer Schädigung der rechten Hälfte die rechte Seite. 6.) Automatisiertheit und Stroop-Effekt? Wir können kognitive Prozesse in 2 Klassen unterteilen, in automatische und kontrollierte Prozesse. Automatische Prozesse beanspruchen im Gegensatz zu den kontrollierten Prozessen, wenig oder keine Aufmerksamkeit, das heißt sie laufen ohne bewußte Kontrolle ab (z.B.: Sprachverstehen oder Autofahren). Je stärker Aufgaben geübt werden, desto stärker werden sie automatisiert und verbrauchen weniger Aufmerksamkeitsressourcen. Schneider und Shiffrin führten zu dem Thema Experimente durch und ließen etwa ihre Probanden Buchstabenfelder nach Zahlen oder bestimmten Buchstaben absuchen. Das Erkennen von Zahlen ist ein vielgeübter und daher weitgehend automatisierter Prozeß und verbraucht weniger Zeit als das mühsame Überprüfen jedes einzelnen Buchstabens. Sie bewiesen außerdem, daß auch kontrollierte Prozesse bei hinreichender Übung automatisiert werden können. Automatische Prozesse erfordern nicht nur wenig oder keine Aufmerksamkeit, ihre Ausführung scheint auch schwer zu unterbrechen zu sein. Ein gutes Beispiel ist die Worterkennung bei geübten Lesern. Es ist praktisch unmöglich, ein bekanntes Wort zu sehen und es nicht zu lesen. Das Phänomen, daß Wörter eine inhaltliche Verarbeitung auslösen wird mit dem Stroop-Effekt veranschaulicht. Das Experimente verlangt von den Probanden die Druckfarbe (Farbe der Schrift) zu nennen, mit der Wörter geschrieben sind, wobei das zu lesende Wort ein Farbwort oder ein neutrales Wort sein kann. Zum Teil setzt sich das dargebotene Farbwort gegen die zu benennende Druckfarbe durch (d.h. die Personen geben als Antwort die benannte Farbe und nicht die Farbe der Schrift), weil das Lesen ein so stark automatisierter Prozeß ist. 7.) Doppelaufgaben - Paradigma und Erkenntnisse? Wir versuchen in vielen Situationen, mehrere Aufgaben gleichzeitig auszuführen und dazu kann die Anstrengung in unterschiedlichen Ausmaßen verteilt werden. In einem repräsentativen Experiment zur Ausführung von sogenannten Doppelaufgaben ließen Wickens und Gopher 1977 ihre Probanden gleichzeitig eine Nachführaufgabe und eine serielle Reaktionsaufgabe durchführen. Sie wurden instruiert, der Nachführaufgabe 70, 50, 30 oder 0% ihrer Bemühungen zuzuordnen. Es fand sich, daß eine Verbesserung der Leistung in der einen Aufgabe immer auf Kosten der Leistung in der anderen Aufgabe geht. Eines der Paradigmen, unter denen solche konfligierenden Anforderungen untersucht wurden heißt Doppelreiz-Paradigma. Die Probanden sollten auf kurz aufeinanderfolgende Reize reagieren und es wurden die dabei auftretenden Interferenzerscheinungen untersucht. Solche Experimente führten zur Ein-Kanal-Hypothese, die besagt, daß es einen einzigen Kanal für die Reaktion auf Reize gebe. Die Reaktion auf den 2. Reiz könne den Kanal nicht passieren, solange noch die Reaktion auf den 1. Reiz verarbeitet würde. Aus diesem Grund sei die Reaktion auf den 2. Reiz verzögert. Es gibt also begrenzte Ressourcen und bei gleichzeitiger Verarbeitung mehrerer Informationen erhält der eine Verarbeitungsprozeß in dem Ausmaß weniger Ressourcen, in dem diese dem anderen Verarbeitungsprozeß zugeteilt werden. Welches Ausmaß an Interferenz durch die eine auf die andere Aufgabe entsteht, hängt auch davon ab, wie automatisiert diese Aufgabe ist . 8.) Die Theorie multipler Ressourcen? Diese Theorie geht davon aus, daß es nicht nur eine einzige Ressource gibt, die zwischen allen gleichzeitig auszuführenden Aufgaben aufgeteilt werden muß. Die Grundannahme ist, daß es mehrere Ressourcen gibt und daß das Ausmaß an Interferenz zweier Aufgaben davon abhängt, ob sie die gleiche Ressourcen beanspruchen. Es können experimentelle Belege dafür angeführt werden, daß es schwieriger ist, zwei Nachführaufgaben oder zwei Zahlenerkennungsaufgaben gleichzeitig auszuführen als eine Kombination der beiden. In einer weiteren Untersuchung ließen Vidulich und Wickens 1981 eine visuelle Nachführaufgabe und eine Reaktionszeitaufgabe simultan bearbeiten. Die Reaktionszeitaufgabe führte zu einer stärkeren Interferenz, wenn entweder die Reize oder die Reaktionen die gleiche Ressourcen beanspruchten, wie die Nachführaufgabe. Die Schwierigkeit bei dieser Theorie besteht darin, daß sie empirisch schwer zu widerlegen ist, da für jede Interferenzkonfiguration eine Ressourcenkonfiguration postuliert werden kann. Eine plausible Basis für diese Theorie stellen stellen unterschiedliche Modalitäten dar, für die eine (weitgehende) Unabhängigkeit der Ressourcen angenommen werden. Kapitel 4: Wahrnehmungsbasierte Repräsentationen 1) Was sind Repräsentationen? Unter Repräsentationen versteht man mentale Organisationsformen, die nicht nur das individuelle Wissen umfassen, sondern auch die Prozesse der Veränderung dieses Wissens beinhalten. Weiters werden Ableitungen von neuem Wissen durch bewußte oder unbewußte Schlußfolgerungsprozesse und die Generierung von Handlungsplänen mit eingeschlossen. In der Auseinandersetzung mit den Objekten, Situationen, Ereignissen und Menschen schaffen wir ein inneres Modell, das auf diese äußere Realitäten Bezug nimmt. Ohne diese "inneren Abbilder" wären wir nicht in der Lage, (verändernd) auf unsere Umwelt einzuwirken. Repräsentation ist somit ein (der) zentrale Begriff der Kognitiven Psychologie. 2) Erläuterns Sie kurz die Theorie der "Dualen Kodierung" von Paivio! Paivio schlägt zwei voneinander unabhängige, jedoch miteinander verknüpfte Kodierungssysteme und deren Interaktion vor - ein verbales und ein imaginales (=bildhafte Vorstellung) System. Das verbale System bildet die linguistischen Informationen ab und verarbeitet sie. Es liefert aber auch eine Abbildung der zeitlichen Abfolge von Informationen. Die sequentielle Arbeitsweise dieses Systems führt zu einer internen Repräsentation, die der Wahrnehmung oder Produktion von Wortfolgen sehr ähnlich ist - die aber keine Bedeutungsextraktion vornimmt. Im Gegensatz dazu kodiert das imaginale System die Informationen räumlich parallel und liefert somit analoge Abbildungen perzeptueller Gegebenheiten.Auch hierbei wird keine abstrakte Verarbeitung angenommen. Beide Systeme stehen in Beziehung zueinander. Bilder können sowohl bildhaft kodiert, als auch verbal benannt und entsprechend kodiert werden. Sprachliche Inhalte können sowohl verbal kodiert, als auch mit bildhaften Vorstellungen ergänzt und verknüpft werden. 3) Vergleichen sie verbale und visuelle Verarbeitung! Ein Experiment von Santa veranschaulicht den Unterschied zwischen visuellen und verbalen Repräsentationen. Er bot seinen Versuchspersonen einen visuellen Vorgabereiz (geometrische Bedingung: Dreieck, Kreis und Quadrat), den sie sich einprägen mußten. Anschließend wurde sofort eine Anzahl von Prüfreizen präsentiert. Der erste Prüfreiz war ident mit dem Vorgabereiz, der zweite wurde in linearer Folge präsentiert. Die Versuchspersonen mußten nun entscheiden, ob die Prüfreize die gleichen Elemente enthalten. Ergebnis: Die Probanden erkannten den ersten Reiz schneller, da das visuelle Gedächtnis die räumlichen Informationen des Vorgabereizes aufrechterhalten hatten. Dann nahm er eine Abänderung seines Experimentes vor. Der Vorgabereiz wurde in Wörter exponiert, die räumliche Konfiguration blieb ident mit dem vorigen Versuch (=Reizmaterial bot keine bildhaften Eigenschaften). Ergebnis: Da die Probanden die Wortanordnung wie beim normalen Lesen enkodiert hatte, das heißt von links nach rechts und von oben nach untern, reagierten sie nun am schnellsten auf die linearen Prüfreize. Die Befunde aus Santas Experiment legen den Schluß nahe, daß ein Teil der visuellen Informationen (z. Bsp. geometr. Objekte) eher entsprechend ihrer räumlichen Anordnung, andere Informationen (z. Bsp. Wörter) hingegen eher als lineare Anordnung gespeichert werden. Roland und Friberg belegten dies durch Untersuchung der Veränderungen der Blutzufuhr im visuellen Cortex. Es zeigte sich, daß unterschiedliche Hirnregionen in die Verarbeitung verbaler und räumlicher Informationen involviert sind. 4) Was versteht man unter mentalen Bildern? Mentale Bilder zeigen z. Bsp. ein Bild einer Szene oder eines Objektes vor unserem geistigen Auge. Man kann sie auch als anschauliche Vorstellungen bezeichnen. Paivio benannte sie als die visuelle Repräsentation der Hypothese der dualen Kodierung. Zu berücksichtigen ist aber auch, daß nicht nur visuelle sondern auch räumliche Informationen in diesen Vorstellungen enthalten sind, die unabhängig von den sensorischen Modalitäten sind. Neuropsychologische Befunden legen nahe, daß verschiedene Hirnregionen für die Unterstützung der räumlichen und der visuellen Aspekte von mentalen Vorstellungen zuständig sind. Komplexe mentale Bilder werden oft in Teilstrukturen zerlegt, die einer hierarchischen Ordnung unterliegen. Dabei sind Teile der visuellen Vorstellung innerhalb größerer Teile repräsentiert. Jede dieser Einheiten von Wissensrepräsentationen wird als Chunk bezeichnet. 5) Erklären sie anhand drei verschiedener Beispiele unsere Fähigkeit zur Herstellung mentaler Bilder (Belege für die analoge Repräsentation)! a) Mentale Rotationen. Zahlreiche Forschungsarbeiten zu mentalen Rotationen wurden von Roger Shepard durchgeführt. Er legte seinen Versuchspersonen paarweise zweidimensionale Darstellungen von dreidimensionalen Objekten vor. Als Aufgabe mußten sie nun bestimmen, ob diese Paare identisch waren oder nicht, abgesehen von der räumlichen Ausrichtung. Die Versuchspersonen gaben an, die Übereinstimmung solcher Objektpaare dadurch herauszufinden, indem sie eines der Objekte in ihrer Vorstellung so weit drehten, bis es mit dem anderen Objekt zur Deckung kam. Wie dieser Prozeß genau funktioniert ist ungewiß, er scheint aber analog zur physikalischen Rotation zu verlaufen. Es ergab sich nämlich ein linearer Zusammenhang zwischen der Zeit, bis die Versuchsperson zu einer Übereinstimmung kam und demjenigen Betrag, um den ein Objekt rotiert werden mußte. Je weniger der Gegenstand gedreht werden mußte, umso kürzer war die Reaktionszeit. Neuere Untersuchungsergebnisse unterstützen, daß mentale Rotationen eine Verschiebung der Zellaktivität mit sich bringen. b) Scannen mentaler Bilder. Kosslyn ließ seine Versuchspersonen eine Landkarte mit verschiedenen Objekten einprägen. Anschließend forderte er sie auf, diese Objekte in ihrer Vorstellung auf der imaginären Landkarte Punkt für Punkt abzusuchen (=scannen).Er erhob dabei die Reaktionszeitunterschiede in Abhängigkeit von der Entfernung zwischen den Objekten. Das Ergebnis zeigte auch hier (wie bei Shepard), daß ein linearer Zusammenhang zwischen der Reaktionszeit und der Distanz zweier Orte besteht. Je näher sich die Orte auf der Karte sind, umso schneller kann man sich den zweiten vorstellen. c) Vergleich visueller Ausprägungen. Es besteht auch die Möglichkeit, mentale Bilder (z. Bsp. Löwe und Hund) zu relativen Größenvergleichen heranzuziehen. Der Größenvergleich zweier vorgestellter Objekte - genau wie der zweier wahrgenommener Objekte - ist umso schwieriger, je ähnlicher sich die Objekte hinsichtlich der Größe sind. 6) Entsprechen visuelle Vorstelllungen der visuelle Wahrnehmung? Wenn man Operationen an mentalen Bildern ausführt, so scheinen diese Prozesse analog zu den Operationen an physikalischen Objekten zu verlaufen. Trotz vieler Gemeinsamkeiten zwischen visuellen Vorstellungen und visuellen Wahrnehmungen sind die beiden nicht ident. Ein wesentlicher Unterschied ist der, daß die Aktivität des visuellen Cortex während einer mentalen Vorstellung wesentlich größer ist. Weiters ist es viel schwieriger für visuelle Vorstellungen eine zweite Interpretation zu finden (=zu reinterpretieren). Obwohl mentale Bilder beliebig veränderbar sind, kommt es nur selten zu Verwechslungen zwischen mentalen Vorstellungen und Wahrnehmungsbegebenheiten. In Fällen psychischer Krankheiten kann es allerdings manchmal zum Verlust dieser Fähigkeit kommen. Diese Menschen sind dann nicht mehr in der Lage, zwischen Realität und Phantasie zu unterscheiden. 7) Beschreiben sie kurz die Repräsentation serieller Ordnungen! Die Repräsentation serieller Ordnungen ist die zweite Art der Wissensrepräsentationen nach Paivios Schema der dualen Wissensrepräsentation. Er entdeckte, daß allein die Tatsache, daß es verbale Repräsentationen gibt, die Situation noch nicht ausreichend erklärt wird. Es gibt Komponenten verbaler Repräsentationen, die mit serieller Ordnung zu tun haben, die auf mehr als nur verbales Material zuzutreffen scheinen.Wörter sind demnach nur eine Art von Objekten, die man seriell anordnen kann, sowie z. Bsp. Akten oder Ereignisse. Menschen neigen dazu, eher serielle Ordnungen abzubilden, als verbales Material zu verarbeiten. Folgende Experimente wurden dazu durchgeführt: Versuchspersonen mußten eine Buchstabenreihe wie z. Bsp. KRTB lernen. Anschließend legte man ihnen eine neue Kombination vor und sie mußten erkennen, ob es sich um eine Variation der ersten Reihe (z. Bsp. KRBT) handelte. Die Versuchspersonen kamen viel schneller zu einem Urteil, wenn die ersten beiden Buchstaben identisch waren, als wenn alle Buchstaben vertauscht waren. Daraus ließ sich der Schluß folgern, daß seriell geordnete Informationen so repräsentiert werden, daß die Informationen der Anfangs- und der Endelemente am leichtesten erreicht werden können (=Anfangsanker- /bzw. Endankereffekt). Weiters mußten die Versuchspersonen eine Reihe von Zahlen auswendig lernen (z. Bsp. 3241). Dann nannte der Versuchsleiter eine Zahl aus der Reihe (z. Bsp. 4) und die Probanden hatten die darauffolgende Zahl (hier: 1) zu nennen. Es zeigte sich, daß die Versuchspersonen stets zur ersten Ziffer den schnelleren Zugang hatten und zum Ende der Reihe hin immer langsamer wurden. Man folgte daraus, daß die serielle Suche entlang einer Informationsstruktur durchgeführt wird. Weitere Versuche zeigten noch, daß bei längeren Folgen Elemente hierarchisch in Unterfolgen und höhere Folgen eingeteilt werden. Je weiter zwei Elemente innerhalb einer linearen Ordnung voneinander entfernt sind, desto schneller kann ihre relative Position bestimmt werden. 8) Mit welcher Regel können synaptische Assoziationsstärken gelernt werden? Mit Hilfe der Delta-Regel können synaptische Assoziationsstärken gelernt werden. Gluck und Bower definierten diese weitverbreitete neuronale Lernregel. Sie lautet: Delta Aij=a.Ai(Tj-Aj), wobei Delta Aij die Veränderung der Stärke der synaptischen Verbindungen von der Eingabe i zur Ausgabe j bezeichnet. Ai ist die Aktivationshöhe des Eingabeneurons i, Aj die Aktivationshöhe des Ausgabeneurons j. Tj ist die Soll-Aktivation von j. Der Parameter a in der Gleichung steuert die Lernrate. Diese Regel ist im wesentlichen eine Regel zur Fehlerkorrektur. Sie zielt darauf ab, die Assoziationsstärken zwischen den Neuronen so zu verändern, daß die Differenz zwischen der tatsächlichen Aktivation (der Ist-Aktivation) und der Soll-Aktivation der Ausgabeneuronen minimiert wird. Der interessante Aspekt liegt darin, daß die Schemarepräsentation im wesentlichen in den synaptischen Gewichten lokalisiert ist. Die synaptische Verbindungsstärke zwischen einem Eingabeund einem Ausgabeneuron ist im Grunde genommen ein Maß dafür, wie typisch verschiedene Merkmale für eine Kategorie sind. Kapitel 5: Bedeutungsbezogene Repräsentationen 1) Bedeutungsbezogene Gedächtniseffekte? Es gibt das bedeutungsbezogene Gedächtnis für verbale und visuelle Informationen. Auf den verbalen Bereich bezogen ist es natürlich möglich, Informationen mit Hilfe der linearen Ordnung in exakter Reihenfolge der Wörter zu speichern, z. Bsp. einzelne Teile von Gedichten oder Liedern. Allerdings sind wir nicht in der Lage, jede erhaltene Information immer wortwörtlich zu speichern. Aus diesem Grund führte Wanner ein Experiment durch, das die Umstände illustrierte, unter denen sich Menschen an die Informationen im genauen Wortlaut erinnerten oder nicht. Er fand heraus, das Wortlautveränderungen, die zu Bedeutungsunterschieden führten, besser erinnert wurden als Wortlautveränderungen die lediglich eine stilistische Veränderung hervorriefen. Die Überlegenheit des bedeutungsbezogenen Gedächtnisses weist darauf hin, daß der Mensch normalerweise die Bedeutung einer sprachlichen Nachricht extrahiert und sich nicht an den ganzen Wortlaut erinnert. Es gehört somit zum üblichen Verstehensprozeß, sich die Bedeutung einer Äußerung zu merken. Wird man allerdings dazu angehalten, ist man in der Lage, die Aufmerksamkeit auf die genaue Information zu lenken. Unser Gedächtnis scheint eine weit höhere Kapazität für visuelle Informationen zu besitzen als für verbale Infromationen. Dazu wurden viele Experimente durchgeführt (z. Bsp. von Shepard), die alle zu einer analogen Schlußfolgerung des Wanner´schen Experimes führten: Versuchspersonen sind besonders empfindlich für bedeutungsbezogene Veränderungen eines Bildes, an Oberflächendetails können sie sich aber nur schlecht erinnern. Ist die wahrnehmungsbezogene Information (egal ob Satz oder Bild) erst einmal vergessen, dann merkt man sich nur noch die Bedeutung bzw. die Interpretation. Es zeigte sich auch, daß man wenig bedeutungshaltiges Material dann leichter behalten kann, wenn man es in bedeutungshaltiges Material umwandelt. 2) Definieren sie den Begriff "Propositionen" und was versteht man unter propositionalen Darstellungen? Eine Proposition ist die kleinste Wissenseinheit, die eine selbständige (das heißt von anderen Wissenseinheiten unabhängige) Aussage bilden kann. Damit ist die Proposition die kleinste Einheit, sie sich sinnvoll als wahr oder falsch beurteilen läßt. Eine propositionale Darstellung ist ein Notationssystem, das die bedeutungsbezogenen Strukturen beschreibt, wenn man die wahrnehmungsbezogenen Details abstrahiert. Kintsch (1974) beschrieb jede Proposition als eine Struktur, die aus einer Relation und einer geordneten Menge von Argumenten besteht. Im deutschen Sprachgebrauch wird die Relation einer Proposition meist als Prädikat bezeichnet, das die Struktur der Argumente organisiert. Propositionale Analysen stellen das Erinnerungsvermögen für komplexe Sätze an Hand einfacher, abstrakter propositionierter Einheiten dar. 3) In welcher Form können Propositionen dargestellt werden? Man trifft oft auf Propositionen, die entweder in Form eines Netzwerkes oder als eine Menge linearer Propositionen dargestellt werden. Die lineare Darstellung ist etwas übersichtlicher und kompakter, dafür hebt die Netzwerkstellung die Verbindungen zwischen den Elementen (=Knoten des Netzwerkes) deutlich hervor. Die räumliche Anordnung der Elemente in einem Netzwerk ist für seine Interpretation völlig irrelevant - es kommt nur darauf an, welche Elemente mit welchen verknüpft sind. Eine Reihe von Experimenten spricht dafür, daß es sinnvoll ist, sich die Knoten in solchen Netzwerken als Vorstellungen und die Verbindungen zwischen den Knoten als Assoziationen zwischen diesen Vorstellungen zu denken. Als Beweis gilt hierfür auch z. Bsp. der Versuch von Weisberg, der Assoziationsaufgaben verwendete. 4) Erläutern Sie zwei Ansätze zur Repräsentation konzeptuellen Wissens! a) Semantische Netzwerke. Auch hier werden netzwerkartige Repräsentationen herangezogen. Nach Quillian speichern Menschen die Informationen über verschiedene Kategorien z. Bsp. Dorsch, Vogel usw. in einer Netzwerkkonstruktion ab. Zu jeder Kategorie gibt es einen Hierarchieaufbau - Dorsch ist ein Fisch, Fisch ist ein Tier. Diese Verbindung erfolgt über sogenannte "isa-Verbindungen" (=Oberbegriff-/Unterbegriffrelation) zwischen den jeweiligen Kategorien. Mit den einzelnen Kategorien sind die jeweils zutreffenden Eigenschaften verbunden. Eigenschaften, die für Kategorien auf einer höheren Hierarchieebene zutreffen, gelten auch für die darunterliegenden Ebenen. Quillian testete nun, ob die Versuchspersonen nach ihrem kategorialen Wissen reagierten oder ob noch andere Einflußfaktoren auf den Zugriff zu bestimmten Informationen eine Rolle spielten. Seine Testergebnisse zeigten, daß sowohl der Abstand zwischen zwei Konzepten als auch die verwendete Häufigkeit (=Erfahrungshäufigkeit) eines Konzeptes inklusive dessen Assoziationen die Zugriffsgeschwindigkeit zu bestimmten Informationen bestimmt. b) Schemata. In Schemata ist kategoriales Wissen in Form einer Struktur von Leerstellen repräsentiert; solche Leerstellen nennt man in diesem Zusammenhang Slots. In die Slots eines Schemas werden die Ausprägungen, die die einzelnen Exemplare einer Kategorie auf verschiedene Attribute besitzen, eingesetzt. Z. Bsp. Schema: Haus, Slot: Form, Ausprägung: rund oder oval. Merkmale eines Schemas können propositionaler Natur , z. Bsp. Häuser dienen dem Menschen als Wohnung oder perzeptueller Art - z. Bsp. die Größe betreffend - sein. Dadurch können Schemata das repräsentieren, was bestimmten Dingen in der Regel gemeinsam ist. Eine Hierarchie wird in Schematas über "isa-Verbindungen" und über eine "Teil-Ganzes-Beziehung" aufgebaut. Sie repräsentieren Konzepte in Form von Oberbegriffen, Teilen und anderen Zuweisungen von Ausprägungen zu Attributen. 5) Wie kann die psychische Ralität von Schemata belegt werden? Es gehört zu den Kennzeichen eines Schemas, daß es für bestimmte Attribute Default-Werte (=typische Ausprägungen einzelner Attribute) annimmt. Dadurch sind Schemata mit einerm nützlichen Schlußfolgerungsmechanismus ausgestattet. Wenn man erkennt, daß ein Objekt einer bestimmten Objektklasse angehört, kann man daraus folgern, daß es - sofern kein expliziter Widerspruch besteht diejenigen Default-Werte besitzt, die mit dem Schema des entsprechenden Objektklassenkonzepts assoziiert sind. Brewer und Treyens bewiesen diesen Effekt mit einem Versuch. Einzelne Versuchspersonen wurden in einen Raum gebracht, den sie für das Büro des Versuchsleiters hielten. Nach kurzer Zeit wurden sie in den Nebenraum geholt und erhielten die Instruktion, alles aufzuschreiben, was sie aus dem Büro (=Experimentalraum) noch im Gedächtnis hatten. Das Befundmuster ergab sich wie erwartet. Die Wiedergabe von Gegenständen, die zu einem BüroSchema dazugehörten, war sehr gut. Jene Ausstattungsgegenstände, die nicht zum Büro-Schema gehörten, wurden kaum benannt. Es kam sogar vor, daß einige Versuchspersonen Büroutensilien nannten, die sich gar nicht im Experimentalraum befanden. Dies bedeutet, daß Menschen davon ausgehen, daß ein Objekt die Default-Werte seiner Objektklasse besitzt, solange sie nicht explizit etwas anderes feststellen. 6) Einflüsse auf Klassenzugehörigkeit in Begriffen und Schemata? Eine wichtige Eigenschaft der Schemata besteht darin, daß die Objekte, die zu einem Schema passen, gewisse Unterschiede aufweisen können. Daraus kann man die Erwartung ableiten, daß es keine festen Kategoriegrenzen (= unterschiedliche Bergiffe) gibt, weil ein Objekt noch nicht allein deshalb von der Zugehörigkeit zu einer Kategorie ausgeschlossen wird, weil es nicht die typischen Default-Ausprägungen aufweist. Labov zeigte dies 1973 in einem Experiment. Er versuchte herauszufinden, welche Figuren noch als Tasse bezeichnet werden und welche nicht. Seine Darstellungen dieses Gefäßes reichten von einer Tasse über eine Schale bis hin zu einer Schüssel (19 verschiedene Ausprägungen). Er fand heraus, daß der Übergang fließend bewertet wurde und daß die Klassifikationsurteile auch mit dem Kontext variierten, in dem man sich die Objekte vorstellte bzw. indem sie den Versuchspersonen dargeboten wurden. 7) Belege und Effekte von Handlungsschemata (Scripts)? Er weist die entwickelte Variante eines Ereignischemata auf, das sich Script nennt. Darin wird hervorgehoben, daß in vielen Zusammenhängen stereotype Handlungssequenzen auftreten. Bower, Black & Turner berichteten über eine Experimentalreihe zur Prüfung der psychischen Realität von Scripts. Sie ließen ihre Versuchspersonen die aus ihrer jeweiligen Sicht wichtigsten 20 Teilergebnisse einer Episode aufzählen, z. Bsp. die eines Restaurantbesuches. Innerhalb der gesamten Versuchspersonen gab es keine vollständige Übereinstimmung über die Teilergebnisse. Dennoch waren beträchtliche Übereinstimmungen in stereotypen Abfolgen zu finden - wie z. Bsp. Platz nehmen, Speisekarte lesen, bestellen, essen, bezahlen und gehen.. Bower, Black & Turner wiesen außerdem eine Reihe von Effekten nach, die solche Handlungsscripts auf die Erinnerung an Ereignisabläufe haben. Insgesamt ergibt sich aus den vielen Experimenten der Hinweis, daß neue Ereignisse unter Berücksichtigung solcher allgemeinen Schemata enkodiert werden und daß auch die spätere Wiedergabe unter dem Einfluß der Schemata steht. Sie bilden damit eine nützliche Grundlage für das Auffüllen fehlender Informationen und für die Berichtigungen falscher Informationen. 8) Theorien zum Konzepterwerb? Es gibt zwei allgemeine Klassen solcher Theorien, die Abstraktionstheorien (auch Theorien der Begriffsbildung) und die Exemplartheorie (Prototypentheorien). Die Abstraktionstheorie vertritt die These, daß wir Schemata speichern, indem wir bestimmte allgemeine Merkmale und Eigenschaften abstrahieren. Dazu gehören Modelle, in denen der Mensch einen einzigen Prototyp eines Exemplares der jeweiligen Kategorie speichert. Anhand dieser Kriterien werden dann andere Exemplare, die eine Ähnlichkeit aufweisen, enkodiert. In anderen Modellen speichert der Mensch Repräsentationen als Prototyp, der dann wieder zur Enkodierung ähnlicher Repräsentationen herangezogen wird. Die Exemplartheorien nehmen an, daß wie kein zentrales Konzept speichern, sondern nur einzelne Exemplare. Wenn die Aufgabe dann beurteilt werden muß - z. Bsp. wie typisch ein bestimmtes Objekt für Vögel im allgemeinen ist, vergleichen wir dieses Objekt mit bestimmten, konkret spezifizierten Vögeln und kommen so zu einer Art Einschätzung der mittleren Unterschiede. Durch zahlreiche Experimente konnten aber für diese beiden völlig verschiedenen Theorien ähnliche Vorhersagen gemacht werden. Z. Bsp. erwarten beide Klassen eine bessere Verarbeitung der zentralen Mitglieder einer Kategorie. Auch gibt es für beide Typen Realisierungsvorschläge in konnekionistischen Modellen. Die Effekte, die im Zusammenhang mit der Struktur von Kategorien auftreten, lassen sich sowohl durch die Annahme erklären, daß wir die zentrale Tendenz von Kategorien extrahieren, als auch durch die Annahme, daß wir bestimmte Exemplare der Kategorien speichern. Kapitel 6: Gedächtnis Enkodierung und Speicherung 1) Erläutern sie kurz die Geschichte des Kurzzeitgedächtnisses, seine Vorteile und seine Kritikpunkte! Die Theorie des Kurzzeitgedächtnisses entstand in den 60er Jahren des 20. Jahrhunderts. Vorläufer dieser Theorie war Broadbent allerdings waren es erst Atkinson und Shiffrin, die die Theorie systematisch entwickelten. Wenn auch heute viele Kritiken laut werden, spielt das Kurzzeitgedächtnis vor allem in der Kognitiven Psychologie noch immer eine große Rolle. Die Theorie des Kurzzeitgedächtnisses sagt aus, daß die mit Aufmerksamkeit versehene Informationen in ein zwischengeschaltetes Kurzzeitgedächtnis überführt werden. Dort müssen diese Informationen memoriert werden, bevor sie in ein relativ andauerndes Langzeitgedächtnis gelangen können. Das Kurzzeitgedächtnis wies nur eine begrenzte Kapazität zum Behalten von Informationen auf. Eine Zeitlang wurde seine Kapazität mit der Gedächtnisspanne gleichgesetzt. Die Gedächtnisspanne bezeichnet die Zahl der Elemente, die man unmittelbar nach der Darbietung wiedergeben kann. Einer anderen Sichtweise zufolge wurde angenommen, daß im Kurzzeitgedächtnis Platz für sieben Elemente sei, obwohl andere Theoretiker - wie z. Bsp. Broadbent - der Auffassung sind, daß die Kapazität geringer ist und die Gedächtnisspanne nicht nur vom Kurzzeitgedächtnis, sondern auch von anderen Gedächtnissystemen abhängt. Wenn ein Item allerdings das Kurzzeitgedächtnis verlassen hat, bevor eine dauerhafte Repräsentation im Langzeitgedächtnis aufgebaut werden konnte, dann ist es für immer verloren. Man kann im Kurzzeitgedächtnis keine Informationen auf ewig behalten, da ständig neue Informationen eintreffen, die die alten aus dem begrenzten Kurzzeitgedächtnis verdrängen. Experimente von Shepard bestätigten diese Annahme. Ein anderer Grund, dieser Theorie zuzustimmen bestand in Belegen dafür, daß das Ausmaß des Memorierens die Menge an Informationen bestimmt, die in das Langzeitgedächtnis überführt werden. Craik und Lockhart vertraten einen anderen Ansatz. Ihrer Meinung nach ist das Entscheidende nicht die Dauer des Memorierens, sondern vielmehr die Tiefe, in der die Informationen verarbeitet werden. Diese sogenannte Theorie der Verarbeitungstiefe besagt, daß das Memorieren der Gedächtnisleistung nur dann verbessert wird, wenn man das Material in einer tieferen und bedeutungshaltigeren Art und Weise memoriert. Experimente bestätigten auch diese Annahme. Demzufolge können Informationen auch von sensorischen Gedächtnissystemen ins Langzeitgedächtnis gelangen. 2) Baddeleys Arbeitsspeichertheorie (Arbeitsgedächtnistheorie)? Zahlreiche empirische Bekege sprechen gegen die Annahme eines separaten Kurzzeitspeichers. Andererseits beobachten wir das Phänomen, dass die Informationsmenge beim Memorieren beschränkt ist. Dazu vertritt Baddeley (1986) die Ansicht, daß der bestimmende Punkt für den Umfang der Gedächtnisspanne darin liegt, wie schnell man das jeweilige Material memorieren kann (was durch den Wortlängeneffekt belegt wird). Im Hinblick auf verbales Material schlägt er eine artikulatorische Schleife (articulatory loop) vor, in der man so viele Informationen halten kann - soviele man in einer bestimmten Zeitdauer memorieren kann. Einer der auffälligsten Belege dafür ist der Wortlängeneffekt. Es wurde experimentell nachgewiesen, daß man sich mehrere kürzere Wörter besser merkt als die gleiche Anzahl von längeren Wörtern. Einen weiteren Mechanismus stellt der visuelle Notitzblock (visuospatial sketchpad) dar. Er wird zum Memorieren von Bildern verwendet. Die zentrale Exekutive (central executive) kontrolliert den Einsatz dieser verschiedenen Hilfssysteme. Sie kann Informationen in jedes dieser Hilfssysteme einspeisen oder Informationen aus diesen Systemen abrufen. Weiterhin kann sie die Informationen eines Systems in ein anderes System übersetzen. Baddeley nimmt für die zentrale Exekutive in Anspruch, daß diese einen eigenen Übungsspeicher für Informationen benötigt, um Entscheidungen über die Kontrolle der Hilfssysteme zu treffen. Baddely schlägt also eine artikulatorische Schleife und einen visuell räumlichen Notizblock vor, die durch den Einsatz der zentralen Executive kontrolliert werden. Der Unterschied zum Kurzzeitgedächtnis liegt darin, daß Informationen keine Verweildauer in der artikulatorischen Schleife haben müssen, um ins Langzeitgedächtnis gerlangen zu können. Die artikulatorische Schleife ist vielmehr ein Hilfssystem um Informationen verfügbar zu halten. 3) Welche Erklärungsansätze gibt es zur Aktivation des Langzeitgedächtnisses und wie breitet sich diese aus? Es gibt viele Theorien, die von der Annahme ausgehen, daß die Verfügbarkeit verschiedener Informationsteile im Langzeitgedächtnis von Zeitpunkt zu Zeitpunkt variieren können. Die SAM-Theorie von Gillund und Shiffrin spricht von Bildern, die mehr oder weniger aktiviert werden, in Abhängigkeit der Hinweisreize des Kontexts. Eine andere Theorie, die ACT-Theorie (adaptive control of thought) von Anderson besagt, daß Gedächtnisspuren durch die Darbietung assoziierter Konzepte aktiviert werden. Die zugrundeliegende Idee dabei ist, daß kurz nachdem man die Information benutzt hat, diese sehr gut verfügbar ist - dann aber schnell wieder vergessen wird, wenn sie nicht benutzt oder memoriert wird. Die Aktivationshöhe bestimmt die Wahrscheinlichkeit des Zugriffs auf das Gedächtnis, so wie auch die Häufigkeit des Zugriffs. Häufigkeitseffekte können dadurch aufgezeigt werden, indem man die Geschwindigkeit bestimmt, mit der man Informationen aus dem Langzeitgedächtnis abruft. Die Aktivationsausbreitung setzt die Rahmenvorstellung eines Netzwerks voraus und bezeichnet damit die Annahme, daß sich die Aktivation entlang der Pfade eines solchen Netzwerks ausbreitet. Zu beachten ist, daß der Aktivationausbreitungsprozeß nicht völlig der Willenskontrolle unterliegt. Viele Experimente haben diese unbewußte Bahnung von Wissensstrukturen, die durch Aktivationsausbreitung erfolgt, nachgewiesen. Man nennt dies auch assoziatieves Priming. Es zeigte sich, daß je stärker die Aktivationsausbreitung zu einem bestimmten Material ist, diese umso schneller abgerufen werden kann. Ein weiterer Effekt zeigt, daß die Menge an Aktivation, die sich zu einem Gedächtnisinhalt ausbreitet, von der Stärke dieses Gedächtnisinhaltes abhängt. 4) Was besagt das Potenzgesetz des Lernens und worin besteht der Zusammenhang zur Langzeitpotenzierung? Die Verbesserung der Gedächtnisleistung folgt einer Potenzfunktion des Übens. Jedesmal, wenn man eine Gedächtnisspur benutzt, wird ihre Stärke etwas ansteigen. Die Stärke einer Spur bestimmt zum Teil wie stark sie aktiviert werden kann. Damit bestimmt sie auch, wie zugänglich sie sein wird. Die Stärke einer Spur kann allmählich durch wiederholte Übung gesteigert werden. Diese Übungseffekte wirken sehr stark auf den Gedächtnisabruf. Neewll und Rosenbloom nannten diesen Zusammenhang Potenzgesetz des Lernens. Potenzgesetz deshalb, da die Übergangsmenge P zur Potenz erhoben wird. Diese Potenzbeziehung zwischen der Leistung (gemessen durch Reaktionszeit und durch einige andere Maße) und der Übergangsmenge ist ein allgegenwärtiges Phänomen beim Lernen, daß durch viele Experimente belegt wurde. Das Potenzgesetz steht im Zusammenhang mit grundlegenden neuronalen Veränderungen, die beim Lernen entstehen. Eine Art des neuronalen Lernens ist die sogenannte Langzeitpotenzierung (long-term-potentation=LTP). Die LTP tritt im Hippocampus und in Arealen des Cortex auf und ist eine Form des neuronalen Lernens, die mit Maßzahlen des Lernens auf Verhaltensebene korrespondiert. Wenn eine Nervenbahn mit hochfrequentem Strom stimuliert wird, hat dies eine gesteigerte Sensibilität der Zellen entlang dieser Nervenbahn für weitere Stimulationen zur Folge. Barnes überprüfte dieses Phänomen an Ratten. Sein Ergebnis zeigt, daß auch diese Form des neuronalen Lernens einem Potenzgesetz zu folgen scheint. 5) Welche Auswirkungen haben die elaborative Verarbeitung und die Absicht, etwas lernen zu wollen, auf die Gedächnisleistung? Es gibt Belege dafür, daß nicht nur die bedeutungshaltige Verarbeitung , sondern auch eine verstärkt elaborative Verarbeitung zu einem besserem Behalten führt. Die elaborative Verarbeitung besteht aus einer Anreicherung des zu behaltenden Materials um zusätzliche Informationen. Selbst wenn sich diese Verarbeitung nicht auf die Bedeutung des Materials bezieht, führt diese Verarbeitung zu einem besseren Behalten. Weiters stellte sich heraus, daß es für die Gedächtnisleistung entscheidend ist, wie man das Material verarbeitet und nicht, ob man beabsichtigt, das Material zu lernen. Forschungen zu inzidentellem versus intentionalem Lernen zeigten, daß wenn ein Individuum die gleichen mentalen Aktivitäten beim nicht intendierten wie beim intendierten Lernen ausführt, sich daraus jeweils die gleichen Gedächtnisleistungen ergeben. Man zeigt nur typischerweise bessere Gedächtnisleistungen, wenn man das Lernen beabsichtigt, weil man mit größerer Wahrscheinlichkeit Aktivitäten ausführt, die besser für eine gute Gedächtnisleistung geeignet sind, wie z. Bsp. das Memorieren und die elaborative Verarbeitung. 6) Was ist die PQ4R-Methode? Die PQ4R-Methode ist eine von vielen Methoden, die die Behaltensleistung für Texte durch elaborative Verarbeitung fördert. Der Name PQ4R-Methode leitet sich aus den sechs Phasen ab, die zur Erarbeitung eines Lehrbuchkapitels vorgeschlagen werden und ist ein Akronym der Anfangsbuchstaben der englischen Bezeichnungen dieser Phasen. 1) Vorprüfung (preview). Man überfliegt das Kapitel, um allgemeine Themen zu bestimmen, die darin angesprochen werden. Dabei identifiziert man die Abschnitte, die als Einheit zu lesen sind. 2) Fragen (questions). Man formuliert Fragen zu den Abschnitten. Oftmals genügen Umformulierungen der Abschnittsüberschriften, um angemessene Fragen zu erhalten. 3) Lesen (read). Man liest den Abschnitt sorgfältig und versucht, die eigenen, gestellten Fragen mental zu beantworten. 4) Nachdenken (reflect). Man versucht, den Text während des Lesens zu verstehen, Beispiele zu finden und ihn in Bezug zum eigenen Vorwissen zu stellen. 5) Wiedergeben (recite). Hat man den Abschnitt fertig bearbeitet, sollte man sich an die darin enthaltene Information erinnern und die Fragen beantworten. Bei Schwierigkeiten kann man in den jeweiligen Textpassagen nachlesen. 6) Rückblick (review). Nachdem man das Kapitel beendet hat, geht man es im Gedanken noch einmal durch und versucht wiederum, mental die gestellten Fragen zu beantworten. 7) Erklären sie kurz den Frequency-Validity-Effekt und seine Erklärungsansätze. Oftmals sind Menschen gezwungen, sich über die Wahrheit/Unwahrheit einer Aussage eine Meinung zu bilden, obgleich ihnen die Information, die eine sichere Beurteilung ermöglichen würde, gegenwärtig nicht zur Verfügung steht. Dadurch behält man nun einen Indifferenzstandpunkt (Wahrheit/Unwahrheit der Aussage sind gleich wahrscheinlich), oder aber man fällt auf der Grundlage der unmittelbar zugänglichen Information eine Eintscheidung unter Vorbehalt. Als erste untersuchten Hasher, Goldstein und Toppino den Einfluß der Wiederholung derselben Aussage auf das Urteilsverhalten unter experimentell kontrollierten Bedingungen - den sogenannten FrequencyValidity-Effekt. Hasher ging davon aus, das Menschen äußerst kompetent und zuverlässig Informationen über Ereignishäufigkeiten verarbeiten, speichern und abrufen können. Die Güte dieser frequentistischen Information rührt daher, daß sie automatisch enkodiert wird. Es gilt: Je größer die erinnerte Darbietungshäufigkeit einer Aussage, desto größer ist die subjektive Überzeugung in deren Richtigkeit. Diese Untersuchungen zeigten, daß sich dieser Effekt unabhängig davon, ob die Darbietung der Aussagen durch wenige Minuten oder Wochen getrennt wurden, manifestiert. Die Aussagen "Es wird gemeinhin geglaubt, daß ...(=affirmativ) versus "Wenige Leute glauben, daß ...(diskreditiv) haben nur den Effekt, daß die Erinnerungswahrscheinlichkeit an die Details der Aussagen beeinflußt werden. In einem diskreditierenden Kontext erlernte Details werden weniger gut erinnert. Bacon allerdings fand heraus, daß die kritische Variable, die den Frequency-Validity-Effekt bedingt, nicht der faktische (wiederholt vs. nicht wiederholt) sondern der subjektive, zugeschriebene Status (alt/neu) der Aussage ausschlaggebend ist. Er war der Meinung, daß dies die materielle Grundlage dieses Effekts darstellt. In der Literatur wird zur Zeit der Standpunkt diskutiert, inwiefern die Bacon´sche Annahme mit der Annahme von Hasher in Beziehung steht. 8) Erklären sie kurz den Hindsight-Bias-Effekt und seine Erklärungsansätze. Der Hindsight-Bias (im Deutschen gelegentlich Rückschaufehler) beschreibt die Annäherung der Erinnerung einer früher geäußerten Meinung an die inzwischen bekannt gewordene korrekte Antwort. Nach Hawkins und Hastie wurden bislang vier allgemeine Strategien - 1) direkte Erinnerung an das ursprüngliche Urteil, 2) anchoring and adjustment-Prozesse, 3) Neubeurteilung und 4) motivational bedingte Adjustierungsprozesse - entwickelt, die dem Erinnerungsurteil innerhalb eines HindsightBias-Design zugrunde liegen. Die erste Strategie besteht darin, das ursprüngliche Urteil direkt aus dem Langzeitspeicher abzurufen. Da dies aber nicht immer möglich ist und da der Hindsight-Bias nicht auftreten würde, sobald alle Urteile direkt erinnert werden können, liegt die Vermutung nahe, daß das Vergessen des ursprünglichen Urteils eine notwendige Bedingung zur Ausbildung des Hindsight-Bias ist. Die zweite Strategie, das Erinnerungsurteile anchoring and adjustment-Prozessen zugrunde liegen besagt, daß zunächst nach dem Erhalt der Informationen eine geformte Wissensbasis und eine subjektive Sicherheit als Ausgangspunkt gewählt wird. Dieser Ausgangspunkt wird dann sukzessive angepaßt (z. Bsp. durch die Frage "Was wußte ich denn bereits damals?"), um zu einem Erinnerungsurteil zu gelangen, welches das ursprüngliche Wissen und die ursprüngliche subjektive Sicherheit über das Ereignis wiederspiegelt. Kritikpunkte bilden hier die Fakten, daß diese Strategie für wahre und falsche Ereignisse zu gleich großen Effekten führen soll. Tatsächlich ist der HindsightBias für wahre Ereignisse aber größer. Auch wurde nicht klar entschlüsselt, wie der Adjustierungsprozeß genau funktioniert und warum dieser Prozeß Verzerrungen mit sich bringt. Die dritte Strategie besteht in der Neubeurteilung des Ereignisses. Dieser Prozeß wird wiederum in drei Stufen unterteilt - die Informationssammlung, -bewertung und -integration). Sammelt man Informationen, kann man sich danach nur noch selektiv an die konkrete Wissensbasis erinnern. Aschließend stellt man eine kausale Beziehung zwischen dem eigenem Vorwissen und den Informationen her. Zuletzt wird dann dieses Modell über eine ganze Klasse von Ereignissen revidiert, wobei Hinweisreize ihre Aussagekraft verlieren. Die letzte Strategie ist durch den Einfluß motivationaler Variablen geprägt, wie z. Bsp. vorteilhafte Selbstdarstellung. Dadurch kann das eigentlich gefällte Urteil verzerrt werden. Allerdings ist dieser Ansatz noch sehr stark eingeschränkt, da die bis jetzt untersuchten Effekte eher gering sind oder nur in Interaktion mit kognitiven Variablen zum Tragen kommen, die bekanntermaßen konzeptuell sehr schwer zu trennen sind. Kapitel 7: Gedächtnis Behalten und Abruf 1) Stellen Sie die Interferenztheorie der Zerfallstheorie gegenüber und erörtern Sie deren Bedeutung bei der Erklärung des Vergessens von Gedächtnisinhalten. Nach der Theorie des zeitlichen Verfalls (decay Theorie) ist das Vergessen ein passiver Prozeß, innerhalb dessen sich die Information spontan abschwächt oder zerfällt, wenn die Zeit verstreicht. Demgegenüber geht die Interferenztheorie davon aus, daß das Vergessen nicht einfach aus dem Verstreichen der Zeit resultiert, sondern mit Ereignissen zusammenhängt, die mit dem zeitlichen Verstreichen auftreten. Hiebei unterscheidet man zwischen "proaktiver Hemmung", bei welcher der Abruf der gelernten Information von Ereignissen beeinträchtigt wird, die vor dem Lernen selbst aufgetreten sind, und "retroaktiver Hemmung", bei welcher der Abruf gelernter Information von Ereignissen gestört wird, die nach dem Lernen folgen. Ebbinghaus hatte bei seinen Forschungen zur Behaltensfunktion berichtet, daß nach langen Behaltensintervallen das Ausmaß des Vergessens anstieg. Derartige Beobachtungen bildeten um die Jahrhundertwende die Grundlage für die Zerfallstheorie. Untersuchungen von Jenkins und Dallenbach (1924), die eine Gruppe von VPs nach Lernen einer Liste sinnloser Silben während des Retentionsintervalls schliefen ließ, währen die andere Gruppe wach blieb, zeigten jedoch, daß das Ausmaß an Vergessen bei beiden Gruppen nicht gleich groß war; vielmehr hatten die wach gebliebenen VPs deutlich mehr vergessen. Obgleich die VPs, die während des Retentionsintervalls geschlafen hatten, auch einiges vergessen hatten, begründete Ekstrand (1972) dies mit der Tatsache,daß man beim Schlafen träumt und daher das Vergessen durch Ereignisse gesteuert wurde, die in dieser Zeit auftraten und nicht durch bloßes Verstreichen der Zeit.Studien von Baddeley und Scott (1971), die die Effekte des zeitlichen Verfalls beim Fehlen proaktiver Hemmung überprüften, zeigten jedoch, daß das Ausmaß des Vergessens mit der Dauer des Retentionsintervalls stieg. Nach Baddeley (1976) sollten beide Theorien jedoch nicht als Konkurrenten angesehen werden, vielmehr wirken und interagieren sie oft zusammen. Wenn eine Information im Laufe der Zeit verfällt, wird sie vermutlich auch weniger distinktiv. Der Verlust der Distinktivität führt zu Interferenzen, da die Information schwer abrufbar wird. 2) Beschreiben Sie mögliche Einflüsse von Interferenzeffekten auf die Reaktionszeit beim Abruf von Gedächtnisinhalten (Fächereffekt). Gehen wir mit Lewis und Anderson (1976) davon aus, daß sich durch die Darbietung eines Stimulus Aktivation von diesem Begriff zu seinen Assoziationen ausbreitet und die Menge an Aktivation, die von einer solchen Quelle ausgehen kann, begrenzt ist. So ist naheliegend, daß sich umso weniger Aktivation zu einer bestimmten Gedächtnisstruktur ausbreitet, je mehr Fakten mit dieser Quelle assoziiert sind. Dieser Interferenzeffekt, von Lewis und Anderson als "Fächereffekt" bezeichnet, zeigt den Anstieg der Reaktionszeit, der mit zunehmender Zahl von Fakten einhergeht, die mit einem Begriff assoziiert sind (also wenn der Fächer an Fakten größer ist). Anderson und Lewis konnten diesen Fächereffekt auch bei Wissensbeständen nachweisen, die außerhalb des Labors gelernt wurden und mit neuen, im Labor gelernten Fakten interferierten. Untersuchungen zeigten, daß, je mehr Phantasiefakten über eine bekannte Persönlichkeit gelernt wurden, das Wiedererkennen eines bereits gewußten Faktums über dieses Individuum. Bradshaw und Anderson stellten fest, daß Interferenzen jedoch nur dann auftreten , wenn verschiedene Gedächtnisinhalte, die keine innere Beziehung zueinander haben, gelernt werden. Das Lernen von redundantem Material führt hingegen nicht zur Interferenz mit einem Gedächtnisinhalt und kann dessen Abruf sogar erleichtern, was u.U. mit sog. Interferenzen zu erklären ist. 3) Wodurch kann der Aufbau von Interferenzen beim Abruf von Gedächtnisinhalten erleichtert werden, und welche Vor- und Nachteile resultieren daraus? Nach Reder (1982) beruhen viele Gedächtnisleistungen im täglichen Leben nicht auf exakter Reproduktion, sondern auf plausiblen Schlußfolgerungen. Reder zeigte, daß sich Probanden ganz unterschiedlich verhalten, je nachdem, ob sie zu einem möglichst exakten oder aber plausiblen Abruf aufgefordert werden. Sie stellte fest, daß die Urteilszeiten für plausibles Wiedererkennen von Sätzen nach längeren Verzögerungszeiten wesentlich kürzer waren als für exaktes Wiedererkennen. Reder erklärte dies mit dem Schwächerwerden exakter Gedächtnisspuren, Plausibilitätsurteile jedoch nicht von einer spezifischen Gedächtnisspur abhängen und daher auch nicht in gleichem Maße für das Vergessen anfällig sind. Ebenso war die Reaktionszeit umso kürzer, je mehr Tatsachen man über einen bestimmten Sachverhalt gelernt hat, desto rascher erfolgt eine Beurteilung nach Sachverhalten, die aus Plausibilitätsgründen wahr erscheinen. Untersuchungen von Owens, Bower und Black erbrachten, daß zwischen semantischen Elaborationen und Interferenzprozessen ein positiver Zusammenhang besteht. Durch die elaborative Verarbeitung kommt es zu einer Anreicherung des zu behaltenden Materials um zusätzliche Information und dies bildet die Grundlage für die Bildung von Interferenzen. Dies bedeutet insofern einen Gewinn, als z.B. bei Wissensproduktionen in einer Prüfungssituation von den Prüflingen erwartet wird, daß sie solche Schlußfolgerungen genauso leicht wiedergeben können, wie den tatsächlichen Stoff. Auch Schemanta helfen beim Aufbau von Interferenzen; so fand bereits Bartlett (1932) in einem Experiment heraus, daß Schemanta zur Anwendung kommen, wenn Rückschlüsse auf bestimmte, nicht beobachtete oder erwähnte Ereignisse gezogen werden. Somit stellen sie einen wesentlichen Mechanismus sowohl bei der Elaboration der Inhalte während des Lernens als auch bei der Rekonstruktion von Gedächtnisinhalten dar. Dieser Umstand kann jedoch insofern nachteilig sein, wenn Informationen schlecht in ein kulturelles Schema passen und es daher zu Verzerrungen bei der Reproduktion kommt. 4) Auf welchen Prinzipien beruht die "Methode der Orte"? Es handelt sich um eine Memotechnik, bei der durch eine verbesserte Organisation des Materials zum Zwecke des Abrufes von gelernten Inhalten, die zu erinnernden Items mit Orten entlang eines uns bekannten Weges assoziiert werden. Dabei kommen zwei Prinzipien in Anwendung: Erstens erzwingt die Methode beim Lernen die Organisation eines ansonst unorganisierten Materials. Zweitens zwingt das Herstellen von Verbindungen zwischen den Orten eines uns bekannten Weges und den Gegenständen, das Material bedeutungshaltig, elaborativ und mit Hilfe der visuellen Vorstellung zu verarbeiten. Bower und Reitmn konnten zeigen, daß mit der "Loci Methode" Interferenzen minimiert werden können. 5) Inwiefern beeinflußt der Kontext beim Enkodieren die Wiedergabe von Gedächtnisinhalten (Enkodierungsspezifität)? Tulving und Thomson formulierten 1973 das Prinzip der Enkodierungsspezifität, demzufolge ein Hinweisreiz einen Informationsabruf begünstigt, wenn dieser Informationen enthält, die während der Codierung der Zielinformation verarbeitet wurden. Wir enkodieren demnach nicht nur bestimmte Zielinformationen, sonder auch den situativen Kontext, in dem diese Zielinfos auftreten. Ein Experiment von Smith (1979) zeigte, daß die Theorie der Kodierungsspezifität nicht nur auftritt, wenn die Abrufreize in einer bedeutungsvollen Beziehung zu der Zielinfo stehen, sondern auch bei beiläufigen Hinweisreizen; wesentlich ist nur, daß die Reize beim Enkodieren auch verarbeitet wurden. Ebenso finden sich Belege für das Phänomen des zustandsabhängigen Lernens bzw. Abrufens, nach dem man Informationen leichter wiedergeben kann, wenn man sich in demselben emotionalen und körperlichen Zustand hineinversetzt, wie er in der Lernsituation bestand. Ein durch starke Emotionen hervorgebrachter internaler Kontext beeinflußt ebenfalls den Abruf von Infos. Befunde von Teasdale und Russell zeigten , daß VPs eine größere Anzahl jener Wörter wiedergeben, die ihrem Stimmungszustand zum Testzeitpunkt entsprachen. Wenn Stimmungselemente in einer Testsituation aktiviert werden, breitet sich Aktivtion zu denjenigen Gedächtnisinhalten aus, die ebenfalls über diese Stimmungselemente verfügen. Diese Elemente können selbst den Inhalt einer Gedächtnisspur darstellen, oder als Bestandteil des Lernvorganges mit der Gedächtnisspur verbunden sein. 6) Was versteht Wolfgang Hell unter Gedächtnistäuschungen und auf welche Art können sie bewirkt werden? Darunter versteht er solche Fehlerinnerungen, bei denen die Erinnerung systematisch und in vorhersagbarer Weise und Richtung von der korrekten Antwort abweicht. Dies wird typischerweise auf 2 verschiedene Arten bewirkt: a) Zu der eigentlich zu erinnernden Gedächtnisspur wird fast ausschließlich zeitlich später eine weitere, inhaltlich abweichende Gedächtnisspur gesetzt. Zu einer Gedächtnistäuschung wird kommt es , wenn die Erinnerung an die ursprüngl. Gedächtnisspur in Richtung auf die später gesetzte hin verschoben wird. Dabei kann die später gesetzte Gedächtnisspur eine Fehlinformation sein (zB. Misleading postevent information) oder eine korrekte Info (z.B. hindsight Bias). Beide Gedächtnisspuren enthalten aber in beiden Fällen Infos über ein und dieselbe Sache. b) Die Erinnerung wird dadurch verzerrt, daß (meist beim Abruf) die VP eine bestimmte, eventuell experimentell induzierte Perspektive einnimmt. Diese Perspektive kann dadurch hergestellt werden, daß die VP einer bestimmten Kultur angehört, soziale Vorurteile hat oder sie eine visuelle (verbale) Zusatzinfo erhält.Sowohl die inhaltlich abweichende Gedächtnisspur als auch die neue Perspektive basieren auf einer Info, die der VP entweder zusätzlich zur Verfügung gestellt wird, oder auf deren Vorhandensein man sich aufgrund der Zugehörigkeit zu einer Kultur verlassen kann. Im ersten Fall tritt die zusätzliche Gedächtnisspur in direkte Konkurrrenz zu der zu reproduzierenden Gedächtnisspur, da beide zum gleichen Inhalt verschiedene Auskünfte geben. Im 2. Fall liet hingegen keine direkt konkurrierende Info vor, sondern die Reproduktion des abgefragten Gedächtnisinhaltes wird durch eine Zusatzinfo beeinflußt. 7) Hypothesen zum Einfluß von "Misleading Postevent Informations" auf die Erinnerung? Die Integrationshypothese von Loftus, Miller & Burns (1978) geht von der Integration der Gedächtnisspuren aus! Unterstützt wurde diese Hypothese durch Befunde, wonach die Gabe der irreführenden Info direkt vor dem Abruf wirkungsvoller ist als direkt nach der Kodierung! Bekerian u. Bowers (1983) konnten jedoch zeigen, daß die Originalinfo unter bestimmten experimentellen Manipulationen erinnert wurde! Demgegenüber steht die Koexistenzhypothese von McCloskey & Zaragoza ( 1985) , nach der beide Gedächtnisspuren miteinander koexistieren, ohne sich gegenseitig zu beeinflussen, wobei jede für sich im Laufe der Zeit schwächer wird. Das Model stellt eine Mischung aus korrekter Erinnerungen u. Ratestrategie dar. McCloskey und Zaragoza unterscheiden 4 Fälle: o o o o die VP erinnert sich an die Originalinfo, nicht aber an die irreführende Info erinnert sie zusätzlich zr Originalinfo auch an Fehlinfo, antwortet sie unbeirrt mit der Originalinfo erinnert sie beide nicht, wird sie in einem Zwangswahltest per Zufall in der Hälfte der Fälle die richtige Erinnerung haben erinnert sie nur die Fehlinfo, gibt sie nur diese wieder. Die Substitutionshypothese letztlich, nach der die neue Info die alte überschreibt und unzulänglich macht, konnte der erdrückenden Anzahl widersprechender Befund nicht standhalten. Obgleich es zahlreiche Ergbnisse gibt, die die Koexistenzhypothese zu bestätigen scheinen, gibt es 2 Probleme: erstens steht diese Hypothese in Widerspruch zu anderen gesicherten Befunden, wie etwa zur retroaktiven Interferenz. Zweitens ist sie in ihren Ergebnisvorhersagen kaum zu unterscheiden von einer moderaten Interpretationshypothese, z.B. in der Version eine Beeinflussung durch die Fehlinfo im Sinn einer Interferenz. 8) Charakterisieren Sie den "Hindsight Bias"! Der hindsight bias beschreibt die Annäherung der Erinnerung einer früher geäußerten Meinung an die inzwischen bekannt gewordene korrekte Antwort. Man spricht auch von "distorted hindsiht" od. "Rückschau-Fehler". Im Unterschied zur misleading postevent information gibt es hier keinen prinzipiellen Konflikt zwischen beiden Gedächtnisspuren. Motivationale Erklärungsevrsuche für die H.B. wie Selbstdarstellung, sich kenntnisreich zeigen oder ego-involvement waren im allg. wenig erfolgreich. Alle Manipulationen, die versuchen, experimentell das Ausmaß des H.B. zu reduzieren , indem sie die VPs zu einer korrekten Erinnerung motivierten, waren erfolglos! Fischhoff (1975) , der Begründer der kogn. Erklärungsansätze erklärte den H.B. mit "creeping determinism" und sofortiger Angleichung ("immediate assimilation") der 2 Gedächtnisspuren. Es war ein sofortiger und automatischer . d.h. durch bewußte Entscheidung , nicht vermeidbarer Effekt. Aus diesen Überlegungen formulierten Hell, Gigerenzer , Gauggell, Mall & Müller (1988) eine Theorie, nach welcher das Ausmaß des H.B. von der realativen Stärke der beiden beteiligten Gedächtnisspuren zum Zeitpunkz des Abrufs abhängt. Zahlreiche Untersuchungen konnten iese Annahme bestätigen. Die Ergebnisse zeigten aber auch, daß analog zum Modell von Mc Closkey und Zaragoza zur misleading postevent information , eine Mischung von korrekter Erinnerung und Ratestrategien dieses Phänomen zu erklären vermag. Die idee muß natürlich an die Situation des H.B. angepaßt werden , in dem die postevent info nicht "misleading" sondern korrekt sind. 9) Was versteht man unter dem Frequency Validity Effekt? Hesher, Goldstein & Toppino (1977) untersuchten den Einfluß der Wiederholung derselben Aussagen auf das Urteilsverhalten unter experimentell kontrollierten Bedingungen und fanden, daß die Wiederholung einer plausiblen Aussage zu einer Erhöhung des Glaubens an die Wahreheit dieser Aussage bei den Personen führt. Dies bezeichneten sie als FrequencyValidity- Effekt. Es handelt sich um ein Konfidenz-Urteil.Ausgangspunkt der Vorstellungen von Hasher et.al. ist die Annahme, daß Menschen äußerst kompetent und zuverlässig Infos über Ereignishäufigkeiten verarbeiten, speichern und abrufen können. Die zentrale Annahme ist, daß Ereignishäufigkeiten automatisch und damit unter minimalen Verbrauch von Aufmerksamkeit enkodiert werden. Bei der wiederholten Darbietung von Aussagen , die zwar plausibel erscheinen , deren Wahrheitswert man aber nicht eindeutig beurteilenkann, auf Wissen über die Darbietungshäufigkeit der Items rekurriert , um daraus ein Konfidenz – Urteil abzuleiten. Je größer die erinnerte Darbietungshäufigkeit einer Aussage , dest größer die subjektive Überzeugung in deren Richtigkeit. Kapitel 8: Problemlösen 1) Erläutern Sie in kurzen Sätzen die wichtigsten gestalttheoretischen Erkenntnisse auf dem Gebiet des Problemlösens! a) Funktionsfixierung bzw. funktionale Fixierung: Darunter wird die Tendenz verstanden, Objekte in ihren üblichen Verwendungsmöglichkeiten wahrzunehmen , und auf diese Weise die Sichtweise für eine unkonventionelle, neuartige Verwendung der Objekte zu verhindern. Experimentelle Belege finden sich bei Dunckers Kerzen- oder Schachtelproblem, Scheerers 9-Punkte Problem oder Maiers 2- Seiten oder Pendel Problem. b) Einstellungseffekte bzw. Set- Theorie Dieses Phänomen -auch als problem-solving-set in die Literatur eingenagen- besagt, daß Vorerfahrungen die Problemlösemöglichkeiten einschränken können. Einstellungseffekte treten in der Regel auf, wenn einige Wissensstrukturen auf Kosten anderer leicheter zugänglich sind , d.h. wurde eine ausreichend gute und allgemeine Regel zur Lösung einer Aufgabe entwickelt, so neigt man dazu sie beizubehalten. Befunde, die dies belegen sind u.a. Untersuchungen zu Wasserumfüllaufgaben von Luchins, Bartletts kryptoarithmetische Aufgaben und Experimente von Safren zum Lösen von Anagrammen. c) Einsicht bzw. einsichtiges Verhalten: Entgegen der vorherrschenden Ansicht der Behaviouristen gingen die Gestaltpsychologen mit Köhler an der Spitze davon aus, daß der Vorgang des Problemlösens nicht lediglich auf Versuch und Irrtum beruht, vielmehr eine Einsicht in die Struktur des Problems und eine damit verbundene Neu- und Umstrukturierung maßgebend sind. 2) Unterscheiden Sie Heuristiken und Algothmen! Bei beiden Termini handelt es sich um Problemlösestrategien im weitesten Sinne. Algorithmen sind allgemein formulierte Vorgehensweisen, die einen bestimmten Problemtyp lösen, selbst wenn der Lösende gar nicht weiß, warum diese Methode funktioniert. Es handelt sich also um eine Vorschrift bzw. Bechreibung für ein System von Ausführungs- und Prüfoperationen, um in bestimmter Reihenfolge bei entsprechenden Aufgaben richtige Lösungen zu erreichen. Heuristiken sind "Daumenregeln", die zwar eine Lösung des Problems nicht garantieren, aber sehr viel Zeit und Anstrengung sparen. Mit Tversky und Kahnemann unterscheiden wir: a) Verfügbarkeitsheuristiken: Auffassung, daß die Zugänglichkeit bzw. Verfügbarkeit von Gedächtnisinhalten im Sinne einer Strategie unmittelbaren Einfluß auf das Problemlösen hat. b) Zugänglichkeitsheuristik: leichter erinnerbare Ereignisse werden wahrscheinlicher angenommen als schwerer erinnerbare Ereignisse. c) Repräsentativitätsheuristik (auch Ähnlichkeits- oder Prptotypenvergleichsheuristik): Ereignisse, die für einen Prozeß typischer sind, sind auch wahrscheinlicher als untypische Ereignisse. 3) Wie erklären Allen Newell und Herbert Simon mit ihrer "Problem-Raum-Theorie" (problem space theory) das Lösen von Problemen? Newell und Simon nehmen an, daß jedes Problem durch eine bestimmte Anzahl von Problemzuständen, die Repräsentationen des Problemzustandes einem gegebenen Stand der Lösung darstellen, beginnend mit einem Anfangszustand, diversen Zwischenzuständen bzw. intermediären Zuständen und mit einem Zielzustand endend, charakterisiert ist. Die Summe alles Zustände, die ein Problemlösender erreichen kann, definiert den Problemraum. Nach Newell und Simon untersucht der Problemlösende zuerst die Aufgabe, um eine innere Abbildung, eben den Problemraum der Aufgabe im Gedächtnis zu formen. Die Lösung der Aufgabe besteht nun in der Suche nach einer möglichen Sequenz von Operationen, also Prozessen, die angewendet werden können, um von einem Zustand in den nächsten und letztlich zu dem Zielzustand zu gelangen. 4) Problemlösestrategien bei der Auswahl von Operatoren? a) Methode der Unterschiedsreduktion: Sie findet besonders bei wenig geläufigen Problemen Anwendung. Es werden jene Operatoren gewählt, die den Problemzustand in einen neuen Zustand überführen, der die Unterschiede reduziert und der dem Zielzustand ähnlicher ist, als der aktuelle Zustand. Da diese Methode aber nur darauf abzielt, daß der direkt folgende Schritt eine Verbesserung darstellt, jedoch außer acht läßt, ob der Gesamtplan funktioniert, ist der Erfolg nicht garantiert b) Mittel-Ziel-Analyse: Diese Analyse besteht aus der Identifikation der prinzipiellen Unterschiede zwischen der Anfanssituation und dem Ziel, sowie aus den Handlungen bzw. Teilzielen, die diese Unterschiede reduzieren. Der Gegensatz zwischen der Unterscheidungsreduktion und der Mittel-ZielAnalyse besteht auch darin, daß bei letzterer ein Operator nicht verworfen wird, wenn er nicht unmittelbar angewendet werden kann c) Suchstrategien, die man unterteilen kann in: o o o o Strategie des Generierens und Testens von Lösungen: in vielen Fällen unwirksam und wenig effektiv, das sie eine relativ wenig diskreminierende Suche nach sich zieht; Erfolg nur wenn wenig mögliche Lösungen denkbar sind. Strategien der Begrenzung des Suchbereiches: die einfachste Methode besteht darin, sich nur an die Handlungen zu erinnern und zu suchen, die in der Vergangenheit wirksam waren. Breitensuche: verläuft zuerst horizontal und dann vertikal; d.h. man untersucht erst alle Entscheidungen auf einem Niveau, bevor man sich auf Entscheidungen auf einem niedrigeren Niveau einläßt. Tiefensuche: verläuft umgekehrt zur Breitensuche! 5) Beschreiben Sie das TOTE–Modell von Miller, Galanter und Pribram! Das TOTE-Modell (Test-Operate-Test-Exit) wurde von Miller, Galanter und Pribram 1960/1973 entwickelt, als diese die bis dato vorherrschende Analyseeinheit des menschlichen Verhaltens den SR-(Stimulus-Response) Komplex kritisch beleuchteten und eine Art Rückkoppelungskreis des Verhaltens vorschlugen. Asgehend von einer Inkongruenz, also einer Nichtübereinstimmung , die der Organismus zwischen seinen Kriterien und den Eingangsenergien feststellt, wobei diese Feststellung oder Prüfung von Autoren als Test bezeichnet wird,setzt er nun eine Aktion (Operate), die solange anhälz, bis die Inkongruenz verschwunden ist (Exit), wobei sich zahlreiche Testphasen (Test) dazwischenschalten können. Nach diesem Modell wird menschliches Verhalten also durch die Rückkoppelung vom Handlungsresultat zu Testphase bestimmt. Die TOTE-Einheit bildet somit die Grundlage von Handlungen. 6) Worin unterscheiden sich prozedurales und deklaratives Wissen ? Die Unterscheidung zwischen prozeduralem und deklarativem Wissen bezieht sich auf den Unterschied zwischen dem "Wissen,wie" und dem "Wissen, da?" ( Ryle, 1949). Deklaratives Wissen deckt episodisches und semantisches Gedächtnis ab. Es wird über eine darauf bezogene Aussage von einem Moment auf den anderen erlangt; prozedurales Wissen dagegen allmählich, indem man eine Fertigkeit ausführt. Alle prozeduralen Fertigkeiten müssen geübt werden, damit man sie beherrscht. Man kann sie nicht entwickeln indem man nur deklarative Informationen durch Unterweisung aufnimmt. Nach Cohen (1984) ist prozedurales Wissen involviert, wenn die Erfahrung dazu dient, Prozesse, die Leistungen steuern zu beinflussen ohne auf das Wissen, das diesen Leistungen zugrunde iegt, zurückzugreifen. Deklaratives Wissen entspricht dem explizitem Gedächtnis, das prozedurale Wissen hingegen dem implizitem Gedächtnis. Hendel, Bullers und Salman (1988) fanden heraus, daß "Huntington Patienten" große Schwierigkeiten hatten neue motorische Fertigkeiten zu lernen aber normale Leistungen in deklarativen Tests der Wiedererkennung erbrachten. Amnesie- Patienten erwerben viele motorische Fertigkeiten wesentlichen schneller als Gesunde was mit der Behauptung übereinstimmt, daß das Lernen prozeduraler Fertigkeiten nicht beeinträcchtigt ist. Qire, Knowlton und Musen fanden (1992) unter Anwendung von PET (positron-emission-tomography), daß der Blutfluß in die rechte Hälfte des Hippocampus wesentlich höher war, wenn Personen eine deklarative Wissensaufgabe zu leisten hatten, als eine prozedurale Aufgabe, was für die verstärkte Beteiligung des Hippocampus bei delkarativen Gedächtnisoperationen spricht. 7) Welche Merkmale zeichnen komplexe Probleme aus? a) Große Komplexität durch eine Vielzahl von Variablen, welchen die Problemzustände beschreiben. b) Vernetztheit der Variablen untereinander, womit die Zusammenhänge zwischen den Variablen häufig nichtlinearen Funktionen folgen, sodaß die Prognosen des Verhaltens der einzelnen Variablen und des ganzen Systems sehr schwierig wird. c) Intransparenz - dadurch ist es fast nicht möglich, das Problem zu durchschauen. d) Eigendynamik: es sind Variablen enthalten, die sich auch ohne Eingriffe durch den Problemlöser, also von selbst verändern. e) Polytelie: Komplexe Probleme erlauben immer viele Ziele zu verfolgen, somit ist eine uneindeutige Zieldefinition gegeben und der Problemlöser kann seine Ziele im Laufe des Lösungsprozesses wechseln Bei sog. komplexen Problemen greifen Problemlöser oft auf vorhandenes Vorwissen, das weit über den Inhalt der Instruktion hinausgeht, zurück. Kapitel 9: Expertentum 1) Unterscheiden Sie mit Fitts & Posner (1967) die 3 Phasen bei der Herausbildung einer speziellen Fertgkeit! Zuerst wird in der sog. Kognitiven Phase eine deklarative Encodierung der Fertiglkeit ausgebildet, also wir prägen uns jenes Wissen ein, das für die Ausführung der entsprechenden Fertigkeit von Bedeutung ist. Da in diesem Stadium das Wissen noch nicht in prozeduraler Form verfügbar ist, kann man bei Anfängern beobachten, daß sie diese Fakten innerlich oder hörbar aufsagen. Die 2.Phase ist die assoziative Phase, die dazu dient, die einzelnen Elemente, die führ die erfolgreiche Ausführung der Tätigkeit erforderlich sind, stärker miteinander zu verbinden und Fehler im anfänglichen Problemverständnis nach und nach aufzudecken und zu eliminieren. Am Ende der assoziativen Phase liet demnach eine erfolgreiche Prozedur in Form von Poduktionsregeln zur Ausübung der Fertigkeit vor. In der sog. "autonomen Phase" endlich entwickeln die Fertigkeiten mit der Zeit einen immer stärkeren Automatisierungsgrad und benötigen daher weniger Verarbeitungsressourcen und Aufmerksamreitsressourcen. Kennzeichnend ist die zunehmende Angemessenheit, die Anderson (1982) sowie Rumelhart & Norman (1978) als Tuning bzw. Feinabstimmung bezeichnen der Anwendung von angelegten Produktionsregeln. 2) Was besagt das Potenzgesetz des Lernens? Die Ausführung einer kogn. Fertigkeit verbessert sich als Potenzfunktion der Übung und verschlechtert sich auch nach langen Behaltensintervallen nur geringfügig. Es gibt physikalische Schranken, wie technische Ausrüstung, Leistungsfähigkeit der beteiligten Muskelgruppen, Lebensalter, für die erreichbare Leistung, nicht jedoch für den Geschwindigkeitszuwachs einer Fertigkeit. Unter der Voraussetzung, daß genug Übung erfolgt, geht die für die kogn. Komponente einer Fertigkeit benötigte Zeit gegen Null. Zwischen der logarithmisierten Zeit (T) und der log. Übung (P) besteht eine lineare Beziehung, die sich wie folgt ausdrücken läßt: Log (T) = A-b log (P) Daraus resultiert das Potenzgesetz: T=aP (hoch –b) mit a= 10 (hoch A) Die Funktion ist neg. beschleunigt, d.h. daß die Abnahme der benötigten Bearbeitungszeit mit zunehmender Übung sehr schnell recht gering wird bzw. , daß die Leistungsverbesserung am Beginn der Übungszeit sehr hoch ist und dann sehr steil abfällt. 3) Was versteht Anderson unter Prozeduralisierung und in welchem Zusammenhang verwendet er den Begriff? Anderson geht in seiner Theorie zum Erwerb von Fertigkeiten von einem Mechansimus aus, den er "knowledge compilation" nennt. Dieser Mechanismus liegt seinen ACT- Modellen (adaptive control of thought) zugrunde und gliedert sich ähnlich der Theorie von Fitts und Posner in 3 Phasen. Der Mechanismus hat die Prozeduralisierung als Unterprozess. Unter Prozeduralisierung versteht Anderson jenen Prozeß, der deklaratives Wissen in prozedurales Wissen überführt Während nun der Novize bei seinen ersten Lösungsversuchen eine Reihe von Zwischenzielen bildet (analog der Mittel-Ziel-Analyse), wozu er deklaratives Wissen, das er im Rahmen der Instruktionen erworben hat, anwendet, wird sich im Laufe wiederholter Problemlöseversuche, wenn ein bestimmtes deklaratives Wissen immer im Zusammenhang mit einem bestimmten Zwischenziel auftritt, eine Produktionsregel herausbilden, welche das deklarative Wissen als eine Art Vorgabe (den Wenn-Teil) und die ausführende Handlung, als dessen Verrichtung (den Dann-Teil) hat. Diese Übergänge entsprechen jenen Kennzeichen, die nach Fitts & Posner der assoziativen Phase zuzuschreiben sind. 4) Welche Lernprozesse macht ein Novize im Laufe seiner Entwicklung zum Experten durch Im Verlauf des wiederholten Umgangs mit Problemen lernt er die Handlungsabfolgen (Produktionsregeln), die zur Lösung des Problems oder von Teilen des Problems erforderlich sind. Sie lernen Taktiken, also Folgen von Operationen, die zur Lösung von Teilproblemen dienen. Das strategische Lernen ermöglicht dem Novizen zunehmend sich geeignete Wege zum strukturellen Aufbau des Problemlösens anzueignen, die für die auf dem jewiligen Gebiet bestehenden Problemen optimal geeignet sind. Er lernt die lösung des Gesamtproblems zu organisieren. Dadurch wird er in die Lage der versetzt systematisch vorzugehen und das Gedächtnis nach Schlüsselreizen abzusuchen. Dieses strategische Lernen wird durch das Erkennen von zusammenhängenden "Chunks" bei Problemen erleichtert. So haben Rosenbloom und Newell (1986) erläutert, daß, wen eine Serie von Produltionsregeln erforderlich ist, duch "chunking" eine neue Regel erzeugt werden kann, die jene relevanten Bedingungen beinhaltet, die letztlich zum Ziel führt. Unter diesen "chunks" versteht man ein Muster aus Elementen , die über verschiedene Probleme hinweg immer wieder vorkommen. Während Novizen vom Unbekannten ausgehen, und so mit einer Rückwärtssuche beginnen, neigen Experten zu einer Vorwärtssuche, wobei sie mit einer Analyse des Geamtproblems beginnen. Vor allem in der Physik und Geometrie bietet das vorwärtsgerichtete Suchen insofern Vorteile, als hier die Notwenigkeit von Teilzielen entfällt und dadurch das Arbeitsgedächtnis nicht so stark belastet wird. Im Laufe des Erwerbs von Fertigkeiten lernen Novizen Probleme derart zu repräsentieren, daß die Anwendung effektiver Problemlöseprozeduren möglich wird. Während sich Novizen allzu rasch von oberflächlichen Ähnlichkeitsmerkmalen bei der Klassifikation des Problems leiten lassen, besitzen Experten die Fähigkeit, die Oberflächenmerkmale eines Problems auf die zugrundeliegenden Prinzipien zurückzuführen. 5) Themenbereiche zur Frage des Transfers von Fähigkeiten? Pädagogische Psychologen, wie Angell, Pittsburg und Woodrow entwickelten um die Jahrhundertwende eine Doktrin der formalen Disziplin. Ausgehend von der Annahme, daß der menschliche Verstand über einzelne Gesiteskräfte verfügt, also aus einer Ansammlung von allgemeinen Fähigkeiten, wie Aufmerksamkeit, Beobachtungsgabe, Unterscheidungsvermögen, logischem Denken etc., besteht, vertraten sie die Auffassung, daß diese Fähigkeiten mittels anstrengender, vom Gegenstand unabhängiger Übung herausgebildet werden könne. Diese Unabhängigkeit vom Gegenstand der Übung impliziert ebenso Unabhängigkeit vom Gegenstand der Anwendung. Thorndike schlug, aufgrund durchgeführter Unterscuhungen, die keine begründeten Ausgangspunkte für die Doktrin lieferten, seine Theorie der identischen Elemente vor. Danach setzte sich der menschliche Geist aus speziellen Gewohnheiten und Assoziationen zusammen, die einer Person eine Vielzahl enggefaßter Reaktionsmöglichkeiten auf sehr spezifische Reize zur Verfügung stellen. Das Training einer Aktivität überträgt sich nach Thorndike nur dann auf andere Aktivitäten, wenn die Tätigkeiten gemeinsame Elemente der situationsspezifischen Reaktion aufweisen; d.h. der Transfer ist ausschließlich an die Identität von Oberflächenelementen gebunden! Diese Annahme wurde jedoch durch die Analogieforschung widerlegt! Die neuere kogn. Psychologie geht davon aus, daß Transfer zwischen Fähigkeiten nur dann auftritt, wenn an diesen Fähigkeiten dieselben abstrakten Wissenselemente beteiligt sind! Kapitel 10: Logisches Denken, Entscheidungen 1) Unterscheiden Sie deduktives und induktives (Schlußfolgern) Schließen ! Beim deduktiven Schließen werden aus wahren Prämissen Konklusionen mit Gewissheit abgeleitet. Mit "Gewißheit" bedeutet, daß die Konklusion wahr ist, wenn die Prämissen auch wahr sind. Ein Schluß ist demnach deduktiv zwingend, wenn es keinen strukturgleichen Schluß gibt, dessen Prämissen wahr sind, desen Konklusion aber falsch ist (Savigny, 1976). Wobei Schlüsse, die sich nur durch die Reihenfolge der Prämissen unterscheiden strukturgleich sind; hingegen Schlüsse, die sich in der Anzahl der Prämissen unterscheiden, nicht als strukturgleich gelten. Innerhalb der denkpsychologischen Literatur werden das deduktive Denken und die dabei auftretenden Schwierigkeiten zumeist unter "kategorische Syllogismen und konditionales Schließen" behandelt. In beiden Fällen handelt es sich um "Syllogismen", d.h. um Schlüsse, die aus 3 Urteilen bestehen: aus 2 Prämissen und 1 Konklusion. Der Unterschied besteht darin, daß beim kategorischen Syllogismus "unbedingtes" Schließen und beim konditionalen Schließen "bedingtes" Schließen gefordert wird. Beim kategor. Syllosgismus enthalten die Aussagen Quantoren wie "alle,keine,einige und einige nicht". Beim konditionierten Syllosgismus legt die erste Prämisse eine "wenn-dann-Beziehung" zwischen 2 Teilpropositionen "p.q" fest, die zweite Prämisse gibt eine der beiden Teilpropositionen bejahend bzw. verneinend vor und in der Konklusion wird auf die andere Teilproposition geschlossen. Beim induktiven Schließen werden aus wahren Prämissen Konklusionen mit einer bestimmten Wahrscheinlichkeit abgeleitet. Induktives Denken ist somit konstruktiv und interaktiv. Sowohl Hypothesenbildung als auch Hypothesentestung sind wesentlich vom Vorwissen des Menschen geprägt. Im Gegensatz zum deduktiven Schließen zeichnen sich die Konklusionen beim induktiven Schließen durch ihren Wahrscheinlichkeitscharakter aus, da sie nicht mit Gewißheit aus den Prämissen abgeleitet werden können. 2) Heuristiken beim kategorischen Syllogismus? a) der Umgebungseffekt (Atmosphärenhypothese): Die Heuristik beim Umgebungseffekt besteht darin,daß der Gesamteindruck der Prämissen die Konklusion bestimmt und nicht die kognitive Analyse der Prämissen. Die Annahme dieser Heuristik wurde von Woodworth und Sells (1935) formuliert. "Atmosphären" schaffen, die dazu verleitet, jene Konklusion zu akzeptieren, die dieselben Quantoren beinhalten wie die Prämissen. Demnach neigen VPs dazu, eine bejahende (verneinende) Konklusion als Folge von bejahenden (verneinenden) Prämissen, sowie eine verneinende Konklusion bei gemischten Prämissen zu akzeptieren. Diese Hypothese sagt wenig darüber aus, was der Mensch beim Schlußfolgern tatsächlich tut und warum er es tut. Auch trifft die Charakterisierung des Verhaltens nur annähernd zu. Menschen legen oft eine gewisse Fähigkeit an den Tag, Syllogismen logisch korrekt zu beurteilen. b) Das Phänomen der falschen Umkehrung (Konversionshypothese): Die Heuristik bei diesem Phänomen besteht darin, daß die Prämissensätze vereinfacht interpretiert werden und deshalb zu falschen Konklusionen führen. Die Annahme dieser Heuristik wurde von Chapman und Chapman (1959) als Konversionshypothese formuliert, wonach Menschen derartige Sätze so interpretieren, als ob Subjekt und Prädikat vertauschbar wären, was aber logisch nur bei "einige" und "keine" zulässig wäre. c) Der Kontexteffekt (Hypothese von der kognistiven Konsistenz): Die Heuristik hier besteht darin, daß die Schlußfolgerung in Abhängigkeit von der kognitiven Konsistenz (interne Widerspruchslosigkeit) geschieht. D.h., daß die Konklusionen eher dann als richtig beurteilt werden, wen sie im Einklang stehen mit dem eigenen Wissen bzw. mit der eigenen Einstellung 3) Welche Schlußregeln bei Konditionalaussagen sind Ihnen bekannt und welche Modelle erklären deren Anwendung? Konditionalaussagen bzw. bedingte Aussagen bestehen aus einem Wenn-Teil (=Anteccedens) und einem Dann-Teil (=Konsequens). Der Modus ponens, eine der wichtigsten Schlußregeln, erlaubt die Ableitung des Konsequens, wenn der Anteccedens gegen ist. Der Modus tollens schließt die Negation des Anteccedens aus der Negation des Konsequens. Ein Experiment von Taplin und Staudenmayer (1973) zeigte, daß die VP keine Schwierigkeiten mit dem Modus ponens, aber Probleme mit dem Modus tollens hatten. Taplin und Staudenmayer gehen davon aus, daß die VP konditionale Aussagen als bikonditionale Aussagen interpretieren (in der Sprache der Logiker definiert als: genau dann, wenn oder dann und nur dann). Bikonditional bedeutet, daß wenn eine der beiden Prämissen wahr ist, die jeweils andere auch wahr ist, u. umgekehrt. Der Mesch schließt nach d. Regeln der Logik, interpretiert die Prämissen aber nicht erwartungskonform. Eine alternative Erklärung ist die, daß der Mensch nicht logisch, sondern probebilisitisch schließt. Dies legt das probabilistische Modell (Haviland 1974, Rips 1990) nahe wonach die Tendenz einer Conclusio für gültig zu halten von der Wahrscheinlichkeit der Conclusio bei gegebenen Prämissen abhängt. Dieses Modell hat gegenüber dem logischen Modell, nach dem WENN bikonditional interpretiert wird, einen Vorteil. Zwar können beide Modelle die Bestätigung des Konsequens und d. Ableitung der Anteccadens erklären, doch nur das probabilistische Modell liefert eine Erklärung für die geringere Akzeptanz der Gültigkeit des modus tollens. 4) Erklären Sie die Vorgehensweise beim induktiven Schließen mit Hilfe des Bayes-Theorem ! Das Bayes Theorem bringt 2 Arten von Wahrscheinlichleiten zusammen, die a priori Wahrscheinlichkeit und die bedingten Wahrscheinlichkeiten,um daraus die so. "a-posterioriWahrscheinlichkeit" abzuleiten, die das graduelle Ausmaß des Zutreffens der Conclusio angibt. Die a-psteriori Wahrscheinlichkeit einer Hypothese gibt also an, mit welcher Wahrscheinlichkiet dir Hypothese zutrifft, nachdem ein bestimmtes Ereignis eingetreten ist bzw. bei Vorliegen bestimmter Daten. Die a priori Wahrscheinlichkeit einer Hypothese hingegen gibt deren Ausgangswahrscheinlichkeit an, d.h. sie gibt an , mit welcher Wahrscheinlichkeit die Hypothese zutrifft, und zwar vor dem Eintreten eines bestimmten Ereignisses bzw. vor der Kenntnis bestimmter Daten. Eine bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit , daß ein bestimmtes Ereignis eintritt, wenn eine bestimmte Hypothese utrifft. Das Byes Theorem beruht auf einer mathematischen Analyse der Beschaffenheit von Wahrscheinlichkeiten. Es läßt sich nachweisen, daß mit diesem Theorem Hypothesen korrekt eingeschränkt werden können. P(H1/D) = p(H1).p(D/H1) / p(H1) . p(DD/H1) + p(H2) . p(D/H2) P(H1/D) = a- posteriori Wahrscheinlichkeit P (H1) = a priori Wahrscheinlichkeit P ( D/H1) = bedingte Wahrscheinlichkeit Folgende Heuristiken beim Schätzen von a posteriori Wahrscheinlichkeiten können nun auftreten: Erstens die konservativen Schätzungen von a posteriori Wahrscheinlichkeiten, die darauf zurückzuführen sind, daß die Aussagekraft von bestimmten eingetretenen Ereignissen unterbewertet wird. Infolgedessen kommen die Schätzungen nicht weit von den apriori Wahrscheinlichkeiten zu liegen. Die Schätzung von a posteriori Wahrscheinlichkeiten kann auch verfälscht werden durch die Ignoranz der a priori Wahrscheinlichkeiten. Nun zeigte sich, daß die bewußten Wahrscheinlichkeitsurteile der CPs oft nicht mit dem Bayes-Theorem übereinstimmen, ihr tatsächliches Verhalten dagegen schon. 5) Heuristiken beim Schätzen von Wahrscheinlichkeiten bzw. Häufigkeiten? a) Verfügbarkeitsheuristik: Sie besteht darin, diejenigen Ereignisse als die wahrscheinlichsten bzw. häufigsten zu beurteilen, die am leichtesten aus dem Gedächtnis abrufbar und damit verfügbar sind. Die Leichtigkeit , mit welcher Bsp. Aus dem Gedächtnis abgerufen werden können, dient als Basis für die Wahrscheinlichkeits- bzw. Häufigkeitsschätzung. b) Prototypenvergleichsheuristik (Repräsentativitätsheuristik, Ähnlichkeitsheuristik): Hiebei wird das typ. Bsp. als das wahrscheinlichste Ereignis betrachtet. Das führt dazu, daß 2 Ereignisse mit der objektiv gleichen Auftrittswahrscheinlichkeit als unterschiedlich wahrscheinlich hinsichtlich ihres tatsächlichen Eintretens eingeschätzt werden, wennsie – gemessen am Prototyp – unterschiedlich typisch sind! c) Anker-und Anpassungsheuristik Sie besteht darin, daß Schätzungen nicht weit von einer Bezugsgröße (einem Anker) zu liegenkommen. Die Korrektur des Ankers hinsichtlich der Fragestellung – die Anpassung – fällt häufig zu gering aus. d) Monte-Carlo-Effekt: Die Heuristik ist hier, daß das Eintreten eines länger nicht aufgetretenen Ereignisses für wahrscheinlicher zu halten. Beim M.C.-Effekt scheint die Prototypenvergleichsheuristik in einer etwas abgewandelten Form zum Tragen zu kommen. 6) Unterscheiden Sie die Begriffe "Urteilen" und "Entscheiden", und beschreiben Sie nach welchen Kriterien Menschen in ihrer Entscheidungsfindung vorgehen ! Beim Urteilen (judgement) handelt es sich um den Prozeß, durch den wir Meinungen bilden, zu Schlüssen gelangen und Ereignisse auf der Basis verfügbaren Materials kritisch bewerten. Beim Entscheiden (decision making) handelt es sich hingegen um den Prozeß des Wählens zwischen Alternativen, desAuswählens und Zurückweisens von Optionen. Neumann & Morgenstern (1944) haben eine präskriptive Standardtheorie, die das Verhalten in solchen Situationen vorgibt entwickelt, derzufolge man die Alternative mit dem höchsten Erwartungswert wählen soll. Den Erwartungswert einer Alternative kann man berechnen, indem man ihre Wahrscheinlichkeit mit ihrem Wert multipliziert. Untersuchungen haben jedoch gezeigt, daß VPs sich oftmals anders entscheiden. Kahnemau & Tversky (1984) erklären das damit , daß Probanden Entscheidungen unter Unsicherheit auf der Basis aubjektiver Nutzwerte und subjektiver Wahrscheinlichkeiten treffen. In Fällen, in denen es keine eindeutige Grundlage gibt auf der eine Entscheidung zu treffe ist, werden Menschen durch den rahmenden Kontext beeinflußt, in dem ein Problem steht. Auch wenn es individuelle Unterschiede gibt, besteht allgemein die Tendenz, schwierige Entscheidungen zu vermeiden. Dabei spielen nach Beattie (1994) mehrere psycholog. Faktoren eine Rolle. Menschen treffen nicht genug Entscheidungen, die zur Folge haben, daß manche viel und andere wenig von einem begehrten Gut erhalten. Sie werden nicht gerne für Entscheidungen verantwortlich gemacht , die zu schlechten Ergebnissen führen. Menschen können sich vorstellen, wie sehr sie es bedauernd würden, wenn sich herausstellte, daß sie die schlechtere Wahl getroffen haben und sie treffen nicht gerne Entscheidungen für andere! Kapitel 11: Struktur der Sprache 1) Beschreiben sie die Aufgaben und Kennzeichen der Linguistik! Die Linguistik versucht die Beschaffenheit und Struktur der natürlichen Sprache zu beschreiben, dabei konzentrieren sich die Linguisten auf zwei Aspekte der Sprache a) Produktivität: bezieht sich auf die Tatsache, dass in jeder Sprache eine unbegrenzte Anzahl an Äußerungen möglich ist. Man braucht nur ein Buch aufzuschlagen und einen beliebigen Satz auszuwählen. Würde man nun in die Bücherei gehen und versuchen denselben Satz in einem anderen Buch zu finden, würde man sicher schnell aufgeben, denn es ist sehr unwahrscheinlich den Satz unter den Milliarden von Sätzen ein zweites Mal zu finden. Dennoch setzen sich die Sätze aus einer geringen Anzahl von Komponenten zusammen: im Deutschen sind es 26 Buchstaben, etwa 40 Phoneme und einige zehntausend Wörter. Dennoch können wir Billionen neuartiger Sätze erzeugen. b) Regelhaftigkeit: bezieht sich darauf, daß die Äußerungen in vielerlei Hinsicht systematisch beschaffen sind. Ziel der Linguistik ist es ein Regelsystem zu finden, ein solches Regelsystem nennt man Grammatik. Es gibt drei Klassen von Regeln Die Syntax bezieht sich auf die Wortstellung und die Flexion (Die Mädchen schlägt die Jungen. – wäre falsch). Die Semantik betrifft die Bedeutung von Sätzen (Farblose grüne Ideen schlafen vehement – wäre falsch). Die Phonologie betrifft die lautliche Struktur von Sätzen. Sätze können syntaktisch und semantisch korrekt sein, aber falsch ausgesprochen werden. 2) Was versteht man unter dem Begriff "Phrasenstruktur"? Analysieren sie folgenden Satz nach diesem Prinzip: "Der mutige Junge rettete das ertrinkende Mädchen"! Die Phrasenstruktur eines Satzes ist die hierarchische Zergliederung des Satzes in Einheiten. Satz Nominalphrase Artikel Adjektiv Verbalphrase Nomen Verb NominalPhrase Der mutige Junge rettete Artikel Adjektiv Nomen das ertrinkende Kind 3) Erläutern sie den behavioristischen Ansatz in der Beziehung zwischen Sprache und Denken! Wurden die Theorien bestätigt? John B. Watson, war der Meinung Denken sei subvokales Sprechen. Wenn Menschen also mit "mentalen" Tätigkeiten beschäftigt seien, sprächen sie zu sich selbst. Diese Aussage bekräftigte er, indem er sagte, daß wir mit dem gesamten Körper denken, denn Taubstumme z.B. verwenden auch im Traum die Zeichensprache. Um diese Annahmen zu überprüfen wurde ein Experiment mit einem Curare-Präparat durchgeführt, das die menschliche Muskulatur lähmt. Die Vp (der Forschungsmitarbeiter Smith) mußte durch künstliche Beatmung am Leben gehalten werden. Da die gesamte Muskulatur vollständig gelähmt war, konnte er unmöglich subvokal sprechen, dennoch konnte er beobachten, was um ihn herum passierte, er konnte Sprache verstehen und über die stattfindenden Ereignisse nachdenken. Somit wurde deutlich, daß denken auch ohne jegliche Muskelaktivität fortgesetzt werden kann. Denken ist somit eine innere, nichtmotorische Aktivität. Auch bei Forschungen bezüglich Gedächtnisspeicherung wird deutlich, das Denken nicht mit Sprache gleichgesetzt werden darf, denn wir wissen, dass sich Menschen meist nicht den exakten Wortlaut einer sprachlichen Mitteilung merken, sondern eine eher abstrakte Repräsentation der Bedeutung dieser Mitteilung behalten. 4) Was bedeutet "linguistischer Determinismus" -- Die Theorie von Whorf (auch als SapierWhorf These bekannt)? Linguistischer Determinismus bezeichnet die Annahme, dass die Sprache die Art wie jemand denkt oder die Welt wahrnimmt, determiniert oder stark beeinflußt. Benjamin Lee Whorf (ein Schüler des Anthropologen Edward Sapier, dessen Idee er entliehen hat) fand heraus, dass Inuits viele verschiedene Wörter für Schnee haben (verwehten Schnee, matschigen Schnee, harten Schnee etc.), Araber auf viele Arten Kamele bezeichnen und ein Stamm auf den Philippinen viele Namen für Reis hat. Er glaubte, dass ein solcher Wortschatz die Sprachbenützer dazu veranlassen würde, die Welt anders wahrzunehmen als jemand, dem nur ein einziges Wort gegeben ist, z.B. gibt es im Englischen nur das Wort "snow". (Anm.: Da die Menschen für wichtige Dinge Wörter haben, wird die Wortanzahl zu einem bestimmten Bereich als Indikator für die Bedeutung des bereiches gesehen, wie es sich am Beispiele der Fachjargone zeigt. Aber gerade die Behauptung Whorfs, wonach die Eskimosprache viele (hunderte?) Wörter für Schnee hätte, wird von Geoffrey Pullum bestritten; danach hätte das führende Lexikon der Eskimosprache gerade zwei Wortstämme, einen für Schnee der fällt und einen für Schnee der lieg. -- Um herauszufinden ob Eskimos nicht doch feiner differenzieren, muss man wohl eine Reise machen.) Allerdings würde es niemanden überraschen, wenn er hört, dass Inuits mehr über Schnee wissen als typische Personen im englischen Sprachraum. Schließlich spielt Schnee im Leben der Inuits eine wichtigere Rolle. Die Frage ist nun, ob sich ihre Sprache auf ihre Wahrnehmung des Schnees auswirkt und zwar über das hinaus, was durch Erfahrung bedingt ist. Man kam, vor allem durch Experimente mit fokalen Farben, zu dem Schluß, dass Sprache sehr wohl das Denken beeinflußt, aber nur indem sie Ideen mitteilt (wenn man z.B. ein Buch liest) und nicht die Art der gedanklichen Vorstellungen determiniert. 5) Der Zusammenhang von Sprache und Denken und Belege dazu? Wir gehen davon aus, dass Denken vor der Sprache auftritt, sei es bei einem Kleinkind, das zu komplexen kognitiven Vorgängen fähig ist, oder aber bei Tierarten, die nicht sprechen können, aber doch kognitive Fähigkeiten besitzen. So wird angenommen, dass die Sprache ein Werkzeug ist um Gedanken mitzuteilen und weiters dass die Sprache so geformt ist, dass sie zu den Gedanken paßt. Ein Beleg stammt aus den Forschungsarbeiten über fokale Farben. Das visuelle System des Menschen weist für bestimmte Farben maximale Empfindlichkeit auf. Deshalb gibt es in vielen Sprachen besondere, kurze häufig auftretende Wörter zur Bezeichnung dieser Farben: Schwarz, Weiß, Rot, Gelb, Grün, Blau, Braun, Lila, Rosa, Orange und Grau. Folglich hat das visuelle System bestimmt, wie das Farbenspektrum in diesen Sprachen eingeteilt ist. Auch die Wortstellung weist auf den Einfluß des Denkens auf die Sprache hin. In jeder Sprache gibt es eine bevorzugte Wortstellung von Subjekt (S), Prädikat (P) und Objekt (O), wobei das Subjekt dem Objekt fast immer voransteht (SOP, SPO, PSO). Das erscheint sinnvoll, denn eine Handlung geht vom Handelnden aus und wirkt sich dann auf das Objekt aus. 6) Spracherwerb des Kindes Der Prozeß des kindlichen Spracherwerbs weist einige charakteristische Merkmale auf, die unabhängig von der jeweiligen Muttersprache gelten: Von Geburt an produzieren Kinder Geräusche. Zunächst bestehen ihre Vokalisationen ausschließlich aus einem "ah"-Laut (mit unterschiedlicher Intensität und verschiedenen emotionalen Färbungen). Mit etwa sechs Monaten fangen sie an zu lallen, wobei diese Laute noch völlig bedeutungslos klingen. Die ersten Worte tauchen mit etwa einem Jahr auf, wobei die allerersten Worte nur für die eng vertrauten Personen verständlich sind. Die früh gelernten Wörter sind konkret und beziehen sich auf das Hier und Jetzt. Es handelt sich ausschließlich um Einwort-Äußerungen. Mit etwa eineinhalb Jahren schließt sie Phase der Zweiwortsätze an. Wenn sie nun Sätze mit drei bis acht Worten sprechen, lassen sie unwichtige Wörter wie Artikel oder die Kopula ist weg (Telegrammstil). Kaum einen Satz kann man als wohlgeformt bezeichnen. Bedeutend ist, dass Kinder alle Satzarten gleichzeitig lernen, die sich immer mehr an die Sätze der Erwachsenen annähern. Mit sechs Jahren beherrschen Kinder den größten Teil ihrer Sprache, obwohl sie weitere Einzelheiten noch bis mindestens ins 10. Lebensjahr aufgreifen. 7) Welcher Zusammenhang besteht zwischen Alter und Spracherwerb? Jüngere Kinder finden sich leichter als Erwachsene in einer neuen Sprache zurecht, doch man sollte auch die Unterschiede zwischen den beiden Altersgruppen betrachten: in welchem Ausmaß die Sprache ausgesetzt sind, in welchen Zusammenhängen sie mit Sprache zu tun haben (Aktien oder Gameboy) und ihrer Lernbereitschaft. Man nimmt aber an, dass Kinder innerhalb des kritischen Zeitabschnittes von zwei bis elf Jahren eine Sprache am leichtesten lernen. Bei Untersuchungen von Menschen, die in ein fremdes Land zogen, fand man heraus, dass ältere Kinder (über elf Jahre) schneller lernen als jüngere. Doch obwohl sie anfangs schneller lernen als jüngere, scheinen sie nicht dasselbe Beherrschungsniveau erreichen zu können, was die feineren Nuancen der Phonologie und der Morphologie betrifft. So wird z.B. die Fähigkeit, eine Fremdsprache ohne Akzent zu sprechen, mit zunehmenden Alter deutlich schlechter. 8) Was sind "sprachliche Universalien"? Wozu dienen sie? Sprachliche Universalien sind angeborene Mechanismen, die für den Spracherwerb nötig sind. Sie wurden von Chomsky postuliert, der behauptete, dass es unmöglich wäre eine Sprache zu lernen, ohne Informationen darüber zu haben, welche möglichen Formen der natürliche Sprache es gibt. Somit sind sprachliche Universalien Einschränkungen hinsichtlich der Arten von Sprachen, die Menschen erlernen können. Sie sind abstrakt und werden durch universelle Eigenschaften (Eigenschaften, die für alle Sprachen gelten) widergespiegelt: z.B. treten Adjektive in der Nähe des Substantivs auf, das sie näher bestimmen. Wenn man nun sagt: "Die charmante Frau schlug den exotischen Mann.", so stellt man sich eine charmante Frau vor, die einen exotischen Mann schlägt und nicht eine exotische Frau, die einen charmanten Mann schlägt. Letzteres ist so abartig, dass diese Struktur in keiner natürlichen Sprache vorkommt, obwohl es theoretisch möglich wäre. Kapitel 12: Sprachverstehen 1) Die Stufen des Sprachverstehens Das Verstehen kann man in drei Stufen gliedern: Die erste Stufe sind die wahrnehmungsbezogenen Prozesse, durch die die akkustische oder geschriebene Mitteilung zunächst enkodiert wird. Die zweite Stufe ist die syntaktische und semantische Analyse, das s.g. PARSING. Darunter versteht man den Prozeß, durch den die Wörter einer Mitteilung in eine mentale Repräsentation überführt werden, die die zusammengesetzte Bedeutung der Wörter darstellt. Auf der dritten Stufe, der VERWENDUNG, machen die Hörer bzw. Leser von dieser mentalen Repräsentation der Satzbedeutung gebrauch. Ist der Satz zB. eine Behauptung, speichern die Hörer / Leser vielleicht seine Bedeutung. Ist der Satz eine Frage, werden sie antworten. Diese drei Stufen sind zeitlich geordnet, sie können sich aber auch überschneiden. 2) Was ist das "Prinzip der unmittelbaren Interpretation"? Das Prinzip der unmittelbaren Interpretation besagt, dass Menschen beim Auftreten eines Wortes versuchen, soviel Bedeutung wie möglich zu extrahieren und dass sie nicht bis zum Satzende oder Phrasenende warten, bis sie eine Interpretation suchen. Dieses Prinzip wurde in einem Experiment belegt, bei dem die Augenbewegungen beim Lesen eines Satzes untersucht wurden. Normalerweise wird beim Lesen fast jedes einzelne Wort fixiert. Die Autoren fanden nun heraus, dass sich die Zeit, die die Leser für die Fixation eines Wortes aufwenden, sich proportional zum Informationsgehalt des jeweiligen Wortes verhält. So halten die Augen bei einem unbekanntem oder wenig vertrauten Wort länger inne als bei einem alltäglichen. Unwichtige Funktionswörter wie "the" oder "to" im Englischen können übersprungen werden. Außerdem fanden sie heraus, dass wir am Ende jeder Phrase zusätzlich Zeit aufwenden, um die Bedeutung, die die Phrase vermittelt, abschliessend zu integrieren. 3) Syntaktische und semantische Hinweise für das Sprachverstehen? Bei der Analyse eines Satzes kombiniert man die Bedeutungen einzelner Wörter, um zu der Bedeutung des ganzen Satzes zu kommen. Dabei gibt es zwei Hauptinformationsquellen für syntaktische Hinweise: Wortreihenfolge: "Die Katze biß die Maus" oder "Die Maus biß die Katze". Beide Sätze bestehen aus denselben Wörtern, haben aber ganz verschiedene Bedeutungen. Verwendung von Funktionswörtern: (z.B. Artikel, Relativpronomina) "The boy whom the girl liked was sick." oder "The boy the girl liked was sick." In Satz 2 fehlt der Hinweis "whom" und do ist Satz 2 schwieriger zu analysieren. Wir setzen aber auch semantische Strategien beim Sprachverstehen ein: Wir können die Bedeutung einer Wortkette auch dadurch bestimmen, dass wir überlegen, wie die Wörter zusammen einen Sinn ergeben. Wir wissen, was Tarzan meint, wenn er sagt: "Jane Frucht essen", obwohl dieser Satz nicht den syntaktischen Regeln entspricht. "John wurde beerdigt und start" – Mehr als 60% würden diesen Satz so umschreiben, dass John zuerst starb und dann beerdigt wurde. In meisten Fällen, in denen ein semantisches Prinzip mit einem syntaktischen Prinzip im Konflikt steht, scheint das semantische Prinzip die Interpretation zu bestimmen. Das ist aber auch kulturabhängig, denn man fand heraus, dass Amerikaner eher das syntaktische Prinzip und Italiener eher das semantische vorziehen. 4.) Arten der Mehrdeutigkeit Man unterscheidet zwischen a) lexikalischer Mehrdeutigkeit: mehrdeutige Wörter b) syntaktischer Mehrdeutigkeit: mehrdeutige Satzkonstruktionen und weiters zwischen c) vorübergehender Mehrdeutigkeit: Sätze, die zwischenzeitlich mehrdeutig sind, aber am Ende eindeutig werden d) anhaltender Mehrdeutigkeit: Mehrdeutigkeit bleibt bis zum Ende des Satzes bestehen Vorübergehende Mehrdeutigkeit ist in der Sprache weit verbreitet, deshalb gehen wir nach dem Prinzip der unmittelbaren Verarbeitung vor, d.h., dass wir uns gleich auf eine Interpretation des Wortes/der Phrase festlegen, obwohl wir nicht wissen, ob diese Interpretation zutrifft. Diese Interpretation wird durch das Prinzip der minimalen Anbindung determiniert, das besagt, dass man den Satz so interpretiert, dass die Komplexität des Satzes minimal ist. Stimmt die Interpretation mit dem weiteren Satzverlauf nicht überein, korrigieren wir sie. 5.) Referenz in der Sprachverarbeitung: Referenz bedeutet, dass sprachliche Ausdrücke auf außersprachliche Gegebenheiten verweisen, auf sie referieren. Beim Dialog ist es nun entscheidend, dass man die gemeinsamen Referenten identifiziert, um das Sprachverstehen zu gewährleisten. Es gibt einige Prinzipien, die bei der Auflösung der Referenten hilfreich sind: + Unterschied zwischen unbestimmtem/bestimmtem Artikel: z.B.: Vergangene Nacht sah ich den Mond. (= gewohnter Mond, ereignisarmer Sachverhalt) Vergangene Nacht sah ich einen Mond. (= neuer Mond, ungewohnter Sachverhalt) + Interpretation von Pronomina: Beim Verstehen zieht man mehrere mögliche Kandidaten als Referenten für ein Pronomen in Betracht und verwendet bei der Auswhhl eines Referenten syntaktische und semantische Anhaltspunkte: bezüglich Geschlecht und Fall: Kurt, Susi und ihr Kind gingen, als es müde wurde. ( es = das Kind) Pronomina, die in einem Sachverhalt dieselbe grammatikalische Rolle referieren: Franz boxte Emil und dann trat er ihn.(er = Franz, ihn = Emil) Positionseffekt: Lisa aß den Kuchen; Tina aß ein Stück Torte; danach trank sie noch Kaffee. (sie = Tina) Weltwissen: Tom schrie Eugen an, weil er den Kaffee verschüttet hatte. (er = Eugen) / Tom schrie Eugen an, weil er Kopfweh hatte. (er = Tom) 6.) Verarbeitung von Negativsätzen? Negativsätze scheinen eine positive Aussage zu unterstellen und diese dann zu bestreiten. Beispielsweise setzt der Satz John ist kein Gauner voraus, dass es sinnvoll ist anzunehmen, John ist ein Gauner, behauptet jedoch, dass dies nicht zutrifft. In einem Experiment wurde Probanden eine Karte gezeigt (s. Abbildung) und sie wurden gebeten Sätze über diese Karte als richtig oder falsch zu beurteilen: Der Stern ist über dem Pluszeichen. Das Pluszeichen ist über dem Stern Das Pluszeichen ist nicht über dem Stern Der Stern ist nicht über dem Pluszeichen Die Versuchsleiter überprüften die Verarbeitungszeiten der jeweiligen Sätze und entwickelten daraus ein mathematisches Modell. Sie kamen zu der Vorhersage, dass die Probanden mehr Zeit benötigten Satz 3, einen wahren Negativsatz, zu beurteilen als Satz 4, einen falschen Negativsatz. Weiters konnten sie auch feststellen, dass sie für Satz 2, einen falschen Affirmativsatz länger brauchten als für Satz 1, den wahren Affirmativsatz. Allgemein: Beim Verstehen eines Negativsatzes wird zuerst die eingebettete Annahme und dann die Negation verarbeitet. * + Kapitel 13: Differentielle Aspekte der Kognition 1) Beschreiben Sie die 4 Entwicklungsstufen nach Jean Piaget o o o o Sensumotorische Stufe: (1,2 Lebensjahr) auf dieser Stufe entwickeln Kinder Schemata über die physikalische Welt, zB. lernen sie ein objekt als einen beständigen Gegenstand anzusehen Präoperatorische Stufe: (2-7 Lj.) Kind ist zu internalem Denken über die Welt fähig, aber die mentalen prozesse sind noch intuitiv und es fehlt ihnen die Systematik Konkret-operatorische Stufe: (7-11 Lj.) Kind entwickelt eine Reihe von mentalen Operationen, kann sich dadurch systematisch mit der physikalischen Welt auseinandersetzen, doch die Fähigkeit zum abstrakten Denken ist noch erheblich eingeschränkt Formal-operatorische Stufe: (11-15 Lj.) Fähigkeit zum abstrakten Denken tritt auf. nach dieser Stufe ist das Kind hinsichtlich seiner kognitiven Fähigkeiten ein Erwachsener, also fähig zum schlußfolgernden, wissenschaftlichen Denken. 2) Erklären Sie die Invarianzaufgabe von Flüssigkeiten Man zeigt dem Kind zwei gleichgrosse Bechergläser, die beide gleich viel Wasser enthalten, sowie ein hohes schmales glas. Auf die Frage hin, ob beide Bechergläser gleich viel Wasser enthalten, antwortet das Kind mit Ja. Nun schüttet man das Wasser aus einem der Becher in das hohe, schmale Glas. Das Kind wird nun behaupten, dass sich im hohen Glas mehr Wasser befindet. Das Kind wird durch den äußeren Anschein beeinflußt und stellt keinen Zusammenhand zwischen den Tatsachen her, dass die Flüssigkeitsmenge unverändert ist und dass sie gesehen haben, wie das Wasser vom Becherglas in das hohe Glas geschüttet wurde. 3) Wie äußert sich die Invarianz auf der sensumotorischen Stufe Wenn Kinder auf die Welt kommen, wissen sie nicht, dass Dinge trotz Transformationen in Zeit und Raum weiterbestehen. Während des ersten Lebensjahres entwickeln sie erst ein Konzept der Objektpermanenz. Wird ein Spielzeug, nach dem ein sechs Monate alter Säugling gerade greift, mit Stoff bedeckt, so hört das Kind auf, danach zu greifen, und verliert das Interesse daran. Das Spielzeug scheint für das Kind nicht mehr zu existieren. Das Konzept der Objektpermanenz entwickelt sich langsam und erst nach 12 Monaten ist es vollständig ausgereift. 4) Welche Relationen bestehen zwischen dem Denken und dem Älterwerden Mit zunehmendem Alter lernen wir immer mehr Dinge, aber die kognitive Fähigkeit des Menschen steigt mit den hinzukommenden jahren nicht in gleichen Maße an. Ein Intelligenztest verdeutlicht, dass die verbale Intelligenz, also Wortschatz und Sprachverständnis, über Jahre hinweg relativ stabil bleibt. Dem gegenüber fällt die Leistungskurve stark ab, die sich auf Fähigkeiten wie das Schlußfolgern und das Problemlösen bezieht. Es gibt einen alterungsbedingten Rückgang verschiedener Gehirnfunktionen. So sterben etwa Gehirnzellen ab oder sie schrumpfen. (Allerdings wachsen auch andere Zellen, um die abgestorbenen zu kompensieren!) Außerdem können Ältere an verschiedenen Krankheiten des Gehirns leiden (zB. Morbus Alzheimer) Eine Studie zeigte, dass Menschen in vielen berufen ihre besten Arbeiten etwa mit Mitte Dreißig produzieren, außerdem besagte sie auch, dass eine relativ hohe intellektuelle Leistung bis zum Alter von 40 bzw. 50 erhalten bleibt. 5) Diskutieren sie die Anlage-Umwelt-Kontroverse bezüglich der intellektuellen Entwicklung Im Hinblick auf die Anlage-Umwelt-Debatte ergeben die Daten aus der Forschung ein uneinheitliches Bild. Einige sagen, dass Kinder mit zunehmendem Alter "besser denken", das heißt, die kognitiven Prozesse verbessern sich. So können sie mehr Informationen im Arbeitsgedächtnis behalten, oder sie können die Informationen schneller verarbeiten. Andere wiederum behaupten, dass Kinder im Laufe der Entwicklung mehr Fakten und Methoden lernen, sie können Aufgaben besser ausführen. Natürlich ist der Fortschritt des Kindes auf beide Faktoren zurückzuführen, die Frage ist nur wie gross der relative Anteil jedes Faktors ist. In den ersten beiden Lebensjahren trägt aber die neuronale Entwicklung viel mehr zu kognitiven Entwicklung bei als nach dem 2. Lj.. So kann man sagen, dass vor allem am Anfang die intellektuelle Kapazität mit den Gehirnfunktionen einhergeht. Jedoch kann auch die Übung und das Wissen ein dominanterer Faktor als das Alter sein. 6) Was mißt die Faktorenanalyse Intelligenztests bestehen im allgemeinen aus einer Reihe von Untertests, wobei Personen, die gute Leistungen in dem einen Test erbringen auch in anderen Tests gut abschneiden. Die Beziehung zwischen den Tests wird mit dem Korrelationskoeffizienten ausgedrückt. Die Korrelation ist 1, wenn die Person in beiden Tests gleich gut ist. Besteht kein Zusammenhang zwischen den Tests, so ist die Korrelation 0. Die Faktorenanalyse bietet nun eine Möglichkeit, solche Korrelationsmuster zu interpretieren. Die Tests werden so in einem mehrdimensionalen Raum angeordnet, dass der Abstand der Tests untereinander der Korrelation entspricht. Elemente, die nahe zusammen sind, besitzen hohe Korrelation. Die Faktorenanalyse dient dazu, die Anzahl der Korrelationen zu reduzieren und zu einer geringen Anzahl von Faktoren zu gelangen. Allerdings ist man sich nicht einig, was diese Faktoren eigentlich sind. Ist es nur ein Faktor ("g-Faktor), sind es drei ("verbaler Faktor, räumlicher F., schlußfolgerndes Denken") oder sind es überhaupt über 100 verschiedene Faktoren. 7) Die Entwicklung des menschlichen Gehirns in Vergleich zu anderen Säugetieren Menschen sind im Verhältnis zu ihrer Körpergröße mit einem sehr grossen Gehirn ausgestattet, wodurch ein Problem entstand: Wie ließ sich die Geburt von Säuglingen mit so grossem Gehirn bewerkstelligen? So vergrösserte sich der Geburtskanal so weit es das Skelett zuließ. Außerdem ist der Schädel bei der Geburt so plastisch verformbar, dass er in eine Kegelform zusammengepreßt werden kann. Trotzdem ist die Geburt im vergleich zu anderen Säugetieren sehr schwierig. Der Mensch wird – anders als viele Säugetiere – mit einem unreifen Gehirn geboren, ein Großteil der neuronalen Entwicklung musste auf die Zeit nach der Geburt gelegt werden. Trotz 9-monatiger Entwicklung im Mutterleib sind Menschen zum Zeitpunkt der Geburt recht hilflos und brauchen etwa 15 Jahre bis zur Geschlechtsreife heranzuwachsen. Im Vergleich dazu ist ein Hund mit 9-wöchigen Tragezeit in weniger als einem Jahr ausgewachsen und fortpflanzungsfähig. Da die moderne Gesellschaft so komplex ist, müssen wir uns auch noch soviel Wissen aneignen, dass wir oft mehr als 25 Jahre brauchen, um ins Berufsleben einsteigen zu können. 8) Das Modell der multiplen Intelligenzen nach Gardner? Gardner meint, dass es zumindest 6 verschiedene Arten von Intelligenz gäbe: sprachliche, musikalische, mathematische, räumliche, kinästhetische und personale Intelligenz. All diesen Formen von Intelligenz sind verschiedenen neuronalen Zentren im Gehirn zugeordnet. Es gibt Menschen, die auf einer Dimension außerordentlich intelligent sind, und es macht keinen Sinn zu sagen, dass eine Person intelligenter als eine andere sei. Intelligenz ist kein einheitliches Konzept wie zB. Körpergrösse. Bei sprachlicher Intelligenz ist das Vorhandensein verschiedener neuronaler Zentren gut belegt, Gardner sieht Dichter und Schriftsteller als außerordentlich sprachlich talentiert an. Als weiteren Beleg für räumliche Intelligenz (neben neuronalen Zentren) betrachtete Gardner die weite Verbindung der bildenden Künste über fast alle Kulturen hinweg. Für mathematische Intelligenz ist es schwieriger Belege zu finden, denn so wie sie in Tests gemessen wird, gilt sie nur für westliche Gesellschaften. doch ist allen Völkern die Fähigkeit zum Zählen gegeben. Eine Alternative wäre, statt für mathematische Intelligenz den Faktor des schlussfolgernden Denkens anzuführen. In der musikalischen Fähigkeit gibt es ebenfalls auffällige individuelle Unterschiede bis hin zu Wunderkindern wie Mozart. Musik ist unbestritten eine kulturelle Universalie. Bezüglich kinästhetischer Intelligenz betrachtet Gardner berühmte Pantomimen als sehr intelligent. Bei personaler Intelligenz unterscheidet er zwischen Selbstverständnis und Fähigkeit zum sozialen Erfolg. V000623