Allgemeine Psychologie I WS0405

Werbung
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
VO 1: Einleitung
Die Kognitive Psychologie als Wissenschaft stellt das
Ergebnis eines kontinuierlichen Prozesses dar, in
welchem das Black-Box-Paradigma des Behaviorismus
überwunden und an dessen Stelle tritt das Konzept der
Informationsverarbeitung. Dieses basiert auf der
Analogie zwischen Verstand und Computer.
Für diese Entwicklung war das Jahr 1956 von entscheidender Bedeutung (=Geburt der
Kognitionspsychologie):
Chromsky’s
Theorie der Sprachentwicklung
Miller’s
Magical Number 7 (Kapazität des KZG)
Newell und Simon
Theorie des General Problem Solver
Minsky
Forschungsmöglichkeiten hinsichtlich künstlicher Intelligenz
Das Ziel der Kognitiven Psychologie besteht darin, die symbolischen Prozesse und
Repräsentationen zu spezifizieren, die bei der Bewältigung von kognitiven Aufgaben
auftreten – also herauszufinden, wie das Gehirn funktioniert.
Der Ansatz der Informationsverarbeitung betrachtet dabei das Gehirn als
symbolverarbeitendes System, mit begrenzter Kapazität, welches mittels Verbindungs- und
Transformationsprozessen mit der Außenwelt interagiert. Eine wichtige Unterscheidung
hierbei besteht zwischen
a) top-down-Verarbeitung (parallel):
Die Verarbeitung ist durch den
Reizinput direkt betroffen.
und
b) bottom-up-Verarbeitung
(sequentiell): Die Verarbeitung von
individuellen Erwartungen ab.
Entsprechend der jeweils verwendeten
Methode, können innerhalb der Kognitiven
Psychologie zumindest vier verschiedene
Forschungszweige unterschieden werden.
1) Experimental Cognitive Psychology (Experimente)
Die Experimental Cognitive Psychology stellt eine wissenschaftliche und kontrollierte
Methode zur Verfügung, in der nach vorausgegangener Operationalisierung von
Variablen, der Einfluss unabhängiger Variablen auf eine oder mehrere abhängige
Variablen untersucht werden kann. Üblicherweise erfolgt dies indirekt, über die
Ermittlung von Fehlerwerten und Reaktionszeiten.
• Das Experiment (empirische Methode):
+ Kontrolle
+ Wissenschaftlich
+ Kausalzusammenhang
− Nur Indirekte Informationen über interne Prozesse und Strukturen
durch Messung der Reaktionszeit und der Fehler
− Künstliche Umgebung des Labors (Schlechte Alltagstauglichkeit)
− Nicht Gesamtheitlich (non wholistic)
• Introspektion: Auswertung oder Beobachtung von jmd.s geistigen Prozessen
hängt von der individuellen, bewussten Erfahrung des Einzelnen ab.
Kriterien für die Introspektion:
• Während der Durchführung – Nicht nachträglich (Fehlbarkeit d. Gedächtnisses)
• Eher beschreibend als interpretierend
• Keine neuralen, impliziten oder Erkennungsprozesse
Seite 1 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
2) Cognitive Science (Modellierung und Berechung)
Die Cognitive Science entwickelt Berechungsmodelle um höhere Kognitionen zu
verstehen. Diese Modelle werden in Computerprogrammen realisiert, die bei gleichem
Input, denselben Output liefern sollen wie Menschen. Man unterscheidet vor allem drei
Arten von Modellen:
• Semantische Netzwerke bestehen aus Konzepten (Knoten) die mit/durch
verschiedene Beziehungen (unterschiedlich gewichtete Verbindungen)
verknüpft sind. Lernen ist das Hinzufügen von neuen Verbindungen oder die
Änderung der Gewichtungen der Verbindungen.
Der Grundgedanke ist der, dass jedes Wissen in Form von Assoziationen
besteht. Es gibt drei Hauptprinzipien der Assoziation:
• Contiguity (Zusammenhang): Zwei Dinge werden assoziiert, weil sie
zusammen in einer Zeitspanne auftreten.
• Similarity (Gleichartigkeit): Zwei Dinge werden assoziiert, weil sie
ähnlich sind.
• Contrast (Kontrast): Zwei Dinge werden assoziiert, weil sie die jeweiligen
Gegensätze sind.
• Produktionssysteme bestehen aus Produktionen von „Wenn-dann-Regeln“.
Das Produktionssystem vergleicht die Inhalte des Arbeitsspeichers mit den
Wenn-Teilen der Regeln und arbeitet dann die Dann-Teile ab.
• Verbindungsnetzwerke (Neuronale Netzwerke) unterscheiden sich von den
vorangegangenen Modellen vor allem dadurch, dass hier Lernerfahrungen
berücksichtigt werden (rückwärts gerichtete Weitergabe).
Eine neuronenähnliche Einheit (Knoten) ist mit vielen anderen Knoten über
unterschiedliche Beziehungen (gewichtete Verbindungen) verknüpft. Die Einheit
summiert alle gewichteten Eingaben und produziert eine einzige Ausgabe,
wenn die Summe der gewichteten Eingaben größer ist als der Schwellenwert
der Einheit. (Mehrere Schichten; dezentrale Konzeptspeicherung)
3) Cognitive Neuropsychology (Beeinträchtigungen und Patienten)
Die Cognitive Neuropsychology beschäftigt sich mit kognitiven Beeinträchtigungen von
gehirngeschädigten Patienten, um Informationen über die normal funktionierenden
menschlichen Kognitionen zu erhalten. Das kognitive System wird somit als modulares
System betrachtet, im Sinne einer Isomorphie in der Organisation zwischen dem
physischen Gehirn und dem Verstand (Jedes Modul hat eine physische Entsprechung).
4) Cognitive Neuroscience (Ins Gehirn schauen – Wann und Wo verarbeitet wird)
Die Cognitive Neuroscience verwendet verschiedene Techniken, um das Gehirn zu
studieren, wobei diese im Hinblick auf Grad der räumlichen und zeitlichen Auflösung in
dem sie neuronale Strukturen und Vorgänge abbilden, unterschieden werden.
Zu den wichtigsten Verfahren zählen:
• Einzelzelllableitung: Eine Mikroelektrode (1/10.000mm) wird ins Gehirn
eingefügt; große Auswahl an Zeitspannen; Neuronale Ebene
• ERPs (Event related potentials): Electroencephalogramm (EEG): Messung auf
der Kopfoberfläche; Nur zur Messung der kognitiven Basisprozesse geeignet
• PET (Positron emission tomography): Radioaktiv verseuchtes Wasser; indirekte
Messung der neuralen Aktivität; Identifikation vieler kognitiver Aktivitäten –
rasche Änderungen können aber nicht aufgezeigt werden
• MRI (magnete resonance imaging): Radiowellen; Struktur und Funktion des
Gehirns; fMRI (Functional): misst den Blutfluss; Indirekt
• Magnetenzephalographie (MEG): direkte, sehr genaue Messung, keine
strukturelle Info, meist verbunden mit MRI
Seite 2 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
VO 2: Wahrnehmung, Gibsons Ansatz
Entsprechend konstruktivistischer Theorien (indirekte Wahrnehmungstheorien) stellt
Wahrnehmung einen aktiven und konstruktiven Prozess dar, der von Hypothesen und
Erwartungen abhängt und von motivationalen als auch emotionalen Faktoren beeinflusst
wird. Wenngleich sich mit diesen Ansätzen die Wahrnehmung besonders kurzzeitig
dargebotener Reize sehr gut erklären lässt, so werden bei alltäglicher Wahrnehmung weit
mehr Fehler vorhergesagt als tatsächlich auftreten.
WAHRNEHMUNG = how the world appears to us
• Die Welt wäre dumm und schwarz, wenn wir keine Sinnesorgane hätten.
• Jeder Organismus muss von seiner Umgebung adaptiert werden, wenn er überleben
und sich reproduzieren will. Die Struktur und die Physiologie eines Organismus sind
nicht am Anfang des Lebens fixiert, sondern er wird durch Anpassung von der
Umwelt adaptieren.
Arten von Adaptionen
Wachstum: Wissen über die Welt aneignen (top down)
Bewegung: durch Bewegung Info verändern und sich anpassen
Lernen
Wahrnehmungsorgane
• Augen
• Ohren
• Zunge
• Haut
• Nase
• Seitenlinienorgan (z.B. bei den Fischen)
• Elektromagnetische Strahlung
• Innere Organe (z.B. die Niere dient auch dem Gleichgewicht)
Visuelle Wahrnehmung:
Das Sehvermögen ist unser stärkster Sinn bei der Erforschung unserer Umwelt.
Das Auge leitet die elektromagnetische Strahlung, die ja das Licht in Wirklichkeit ist,
weiter und diese passiert diverse Stellen im Gehirn, wo sie letztendlich als Bild im
Gehirn bewusst gemacht wird.
Die Theorie der direkten Wahrnehmung von Gibson (1979) beschreibt einen ökologischen
Ansatz, in welchem die optische Anordnung invariante Informationen über die Form und
Repräsentation von Objekten in der visuellen Umwelt enthält. Invariant deshalb, weil sie bei
Bewegungen oder Positionsänderungen des Beobachters, unterschiedlichen Blickwinkeln
oder Lageänderungen des Wahrnehmungsobjekts unverändert bleiben. Viele Invarianten
entstehen dabei erst bei Bewegung, wobei
• Texturgradienten (Gradient: Neigung, Steigung,
Gefälle; Textur: Oberflächenbeschaffenheit, Struktur,
Gestalt)
• das optische Flussmuster (Bewegungswahrnehmung
durch Fixpunkt) und
• die Handlungsabsichten (Fokussierung der
Wahrnehmung auf die potentielle Verwendung von
Gegenständen)
die entscheidende Information liefern. Es ist nach Gibsons Ansatz kaum
Informationsverarbeitung notwendig, alle Informationen sind direkt in der Umwelt enthalten.
Zumindest wurden die nötigen Informationsverarbeitungsschritte von Gibson nicht expliziert.
Seite 3 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Prinzipien der direkten Wahrnehmung
1) Die ganze Information, die für eine fehlerfreie Wahrnehmung nötig ist, ist in der
Umwelt enthalten
2) Wahrnehmung ist unmittelbar und spontan.
3) Wahrnehmung und Handlung können nicht voneinander getrennt werden.
Ökologische Wahrnehmung:
+ Es ist philosophisch von weit reichender Bedeutung. Die Umwelt und der
Organismus interagieren.
+ Reichhaltigkeit der visuellen Reize – Überspezifizierung (durch die
multidimensionale Gliederung (Form, Farbe, Winkel etc.).
− Wahrnehmungsprozesse sind komplizierter
− Gibsons Ansatz ist relevant für das „Sehen“ (z.B. einen Stern), aber sagt nichts
über das „Erkennen“ (z.B. den Polarstern) aus.
− erklärt welche visuelle Information wir wahr nehmen, aber nicht warum wir Dinge
kennen (Das Gedächtnis ist wichtig, ohne könnten wir nichts wahr nehmen)
Als Alternative zu Gibson postulieren indirekte Wahrnehmungstheorien (z.B. Marr 1982,
Biedermann 1987) die Ausbildung von internen Repräsentationen, wobei Basismerkmale zu
höheren Einheiten zusammengefasst werden. Die Rekonstruktion der Wirklichkeit beruht
dabei auf Wissen.
Direkte Wahrnehmungstheorien
•
•
•
•
•
Indirekte/konstruktivistische
Wahrnehmungstheorien
• Abhängig von inneren Prozessen –
Rekonstruktion der Wirklichkeit
beruht auf Wissen
• Erklärung von Wiedererkennen
• Top-down- und Bottom-up-Prozess
Keine inneren Repräsentationen
involviert – Die Umwelt enthält alle
Informationen
Wahrnehmung von Handlungen
Bottom-up-Prozess
Lernen spielt eine Rolle
Licht ist der Mediator von Wahrzunehmenden und Wahrnehmenden
Ob wir tatsächlich mit der Umwelt in einer direkten Form interagieren, steht im Mittelpunkt
vieler Untersuchungen hinsichtlich Bewegung, Wahrnehmung und Handlung.
Entsprechend der outflow-theory von Helmholz (1866) wird die Bewegung im retinalen
Abbild, mit Hilfe von Spiralen welche an die Augenmuskulatur gesendet werden, interpretiert.
Hinsichtlich des Einflusses des optischen Flussmusters auf präzises, zielgerichtetes
Verhalten ist zu beachten, dass die Bewegung auf die Retina ebenso von den Kopf- und
Augenbewegung abhängt. Die Zeit zum Kontakt kann dabei mittels einer spezifischen
optischen Variablen (tau) berechnet werden, aber auch über die Schätzung der
Geschwindigkeit und Distanz.
Untersuchungen zur Bewegung sprechen für die tau-Hypothese zumindest dann, wenn sich
ein Objekt auf einen unbewegten Beobachter bewegt. Dennoch spielen auch andere
Informationen, wie beispielsweise das Wissen über eine bekannte Objektgröße, eine
entscheidende Rolle. Für die Wahrnehmung augenblicklicher Bewegung sind sowohl
strukturelle als auch dynamische Hinweise bedeutend.
Seite 4 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
VO 3: Wahrnehmung als Informationsverarbeitung
Wahrnehmungstheorie von David C. Marr
Marr entwickelte eine Grundannahme des Informationsverarbeitungssystems in Form von
drei Stufen der Analyse:
1) Die Stufe der rechenbetonten Theorie des Systems (computational theory of the
system)
2) Die Stufe des Algorithmus und Repräsentation, die eine Berechnung benötigen
(algorithm and representation, which are used to make computations)
3) Die Stufe der Implementierung: die zugrunde liegende Hardware oder „Maschinerie“
auf der die Berechnungen durchgeführt werden. (implemetation: the underlying
hardware or „machinery“ on which the computations are carried out)
Algorithmen zur Eckenentdeckung
Ecken (oder besser wichtige Kanten) in einem Bild befinden sich an Stellen, an denen sich
die Intensität besonders steil ändert. Dies ist eine theoretische Definition davon, was eine
Kante ist (in einem Bild). Dieser Wert (die Steilheit der Veränderung in der Intensität)
entspricht dem ersten Derviat (die erste Ableitung) der Leuchtdichteverteilung. Wenn der
Wert positiv ist, handelt es sich um einen positiven Anstieg (es wird beispielsweise heller; ist
er negativ, wird es dunkler). Um Ecken zu finden, muss man die höchsten Werte in dieser
Repräsentation suchen (gradient peaks). Denn an der Stelle eines Höchstwertes (peak) ist
die Steigung gleich Null. Die Ecken befinden sich also laut Marr und Hildreth (1980) an den
Nullstellen der zweiten Ableitung.
Primärskizze (the raw primal sketch)
Ausgangsmaterial: Graustufen-Darstellung (Pixel, Leuchtdichteprofil, Oberfläche)
Bilder sind voller Rauschen, welches zu unerwünschter Information führt, die durch das
Filtern noch verstärkt wird. Als Rauschen wird jede Art von Information gezählt, die nicht zu
einem bestimmten Signal gehört, im Fall eines Bildes also beispielsweise Unschärfen, oder
bedeutungslose Texturen. Marr und Hildreth (1980) schlagen vor, dass ein Gaussfilter das
Bild vor der eigentlichen Filterung der Leuchtdichteintensitäten unscharf macht. Dadurch wird
das Problem von Rauschen (noise) reduziert. Nimmt man beide Operatoren zusammen, so
kommt man auf den gaussgefilterten Laplacefilter oder auch (LoG) Operator. Dieser Filter
stellt auch eine schöne Annäherung an die im Auge vorhandenen Ganglien-Zellen dar, die
ebenfalls ein Zentrum haben, das von on- bzw. off-Zellen umgeben ist.
Volle Primärskizze (the full primal sketch): Gruppierung
• Kantensegmente (edge segments): Die Kantenerkennung wurde oben detailliert
beschrieben. Um die Kanten aus verschiedenen Repräsentationen zu gewichten,
könnte man in der resultierenden Primärskizze eine Kante immer dann
repräsentieren, wenn sie in mehr als einer Filter-Auflösung enthalten ist. Dadurch
erhält man die „stärksten“ Kanten
• Balken (bars): Dort, wo sich parallele Kantensegmente unterschiedlicher Polarität
nahe beieinander befinden. Ein Filter kann das Vorhandensein solcher Balken
entdecken und sie entsprechend repräsentieren
• Endungen (terminations): Endungen können markiert werden, wo an drei Stellen
Kanten zusammentreffen.
• Kleckse oder Klumpen (blobs): Wenn edge-segments eine geschlossene Form
ergeben, die entlang ihrer Innenseite identische Ladungen hat, dann kann diese
unregelmäßige Form repräsentiert werden.
Seite 5 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Gestaltpsychologie
Prägnanzgesetz: Bei mehreren geometrisch möglichen Organisationen wird dasjenige
auftreten, dass die beste, einfachste und stabilste Form aufweist. Diese Form nehmen wir
als Figur-Grund-Prinzip.
• Prinzip der Ähnlichkeit, Geschlossenheit, Nähe, gute Fortführung, gemeinsames
Schicksal
2,5 D-Skizze
• Berechnung der räumlichen Tiefe und Orientierung
• Beschreibung der Schattierung, Textur, binokulare Ungleichheit etc. der sichtbaren
Teile des Objekts!
• Abhängig vom Blickwinkel
3D-Modellrepräsentation
• Definition der dreidimensionalen Form von Objekten und deren Beziehung,
blickwinkelig unabhängige Modellpräsentation
VO 4: Objekterkennung
Die Anfänge der Theorien zur Objekterkennung begingen die Gestaltpsychologen zu
Beginn des 20. Jahrhunderts, wobei versucht wurde, Wahrnehmungsphänomene durch
bestimmte, möglichst einfache Gesetze zu erklären. Jede Theorie der Objekterkennung
muss dabei das Problem der Äquivalenz oder Objektkonstanz auslösen. Als Beispiel kann
man die einfache Merkmalsentdeckung von Stichlingen nach Tinbergen (1951) nennen.
Dabei wird ein (Schlüssel-) Stimulusmerkmal zum Auslöser einer Reaktion (z.B. der rote
Bauch bei dem Fisch „Stichling“ ist ein Zeichen für Geschlechtsreife. Dieser Stimulus löst die
Reaktion „Balzverhalten“ aus).
Später entwickelten sich Schablonentheorien, die auf der Übereinstimmung von gesehenen
Objekten und gespeicherten Prototypen basieren (template maching), sowie
Merkmalstheorien die für die Differenzierung und Erkennung von Objekten
hervorstechende Eigenschaften als bedeutend annehmen.
Erst jedoch Modelle struktureller Beschreibungen, die neben den jeweiligen Merkmalen
auch deren räumliche Anordnung sowie das Gesamtarrangement berücksichtigen,
ermöglichen eine Objekterkennung.
Entsprechend der Computational-Theory von Marr (1922) ist beim Prozess der
Objekterkennung die Ausbildung von drei, zunehmend detailreicheren Repräsentationen
erforderlich:
• Die Primärskizze entsteht durch die Analyse von Lichtintensitätsunterschieden, die
eine zweidimensionale Beschreibung von Formmerkmalen, wie Kanten, Konturen,
Flecken oder Linien beinhaltet.
• Danach entsteht aus der Berechnung der räumlichen Tiefe und Orientierung die 2,5D-Skizze.
• Schließlich werden die dreidimensionale Form von Objekten und deren Beziehung
definiert und es entsteht eine blickwinkelig unabhängige 3-D-Modellrepräsentation.
Für die Erkennung von Objekten müssen dabei die Hauptachsen erkannt werden.
Marr und Nishihara (1978) stellen ein Modell vor, wonach eine Kombination aus Kontur und
Silhouette die Objekterkennung leiten.
Marr & Nishihara (1978): Die Objektform selbst bildet einen wichtigen
Referenzrahmen. Wichtig dabei sind die Hauptachsen und die generalisierten Cones
(Zylinder, Kegel). Die Umwelt lässt sich also in einfache Dinge zerteilen, die
hierarchische Ordnung von Objekten basiert auf den unterschiedlichen zylindrischen
Grundelementen.
Seite 6 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Einen etwas anderen Ansatz stellt Biedermann
(1987) in seiner recognition-by-componentstheory dar. Im Mittelpunkt stehen dabei 36
verschiedene Geons – elementare Teilkörper, wie
beispielsweise Zylinder, Kegel etc. – welche, auf
unterschiedliche Art und Weise zusammengesetzt,
Objekte des Alltags definieren. Die Objekterkennung
selbst besteht aus einem Prozess, indem zunächst
aus dem Stimulus Ecken und Kanten extrahiert
werden. Anschließend erfolgt die Identifikation der
nicht zufälligen Eigenschaften, die in Kombination
mit den Konturen jene Geons definieren, die das
Objekt repräsentieren. Die Erkennung erfolgt
schließlich durch den Vergleich zwischen den
Komponenten und den gespeicherten
Repräsentationen. Die soeben vorgestellten
Theorien sind allerdings in der Weise limitiert, als
ihre Gültigkeit auf die basic-level-recognition
beschränkt bleibt. Wir Menschen sind jedoch in der
Lage bzw. häufig dazu gezwungen auf einer sehr
spezifischen Ebene Objekte zu erkennen, besonders wenn diese einer sehr homogenen
Klasse angehören.
Abschließend wird ein Interactive-Activation Modell von Humphreys, Lamote und LloydJones (1995) vorgestellt, das Objekterkennungs- und Benennungsprozesse modelliert und
auch zur Erklärung von Agnosie (Unfähigkeit etwas wahrzunehmen z.B. Seelenblindheit)
verwendet werden kann.
VO 5: Gesichter
Gesichter stellen eine Klasse dar, in der
Objekterkennung auf subordinaten Niveau
stattfindet: Man muss nicht erkennen, dass etwas
ein Gesicht ist, sondern welcher Person es
zugehört. Deswegen reicht eine einfache
Beschreibung anhand von Geons oder die
Liniendarstellung nicht aus. Gesichtsidentifizierung
erfolgt demzufolge anhand von subordinatelevel-discrimination.
Bruce und Young (1986) entwickelten ein Modell
der Gesichtserkennung, welches die Verarbeitung
verschiedener im Gesicht enthaltender
Informationen abbildet, und zwar bei bekannten
und nicht bekannten Gesichtern.
Eine besonders wichtige Frage untersucht, ob es
schon so etwas wie eine angeborene
Gesichtssensitivität gibt. Es scheint, dass schon
Neugeborene Gesichtern besondere
Aufmerksamkeit zuwenden, jedoch ist nach
aktuellen Studien nicht sicher, ob dies nicht mit
den spezifischen visuellen Eigenschaften (ObenVersus-Unten-Präferenz) zu tun hat.
Interessant ist auch die Frage, wie Erwachsene
Gesichter so effizient verarbeiten können. Neuere
Untersuchungen zum Gesichtsinversionseffekt
(Gesichter sind auf den Kopf gestellt schwieriger
zu erkennen) haben gezeigt, dass dabei die
Seite 7 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Enkodierung von sowohl
• lokalen (local; z.B. Nase, Mund, Augen) als auch
• konfiguralen Merkmalen (relational; z.B. Augenabstand, NaseMund-Abstand, etc.) sowie
• ganzheitliche Merkmale (holistic; Textur und Formmerkmale), für
die Gesichtserkennung eine notwendige Voraussetzung darstellt.
Die Erkennung von Gesichtern scheint also anderen
Verarbeitungsmechanismen zu unterliegen, als jene von Objekten. Ein
Beleg dafür ist eine besondere Form der visuellen Agnosie (Unfähigkeit
etwas wahrzunehmen), der Prosopagnosie (Gesichtsblindheit). Patienten
mit dieser Beeinträchtigung wissen zwar oftmals, dass ein Gesicht ein Gesicht ist und
können auch häufig Merkmale benennen, dennoch sind sie nicht in der Lage, das Gesicht,
im Sinne einer Personenidentifikation zu erkennen. Gleichzeitig zeigen sie jedoch keinerlei
Beeinträchtigung bei der Erkennung von Objekten, weshalb die Annahme von getrennten
Verarbeitungsstrukturen gerechtfertigt scheint.
Scheinbar unabhängig von Identifikationen können Gesichtsausdrücke von Gesichtern sehr
effizient erkannt werden. Weitere Gesichtsklassifikationen (Alter, Attraktivität) beruhen auf
der effizienten Analyse von Gesichts- und auch Kopfmerkmalen.
Abschließend wird noch die Implementierung bisherigen Wissens in ein Neuronales
Netzwerkmodell (Burton et al, 1990) vorgestellt.
Gesichtsausdrucksanalyse
FACS System (nach Ekman & Friesen) - Facial Action Coding System;
Für bestimmte Gesichtsausdrücke werden unterschiedliche Muskeln verwendet und gebraucht. Es
existiert eine Universalität der Emotionen im Gesicht. Man kann also immer erkennen, was der
Mensch in etwa in diesem Moment fühlt. Sie versuchten also zu kodieren, welche Gesichtsausdrücke
welche Emotionen widerspiegeln.
Basisemotionen: Ärger, Ekel, Freude, Schreck (ist eine sehr schnelllebige Emotion, vergeht
innerhalb kürzester Zeit), Trauer/Traurigkeit, Überraschung
Funktion von Gesichtsausdrücken:
Die Grunddimension von einem Gesichtsausdruck ist entweder positiv oder negativ.
• Senden von Signalen bzw.
• Aufnehmen von Informationen (z.B. Bei Schreck werden die Augen aufgerissen, um den
Stressfaktor so schnell wie möglich zu erkennen.)
oder
• Schutz (z.B. Das Rümpfen der Nase bei Ekel kann ein Schutz vor giftigen Gasen sein. )
Es gibt ein eigenes kognitives Modul im Gehirn, das sich mit Gesichtsausdrücken beschäftigt und die
Universalität der Gesichtsausdrücke entziffert.
Kategorisierung von Gesichtern
Gesichter können nach folgenden Eigenschaften kategorisiert werden:
1. Attraktivität
• Eine gut bestätigte Hypothese ist die, das ein Gesicht dann als attraktiv bezeichnet
wird, wenn es „durchschnittlich“ ist. Man muss sich unter der Durchschnittlichkeit
einen Prototyp vorstellen, der alle Objekte einer Klasse optimal repräsentiert (Mitteltyp
der Population).
• average-morphing: Ein Prototyp wird aus verschiedenen Bildern gebildet. Das
Ergebnis ist meist attraktiver als die einzelnen Bilder, aus denen es zusammengesetzt
wurde.
• Weiblichkeit in männlichen Gesichtern kann assoziiert werden mit der
entgegengesetzten Charakteristikasammlung (Ein weiblicher Mann wirkt wärmer,
gefühlsvoller, freundlich und umgänglich.) Studien besagen, dass Frauen für längere
Beziehungen Männer mit mittelmäßiger Weiblichkeit suchen.
2. Alter
• Im Alter verändert sich die Kopfform systematisch
• Pittenger & Shaw (1975) - Shear and strain Levels: Dabei werden 35 verschiedene
„Scheren-” und „Verzerrungsprofile” erstellt.
• Laserscans: Dies ist die neueste Methode der Alterserkennung bei Gesichtern. Dabei
werden 3-D-Modelle des Kopfes erstellt.
3. Geschlecht
Seite 8 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
VO 6: Aufmerksamkeit
Aufmerksamkeit hängt eng mit der Selektivität der Verarbeitung zusammen und kann dabei
aktiv sein, auf top-down-Prozesse basieren und kontrolliert werden von individuellen Zielen
oder passiv sein, auf bottom-up-Prozesse basieren und kontrolliert werden von externen
Stimuli. Die Untersuchungen zur Aufmerksamkeit sind zumeist auf externe zweidimensionale
Reize beschränkt, die weder individuelle Ziele noch Motivation berücksichtigen, wobei
grundsätzlich zwischen
• fokussierter Aufmerksamkeit (liefert Rückschlüsse über den Selektionsprozess und
dem Schicksal der nicht beachteten Reize)
und
• geteilter Aufmerksamkeit (gibt Aufschluss über generelle
Verarbeitungsbeschränkungen)
differenziert werden muss.
Shadowing-Aufgaben zur Untersuchung der fokussierten auditorischen
Aufmerksamkeit zeigten zwar oftmals eine begrenzte Verarbeitung des Reizes im nicht
beachteten Kanal, jedoch wurde auch im zunehmenden Maße umfangreiche Verarbeitung
desselben festgestellt. Daraus resultierte eine Kontroverse zwischen
•
early-selection models
Broadbendt (1958): Zwei Reize oder
Mitteilungen erhalten zur selben Zeit
(parallel) Zugang zum sensorischen
Zwischenspeicher. Eine der Eingaben
wird es gestattet durch einen Filter auf
Basis seiner physikalischen
Charakteristiken zum Kurzzeitgedächtnis
zu gelangen, die andere Eingabe verweilt
in dem Zwischenspeicher für die
spätere Verarbeitung. Flaschenhals
früh in der Verarbeitung
Kritik an dieser Theorie:
− inflexibles System
− Der Fakt, dass Selektion auch auf
der Bedeutung der Information basieren kann, widerspricht dieser Theorie.
o Treisman (1964): Zwei Reize oder Mitteilungen erhalten zur selben Zeit
(parallel) Zugang zum sensorischen Zwischenspeicher. Der Filter reduziert die
Analyse der nicht beachteten Information. Wobei der Flaschenhals flexibler ist
als in der Theorie von Broadbendt. Die Reizanalyse ist systematisch und
hierarchisch, beginnt mit Analysen basierend auf physikalischen Hinweisen,
silbenbildende Muster und spezifischen Wörtern, und fährt fort mit Analyse
individueller Wörter, grammatikalischer Struktur und Bedeutung. Wenn zu
wenig Verarbeitungskapazität zur vollen Reizanalyse vorhanden ist, dann
werden Tests der höheren Hierarchie weggelassen.
o
und
•
late-selection models
o Deutsch & Deutsch (1963): argumentierten, dass alle Reize ganzheitlich
analysiert werden, wobei der wichtigste oder relevante Reiz die Reaktion
bestimmt. Diese Theorie platziert den Flaschenhals sehr viel näher zum
Reaktionsteil der Verarbeitung als bei der Theorie von Treisman.
vorgestellt werden. Heute sprechen Untersuchungsergebnisse eher für die Annahme einer
eher früheren Selektion und einer relativen Flexibilität des selektiven Filters.
Seite 9 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Untersuchungsergebnisse zur fokussierten visuellen Aufmerksamkeit bevorzugen
Eriksens und St. James’ zoom-lens- gegenüber Pashlers spotlight-model, da die Größe
des visuellen Feldes bei konzentrierter Aufmerksamkeit in Abhängigkeit von der
Aufgabenanforderung variiert. Beide Modelle postulieren, dass visuelle Aufmerksamkeit eher
auf eine bestimmte Region im visuellen Feld gerichtet ist, wenngleich auch oftmals die
Fokussierung auf bestimmte Objekte nachgewiesen wurde. Dies spricht für eine hohe
Flexibilität der visuellen Linse, welche auch in ERP-Studien, bei denen weniger gründliche
Verarbeitung von nicht beachteten Reizen festgestellt wurde, gezeigt werden konnte.
Die Merkmalsintegrationstheorie (Feature Integration theory) von Treisman (1988;
1992) zur visuellen Suche beschreibt dabei zunächst eine rasche parallele Verarbeitung
gefolgt von einem langsamen seriellen Prozess in dem Merkmale zu Bildung von Objekten
zusammengefügt werden. Die serielle Suche ist langsamer als die parallele, auch hängt sie
stark von der Setzgröße ab. Die visuelle Suche verläuft jedoch nicht ausschließlich parallel
oder seriell. Die Suchzeiten sind normalerweise schneller als von der Theorie vorhergesagt.
Die fokussierte Aufmerksamkeit erlaubt Merkmal-Objekt-Verbindungen, die vom Wissen
abhängen (z.B. Bananen sind gelb).
Wolfe (1998) postuliert in seiner guided-search-theory (Gesteuerte Suche Theorie) die
Idee einer Aktivationskarte, in der von Anfang an gesuchte Merkmale aktiviert sind.
Posner (1995) vertritt die Auffassung, dass visuelle Aufmerksamkeit die Ablösung der
Konzentration von einem Stimuli, dem Wechsel der Aufmerksamkeit von einem Reiz zu
einem anderen sowie die erneuten Zuweisung zu einem neuen Stimulus, beinhaltet.
Untersuchungen zur geteilten Aufmerksamkeit haben gezeigt, dass Leistungen von
• der Ähnlichkeit der dargebotenen Reize (Task similarity),
• Übung (Practice)
und
• Schwierigkeit abhängen (Task difficulty).
In jedem Fall konnte eine psychologische Refraktärperiode festgestellt werden, wenn sich
die verwendeten Stimuli und Antworte im Hinblick auf ihre Ähnlichkeit stark unterscheiden
oder aber ein anhaltendes Lernen stattfand. Als Ursache hierfür werden einerseits ein
Flaschenhals in der Verarbeitung oder aber andererseits eine ausgedehnte parallele
Verarbeitung diskutiert, in weiterer Folge auch die Art der Verarbeitungsressourcen.
Mehrere Theorien postulieren eine automatische Verarbeitung, die auf vorangegangener
Übung oder stetiger Wiederholung basiert. Diese Verarbeitung ist generell sehr schnell,
implizit (unbewusst und unvermeidlich) und hat kaum Auswirkungen auf die Kapazität.
So besagt die Instance-Theorie (Logan, 1988), dass Wissen über den Gebrauch
verschiedener Stimuli durch Übung gesteigert wird und automatisch immer dann auftritt,
wenn Informationen sehr rasch abgerufen werden. Automatismus stellt somit ein
Gedächtnisphänomen dar, das von der Beziehung zwischen Enkodier- und
Abrufungsprozess abhängt.
Action Clips (ungeplante Aktionsausführung) im Zusammenhang mit
Aufmerksamkeitsfehlern treten oftmals bei der Überwachung hochgradig geübter oder
überlernter Motorprogramme auf. Kontrollierte Aufmerksamkeit ist dabei während der
Ausführung eines Programms nicht notwendig, sehr wohl an kritischen Punkten, vor allem
bei Wechsel oder Übergang von Programmen.
Seite 10 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
VO 7: Gedächtnis
Die Gedächtnispsychologie behandelt die Strukturen, Prozesse und Mechanismen, die
unsere Erfahrungen für die Zukunft bereitstellen. Im Prinzip geht es um drei Prozesse:
Encoding (Prozess des Übergangs vom Wahrnehmen ins Gedächtnis), Storage (Speichern
von Information) und Retrieval (Wiederhervorholen aus dem Gedächtnis).
Gedächtnisstrukturen:
Das modale Gedächtnismodell (oder auch Mehrspeichermodell) unterscheidet zwischen
dem sensorischen Speicher (Iconic memory und echoic store), einem Kurzzeitspeicher
(beschränkte Kapazität – magical number 7 (7±2 Elemente)) und einem Langzeitspeicher
(unbeschränkte Kapazität). Es gibt starke Beweise, die diese Vorstellung von verschiedenen,
qualitativ unterschiedlichen Gedächtnisspeicher unterstützen, das Mehrspeichermodell wird
jedoch sehr vereinfacht dargestellt. Es wird angenommen, dass sowohl das KZG als auch
das LZG jeweils eine eigene Einheit bilden, d.h. das jeder Speicher vollkommen getrennt
vom anderen arbeitet. [zu stark vereinfacht, bei KZG-Zugriffen wird automatisch auf das LZG
zugegriffen, Modalitätsunterschiede (stärkere Einschränkung bei verbalem Material]
Arbeitsgedächtnis:
Baddeley postulierte ein einheitlichen
Kurzspeicher – ein so genanntes
Arbeitsgedächtnis, das aus drei
Komponenten besteht. Eine
phonologische Schleife (phonological
loop) zur Verarbeitung und
Aufrechterhaltung verbaler/auditiver
Information, ein visuell-räumlicher
Notizblock (visul-spatial sketchpad)
zur Aufrechterhaltung visueller Vorstellung und für räumlich visuelle Information, und eine
aufmerksamkeitssteuernde Instanz, die zentrale Exekutive (central executive). Diese
steuert und koordiniert die Verarbeitung von Inhalten in Subsystemen.
Speicherprozesse:
Craik und Lockhart nahmen in ihrer Verarbeitungstheorie an, dass Prozesse, die während
des Lernens ablaufen, einen großen Einfluss auf das spätere LZG haben. Die
Verarbeitungstiefe, Elaboration (sorgfältige Ausführung) und Distinctiveness
(Unterscheidbarkeit) wurden als wichtige Faktoren beim Lernen und Speichern
identifiziert. Zu wenig Beachtung fand jedoch die Beziehung von Prozessen, die beim Lernen
und Abrufen ablaufen. Andere Probleme sind, dass die Verarbeitungstheorie nicht erklärt,
dass es schwer ist jene Verarbeitungsebenen festzustellen, die beim Lernen verwendet
werden, und dass selbst oberflächiges Verarbeiten zu einer guten Langzeiterinnerung führen
kann.
Vergessenstheorien:
Verschiedene Theoretiker argumentieren, dass Vergessen deswegen passiert, da es einen
spontanen Verfall der Gedächtnisspuren über die Zeit gibt. Es gibt sogar eine direkte
Unterstützung für diese Theorie.
Freud betonte die Wichtigkeit von emotionalen Faktoren beim Vergessen. Er argumentierte,
dass sehr bedrohliches oder angstauslösendes Material oft keinen Zugang zum Bewusstsein
hat, und er verwendete den Begriff „Verdrängung“ (repression) für dieses Phänomen. Ein
verdrängungsähnliches Phänomen wurde im Labor untersucht, und es gibt Beweise von
einer Vielzahl missbrauchter Erwachsener, die verdrängte Erinnerungen an sexuellen oder
physischen Missbrauch wiedererlangten.
Obwohl die retroaktive (Späteres Lernen stört das vorherige Lernen) und proaktive
Interferenz (Vorheriges Lernen stört das spätere Lernen) in Studien nachgewiesen wurde
( Interferenz Theorie), ist nicht klar, ob die speziellen Konditionen, die zu wirklichen
Interferenzpunkten führen, im täglichen Leben vorkommen.
Seite 11 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Das „cue-depended forgetting“ (hinweisabhängiges Vergessen – Information ist im
Gedächtnis, aber kann nicht abgerufen werden trace-dependent forgetting
(Spurabhängiges Vergessen) – Information wird nicht länger abgespeichert.) ist von großer
Wichtigkeit, ebenso wie die Beziehung zwischen externen und internen Hinweisen, die beim
Lernen und Testen verfügbar sind und einen großen Einfluss auf die Gedächtnisleistung
haben. Kontextveränderungstheorien (context-change theory – Mit der Zeit ändert sich der
Hintergrundkontext und macht es weniger wahrscheinlich, dass das Zielmaterial abgerufen
wird.), die auf diesen Vorstellungen basieren, liefern glaubhafte Erklärungen für das
Vergessen.
Freies Reproduzieren und Wiedererkennen:
Es gab viele Kontroversen darüber, ob die Prozesse beim freien Reproduzieren (recall) und
Wiedererkennen (recognition) im Grunde gleich sind. Die Zwei-Prozess-Theoretiker
konzentrieren sich auf Unterschiede zwischen diesen beiden Gedächtnistests.
Reproduzieren beinhaltet einen Suchprozess, gefolgt von einen Entscheidungs- oder
Wiedererkennungsprozess. Wiedererkennen beinhaltet nur den zweiten Prozess.
Tulving, mit seinem Prinzip der Enkodierspezifität hingegen argumentierte, dass die
Informationsüberschneidung beim Wiedererlangen von Umwelt und Erinnerung für beide
(recall und recognition) entscheidend ist. Freies Reproduzieren erfolgt manchmal direkt,
während es zu anderen Zeitpunkten indirekt erfolgt, wie z.B. beim Problemlösen. In ähnlicher
Weise ereignet sich Wiedererkennen einerseits auf der Basis von Ähnlichkeit, und anderseits
erfordert es manchmal bewusstes sich wieder erinnern. Es gibt keine einfache Beziehung
zwischen freien Reproduzieren und Wiedererkennen.
VO 7: Alltags - Gedächtnis
Einleitung:
Die Sicht der Alltagsgedächtnisforscher unterscheidet sich von jener der traditionellen
Forscher in Fragen wie: was für, wie und wo soll Gedächtnis (-phänomene) beforscht
werden. Nichtsdestotrotz wurde die Kontroverse darüber in den letzten Jahren geringer.
Neisser folgend ist das Alltagsgedächtnis zweckorientiert, hat eine persönliche Komponente
und ist durch Situationsvariablen beeinflusst.
Autobiographisches Gedächtnis:
Es handelt sich hierbei um das Gedächtnis für Ereignisse des eigenen Lebens. Es dürfte
hierarchisch strukturiert sein – in Lebensabschnitte, allgemeine Lebensereignisse und
ereignisspezifisches Wissen.
Amnestysche Patienten können sich am besten an Lebensabschnitte erinnern, am
schlechtesten sind sie im Erinnern ereignisspezifischen Wissens. Der Allgemein-EreignisLevel wurde als das wichtigste identifiziert, was aber mehr freiwillige, als unfreiwilliges
Erinnern betrifft.
Eine überdurchschnittlich große Menge an Erinnerungen stammt aus den Jahren zwischen
dem 15. und 25. Lebensjahr – einhergehend mit der Entwicklung eines stabilen,
erwachsenen Selbstbildes. Kindliche Amnesie tritt auf, weil Kleinkinder noch kein Gefühl für
das Selbst und etwas ältere noch zu wenige effektive Lernstrategien entwickelt haben. Die
Erinnerung ist am besten für jene autobiographischen Inhalte, die hervorstechend, emotional
besetzt und angenehm sind.
Seite 12 von 13
Haszonits Iris
Allgemeine Psychologie I
01.06.2005
Unvergessliche Erinnerungen:
Informationen über einen selbst (self-reference-effekt – Selbstbezugseffekt) und über
wichtige, dramatische, überraschende, allgemeine oder persönliche Ereignisse
(flashbulbmemories – Blitzlichterinnerungen) werden allgemein gut erinnert.
Der self-reference-effekt durfte auftreten, weil das Selbstkonzept die Ausbildung und
Organisation von Informationen unterstützt.
Flashbulbmemories sind nicht nur sehr genau und sehr langjährig, sie beinhalten oft die
folgenden Informationskategorien: Informant, Ort an dem die Neuigkeiten gehört wurden,
aktuelle Geschehnisse, eigener emotionaler Status, emotionaler Status der Anderen,
Konsequenzen des Ereignisse für Einzelne.
Brown und Kulik (1977) betonen, dass flashbulbmemories sich von anderen Erinnerungen
durch Langlebigkeit, Genauigkeit und Abhängigkeit von bestimmten neuronalen
Mechanismen unterscheiden. Nichtsdestotrotz haben Faktoren, die mit der Produktion von
flashbulbmemories in Zusammenhang stehen (z.B. Neuheitsgrad, Überraschung, individuelle
Wichtigkeit, emotionale Reaktion, Wiederholungsrate) auch mit der Ausbildung normaler
Erinnerungen zutun, was den Schluss zulässt, dass flashbulbmemories sich nicht
grundlegend von anderen Erinnerungen unterscheiden.
Augenzeugen-Berichte:
Die Erinnerung des Augenzeugens an ein Ereignis ist fehleranfällig, und kann leicht durch
irreführende Informationen aus der Zeit nach dem Ereignis verzerrt werden. Einige
Ergebnisse basieren auf „post-event-information“ dürften die gesuchten Charakteristika einer
Situation widerspiegeln, aber die meisten dürften unter Annahme von Falschinformation
entstanden sein. Es wurden Techniken entwickelt, um den Informationsgehalt von
Zeugenaussagen zu erhöhen. Sie basieren auf der Annahme, dass es verschiedene
Zugriffsarten auf Erinnerungen gibt, und dass es demnach sinnvoll ist, verschiedene
Abrufstrategien zu verwenden um die Erinnerungsleistung zu maximieren.
Herausragende Erinnerungsleitungen:
Die meisten Menschen mit herausragenden Gedächtnisleistungen mussten viel Zeit
investieren, um spezielle Memotechniken zu erlernen, andere wiederum weisen von Natur
aus ein „gutes“ Gedächtnis auf. Techniken zur Verbesserung des Gedächtnisses beinhalten
meist in Beziehung stehende, zu erlernende Information in einer sinnvollen Wiese, um ein
bestehendes Wissen zu erlangen, gespeicherte Schlüssel (cues) zum Wiederabruf, und
ausreichende Übung um die notwendigen Prozesse zu beschleunigen.
Für verschiedene Techniken wurden verschiedene Memotechniken entwickelt (z.B.
Namens/Gesichts-Gedächtnis, loci-methode). Diese Techniken sind effektiv, aber haben
begrenzte, sinnvolle, praktische Anwendbarkeit. Einige der Techniken sind von allgemeiner
Relevanz – zum Beispiel:
•
•
Die Schlüsselwortmethode zur Erlernung von Vokabeln einer fremden Sprache: 1.Schritt:
Assoziation bilden zwischen jeden gesprochenen fremden Wort und den deutschen Wort
oder gesprochenen Ausdruck
2.Schritt: Erschaffung eines mentalen Bildes mit dem Stichwort als Verbindung zwischen
dem fremden Wort und dem deutschen
SQ3R Methode (Survey – “Besichtigung” , Question – “Selbstbefragung”, Read – “Lesen
innerhalb der Question-Stufe”, Recite – „Rezitieren“, Review – „Bewertung“)
Vorausplanendes Gedächtnis:
Das prospektive Gedächtnis erscheint allgemein für Routineabläufe besser, weiter für
Handlungen hoher Priorität oder Handlungen eines ganzen Handlungsgefüges.
•
•
Ereignisgebundenes prospektives Gedächtnis: Erinnern um eine Aktion innerhalb einer
bestimmter äußerer Umstände auszuführen. Dieses Gedächtnis scheint verlässlicher zu
sein als zeitgebundenes, das intendierte Handlungen eher durch externe Schlüsselreize
ausgelöst werden. Es benötigt konzeptgeleitete Prozesse und hängt viel mit der
Aufmerksamkeitsfunktion zusammen.
Zeitgebundenes prospektives Gedächtnis: Erinnern um eine Aktion zu einer bestimmten
Zeit auszuführen. Die Prozesse des zeitgebundenen prospektiven Gedächtnisses sind bis
heute eher ungeklärt, manchmal dürften teilrelevante externe Schlüsselreize mit beteiligt
sein.
Seite 13 von 13
Herunterladen