Einführung in die Differentielle Psychologie und

Werbung
Einführung in die
Differentielle Psychologie und
Persönlichkeitsforschung
für angehende PsychotherapeutInnen
und PsychotherapiewissenschaftlerInnen
Teil 2
Vortragende: MMag. Dr. Nina Petrik
T: 0660 7389932
M: [email protected]
W: www.kbt-wien.at
W: www.sportpsychologie.or.at
Eigenschaftstheoretische Ansätze:
Die eigenschaftstheoretische Erforschung der Persönlichkeit hat ihre Wurzeln in der Antike,
verschwand aber wieder durch das Aufkommen der Psychoanalyse und durch die
Entdeckung der Vererbungslehre.
Der Durchbruch kam, mit der Entwicklung statistischer Verfahren, die nicht nur neue
Methoden offerierten, sondern auch dazu führten, dass zum Teil fachfremde
Wissenschaftler in die Erforschung der Persönlichkeit mit einbezogen wurden.
Es entstand eine fruchtbare Verbindung zwischen statistischer und psychologischer
Forschung, die bis heute besteht.
Mit dieser Wende kam das Interesse an der nomothetischen Forschung. Das heißt, man
begann systematisch nach allgemeinen Gesetzmäßigkeiten in der Persönlichkeit eines
Menschen zu suchen. Nicht mehr der Einzelfall mit seiner einzigartigen Kombination an
Eigenschaften war interessant (ideographische Methode), sondern die Identifikation der
Grundstruktur der Persönlichkeit. Nach der Annahme der Eigenschaftstheoretischer besteht
diese aus einer Hand voll Eigenschaften, anhand derer sich Menschen gut und sicher
unterscheiden lassen. Diese Eigenschaften sollten über Gruppen von Menschen und über die
Zeit hinweg konsistent auftreten. Alle so gefundenen Eigenschaften spannen einen Raum
auf, in dem jedem Menschen ein bestimmter „Ort“ zugewiesen werden kann.
Zuerst aber ein Rückblick in die Antike, da dort – ähnlich wie bei der Psychoanalyse – schon
vieles entdeckt, aber nicht wissenschaftliche bewiesen werden konnte.
Aristoteles (384 – 322 v. Chr.) beschrieb schon Persönlichkeitseigenschaften – er nannte sie
Dispositionen – anhand derer sich Menschen unterscheiden lassen. Er nannte
Bescheidenheit, Mut, Eitelkeit als Dispositionen anhand derer sich die ethische Integrität
einer Person feststellen ließe. Sein Schüler Theophrastos von Athen (371 – 287 v. Chr.)
nannte 30 verschiedene Persönlichkeitstypen. Sein Vorgehen war tägliche Beobachtungen zu
ordnen und zu kategorisieren. Dadurch wurden sie fassbar und diskutierbar.
Hippokrates von Kos (460 – 370 v. Chr.) schuf eine Krankheitslehre basierend auf den
Körpersäften, die vom griechischen Arzt Galen (129 – 199 n. Chr.) erweitert und zur
Beschreibung der Persönlichkeit herangezogen wurde. Ein Gleichgewicht an Körpersäften
führe zu einem ausgewogenen Charakter. Eine Störung des Gleichgewichts führe hingegen
zu körperlicher und psychischer Krankheit. Seine Lehre findet sich heute noch im alltäglichen
Sprachgebrauch wieder, wenn wir z. B. sagen „Sei nicht melancholisch!“, „Er ist ein
Choleriker!“, „Er ist so ein Phlegmatiker!“.
Viel später griff Immanuel Kant (1724 – 1804) diese Lehre wieder auf und entwickelte sie
weiter. Er beschrieb vier Temperamentstypen, die er in den Temperamentstyp des Gefühls
und den der Lebenskraft einteilte. Dem Temperament des Gefühls sind der Sanguiniker und
der Melancholiker untergeordnet, dem Temperament der Lebenskraft der Choleriker und
der Phlegmatiker.
2
Frühere
Persönlichkeitstheoretiker
Persönlichkeitseigenschaften.
schufen
Persönlichkeitstypen
anstelle
von
 Persönlichkeitstypen sind diskrete Kategorien, in die Individuen eingeordnet
werden können. ( z.B. der Choleriker)
 Bei Persönlichkeitseigenschaften handelt es sich um kontinuierliche Dimensionen,
auf denen sich Individuen je nach Ausprägung der betreffenden Eigenschaft
positionieren lassen. Dadurch werden Mischformen/-typen möglich, die bei
diskreten Kategorien nicht zugelassen sind.
Von der Antike bis zur Gegenwart erzielte die Persönlichkeitsforschung jedoch nur kleine
Fortschritte. Das lag daran, dass die Sprache als einziges Mittel zur Verfügung stand,
Persönlichkeit zu beschreiben und diese kulturell geprägt, sowie unscharf und Trends
unterliegend ist. Erst nachdem statistische Methoden entwickelt wurden wie z. B. die
Korrelation und die Faktorenanalyse konnten neue Wege der systematischen Strukturierung
von Eigenschaften beschritten werden.
Die erste bedeutende Wende im Denken in Richtung Eigenschaftstheorie ging auf Wilhelm
Wundt (1832-1920) zurück. Er gilt als Begründer der modernen Psychologie. Er ersetze die
Kategorien
durch
Persönlichkeitsdimensionen
und
arbeitete
die
antiken
Persönlichkeitstypen zu zwei Dimensionen um, die die Positionierung eines Menschen
anhand der Veränderbarkeit seiner Stimmungslage und der Stärke seiner Emotionen
erlauben.
3
4
Die Definition von Persönlichkeitseigenschaften:
„Persönlichkeitseigenschaften“ in der Psychologie unterscheiden sich von denen, der
Alltagssprache. In der Psychologie bedeutet dieser Begriff:
„Eine Dimension der Persönlichkeit, mittels derer Personen nach dem Grad der
Manifestation eines bestimmten Merkmals kategorisiert werden können.“
(Burger 1997)
Die Problematik ist, dass selbst in der Wissenschaft viele verschiedene Definitionen
kursieren. Der Begriff bleibt trotz Bemühungen nicht eindeutig definiert.
Der Theorie der Persönlichkeitseigenschaften liegen folgende Annahmen zugrunde:
(1) Persönlichkeitseigenschaften sind zeitlich relativ stabil.
(2) Persönlichkeitseigenschaften sind relativ situationsstabil. Auch wenn sich das
Verhalten einer Person über die Zeit verändert, so ist doch über alle Situationen
hinweg eine gewisse innere Konsistenz wahrnehmbar. Z. B.: Ein extrovertierter
Mensch kann sich in manchen Situationen offener und geselliger verhalten als in
anderen (z. B. bei einem Fachvortrag anders als auf einer Party) dennoch wird er
gesamt gesehen immer offener und geselliger sein als ein introvertierter Mensch.
(3) Es wird davon ausgegangen, dass sich die Persönlichkeitseigenschaften eines
Menschen in seinem Verhalten zeigen. Wenn also eine Mensch extrovertiert ist, dann
wird er sich kontaktfreudig verhalten (und umgekehrt, wenn jemand kontaktfreudig
ist, schließen wir daraus, dass er extrovertiert ist => Zirkelschluss!) In der
Persönlichkeitstheorie kann man einstweilen zwischen der internen Qualität des
Menschen und seinem Verhalten unterscheiden. Der Fokus des Interesses liegt auf
der Beziehung zwischen beiden.
(4) Aus diesen Annahmen heraus ergibt sich der besondere Blick der
Persönlichkeitstheoretiker. Sie interessieren sich mehr für die allgemeinen
Verhaltensbeschreibungen als für Erklärungen, Verständnis der Ursachen oder
Vorhersagen des Verhaltens einzelner.
Forscher dieser Richtung machen eher Vorhersagen über Gruppen von Menschen, wie sich
diese verhalten werden. Erst in letzter Zeit wird versucht auch Erklärungen für
Verhaltensweisen zu liefern.
Der große Vorteil dieser Methode ist, dass Individuen und Gruppen sehr einfach verglichen
werden können. Über Persönlichkeitsveränderungen können sie (noch) keine Aussagen
machen (klinischer Blickwinkel).
Um ein besseres, inneres Bild von dem zu bekommen, was mit
„Persönlichkeitseigenschaften“ im Sinne der Persönlichkeitstheoretiker gemeint ist, muss
man sich diese als elementare Einheit der Persönlichkeit vorstellen. Sie repräsentieren
Dispositionen für bestimmte Reaktionen. Die Frage, in welchen Ausmaß Verhalten durch die
Situation oder durch die Persönlichkeit bestimmt ist, wird aus dem Blickwinkel der
Persönlichkeitstheoretiker so beantwortet, dass es einen Einfluss der Situation gibt, es sind
aber immer auch dispositionale Effekte beobachtbar.
5
Mischel (1999) schlägt deshalb vor, dass eine Persönlichkeitseigenschaft die „bedingte“
Möglichkeit einer Kategorie von Verhaltensweisen in einer Kategorie von Kontexten
darstellt. Wenn eine Person extrovertiert ist, wird ihr unterschiedlich starkes, extrovertiertes
Verhalten in einer Vielzahl von Situationen beobachtbar sein.
Die Entwicklung des persönlichkeitstheoretischen Paradigmas:
1.
2.
3.
4.
5.
6.
Sheldon und die Somatotypen
Frühe lexikalische Ansätze und Sir Francis Galton (1822 – 1911)
Gordon Allport´s Arbeiten
Raymond Cattell und die Faktorenanalyse
Hans Eysencks Eigenschaftstheorie der Persönlichkeit
Die „Big Five“ und das Fünf-Faktorenmodell der Persönlichkeit
Ad 1. Sheldon und die Somatotypen:
William Sheldon war Mediziner und Psychologe und schuf ein Konzept sogenannter
Somatotypen, das auf der Konstitution und dem Temperament begründet war.
 Er identifizierte 17 „objektive“ Körpermaße und analysierte dazu 4000 männliche und
4000 weibliche Studierende. Aus dem Ergebnis formte er drei grundlegende
Somatotypen: endomorph, mesomorph und ektomorph. Die Ähnlichkeit mit
Kretschmers
Konstitutionstypen
ist
gegeben
(endomorph/pyknisch,
mesomorph/athletisch, ektomorph/leptosom). Mittels des von ihm entwickelten
Somatotyping ordnete er alle Studierenden auf diesen drei Dimensionen hinsichtlich
ihres Körperbaus ein.
 Er sammelte zusätzlich von seinen Probanden psychologische Informationen,
Informationen über Ernährungs- und Lebensgewohnheiten. Schwerpunkt bildete
aber die Körpermaße, die von Alter und sozialen Einflüssen unabhängig seien.
 Jedes so vermessene Individuum bekam auf jeder Dimension einen Wert von 1 bis 7
zugewiesen. Der Somatotyp ist ein Kompromiss zwischen Genotyp (genetische
Grundlage) und Phänotyp (äußere Gestalt).
Das Neue an dieser Konstitutionslehre war, dass sie Mischtypen zuließ. So kann ein Mensch
z. B. 1-1-7 sein, das heißt etwas endo- und mesomorph und sehr stark ektomorph, also so
etwas wie ein wandelnder „Stecken“, 7-1-1 wäre hingegen jemand der adipös wirke.
Sheldon stellte seine Theorie in seinem Buch „Atlas of Men“ vor, in der er die relevanten
männlichen Körpermaße publizierte. Zu einer Identifizierung relevanter Körpermaße für
Frauen kam es nicht mehr. Sheldon konnte zeigen, dass jeder Somatotyp mit bestimmten
Temperamenten signifikant korrelierte, damit war er ein Pionier der Psychometrie, da er für
die Erforschung dieser Temperamente Fragebögen verwendete und sie statistisch
auswertete.
6
Ad 2. Sir Francis Galton und die lexikalischen Ansätze der Persönlichkeitstheorie:
Sir Francis Galton war ein englischer Forscher, der sich mit der genetischen Basis von
Intelligenz beschäftigte. Er interessierte sich auch für den Zusammenhang zwischen Sprache
und Persönlichkeit und war überzeugt davon, dass sich alles, was wichtig ist, in der Sprache
abbildet. Also auch wichtige Deskriptoren von Persönlichkeitseigenschaften
1884 begann er mit seiner Untersuchung des Thesaurus. Er suchte die wichtigsten Wörter
der englischen Sprache zur Beschreibung von Eigenschaften.
Er ging dabei von zwei Annahmen aus:
1. Die Häufigkeit des Gebrauchs eines Wortes korreliert mit seiner Bedeutsamkeit.
2. Die Anzahl der Wörter, die synonym für eine Persönlichkeitseigenschaft stehen, zeigt
ebenfalls ihre Bedeutsamkeit.
So konnten für das Wort „ehrlich“ 31 Synonyme gefunden werden. Dieses Wort wäre nach
Galton´s Theorie ein signifikanter Deskriptor von Persönlichkeit. „Abweichend“ hingegen
habe kein einziges Synonym und ist somit nicht signifikant.
Galton untersucht zwar die englische Sprache, ging aber davon aus, dass die beobachtbaren
Phänomene kulturübergreifend wären. Aus dieser Annahme heraus formulierte er seine
lexikalische Hypnothese:
Wenn individuelle Unterschiede zwischen Menschen bedeutsam sind, gibt es auch
Wörter, die diesen Unterschied bezeichnen. Diese Wörter werden umso häufiger
benützt, je wichtiger der Unterschied in der Beschreibung von Persönlichkeit ist. Die
Wichtigkeit des Unterschieds wird nicht nur durch das Wort selbst, sondern auch
durch die Anzahl seiner Synonyme definiert.
7
Ad 3. Gordon Allport´s Theorie:
Allport spann die Idee von Galton weiter und identifizierte 17.952 Wörter der englischen
Sprache, die sich auf die Beschreibung von Persönlichkeitseigenschaften bezogen. Er
konstruierte daraus den ersten psychologischen Test zu Persönlichkeitseigenschaften und
hielt im Jahr 1924 die erste Vorlesung zur Persönlichkeitspsychologie ab.
Aufgrund seiner Beobachtungen, dass das menschliche Verhalten eine unglaubliche
Variabilität zeigt, dass es aber immer auch eine gewisse Konstanz beinhaltet, formulierte er
folgende Hypothese:
 Persönlichkeitseigenschaften wären für die Konstanz im menschlichen Verhalten
verantwortlich. Sie sind in unserem Nervensystem physisch repräsentiert. Er
formulierte die Hoffnung, dass es eines Tages – Dank des technischen Fortschritts –
möglich sein würde, die Nervensysteme des Menschen dahingehend zu untersuchen.
Allport vertrat einen universellen Ansatz: Er war der Überzeugung, dass das einzigartige
Zusammenspiel von Persönlichkeitseigenschaften den Unterschied zwischen Menschen aus
mache. Die Persönlichkeitseigenschaften bilden in der Summe eine Persönlichkeit, die zu
Weiterentwicklung und Wachstum fähig sei. Veränderung war für ihn ein Bestandteil des
Persönlichkeitssystems, der es uns ermöglicht, sich an neue Situationen anzupassen. (Damit
wäre z. B. Psychotherapie so eine neue Situation, in der der Mensch eine neue Qualität von
Beziehungserfahrung lernt und dadurch seine Persönlichkeit verändern kann.)
8
Allport unterschied zwischen nomothetischen 1 und idiografischen 2 Ansätzen. Der
nomothetische
Ansatz
ermöglicht
die
Identifizierung
allgemeiner
Persönlichkeitseigenschaften, die die Möglichkeit bieten Gruppen von Individuen zu
identifizieren und zu vergleichen. Dieser Ansatz schien Allport wenig attraktiv. Ihn
interessierte die persönliche Disposition eines Individuums, also die einzigartigen
Eigenschaften, die ein Mensch besitzt. Diese Persönlichkeitseigenschaften klassifizierte er in
Kardinale, Zentrale und Sekundäre:
 Kardinale Persönlichkeitseigenschaften dominieren die Persönlichkeit und haben
einen starken Einfluss auf das Verhalten. Für Allport waren das Besessenheiten,
Leidenschaften, die unbedingt befriedigt werden müssen. Z. B.: Ein Mensch mit
der Kardinaleigenschaft Kompetitivität (Wettbewerbsorientierung), der immer
und überall der Beste sein möchte.
 Zentrale Persönlichkeitseigenschaften beinhalten fünf bis zehn Eigenschaften, die
die beste Beschreibung eines Menschen liefern.
 Sekundäre Persönlichkeitseigenschaften beziehen sich auf Präferenzen des
Individuums, sie sind keine entscheidenden Kernbestandteile der Persönlichkeit
und treten oft nur in bestimmten Situationen hervor.
Ein weiterer, wichtiger Beitrag Allport´s zur Persönlichkeitstheorie bezieht sich auf das
Konzept des Selbst. Dieses sei entscheidend für die Entwicklung von Identität und
Individualität und somit auch essentiell für den Begriff „Persönlichkeit“.
Das Selbst (Selbstkonzept) bestünde – nach Allport – nicht schon von Geburt an, sondern
würde sich im Laufe des Lebens entwickeln. Zuerst wird sich das Kind in Abgrenzung zur
Umwelt seiner eigenen Identität bewusst. Es entsteht sukzessive das Gefühl eigenständiger
Identität. Durch die Erfahrungen, die es im Zuge seiner Integration in die Familie und die
Gesellschaft erfährt, entwickelt sich dann die Selbstwertschätzung.
Allport wusste, dass das Konzept des Selbst schwer fassbar ist und er vermutete, dass es sich
aus mehreren Teilen zusammensetzt. Für die Zusammensetzung aller Selbstteile verwendete
er den Begriff „Proprium“.
Allport zeigte in seiner Forschungstätigkeit immer wieder die Begrenzungen der
eigenschaftstheoretischen Ansätze auf, er stellte immer wieder Fragen nach den relativen
Einflüssen von Persönlichkeit und Situation auf das Verhalten. Diese Fragen sind bis heute
1
Nomothetische Ansätze gehen von einer begrenzten Anzahl von Eigenschaften aus, die ausreichen die
Persönlichkeit eines Menschen zu beschreiben. Jeder Mensch bekommt eine Position innerhalb des Netzwerks
dieser Eigenschaften zugewiesen. Man kann Menschen nach bestimmten Gruppenvariablen vergleichen z. B.
Männer mit Frauen, woraus sich Gruppenmittelwerte ergeben, die als „Norm“ bezeichnet werden. Ein
Individuum lässt sich dann anhand der Über- oder Unterschreitung dieses Norm-Werts beschreiben.
Nomothetische Ansätze befassen sich also mit der Gemeinsamkeit von Persönlichkeiten.
2
Der Ideografische Ansatz konzentriert sich auf das Individuum und beschreibt die Persönlichkeitsvariablen
innerhalb dieses Individuums. Jede Person ist einzigartig und das Hauptaugenmerk liegt auf dem Einzelfall. Die
Unterschiede zwischen Menschen sind größer als ihre Gemeinsamkeiten.
9
immer noch unbeantwortet. Allport´s Liste an Persönlichkeitseigenschaften umfasst 4504
Wörter und ist für den Einsatz als standardisierter Test zu lange.
10
Ad 4. Raymond Cattell und die Faktorenanalyse:
Cattell wurde 1905 in einem kleinen Dorf in Großbritannien geboren. Er studierte zunächst
Chemie und erst später Psychologie. Der Betreuer seiner Dissertation war Charles Spearman,
der Erfinder der Faktorenanalyse (in derselben Abteilung arbeitete auch Sir Cyril Burt, der
sich mit Intelligenzforschung befasste und von Cattell beeinflusst wurde). Cattell forschte im
Bereich der Persönlichkeit und leitete – um praktische Erfahrungen zu sammeln – eine
Erziehungsberatungsstelle. 1937 emigrierte er in die USA.
Cattell´s Forschung drehte sich um die Faktorenanalyse. Er veröffentlichte viel und schuf den
berühmten immer noch gebräuchlichen 16 PF-Test (16 Personality Factor Questionaire).
Was ist die Faktorenanalyse?
Die Faktorenanalyse ist ein Verfahren, das eingesetzt wird, wenn zwischen den erhobenen
Variablen mehrere Beziehungen bestehen.
Es gibt grob gesprochen zwei Arten der Faktorenanalyse:
A) die exploratorische FA (EFA) um herauszufinden, welche Faktoren den Daten
zugrunde liegen.
B) die konfirmatorische FA (KFA) um die Ergebnisse der exploratorischen FA zu
überprüfen.
Eine Faktorenanalyse ist ein multivariates, datenreduzierendes, statistisches Verfahren, das
uns gestattet, die korrelativen Beziehungen zwischen einer Reihe von Variablen zu
vereinfachen, d.h. man setzt sie ein, um die Beziehungen zwischen einzelnen Fragen/Items
(Testerstellung) oder um die Beziehungen zwischen einzelnen Variablen zu vereinfachen.
Stellen Sie sich vor, Sie haben 20 Variablen und wollen die Beziehungen dieser Variablen
untereinander untersuchen. Das wären dann 190 Beziehungen. Variable 1 kann mit den
Variablem 2 bis 20 korrelieren, Variable 2 kann mit 3 bis 20 und Variable 3 mit 4 bis 20
korrelieren. Die Beziehungen können aber noch komplexer sein, so kann Variable 1 und 12
jeweils getrennte Beziehungen zur Variable 13 haben. Man kann sich also vorstellen, dass
die Interpretation aller Beziehungen aller Variablen zueinander aufwendig ist und
letztendlich bleibt der Forscher immer mit der Frage zurück, ob die Beziehungen tatsächlich
bestehen, oder nur Nebeneffekte anderer Beziehungen sind. (Wir sprechen hier von
multiplen Korrelationen!) Die Faktorenanalyse ist ein Verfahren, das diese Beziehungen
vereinfacht. Sie hilft jene Faktoren / gemeinsame Zusammenhangsmuster zu identifizieren,
die relevant sind. Die Faktorenanalyse zeigt uns das Muster hinter den Variablen.
Ad A: Die exploratorische FA erfolgt in zwei Schritten:
1. Extraktion von Faktoren (Wie viele Faktoren liegen dem
Datenmaterial zugrunde?)
2. Rotation von Faktoren (Welche Items/Variablen laden auf
welchem Faktor?)
11
12
Ad B: Konfirmatorische FA:
Sie dient der Bestätigung der Ergebnisse der exploratorischen Faktorenanalyse. Sie bestätigt
(oder widerlegt) die Annahme, ob zukünftig erhobene Daten der, durch die EFA gefundenen
Erklärung entsprechen. Das nennt man „Anpassungsgüte“.
Für das grobe Verständnis der Persönlichkeitsforschung reicht
dieses Wissen! Wer sich für Testkonstruktion, Methodenlehre
und Statistik interessiert, sei an diese Vorlesungen verwiesen!
Cattell wollte mittels Faktorenanalyse die vielen Eigenschaften des Menschen auf wenige,
grundlegende, reduzieren und so die Grundstruktur der menschlichen Persönlichkeit
offenlegen. Dazu überprüfte er Listen von Persönlichkeitseigenschaftswörtern dahingehend,
ob sie inhaltlich zusammengehören. Dieses „Zusammengehören“ bezeichnet das Ergebnis
mittels Faktorenanalyse, nämlich einen Faktor. Faktoren sind Konstrukte hinter den
Beschreibungen.
Z. B.: Jemand beschreibt sich als „entschlossen“, „beharrlich“, „produktiv“ und
„zielgerichtet“. Das dahinter liegende Konstrukt, also das, was alle diese Begriffe
gemeinsam haben, ist eine Eigenschaft, die man als „Erfolgsorientierung“ bezeichnen
könnte (WICHTIG: Die Bezeichnung des Faktors obliegt dem Wissenschaftler. Die
Faktorenanalyse sagt nur, dass es einen Faktor gibt, nicht wie er heißt!) Die
Faktorenanalyse liefert also ein Maß der Persönlichkeitseigenschaft
„Erfolgsorientierung“ anhand der Ausprägungen in den Variablen „Entschlossenheit“,
„Beharrlichkeit“, „Produktivität“ und „Zielgerichtetheit“.
Cattell definierte die Persönlichkeit als diejenigen Charakteristika eines Individuums, die
darüber entscheiden, wie es sich in einer bestimmten Situation verhalten wird. Er
identifizierte dazu eine Vielzahl von Persönlichkeitseigenschaften, die er als „relativ stabile
und zeitlich überdauernder Bestanteile der Persönlichkeit“ sah.
Er unterschied zwischen verschiedenen Typen von Persönlichkeitseigenschaften.
Die erste Unterteilung war die, in genetisch determinierte „konstitutionelle“
Persönlichkeitseigenschaften versus durch Umwelterfahrungen erworbene, sogenannte
“umweltbedingte“ Persönlichkeitseigenschaften.
Cattell schloss sich damit einem immer noch fortwährenden Trend in der
Persönlichkeitsforschung an, der sich intensiv damit beschäftigt, ob und wie viel von unserer
Persönlichkeit angeboren bzw. erworben ist. Er verwendete Persönlichkeitstests und maß
die unterschiedlichen Ausprägungen einer Persönlichkeitseigenschaft in sehr komplexen
Stichproben. Seine Stichproben waren





gemeinsam aufgewachsene Familienmitglieder
getrennt aufgewachsene Familienmitglieder
gemeinsam aufgewachsene, eineiige Zwillinge
getrennt aufgewachsene, eineiige Zwillinge
gemeinsam aufgewachsene, verwandte Kinder
13



getrennt aufgewachsene, verwandte Kinder
gemeinsam aufgewachsene, nicht verwandte Kinder
getrennt aufgewachsene, nicht verwandte Kinder
Cattell erhoffte sich dadurch Aufschluss zu bekommen, ob die gemessene
Persönlichkeitseigenschaft angeboren oder erworben ist. Dieses Verfahren wird heute noch
in der Verhaltensgenetik angewendet!
Weiter unterschied Cattell zwischen fähigkeitsbezogenen, temperamentsbezogenen und
dynamischen Persönlichkeitseigenschaften.
 Fähigkeitsbezogene Eigenschaften bestimmen, wie gut man in einer Situation
zurechtkommt und in welchem Ausmaß man sein Ziel in dieser Situation erreicht.
Diese Eigenschaft steht in engem Zusammenhang mit Intelligenz.
 Temperamentsbezogene Eigenschaften beschreiben jene Eigenschaften, die
Cattell auch als „Stil“ verstanden wissen will. Wie wir unser Ziel erreichen, hängt
vom Temperament ab.
 Dynamische Persönlichkeitseigenschaften würden unser Verhalten energetisieren
und motivieren. Cattell teilte die dynamischen Persönlichkeitseigenschaften noch
in
drei
weitere
Untereigenschaften
ein.
Alle
dynamischen
Persönlichkeitseigenschaften sind miteinander auf komplexe Art vernetzt und
bilden ein dynamisches Verstrebungsnetzwerk.
Da dieses Konzept des Verstrebungsnetzwerks zu komplex war, wurde der Ansatz in der
Psychologie nicht weiter verfolgt.
Cattell unterschied weiter zwischen allgemeinen Persönlichkeitseigenschaften und
individuellen Persönlichkeitseigenschaften.
 Allgemeine liegen bei vielen Menschen vor. Dazu zählen Intelligenz,
Umgänglichkeit, Abhängigkeit etc.
 Individuelle Eigenschaften sind seltener und spezifisch für ein Individuum. Z.B.:
Das Interesse für das Sammeln von Bierdeckel, Knöpfen, ... Individuelle
Persönlichkeitseigenschaften sind Vorlieben für bestimmte Dinge. Sie motivieren
uns zu damit assoziierten Handlungen und machen uns einzigartig.
Cattell unterschied zwischen Oberflächeneigenschaften und Grundeigenschaften.
 Oberflächeneigenschaften sind bestimmte Gruppen von Eigenschaften, die bei
vielen Individuen auffindbar sind und die über die Zeit und über viele Situationen
konstant gemeinsam auftreten. Das bedeutet, wenn jemand gesellig ist, dann ist
er meistens auch eher sorglos, optimistisch, etc. In der Faktorenanalyse zeigt sich
dann, dass Oberflächeneigenschaften auf „Faktoren“ oder Grundeigenschaften
zurück geführt werden können. (In diesem Fall die Grundeigenschaft
„Extroversion“.) Die Oberflächeneigenschaften sind also die beobachtbaren,
14
offenkundigen Verhaltensweisen, die Grundeigenschaften beschreiben die
dahinter liegenden, relevanten Unterschiede zwischen Menschen.
 Die Grundeigenschaften sind die Struktur der Persönlichkeit.
Die Hoffnung, die auf dem Erkennen dieser Struktur liegt, ist die, dass wir eines Tages
Verhalten vorhersagen können.
Um die Grundstruktur der Persönlichkeit beschreiben zu können begann Cattell die
Eigenschaftswörterlisten von Allport und Odbert (4504 Wörter) mittels zweier
Ratingverfahren und einer Faktorenanalyse zu untersuchen. Zusätzlich nahm er Ergebnisse
von anderen Studien sowie klinische Studien aus der Psychiatrie hinzu.
-
-
Dies führte zu 46 Oberflächeneigenschaften. Diese überprüfte er an einer großen
Stichprobe und gewann die sogenannten Lebensdaten (L-Daten). Dies sind Daten, die
durch die Bewertung von Menschen im Alltag entstehen. Z. B.: Schulnoten,
Führerscheinprüfung, Statistiken über Autounfälle, etc. Diese Daten reduzierte Cattell
auf 12 Grundeigenschaften.
Dann untersuchte er Daten, die durch Persönlichkeitsfragebögen gewonnen wurden,
die sogenannten Questionnaire-Daten (Q-Daten).
Als dritte Quelle für seine Untersuchung nahm er Test-Daten (T-Daten). Diese werden
in standardisierten Experimenten gewonnen. Diese Experimente sollen objektiv sein.
Mittels Faktorenanalyse aus dem gesamten Datenmaterial kam Cattell zu 16 Primärfaktoren
(12 L-Daten, 4 Q-Daten), die den zentralen Grundeigenschaften des Menschen entsprechen
sollen. (Fortlaufende Untersuchungen fanden noch 7 weitere Faktoren.) Diese Daten wurden
im 16 PF-Persönlichkeitstest umgesetzt.
Cattell reihte diese 16 Persönlichkeitsfaktoren nach ihrem Einfluss auf das Verhalten in eine
Rangliste. Jeder Faktor stellt dabei ein Kontinuum dar, auf dem das Individuum positioniert
wird. Die Endpunkte des Kontinuums markieren jeweils die extremste Ausprägung der
Eigenschaft.
15
Faktor A „Wärme“ (Sachorientierung vs. Kontaktorientierung)
Dieser Faktor hat in der Psychiatrie Bedeutung gefunden. In der Vergangenheit wurde
anhand dieses Faktors entschieden, ob jemand stationär aufgenommen werden muss.
Faktor B „logisches Schlussfolgern“ (konkretes Denken vs. abstraktes Denken)
Cattell war der erste Forscher, der Intelligenz als Persönlichkeitseigenschaft sah.
Faktor C „emotionale Stabilität“ (emotionale Störbarkeit vs. emotionale
Widerstandsfähigkeit)
Emotionale Stabilität wird assoziiert mit Impulskontrolle und mit effizienter Problemlösung.
Wer am positiven Ende eingeordnet ist, ist emotional stabil, kommt gut mit seinem Leben
zurecht und hat eine realistische Lebenseinstellung. Am negativen Ende sind Menschen eher
labil, neurotisch und ängstlich.
Faktor E „Lebhaftigkeit“ (Besonnenheit vs. Begeisterungsfähigkeit)
Um diesen Faktor beschreiben zu können, erfand Cattell einen neuen Begriff, das Kunstwort
„surgency“, da er kein passendes aus der Alltagssprache herausfand. Menschen mit hoher
Lebhaftigkeit sind fröhlich, gesellig, zugänglich, freudig, geistreich, humorvoll, gesprächig,
dynamisch. Menschen mit geringer Lebhaftigkeit sind pessimistisch, neigen zu Depressionen,
sind eigenbrötlerisch, selbstbeobachtend, sorgenvoll und zurückgezogen. 55 % der Varianz
dieser Eigenschaft seien laut Cattell auf genetische Vererbung zurück zu führen.
Faktor G „Regelbewusstsein“ (Flexibilität vs. Pflichtbewusstsein)
Cattell verglich diesen Faktor mit Freud´s „Über-Ich“. Personen mit ausgeprägtem
Regelbewusstsein sind beharrlich, verlässlich und verfügen über gute Selbstkontrolle.
Demgegenüber sind Menschen mit schwachem Regelbewusstsein geneigt, den Weg des
geringsten Widerstands zu gehen.
Faktor H „soziale Kompetenz“ (Zurückhaltung vs. Selbstsicherheit)
Hier kontrastiert Cattell das kühne, selbstbewusste, angenehme, abenteuerlustige und
gesellige Individuum mit dem schüchternen, distanzierten, in sich zurück gezogenen und
ängstlichen. Cattell führte diese Eigenschaft auf das sympathische und parasympathische
Nervensystem zurück. Das sympathische Nervensystem reagiert auf Stress mit der KampfFlucht-Reaktion. Das parasympathische System sorge eher für Ruhe und Entspannung.
Welches System mehr reagiert sei zu 40 % angeboren.
Faktor I „Empfindsamkeit“ (Robustheit vs. Sensibilität)
Robuste Individuen sind reif, geistig unabhängig, selbständig und realistisch. Sensible
Individuen hingegen sind sanftmütig, fantasievoll, ängstlich und ungeduldig.
Faktor L „Wachsamkeit“ (Vertrauensbereitschaft vs. Skeptische Haltung)
„Skeptische“ Menschen sind nicht nur misstrauisch sondern auch eifersüchtig und im Leben
eher zurückgezogen. Sie haben eine hohe Ausprägung in diesem Faktor. Menschen mit
niederer Ausprägung sind vertrauensvoll, gelassen und verständnisvoll.
16
Faktor M „Abgehobenheit“ (Pragmatismus vs. Unkonventionalität)
Eine hohe Ausprägung im M-Faktor bedeutet, dass der Mensch unkonventionell, intellektuell
und fantasievoll ist. Diese Menschen kümmern sich nicht um praktische Dinge des Lebens.
Menschen die eher praktisch orientiert sind, sind konventionell, logisch denkend,
pflichtbewusst und neigen zur Besorgnis.
Faktor N „Privatheit“ (Unbefangenheit vs Überlegenheit)
Hier stehen sich Ausprägungen gegenüber wie gerissen, clever, scharfsinnig, weltgewandt
versus natürlich, unschuldig, schlicht, spontan, anspruchslos, naiv.
Faktor Q „Besorgtheit“ (Selbstvertrauen vs. Besorgtheit)
Ein hohes Ausmaß an Besorgtheit sieht Cattell hauptsächlich bei Kriminellen, Alkoholikern,
Drogenabhängigen und Menschen mit einer bipolaren Störung. Menschen mit hohem
Selbstvertrauen wären hingegen friedlich, belastbar und selbstsicher.
Cattell fand noch vier weitere Faktoren (Q-Faktoren), die sich aber nicht ganz so stabil
erwiesen wie die zuerst genannten.
Faktor Q1 „Offenheit für Veränderung“ (Sicherheitsinteresse vs. Veränderungsbereitschaft)
Menschen mit einer niedrigen Ausprägung hätten Angst vor Veränderungen. Sie würden
nach Bekanntem streben. Menschen mit einer hohen Ausprägung hingegen würden das
Unkonventionelle lieben und sich nicht an gesellschaftliche Normen halten.
Faktor Q2 „Selbstgenügsamkeit“ (Gruppenverbundenheit vs. Eigenständigkeit)
Hier wird die Vorliebe beschrieben, sich Gruppen anzuschließen oder für sich zu bleiben.
Faktor Q3 „Perfektionismus“ (Spontaneität vs. Selbstkontrolle)
Menschen mit einer hohen Ausprägung in Q3 sind zwanghaft, sie brauchen eine kontrollierte
Umgebung, die hochgradig vorhersehbar ist. Menschen mit einer niederen Ausprägung sind
eher undiszipliniert, nachlässig und unorganisiert.
Faktor Q4 „Anspannung“ (Innere Ruhe vs. Innere Gespanntheit)
Menschen mit einer hohen Ausprägung im Q4 sind getrieben und angespannt. Menschen am
anderen Ende sind entspannt und unbekümmert.
Cattell wollte eine empirisch begründete Persönlichkeitstheorie schaffen, die biologische
und umweltbezogene Aspekte mit einbezog und eine Vorhersage von Verhalten möglich
machen sollte. Er schuf den 16 PF-Persönlichkeitstest, der heute in seiner revidierten
Fassung immer noch im Einsatz ist.
Dass seine Arbeit nicht mehr Einfluss auf die Forschung hatte, erklärt sich dadurch, dass
seine Veröffentlichungen wirklich sehr schwer zu lesen sind. Cattell war in erster Linie
„Statistiker“.
17
Ad 5. Hans Eysencks Eigenschaftstheorie der Persönlichkeit:
Hans Eysenck wurde 1916 in Deutschland geboren. Zu der Zeit, in der Eysenck forschte,
dominierte der Behaviorismus. Kinder würden demnach als weißes Blatt Papier geboren, nur
Erziehung und Erfahrung forme ihre Persönlichkeit. Die Forschung war zweigeteilt. Viele
damals forschende Persönlichkeitstheoretiker entwickelten entweder Theorien ODER
widmeten sich der experimentell Forschung, die sich für individuelle Unterschiede nicht zu
interessieren schien. Eysenck trat dagegen an. Er war überzeugt davon, dass es angeborene
Anteile unserer Persönlichkeit gibt und dass die Theorie und das Experiment gut zusammen
gingen. Er definierte Persönlichkeit wie folgt:
„Persönlichkeit ist die mehr oder weniger stabile und dauerhaft Organisation des
Charakters, Temperaments, Intellekts und Körperbaus eines Menschen, die seine
einzigartige Anpassung an die Umwelt bestimmt. Der Charakter eines Menschen
bezeichnet das mehr oder weniger stabile und dauerhaft System, seines konativen
Verhaltens (des Willens), sein Temperament das mehr oder weniger stabile und
dauerhafte System seines affektiven Verhaltens (der Emotionen oder der Gefühle),
sein Intellekt das mehr oder weniger stabile und dauerhaft System seines kognitiven
Verhaltens (der Intelligenz), sein Körperbau das mehr oder wenig stabile System
seiner physischen Gestalt und neuroendokrinen (hormonale) Ausstattung.“ (Eysenck,
1970, s. S. 2)
Auf Basis seiner faktorenanalytischen Untersuchungen kam Eysenck auf drei Faktoren der
Persönlichkeit, die er als Persönlichkeitstypen bezeichnete.
Ausgehend von Verhaltensbeobachtungen von spezifischen Verhaltensweisen entwickelte er
eine hierarchische Typologie der Persönlichkeit.
Beobachtet man einen Menschen lang genug, sammelt man viele spezifische
Verhaltensweisen. Diese können zu Gewohnheiten (= habituelle Verhaltensweisen)
zusammen gefasst werden. Gruppen von habituellen Verhaltensweisen lassen sich wieder
zu Persönlichkeitseigenschaften zusammenfassen.
18
Z. B.: Wir sehen verschiedene, spezifische Verhaltensweisen wie z.B., dass jemand gerne mit
Fremden spricht, lustig ist, keine Scheu hat, etc. Diese spezifischen Verhaltensweisen
würden wir unter dem Begriff „Geselligkeit“ (= Habituelle Verhaltensweise) subsummieren.
Wir beobachten weitere habituelle Verhaltensweisen wie Lebendigkeit (lacht viel, sucht
Augenkontakt, ...) und Bestimmtheit (setzt sich in Diskussionen durch, ...). Diese habituellen
Verhaltenseigenschaften vereinen sich in der Faktorenanalyse zum Faktor „Extroversion“.
Aus diesen Faktoren bildete Eysenck drei Persönlichkeitstypen:
(1) Den extrovertierten Persönlichkeitstyp ist gesellig und impulsiv. Der introvertiert
Persönlichkeitstyp hingegen still und selbstbeobachtend.
Eysenck´s Meinung nach wäre die Basis dieser Unterschiede eine biologische
Prädisposition, die im aufsteigenden reticulären Aktivierungssystem (ARAS) verankert ist.
(Diese Annahme ist bis heute nicht vollständig bestätigen.)
19
(2) Der zweite Typ heißt „Neurotizismus“: ein neurotischer Mensch ist eine emotional
instabile Persönlichkeit, diese Menschen neigen zu unbegründeter Furcht (Phobien),
zeigen zwanghafte Symptome oder sind impulsiv. Neurotizismus beschreibt die Neigung
der Realität unangemessene Angst oder Frucht zu zeigen.
Eysenck beschrieb innerhalb der Neurotiker eine Untergruppe, die völlig frei von
Angst sei. Dies wären die Psychopathen. Sie verhalten sich antisozial, haben vor Bestrafung
keine Angst und zeigen keine Reue. Da er Psychopathen von Psychotikern abgrenzen wollte,
schuf Eysenck einen dritten Persönlichkeitstyp.
(3) Psychotizismus: Den Übergang zwischen krank und gestört sah Eysenck als fließend an.
Psychotiker würden sich von Neurotikern nur durch die Schwere der Störung abgrenzen.
Psychotiker zeigen zwar schwere Symptome der Psychopathie, sie wären zwar
unbarmherzig, uneinfühlsam, selbstzentriert, feindselig, und würden aus Bestrafung
nicht lernen, dennoch hätten sie auch positive Eigenschaften. Sie wären sehr kreativ
(weil sie sich um Konventionen nicht kümmern, keine Angst vor Verlust der Zuneigung
haben, ...). Die Grenze zum Genie ist dünn. Wer sehr erfolgreich in seinem Beruf ist, wird
ebenfalls Züge der Psychopathie haben, da es entscheidend ist, sich und seinen Zielen
20
treu zu bleiben (Egozentrismus), ein gewisser Hang zum Regelbruch und zur
Durchsetzung eigener Ideen ist ebenfalls wichtig.
Eysenck stellte somit als erster einen Zusammenhang von Psychotizismus und Kreativität
her und grenzte sich von Maslow und Rogers ab, da diese Kreativität als das Ergebnis
einer optimalen gesunden Entwicklung ansahen.
Eysenck räumte ein, dass im Bereich der Kreativität noch weitere Forschung notwendig
sein wird.
Eysenck formulierte anhand der drei Persönlichkeitstypen die Grundstruktur der
Persönlichkeit und entwickelte ein Messinstrument, den sogenannten EPQ (Eysenck
Personality Questionnaire).
Er versuchte auch Vorhersagen zum Verhalten zu treffen und war überzeugt, dass zwei
Drittel der Varianz im Verhalten auf biologische Ursachen zurück zu führen sind. Die
Umwelteinflüsse bestimmten für ihn auf welche Art und Weise Persönlichkeitsmerkmale
zum Ausdruck kämen, in Bezug auf ihre Veränderbarkeit gibt es aber biologische Grenzen.
Es gibt viele Forschungsbefunde, die Eysenck´s Theorie bestätigen.
Die Neurotizismus Skala und die Extroversions Skala haben sich als sehr zuverlässig zur
Beschreibung der Persönlichkeit erwiesen. Die Psychotizismus Skala ist und blieb
problematisch.
Eysenck´s Grundstruktur der Persönlichkeit wurde in 24 Ländern in Afrika, Asien, Europa,
Amerika bei Männern und Frauen festgestellt.
Sybil Eysenck entwickelte den EPQ weiter zu einer Version für Kinder und Jugendliche (JEPQ).
Auch dieser erwies sich über die Kulturen hinweg als konsistent.
Für Eysenck war das der Beweis, dass Persönlichkeit genetisch determiniert sei, da sich diese
drei Persönlichkeitsfaktoren über die Kulturen hinweg zeigen würden. Die Modifikation des
genetisch determinierten Verhaltens würde dann durch Sozialisationserfahrungen passieren.
(Z. B.: Extroversion – jemand redet gerne mit fremden Menschen => die Kultur gebietet uns
21
darüber wie wir sprechen, ob wir das jeweilig andere Geschlecht ansprechen dürfen,
Augenkontakt haben dürfen, etc.)
Eysenck beschäftigte sich mit der Psychopathologie und als dem Behaviorismus verpflichtet,
war er überzeugt davon, dass gesundes wie abnormes Verhalten die Folge der Art und Weise
ist, wie Individuen auf Reize in ihrer Umwelt reagieren. Zusätzlich bestimmte die
Persönlichkeit, in welche Situationen sich ein Individuum begibt.
Eysenck lehnte alle Therapierichtungen außer der Verhaltenstherapie ab. Besonders der
Psychoanalyse gegenüber war er feindselig gestimmt. Dies führte dazu, dass die meisten
Therapierichtungen begannen, ihre Arbeit zu evaluieren und wissenschaftlich zu begründen.
So führte seine Kritik zu einer Verwissenschaftlichung und Qualitätssteigerung der
Psychotherapie und umgekehrt führte diese Qualitätssteigerung wiederum zu einer
Aufweichung seiner Kritik, so dass er später nicht mehr ganz so kategorisch gegen andere
Therapierichtungen argumentierte.
Ad 6. Die „Big-Five“ und das Fünf-Faktorenmodell der Persönlichkeit:
Historische Entwicklung des Ansatzes
In der Wissenschaft herrschte immer mehr die Einigkeit darüber, dass fünf Faktoren
ausreichen, um die Struktur der Persönlichkeit zu beschreiben. Wie diese Faktoren allerdings
zu benennen sind, darüber wird wie eh und je diskutiert.
Zwei Modelle, die zur Einigkeit beigetragen haben, seien hier erklärt. Zusätzlich werden noch
andere unterstützende Modelle genannt.
1. Der lexikalische Ansatz und die Big Five
2. Fünf-Faktoren Modell der Persönlichkeit (und die Fünf-Faktoren-Theorie)
22
Ad 1. Der lexikalische Ansatz und die „Big Five“:
Die Grundannahme des lexikalischen Ansatzes ist, dass sich für Menschen wichtige und
bedeutsame Unterschiede in der Persönlichkeit in der Sprache niederschlagen. Cattell´s 16
PF-Test, die Eigenschaftswörterlisten von Allport und Odbert, die Analysen von Tupes und
Christal, Digman und Takemoto-Chock, Norman sowie Goldberg gehen alle in diese Richtung.
Goldberg (1981) führte die wohl umfangreichste Untersuchung dazu durch, in dem die fünf
Faktoren bestätigt wurden. Alle diese Ansätze, die zu fünf Faktoren kommen, werden unter
dem Begriff „Big Five“ zusammengefasst. Der Kritikpunkt daran ist, dass man zwar immer auf
fünf Faktoren kommt, welche Eigenschaften sich aber unter diese Faktoren subsummieren
lassen – darüber gibt es unterschiedliche Ansichten.
Ad 2. Das Fünf-Faktoren Modell der Persönlichkeit (FFM) und die Fünf-Faktoren-Theorie:
Die zweite Quelle, die die Annahme einer Fünf Faktoren Struktur der Persönlichkeit stützt,
besteht aus verschiedenen faktorenanalytischen Befunden.
Wichtig ist zu wissen, dass diese fünf Faktoren aufgrund der Faktorenanalyse, also einer
statistischen Methode, hervorgebracht wurden. Sie beruhen nicht auf einer
Persönlichkeitstheorie. Dies ist in der Psychologie keine übliche Vorgehensweise.
Normalerweise wird eine theoriebasierte Hypothese gebildet, über die Daten in der Realität
gesammelt werden. Diese werden dann dahingehend ausgewertet, ob sie eine Hypothese
stützten oder nicht.
Die fünf Faktoren wurden aufgrund einer Faktorenanalyse des Datenmaterials gebildet. Die
Vorgehensweise ist also datengeleitet, nicht theoriegeleitet. (Das ist auch einer der
Hauptkritikpunkte, nämlich ob man mittels dieser Methode nicht nur die sprachliche
Fähigkeit von uns Menschen, Eigenschaften verbal abzubilden, untersucht.)
Costa und McCrae (1985 - 1997) fanden in ihrer Analyse zunächst die drei Faktoren von
Cattell. Daraus schufen sie den NEO-PI (Neurotizismus-Extraversion-OffenheitPersönlichkeits-Inventar). Ein Test, der weit verbreitet ist. Später wurde dieser Test in seiner
Revision um zwei weiter Faktoren ergänzt. (OCEAN: Openess, Consciousness, Extraversion,
Agreeableness, Neuroticsm.)
Jeder Primärfaktor stellt dabei wieder ein Kontinuum dar, auf dem sich die Individuen je
nach Ausprägung einreihen lassen. Auf Deutsch heißen diese Faktoren:
1.
2.
3.
4.
5.
Offenheit für Erfahrungen
Gewissenhaftigkeit
Extraversion
Verträglichkeit
Neurotizismus
23
Jede Hauptdimension beinhaltet weitere spezifische Persönlichkeitseigenschaften. Costa und
McCrae nennen diese Facetten. Jeder Faktor beinhaltet sechs Facetten.
Das Modell von Costa und McCrae weist keine theoretische Verankerung auf (also kein
„Warum“ und „Wie“). Die Faktoren sind ihrer Meinung nach biologisch determiniert. Wie
sich diese im Verhalten abbilden, bleibt unerklärt. Später versuchten die beiden
Wissenschaftler ein Erklärungsmodell nachzuliefern (siehe Abbildung).
24
Allgemein Kritik am „Big Five“ und dem Fünf-Faktoren-Modell:
Es besteht bis jetzt nur Einigkeit über die Anzahl der Faktoren, nicht über deren Benennung
und über deren Natur.
Saucier und Goldberg kritisieren auch die Flut an Versuchen, die fünf Faktoren zu bestätigen.
Sie fänden es fruchtbarer, wenn man diesen gesetzten Rahmen verließe und versuche, das
Gegenteil zu beweisen (statt nach weiterer Bestätigung zu forschen).
Ein weiterer Kritikpunkt ist die datengeleitete Herangehensweise und dass sich aufgrund der
deskriptiven Natur der Faktoren keine Vorhersagen von Verhalten getroffen werden können.
Die Persönlichkeitsfaktoren erklären nur 10 % der Varianz des menschlichen Verhaltens. Der
Rest erklärt sich aus anderen Einflüssen.
Die Tests führten eine Zeit lang zum blinden Vertrauen in ihre Qualität. Bewerber, Schüler,
etc. wurden danach beurteilt und ausgewählt. Mittlerweile weiß man um die Schwächen
und ergänzt die Tests durch andere psychometrische Verfahren.
25
Biologische Ansätze zu Persönlichkeit und Intelligenz
Zahlreiche Befunde deuten darauf hin, dass es in menschlichen Populationen einen
genetischen Einfluss auf die Persönlichkeit gibt. Gut erforscht wurden z.B. genetische
Einflüsse auf die drei bzw. fünf Faktorenmodelle der Persönlichkeit.
Eysenck ging von drei Persönlichkeitsdimensionen aus
1. Psychotizismus (einzelgängerisch, missmutig, niederträchtige und antisoziale
Persönlichkeitseigenschaften)
2. Extraversion (gesellig, sorglos und optimistisch)
3. Neurotizismus (ängstlich, sorgenvoll, launisch)
Das fünf Faktoren Modell geht davon aus, dass folgende Persönlichkeitsdimensionen
existieren:
1. Offenheit für Erfahrungen (aufmerksam, intellektuelle, kenntnisreiche kultiviert
künstlerische neugierige analytische liberale Persönlichkeitseigenschaften)
2. Extraversion (gesellige redselige aktive, spontane abenteuerlustige, enthusiastische
personenorientierte, durchsetzungsfähige Persönlichkeitseigenschaften)
3. Gewissenhaftigkeit
(praktisch,
umsichtige
ernsthafte,
vertrauenswürdige
organisierte,
sorgsame,
verlässliche,
arbeitssame,
ambitionierte
Persönlichkeitseigenschaften
4. Verträglichkeit (warme, vertrauensvolle, herzliche, verträgliche, kooperative
Persönlichkeitseigenschaften.
5. Neurotizismus
(emotionale,
ängstliche,
depressive,
befangene
Persönlichkeitseigenschaften)
In verschiedenen Zwillingsstudien konnten nun gezeigt werden, dass ein großer Anteil dieser
Persönlichkeitseigenschaften genetisch vererbt wurde.
26
27
Für Extraversion und Neurotizismus kann die Erblichkeit von 20-54% angenommen werden.
Für Offenheit für Erfahrungen gibt es keine Beweise für eine genetische Determiniertheit.
Die Ergebnisse legen nahe, dass es neben einem mehr oder weniger großen genetisch
determinierten Anteil auch eine erheblich durch Umwelteinflüsse geprägten Anteil in der
Persönlichkeit gibt.
Will man sich mit der Erblichkeit von Persönlichkeitseigenschaften beschäftigen muss man
sich folgende Fragen stellen:
Zur Erklärung:
 „Phänotyp“ oder das Erscheinungsbild ist in der Genetik die Menge aller Merkmale
eines Organismus. Er bezieht sich nicht nur auf morphologische, sondern auch auf
physiologische Eigenschaften und auf Verhaltensmerkmale.
 „Genotyp“ oder das Erbbild eines Organismus repräsentiert seine exakte genetische
Ausstattung, also den individuellen Satz von Genen, den er im Zellkern in sich trägt
und der somit seinen morphologischen und physiologischen Phänotyp bestimmt.
28
29
Psychophysiologie, Neuropsychologie und Persönlichkeit:
Psychophysiologie und Neuropsychologie sind Teilgebiete der Psychologie, die sich mit den
physiologischen Grundlagen psychologische Prozesse befassen. Beide Disziplinen wollen
mittels bildgebender Verfahren eine objektive Verbindung zwischen Prozessen im Gehirn
und Verhalten herstellen. Eine der Grundannahmen ist, dass jegliches Verhalten, darunter
auch Persönlichkeit und individuelle Unterscheide, durch physiologische und neurologische
Faktoren beeinflusst werden kann.
Eysencks biologisches Modell von Persönlichkeit und Aktivierung (Arousal)
Eysenck (1976, 1990) versuchte eine Verbindung zwischen Biologie und
Persönlichkeitsforschung herzustellen. Er meint, dass das menschliche Gehirn über zwei
unterschiedlich neuronale Mechanismen verfüge:
 Exzitatorische Mechnaismen
 Inhibitorische Mechanismen
Der exzitatorische Mechanismus dient dazu, das Individuum wachsam, aktiv und
physiologisch erregt zu halten, während der inhibitorische Mechanismus mit Inaktivität und
Lethargie in Zusammenhang steht.
Das Individuum strebe nach Gleichgewicht. Das ARAS, das aufsteigende reticuläre
Aktivierungssystem (im Hirnstamm) reguliere das Gelichgewicht.
Das ARAS hat Verbindung zu
 Thalamus (einer neuronale Schnittstelle für Nervenimpulse im Gehirn)
 Hypothalamus (dieser reguliert den Stoffwechsel, sorgt für die notwendige Energie
und reguliert die vegetativen Prozesse
 Cortex, dieser ist für die elaborierten neuronalen Verarbeitungsprozesse
verantwortlich.
Das ARAS verwaltet, wie viel Informationen oder Stimulation das Gehirn bekommt, es
kontrolliert Wachheit und Schlaf und hält das Individuum wachsam und aktiv.
Zusätzlich identifiziert Eysenck zwei neuronale Schaltkreise, die Erregung im Individuum
regulieren:
 den retico-corticalen und
 den retico-limbischen Schaltkreis.
Der retico-corticale Schaltkreis kontrolliert die durch eingehende Reize hervorgerufenen,
corticalen Aktivierung, währen der retico-limbische Schaltkreis die Erregung in Reaktion auf
emotionaler Reize kontrolliert.
Arousal ist eine zentrale Variable, mit der sich die Persönlichkeit mit zahlreichen Reaktionen
in Verbindung bringen ließe – das heißt: Extraversion und Neurotizimus stehen direkt mit
den Reaktionsarten des ARAS in Verbindung.
30
Extraversion und Erregung:
Eysenck Extraversion und Introversion hängen direkt mit dem Erregungsniveau im reticulocorticalen Schaltkreis zusammen. Das ARAS arbeitet unterschiedlich, je nachdem ob eine
Person introvertiert oder extravertiert ist.
Introvertiert Menschen haben ein ARAS, das ein sehr hohes Maß an Erregung hervorruft,
während das ARAS von extrovertierten Menschen nur ein geringes Maß an Erregung auslöst.
Introvertierte würden nach Eysenck deshalb weniger Gesellschaft und Anregung im Außen
suchen, da sie innerlich schon sehr erregt seien. Hingegen wären Extrovertierte ständig
unterregt und deshalb würden sie sich auch schnell langweilen.
Genn (1984) führte dazu ein Experiment durch.
 Sie nahm je eine Gruppe an Extravertierten und introvertierten Menschen, die
eine schwierige und langweilige Aufgabe lösen mussten. Beide Gruppen durften
dabei Musik hören und die Lautstärke frei wählen.
 Es zeigte sich, dass die Introvertierten durchwegs leiser Musik hörten als
Extravertierte. Die Leistungen der beiden Gruppen waren gleich gut.
 Im zweiten Durchgang des Experiments wurde die Lautstärke durch die
Testleitung bestimmt. Diesmal wurde die Musik bei den Introvertierten etwas
lauter und bei den Extravertierten etwas leiser gedreht. Bei beiden Gruppen sank
die Leistung unter den Durchschnitt.
Neurotizismus und Erregung:
31
Neurotizismus steht mit dem reticulo-limbischen Schaltkreis in Verbindung.
 Personen mit ausgeprägtem Neurotizimus werden durch emotionale Stimulation
über den reticulo-limbischen Schaltkreis mehr erregt
 Menschen mit geringem Neurotizimus würden weniger erregt
Der Unterschied würde sich in stressbehafteten Situationen am deutlichsten zeigen (z.B:
Prüfungssituationen: hoher Neurotizismus – Studenten machen sich ständig Sorgen um ihre
Leistungen)
Die VAS/VHS-Theorie von Gray:
Die Theorie von Grey ist eine Theorie der Verstärkungssensitivität. Ursprünglich war sie als
Erweiterung der Theorie Eysencks gedacht, entwickelte sich aber zu einer eigenständigen
Theorie. Die Kernaussage ist, dass Persönlichkeit auf der Interaktion zwischen zwei
grundlegenden Systemen im Gehirn basiert: dem Verhaltensaktivierungssystem, (VAS) und
dem Verhaltenshemmungssystem (VHS).
 Das
erste
System, das Verhaltensaktivierungssystem
(VAS)
umfasst
Annäherungsmotivationen. Es führt dazu, dass Menschen sensitiv gegenüber
Belohnungen sind und nach diesen streben. (=> Motivation)
 Das zweite System, das Verhaltenshemmungssystem (VHS) umfasst
Vermeidungsmotivationen. Diese machen den Menschen sensitiv gegenüber
Bestrafung oder möglichen Gefahren. Der Mensch will diese Gefahren/Bestrafungen
vermeiden.
32
Impulsivität
und
Ängstlichkeit
stehen
in
Verbindung mit
diesen
zwei
Persönlichkeitsvariablen.
 Individuen mit hoch ausgeprägter Verhaltensaktivierung sind impulsiv, sie sind hoch
motiviert Belohnung zu bekommen und sehen viele Aspekte ihres Lebens als Quelle
von Belohnung an. Individuen mit geringer Verhaltensaktivierung sind nicht impulsiv.
 Individuen mit hoch ausgeprägter Verhaltenshemmung sind ängstlich, da sie sich in
hohem Maß in Richtung potenzieller Bestrafung oder Gefahren ausrichten. Sie sehen
viele Aspekte ihres Lebens als Quelle möglicher Bestrafung an. Menschen mit
niedriger Verhaltenshemmung sind nicht ängstlich.
Carver und White (1994) entwickelten zu dieser Theorie ein Verfahren mit dem man
Verhaltensaktivierung und Verhaltenshemmung anhand 24 Skalen messen kann.
Fragen zum Verhaltensaktivierungssystem:
 Ich tue alles, um zu bekommen was ich will
 Ich bin immer bereit, etwas Neues auszuprobieren, wenn ich davon
überzeugt bin, dass es Spaß machen wird
 Wenn mir etwas Gutes widerfährt, bewegt mich das immer sehr
Fragen zum Verhaltenshemmungssystem:
 Ich bin immer sehr besorgt oder aufgeregt, wenn ich vermute oder
sogar weiß, dass jemand wütend auf mich ist.
 Wenn ich glaube, dass etwas Unangenehmes passieren wird, werde
ich immer flattrig
 Ich sorge mich immer, dass ich Fehler machen könnte.
Cloningers biologisches Modell der Persönlichkeit:
Cloninger entwickelte eine psychobiologische Persönlichkeitstheorie mit sieben
Persönlichkeitsdimensionen. Er vereinte darin verschiedene psychometrische,
neuropharmakologische, neuroanatomische Erkenntnisse mit Familienstudien zum Thema
Konditionierung von Verhalten und Lernprozessen beim Menschen. Des Weiteren griff er auf
Jungs Theorie zurück und vertrat eine humanistische Sichtweise des Selbst.
Er unterschied vier Temperamentsdomänen:
1. Neuigkeitssuche
2. Risikovermeidung
3. Belohnungsabhängigkeit
4. Hartnäckigkeit
Und drei Charakterdomänen:
1. Selbstbezogenheit
2. Kooperationsbereitschaft
3. Selbsttranszendenz
33
Die Temperamentsdomänen sind stehen mit biologischen Systemen in Zusammenhang und
werden als erblich angesehen. Sie liegen in Form unabhängiger Systeme im Gehirn vor. Diese
Systeme sind miteinander über Nervenzellen/-fasern verbunden, die Übertragung erfolgt
mittels jenen Neurotransmitter, die für Aktivierung und Hemmung von Verhalten,
Lernprozessen und Reaktionen verantwortlich sind.
Ad 1. Temperamentsdomäne Neuheitssuche:
Neuheitssuche beschreibt die Fähigkeit die Aufregung, die als Reaktion auf neue Reize
entsteht, zu genießen. Diese Dimension steht mit impulsivem Verhalten und
Verhaltensaktivierung in Beziehung. Personen mit einem hohen Wert in Neuheitssuche
mögen es Dinge zu erkunden, neue Leute kennenzulernen, neue Dinge auszuprobieren.
Neuheitssuche steht laut Cloninger in Verbindung mit dem Neurotransmitter Dopamin.
Dopamin:
 ist wichtig für die Funktionsweise der Hirnareale, die unsere Bewegungen
kontrollieren
 steht mit dem Belohnungssystem in Verbindung (Belohnung = das Gefühl von
Wohlbefinden und Freude beim Tun)
 es regelt den Zufluss von Informationen in den Frontallappen des Gehirns, die mit
Planung, Koordination, Kontrolle und Ausführung von Verhalten in Zusammenhang
stehen
Neuheitssuche hat also etwas mit Motivation, Vergnügen und Planung zu tun. Das Konzept
der Neuheitssuche überschneidet sich mit dem Sensation Seeking von Zuckermann (1991).
Zuckermann und Andresen sehen Sensation Seeking als sechsten Basisfaktor der
Persönlichkeit. Bei Sensation Seeking handelt sich ebenfalls um ein physiologisch
begründetes Konstrukt. Zuckermann und Andresen gehen davon aus, dass es für jeden
Menschen ein optimales Erregungsniveau gibt. Über das Aufsuchen oder Vermeiden von
stimulierenden Reizen kann die Erregung reguliert werden. Dabei suchen Menschen mit
einem geringen initialen Erregungsniveau eher aufregende Reize und werden somit als
Sensation-Seeker bezeichnet. Diese Menschen suchen ständig neue Reize, um den
gewünschten Pegel einer Stimulierung halten zu können. Mit dem Test Sensation Seeking
Scale (BSSS; Hoyle et al., 2002) kann diese Eigenschaft gemessen werden.
Der Begriff „Sensation-Seeking“ teilt sich in vier weitere Punkte auf:
 „Thrill and adventure seeking“: Körperlich riskante Aktivitäten
 „Experience seeking“: Abwechslung durch unkonventionellen Lebensstil (Reisen,
Musik, Drogen)
 „Disinhibition seeking“ (dt.: „Enthemmung“): Abwechslung durch soziale
Stimulation (Party, Promiskuität, soziales Trinken)
 „Boredom susceptibility“ (dt.: „Anfälligkeit für Langeweile“): Abneigung
gegenüber Langeweile und Neigung zur Unruhe, wenn die Umwelt keine
Abwechslung mehr bietet.
34
Zwillingsstudien zufolge lassen sich im Durchschnitt ca. 70 % der interindividuellen
Unterschiede bezüglich des optimalen Erregungsniveaus durch genetische Varianz erklären,
die restlichen 30 % werden auf Umwelteinflüsse zurückgeführt.
Die Test- Items zu dieser Domäne nach Cloninger beziehen sich darauf wie erregbar,
explorativ, impulsiv und extravagant jemand ist. (im Gegensatz zu reserviert und
nachdenklich)
Ad 2. Temperamentsdomäne Risikovermeidung:
Risikovermeidung wird als Verhaltenshemmung beschreiben, es beinhaltet eine Tendenz,
intensiv auf aversive Reize zu reagieren oder Verhalten zu hemmen, um Bestrafung oder
Neues zu vermeiden. Menschen mit einem hohen Wert in Risikovermeidung haben Angst
davor, neue Dinge auszuprobieren und sind im sozialen Umfeld schüchtern.
Für Cloninger hängt diese Temperamentsdomäne mit dem Neurotransmitter Serotonin
zusammen, der Stimmung, Emotionen und Schlaf reguliert und auch an einer Vielzahl von
verhaltensbezogenen und physiologischen Funktionen beteiligt ist.
Die dazu gehörigen Test-Items beziehen sich darauf, wie sorgenvoll und furchtsam oder wie
optimistisch jemand gegenüber Unsicherheit ist.
Ad 3. Temperamentsdomäne Belohnungsabhängigkeit:
Menschen mit einer hohen Belohnungsabhängigkeit reagieren auf Belohnungen sensibel. Sie
suchen Situationen, die Belohnung versprechen. Cloninger bringt diese Domäne mit
„Verhaltensfortführung“ in Zusammenhang. Der dazu gehörende Neurotransmitter ist
Noradrenalin. Noradrenalin ist ein Stresshormon, das Teile des menschlichen Gehirns, in
denen Aufmerksamkeit und Impulsivität kontrolliert werden, beeinflusst. Noradrenalin wirkt
auf den teil des sympathische Nervensystems, der unsere Reaktionen auf Stress reguliert.
Die Test-Items erheben wie unabhängig und eigenständig jemand ist (niedrig ausgeprägte
Belohnungsabhängigkeit) oder wie abhängig und gebunden jemand ist.
Ad 4. Temperamentsdomäne Hartnäckigkeit
Diese Domäne beschreibt die Fähigkeit Handlungen trotz Frustration und Ermüdung
beharrlich fortzuführen. Auch sie steht mit Noradrenalin in Verbindung. Dieses lässt uns
„dran“ bleiben.
Die dazugehörigen Test-Items erheben, wie das Individuum, au potenzielle Belohnung
reagiert und wie ambitioniert und perfektionistisch es ist. Bzw. das Gegenteil; wie faul und
frustriert es angesichts von Fehlschläge ist und in welchem Ausmaß es dazu neigt, bei
Schwierigkeiten aufzugeben
Die Charakterdomänen in Cloningers Theorie stehen im Kontrast zu den
Temperamentsdomänen. Sie sind nicht biologischen Ursprung, sondern mit dem
Selbstverständnis des Individuums in seiner sozialen Umwelt verknüpft. Sie repräsentieren
unsere Emotionen, Gewohnheiten, Ziele und intellektuellen Fähigkeiten, die wir in Reaktion
auf die Außenwelt entwickelt haben. Sie sind unterschiedliche Aspekte des Selbstkonzepts.
Ad 1. Charakterdomäne Selbstbezogenheit:
35
Diese Domäne spiegelt die Vorstellung des Individuums wieder, wie eigenständig es in Bezug
auf Denken und Urteilen ist. In dieser Dimension drücken Menschen Gefühle wie
Selbstwertschätzung, persönliche Integrität und Führungsstärke aus.
Test-Items erheben wie sehr das Individuum zum entschlossenen Handeln und zur
Übernahme von Verantwortung neigt, wie zielstrebig und einfallsreich es ist. Das Gegenteil
dazu sind Fragen, die messen, wie sehr ein Mensch dazu neigt, anderen die Schuld zu geben
und wie sehr es ihm an Zielbewusstheit mangelt
Ad 2. Charakterdomäne Kooperationsbereitschaft
Diese Domäne spiegelt jenen Anteil des Selbstkonzepts wieder, der für Anpassung an die
Gesellschaft, Gefühle von Sittlichkeit, Ethik, Gemeinschaftsgefühl und Anteilnahme enthält
Items dieser Domäne beziehen sich auf das Ausmaß von sozialer Toleranz, Empathie und
Hilfsbereitschaft oder auf das Ausmaß von sozialer Intoleranz sozialem Desinteresse und
Neigung zur Rachsucht.
Ad 3. Charakterdomäne Selbsttranszendenz:
Diese Domäne spiegelt das Selbstkonzept der Person hinsichtlich ihrer Überzeugungen in
Bezug auf mystische Erfahrungen wider, Konzepte wie religiöse Überzeugungen und
Spiritualität bilden diese Dimension aus.
Hier erfragen die Test-Items wie sehr das Individuum dazu neigt, sich mit transpersonalen
Ideen zu identifizieren und spirituelle Dinge zu akzeptieren.
Die Domänen-Arten interagieren miteinander. So kann jemand mit einem hohen Wert an
Neuheitssuche und Kooperationsbereitschaft
a) Viel für wohltätige Organisationen tun, z.B. im Fundraising
b) Viel auf Weltreise sein, andere Kulturen und Religionen kennen lerne und so
Spiritualität erkunden.
Cloninger entwickelt einen Temperament und Character Inventory Revised-Test(TCI-R), den
es sowohl für Erwachsene also auch für Kinder/Jugendliche gibt. Zwischen Eysencks, Grays
und Clonigers Modell bestehen enge Zusammenhänge.
Wie sieht es mit den empirischen Befunden dazu aus?
Messungen des EEGs, von Herzraten, Hautwiderständen, Blutdruck, Schwitzen, etc.. haben
gezeigt, dass es irgendeine Verbindung zwischen diesen Messwerten und der Persönlichkeit
gibt. Dass diese Ergebnisse nicht eindeutiger sind, liegt nach Matthews und Gillland daran,
dass die Theorien viel zu starke Vereinfachungen der komplexen neuro-biologischen
Prozesse darstellen. Das einzige, das sicher ist, ist, dass in diesem Bereich noch sehr viel
Forschungstätigkeit notwendig sein wird.
Gene und die Persönlichkeitseigenschaft >> Ängstlichkeit<<:
Gene sind die geerbte Information von unseren Vorfahren. Sie bestehen aus DNA. Sie
können an- und ausgeschaltet werden, oder mehr oder weniger Proteine produzieren, das
nennt man „Gen-Expression“.
36
Im Gehirn steuert die Gen-Expression, wie sich Neurotransmitter verhalten, die wiederum
Funktionen wie Erinnern, Persönlichkeit, Intelligenz steuern.
Neurotransmitter haben wiederum umgekehrt Einfluss auf die Gen-Expression ebenso wie
Umweltfaktoren (wie z.B. Stresslevel, Ernährung, Traumata..)
Ein Beispiel: Bestimmte Genvarianten führen zu Unterschieden im Spiegel von
Serotonin (zu wenig ist ein Risikofaktor für Depression) und Dopamin (zu wenig führt
zu Risikoverhalten). Das bedeutet der Genotyp kann zu einer Veränderung der
Gehirnfunktionen führen, die wiederum das Verhalten beeinflussen.
Allerdings können neue Erfahrungen und neues Lernen die Kreisläufe und Funktionen im
Gehirn physiologisch ändern. Wir bilden als Reaktion auf neue Erfahrungen
Neuronalverbindungen aus und produzieren neue Neuronen. Diesen Prozess nennt man
Neuroplastizität. Die Fähigkeit zur Neuroplastizität besteht ein Leben lang. An einfachsten ist
dies beim Lernen von Faktenwissen oder bei der Rehabilitation nach Schlaganfällen erlebbar.
Hier kann man mittels bildgebender Verfahren neuen Gehirnzellen beim Wachsen zusehen
(„Neurogenesis“).
Wie viel von dem, was wir sind, ist neurologisch/genetisch „programmiert“?
Unser Gehirn unterliegt stark kulturellen Einflüssen: Kulturunterscheide sind sehr nachhaltig
in der Veränderung unseres Gehirns und somit in der Gestaltung unserer Persönlichkeit.
Erinnern Sie sich an das Michigan Fish-Experiment? Die Kultur prägt unsere Wahrnehmung
und unser Selbstverständnis (siehe Film Sheena Iyengar). Sie prägt nicht nur unseren
Geschmack – man denke an die Vorliebe für dicke Frauen in Mauretanien, wo Mädchen
regelrecht gemästet werden, oder in Peru, wo Leibesfülle mit vielen Unterröcken
vorgetäuscht wird – sie prägt die Art und Weise, wie wir miteinander kommunizieren – wie
viel Augenkontakt, Körperkontakt in unterschiedlichen Beziehungen wir für angemessen
halten, wie laut wir reden, und so weiter.
„To a larger degree than we suspected, culture determines what we can and cannot
perceive”.
37
Merlin Donald, ein kanadischer Kognitionswissenschaftler, stellte fest, dass in dem Moment,
in dem wir lesen und schreiben lernen, unser Gehirn sich umorganisiert. Nicht nur, dass wir
unser Wissen vergrößern, wir müssen verschiedene Fähigkeiten miteinander kombinieren.
Unser visu-motorisches System muss sich an diese Aufgabe anpassen. Nisbett konnte mit
dem Michigan Fish-Experiment zeigen, dass sich unsere Wahrnehmung unterscheidet, je
nachdem wo wir aufgewachsen sind. Er konnte aber auch zeigen, dass sich unserer Art
wahrzunehmen verändert, wenn wir die uns umgebende Kultur verändern.
38
Das „Plastizitätsparadoxon“ (Normal Doidge)
Das Plastizitätsparadoxon beschreibt den Umstand, dass genau jene Dinge, die uns
Veränderung im Gehirn und damit auch im Verhalten ermöglich auch dazu führen, dass
unser Verhalten rigider und weniger flexibel wird.
Unsere größten „Störungen“ resultieren aus der Gehirnplastizität. Man kann sich das mit
dem „Wanderpfadprinzip“ erklären. Wird ein Weg oft genug gegangen, wird und bleibt er
sichtbar. Genauso verhält es sich mit Verhaltensweisen, die uns stören oder schädigen. Es
ist die Doppelnatur der Neuroplastizität. Durch neue Erfahrungen formen sich Strukturen im
Gehirn, die diese Erfahrungen mit all den verknüpften Empfindungen, Erinnerungen, etc.
abbilden. Das gilt für gute nützliche Erkenntnisse genauso wie für maligne. Der Prozess der
Neuroplastizität wertet nicht. Oft sind es nicht angemessene „Überlebensmuster“ aus der
Kindheit die Menschen in Therapie führen. Da wir sie immer wiederholen, verstärken sie sich
und werden zu sichtbaren Charaktereigenschaften.
Wieder zurück zu den Genen: Wir haben alle eine Art genetischer Blaupause in uns, die zu
einem Teil entscheidet wie aggressiv oder extrovertiert wir sind.
Wie aggressiv wir uns verhalten ist allerdings ein Produkt unserer Erziehung. Persönlichkeit
ist ein Bündel an gewohnheitsmäßig/anerzogenen Verhaltensantworten.
39
Was bedeuten diese Erkenntnisse für die Psychotherapie jenseits der Behandlung von
Störungen?
Psychotherapie wird oft als Lernmodell, als Erfahrungsraum, „Labor“, Spielfeld beschrieben,
in dem der Patient/Klient neue Erfahrungen machen, sie reflektieren und angstfrei sich
selbst erfahren kann. Psychotherapie bedeutet für fast alle Menschen eine neue Kultur des
Umgangs mit sich und anderen. In dieser Kultur werden die eigenen „Programmierungen“
deutlich und durch neue Erfahrungen umgeschrieben.
Psychotherapie verändert, weil durch den stattfindenden Lernprozess auf jene Gene Einfluss
genommen wird, die für die Stärke der Synapsenverbindungen im Gehirn verantwortlich
sind. Psychotherapie wirkt, indem sie tief im Gehirn die Synapsenverbindungen zwischen
Gehirnzellen verändert und die richtigen Gene einschaltet. Die Verbindungen der
Nervenzellen werden verstärkt oder geschwächt (=>Wanderpfadprinzip).
Nerves that fire together wire together: Gehirnzellen, die gleichzeitig aktiv sind, gehen eine
Verbindung ein (Hebbsche Lernregel).
Hebb postulierte eine „Assoziation“ bei
Gleichzeitigkeit.
40
Freuds Gesetz der Assoziation findet sich später in der Behandlungsform der freien
Assoziation wieder, die vorsieht, dass der Patient in der Therapiesitzung seinen Gedanken
freien Lauf lässt und alles erzählt, was ihm in den Sinn kommt, ganz gleichgültig wie
unangenehm oder banal es auch sein mag. Der Analytiker sitzt hinter dem Patienten und
sagt meist nur wenig. Freud stellte fest, dass viele verdrängte Gefühle zutage traten und
sich unter den Assoziationen der Patienten viele interessante Verbindungen ergaben, wenn
er sich nicht einmischte. Die Therapieform der freien Assoziation basierte auf der Annahme,
dass in unseren psychischen Assoziationen, selbst den scheinbar zufälligen und sinnlosen,
Verbindungen in unserer Erinnerung zum Ausdruck kommen.
Gehirnzellen, die vor Jahren gemeinsam aktiv waren, sind eine Verbindung eingegangen, und
diese Verbindungen sind oft nach wie vor vorhanden und kommen in den freien
Assoziationen der Patienten wieder zum Vorschein
Vorstellung eines plastischen Gedächtnisses geht eigentlich auf Freud zurück: Freud
beobachtete, dass sich Erinnerungen verändern können, je nachdem, in welchem Kontext
der Klient sie bewertet. Erinnerungen können sich unter dem Eindruck nachfolgender
Ereignisse verändern und umgeschrieben werden. Das Gedächtnis ist nicht einfach sondern
mehrfach vorhanden und in verschiedenen Arten von Zeichen niedergelegt. Um unsere
Erinnerungen verändern zu können, müssen wir sie uns bewusst machen und sie
aufmerksam beobachten
Freud machte auch Aussagen darüber, wie wir uns diese Erinnerungen bewusst machen
können. Er fand heraus, dass die Methode hinter den Patienten zu sitzen und nur spärliche
Kommentare abzugeben, gut geeignet ist, die Übertragungsreaktion auszulösen. Das
bedeutet, sie übertragen unbewusste Erfahrungen mit wichtigen Menschen in kritischen
Phasen in die Gegenwart und auf den Therapeuten. Sie erinnerten sich nicht, sondern
erlebten die Vergangenheit neu. Wenn die Patientinnen sich ihre Übertragungen bewusst
machten und verstanden, dann können sie ihre verzerrte Sicht der Realität korrigieren. „Auf
diese Weise ließen sich die Erinnerungen und die zugrunde liegenden neuronalen Netze
verändern und überschreiben“ (S. 41 „Depression und Neuroplastizität“).
In der Therapie ist Wiederholung notwendig, damit sich die neuen Muster verstärken und
die alten geschwächt/verlernt werden können.
Neuroplastizität beschreibt damit den Vorgang, der mit der Veränderung der Stärke von
Verbindungen zwischen Nervenzellen einhergeht. Die Veränderung der Größe der
synaptischen Kontaktfläche durch das Wachstum des Endknopfs und der gegenüber
liegenden Auftreibung (dendritischer Dorn)
41
Grundlage für Neuroplastizität ist, dass das Gehirn IMMER LERNT: Das Gehirn passt sich
laufend an, es unterscheidet nicht zwischen Erziehung und Bildung. Elektrische Impulse
werden von Gehirn aufgenommen, weitergeleitet und verarbeitet, wobei sie über
Verbindungstellen zwischen Nervenzellen laufen (Synapsen). Deren Benutzung führt zur
Verstärkung, der Nicht-Gebrauch zu einer Abschwächung bzw. Zum Wegfall der Verbindung.
Die Gesamtheit dieser Veränderungen nennt man Lernen.
Unser Gedächtnis ist nichts anderes als die Summe der Spuren vergangener Erlebnisse,
durch welche die Synapsen in ihrer Stärker verändert wurden. Wiederholung ist gut für das
Lernen, weil dann Impulse immer wieder über die entsprechenden Synapsen laufen und sich
diese durch den wiederholten Gebrauch nachhaltig ändern = „Gedächtnisspuren“.
Wann immer das Gehirn gebraucht wird, ändert es sich, zwar nur wenig, aber doch. Einmal
angelegte Spuren, werden immer wieder benützt, auch wenn sie nicht mehr optimal passen,
denn das Gehirn ist bequem.
Eine Erfahrungsabhängige entstanden Gedächtnisspuren sorgen damit automatisch für ihre
eigene Verfestigung. Anhand einzelner Erlebnisse werden nicht Einzelheiten gespeichert,
sondern allgemeine Regeln und Zusammenhänge, Fertigkeiten, Fähigkeiten, Einstellungen
und Haltungen. Durch Spielen werden diese neuen Fähigkeiten geübt und wiederholt.
In der Gegenwart:
42
Dieser Brain Scan zeigt, wie Psychotherapie auf jene Regionen im Gehirn wirkt, die
zwanghaftes Verhalten steuern. Diese Veränderung tritt nach ca. 10 Wochen Therapie auf.
Obwohl unsere Gehirne ähnlich aufgebaut sind, sind sie nicht gleich, keines ähnelt dem
andern. Bis zu den 70er Jahren bestand der Glaube, dass unsere Gehirnfunktionen, haben
wir das Erwachsenenalter erreicht, stabil an einen bestimmten Ort im Gehirn lokalisiert sind.
Neuere Erkenntnisse – die wir vor allem bildgebenden Verfahren verdanken – zeigen, dass
Gehirnfunktionen sich nicht nur verändern sondern auch „umgesiedelt“ werden können. Am
deutlichsten zeigten dies Bilder von Gehirnen von vor kurzem erblindeter Menschen.
Menschen, die ihr Augenlicht verloren haben, brauchen die Nervenzellen im Gehirn, die für
das Sehen zuständig sind, nicht mehr. Diese Felder werden „umprogrammiert“. So hören
und fühlen Blinde tatsächlich genauer, weil ihnen im Gehirn dafür mehr Nervenzellen zur
Verfügung stehen. Doidge nennt dies das Prinzip des „use it or lose it”. Was nicht mehr
verwendet wird, wird umfunktioniert und steht dann auch nicht mehr zur Verfügung. Ein
spannender Gedanke, der sich in der Psychotherapie weiterspinnen lässt.
43
Einführung in die
Differentielle Psychologie und
Persönlichkeitsforschung
für angehende PsychotherapeutInnen und
PsychotherapiewissenschaftlerInnen
Teil 3
Vortragende: MMag. Dr. Nina Petrik
T: 0660 7389932
M: [email protected]
W: www.kbt-wien.at
W: www.sportpsychologie.or.at
44
Entwicklung der Intelligenzforschung:
Zunächst die Frage:
Warum sollten sich angehende Psychotherapeuten mit Intelligenzforschung
und Intelligenzdiagnostik beschäftigen?
Diagnostische Instrumente dienen unterschiedlichen Zielsetzungen und im klinischen Bereich ist ihre
Bedeutung mittlerweile akzeptiert. (Diagnostik von Störungsbildern mittels Fragebögen,
Ratingskalen, strukturierten Interviews, etc.) Das Ergebnis dieser Testungen und Interviews ist eine
Diagnose, die dem Therapeuten Hinweise auf die Art der Behandlung gibt und die für die gängigen
Krankenkassen Grundlage für die Mit- oder Vollfinanzierung der Therapie darstellt. Diagnostik ist
sehr wichtig und wird deshalb als eigenes Fach unterrichtet.
Intelligenzdiagnostik ist Teil der Leistungsdiagnostik. Diese hat das Ziel, die Leistungsfähigkeit und
indirekt damit auch die Gesundheit ihres Gehirns zu messen und Aussagen über Ursachen von
Veränderung zu machen.
So gibt es bereits ein breites Spektrum an Forschungsergebnissen zum alternden Gehirn oder zu
Veränderungen von z.B. Gedächtnisleistungen bei psychischer Erkrankung.
Leistungsdiagnostik will aber nicht nur Krankheit erklären, sondern auch Möglichkeiten aufzeigen,
wie das (gesunde) Gehirn sein Potenzial entwickeln kann.
In der psychotherapeutischen Praxis ist die Messung der Intelligenz dann bedeutsam, wenn Klienten
sich Sorgen über ihre intellektuellen Fähigkeiten machen. So berichten sehr viele depressive Klienten
über Verschlechterungen ihrer Konzentration und Merkfähigkeit. Hier ist die Zusammenarbeit mit
Klinischen Psychologen notwendig, deren Aufgabe es ist zu unterscheiden ob die berichteten
Störungen Teil der psychischen Erkrankung sind (wie etwa bei Depressionen, schizophrenen
Erkrankungen, Zwangsstörungen und als Begleitsymptome einer PTBS) oder ob es sich um
dementielle Prozesse handelt, um die geeignete Therapieform vorzuschlagen. Je nach Ergebnis
ergeben sich unterschiedliche Schwerpunkte für die Behandlung und Therapieplanung.
Ein weites und wenig erforschtes Feld ist z.B. Psychotherapie für Menschen mit geistiger
Behinderung.
Aufgaben der Leistungsdiagnostik
1. Beurteilung der aktuellen kognitiven Leistungsfähigkeit bei Patientinnen mit
Störungsbildern, die häufig durch kognitive Defizite gekennzeichnet sind : Schizophrenie,
Depression, Zwangsstörung, PTSD, Aufmerksamkeits-störung (ADS) im Erwachsenenalter.
2. Therapie- und Rehabilitationsplanung
3. Diagnosestellung bei Störungsbilden, die eine psychometrische Beur-teilung des
Leistungsniveaus erfordern (Demenz, Intelligenzminderung, Entwicklungsstörung)
4. Differentialdiagnose (z.B. Depression versus Demenz)
5. Begutachtung (Berufsunfähigkeit, Erwerbsunfähigkeit]
45
Zum Beispiel können kognitive Defizite bei schizophrenen Klienten mehr Einfluss auf den
Therapieverlauf haben, als die eigentlichen schizophrenen Symptome. Die Diagnostik dieser Defizite
ist wichtig für die Therapieplanung.
Zudem sind die subjektiv empfundenen Leistungsdefizite, von denen Klienten immer wieder in der
Therapie berichten, sehr belastend und ängstigend. Klienten neigen dazu dies als Hinweis auf die
eigene Willensschwäche („Ich streng mich nicht genug an“), auf Kontrollverlust („Mein Gehirn
gehorcht mir nicht mehr“) oder beginnende Demenz („Ich verblöde zusehends“) zu deuten. Die
Testung der Intelligenz und Aufklärung über typische krankheitsbedingte Einschränkungen wirkt
entlastend und fördert einen bewältigungsorientierten Umgang. Zudem gehört es immer mehr zu
den Aufgaben der niedergelassenen Psychotherapeuten „Befunde“ für Krankenkassen, Pensionsversicherungen und Arbeitsmediziner zu erstellen.
Häufig wird von Leistungstests erwartet, dass sie eindeutig klären, ob die beobachteten
Leistungsdefizite hirnorganischer Natur sind oder Teil einer „rein“ psychologisch bedingten
Erkrankung. Diese Erwartung werden durch die gängigen Tests enttäuscht, da wohl festgestellt
werden kann, dass Leistungsdefizite bestehen, über die Ursachen und Art der Schädigung kann ein
Test allerdings kaum Auskunft geben.
Hier ein Auszug aus dem ICD-10 (International Statistical Classification of Diseases and Related Health
Problems):
46
47
48
Robert J. Sternberg, Professor an der Yale University und einer der führenden Intelligenzforscher
meinte dazu, dass Intelligenz eine wichtige Bedeutung hat für uns sowohl bei unseren alltäglichen
Entscheidungen als auch bei Entscheidungen, die unsere nahestehenden Menschen betreffen. Wir
haben eine Meinung von unserer eigenen Intelligenz (unabhängig von den Noten, die wir vielleicht
bis jetzt bekommen haben) und wir haben eine Meinung über die Intelligenz unserer Freunde und
Familienangehörigen. Unsere Eltern haben eine Meinung zu unserer Intelligenz und haben sicherlich
auch Einfluss darauf zunehmen versucht, indem sie uns förderten, bestimmte Ausbildungen nahe
legten, etc. Dieses Bild von unserer eigenen Intelligenz hat uns bewegt: zu lernen, uns zu entwickeln,
weiterzumachen oder auf zu geben.
Dieses Bild ist jedoch kein wissenschaftliches. Es ist eine implizite Theorie der Intelligenz.
Genauso wie wir implizite Theorien über Persönlichkeit haben, haben wir auch implizite Theorien
über Intelligenz. Sie besteht aus unseren alltäglichen Vorstellungen darüber und laut Sternberg
(2001) sind diese Theorien eine wichtige Grundlage für die Erforschung der Intelligenz.
Sie sind wichtig,
[1] weil sie praktische Relevanz für das Alltagsleben besitzen, sie darüber bestimmen, auf welche
Weise Menschen ihre eigene Intelligenz und die Anderer wahrnehmen und beurteilen, weil sie
bestimmen, welche Schlüsse wir aus diesen Urteilen ziehen und zu guter Letzt welche
Entscheidungen wir im Alltag treffen.
[2] weil sie die Grundlage für formalere Theorien der Intelligenz bilden, die sich wissenschaftlich
untersuchen lassen.
[3] weil sie einen sinnvollen Ansatz für weitergehende Studien bieten.
[4] weil sich aus ihnen weitere Theorien bilden lassen wie z. B. Konstrukte über
Intelligenzentwicklung, kulturübergreifende Aspekte von Intelligenz, ...
Studien zur Erforschung der impliziten Laientheorien
(Ein Laie ist eine Person ohne Fachkenntnisse auf einem bestimmten Gebiet.)
Robert J. Sternberg
wurde 1949 in den USA geboren. Er wurde aufgrund eines schlechten Intelligenztests später
eingeschult und war an der Universität anfangs auch nicht der Beste. Später schloss er jedoch mit
Auszeichnung ab. Er hat in Stanford promoviert und besitzt heute vier Ehrendoktortitel.
1981 untersuchten Sternberg und drei Kollegen in mehreren Studien, welche Vorstellungen von
Intelligenz ihre Versuchspersonen hatten. Die Teilnehmer an der ersten Studie waren 61 Leute, die in
einer College-Bibliothek lernten, 63 Leute, die gerade einen Supermarkt betreten hatten und 62
Leute, die an einem Bahnsteig auf einen Zug warteten. Diese Leute wurden gebeten
Verhaltensweisen aufzulisten, die charakteristisch für „Intelligenz“, „akademische Intelligenz“,
„Alltagsintelligenz“ und „Dummheit“ seien.
Anschließen wurden in der zweiten Studie 122 andere Leute aufgefordert, die in der ersten Studie
gesammelten Beschreibungen von Verhaltensweisen in Hinblick darauf zu beurteilen, wie zutreffend
sie Aspekte von Intelligenz wiederspiegelten. Anhand der Befunde dieser beiden Studien
identifizierten Sternberg et al. drei Intelligenzdimensionen in ihrer Stichprobe:
(1) Praktisches Problemlösen bezeichnet die Fähigkeit, Probleme in alltäglichen Lebens- und
Beziehungssituationen praktisch und logisch anzugehen. Wenn jemand ein Problem hat,
dann kann sich dieser davon überwältigt fühlen oder eben die Situation gut analysieren und
49
auf diese Analyse Entscheidungsprozesse aufbauen. Gute praktische Problemlöser sind in der
Lage eine Situation aus unterschiedlichen Perspektiven zu betrachten und dabei mögliche
Lösungen zu entwickeln.
(2) Verbale Fähigkeiten beschreibt die Fähigkeit sich verbal gut ausdrücken zu können und sich
sicher und redegewandt mit anderen zu unterhalten. Jemand mit einer hohen verbalen
Fähigkeit versteht die korrekte Bedeutung eines Wortes, kann Sprache sicher verwenden,
kann den Inhalt geschriebener Texte rasch erfassen, erkennt fehlende Wörter in Sätzen und
kann sich bei Bedarf allgemeinverständlich ausdrücken. Außerdem beinhaltet verbale
Fähigkeit auch die Fähigkeit, Analogien zu erkennen (das ist die Fähigkeiten, Ähnlichkeiten
bei ansonsten unähnlichen Dingen zu erkennen, z. B. Katze zu Miau wie Hund zu ….) und
Antonyme zu verwenden (ein Antonym ist ein Wort, das das Gegenteil eines andere Wortes
bedeutet: glücklich / unglücklich, reich / arm). Es ist auch die Fähigkeit in Sprachbildern
sprechen zu können (z. B. Peter ist ein Schrank).
(3) Soziale Kompetenz bezeichnet die Fähigkeiten, die notwendig sind, um ein sozial,
akzeptiertes und erfülltes Leben zu führen. Jemand, der über hohe soziale Kompetenz
verfügt, zeigt ein hohes Maß an Wissen, Verstehen und Zutrauen in Bezug auf sich selbst und
andere und ist zum Umgang mit anderen Menschen motiviert. Weiterhin hat der Betreffende
ein hohes Maß an Selbstwahrnehmung, gute interpersonelle Fähigkeiten und eine gute
Balance zwischen Unabhängigkeit und Interdependenz (bedeutet auf personelle
Beziehungen angewiesen sein). Dazu gehören auch die Bereitschaft von persönlicher
Verantwortung und eine positive Wertschätzung seiner Mitmenschen.
In einer zweiten Untersuchung widmete sich Sternberg der Frage, welche Theorien der Intelligenz
von Laien vorliegen. Er befragt insgesamt 46 Erwachsene, welche Verhaltenseigenschaften für sie
typisch für eine im höchsten Maß intelligente Person seien. Er erhielt 40 Deskriptoren, die er
wiederum von College-Studenten aus Yale dahingehend sortieren ließ, welche der Eigenschaften
wahrscheinlich gemeinsam in einer Person auftreten. Die Ergebnisse waren ähnlich der ersten Studie,
allerdings fand Sternberg diesmal sechs Aspekte der Intelligenz:
(1) Praktische Problemlösefähigkeit (z. B. kann mögliche Ziele erkennen und erreichen, kann gut
zwischen richtigen und falschen Antworten unterscheiden, ...)
(2) Verbale Fähigkeiten (z. B. verfügt über einen reichhaltigen Wortschatz, kann sich über fast
jedes Thema unterhalten, ...)
(3) Intellektuelle Ausgeglichenheit und Integration (z. B. kann Gemeinsamkeiten und
Unterschiede erkennen, kann Dinge verbinden und trennen, ...)
(4) Zielorientiertheit und Verwirklichung eigener Ziele (z. B neigt dazu, Informationen für
bestimmte Zwecke zu sammeln und zu verwenden, ist zu hohen Leistungen fähig, ...)
(5) Kontextuelle Intelligenz (z. B. gewinnt Informationen aus vorangegangene Fehlern oder
Erfolgen und lernt daraus, verfügt über die Fähigkeit, sein Umwelt zu verstehen und zu
deuten, …)
(6) Flüssiges Denken (z. B. denkt schnell, hat guten Zugang zu mathematischen Dingen, ...)
50
Implizite Laientheorien zur Intelligenz im Kulturvergleich
Die Vorstellungen von dem, was Laien als intelligent bezeichnen, unterscheiden sich je nachdem in
welchem Winkel der Erde man danach fragt. Einig ist man sich darüber, dass im Westen eher
mentale Verarbeitungsgeschwindigkeit und die Fähigkeit, Informationen rasch und effizient zu
sammeln, aufzunehmen und zu sortieren, betont werden. Zentrales Moment ist im Westen die
Geschwindigkeit. Wer schnell, klar und flüssig seine Ideen kommunizieren kann und Probleme schnell
lösen kann, gilt als intelligent.
In Kulturvergleichen kann man zu unserem Bild von Intelligenz Abweichungen aber auch
Gemeinsamkeiten finden.
Der Schwerpunkt der Erforschung kultureller Unterschiede liegt in Untersuchungen des
Zusammenhangs zwischen Intelligenz, Selbst und der sozialen Umwelt. Demetriou und
Papadopoulous (2004) fanden heraus, dass sich westliche Betrachtungsweisen von Intelligenz eher
auf das Individuum beziehen, hingegen in östlichen Kulturen Intelligenz zusätzlich Wissen um soziale,
historische und spirituelle Aspekte des Alltagslebens miteinbezieht. So umfasst die Dimension
„Problemlösefähigkeit“ in östlichen Kulturen nicht nur die Fähigkeiten des Individuums selbst,
sondern auch die Fähigkeit, die Familie um Rat zu fragen, geschichtliches Wissen anzuwenden und
die eigenen spirituellen Bedürfnisse zu berücksichtigen.
Shih-Ying Yang und Robert Sternberg (1997) untersuchten Ideen von Intelligenz in der chinesischen
Philosophie, in den beiden wichtigen spirituellen Traditionen Chinas: dem Konfuzianismus (Konfuzius
551 – 479 v. Chr.) und dem Daoismus/Taoismus (einer indigenen Hochreligion). Sie fanden, dass in
der konfuzianischen Philosophie, Wohltätigkeit und rechtschaffenes Handeln als wichtiger Teil von
Intelligenz genannt wird. In der taoistischen Tradition liegt der Schwerpunkt eher auf Bescheidenheit,
51
Freiheit von traditionellen oder konventionellen Urteilsmaßstäben, die Fähigkeit zur Wahrnehmung
von Veränderungen in den äußeren Umständen und zur Anpassung daran sowie die Fähigkeit,
umfassendes Wissen über sich selbst und äußere Umstände zu zeigen.
Ein US-amerikanisches Forscherteam um Bibhu Baral untersuchte Intelligenzdefinitionen in Indien. In
Indien werden hoch differenziertes Denken, Urteilen und Entscheiden als wichtige Aspekte der
Intelligenz angesehen. Dabei ist es bedeutend, wie diese Aspekte zusammenwirken. Optimales
zusammenwirken wird durch mentale Harmonie erreicht, die aus Selbstwahrnehmung und
Gewissenhaftigkeit resultiert. Dazu gehört weiter Wertschätzung anderer, Höflichkeit, Interessen an
anderen Menschen und Bescheidenheit.
Yang und Sternberg führten eine Follow-up-Untersuchung zur chinesischen Philosophie bei
taiwanesischen Studenten durch. Sie befragten 68 Studenten nach Deskriptoren von Intelligenz und
ließen diese von 434 Personen in Hinblick auf die Relevanz für intelligentes Verhalten sortieren. Sie
fanden fünf Aspekte von Intelligenz:
1. Genereller kognitiver Faktor (entspricht der westlichen Idee vom praktischen Problemlösen)
2. Interpersonelle Intelligenz (bezieht sich auf den harmonischen und effizienten Umgang mit
andere Menschen, Warmherzigkeit, Anteilnahme, Höflichkeit, ...)
3. Intrapersonelle Intelligenz (bezieht sich auf das Wissen um das eigene Selbst und die
Fähigkeit, sich objektiv zu sehen z. B.: „Akzeptiert andere Meinungen“)
4. Intellektuelle Selbstbehauptung (Selbstsicherheit und Selbstbewusstsein in Bezug auf die
eigene Intelligenz z. B.: „Stellt die eigenen Interessen an erste Stelle“, „Gewinnt rasch die
Sympathie anderer“, „Ist hochnäsig und arrogant“)
5. Intellektuelle Zurückhaltung (Bescheidenheit oder Demut in Hinblick auf den eigenen
Intellekt „ist einsam, sensibel“, ...)
Am deutlichsten tritt bei diesen kulturvergleichenden Studien hervor, dass im Westen mit Intelligenz
eher kognitive Fähigkeiten gemeint sind und im Osten diese um die sozialen, historischen und
spirituellen Komponenten ergänzt werden.
Woong Lim, Jonathan A. Plucker aus den USA sowie Kyuhyeok aus Korea führten einige Studien in
Korea durch und konnten fünf Intelligenzfaktoren finden:
1. Soziale Kompetenz
2. Problemlösefähigkeit
3. Bewältigung neuer Anforderungen
4. Selbstverantwortliches Handeln
5. Praktische Kompetenz
Da diese Faktoren den westlichen sehr ähnlich sind, fragten die Forscher auch nach deren
Gewichtung. In Korea wird Selbstverantwortung und soziale Kompetenz höher geschätzt als im
Westen.
Seit einiger Zeit werden in den asiatischen Ländern westliche Intelligenztests verwendet. Man kann
vermuten, dass dies auch einen Einfluss auf die Laientheorien sowie auf das kulturelle Verständnis
von Intelligenz hat bzw. haben wird. Dies ist noch nicht ausreichend erforscht und wird in Zukunft
noch viele Fragen aufwerfen.
Fang und Keats (1987) untersuchten Vorstellungen über Intelligenz in China und Australien und
fanden folgende Gemeinsamkeiten: Erwachsene in beiden Ländern waren der Ansicht, dass
52
Bereitschaft zum Denken, vielseitige Interessen und Unabhängigkeit im Denken Anzeichen von
Intelligenz seien.
Unterschiede fanden sie bei den australischen Probanden dahingehend, dass diese
Problemlösefähigkeit, logisches Denken wichtig fanden, die chinesischen hingegen Lernfähigkeit,
analytische Fähigkeit, scharfes Denken und offenkundiges Selbstvertrauen.
Chen und Chen (1988) verglichen implizite Theorien von Intelligenz bei Schülern in chinesischen und
englischsprachigen Schulen.
Beide Gruppen nannten nonverbales Denken, verbales Denken, soziale Fertigkeiten,
Rechenkenntnisse und Gedächtnisleitungen als wichtige Deskriptoren. Die chinesischen Schüler
fanden aber sprachliche Fähigkeiten weniger wichtig als die englischsprachigen.
Durch die Angleichung der Kulturen durch neue Medien hat sich diesbezüglich sicher viel verändert
und es gibt viele Fragen, die bislang unbeantwortet blieben.
53
Die Veränderung impliziter Theorien über die Lebensspanne hinweg
Dieses Kapitel behandelt die Fragen, ob unsere Intelligenz über die Lebensspanne hinweg gleich
bleibt und ob sich unsere Ansichten darüber, was intelligentes Verhalten ist ändern, je nach zu
beurteilender Altersgruppe?
 Was halten erwachsene Menschen bei anderen Menschen unterschiedlicher Altersstufen
für intelligent?
 Gehen Sie davon aus, dass intelligentes Verhalten bei einem 15-jährigen mit intelligentem
Verhalten bei einem 35-jährigen identisch ist?
Der Psychologe Prem Fry (1984) verglich implizite Theorien der Intelligenz in Bezug auf drei
Schulstufen: Grundschule (5 – 11 Jahre), Mittelschule (11 – 18 Jahre) weiterbildende Schulen (18+).
Die Versuchspersonen waren Lehrer, die ideal intelligente Schüler beschreiben sollten.
Idealintelligente Grundschüler sind:
 beliebt,
 freundlich,
 respektieren Regeln und Gesetzte,
 haben Interesse an der Umwelt.
Idealintelligente Mittelschüler haben folgend Eigenschaften:
 Tatkraft,
 Flüssige Ausdrucksweise.
Idealintelligente Studenten verfügen über:
 logisches Denken,
 breitgefächertes Wissen,
 schlussfolgendes Denken,
 Fähigkeit erwachsen und effizient mit Problemen umzugehen.
Cynthia Berg und Robert Sternberg untersuchten, ob sich Konzepte über Intelligenz bei Erwachsene
der Gruppen 30/50/70 Jahre unterscheiden. Sie untersuchten Beschreibungen von
„durchschnittlicher“ und „außergewöhnlicher“ Intelligenz. Durchschnittlich wurde bei allen drei
Altersgruppen die Fähigkeiten zum Umgang mit Neuem, Kompetenz im Alltagsleben und verbale
Kompetenz angesehen. In Bezug auf außergewöhnliche Intelligenz hingegen wurde das Interesse am
und die Fähigkeit zum Umgang mit Neuem bei den zu beschreibenden 30-jährigen betont.
Kompetenz im Alltagsleben und verbale Kompetenz als wichtig bei außergewöhnlich intelligenten 50und 70-jährigen.
 Wie verändert sich die Vorstellung von Intelligenz bei Menschen im Laufe ihres Lebens?
Sind die Ansichten in Bezug darauf, was intelligent ist, bei 15-jährigen und 35-jährigen
identisch?
Yussen und Kane (1985) untersuchten diese Frage und befragten 71 Schüler zwischen 11 und 16
Jahren. Ältere Schüler beschreiben Intelligenz als etwas, das aus mehreren Kategorien besteht. Sie
konnten zwischen diese Kategorien differenzieren und sie erachteten Wissen als wichtiger als soziale
Kompetenz. (Es kann jemand akademisch gebildet und trotzdem sozial ungeschickt sein.)
54
Jüngere Schüler sahen Intelligenz als eindimensional (jemand ist intelligent oder eben nicht.)
Außerdem waren jüngere Schüler eher überzeugt davon, dass Intelligenz biologischen Ursprungs,
also angeboren sei. Ältere Schüler glaubten an einen Zusammenhang zwischen Anlage und Umwelt.
Warum verändert sich diese Sichtweise?
Ältere Schüler sind kognitiv gereift, sie können komplexer denken und sie haben schon Erfahrung mit
dem Schulsystem sammeln können (Sozialisation), in dem auch sie differenziert bewertet werden.
Die Sichtweise von Experten zum Thema Intelligenz:
Die wissenschaftliche Erforschung der Intelligenz hat eine mehr als 100 Jahre alte Tradition. Der
richtige Boom ging allerdings erst 1921 los, als die Herausgeber des „Journal of Educational
Psychology“ in einer Sonderausgabe die berühmtesten 14 Theoretiker der damaligen Zeit
beschrieben ließen, was für sie Intelligenz sei. Diese Befragung wurde 1986 mit 24 Experten
wiederholt und das Ergebnis war nicht viel besser. Die Definitionen unterschieden sich immens.
Sternberg und Detterman resümierten daraus Folgendes:
 Es gibt keinen Konsens in Bezug auf die Definition von Intelligenz, aber es gibt
wiederkehrende Themen und eine gewisse Übereinstimmung darin, dass bestimmte
Qualitäten der Intelligenz wie Anpassung an die Umwelt, grundlegende mentale
Verarbeitungsprozesse und Aspekte des höheren Denkens wie Schlussfolgern, Problemlösen
und Entscheidungsfindung wichtige Deskriptoren sind.
 Eine weitere Erkenntnis dieser Untersuchung ist, dass es noch viel Diskussion brauchen wird,
da man noch nicht einig darüber ist, ob Intelligenz ein abgegrenzte Eigenschaft ist oder ein
Vielzahl verschiedener Fähigkeiten und Verhaltensweisen umfasst.
Sternberg befragte 200 Professoren für Kunst, Wirtschaft, Philosophie und Physik nach Deskriptoren
von Intelligenz. Erwartungsgemäß fielen diese sehr unterschiedlich aus:
55
Richtig ernst wurde es in der Intelligenzforschung 1994. In diesem Jahr gaben die Forscher Hernstein
und Murray ein Buch mit dem Titel „The Bell Curve: Intelligence and Class Structure in American
Life“ heraus. Darin ging es um verschiedene Dinge in Zusammenhang mit Intelligenz, darunter auch
ihre Erblichkeit. Diese Forscher prognostizierten, dass sich in den USA eine kognitive Elite
herausbilden werde. Diese Prognose rüttelte die Wissenschaftscommunity auf. Solche Aussagen
könnten hohe politische Brisanz haben, den wäre dem tatsächlich so, dann würde der Staat eventuell
Förderungen für Schulen und Bildung zurück ziehen, da es ohnehin keinen Sinn mache zu investieren.
Auch die Diskussion ob Intelligenz und Hautfarbe zusammenhängt, wurde wieder angefacht. Das
Buch wurde nicht nur inhaltlich sondern auch methodisch scharf kritisiert. Die Amerikanische
Vereinigung der Psychologen rief eine Fachgruppe ein, die einen Untersuchungsbericht zu diesem
Buch anfertigen und letztendlich den aktuellen Wissensstand zum Thema Intelligenz dokumentieren
sollte. Geleitet wurde diese Gruppe von Ulric Neisser.
Es wurde festgehalten, dass folgende Dinge noch offen sind:
 die genaue Natur des Einflusses genetischer Faktoren auf die Intelligenz,
 die genaue Natur des Einflusses umweltbezogener Faktoren,
 die genaue Natur des Einflusses der Ernährung,
 weshalb es Unterschiede im Abschneiden bestimmter Gruppen in Intelligenztests gibt.
Theorie und Messung der Intelligenz: Intelligenztests
Die Grundlagen für die moderne Intelligenztheorie und –forschung wurde Ende des 19. Jahrhunderts
von zwei Wissenschaftlern geschaffen, Sir Francis Galton und Alfred Binet.
1965 begann Galton – inspiriert durch seinen Cousin Charles Darwin – mit der Erforschung der
Vererbung. Er entwickelte Darwin´s Konzept der Variation weiter und untersuchte diese im
menschlichen Verhalten. Er war überzeugt, dass Genialität vererbt wurde. Bemerkenswert ist, dass
Galton als erster versuchte den wissenschaftlichen Beweis zu erbringen, dass Menschen
unterschiedlich intelligent sind. Das impliziert, dass Intelligenz direkt messbar ist. Da er ein sehr
biologisch orientiertes Weltbild hatte, lautete seine Theorie, dass intelligente Menschen eingehende
Sinnesinformationen adäquat handhaben könnten.
Menschen mit niedriger Intelligenz würden auf sensorischen Input weniger reagieren als Menschen
hoher Intelligenz. Dazu vermaß er in seinem anthropometrischen Labor Menschen nach ihrer Hör-,
Sehfähigkeit, ihrer Fähigkeit Hitze oder Kälte zu ertragen etc.
Natürlich hat schlechtes Sehvermögen nichts mit Intelligenz zu tun. Das ist uns heute klar.
Bemerkenswert ist auch weniger der Inhalt seiner Messungen als der Umstand, dass er überzeugt
davon war, dass Intelligenz überhaupt messbar sei. Einige seiner Maße – wie etwa Reaktionszeiten –
werden heute noch standardmäßig bei psychologischen Tests angewendet.
Alfred Binet
Entwickelte den ersten Intelligenztest. 1904 wurde er vom französischen Bildungsministerium dazu
beauftragt ein Verfahren zu entwickeln, mit dem minderbegabte Kinder identifiziert und einer
Förderung zugeführt werden können. Gemeinsam mit Theodore Simon entwickelte er den BinetSimon-Test. Dieser enthält 30 kurze Aufgaben mit ansteigendem Schwierigkeitsgrad zu
Alltagsaufgaben von Kindern.
56
Zu diesen Aufgaben zählten:
 Einem hin und her bewegten brennenden
Streichholz mit den Augen folgen
 Hände schütteln
 Körperteile benennen
 Münzenzählen




Objekte in einem Bild benennen
Einige Zahlen aus einer dargebotenen
langen Liste erinnern
Wörter definieren
Fehlende Wörter in einem Satz ergänzen.
Die letzte noch geschaffte Aufgabe definierte das Intelligenzniveau.
Jedes Schwierigkeitsniveau wurde so angelegt, dass es für einen bestimmten Entwicklungsstand bei
Kindern zwischen drei und zehn Jahren stand. Dieser Test konnte also jedem Kind und jedem realen
Alter ein geistiges Alter zuordnen. Schnitt z. B. ein fünfjähriges Kind gut ab, so konnte es geistig
sieben Jahre alt sein.
Die Berücksichtigung des Alters war einer der herausragenden Beiträge Binet´s zur
Intelligenzforschung. Etwas, das für uns heute so selbstverständlich ist!
Binet´s Arbeit war auch aus anderen Gründen ein Meilenstein: Zum ersten Mal konnte man die
Intelligenz von Kindern mit einer altersgleichen Gruppe vergleichen.
Weitere Ansätze zur Messung von Intelligenz: Der IQ
Lewis M. Terman
Fand heraus, dass der Binet-Simon-Test bei kalifornischen Schulkindern zu keinen guten Ergebnissen
führte und überarbeitete ihn. Er testete seine Version an über 1000 Kindern und konnte so auf eine
viel breitere Datenbasis zurückgreifen als Binet und Simon. Dies führte zu einer breiten Akzeptanz
standardisierter Testverfahren.
William Stern
Entwickelte 1912 den Intelligenzquotienten „IQ“ Stern bemerkte, dass das geistige Alter von Kindern
proportional zu ihrem realen Alter variierte. Ein sechsjähriges Kind mit einem geistigen Alter von fünf
Jahren wird mit zehn Jahren ein geistiges Alter von acht Jahren haben.
Teilt man nun das geistige Alter durch das reale Alter bekommt man einen konstanten Wert, den IQ.
Ein IQ von 100 bedeutet normale Entwicklung.
57
Robert Yerkes
Entwickelte zwei Gruppen von Tests im Auftrag des Militärs. Yerkes bekam den Auftrag die Rekruten
der US-Armee zu testen, damit sie mit angemesseneren Aufgaben betraut werden können. Ein
wichtiges Kriterium für diese Tests war, dass sie zeitökonomisch ablaufen sollten, da zur gleichen Zeit
sehr viele Rekruten zu testen waren. Yerkes entwickelte das erste Gruppentest-verfahren.
Gemeinsam mit 40 Psychologen schuf er zwei Arten von Tests, den Army-Alpha-Test und den ArmyBeta-Test.
Der Army-Alpha-Test:
Dies war eine Testbatterie für alphabetisierte Rekruten. Er testete Wissensgrundlagen im mündlichen
und schriftlichen Bereich. Dazu zählten unter anderem:
 Befolgen mündlicher Anweisungen, was das Verständnis einfacher und komplexer
Anweisungen erfordert.
 Lösen arithmetischer Aufgaben, wofür Kenntnisse der Arithmetik sowie grundlegende
Fähigkeiten im Kopfrechnen erforderlich sind.
 Verwendung von Synonymen und Antonymen (Kenntnis von „gleichbedeutenden“ und
„gegenteiligen“ Wörtern).
 …
Der Army-Beta-Test
Diese Testbatterie war für Menschen gedacht, die die englische Sprache weniger als sechs Jahre
sprachen oder die nicht lesen und schreiben konnten. Oder für jene Rekruten, die im Alphatest sehr
schlecht abschnitten. Dieser Test kam fast gänzlich ohne Sprache aus.
Die Ergebnisse aus den Subtests wurden addiert und in Kategorien eingeordnet:
A
überdurchschnittlich intelligent
B, C+
durchschnittlich intelligent
C-, D, Dunterdurchschnittlich intelligent.
Yerkes testete bis zum Ende des ersten Weltkriegs 1.250.000 Personen. Später wurde der Test auch
in der Wirtschaft, der Industrie und dem Bildungswesen verwendet.
58
Meilensteine bis dahin waren:
 Die Entwicklung einer offiziellen Richtlinie für die quantitative Messung von Intelligenz, dem
IQ,
 Berücksichtigung von kulturspezifischen Einflussfaktoren.
Der Generalfaktor der Intelligenz (g): Theorie und Messung
Zwischen 1904 und 1927 setzte Charles Spearman einen weiteren Meilenstein bei der Messung der
Intelligenz. Er maß die Intelligenz von Kindern und unterzog alle über Jahre erhobenen Daten einer
Faktorenanalyse. Die Ergebnisse waren:



Es besteht eine positive Korrelation zwischen Intelligenztests. Das bedeutet, wer in einem
Intelligenztest gut abschneidet, schneidet auch in einem Test zu speziellen intellektuelle
Fertigkeiten gut ab.
Diese positive Korrelation nennt Spearman „positive Mannigfaltigkeit“. Aufgrund der
Faktorenanalyse dieser Mannigfaltigkeit entwickelte Spearmann die Zwei-Faktoren-Theorie
der Intelligenz:
o Der g-Faktor („Generalfaktor“): Dieser umfasst die Grundlage aller Leistungen in
Intelligenztests. Für Spearman stellt der g-Faktor eine mentale Energie da, die den
spezifischen Faktoren, den s-Faktoren, zugrunde liegt.
o s-Faktoren („spezifische Faktoren“) sind den g-Faktoren untergeordnet. Sie
beschreiben spezifische Fähigkeiten in den einzelnen Aufgaben von Intelligenztests.
(z.B. sprachliche, mathematische, räumliche Intelligenz,…)
Die gesamte Leistung in einem Intelligenztest entsteht durch das Zusammenwirken von gund s-Faktoren.
Gemessen werden diese Faktoren z. B. im Wechsler Intelligenztest und im RAVEN-Matrizen-Test.
Der Wechsler-Test
Wechsler ging wie Spearman von zwei Faktoren, einem Generalfaktor und einen spezifischen Faktor
der Intelligenz aus. Daraus entwickelte er einen Intelligenztest, der an 1500 Personen geeicht wurde.
 Wechsler Adult Intelligence Scale (WAIS)
 Wechsel Scale for Children (WISC)
Wechslers Tests mussten in Einzelsitzungen getestet werden, sie hatten einen verbalen (V) und einen
Handlungsteil (H). Der Test besteht aus folgenden Teilen:
 Der ‚Mosaik-Test‘ gehört zu den Kerntests des wahrnehmungsgebundenen logischen
Denkens. Mit Hilfe von zweifarbigen Würfeln soll die Testperson unterschiedlich komplexe
Mustervorlagen innerhalb einer vorgegebenen Zeit nachbauen. Der Test soll die Fähigkeit
erfassen, abstrakte visuelle Reize zu analysieren und zu integrieren.
59
 Der Untertest ‚Gemeinsamkeiten finden‘ zählt zu den Kerntests im Index Sprachverständnis.
Er erfasst verbale Konzeptbildung und verbales Schlussfolgern.
 Das ‚Zahlen nachsprechen‘ gehört zu den Kerntests des Index Arbeitsgedächtnis und besteht
aus den drei Aufgabenteilen ‚Zahlen nachsprechen vorwärts‘, ‚Zahlen nachsprechen
rückwärts‘ und ‚Zahlen nachsprechen sequentiell‘.
 Der ‚Matrizen-Test‘ ist der zweite Kerntest des Index wahrnehmungsgebundenes logisches
Denken. Die Person betrachtet eine unvollständige Matrize oder Reihe und wählt aus fünf
Antwortmöglichkeiten das fehlende Teil aus. Der Test erfasst fluide Intelligenz, visuelle
Fähigkeiten, Klassifikationsfähigkeiten, räumlich-konstruktive Fähigkeiten, das Wissen über
Beziehungen zwischen einem Teil und dem Ganzen, die simultane Verarbeitung und
Wahrnehmungsorganisation.
 Der ‚Wortschatz-Test‘ ist der zweite Kerntest des Index Sprachverständnis. Personen
benennen Objekte, die als Bild vorgelegt werden oder sie erklären schriftlich oder mündlich
dargebotene Konzepte. Er erfasst den Wortschatz und die Konzeptbildung einer Person.
 Der Untertest ‚Rechnerisches Denken‘ zählt zu den Kerntests des Arbeitsgedächtnisses. Die
Person löst eine Serie von mündlich vorgegebenen Rechenaufgaben. Dafür sind Fähigkeiten
der mentalen Manipulation, Konzentration, Aufmerksamkeit, Kurz- und Langzeitgedächtnis,
numerisches Schlussfolgern und geistige Wachheit erforderlich.
 ‚Symbol-Suche‘ gehört zu den Kerntests des Index Verarbeitungsgeschwindigkeit. Die
Testperson vergleicht in einer begrenzten Zeit eine Gruppe von abstrakten Symbolen mit
einem Zielsymbol und gibt an, ob sich das Zielsymbol in der Suchgruppe befindet.
 Der Untertest ‚Visuelle Puzzles‘ ist der dritte Kerntest des Index wahrnehmungsgebundenes
logisches Denken. Innerhalb einer bestimmten Zeitgrenze soll die Testperson ein
abgebildetes Puzzle aus drei auszuwählenden Puzzleteilen rekonstruieren. Der Test erfasst
das nonverbale Schlussfolgern und die Fähigkeit, abstrakte Stimuli zu analysieren und zu
integrieren.
=>
60
 Der dritte Kerntest des Index Sprachverständnis ist das ‚Allgemeine Wissen‘. Die Person
beantwortet Fragen zu allgemein bekannten Ereignissen, Sachverhalten, Orten und
Persönlichkeiten. Der Untertest erfasst die Fähigkeit, allgemeines Faktenwissen
anzusammeln, zu behalten und wieder abzurufen.
 Der ‚Zahlen-Symbol-Test‘ gehört zu den Kerntests der Verarbeitungsgeschwindigkeit. Einer
Serie einfacher Ziffern soll die Testperson abstrakte Symbole zuordnen.
 Der Untertest ‚Buchstaben-Zahlen-Folgen‘ kann als optionaler Untertest des Index
Arbeitsgedächtnis für die Altersgruppe 16;00 bis 69;11 eingesetzt werden. Der Person
werden eine Reihe von Buchstaben und Zahlen vorgegeben, die in aufsteigender bzw.
alphabetischer Reihenfolge wiedergegeben werden müssen.
 Der optionale Untertest ‚Formenwaage‘ kann in der Altersgruppe zwischen 16;0 und 69;11
Jahren eingesetzt werden. Er erfasst das wahrnehmungsgebundene logische Denken.
 Der Untertest ‚Allgemeines Verständnis‘ gehört zu den optionalen Untertests des Index
Sprachverständnis. Die Person beantwortet Fragen, die das Verständnis von allgemeinen
Prinzipien und sozialen Situationen oder Regeln erfordern. Mit diesem Untertest werden
verbales Schlussfolgern und Konzeptbildung, verbales Verständnis und Ausdrucksvermögen,
die Fähigkeit, vergangene Erfahrung zu evaluieren und gewinnbringend zu nutzen, die
Fähigkeit praktisches Wissen und Urteilsvermögen zu zeigen, erfasst.
 Der ‚Durchstreich-Test‘ ist ein optionaler Untertest der Verarbeitungsgeschwindigkeit, der
für die Altersgruppe 16;00 bis 69;11 eingesetzt werden kann. Die Person betrachtet eine
Bilderanordnung aus verschiedenen ähnlichen Symbolen und markiert in einer begrenzten
Zeit die Zielsymbole.
 ‚Bilder ergänzen‘ ist ein optionaler Untertest des Index wahrnehmungsgebundenes logisches
Denken. Die Person sieht eine Reihe von Bildern und zeigt oder benennt das wesentliche Teil
oder Detail, das auf dem jeweiligen Bild fehlt.
61
In neueren Auflagen dieses Tests wird die Zweiteilung in Handlungs- und Verbalteil aufgegeben und
die Tests anhand vier Indizes organisiert. Diese sind Sprachverständnis, wahrnehmungsgebundenes,
logisches Denken, Arbeitsgedächtnis und Verarbeitungsgeschwindigkeit.
Wechsler´s Test unterschied sich von den Vorgängern dahingehend, dass er für Menschen aller
Altersstufen konzipiert wurde. Außerdem führte er einen Abweichungs-IQ ein. Dieser sollte ein faires
Bewertungssystem darstellen. Da die Intelligenz in jungen Jahren schnell zunimmt und im Alter mehr
oder weniger stagniert und wir wesentlich länger alt als jung sind, versucht Wechsler Tearmanns IQ
an diesen Umstand anzupassen. Würden nämlich ein 20jähriger und ein 40Jähriger die gleichen
Testergebnisse haben, wäre nach Tearmanns Formel der 40Jährige nur halb so intelligent wie der
20jährige.
Wechsler löste dieses Problem indem er einen
Referenzwert für jede Altersgruppe zur Verfügung stellte. Damit kann man jede Testperson mit dem
Durchschnitt ihrer Altersgruppe vergleichen.
62
Um diese Werte anbieten zu können musste Wechsler eine große Anzahl an Menschen testen und
die Testwerte dann so transformieren, dass sie eine standardisierte Form annahmen. Dazu wurden
die Testpersonen in Schichten eingeteilt, die hinsichtlich Alter, sozioökonomischer Status,
Geschlecht, ... vergleichbar waren. Bei jeder Schichte wurde der Mittelwert so berechnet, dass das
Durchschnittsergebnis 100 ist. Der Testwert einer Person konnte nun zu dem Mittelwert der
Vergleichspopulation in Beziehung gesetzt werden und man konnte die Intelligenz von Menschen
unterschiedlichen Alters (trotz unterschiedlicher Testergebnisse) vergleichen. Zusätzlich wurden IQBereiche zu Kategorien zusammengefasst:
Der RAVEN-Test (=>http://www.raventest.net/=)
John Raven veröffentlichte den Matrizentest („Standard Progressive Matrices“ und „Advanced
Progressive Matrices“). Beide Tests sind sprach- und kulturunabhängig und bestehen aus Matrizen,
die progressiv, also fortlaufend, schwerer werden.
Raven bezieht sich ebenfalls auf den g-Faktor und misst mit seinem Test die abstrakte Fähigkeit,
Zusammenhänge zwischen Objekten, Ereignissen und Informationen wahrzunehmen und daraus
Schlussfolgerungen zu ziehen.
63
Die Standard Progressive Matrices können ab 6 Jahren angewendet werden.
Multifaktorielle Theorie von Thurstone, Cattell und Guilford
Thurstone, Cattell und Guilford versuchten mittels Faktorenanalyse Intelligenz zu verstehen, kamen
aber jeweils zu sehr unterschiedlichen Lösungen.
Thurstones Primärfaktorenmodell:
Thurstone untersuchte die Beziehung zwischen den verschiedenen Arten von Intelligenz und suchte
nach zugrundeliegenden Mustern und Strukturen. Für ihn war der g-Faktor die Folge, nicht die
Ursache der mentalen Fähigkeiten.
Thurstone fand 7 primäre mentale Fähigkeiten:
1. Assoziatives Gedächtnis (= Fähigkeit zum Lernen durch Wiederholung)
2. Rechenfähigkeit (Fähigkeit korrekte mathematische Operationen durchzuführen)
3. Wahrnehmungs- Auffassungsgeschwindigkeit (Fähigkeit zur Wahrnehmung von Details,
Anomalien, Ähnlichkeiten,..)
4. Schlussfolgendes Denken ( Fähigkeit zu induktiven und deduktiven Schlüssen)
5. Räumliches Vorstellungsvermögen (Fähigkeit zur visuell-räumlichen Vorstellung, zur
räumlichen Orientierung und zum Erkennen von Objekten aus unterschiedlichen
Perspektiven)
64
6. Sprachbeherrschung (Fähigkeit zum Lesen, Textverständnis und zum Verständnis verbaler
Analogien)
7. Wortflüssigkeit (Fähigkeit zum Verständnis von verbalen Beziehungen, etwa in Anagrammen)
Thurstone begründete den ersten multifaktoriellen Ansatz in der Intelligenzforschung. Er ging von
mehreren Faktoren aus, die er im I-S-T-2000R-Intelligenztest verwirklichte.
Cattell´s Modell der fluiden und kristallinen Intelligenz:
Cattell´s Modell anerkennt den g-Faktor, er unterteilt ihn in zwei unterschiedliche Komponenten, der
fluiden und der kristallinen Intelligenz. Die kristalline Intelligenz (Gc) besteht aus erworbenem
Wissen (Inhalt). Die fluide Intelligenz (Gf) aus den Fähigkeiten zu Denken (Prozess). Beide stehen in
einer dynamischen Beziehung. Die fluide Intelligenz ist kulturunabhängig, sie ist angeboren und
stabilisiert sich im Erwachsenenalter. Seiner Meinung nach nimmt die kristalline Intelligenz mit dem
Alter zu, die fluide ab.
Viele Intelligenztests messen kristalline Intelligenz. Sie prüfen Wissen ab und sind damit an die
kulturelle Wissensvermittlung gebunden. Aus dieser Kritik heraus entwickelte er einen
kulturunabhängigen Intelligenztest (Culture Fair Test CFT).
Guilford´s Modell der unterschiedlichen Intelligenzen und ihren Kombinationen:
Guilford verneinte die Existenz eines g-Faktors und teilte Intelligenz in 120 verschiedene Fähigkeiten
ein. Grundlegende intellektuelle Fähigkeiten lassen sich in drei Kategorien einteilen:
1. Vorgänge: Evaluation (= Bewertung), konvergente Produktion (= logisches Schlussfolgern),
divergente Produktion (= Kreativität), Gedächtnis (= Abspeichern und Erinnern), Kognition
(=Bewusstheit, Wahrnehmung, Infoverarbeitung),
2. Inhalte: figural, auditorisch, symbolisch, semantisch, verhaltensmäßig (also in welcher
mentalen Form die Inhalte vorliegen)
3. Produkte: Einheiten, Klassen, Beziehungen, Systeme, Transformationen, Implikationen (= die
Art und Weise, wie die Information verarbeitet wird).
65
Guilford´s Modell war sehr komplex und erklärte als erstes wie das Zusammenspiel von
verschiedenen Intelligenzen zur Entstehung von Fähigkeiten führt.
Er entwickelte viele psychometrische Tests, jedoch wurde sein Modell nie endgültig bestätigt.
Robert Sternberg´s Triarchische Theorie der Intelligenz:
Sternberg entwickelte in den 80er Jahren seine eigene Theorie, in der er drei Arten von Intelligenz
identifizierte:
1. Komponenten-Subtheorie,
2. Kontext-Subtheorie,
3. Erfahrungs-Subtheorie.
Ad 1. Komponenten-Subtheorie:
Die Subtheorien beschreiben den internen Aspekt von Intelligenz, der analytischen Intelligenz. Sie
beziehen sich auf interne Mechanismen, die intelligentem Verhalten zugrunde liegen.
Sie besteht aus drei Funktionen:
 Metakomponenten: dienen dazu Probleme zu erkennen und Strategien zu ihrer Lösung zu
erarbeiten.
 Performanzkomponenten: beschreiben die Prozesse, die tatsächlich an der Problemlösung
beteiligt sind.
 Wissenskomponenten: beschreiben wie Wissen erworben, verwaltet, bewertet, … wird.
Z. B.: Beim Schreiben Ihrer Seminararbeit kommen Ihnen Zweifel:
 Metakomponenten: Bin ich am richtigen Weg? Wie sicher/unsicher bin ich mir? Wie kann ich
herausfinden, ob ich am richtigen Weg bin?
 Performanzkomponente: Brauche ich Hilfe? Wie bekomme ich Hilfe? Welche Strategie ist
erfolgversprechender?
 Wissenskomponente: Informationen aussortieren, Informationen kombinieren, abwägen,
einarbeiten, …
Ad 2. Kontext-Subtheorie:
Beschreibt die externen Aspekte von Intelligenz, die praktische Intelligenz. Unsere interne Intelligenz
interagiert immer mit einer äußeren Umwelt und die Außenwelt bestimmt wiederum unser
Intelligenzverhalten durch:
 Anpassung (z. B. an die Regeln der Universität, Zitierregeln,..)
 Formung (z. B. Anpassung der Außenwelt an die Innenwelt – Aushandeln von Prüfungsfragen
;O))
 Selektion (z. B. Wahl der Umwelt: SFU nicht Hauptuni, ...)
Um diese Kontext-Subtheorie zu messen, musste Sternberg auf das Konzept des „verborgenen
Wissens“ zurückgreifen. Das verborgene Wissen besteht aus handlungsorientiertem Wissen.
Handlungsorientiertes Wissen basiert auf Prozeduren nicht auf Fakten. (Prozedurales Wissen, also
WIE man etwas tut, nicht was man tut).
Der Begriff „verborgenes Wissen“ oder „tacit knowledge“ geht auf Polanyi (1958) zurück und ging
nicht nur in die Psychologie, sondern auch in die Bildungswissenschaften, Wirtschaftswissenschaften,
und Theologie ein. Polanyi unterteilt Wissen in
66


focal awareness (fokussierte Aufmerksamkeit) und
subsidiary awareness (~ untergeordnete Aufmerksamkeit).
Wenn wir etwas tun, dann ist das immer eine Mischung aus focal und subsidiary awareness. Wir sind
– wenn wir eine Aufgabe erfüllen – uns dieser Tätigkeit bewusst, wir sind fokussiert darauf. Subsidiär
passieren aber viele unterstützende Dinge. Stellen Sie sich ein therapeutisches Erstgespräch vor.
Während sie Fragen stellen (= Fokus), tun sie subsidiär viele andere Dinge: sie beobachten
Körperhaltung, Stimmung, abgespaltene Emotionen, Gegenübertragung, Übertragung, sie machen
sich Notizen, dabei beachten sie Grundlagen der Grammatik, der Rechtschreibung etc., sie
kontrollieren ihre eigene Atmung, die Lautstärke ihrer Stimme, die Betonung der Worte, sie hören zu
und merken sich die Antworten, sie generieren aus dem Gehörten neue Fragen, etc...
Die Theorie besagt nun folgendes: umso mehr jemand Experte in einem Fach ist, desto
differenzierter und umfangreicher ist sein subsidiäres Wissen. Über subsidiäres Wissen (tacit
knowledge) können wir aber keine Auskunft geben. Es wird durch Übung, Lernen am Modell und
Erfahrung und Herausforderung erworben.
Tacit Knowledge wird als Teil der praktischen Intelligenz gesehen, die wiederum ein Teil des GFaktors ist. Sternberg meint, dass das verborgene Wissen ein wichtiger Teil dieser praktischen
Intelligenz ist, der die Unterschiede in der Ausführung/Performance erklärt.
Tacit knowledge is the „informal, implicit knowledge used to achieve goals” (Sternberg,
Wagner, Williams und Horvath 1995)
Beispiele für verborgenes Wissen bei erfolgreichen Studenten (Untersuchung von Leonard und Insch,
2005): Erfolgreiche Studenten haben z. B.
 kognitive Fertigkeiten in Selbstmotivation (z.B.: das Wissen, wie ich mich motiviere am
Samstag in die Vorlesung zu gehen)
 kognitive Fertigkeiten in Selbstorganisation (z.B. das Wissen, wie ich mich innerlich dazu
bringen, konzentriert zu bleiben, „dran“ zu bleiben,..)
 institutionelle technische Fertigkeiten (z.B. wissen, wie man an der Uni zu Wissen kommt,
wie man sich zu Prüfungen anmeldet,..)
 Soziale Fertigkeiten (sich in Lerngruppen organisieren, in mündlichen Prüfungen zu
bestehen,..)
 …
Ad 3. Erfahrungs-Subtheorie:
Sie umfasst die kreative Intelligenz, die Interaktion zwischen Innen- und Außenwelt.
Sternberg unterscheidet zwei Erfahrungs-Subtheorien:
1. Neuheit: Fähigkeit zum Umgang mit neuen Situationen,
2. Automatisierung: Fähigkeit Informationsverarbeitungsprozesse zu automatisieren (z. B.
gleichzeitiges Zuhören und Schreiben, Autofahren und Telefonieren)
Sternberg´s Theorie ist sehr einflussreich, vor allem im Bereich der Erforschung von Hochbegabung,
Kreativität, Weisheit. Er entwickelte den Triarchic Abilities Test, welcher noch nicht evaluiert ist und
sich laufend im Versuchsstadium befindet.
67
INTELLIGENZTESTS:
Wozu brauchen wir Intelligenztests und welche Arten gibt es?
Intelligenztests sind Teil der Leistungsdiagnostik und werden sowohl im beruflichen/schulischen
Kontext als auch im klinischen Bereich eingesetzt.
Im klinischen und edukativen Setting kann die Unterscheidung von hochbegabten, durchschnittlich
intelligenten und minderbegabten Menschen wichtig werden, wenn es um Fragen der Förderung und
Potenzialentfaltung geht.
Dementielle Prozesse zeigen sich in einem Schwinden bestimmter intellektueller Fähigkeiten und
hierbei geht es dann nicht nur um eine Feststellung des „Schadens“ sondern auch darum
herauszufinden, an welchen Punkten Maßnahmen, die den weiteren Abbau verlangsamen können,
ansetzen müssen.
Intelligenztestungen – vor allem im großen Stil - haben immer auch eine politische Komponente. Oft
wurde Intelligenz mit dem Begriff „Rasse“ in Verbindung gebracht. Mittlerweile weiß man, dass
Intelligenz nicht nur mit dem Genmaterial zusammenhängt, sondern sehr stark von Umweltfaktoren
im engeren Sinn (Eltern, Schule, ..) und im weiteren Sinn (Ernährung, Sicherheit,..) zusammenhängt.
In diesem Zusammenhang wird der Flynn-Effekt genannt.
Im Groben wird zwischen psychometrischen und kognitionspsychologischen Tests unterschieden.
Die psychometrischen Verfahren gehen auf die Faktorenanalyse zurück und befassen sich mit
zahlreichen Eigenschaften von Intelligenz. Die kognitionspsychologischen Verfahren suchen – so wie
eigenschaftstheoretischen Verfahren – eine „Grundeinheit“ der Intelligenz zu identifizieren,
allerdings auf biologisch/physiologischem Niveau.
Forscher dieser Richtung versuchen verschiedene biologische Korrelate für Intelligenz zu finden und
zu messen.
Der erste, der dies systematisch betrieb war Friedrich Tiedemann (1836). Er untersuchte die
Gehirngrößen von Verstorbenen und stellte einen Zusammenhang zwischen Intelligenz und Große
her. Seine Ergebnisse wurden später mit neuen bildgebenden Verfahren bestätigt. Es konnte eine
positive Korrelation zwischen Gehirngröße und Intelligenz gefunden werden.
Der Psychologe, Arthur Jensen, zog zur Messung von Intelligenz sogenannte EKAs hinzu. Das sind
elementare kognitive Aufgaben, die zur Messung unterschiedlicher kognitiver Prozesse dienen, zum
Beispiel Identifikation von Reizen, Diskrimination und Auswahl zwischen Reizen, visuelle Suche nach
Reizen, Fähigkeit Dinge zu memorieren und sie aus dem Kurz- und Langzeitgedächtnis abzurufen.
Die Aufgaben waren sehr kurz und einfach gehalten, die Leistung wird in Reaktionszeiten gemessen.
Jensen (1998) unterschied folgende Messgrößen:
(1) Reaktionszeiten: Das ist der Median der Reaktionszeiten eines Probanden, der anhand
mehrerer Versuchsdurchgänge berechnet wurde. Dieser Wert gibt Auskunft darüber, die
individuelle Leistungsfähigkeit bei elementaren kognitiven Aufgaben zu messen.
(2) Standardabweichung der Reaktionszeit. Dieser Wert gibt Aufschluss darüber, wie weit die
Leistungsschwankungen eines Probanden sind.
(3) Inspektionszeit: Dieser Wert beschreibt, wie schnell Probanden visuelle oder auditorische
Reize identifizieren, lokalisieren oder diskriminieren können. (z.B. zwei Linien vergleichen,..)
(4) Evozierte Potenziale zeigen, wie viel Zeit ein Proband für die Verarbeitung von Informationen
braucht. Dieser Wert wird mit einem Elektroencephalogramm gemessen. (Ein evoziertes
Potenzial ist ein Potenzial im Gehirn, das entsteht, wenn ein Reiz dargeboten wird, ein
elektrischer Ausschlag, der im EEG sichtbar wird.) Die Zeit zwischen Reizdarbietung und
evoziertem Potenzial ist ein Maß für Intelligenz.
68
Zwischen diesen Messgrößen und psychometrischen Intelligenztests konnte ein Zusammenhang
festgestellt werden. Den Vorteil, den Jensen in seinem Verfahren sah, war, dass sein Intelligenztest
kulturunabhängig ist. Viele traditionelle Intelligenztests würden Wissen, Schlussfolgender und
Problemlösen messen, das sind kulturspezifische Aufgaben.
Einschränkend meint er jedoch, dass die ganze Bedeutung der Geschwindigkeit der Reizverarbeitung
noch nicht verstanden wird.
Ein weiterer bemerkenswerter Forscher in dieser Richtung ist Alexander Romanovitsch Lurija (19021977). Er begann mit 16 Jahren mit dem Medizinstudium, dem Studium der Psychologie und
Gesellschaftswissenschaften und schloss mit 21 Jahren diese Studien ab.
Danach widmete er sich der Herausforderung Freuds Konzepte von Abnormalität im Denken und
mentalen Prozessen mittels neurophysiologischer Methoden zu untersuchen. Er forschte aber auch
im Bereich der kulturvergleichenden Psychologie.
So untersuchte er z.B. 109 Universitätsstudenten kurz vor einer Prüfung. Sie sollten zu 30
Stichwörtern ein ihnen spontan dazu einfallendes Wort sagen und gleichzeitig einen Gummiball
drücken.
Dabei fand Lurija heraus, dass die Reaktionszeiten bei prüfungsbezogenen Stichwörtern länger waren
und die Bewegungskurve (Ball drücken) niedriger. Bei den Messungen nach der Prüfung traten diese
Phänomene nicht auf. Lurija schloss daraus, dass die Intensitätsschwankungen im Verhalten
Ausdruck innerer emotionaler Konflikte seien. Diese Erkenntnisse führten in der Folge zur
Entwicklung des Lügendetektors. (Polygraf)
1924 begann Lurija gemeinsam mit Wygotski und Leontjew im Bereich der Konzeptualisierung von
Intelligenz zu forschen. Die Ergebnisse dieser Forschung führten zur Entstehung des sozialen
Konstruktivismus, dem zufolge menschliches Lernen durch soziale Prozesse beeinflusst wird.
Lernende schaffen eine innere Repräsentation der Welt. Dabei haben die Interaktionen zwischen
Lernenden und Lehrenden eine große Bedeutung für den Lernprozess, denn Wissen wird sozial
konstruiert. Menschen passen sich an die Umwelt nicht passiv an, sondern eignen sich aktiv
verschiedene gesellschaftlich-historisch relevante Fertigkeiten an. Diese Fertigkeiten würden
verinnerlicht und stünden dann zur Steuerung der Kognitionen zur Verfügung.
Lurija vertiefte sich später in die Erforschung anatomisch-neuronaler Verbindungen zwischen den
Gehirnhälften/-teilen und lehnte die damalige Meinung, dass visuelle Informationsverarbeitung,
Wahrnehmung oder Vorstellung in der rechten, während auditorische, sprachliche Kommunikation
und logisches Denken in der linken Gehirnhälfte verortet wäre, ab. Er hielt dies für viel zu
vereinfacht. Die linke Hälfte wäre der Sitz der kognitiven Fähigkeiten und die Instanz für die bewusste
Kontrolle von Verhalten. Die Rechte ist für automatisierte und unbewusste Vorgänge verantwortlich.
Er unterschied zwischen einer simultanen (gleichzeitigen) und einer sequenziellen (in zeitlicher
Abfolge stattfindender) kognitiven Verarbeitung.
Simultan bedeutet, dass viele Informationen gleichzeitig berücksichtig werden, dies ermöglicht uns
das Erkennen von Beziehungen (z.B. beim Lesen), das Verständnis von komplexer Teste, räumlicher
Anordnungen,..
Die sequenzielle Verarbeitung hingegen berücksichtigt zeitliche Beziehungen. Z.B. beim Lösen von
mathematischen Gleichungen, Verständnis historischer Ereignisse, Nachsprechen von Zahlenreihen.
Die sequenzielle Verarbeitung ist im frontotemporalen Hirnarealen lokalisiert und die simultane
Verarbeitung in parieto-occipitalen Arealen.
69
Lurija studierte in den 30er Jahren verschiedene Formen der Läsionen und schuf ein
Klassifikationssystem für Aphasie. Er entwickelte verschiedene Verfahren zur Testung, die
Anleitungen zur Therapieplanung und Rehabilitation enthielten. Diese Tests wurden jedoch nie
standardisiert, da Lurija der Überzeugung war, dass jeder Mensch individuell sei.
Herausragend ist seine Arbeit deshalb, weil er als erster der gängigen Meinung von der Lokalisation
von Hirnfunktionen widersprach. (Neuroplastizität)
Moderne Intelligenztests, die biologische und physiologische Aspekte aus Lurjias Arbeit
berücksichtigen sind zum Beispiel das Cognitive Assessment System von Das und Naglierie und der
Kaufmann-Test.
Das Cognitive Assessment System (CAS) ist ein Test zur Messung der kognitiven Fähigkeiten, der auf
der PASS-Theorie der kognitiven Verarbeitung basiert. PASS steht für
 Planung ( ein kognitiver Prozess, bei dem das Individuum eine Strategie zur Lösung eines
Problems erwägt, auswählt und anwenden muss.)
 Aufmerksamkeit ( ein kognitiver Prozess, bei dem das Individuum sich auf einen bestimmten
Reiz konzentrieren und damit im Wettstreit stehenden Störreize ignorieren muss)
 Simultanität (ein kognitiver Prozess, bei dem getrennte Reize zu einem Ganzen oder zu einer
Gruppe integriert werden müssen)
 Sequenzialität ( ein kognitiver Prozess, bei dem Dinge in eine serielle Ordnung gebracht
werden müssen)
70
Diese vier Aspekte werden in verschiedenen Skalen repräsentiert, die einen standardisierten IQ
liefern. Alle Skalen zusammen bilden einen Gesamt-IQ.
Der Test wurde für Kinder und Jugendliche entwickelt. Er dient nicht nur der Feststellung von
Fähigkeiten sondern kann z.B. auch ADHS, Hirnstörungen und Hochbegabungen diagnostizieren.
Kaufmann-Test:
Der Kaufmann-Test dient der Feststellung von Lernstörungen. Er misst drei Aspekte der Intelligenz;
(1) Erworbene Fertigkeiten (z.B. Lesen, Rechnen,..)
(2) Simultane Verarbeitung (räumliche oder analogiebezogene Fertigkeiten, bei denen der
Proben mehrere Informationen gleichzeitig integrieren und neue Informationen
synthetisieren muss)
(3) Sequenzielle Verarbeitung (Aufgaben, bei denen der Proband Dinge in sequenzieller oder
serieller Reihenfolge anordnen muss)
Später änderte Kaufmann sein Konzept dahingehend, dass er bei Kindern die Unterscheidung
zwischen sequenzieller und simultaner Verarbeitung für wichtig hielt, bei Jugendlichen und
Erwachsenen aber durch die Unterscheidung zwischen fluider und kristalliner Intelligenz ersetzte.
Ein wichtiger Beitrag von Kaufmann war es, sich Gedanken darüber zu machen, warum viele Kinder
mit Verdacht auf Lernstörungen einen Migrationshintergrund haben. Viele Intelligenztests und auch
fast alle Aufgaben in der Schule wären sprachbezogen. Sein Test könne Intelligenz und Lernfähigkeit
diagnostizieren ohne die Überbetonung von Sprache. Es handelt sich damit um einen kulturfreien
Test.
Der Flynn-Effekt:
Wir haben schon anfangs erwähnt, dass es mehr Einflüsse auf die Intelligenz gibt, als zunächst
angenommen.
Der Flynn-Effekt – benannt nach seinem Erfinder – beschreibt nun die Feststellung, dass der
durchschnittlich IQ-Wert bis in die Mitte der 90er Jahre in den westlichen Industrieländern
kontinuierlich gestiegen ist. Flynn entdeckte diesen Effekt, als er die Intelligenztests der Armeen
unterschiedlicher Ländern verglich. Man führte diese Zunahme auf eine Verbesserung im
Bildungssystem und in der Ernährung zurück. Flynn untersuchen, ob dieses Phänomen auch für
andere Länder gilt. Der Schluss dieser Untersuchung war, dass bei vielen Nationen der IQ über die
Jahre zugenommen hat.
Eine weitere wichtige Erkenntnis war, dass der IQ unterschiedlich wächst: In der
sprachlichen/kristallinen Intelligenz weniger stark (~ 9 IQ Punkte pro Generation) als in der
fluiden/nicht-sprachlichen (~15 IQ-Punkte pro Generation). Damit widersprach das Ergebnis der
Hypothese Jensens, der meinte, die Intelligenzzunahme wäre auf die längere Schulbildung zurück zu
führen.
Man versuchte nun verschiedene Hypothesen zu testen:
1. Dauer des Schulbesuchs konnte ausgeschlossen werden, denn es war besonders die fluide
Intelligenz, die zunahm.
2. Testerfahrung: Wir sind in der heutigen Zeit mit Tests vertraut. Auch unser Schulsystem lehrt
uns den Umgang mit Tests. Diese Erfahrung würde sich in der Zunahme der IQ-Punkte
widerspiegeln.
Diese Hypothese wurde ebenfalls verworfen, da selbst eine
71
Testwiederholung des selben Tests nicht mehr als einen Punktezuwachs von durchschnittlich
6 IQ-Punkten bringt
3. Erziehungsstile und Bildungsprogramme: Eltern fördern ihre Kinder mehr. Diese Hypothese
konnte verworfen werden, nachdem Flynn ein Programm zur Frühförderung evaluiert hatte.
Kinder konnten den durch Frühförderung erworbenen Vorsprung nur 3-4 Jahre halten.
4. Kulturelle, visuelle und technologische Umgebung: Unsere Art wahrzunehmen hat sich
verändert, wir sind immer mehr gefordert Bedeutung aus visuellem Material selbst zu
erzeugen. Diese Hypothese musste ebenfalls fallen gelassen werden, da gerade in
nichtsprachlichen Tests der Intelligenzzuwachs am deutlichsten war.
5. Ernährung: Die gute Ernährung der letzten Jahrzehnte führte zu einer Zunahme an
Körpergröße, warum also nicht auch an einer Zunahme an Gehirn/Intelligenz. Es gab
verschiedene Untersuchungen dazu. Z.B. in China. Hier gibt es Regionen, die mit Jod
unterversorgt sind. Man verglich Kinder, die ich einer Jod-Ersatztherapie unterzogen haben
mit solchen, die das nicht taten und stellte einen starken Unterschied in Bezug auf ihre
Intelligenz fest. In einer anderen Untersuchung wurde eine Kinder-Versuchsgruppe mit
Mineralien und anderen wichtigen Zusatzstoffen versorgt, während die Versuchsgruppe 2
nur ein Placebo und die Versuchsgruppe 3 gar nichts bekam. Die Kinder, die mit Mineralien
gut versorgt wurden, verzeichnete nach 8 Monaten eine Zunahme an fluider Intelligenz.
So beeindruckend die Ergebnisse der Experimente zur Ernährung sind, man muss folgende
Einschränkungen bedenken:
Ernährung hängt auch mit sozialer Stellung, Armut, Zugang zum Bildungssystem, etc. zusammen.
Mangelernährung führt immer zu kognitiven Defiziten.
Die Diskussion geht weiter..
Ernährungshypothese versus kognitive Stimulationshypothese (kognitive Stimulation = Förderung
führt zur Intelligenzzunahme)
 Förderung der Intelligenz führt zu einer Zunahme des IQ, allerdings, umso klüger jemand ist,
umso geringer ist der Zuwachs
 Flynn selbst schloss 2009 die Ernährungshypothese aus, da Körpergröße nicht mit dem IQ
ausreichend korreliert.
Mittlerweile ist der Flynn-Effekt fast verschwunden.
Seit den 90er Jahren konnte kein
nennenswerter Intelligenzzuwachs mehr festgestellt werden. Die Erklärung dafür ist, dass es immer
weniger Menschen mit sehr geringen IQ-Testwerten gibt. (Immer bessere Förderung von Kindern,
bessere Ernährung,..etc.)
Auf der anderen Seite stellte Flynn fest, dass die Durchschnitts-IQ-Werte bei 12-15Jährigen wieder
am sinken sind. Werden wir also wieder dümmer?
Er erklärt den Unterschied dahingehend: IQ-Werte von 9-11 Jährigen wären höher, da sie mehr
gefördert werden. Die Eltern kümmern sich noch viel um die Kinder, diese sind in der Schule mehr
eingebunden. Mit 12-15 würden die Kindern sich mehr nach außen orientieren und letztendlich
denselben Beschäftigungen nachgehen wir die Vergleichsgruppe von 12-15 Jährigen aus den 70-er
Jahren (sie hängen ab). Damit würde der IQ wieder sinken.
72
Die dunkle Seite der Intelligenzforschung: Ist Intelligenz erblicht?
Galton konstatierte als erster, dass Intelligenz nicht nur vererbt sein könne, es müsse auch
Umwelteinflüsse geben. Um dies zu untersuchen, studierte er Stammbäume berühmter Menschen.
(1875!! Es gab noch keine Genetik!!!) Er fasste dies zusammen unter der Phrase „nature versus
nurture“.
Heute wird dieses Thema in der Verhaltensgenetik untersucht. Diese beschäftigt sich mit den
Gemeinsamkeiten und Unterschieden von Individuen in einer bestimmten Population. Ob diese
Unterschiede auf Gene oder auf Umweltfaktoren zurück zu führend sind. Um die Erblichkeit von
Intelligenz zu untersuchen greift man auf Zwillingsstudien, Familienstudien und Adoptionsstudien
zurück.
Viele Studien deuten in die Richtung, dass Intelligenz bis zu 70% vererbt wird. Nur was bedeutet das?
Im Moment gibt es zu diesem Thema mehr Fragen als Antworten, wir stecken mitten in einer GenUmwelt-Debatte, wissen nur, dass die Umwelt erheblichen Einfluss hat, aber wie, wo, wie viel und
immer? Ist noch nicht geklärt.
73
Neues Lernen in der Psychotherapie:
In den 70er Jahren entwickelte David A Kolb seine Theorie des erfahrungsbasierten Lernens. Er beruft
sich auf Rogers, Jung, Guilford und Gardner und macht Aussagen darüber, wie erfahrungsbasiertes
Lernen (experiential learning) von statten geht.
Kolb definiert vier Aspekte des Lernens:
1) konkrete Erfahrung (Fühlen): Hier lernen wir durch unsere Einbeziehung in eine neue
Erfahrung.
2) Beobachtung und Reflexion (Zusehen): Wir denken über unsere eigenen Erfahrungen oder
die von anderen, die wir beobachtet haben, nach.
3) Bildung abstrakter Begriffe (Denken) Hier lernen wir, in dem wir Theorien/Hypothesen
aufstellen, die unsere Beobachtungen erklären.
4) Aktives Experimentieren (Handeln) Wir ziehen diese Theorien heran und erproben sie an der
Realität.
Alle vier Schritte ergeben einen Lernzyklus.
74
Anhand dieser vier Beschreibungen von Lernprozessen identifiziert Kolb individuelle Unterschiede in
der bevorzugten Art und Weise des Lernens und nannte vier Lernstile.
1.
2.
3.
4.
Den akkommodierenden Stile
Den divergierenden Stil
Den konvergierenden Stil
Den assimilierenden Stil
Ad 1. Akkommodierender Stil: Dieser Lernstil verbindet konkrete Erfahrung und aktives
Experimentieren (Fühlen und Handeln). Ein Akkommodierer bevorzugt eine praktische
Herangehensweise, er ist risikofreudig und arbeitet gut in einer Rolle, die Aktivität und Initiative
erfordert. (z.B. Vertrieb)
Ad 2. Divergierender Stil: Dieser Lernstil verbindet konkrete Erfahrung mit Beobachtung und
Reflexion (Fühlen und zusehen) Divergierer betrachten konkrete Situationen aus zahlreichen
unterschiedlichen Perspektiven und arbeiten am besten, wenn sie Situationen beobachten und
Informationen zusammen tragen. Diese Informationen verwenden sie dann anschließend zur
Generierung von Ideen und zur Erarbeitung von Lösungsvorschlägen für Probleme. Sie sind
emotional, kreativ und arbeiten gerne mit Menschen. Sie arbeiten am besten in Gruppen und sind
gute Berater.
Ad 3. Konvergierender Stil: Dieser Lernstil verbindet aktives Experimentieren mit der Bildung
abstrakter Begriffe, (Handeln und Denken). Konvergierer sind Problemlöser, die sich für die
Bewältigung praktischer Hindernisse interessieren. Sie sind gut in der Anwendung von Ideen und
Theorien auf reale Situationen und der Erarbeitung von Lösungsvorschlägen. Sie neige dazu, nicht
emotional zu sein und arbeiten lieber mit Sachen als Mit Menschen.
Ad 4. Assimilierender Stil: Dieser Lernstil verbindet Beobachtung und Reflexion mit der Bildung
abstrakter Begriffe (Zusehen und Denken) Assimilierer bevorzugen eine logische Herangehensweise
und ziehen Konzepte Emotionen vor. Sie könne große Mengen an Informationen verarbeiten, in eine
logische Form bringen und integrieren. Theoretisieren ist ihnen lieber als praktische Anwendung. Sie
sind gute Planer.
75
Nach Kolb bedeutet erfolgreiches Lernen die Anwendung aller vier Lernprozesse.
Die einseitige Nutzung von nur einem Lernstil hat folgende Ursachen:
1. Persönlichkeit: (extravertierte Persönlichkeit neigt zu Lernstilen, die Handlung oder den
Umgang mit anderen Menschen beinhalten)
2. Schulbildung: (einseitige Form des Unterrichts)
3. Anforderungen des Jobs fördern einen Stil gegenüber den anderen
Kolb entwickelte einen Test mit 12 Items genannt das Learning Style Inventory, das die bevorzugte
Art des Lernens erfragt. Beispiele aus dem Fragebogen sind:
Wenn ich lerne
_______achte ich auf meine Gefühle (konkrete Erfahrung)
_______beobachte ich und höre zu (Beobachtung und Reflexion)
_______denke ich über Ideen nach (Bildung abstrakter Begriffe)
_______handle ich gerne direkt (aktives Experimentieren)
Kritik:
Kolb berücksichtigt viele Faktoren nicht, wie z.B. Ziele, Lernabsichten, Intentionen, er überprüft
nicht, ob überhaupt Lernen stattgefunden hat, es werden keine kulturellen oder andere
Umweltbedingungen mit einbezogen. Außerdem wird Kolb borgeworfen, dass seine Theorie zu wenig
evaluiert wurde.
76
HOCHBEGABUNG:
Terman verfasste auf Basis seiner Doktorarbeit ein Buch mit dem Titel: Genius and Stupidity: A Study
of the Intellectual Processes of Seven Bright and Seven Stupid Boys“ in dem er seine Studie vorstellte.
Er begleitete jeweils sieben sehr intelligente und sieben dumme Kinder bis ins Erwachsenenleben.
Diese Kinder wurden später als Termans Termiten bekannt. Terman setzte sich stark dafür ein, dass
man hochbegabte Kinder fördern müsse, da sie dem Durchschnitt auf vielen Ebenen überlegen
wären (moralisch, verhaltensbezogen, physisch). Er forderte die flächendeckende Testung aller
Kinder, damit die begabtesten unter ihnen identifiziert und gefordert werden können. Hochbegab ist,
wer in den oberen 3-5% der IQ-Testwert-Verteilung der jeweiligen Altersgruppe liegt.
Viele Untersuchungen zeigen, dass der IQ tatsächlich ein guter Prädiktor für Hochbegabung ist.
Hochbegabung beschreibt – wie Studien zeigten – keine Inselbegabungen, sondern meist hat sie
Auswirkungen auf viele psychophysische Variablen.
In unterschiedlichen Untersuchungen wurde eine Zusammenhang mit der Unkompliziertheit der
Schwangerschaft, mit dem Bildungsniveau der Eltern, mit der Zeit, die Kinder mit Lesen und
Hausaufgaben verbringen, mit dem sozioökonomischen Status der Eltern festgestellt.
Was ist nun Hochbegabung?
Folgende Indikatoren werden in der Literatur genannt:
 Zeigt überragendes logisches Denkvermögen und ausgeprägte Fähigkeit zum Umgang mit
Ideen: kann aus spezifischen Fakten sofort generalisieren und subtile Zusammenhänge
erkennen; verfügt über herausragende Problemlösefähigkeiten.
 Zeigt unaufhörliche intellektuelle Neugier, stellt suchende Fragen, zeigt außergewöhnliches
Interesse an der Natur des Menschen und des Universums
 Hat ein breites Spektrum an Interessen, oft intellektueller Natur, entwickel eine oder
mehrere dieser Interessen zu beträchtlicher Tiefe
 Ist in Qualität und Quantität es geschriebenen und/oder gesprochenen Vokabulars
überragend; interessiert sich für subtile Bedeutungen von Wörtern und ihre
Verwendungsmöglichkeiten
 Liest begierig und versteht Bücher deutlich besser als seine Altersgenossen
 Lernt leicht und schnell und behält das Gelernte; erinnert wichtige Details, Konzepte und
Prinzipien, versteh mühelos
 Zeigt Einsicht in arithmetische Probleme, die sorgfältige Überlegung erfordern und erfasst
mathematische Probleme mühelos
 Zeigt kreative Fähigkeiten oder imaginativen Ausdruck in Bereichen wie Musik, Kunst, Tanz,
Theater, zeigt Sensibilität und Finesse in Rhythmus, Bewegung und Körperbeherrschung
 Erhält seine Konzentration über lange Zeiträume aufrecht und zeigt herausragende
Eigenverantwortung und Unabhängigkeit in unterrichtsbezogenen Aufgabensetzt sich selbst
realistisch hohe Standard, ist selbstkritisch in der Bewertung und Korrektur seiner
Bemühungen
 Zeigt in intellektuellen Arbeiten Initiativen und Originalität, zeigt Flexibilität im Denken und
betrachtet Probleme aus einer Reihe unterschiedlicher Perspektiven
 Beobachtet genau und ist zugänglich für neue Ideen
 Zeigt soziales Selbstvertrauen und kann in reifer Weise mit Erwachsenen kommunizieren
 Zeigt Begeisterung und Freude an intellektuellen Herausforderungen, zeigt einen
Aufgeweckten und subtilen Sinn für Humor.
77
Psychologische Modelle von Hochbegabung:
Callahan (2000) schlägt vor, dass es fünf zentrale psychologische Theorien von Hochbegabung gibt.
(1) Sternbergs triarchisches Modell der Hochbegabung
(2) Gardners Modell der multiplen Intelligenzen und Hochbegabung
(3) Renzullis Drei-Ringe-Theorie
(4) Tannenbaums psychosoziale Definition
(5) Feldmans entwicklungsbezogene Sichtweise.
Sternbergs triarchisches Modell sowie Gardners Modell der multiplen Intelligenzen der
Hochbegabung sind Erweiterungen der schon vorgestellten Modelle.
Laut Sternberg existieren drei unterscheidbare Arten von Hochbegabung:
1. Analytische Hochbegabung: sie beruht auf mentalen Mechanismen, die intelligentem
Verhalten zugrundeliegen (z.B. Einstein) Beschrieben in der Komponenten-Subtheorie.
2. Praktische Hochbegabung; diese beruht auf der Interaktion zwischen mentalen
Mechanismen und der Welt zur Produktion intelligenten Verhaltens. Beschrieben in der
Kontext-Subtheorie.
3. Kreative Hochbegabung; diese Art von Hochbegabung beruht auf der Interaktion zwischen
Erfahrung und der internen und externen Welt zur Hervorbringung intelligenten Verhaltens,
ein Beispiel wäre eine Person mit Intuition und Einsicht, die gut mit Neuheit umgehen kann,
z.B. Shakespeare. Diese Begabung wird in der Erfahrungs-Subtheorie beschreiben.
Gardners Modell der Hochbegabung basiert auf seiner Theorie der multiplen Intelligenzen und setzt
die Exzellenz in mindestens einer der neun Intelligenzen voraus (sprachlich-linguistisch, logischmathematisch, bildlich-räumlich, musikalisch-rhythmisch, körperlich-kinästhetisch, interpersonal,
intrapersonal, naturalistisch und existenzialistisch.
Renzullis Drei-Ringe-Theorie:
Renzulli wollte die Definition von Hochbegabung nicht auf Intelligenzmessungen bzw. hohe IQs
beschränkt sehen und legte sein Konzept sehr breit an. Es sieht Hochbegabung als positive
Kombination von Verhaltensweisen an und nicht als dem Individuum innewohnende Eigenschaft. Die
Eigenschaften bestehen nach Renzulli aus
1. Überdurchschnittlichen Fähigkeiten
Menschen mit überdurchschnittlichen Fähigkeiten zeigen ein hohes Maß an abstraktem
Denken, Anpassung an neue Situationen und dem Vermögen, Informationen rasch und
präzise abzurufen. Außerdem besitzen sie die Fähigkeit generelle Kompetenzen auf
spezifische Wissensbereiche anzuwenden, relevante von irrelevanten Informationen zu
trennen und im Verlauf eines Problemlöseprozesses elaboriertes Wissen und Strategien zu
erwerben und zu verfolgen.
2. Aufgabenverpflichtung
Die Aufgabenverpflichtung umfasst die Fähigkeiten hochgradiges Interesse und Enthusiasmus
für Aufgaben zu zeigen, in einem bestimmten Bereich entschlossen und hart zu arbeiten,
dabei Selbstvertrauen und Leistungsstreben zu zeigen und hohe Standards für die eigenen
Arbeit zu setzen.
3. Kreativität
Umfass die Fähigkeit flüssig, flexibel und originell zu denken und offen für neue Erfahrungen,
neugierig und risikobereit zu sein.
78
Diese Begabungen werden in Ringen dargestellt, wobei die Schnittmenge den Bereich darstellt, in
dem Hochbegabung zu finden ist.
Hochbegabung ist eine Balance zwischen diesen drei Ringen. Es reicht nicht kreativ zu sein und viele
großartige Fähigkeiten zu haben, wenn man z.B. nicht aufgabenverpflichtet ist (sprich - wenn der
Ehrgeiz fehlt).
Tannenbaums psychosoziale Definition von Hochbegabung:
Tannenbaum sieht den Schlüssel für Hochbegabung ähnlich wie Renzulli eher in der Fähigkeit zur
Produktion als in der Fähigkeit Informationen aufzunehmen. Er schlägt vor, dass entwickelte Talente
nur beim Erwachsenen zu finden sind und unterscheidet in seiner „Begabungstypologie“ folgende
vier Talente:
1. Mangeltalente: Talente, die zur Lösung gesellschaftlich relevanter, jedoch schwieriger
Probleme benötigt werden.
2. Überschusstalente: Talente, die es den Menschen ermöglichen, auf künstlerischem Weg die
Ästhetik der Umwelt zu bereichern.
3. Quotentalente: intellektuelle Fähigkeiten ohne besondere Qualitätsmerkmale, etwas Talente
in Bezug auf die Bereitstellung von Geschäften, waren und Dienstleistungen
4. Außergewöhnliche Talente, Praktische Talente, etwa herausragend Fähigkeiten im
Schnelllese oder bestimmten Sportarten.
Hochbegabung ist nach Tannenbaums Definition ein im Erwachsenenalter zum erblühen gebrachtes
Talent und somit die Endstufe einer Entwicklung. Bei Hochbegabung im Kindesalter sah er die
generelle Intelligenz als verbindenden Faktor, des weiteren außergewöhnliches Begabungen,
spezielle Anlagen, nicht-intellektuell Vermittler (hohe Motivation, hoher Selbstwert)
umweltbezogenen Einflüsse und Zufall.
Feldmans entwicklungsbezogene Sichtweise der Hochbegabung: Koinzidenz:
Hochbegabung im Erwachsenenalter stellt eine Koinzidenz von Kräften dar, die zusammengewirkt
haben, um das talentierte Individuum hervorzubringen. Diese Kräfte unterteilt er in folgende
Kategorien:
79
1. Biologische und psychologische Kräfte: Faktoren, die das Gehirn und den Geist betreffen und
dem Individuum die Prädisposition für Hochbegabung verleihen (z.B. gute kognitive
Verarbeitungsfähigkeiten)
2. Soziale und umweltbezogene Kräfte: Faktoren, die in der Umwelt liegen und die für die
Entwicklung von Hochbegabung entscheiden sind 8z.B. fördernde Eltern, gute Lehrer,..)
3. Historische Kräfte: Diese Kräfte repräsentieren die sozialen Gelegenheit der Umwelt des
Kindes wieder (z.B. Sind bestimmte Fächer Teil des Schulsystems?)
4. Evolutionäre Kräfte: kulturelle und biologische Faktoren, die die Entstehung von
Hochbegabung fördern oder behindern.
Feldmann verglich Gelegenheit, bei denen Hochbegabung im Erwachsenenalter auftritt oder eben
nicht. Z.B. verhindern viele Geschlechtsrollenstereotypen, dass Frauen ihre Hochbegabung auch
leben.
Die Arbeit mit intelligenzgeminderten Personen:
In der Erforschung der Intelligenz von intelligenzgeminderten Personen gibt es zwei historische
Entwicklungslinien:
1. die negative historische Linie
2. die positive historische Linie (aktuell)
ad 1. Die negative historische Linie:
Besonders in der NS-Zeit führten Tests zur Intelligenz zur sogenannten Eugenik. Eugenik bezeichnet
jenen Prozess der künstlichen Selektion, bei dem das Ziel verfolgt wird, Kinder mit bestimmten
Eigenschaften zu züchten.
Eugenik teilt sich in zwei Gruppen: Die positive Eugenik versucht durch erhöhte Reproduktionsraten
von Menschen mit der jeweils gewünschten Eigenschaft (z.B. hohe Intelligenz) diese positive
Eigenschaften in der Population insgesamt zu erhöhen. Die negative Eugenik versucht die
Fortpflanzung von Individuen mit unerwünschten Eigenschaften zu verhindern (Zwangssterilisation).
Die Eugenik nahm ihren Ausgangspunkt bei Sir Francis Galton. Dieser studierte Charles Darwins Wert
über den Ursprung der Arten der darin seine Theorie über Evolution und über die Selektion
vorstellte. Galton entwickelte diese Ideen in seinem Buch „Genie und Vererbung“ (1910) weiter. Er
war überzeugt davon, dass die Gesellschaft ihre schwachen Mitglieder schützen und so die natürliche
Selektion verhindern würde. In seinem Buch schrieb er fest, dass Intelligenz vererbt wird und dass
man sie durch künstliche Selektion vermehren könne.
Terman griff diese Idee auf und meinte zu erkennen, dass Minderbegabungen besonders in hispanoamerikanischen und afroamerikanischen Familien gehäuft auftreten. Kinder dieser Familien sollten
getrennt unterrichtet werden, da sie zu abstraktem Denken nicht in der Lage sind. Außerdem
äußerte er die Sorge, dass gerade diese Familien sich stärker vermehren als die weißen Amerikaner.
Er sowie seine Anhänger traten für die Sterilisation ein.
Im Dritten Reich wurden viele Zwangssterilisationen durchgeführt.
1948 wurde von der UN ein _Beschluss verfasst, demzufolge alle Männer und Frauen ungeachtet
ihrer ethischen Zugehörigkeit - das Recht haben zu heiraten und eine Familie zu gründen
Ad 2. Die positive Linie
Sie hat ihre Wurzeln in Frankreich. 1797 beobachtete man das erste Mal einen umherstreifenden
Jungen in einem Waldstück in Südfrankreich. Man fing ihn ein, doch er floh wieder und 1898 gelang
80
es, ihn erneut zu fangen und wieder floh er. Erst 1800 gelang es ihn tatsächlich zu fangen und zu
einem Arzt zu bringen. Doch da er nicht sprechen konnte, brachte man ihn in eine
Taubstummenanstalt nach Paris. Der Psychiater Pinel begutachtete den Jungen und stufte ihn als
„Idioten“ ein. Der französische Arzt Jean-Marc Gaspard Itard jedoch widersprach der Diagnose. Er
nannte den Jungen Victor von Aveyron und widmete sich die nächsten fünf Jahre diesem Kind, in
dem er es mit Hilfe eines eigens entwickelten Bildungsprogramms schulte. Nach fünf Jahren konnte
Viktor lesen und einige Wörter sprechen. Der Arzt war von den geringen Fortschritten enttäuscht und
bracht sein Experiment ab. Viktor kam zu Madam Guerin in die Obhut. Er war damals ca. 18 Jahre alt.
Er starb im Alter von 40 Jahren.
So traurig die Geschichte ist. Dr. Jean Itard war der erste, der etwas tat, das wir heute als
Förderunterricht bezeichnen würden.
Nachdem das Trauma des 2. Weltkrieges etwas verdaut war, konnte man Intelligenztests wieder
hernehmen um zu unterscheiden und für jene Kinder, die nicht so gut abschnitten Programme
entwickeln. Besonders in den 60er und 70er Jahren wurde in diese Richtung intensiv geforscht. Man
konzentrierte sich nicht nur auf intelligenzgeminderte Menschen sondern auch auf Inselbegabte,
sogenannte Sarvants, eine Spezialform des Autismus. Autismus ist eine angeborene Wahrnehmungsund Informationsverarbeitungsstörung, die durch extreme Schwierigkeiten in der Kommunikation,
stereotype Verhaltensweisen und übermäßig Bindung an bestimmte Objekte gekennzeichnet ist.
Savants stechen dadurch heraus, dass sie besondere Begabungen haben. Z.B. Rainman.
Alle die Ergebnisse deuten dahin, dass selbst intelligenzgeminderte Menschen lernen und sich
verbessern können.
Feuerstein und die strukturelle kognitive Veränderbarkeit
Feuerstein arbeitete als Psychologe in Israel mit schwer traumatisierten Holocaust-Überlebenden, in
israelischen Jugenddörfern.
Er entwickelte eine Theorie und ein Programm zur strukturellen kognitiven Veränderbarkeit. Dieser
Theorie liegen drei Annahmen zugrunde:
1. die menschlichen Fähigkeiten und Verhaltensweisen sind dynamisch und änderbar, nicht
statisch. Das bedeutet, Fähigkeiten lassen sich ändern.
2. Individuen müssen hierfür eine Veränderung wünschen oder benötigen
3. Kognitive Fähigkeiten, insbesondere Intelligenz, spielen eine zentrale Rolle in der Fähigkeit
einer Person sich selbst zu ändern.
Die Theorie und das Programm dazu umfassen drei zentrale Elemente:
1. Mediierte Lernerfahrung
Das mediierte Lernen besteht aus direktem und mediierten Lernen: unter direktem Lernen
versteht Feuerstein eine direkte Interaktion zwischen Lernendem und einem
umweltbezogenen Lernfaktor, etwas dem Lesen eine Buches oder der Teilnahme an einem
Kurs. Mediierte Lernen verlangt einen Mediator zwischen Lernendem und Umwelt, einem
Lehrer. Dieser Mediator kann umweltbezogenen Lernfaktoren interpretieren, verändern,
betonen oder selektieren, z.B. eine Leseunterstützung beim Buchlesen,.. Bei Menschen mit
Intelligenzminderungen ist nach Feuerstein ein Mediator unerlässlich. Er hat die Aufgaben,
die Umwelt an den Lernenden anzupassen. Die gezielte Aufmerksamkeit des Mediators kann
zu einer kognitiven Verbesserung führen.
2. Das Learning Propensity Assessment Device (LPAD)
LPAD ist ein Intelligenztest, der auf der Grundlage dessen, was Feuerstein als adaptiven oder
dynamischen Ansatz zur Beurteilung der Lernneigung bezeichnet hat.
81
Die Lernneigung ist das natürliche Potenzial, die natürliche Neigung des Menschen zum
Lernen.
Der LPAD besteht aus 15 Instrumenten zur Identifikation der kognitiven Funktionen, der
Lernprozesse und der Problemlösestrategien im Zusammenhang mit Wahrnehmung,
Aufmerksamkeit, Gedächtnis, Problemlösen und logischem Denken.
3. Instrumentelle Bereicherung.
Die Instrumentelle Bereicherung baut auf dem LPAD auf und verbessert jene Fähigkeiten, die
für unabhängiges Denken und Lernen auf Seiten des Individuums notwendig sind. Dies
geschieht durch:
 Beseitigung von Unzulänglichkeiten in den Lernfähigkeiten der Person
 Unterweisung in neuen Lernoperationen und –techniken
 Steigerung der Motivation
 Entwicklung schulspezifischer Lernstrategien und Ansätze
Das Programm zur instrumentellen Bereicherung wurde in mehr als 60 Ländern und in über 2000
Projekten angewendet.
Savant-Syndrom „Inselbegabung“
Das Substantiv „Savant“ bedeutet in der französischen und in der englischen Sprache in einem
umfassenden Sinn „Wissender“ oder „Gelehrter“. Hier wird der Begriff aber zur Beschreibung von
„Inselbegabungen“ verwendet und bedeutet, dass - bei insgesamt schwacher Begabung - in einem
abgegrenzten einzelnen Fach, einer sogenannten „Insel“, eine herausragende Leistungsfähigkeit
vorliegen kann, die in bizarrem Gegensatz zur übrigen Persönlichkeit steht. Es handelt sich um „eine
isolierte Gabe inmitten von Defekten“


50 Prozent der bekannten Inselbegabten sind Autisten.
Sechs von sieben Inselbegabten sind männlich.
Es gibt keine zuverlässigen Untersuchungen darüber, wie häufig das Savant-Syndrom auftritt. Der
amerikanischen Psychiater und Autismus-Forscher Darold Treffert schlug eine Unterscheidung in
 prodigious savants, abgeleitet von prodigy (Wunderkind, Talent) im Deutschen
übersetzt mit „erstaunlichen Savants“, die wirklich herausragende Fähigkeiten
besitzen
 autistisch veranlagte Inselbegabte auch „Autistic Savant“ oder „Savant Autistique“
vor,
im Deutschen mit „talentierten“ Savants übersetzt, die höchstens
durchschnittliche Leistungen zeigen, die aber in Anbetracht ihrer Behinderung
dennoch bemerkenswert sind.
Zurzeit sind weltweit etwa 100 Menschen bekannt, die man nach dieser Unterteilung als erstaunliche
Savants bezeichnen kann. Der Intelligenzquotient der Personen liegt meist unter 70, kann aber auch
durchschnittlich, in einigen Fällen auch überdurchschnittlich sein. Die Fähigkeiten sind dabei sehr
unterschiedlich ausgeprägt. Ins Bewusstsein der Öffentlichkeit gelangte das Savant-Syndrom unter
anderem durch den Film Rain Man.
Inselfertigkeiten sind fast immer angeboren, können jedoch auch später aus einer Hirnschädigung
entstanden sein. Bei der Suche nach Erklärungen ist zu unterscheiden zwischen dem prüfbaren
Können der Inselbegabten und der Frage, warum sie das können.
Nach Douwe Draaisma ist der Savant das Produkt aus Konzentration, Einseitigkeit und endloser
Wiederholung.
82
Eine Hypothese der Harvard-Neurologen Norman Geschwind und Albert Galaburda beruht auf
Erkenntnissen der Hirnforschung, wonach zwischen der zehnten und der achtzehnten Woche der
embryonalen Phase ein beschleunigtes Wachstum des Gehirns eintritt. Störungen dieser
explosionsartig beschleunigten Neuronenverbindungen führen zu massiven Gehirnschäden. Einer der
möglichen Störfaktoren ist das männliche Hormon Testosteron, das im Körper zirkuliert, während die
Hoden des Embryos angelegt werden. Ein hoher Testosteronspiegel wirkt hemmend auf das
Wachstum der Hirnrinde. Diese Theorie könnte die männliche Überrepräsentanz unter den
Inselbegabten erklären.
Auch der Hirnforscher Michael Fitzgerald vom Trinity College (Dublin) sieht die herausragende
Kreativität der Inselbegabten als Folge der bei den Autisten bestehenden neuronalen
Fehlschaltungen. Seiner Meinung nach waren bei vielen Genies wie Albert Einstein, Isaac Newton
und Mozart mehr oder minder starke Ausprägungen von Autismus vorhanden. Allan Snyder von der
Universität Sydney geht davon aus, dass man bestimmte Gehirnareale ausschalten muss, um die
Reserven der anderen Bereiche freisetzen zu können. Seine Versuchsergebnisse mit starken
Magnetfeldern (rTMS) und die daraus abgeleiteten Thesen sind jedoch umstritten.
Eine weitere gängige Theorie besagt, dass bei Inselbegabten die Filtermechanismen des Gehirns
gestört seien. Dadurch würden nur ausgewählte Informationen des Unbewussten und nur einzelne,
für relevant gehaltene, Informationen des Gedächtnisses dem bewussten Bereich des Gehirns
zugeführt, um dessen Überforderung zu verhindern und den Menschen im Alltag schneller und
intuitiver entscheiden zu lassen. Manche Wissenschaftler gehen davon aus, dass jeder Mensch
ausnahmslos alle Sinneseindrücke in seinem Gedächtnis speichert, aber nur Zugriff auf die Wichtigen
hat, während ein Savant in einem Teilbereich auf jede Information zugreifen kann, unabhängig von
ihrer Relevanz oder emotionalen Bedeutung.
Neuere Forschungen (2012) an Taufliegen zur Gedächtnisbildung deuten auch auf mögliche
Ursachenim Zusammenhang mit Dopamin und Savants hin. Dies würde diesen Theorien
entgegenkommen. Es konnte gezeigt werden, dass ein Dopamin-Rezeptor (DAMB-Receptor) beim
Prozess des „Vergessens“ eine wichtige Rolle spielt.
Wichtig ist, sich vor Augen zu führen, dass es nicht den einen Savant gibt, sondern ein breites
Spektrum von Inselbegabten mit sehr unterschiedlichen Hirnstörungen und Teilbegabungen.
Beispiele:
 Kim Peek, kannte laut eigenen Angaben den Inhalt von etwa 12.000 Büchern auswendig. Diese
Menge an Büchern las er mittels einer außergewöhnlichen Fähigkeit: Er konnte zwei Seiten
gleichzeitig lesen, und zwar die eine mit dem linken und die andere mit dem rechten Auge.
Außerdem benannte er für jede US-amerikanische Stadt die Postleitzahl, Vorwahl und den
Highway, der dorthin führt. Des Weiteren war er in der Lage, zu jedem Datum binnen Sekunden
den Wochentag zu nennen. Kim Peek war das Vorbild des Raymond Babbitt im 1988
erschienenen Film Rain Man mit Dustin Hoffman als Hauptdarsteller.
83
 Ziad Fazah, Libanese, spricht 58 Sprachen fließend, darunter Chinesisch, Thailändisch, Griechisch,
Indonesisch, Hindi und Persisch. Die meisten dieser Sprachen hat Fazah sich selbst beigebracht.
Dafür brauche es aber sehr viel Ausdauer und Disziplin, erklärt der Multilinguale, der es mit
seinem Talent sogar ins Guinness-Buch der Rekorde geschafft hat.
 George Widener ist ein US-amerikanischer Künstler (* 1962), der bereits als Kind als
verhaltensauffällig galt. Anfang der 1980er Jahre arbeitete er bei der U.S. Air Force in
Deutschland, wo er Spionagematerial auswertete. Sein Studium der Ingenieurwissenschaften in
Texas brach er ab und lebte zeitweise in der Amsterdamer Hausbesetzer-Szene. Später wurde er
obdachlos, suchte jedoch tagsüber Bibliotheken auf, um dort zu lesen und zu studieren. Im Jahr
2000 wurde bei ihm das Asperger-Syndrom diagnostiziert. Heute ist Georg Widener ein gefragter
Künstler, der seine Begabung für den Umgang mit Daten und Zahlen in außergewöhnliche
Zeichnungen übersetzt.
84
Als Asperger-Syndrom wird eine tiefgreifende Entwicklungsstörung innerhalb des
Autismusspektrums bezeichnet, die vor allem durch Schwächen in den Bereichen der sozialen
Interaktion und Kommunikation gekennzeichnet ist sowie von eingeschränkten und stereotypen
Aktivitäten und Interessen bestimmt wird. Beeinträchtigt ist vor allem die Fähigkeit, nonverbale und
parasprachliche Signale bei anderen Personen intuitiv zu erkennen und intuitiv selbst auszusenden.
Das Kontakt- und Kommunikationsverhalten von Asperger-Autisten erscheint dadurch merkwürdig
und ungeschickt und wie eine milde Variante des frühkindlichen Autismus (Kanner-Syndrom).
Da ihre Intelligenz in den meisten Fällen normal ausgeprägt ist, werden sie von ihrer Umwelt nicht als
Autisten, sondern als wunderlich wahrgenommen. Gelegentlich fällt das Asperger-Syndrom mit einer
Hoch- oder Inselbegabung zusammen. Das Asperger-Syndrom gilt als angeboren und nicht heilbar. Es
macht sich etwa vom vierten Lebensjahr an bemerkbar. Das Asperger-Syndrom ist nicht nur mit
Beeinträchtigungen, sondern oft auch mit Stärken verbunden, etwa in den Bereichen der
Wahrnehmung, der Introspektion, der Aufmerksamkeit oder der Gedächtnisleistung. Ob es als
Krankheit oder als eine Normvariante der menschlichen Informationsverarbeitung eingestuft werden
sollte, wird von Wissenschaftlern und Ärzten sowie von Asperger-Autisten und deren Angehörigen
uneinheitlich beantwortet. Uneinig ist sich die Forschergemeinschaft auch hinsichtlich der Frage, ob
man im Asperger-Syndrom ein selbstständiges Störungsbild oder eine graduelle Variante des
frühkindlichen Autismus sehen sollte.
In neuer Zeit wird das Aspergersyndrom auch umgangssprachlich „Geek-Syndrome“ genannt.
Mithilfe von Strategien wie geschicktem Ausweichverhalten und bewusster Konzentration auf
berufliche und sachliche Lebensschwerpunkte kommen die Betroffenen in unserer Technik
dominierten und zunehmen unpersönlicher werdenden Welt relativ gut zurecht und bleiben lange
unentdeckt.
Aus dem Heise-Online-Magazin: http://www.heise.de/tp/artikel/11/11997/1.html (durchaus mit
Humor versetzt ;O)
„Autisten fehlt die Theory of Mind, wie Psychologen es nennen, die Fähigkeit, Gefühle und Gedanken
anderer zu erkennen. Während beim Autismus im Sinne Aspergers die Probleme der
Wahrnehmungsverarbeitung im Vordergrund stehen und weniger Probleme des Denkens und der
geistig-intellektuellen Funktionen, kommen bei der aus Rain Man bekannten autistischen Störung,
wie sie Leo Kanner beschrieben hat, schwerwiegende kognitive Funktionsbeeinträchtigungen hinzu,
die Übergänge zwischen beiden fließen.
Die Ortsfremde in der Grammatik der Gefühle ist ihnen gemein, wenn auch unterschiedlich stark
ausgeprägt. Autismus-Forscher Simon Baron-Cohen beschreibt in einer Publikationen drei Fälle von
Asperger Syndrom: der erste, Richard Borcherds, Inhaber der Fields Medal war 38, als er sich auf
Autismus untersuchen ließ und AS diagnostiziert wurde, worunter seine Laufbahn im Exzentrikern
aufgeschlossenen Biotop der Universität (in seinem Fall Berkeley) bis heute nicht gelitten hat.
Borcherds bezeichnet sich selbst als socially inept und fügt hinzu, dass in allen Mathematikfakultäten,
die er kannte, immer mindestens einer gewesen sei, der noch verrückter war als er selbst. Der zweite
war ebenfalls ein Mathegenie und der dritte ein herausragender Informatiker. Keiner von den dreien
jedoch konnte Gesichtsausdrücke auf ihren emotionalen Inhalt hin entschlüsseln, wenn ihnen
entsprechende Fotografien vorgelegt wurden. Was sehen Sie? Wut, Schmerz, Angst, Freude? Nichts.
Es gibt Schätzungen, dass 93 Prozent aller Kommunikation nonverbal abläuft. Jemand mit AspergerSyndrom könnte diese Information vielleicht so interpretieren, dass nur sieben von hundert
gesprochenen Wörtern wirklich Sinn machen
85
Autismus ist eine Folge von Entwicklungsstörungen des Stammhirns, die bereits sehr früh im
Mutterleib beginnen. Laut einer Studie, die das International Molecular Genetic Study of Autism
Consortium im September letzten Jahres in der Zeitschrift American Journal of Human Genetics
veröffentlichte, gibt es Gene auf den Chromosomen 2, 7,16 und 17, die Autismus begünstigen, wobei
Erbanlagen auf Chromosom 2 die größte Bedeutung zu haben scheinen.
An welchem Punkt wird eine Entwicklungsstörung eine Persönlichkeitsstörung und wann ist sie
einfach eine Variante der Persönlichkeit?“
Emotionale Intelligenz (EQ):
Zur Wiederholung: Emotionen können als ein zentrales Subsystem der Persönlichkeit verstanden
werden. Interindividuelle Unterscheide in der Neigung zum Erleben positiver und negativer
Emotionen und Stimmungen sind ein wesentlicher Bestandteil von Persönlichkeitsmerkmalen. Es
zeigen sich außerdem stabile und konsistente interindividuelle Unterschiede in der Art und Weise,
wie Menschen Emotionen zum Ausdruck bringen und Emotionen regulieren.
Emotionen sind Prozesse, die aus verschiedenen Komponenten bestehen, einer kognitiven, einer
(neuro-)physiologischen, einer motivationalen, einer Gefühls- und einer Verhaltens- bzw.
Ausdruckskomponente.
Eine größere Einigkeit besteht darüber, dass ein zentraler Aspekt von Emotionen die kognitive
Bewertung „appraisal“ der aktuellen Situation durch den Organismus ist.
Die
sogenannten
Appraisal-Theorien
betonen
die
Situationsbewertung
und
Informationsverarbeitung. Sie werden unter dem Begriff der Komponenten-Ansätze – also der
Ansätze, die Situationsmerkmal zu identifizieren sucht, die spezifische Emotionen auslösenzusammen gefasst.
Daneben gibt es eine zweite Richtung, die sich auf persönliche Ziele bezieht. Diese zielorientierten
Ansätze betonen, dass Emotionen nur dann entstünden, wenn es um persönlich relevante Ziele
ginge.
Emotionaler Ausdruck wird seit Darwin als Anpassungsvorteil bei der natürlichen Selektion gesehen.
Dieser Ausdruck ist universell über alle Kulturen gleich und ist ein zentraler Bestandteil von
Emotionen: Ohne Ausdruck keine Emotion. Ekman (1993) definiert distinktive Ausdrücke für die
Grundemotionen Ärger, Furcht, Ekel, Traurigkeit und Freude. Für Verachtung, Überraschung und
Interesse sind die Ausdrücke weniger klar. (Allerdings schränkt Ekman später ein, dass wir bewusst,
den Ausdruck unterdrücken können bzw. den Ausdruck auch vortäuschen können, ohne die
Emotionen zu spüren).
Emotionen haben neurophysiologische Korrelate. Allerdings steckt die Forschung hier noch in den
Kinderschuhen. Mit Sicherheit lässt sich sagen, dass Ärger, Angst und Traurigkeit mit einer stärkeren
Erhöhung des Herzschlags einher geht als z.B. Ekel. Bei Ärger ist die Fingertemperatur höher als bei
Angst. Angst und Ekel erhöhen den Herzschlag mehr als Freude.
James-Lange-Theorie: Diese Die Rückmeldung des Zustands unserer Skelettmuskulatur und der
autonomen Erregung ist das bestimmende Element im Erleben von Emotionen. Kurz: wir sind
ängstlich, weil wir zittern und davonlaufen.
86
Cannon (1927)
meint wiederum, dass alle Emotionen von einer zugrundeliegenden
undifferenzierten, sympathischen Aktivierung begleitet werden. Emotionales Erleben ist eine
spezifische Reaktion des Zentralnervensystems. Schachter und Singer (1962) entwickelten diese
Theorie dann weiter zu einer kognitiven Emotionstheorie.
Appraisal-Theorien:
Appraisal meint die subjektive Bewertung der Situation und erklärt, warum Menschen eine und
dieselbe Situation unterschiedlich emotional erleben, sie erklärt auch warum ein und derselbe
Mensch unterschiedliche Situationen gleich emotional erleben kann.
 Beispiel Prüfungssituation – der eine fürchtet sich, der andere nicht
 Beispiel: Student X fürchtet sich bei Prüfungen, im Dunkeln, beim Zahnarzt,…
Der Hauptvertreter dieser Richtung ist Larzarus, der vertritt den Standpunkt, dass appraisal nicht nur
hinreichend sondern auch notwendig ist um die Auslösung von Emotionen zu erklären.
Ausgangspunkt für Lazarus Beobachtungen war, dass Menschen auf Stress sehr unterschiedlich
reagierten. Er führte diese Unterschiede eben auf die unterschiedliche Bewertung (~Kognition) der
Stress auslösenden Situationen zurück.
Daraus entwickelte er zwei zentrale Aspekte der Situationsbewertung:
1. primary appraisal, erfasst die grundlegende Bedeutung einer Situation für das persönliche
Wohlbefinden
 Zielrelevanz (betrifft das Ausmaß der Bedeutung einer Person-Umwelt-Interaktion für
persönliche Ziele, ist keine Bedeutung für persönliche Ziele vorhanden, ist auch keine
Emotion möglich.)
 Zielkongruenz/-inkongruenz (Ausmaß der Übereinstimmung einer Person-UmweltInteraktion mit den Zielen einer Person. Kongruenz führt zu positiven Emotionen,
Inkongruenz zu negativen.
 Typ of ego-involvement (betrifft verschiedenen Aspekte der Ich-Identität: es werden selfand social esteem, moral values, ego-ideals, meanings and ideas, other persons and their
wellbeing und life goals genannt.)
2. secudary appraisal beschreibt die Bewältigungsmöglichkeiten einer Person in einer bestimmten
Situation.
 Verschulden „blame/credit“ (weiß eine Person, wer für eine Situation verantwortlich ist und
weiß dieser Person, dass der Akt für ihn kontrollierbar war, wird blame/credit zugewiesen
 Bewältigungspotenzial „coping potential“: (betrifft die Einschätzung einer Person, ob sie
mit den Anforderungen einer Situation umgehen oder persönliche Absichten umsetzen kann.
Hier ist nicht tatsächliche Bewältigung, sondern eine Bewertung jener Handlungen und
Kognitionen gemeint, die ihrerseits eine Veränderung der Person-Umwelt-Konfiguration
bewirken)
 Zukunftserwartungen „future expectancies“ (betrifft die Einschätzung, ob es wahrscheinlich
ist, dass sich aus irgendeinem Grund etwas zum Besseren oder Schlechteren verändert)
Diese Kognitionen sind nicht nur Auslöser des „Affektprogramms“ sondern auch Bestandteil der
Emotionen und sie werden wiederum von Emotionen beeinflusst.
87
Emotionalität als Persönlichkeitseigenschaft:
Alle bekannten Persönlichkeitsdimensionen sind in einem gewissen Ausmaß „affekthaltig“. Dies gilt
insbesondere
für
Neurotizismus
und
Extraversion,
die
beiden
grundlegenden
Persönlichkeitsdimensionen, die in der einen oder anderen Form in allen eigenschaftstheorietische
und biologischen Theorien der Persönlichkeit enthalten sind.
Zur Wiederholung Neurotizismus und Extraversion:
Neurotizismus beinhaltet die generell erhöhte Neigung zum Erleben negativer Emotionen und
Stimmungen. Diese Persönlichkeitsdimension ist weitgehend über Affekt definiert, wie aus den
einzelnen Eigenschaften hervorgeht, die Neurotizismus zugeordnet werden.
Im Fünf-Faktoren-Modell der Persönlichkeit wird Neurotizismus definiert durch die sechs Facetten:
- Ängstlichkeit
- soziale Befangenheit
- Reizbarkeit
- Impulsivität
- Depression
- Verletzlichkeit
Die „neurotisches Kaskade“
Auf der Ebene des konkreten Verhaltens geht der Stellenwert von Neurotizismus für das emotionale
Erleben sehr anschaulich aus Studien hervor. Z.B. mit der Methode des experience sampling oder
ambulanten Assessments – d.h. Daten werden in der natürlichen Welt der Testpersonen gesammelt,
die Datenerhebung geht über einen längeren Zeitraum und umfasst mehrere Messzeitpunkte. Diese
Form der Datenerhebung ermöglicht Prozessanalysen zur Darstellung von Verläufen. Praktisch wird
dies heute zunehmend über Smartphones gemacht. Diese fordern die Versuchspersonen in
regelmäßigen Zeitabständen zur Dateneingabe auf – time sampling- oder zur Eingabe bei
bestimmten Ereignissen – event-sampling. Zusätzlich werden physiologische Parameter gemessen –
dies wird möglich, da es immer kleinere und dadurch tragbare Messgeräte gibt.
Der Vorteil:
Es werden retrospektive Verzerrungen verringert, da die Daten zeitnahe erfasst werden.
Der Nachteil:
Der hohe technische Aufwand und dass die Versuchspersonen durch die Selbstbeobachtung immer
sensibler werden = „Reaktivität“, d.h. die Methode verändert das zu messende Merkmal!
Die Ergebnisse solcher Untersuchungen zeigen, dass Menschen mit hohen Neurotizismuswerten
nicht nur eine erhöhte Neigung zu negativ getönten Erfahrungen aufweisen, sondern auch negative
Erfahrungen intensiver erleben, sich also hinsichtlich Niveau und Reaktivität von jenen Personen
unterscheiden, die einen geringen Neurotizismus-Score haben. Dies nennen Suls und Martin (2005)
„Neurotisches Kaskade“.
„Negative Affektivität“ (Watson und Clark 1984) beschreibt die interindividuellen Unterschiede in der
Neigung
 zu negativem Affekt,
 zu einem negativen Selbstkonzept und
 zu negativ getönten Erfahrungen.
Negative Affektivität beinhalten die dispositionelle Neigung zu erhöhter Anspannung, Nervosität,
Besorgnis, Ärger, Schuldgefühle, Niedergeschlagenheit und Unzufriedenheit mit sich selbst und
entspricht damit der Dimension des Neurotizismus. Der einzige Vorteil in der Verwendung des
88
Begriffs „negative Affektivität“ gegenüber Neurotizismus liege nach Watson und Clark darin, dass
Neurotizismus mit psychischer Störung assoziiert wird. Die beiden entwickelten einen Fragebogen
PANAS Positive Affect and Negative Affekt Schedule: Je zehn Items erfassen Emotionen, Stimmungen
oder auch Zustände der Aktivierung. (Beispiele für negative Affekte: bekümmert, feindselig, nervös;
Beispiele für positive Affekte: interessiert, freudig erregt, begeistert)
Die Neigung zu positivem Affekt ist ein Kernelement der Extraversionsdimension.
Personen mit einer hohen Ausprägung in Extraversion sind unbekümmert, erlebnishungrig und
waghalsig. Das Fünf-Faktoren-Modell beschreibt Extraversion mittels sechs Facetten:
-
Herzlichkeit
Geselligkeit
- Erlebnissuche
- Durchsetzungsfähigkeit
- positive Emotionen
- Aktivität
Behavioral Inhibition System (BIS) und Behavioral Activation System (BAS)
Die aus der Tierforschung stammende Reinforcement Sensitivity Theorie von Gray (2000) beschreibt
die interindividuellen Unterschiede im Annäherungs-Vermeidungsverhalten. Dazu gibt es drei
neurobiologisch definierte Systeme (= spezifische Aktivierungszentren) der Verhaltenssteuerung, die
im Gehirn lokalisiert sind. Alle drei Systeme kennzeichnen sich durch eine unterschiedliche
Reaktionsbereitschaft auf positive und negative Reize und damit assoziierten Emotionen aus.
(1) Fight-Flight-Freeze System (FFFS) steuert die (unkonditionierte) Reaktion auf alle Straf-Reize und
aktiviert Flucht und Vermeidungsverhalten, die über Furcht ermittelt werden. (Furcht =
Abwendung von Gefahr)
(2) Behavioral Approach System (BAS) ist gekennzeichnet durch eine erhöhte Ansprechbarkeit auf
appetitive Reize, die Belohnung anzeigen. Es initiiert Annäherungsverhalten und ist verbunden
mit positiven Affekten wie z.B. Hoffnung und antizipatorischem Genuss.
(3) Behavioral Inhibition System (BIS) wird durch die konditionierte Reaktion auf Straf-Reize
ausgelöst. Diesem Prozess ist die Emotion Angst zugeordnet. (Angst = Zuwendung zur Gefahr)
89
Es wird angenommen, dass es zwischen Menschen stabile interindividuell Unterschiede in der Stärke
der drei Systeme gibt, aus denen unterschiedliche Reaktionsbereitschaften und damit assoziierte
emotionale Reaktionen resultieren.
„Subjektives Wohlbefinden“ Die Zirkumplextheorie des Affekts nach Watson und Tellegen (1985)
Watson und Tellegen widmeten sich der Erforschung von Stimmungslagen und unterschieden zwei
Dimensionen: den positiven Affekt und den negativen Affekt. Sie bedienten sich dabei des
Zirkumplexmodells. Dieses Modell wurde von Timothy Leary (1957) entwickelt um interpersonelle
Aspekte der Persönlichkeit darzustellen.
Timothy Leary (1920 – 1996)
Leary war US-amerikanischer Psychologen der nicht nur wegen seines Zirkumplexmodells berühmt
wurde, sondern vor allem für sein Engagement für die Legalisierung von psychodelischen Drogen.
(LSD, Mescalin, Psilocybin). Er befand sich viele Jahre auf der Flucht (die ihn sogar für ein paar
Wochen nach Wien brachte) und wurde zu mehreren Jahren Haft verurteilt. Timothy Leary sah
psychodelische Drogen als Mittel zur „Neu-Programmierung“ des Gehirns, d. h. (in seiner
Terminologie) der Aufhebung vorhandener und der gleichzeitigen Öffnung für neue Prägungen. Leary
war seiner Zeit weit voraus! Heute wird dieser Ansatz erneut verfolgt und evaluiert.
Leary betonte drei wichtige Aspekte des Zirkumplexmodells:
1. Es ist eine hilfreiche visuelle Repräsentation eines Bereichs
2. Näher beieinander liegende Variablen weisen einen stärkeren Zusammenhang auf,
gegenüberliegende Variablen haben einen negativen Zusammenhang und orthogonal
liegende Variablen haben keinen Zusammenhang
3. Es bietet viele Möglichkeiten, die Anordnung von Variablen empirisch zu überprüfen.
Watsons und Tellegens Zirkumplexmodell des Affekts:
90
Das Modell hat acht Endpunkte, die unterschiedliche Stimmungslagen repräsentieren:
- hoher positiver Affekt
- niedriger positiver Affekt
- Hoher negativer Affekt
- niedriger negativer Affekt
- Erregung
- Ruhe
- Lust
- Unlust
Zentral sind die bipolaren Dimensionen von hohem und niedrigem positiven sowie negativem Affekt
 Hoher positiver Affekt wird durch Gefühle und Emotionen im Zusammenhang mit
aktivem, beschwingtem und aufgeregtem Erleben charakterisiert
 Niedriger positiver Affekt wird durch Gefühle und Emotionen im Zusammenhang mit
schwerfälligem, müdem, trägen Erleben charakterisiert
 Hoher negativer Affekt wird durch Gefühle und Emotionen im Zusammenhang mit
leidendem, furchtsamen und nervösem Erleben charakterisiert
 Niedriger negativer Affekt wird durch Gefühle und Emotionen im Zusammenhang mit
gelassenem, entspanntem und ruhige Erleben charakterisiert.
Positiver und negativer Affekt steht auch mit den anderen Endpunkten des Modells - Erregung,
Ruhe, Lust und Unlust - in Zusammenhang.
 Der Endpunkt Erregung wird durch Gefühle und Emotionen im Zusammenhang mit
Erweckung, Verblüffung, Überraschung typisiert.
 Der Endpunkt Ruhe wird durch Gefühle und Emotionen im Zusammenhang mit
Geruhsamkeit und Unbewegtheit typisiert.
 Der Endpunkt Lust wird durch Gefühle und Emotionen im Zusammenhang mit
Zufriedenheit, Glücklichsein, Befriedigung typisiert.
 Der Endpunkt Unlust wird durch Gefühle und Emotionen im Zusammenhang mit
Einsamkeit, Traurigkeit und Unglücklichsein typisiert.
Man kann also die Hauptdimensionen als Kombination anderer Stimmungslagen ansehen, z.B. hoher
positiver Affekt wird durch eine Kombination aus starker Erregung und Lust typisiert, niedriger
positiver Affekt wird durch eine Kombination aus Ruhe und Unlust typisiert, hoher negativer Affekt
durch eine Kombination aus starker Erregung und Unlust, niedriger negativer Affekt durch eine
Kombination aus Ruhen und Lust.
Daraus entwickelten Watson, Tellegan und Clark die PANA, ein Instrument zur Messung des positiven
und negativen Affekts mit insgesamt 20 Deskriptoren.
Was ist subjektives und psychologisches Wohlbefinden?
Die Unterscheidung von subjektivem und psychologischem Wohlbefinden geht auf zwei Philosophen
zurück, Aristippos (435 v. Chr.) und Aristoteles (384-322 v. Chr.)
Aristippos gilt als Begründer der kyrenaischen Philosophie oder auch des Hedonismus, der Lust
als das höchste Gut feiert und es für unmoralisch hält, Lustempfindungen aufzuschieben oder zu
verzichten. Der Grund der menschlichen Existenz ist das Vergnügen. Es ist akzeptabel Regeln und
soziale Konventionen zu verletzen und sich schockierend oder unwürdig zu verhalten, wenn es
dem Lustgewinn dient.
Aristoteles schuf den Begriff der Eudaimonie, der übersetzt bedeutet, von einem guten Geist
geleitet zu sein. Ein gutes Leben ist nach Aristoteles ein angenehmes und erfolgreiches Leben.
91
Keyes et al. (2002) berufen sich auf diese zwei Philosophen, wenn sie subjektives Wohlbefinden
(Hedonismus) und psychologisches Wohlbefinden (Eudaimonie) unterscheiden. Das subjektive
Wohlbefinden wird mittels Lebenszufriedenheit gemessen.
Das psychologische Wohlbefinden wird über sechs Aspekte konzeptualisiert:
1. Autonomie
2. Zutrauen
3. Persönliche Weiterentwicklung
4. Lebenssinn
5. Positive Beziehungen
6. Selbstakzeptanz
92
Anders dargestellt repräsentieren subjektives
unterschiedliche, jedoch verwandte Aspekte.
93
und
psychologisches
Wohlbefinden
zwei
Die habituelle Neigung zum Erleben positiven Affekts ist Bestandteil des subjektiven Wohlbefindens,
das einen wichtigen Indikator für psychische Gesundheit darstellt. Subjektives Wohlbefinden wird
definiert als das Erleben positiver Emotionen und die Zufriedenheit mit dem eigenen Leben und
umfasst damit eine affektive und eine kognitive Komponenten. Subjektives Wohlbefinden kann als
aktuelle Befindlichkeit gemessen werden oder als relativ stabiles und konsistentes
Persönlichkeitsmerkmal.


Wer habituell eher zu positiven Affekten neigt (Extraversion) sowie zu einer hohen BASAusprägung, zeigt meist auch höhere Wohlbefinden.
Wer habituell eher zum Erleben negativer Affekte neigt (Neurotizismus) sowie eine hohe
FFFS- und BIS-Ausprägung hat, erlebt eher negatives Wohlbefinden.
Spezifische Aspekte der Emotionalität:
Es gibt eine unglaubliche Fülle an Konstrukten, die interindividuelle Unterschiede in spezifischen
Aspekten des emotionalen Erlebens beschreiben.
Gohm und Clore (2000) geben einen Überblick über 19 solcher Merkmale und ordnen sie fünf
Aspekten der Emotionalität zu:
(1) Absorbtion: die Neigung, sich emotionalem Erleben und den damit verbundenen sensorischen
Empfindungen hinzugeben, offen für das Erleben von Gefühlen zu sein und dem inneren
Befinden Aufmerksamkeit zuzuwenden.
(2) Aufmerksamkeit: das Ausmaß mit dem eine Person ihre Gefühle beachtet, sie wertschätzt und
das Gefühlerleben steigert
(3) Klarheit: die Fähigkeit, unterschiedliche Emotionen im Erleben zu identifizieren, sie voneinander
zu unterscheiden und zu beschreiben
(4) Intensität: die Stärke, mit der eine Person Gefühle erlebt
(5) Ausdruck: das Ausmaß, in dem eine Person ihre Gefühle zum Ausdruck bringt, sowie ihre
Einstellung zu einem offenen Ausdruck von Gefühlen.
Mit der zunehmenden Verbreitung des Konzepts der Emotionalen Intelligenz ist das Interesse an
Merkmalen gewachsen, die sich auf die Wahrnehmung und die Aufmerksamkeit für die eigenen
Gefühle beziehen. Die Grundthese ist, dass die Beachtung eigener Gefühle eine wichtige
Voraussetzung für eine adäquate Verarbeitung affektiver Reize und die Regulation von Emotionen
ist. Jedoch ist dies differenzierter zu sehen:
 Lischetzke und Eid (2003) konnten zeigen, dass die Fähigkeit zur Stimmungsregulation
entscheidet, ob sich die Aufmerksamkeit auf die eigene Gefühlwelt als förderlich erweist oder
nicht. Personen mit niederer Stimmungsregulation erleben eine Verschlechterung des
Wohlbefindens.
 Ein weiteres bekanntes Konstrukt ist das der Alexithymie: dies ist eine Störung, die es
Betroffenen schwer bis unmöglich macht Gefühle und die mit emotionalen Erregungen
verbunden körperlichen Symptome wahrzunehmen, zwischen unterschiedlichen Gefühlen zu
differenzieren und Gefühl zu beschreiben.
Das angemessene Erleben von Emotionen und ihr angemessener Ausdruck werden als Grundlage von
Gesundheit betrachtet. Bei fast allen psychischen Erkrankungen kann man Probleme im Erleben und
Ausdruck von Emotionen finden. In der unten stehenden Tabelle finden Sie einen Überblick:
94
85% alle psychischen Störungen beinhalten eine Art von emotionaler Problematik (Thoits 1985).
Patienten kommen in die Behandlung, weil sie sich besser fühlen wollen, das als problematisch
präsentierte Verhalten dient oft nur der Bewältigung, Vermeidung oder Bekämpfung der
problematischen Emotionen (z.B. Angst, Scham, Aggression).
Expressivität:
Expressivität meint den Ausdruck von Emotionen. Es gibt verschiedene Konstrukte, die die
interindividuellen Unterschiede beim Ausdruck von Emotionen beschreiben. Gross und John (1998)
haben auf Grundlage einer Faktorenanalyse von sechs solchen Verfahren fünf Facetten identifiziert
und in ein hierarchisches Modell der Expressivität eingeordnet.
In diesem Modell sind auf der untersten Ebene die Facetten abgebildet, die die Kernexpressivität
ausmachen (core emotional expressivity). Dieses sind der Ausdruck positiver, negativer Emotionen
sowie die allgemeine Stärke im Erleben und Ausdruck von Gefühlen. Der Ausdruck von positiven
Emotionen hängt mit Extraversion, Offenheit für Erfahrungen, Sozialverträglichkeit, Positiver
95
Affektivität und BAS, sowie mit hohen Sympathiewerten zusammen. Negative Emotionen hängen mit
höheren Werten in Neurotizismus, negativer Affektivität und niedrigen Sympathiewerten zusammen.
Auf der zweiten Ebene der Ausdruckshierarchie kommen zwei Facetten hinzu, die weitgehend
voneinander unabhängig sind.
 Die erste ist die Ausdruckssicherheit, die das Wissen um die eigene Kompetenz im
emotionalen Ausdruck vor allem in sozialen und öffentlichen Situationen beinhaltet. Die
Ausdruckssicherheit ist verbunden mit der Neigung zum Erleben positiver Emotionen
sowie mit der Fähigkeit, positive Emotionen auf entsprechende Aufforderung hin
darzustellen.
 Die zweite Facette ist die Maskierung. Diese beinhaltet das Bemühen, in öffentlichen
Situationen den Ausdruck erlebter Emotionen im Hinblick auf eine gewünschte
Selbstdarstellung zu regulieren.
Emotionsregulation:
Die Fähigkeit zur Regulation von Emotionen rückt immer mehr in den Forschungsmittelpunkt und
bezieht sich auf alle kognitiven, expressiven und verhaltensbezogenen Vorgänge, die das Erleben und
den Ausdruck einer Emotion beeinflussen. Es wird angenommen, dass Emotionsregulation sowohl
bewusst als auch automatisiert, d.h. ohne bewusstes Eingreifen erfolgt.
Stressbewältigung:
Das Konzept der Stressbewältigung („Coping“) ist eng verwandt mit dem der Emotionsregulation. Die
wohl berühmteste Stresstheorie stammt von Lazarus und Folkmann (1984). Sie definieren Stress als
Ergebnis der subjektiven Einschätzung einer Person, ob sie die Anforderungen der Situation
bewältigen kann oder nicht. Im groben kann man zwischen problemlösezentrierter und
emotionszentrierter Bewältigung oder aktive Kontrolle vs. Anpassung an die Situation durch
Änderung der eigenen Ziele unterscheiden.
Wie bei der Emotionsregulation stellt sich hier auch die Frage nach der Effizienz der
Bewältigungsmöglichkeiten. Manche Formen erweisen sich hinsichtlich des subjektiven Wohlgefühls
besser als andere. Die Wirksamkeit einer Strategie kann aber nicht per se postuliert werden, wenn
man den Kontext nicht mitberücksichtigt. Denn entscheidend ist weniger die Wirksamkeit einer
einzelnen Strategie sondern die Passung zwischen Merkmalen der Stresssituation (z.B. Dauer und
Kontrollierbarkeit) und dem Bewältigungsverhalten. Die Fähigkeit zur Flexibilität, die eine
situationsangemessene Bewältigung ermöglicht, ist wichtig. Empirische Bestätigung eines
Zusammenhangs zwischen habituellen Stressbewältigungsstrategien und Persönlichkeit konnte noch
nicht gefunden werden.
96
Emotionale Intelligenz
Emotionale Intelligenz Ist ein Begriff, der durch Daniel Goleman populärwissenschaftlich aufbereitet
wurde und der in der deutschsprachigen Intelligenzforschung auf Widerstand gestoßen ist, weil er
mit dem vorherrschenden Modell von Intelligenz wenig zu tun hatte. Sie sahen die EQ als Teil der
Persönlichkeit, als soziale-emotionale Kompetenz.
Emotionale Intelligenz wird als Fähigkeit definiert, die eigenen Emotionen und die der Mitmenschen
zu verstehen.
Das Modell der emotionalen Intelligenz nach Salovey und Mayer (1990)
Die beiden Forscher betonen die Bedeutung der Emotionen, für sie sind Gefühle physiologische
Reaktionen, die einen starken kognitiven Anteil haben (Bewertung, das Geben von Bedeutung, das
Lernen über sich selbst anhand der eigenen Emotionen,..).
Emotionale Intelligenz gliedere sich nach Salovey und Mayer in:
(1)
(2)
(3)
(4)
Wahrnehmen von Emotionen
Verwendung von Emotionen bei kognitiven Anforderungen
Verstehen/Wissen um Emotionen
Emotionsmanagement/Umgang
Ad 1. Wahrnehmung von Emotionen: Dazu zählt Wahrnehmen, Bewertung und Ausdruck von
Emotionen. Menschen mit hohem EQ können Emotionen bei anderen Menschen gut erkennen.
Ad 2. Verwendung von Emotionen zur Unterstützung des Denkens & Kenntnis über
Zusammenhänge zwischen Emotionen und Denken: Menschen bei denen diese Aspekt der
emotionalen Intelligenz hoch ausgeprägt ist, können Emotionen zur Stütze für ihr Gedächtnis
verwenden und Urteile über bestimmte Gefühle treffen, um in ihrem Denken Prioritäten zu setzen.
Sie können Emotionen nutzen um zu einem breiteren Bild über unterschiedliche Standpunkte zu
gelangen und können erkenne, dass bestimmte Emotionen auf Problemlösevorgänge günstiger
einwirken als andere.
Ad 3. Verstehen von Emotionen: Emotionen verstehen und analysieren, Einsatz des Wissens über
Emotionen: Menschen mit hoher EQ können Emotionen präzise benennen und die Beziehungen
zwischen einzelnen Emotionen erkennen. Sie verstehen, dass manche Emotionen verbunden sind. Sie
kennen die Übergänge von Emotionen (z.B. erst schimpft man, dann spürt man Schuldgefühle,.)
Ad 4. Umgang mit Emotionen: Reflexive Regulierung von Emotionen zur Förderung emotionalen
und intellektuellen Wachstums: Menschen mit hoher EQ können für angenehme und unangenehme
Emotionen offen bleiben und sich innerlich von einer spezifischen Emotion lösen und darüber
reflektieren, um zu sehen, ob sie ihnen irgendwelche Informationen liefern. Sie können bei sich und
anderen beurteilen, ob diese Emotionen typisch sind, ob sie angemessen sind und ob sie einen
beeinflussen. Sie können dadurch mit den eigenen und fremden Emotionen umgehen und sie zu
emotionalen und intellektuellen Wachstum nützen.
Diese vier Aspekte werden von Salovey und Mayer folgenden zwei Bereichen zugeordnet und nach
ihrer Differenziertheit geordnet:
97
A: Erfahrungs- und Erlebensbereich
 Dieser Bereich um fasst die Wahrnehmung und die Verwendung von Emotionen
B: Strategiebereich
 Dieser Bereich umfasst das Verstehen von Emotionen und den Umgang mit ihnen; Aspekte
also, die mit Zielen oder Handlungsplänen zusammenhängen)
Das Modell der EQ ist ein Fähigkeitsmodell, da es sich auf die Fähigkeiten hinsichtlich Wahrnehmung
und Verwendung von Emotionen bezieht. Die EQ wird mittels Mayer-Salovey-Carus-EmotionalIntelligence-Test gemessen. Dieser Test besteht aus 141 Items, die die vier beschriebenen Aspekte
der EQ erfassen.
(1) Wahrnehmen von Emotionen
Bilder müssen beurteilt werden, in welchem Ausmaß eine bestimmte Emotion vorhanden ist.
(2) Verwendung von Emotionen bei kognitiven Anforderungen
Die Testperson muss angeben in welchem Ausmaß eine Reihe von Stimmungslagen für eine
bestimmte Situation (z.B. Kennenlernen der Familie des Partners) hilfreich wären.
(3) Verstehen/Wissen um Emotionen
Die Testperson soll angeben, wie sich eine Person fühlt, die von ihrer Arbeit gestresst ist und
jetzt noch ein Projekt dazubekommt. Dazu gibt es fünf Emotionen zu Auswahl: überwältigt,
niedergeschlagen, beschämt, selbstsicher, nervös)
(4) Emotionsmanagement/Umgang
Der Proband soll sich vorstellen, jemand kommt ausgeglichen und zufrieden aus dem Urlaub
zurück. Dann soll er eine Reihe von Handlungen dahingehend bestimmen, wie sehr sie
geeignet sind, diese Stimmung aufrecht zu erhalten.
98
99
Revidiertes Modell der EI von Salovey und Mayer (Schulze et al., 2007, S. 45)
100
Golemans Modell der Emotionalen Intelligenz:
Golemann griff die Ideen von Salovey und Mayer auf und ergänzte das Modell. Für ihn bestand
ein starker Zusammenhang zwischen emotionale Intelligenz und den Amygdala im Gehirn. Die
Amygdala sind Bestandteil des limbischen Systems. Dieses ist eine funktionale Einheit
verschiedener Hirnstrukturen, die für die Verarbeitung von Emotionen, die Entstehung von
Triebverhalten, die Bildung von Erinnerungen und intellektuellen Funktionen verantwortlich ist.
Die Amygdala sind an der Verarbeitung von Aggression und Furcht beteiligt, zwei grundlegende
Reaktionen auf Bedrohung ( flight-flight-reaction).
Die Kampf-Flucht-Reaktion wurde vom US-amerikanischen Physiologen, Walter Cannon, 1915, so
benannt und beschreibt die zwei Reaktionsweisen auf Bedrohung bei Tieren.
Bedrohung führt zu einer Zunahme der neuronalen Aktivität m sensorischen Cortex, die mit
einem erhöhten Spiegel von Hormonen und Neurotransmittern wie Adrenalin und Noradrenalin
einhergeht.
Diese Hormone und Neurotransmitter rufen im Körper unmittelbar physiologische Reaktionen
wie etwa Erhöhung der Herzrate, des Muskeltonus und der Atemfrequenz hervor um das Tier
gegenüber seiner Umwelt und der Bedrohungssituation wachsam zu machen. Diese Reaktion
bezeichnet man auch als Stressreaktion. Das Tier hat dann zwei Möglichkeiten auf diese
Stressreaktion zu reagieren: a) es flüchtet, b) es stellt sich der Bedrohung.
Goleman behauptet nun, dass die Kampf-Flucht-Reaktion ein zentrales Element der emotionalen
Intelligenz sei. Der Mensch hätte im Laufe seiner Evolution Kontrolle über diese Emotionen
erlernt. Zum Beispiel würden kleine Kinder auf Bedrohung (z.B. Strafe durch die Eltern) anders
reagieren als ältere Kinder oder Erwachsene. Diese lernen zunehmend ihre Emotionen zu
kontrollieren und die Bedrohung durch reifere Methoden abzuwenden. (Diskussion,
Entschuldigung, Beteuerungen, Ausreden..) As Ausmaß in dem wir in der Lage sind, unsere
Kampf-Flucht-Reaktion zu kontrollieren, also das Ausmaß in dem wir in der zu Entwicklung,
Kontrolle und (konstruktiven) Verwendung unserer emotionalen Reaktionen in der Lage sind,
bestimmt unsere emotionale Intelligenz.
1995 veröffentlichte Goleman die erste Version seiner EQ und unterschied fünf Aspekte:
1. Die Fähigkeit, die eigenen emotionalen Zustände zu identifizieren und zu verstehen, dass ein
Zusammenhang zwischen Emotionen, Denken und Handeln existiert
2. Die Fähigkeit, mit den eigenen Emotionen umzugehen und diese zu kontrollieren, sowie
unerwünschte Emotionen in angemessenere umzuwandeln
3. Die Fähigkeit, zum Erleben emotionaler Zustände, die mit dem Drang nach Leistung und
Erfolg verknüpft sind (z.B. Fähigkeit glücklich zu sein und daraus einen Antrieb für die
eigenen berufliche Tätigkeit zu beziehen)
4. Die Fähigkeit, die Emotionen anderer Menschen zu beurteilen, dafür empfänglich zu sein und
sie zu beeinflussen (wenn man erkennt, dass jemand traurig ist und ihn darauf hin tröstet)
5. Die Fähigkeit, gute interpersonelle Beziehungen aufzubauen und zu erhalten (Freundschaften
pflegen)
101
Diese fünf Aspekte sind hierarchisch geordnet, sie bauen aufeinander auf. Wer seine eigenen
Emotionen nicht versteht, kann sie nicht kontrollieren, kann sie mit nichts verknüpfen und sie
auch nicht bei anderen erkennen, das wiederum die Basis für Freundschaften darstellt.
Sein späteres Modell (2202) enthält nur mehr vier Aspekte
1. Selbstwahrnehmung (Erkennen der eigenen emotionalen Zustände)
2. Selbstmanagement ( Kontrolle und Umgang mit den eigenen Emotionen)
3. soziale Bewusstsein (Fähigkeit Emotionen anderer zu beurteilen und zu beeinflussen)
4. Beziehungsmanagement ( Fähigkeit zu guten interpersonellen Beziehungen)
Golemann unterscheidet zwischen
 sozialen Kompetenzen (soziales Bewusstsein und Beziehungsmanagement) und
 persönlichen Kompetenzen (Selbstwahrnehmung und Selbstmanagement)
Die zweite Unterscheidung ist die hinsichtlich
 Selbstwahrnehmung und soziales Bewusstsein basiert auf Wahrnehmung
 Selbstmanagement und Beziehungsmanagement beruft auf Regulationsmechanismen
(=Management)
Goleman identifizierte 25 Fähigkeiten, die emotionale Intelligenz kennzeichnen, die Zahl hängt
allerdings vom Kontext ab, in dem emotionale Intelligenz zum Tragen kommt.
102
103
Goleman hat dazu einen Test entwickelt, den Emotional Competence Inventory (ECI), der für den
Einsatz in der Arbeitswelt designt wurde. Im deutschen Sprachraum heißt er Emotionaler
Kompetenz Fragebogen (Rindermann 2009). Dieser Test ist ein 360° Inventar, das heißt es ist ein
Fremdbeurteilungsinstrument. Andere Personen beurteilen die Testperson ob sie



Sich selbst in sicherer, energischer, eindrucksvoller und bedenkenloser Weise präsentiert
Andere Menschen mit unterschiedlichem Hintergrund respektiert, höflich behandelt und gut
mi ihnen auskommt
Die Stimmungen, Gefühle und nonverbalen Hinweise anderer Menschen in zutreffender
Weise schätzen kann.
Bar-Ons Modell der emotionalen Intelligenz:
Bar-On ist ein US-amerikanischer Psychologe, der ein emotional-soziales Intelligenzmodell
entwickelte (1997, 2005). Er bezog sich bei seinem Modell auf die Evolutionstheorie von Darwin.
Dieser schrieb in seinem Buch „The Expression of the Emotions in Man and Animals (1872,
1965)” wie Tiere und Menschen sich mittels ihrer Emotionen ausdrücke und sich Signale
übermitteln. Darwin konnte zeigen, dass Tiere viele physische Ausdrucksmöglichkeiten für
Emotionen besitzen, die auch beim Menschen zu finden sind. Sie können Wut, Furcht,
Glücklichsein, Überraschung, Traurigkeit ausdrücken. (z.B. zeigt ein Tier Aggression oder Furcht,
wenn es bedroht wird.) Diese Emotionen dienen der Anpassung und dem Überleben. Emotionale
und soziale Intelligenz beim Menschen würde dazu dienen, eine effektive Anpassung an
Umweltbedingungen im Sinne von Darwins Theorie vorzunehmen.
Bar-On betrachtet die emotional-soziale Intelligenz als eine Reihe von wechselseitig miteinander
verknüpften emotionalen und sozialen Kompetenzen, mit deren Hilfe sich das Individuum selbst
verstehen, ausdrücken und mit anderen interagieren kann.
Bar-On identifiziert fünf Domänen mit 15 Unteraspekten der emotional-sozialen Intelligenz.
(2) Intrapersonelle Intelligenz: Die Fähigkeit Emotionen zu erkennen, zu verstehen und
auszudrücken. Die einzelnen Aspekte dieser Domäne sind:
 Emotionale Selbstwahrnehmung
 Bestimmtheit
 Selbstachtung
 Selbstakutalisierung
 Unabhängigkeit
(3) Interpersonelle Intelligenz: Die Fähigkeit, zu verstehen, was andere Menschen empfinden
und eine Beziehung zu ihnen herzustellen. Die einzelnen Aspekte sind:
 Interpersonelle Beziehungen
 Soziales Verantwortungsgefühl
 Empathie
(4) Anpassungsfähigkeit: Die Fähigkeit, Emotionen zu kontrollieren und mit ihnen umzugehen.
Die einzelnen Aspekte dazu sind;
 Problemlösen
 Realitätsprüfung
 Flexibilität
104
(5) Stressmanagement: Die Fähigkeit, mit Problemen im, persönlichen und interpersonellen
Bereich umzugehen, diese zu verändern, sich an sie anzupassen und sie zu lösen. Die
einzelnen Aspekte dazu sind:
 Stresstoleranz
 Impulskontrolle
(6) Stimmungslage: Die Fähigkeit, positiven Affekt bei sich hervorzurufen und motiviert zu sein.
Die einzelnen Aspekte der Stimmungslage sind:
 Glücklichsein
 Optimismus
Daraus entwickelte er ein Messinstrument, das Emotional Quotient Inventory EQ-i. Dieser
Fragebogen umfasst 133 Items aus denen drei Messwerte errechnet werden können: Den
Gesamtwert der Emotionalen Intelligenz, fünf Skalenwerte für die Domänen und 15
Subskalenwerte für die einzelnen Aspekte, die diese fünf Domänen bilden. Der Gesamtwert EQ
wird wie der IQ berechnet. Ein hoher EQ bedeute hohe emotional-soziale Intelligenz.
Bar-Ons Modell ist – wie das Modell von Goleman - ein gemischtes Modell. Das heißt es wird das
Konzept der Emotionalen Intelligenz (~ emotionale Zustände) mit Persönlichkeitseigenschaften
(wie z.B. Gewissenhaftigkeit, Anpassungsfähigkeit, Vertrauenswürdigkeit) kombiniert/gemischt.
Daneben gibt es auch Fähigkeitsmodelle (Mayer, Salovey, Caruso). Das Fähigkeitsmodell
unternimmt den Versuch, emotionale Intelligenz zu beschreiben, d.h. das Konstrukt dahinter zu
definieren. Mayer Salovey und Carusos Definition mit den vier Aspekten der emotionalen
Intelligenz und konzentriert sich auf die Identifikation einer Reihe von Fähigkeit, die als
einzigartig für emotionalen Intelligenz angesehen werden. Ihr Modell beinhaltet keine
Persönlichkeitseigenschaften, die zu anderen psychologischen Modellen gehören. Das hat
Vorteile:
 Man kann klar kommunizieren, was emotionale Intelligenz ist
 Es können Beziehungen zwischen der emotionalen Intelligenz und anderen Konzepten
untersucht werden
 Es können Auswirkungen der emotionalen Intelligenz auf z.B. schulische oder berufliche
Leistung gemessen werden.
Emmerling und Goleman verteidigen ihr gemischtes Modell, sie würden nicht emotionale
Intelligenz per se definieren, sondern einen Standard für eine emotional intelligente Person
setzen. Goleman ist Arbeitspsychologe und betont den Praxisnutzen seines Modells.
Anwendung des Konzepts der emotionalen Intelligenz in der Psychologie:
Es konnten positive Zusammenhänge zwischen verschiedenen Variablen gefunden werden:
In einer Metaanalyse von Schutte, Malouff, Thornsteinsson, Bhullar und Rooke (2007), von 44
Studien an insgesamt 7898 Probanden zeigte sich, dass hohe emotionale Intelligenz mit einer
besseren physischen und psychischen Gesundheit assoziiert ist.
Mikolajczak und Luminet (2008) konnte zeigen, dass emotionale Intelligenz mit Selbstwirksamkeit
zusammenhängt. Außerdem konnten sie zeigen, dass es einen Zusammenhang zu Lazarus
Stressmodell gibt.
Es gibt einen Zusammenhang zwischen der Ausprägung der emotionalen Intelligenz und der
primären Bewertung von Situationen nach Lazarus. (Die primäre Bewertung bestimmt, wie weit wir
105
eine Situation als positiv, irrelevant oder als stressbehaftet erleben. Wird eine Situation als
stressbehaftet erlebt, dann erfolgt eine Einschätzung dahingehend ob sie eine Herausforderung
darstellen, ob sie Bedrohlich ist oder mit Schädigung/Verlust assoziiert wird.)
Wird eine Situation als herausfordernd erlebt, dann schließt die Person daraus, dass sie diese
bewältigen (coping) oder sogar davon durch persönliches Wachstum profitieren kann. Mikolajczak
und Luminet fanden nun heraus, dass Menschen mit hoher emotionaler Intelligenz in Situationen, die
Coping verlangten, größere Selbstwirksamkeit zeigten und stressbehaftete Situationen eher als
Herausforderung erlebten denn als Bedrohung.
Externera und Fernandez-Berrocal (2005) fanden einen Zusammenhang zwischen emotionaler
Intelligenz und Lebenszufriedenheit.
Chamorro-Premuzic, Benett und Furnham entdeckten eine Beziehung zwischen emotionaler
Intelligenz und einem höheren Niveau an Glücklichsein.
Verschiedene Studien beschäftigen sich mit dem Zusammenhang von beruflichen und akademischen
Erfolg und emotionale Intelligenz. Die Ergebnisse waren aber uneinheitlich. Petrides, Frederickson
und Furnham (2004) sowie Cote und Miners (2006) schlugen ein kompensatorisches Modell von
emotionaler und genereller Intelligenz vor. Emotionale Intelligenz verhilft bei einer eher niederen
generellen Intelligenz zu guten akademischen Erfolgen. Bei hoher Intelligenz hat sie keinen Effekt.
Gibt es negative Auswirkungen von einer hohen emotionalen Intelligenz?
Machiavellismus
Der Begriff Machiavellismus leitet sich vom italienischen Staatsmann, Dichter und Philosophen
Niccolo Machiavelli ab und bezeichnet ein raffiniertes, intrigantes und skrupelloses Vorgehen.
Macchiavelli übte in seinem Werk „Der Fürst“ heftige Kritik an den damaligen Herrscher. Der Begriff
wird heute in der Psychologie als Beschreibung der Persönlichkeitseigenschaft verwendet, die sich
106
durch ein rücksichtsloses Streben nach der Durchsetzung des eigenen Vorteils auszeichnet. Es wird
gelogen, manipuliert und auf äußerst verschlagene Weise agiert.
Um zu manipulieren muss man die Emotionen anderer beeinflussen können. Die Frage, die sich nun
Austin, Farrelly, Black und Moore 2007 stellte, war, ob es eine positive Korrelation zwischen
Machiavellismus und Emotionaler Intelligenz gibt.
In einem aufwendigen Verfahren maßen sie die Korrelationen zwischen emotionaler Intelligenz,
Machiavellismus und Manipulation. Sie fanden heraus, dass Menschen die einen hohen Score in der
Dimension Machiavellismus haben auch viele manipulative Verhaltensweisen zeigen (positive
Korrelation). Zwischen Manipulation und emotionaler Intelligenz sowie zwischen Machiavellismus
und emotionaler Intelligenz konnte kein Zusammenhang festgestellt werden. Der Schluss, den sie
daraus zogen ist, dass emotionale Intelligenz keine negativen Aspekte hat.
Gibt es geschlechtsspezifische Unterschiede?
Hier nur eine grobe Zusammenfassung der Ergebnisse unterschiedlichster Untersuchungen:
Im Fähigkeitsmodell der emotionalen Intelligenz schneiden Frauen in den vier Aspekten –
Wahrnehmung, Verwendung, Verstehen und Umgang - ganz wenig besser ab als Männer. In den
gemischten Modellen konnten im Gesamtwert kein Unterschied festgestellt werden. In den fünf
Domänen und 15 Subskalen gibt es allerdings Unterschiede:
 Frauen erreichen höhere Werte in den drei Aspekten der Domäne interpersonelle Intelligenz
(Interpersonell Beziehung, soziale Verantwortungsgefühl, Empathie) und sie sind sich ihrer
eigenen Emotionen besser bewusst.
 Männer haben eine höhere Selbstachtung, bewältigen Stress besser, lösen Probleme besser und
sind unabhängiger, flexibler und optimistischer.
Die Unterschiede sind allerdings sehr gering!
Kritik an der Theorie der emotionalen Intelligenz:
Die Vermischung von emotionaler Intelligenz und Persönlichkeitseigenschaften führt dazu, dass man
Effekt nicht eindeutig auf die emotionale Intelligenz zurückführen kann. Wenn jemand beruflich
erfolgreich ist, ist er dies aufgrund einer Persönlichkeitseigenschaft, seiner emotionalen Intelligenz
oder irgendwelchen Wechselwirkungen?
Es gibt außerdem kein Außenkriterium anhand dessen emotionale Intelligenz beobachtbar wäre.
Intelligenz ließe sich anhand von z.B. Schulnoten beobachten.
Der dritte Kritikpunkt richtete sich gegen die biologische Begründung: Die Annahme emotionale
Intelligenz hänge mit den Amgydala oder mit evolutionären Prozessen zusammen ist nicht durch
Forschungsergebnisse bewiesen.
107
Herunterladen