Einführung in die Differentielle Psychologie und Persönlichkeitsforschung für angehende PsychotherapeutInnen und PsychotherapiewissenschaftlerInnen Teil 2 Vortragende: MMag. Dr. Nina Petrik T: 0660 7389932 M: [email protected] W: www.kbt-wien.at W: www.sportpsychologie.or.at Eigenschaftstheoretische Ansätze: Die eigenschaftstheoretische Erforschung der Persönlichkeit hat ihre Wurzeln in der Antike, verschwand aber wieder durch das Aufkommen der Psychoanalyse und durch die Entdeckung der Vererbungslehre. Der Durchbruch kam, mit der Entwicklung statistischer Verfahren, die nicht nur neue Methoden offerierten, sondern auch dazu führten, dass zum Teil fachfremde Wissenschaftler in die Erforschung der Persönlichkeit mit einbezogen wurden. Es entstand eine fruchtbare Verbindung zwischen statistischer und psychologischer Forschung, die bis heute besteht. Mit dieser Wende kam das Interesse an der nomothetischen Forschung. Das heißt, man begann systematisch nach allgemeinen Gesetzmäßigkeiten in der Persönlichkeit eines Menschen zu suchen. Nicht mehr der Einzelfall mit seiner einzigartigen Kombination an Eigenschaften war interessant (ideographische Methode), sondern die Identifikation der Grundstruktur der Persönlichkeit. Nach der Annahme der Eigenschaftstheoretischer besteht diese aus einer Hand voll Eigenschaften, anhand derer sich Menschen gut und sicher unterscheiden lassen. Diese Eigenschaften sollten über Gruppen von Menschen und über die Zeit hinweg konsistent auftreten. Alle so gefundenen Eigenschaften spannen einen Raum auf, in dem jedem Menschen ein bestimmter „Ort“ zugewiesen werden kann. Zuerst aber ein Rückblick in die Antike, da dort – ähnlich wie bei der Psychoanalyse – schon vieles entdeckt, aber nicht wissenschaftliche bewiesen werden konnte. Aristoteles (384 – 322 v. Chr.) beschrieb schon Persönlichkeitseigenschaften – er nannte sie Dispositionen – anhand derer sich Menschen unterscheiden lassen. Er nannte Bescheidenheit, Mut, Eitelkeit als Dispositionen anhand derer sich die ethische Integrität einer Person feststellen ließe. Sein Schüler Theophrastos von Athen (371 – 287 v. Chr.) nannte 30 verschiedene Persönlichkeitstypen. Sein Vorgehen war tägliche Beobachtungen zu ordnen und zu kategorisieren. Dadurch wurden sie fassbar und diskutierbar. Hippokrates von Kos (460 – 370 v. Chr.) schuf eine Krankheitslehre basierend auf den Körpersäften, die vom griechischen Arzt Galen (129 – 199 n. Chr.) erweitert und zur Beschreibung der Persönlichkeit herangezogen wurde. Ein Gleichgewicht an Körpersäften führe zu einem ausgewogenen Charakter. Eine Störung des Gleichgewichts führe hingegen zu körperlicher und psychischer Krankheit. Seine Lehre findet sich heute noch im alltäglichen Sprachgebrauch wieder, wenn wir z. B. sagen „Sei nicht melancholisch!“, „Er ist ein Choleriker!“, „Er ist so ein Phlegmatiker!“. Viel später griff Immanuel Kant (1724 – 1804) diese Lehre wieder auf und entwickelte sie weiter. Er beschrieb vier Temperamentstypen, die er in den Temperamentstyp des Gefühls und den der Lebenskraft einteilte. Dem Temperament des Gefühls sind der Sanguiniker und der Melancholiker untergeordnet, dem Temperament der Lebenskraft der Choleriker und der Phlegmatiker. 2 Frühere Persönlichkeitstheoretiker Persönlichkeitseigenschaften. schufen Persönlichkeitstypen anstelle von Persönlichkeitstypen sind diskrete Kategorien, in die Individuen eingeordnet werden können. ( z.B. der Choleriker) Bei Persönlichkeitseigenschaften handelt es sich um kontinuierliche Dimensionen, auf denen sich Individuen je nach Ausprägung der betreffenden Eigenschaft positionieren lassen. Dadurch werden Mischformen/-typen möglich, die bei diskreten Kategorien nicht zugelassen sind. Von der Antike bis zur Gegenwart erzielte die Persönlichkeitsforschung jedoch nur kleine Fortschritte. Das lag daran, dass die Sprache als einziges Mittel zur Verfügung stand, Persönlichkeit zu beschreiben und diese kulturell geprägt, sowie unscharf und Trends unterliegend ist. Erst nachdem statistische Methoden entwickelt wurden wie z. B. die Korrelation und die Faktorenanalyse konnten neue Wege der systematischen Strukturierung von Eigenschaften beschritten werden. Die erste bedeutende Wende im Denken in Richtung Eigenschaftstheorie ging auf Wilhelm Wundt (1832-1920) zurück. Er gilt als Begründer der modernen Psychologie. Er ersetze die Kategorien durch Persönlichkeitsdimensionen und arbeitete die antiken Persönlichkeitstypen zu zwei Dimensionen um, die die Positionierung eines Menschen anhand der Veränderbarkeit seiner Stimmungslage und der Stärke seiner Emotionen erlauben. 3 4 Die Definition von Persönlichkeitseigenschaften: „Persönlichkeitseigenschaften“ in der Psychologie unterscheiden sich von denen, der Alltagssprache. In der Psychologie bedeutet dieser Begriff: „Eine Dimension der Persönlichkeit, mittels derer Personen nach dem Grad der Manifestation eines bestimmten Merkmals kategorisiert werden können.“ (Burger 1997) Die Problematik ist, dass selbst in der Wissenschaft viele verschiedene Definitionen kursieren. Der Begriff bleibt trotz Bemühungen nicht eindeutig definiert. Der Theorie der Persönlichkeitseigenschaften liegen folgende Annahmen zugrunde: (1) Persönlichkeitseigenschaften sind zeitlich relativ stabil. (2) Persönlichkeitseigenschaften sind relativ situationsstabil. Auch wenn sich das Verhalten einer Person über die Zeit verändert, so ist doch über alle Situationen hinweg eine gewisse innere Konsistenz wahrnehmbar. Z. B.: Ein extrovertierter Mensch kann sich in manchen Situationen offener und geselliger verhalten als in anderen (z. B. bei einem Fachvortrag anders als auf einer Party) dennoch wird er gesamt gesehen immer offener und geselliger sein als ein introvertierter Mensch. (3) Es wird davon ausgegangen, dass sich die Persönlichkeitseigenschaften eines Menschen in seinem Verhalten zeigen. Wenn also eine Mensch extrovertiert ist, dann wird er sich kontaktfreudig verhalten (und umgekehrt, wenn jemand kontaktfreudig ist, schließen wir daraus, dass er extrovertiert ist => Zirkelschluss!) In der Persönlichkeitstheorie kann man einstweilen zwischen der internen Qualität des Menschen und seinem Verhalten unterscheiden. Der Fokus des Interesses liegt auf der Beziehung zwischen beiden. (4) Aus diesen Annahmen heraus ergibt sich der besondere Blick der Persönlichkeitstheoretiker. Sie interessieren sich mehr für die allgemeinen Verhaltensbeschreibungen als für Erklärungen, Verständnis der Ursachen oder Vorhersagen des Verhaltens einzelner. Forscher dieser Richtung machen eher Vorhersagen über Gruppen von Menschen, wie sich diese verhalten werden. Erst in letzter Zeit wird versucht auch Erklärungen für Verhaltensweisen zu liefern. Der große Vorteil dieser Methode ist, dass Individuen und Gruppen sehr einfach verglichen werden können. Über Persönlichkeitsveränderungen können sie (noch) keine Aussagen machen (klinischer Blickwinkel). Um ein besseres, inneres Bild von dem zu bekommen, was mit „Persönlichkeitseigenschaften“ im Sinne der Persönlichkeitstheoretiker gemeint ist, muss man sich diese als elementare Einheit der Persönlichkeit vorstellen. Sie repräsentieren Dispositionen für bestimmte Reaktionen. Die Frage, in welchen Ausmaß Verhalten durch die Situation oder durch die Persönlichkeit bestimmt ist, wird aus dem Blickwinkel der Persönlichkeitstheoretiker so beantwortet, dass es einen Einfluss der Situation gibt, es sind aber immer auch dispositionale Effekte beobachtbar. 5 Mischel (1999) schlägt deshalb vor, dass eine Persönlichkeitseigenschaft die „bedingte“ Möglichkeit einer Kategorie von Verhaltensweisen in einer Kategorie von Kontexten darstellt. Wenn eine Person extrovertiert ist, wird ihr unterschiedlich starkes, extrovertiertes Verhalten in einer Vielzahl von Situationen beobachtbar sein. Die Entwicklung des persönlichkeitstheoretischen Paradigmas: 1. 2. 3. 4. 5. 6. Sheldon und die Somatotypen Frühe lexikalische Ansätze und Sir Francis Galton (1822 – 1911) Gordon Allport´s Arbeiten Raymond Cattell und die Faktorenanalyse Hans Eysencks Eigenschaftstheorie der Persönlichkeit Die „Big Five“ und das Fünf-Faktorenmodell der Persönlichkeit Ad 1. Sheldon und die Somatotypen: William Sheldon war Mediziner und Psychologe und schuf ein Konzept sogenannter Somatotypen, das auf der Konstitution und dem Temperament begründet war. Er identifizierte 17 „objektive“ Körpermaße und analysierte dazu 4000 männliche und 4000 weibliche Studierende. Aus dem Ergebnis formte er drei grundlegende Somatotypen: endomorph, mesomorph und ektomorph. Die Ähnlichkeit mit Kretschmers Konstitutionstypen ist gegeben (endomorph/pyknisch, mesomorph/athletisch, ektomorph/leptosom). Mittels des von ihm entwickelten Somatotyping ordnete er alle Studierenden auf diesen drei Dimensionen hinsichtlich ihres Körperbaus ein. Er sammelte zusätzlich von seinen Probanden psychologische Informationen, Informationen über Ernährungs- und Lebensgewohnheiten. Schwerpunkt bildete aber die Körpermaße, die von Alter und sozialen Einflüssen unabhängig seien. Jedes so vermessene Individuum bekam auf jeder Dimension einen Wert von 1 bis 7 zugewiesen. Der Somatotyp ist ein Kompromiss zwischen Genotyp (genetische Grundlage) und Phänotyp (äußere Gestalt). Das Neue an dieser Konstitutionslehre war, dass sie Mischtypen zuließ. So kann ein Mensch z. B. 1-1-7 sein, das heißt etwas endo- und mesomorph und sehr stark ektomorph, also so etwas wie ein wandelnder „Stecken“, 7-1-1 wäre hingegen jemand der adipös wirke. Sheldon stellte seine Theorie in seinem Buch „Atlas of Men“ vor, in der er die relevanten männlichen Körpermaße publizierte. Zu einer Identifizierung relevanter Körpermaße für Frauen kam es nicht mehr. Sheldon konnte zeigen, dass jeder Somatotyp mit bestimmten Temperamenten signifikant korrelierte, damit war er ein Pionier der Psychometrie, da er für die Erforschung dieser Temperamente Fragebögen verwendete und sie statistisch auswertete. 6 Ad 2. Sir Francis Galton und die lexikalischen Ansätze der Persönlichkeitstheorie: Sir Francis Galton war ein englischer Forscher, der sich mit der genetischen Basis von Intelligenz beschäftigte. Er interessierte sich auch für den Zusammenhang zwischen Sprache und Persönlichkeit und war überzeugt davon, dass sich alles, was wichtig ist, in der Sprache abbildet. Also auch wichtige Deskriptoren von Persönlichkeitseigenschaften 1884 begann er mit seiner Untersuchung des Thesaurus. Er suchte die wichtigsten Wörter der englischen Sprache zur Beschreibung von Eigenschaften. Er ging dabei von zwei Annahmen aus: 1. Die Häufigkeit des Gebrauchs eines Wortes korreliert mit seiner Bedeutsamkeit. 2. Die Anzahl der Wörter, die synonym für eine Persönlichkeitseigenschaft stehen, zeigt ebenfalls ihre Bedeutsamkeit. So konnten für das Wort „ehrlich“ 31 Synonyme gefunden werden. Dieses Wort wäre nach Galton´s Theorie ein signifikanter Deskriptor von Persönlichkeit. „Abweichend“ hingegen habe kein einziges Synonym und ist somit nicht signifikant. Galton untersucht zwar die englische Sprache, ging aber davon aus, dass die beobachtbaren Phänomene kulturübergreifend wären. Aus dieser Annahme heraus formulierte er seine lexikalische Hypnothese: Wenn individuelle Unterschiede zwischen Menschen bedeutsam sind, gibt es auch Wörter, die diesen Unterschied bezeichnen. Diese Wörter werden umso häufiger benützt, je wichtiger der Unterschied in der Beschreibung von Persönlichkeit ist. Die Wichtigkeit des Unterschieds wird nicht nur durch das Wort selbst, sondern auch durch die Anzahl seiner Synonyme definiert. 7 Ad 3. Gordon Allport´s Theorie: Allport spann die Idee von Galton weiter und identifizierte 17.952 Wörter der englischen Sprache, die sich auf die Beschreibung von Persönlichkeitseigenschaften bezogen. Er konstruierte daraus den ersten psychologischen Test zu Persönlichkeitseigenschaften und hielt im Jahr 1924 die erste Vorlesung zur Persönlichkeitspsychologie ab. Aufgrund seiner Beobachtungen, dass das menschliche Verhalten eine unglaubliche Variabilität zeigt, dass es aber immer auch eine gewisse Konstanz beinhaltet, formulierte er folgende Hypothese: Persönlichkeitseigenschaften wären für die Konstanz im menschlichen Verhalten verantwortlich. Sie sind in unserem Nervensystem physisch repräsentiert. Er formulierte die Hoffnung, dass es eines Tages – Dank des technischen Fortschritts – möglich sein würde, die Nervensysteme des Menschen dahingehend zu untersuchen. Allport vertrat einen universellen Ansatz: Er war der Überzeugung, dass das einzigartige Zusammenspiel von Persönlichkeitseigenschaften den Unterschied zwischen Menschen aus mache. Die Persönlichkeitseigenschaften bilden in der Summe eine Persönlichkeit, die zu Weiterentwicklung und Wachstum fähig sei. Veränderung war für ihn ein Bestandteil des Persönlichkeitssystems, der es uns ermöglicht, sich an neue Situationen anzupassen. (Damit wäre z. B. Psychotherapie so eine neue Situation, in der der Mensch eine neue Qualität von Beziehungserfahrung lernt und dadurch seine Persönlichkeit verändern kann.) 8 Allport unterschied zwischen nomothetischen 1 und idiografischen 2 Ansätzen. Der nomothetische Ansatz ermöglicht die Identifizierung allgemeiner Persönlichkeitseigenschaften, die die Möglichkeit bieten Gruppen von Individuen zu identifizieren und zu vergleichen. Dieser Ansatz schien Allport wenig attraktiv. Ihn interessierte die persönliche Disposition eines Individuums, also die einzigartigen Eigenschaften, die ein Mensch besitzt. Diese Persönlichkeitseigenschaften klassifizierte er in Kardinale, Zentrale und Sekundäre: Kardinale Persönlichkeitseigenschaften dominieren die Persönlichkeit und haben einen starken Einfluss auf das Verhalten. Für Allport waren das Besessenheiten, Leidenschaften, die unbedingt befriedigt werden müssen. Z. B.: Ein Mensch mit der Kardinaleigenschaft Kompetitivität (Wettbewerbsorientierung), der immer und überall der Beste sein möchte. Zentrale Persönlichkeitseigenschaften beinhalten fünf bis zehn Eigenschaften, die die beste Beschreibung eines Menschen liefern. Sekundäre Persönlichkeitseigenschaften beziehen sich auf Präferenzen des Individuums, sie sind keine entscheidenden Kernbestandteile der Persönlichkeit und treten oft nur in bestimmten Situationen hervor. Ein weiterer, wichtiger Beitrag Allport´s zur Persönlichkeitstheorie bezieht sich auf das Konzept des Selbst. Dieses sei entscheidend für die Entwicklung von Identität und Individualität und somit auch essentiell für den Begriff „Persönlichkeit“. Das Selbst (Selbstkonzept) bestünde – nach Allport – nicht schon von Geburt an, sondern würde sich im Laufe des Lebens entwickeln. Zuerst wird sich das Kind in Abgrenzung zur Umwelt seiner eigenen Identität bewusst. Es entsteht sukzessive das Gefühl eigenständiger Identität. Durch die Erfahrungen, die es im Zuge seiner Integration in die Familie und die Gesellschaft erfährt, entwickelt sich dann die Selbstwertschätzung. Allport wusste, dass das Konzept des Selbst schwer fassbar ist und er vermutete, dass es sich aus mehreren Teilen zusammensetzt. Für die Zusammensetzung aller Selbstteile verwendete er den Begriff „Proprium“. Allport zeigte in seiner Forschungstätigkeit immer wieder die Begrenzungen der eigenschaftstheoretischen Ansätze auf, er stellte immer wieder Fragen nach den relativen Einflüssen von Persönlichkeit und Situation auf das Verhalten. Diese Fragen sind bis heute 1 Nomothetische Ansätze gehen von einer begrenzten Anzahl von Eigenschaften aus, die ausreichen die Persönlichkeit eines Menschen zu beschreiben. Jeder Mensch bekommt eine Position innerhalb des Netzwerks dieser Eigenschaften zugewiesen. Man kann Menschen nach bestimmten Gruppenvariablen vergleichen z. B. Männer mit Frauen, woraus sich Gruppenmittelwerte ergeben, die als „Norm“ bezeichnet werden. Ein Individuum lässt sich dann anhand der Über- oder Unterschreitung dieses Norm-Werts beschreiben. Nomothetische Ansätze befassen sich also mit der Gemeinsamkeit von Persönlichkeiten. 2 Der Ideografische Ansatz konzentriert sich auf das Individuum und beschreibt die Persönlichkeitsvariablen innerhalb dieses Individuums. Jede Person ist einzigartig und das Hauptaugenmerk liegt auf dem Einzelfall. Die Unterschiede zwischen Menschen sind größer als ihre Gemeinsamkeiten. 9 immer noch unbeantwortet. Allport´s Liste an Persönlichkeitseigenschaften umfasst 4504 Wörter und ist für den Einsatz als standardisierter Test zu lange. 10 Ad 4. Raymond Cattell und die Faktorenanalyse: Cattell wurde 1905 in einem kleinen Dorf in Großbritannien geboren. Er studierte zunächst Chemie und erst später Psychologie. Der Betreuer seiner Dissertation war Charles Spearman, der Erfinder der Faktorenanalyse (in derselben Abteilung arbeitete auch Sir Cyril Burt, der sich mit Intelligenzforschung befasste und von Cattell beeinflusst wurde). Cattell forschte im Bereich der Persönlichkeit und leitete – um praktische Erfahrungen zu sammeln – eine Erziehungsberatungsstelle. 1937 emigrierte er in die USA. Cattell´s Forschung drehte sich um die Faktorenanalyse. Er veröffentlichte viel und schuf den berühmten immer noch gebräuchlichen 16 PF-Test (16 Personality Factor Questionaire). Was ist die Faktorenanalyse? Die Faktorenanalyse ist ein Verfahren, das eingesetzt wird, wenn zwischen den erhobenen Variablen mehrere Beziehungen bestehen. Es gibt grob gesprochen zwei Arten der Faktorenanalyse: A) die exploratorische FA (EFA) um herauszufinden, welche Faktoren den Daten zugrunde liegen. B) die konfirmatorische FA (KFA) um die Ergebnisse der exploratorischen FA zu überprüfen. Eine Faktorenanalyse ist ein multivariates, datenreduzierendes, statistisches Verfahren, das uns gestattet, die korrelativen Beziehungen zwischen einer Reihe von Variablen zu vereinfachen, d.h. man setzt sie ein, um die Beziehungen zwischen einzelnen Fragen/Items (Testerstellung) oder um die Beziehungen zwischen einzelnen Variablen zu vereinfachen. Stellen Sie sich vor, Sie haben 20 Variablen und wollen die Beziehungen dieser Variablen untereinander untersuchen. Das wären dann 190 Beziehungen. Variable 1 kann mit den Variablem 2 bis 20 korrelieren, Variable 2 kann mit 3 bis 20 und Variable 3 mit 4 bis 20 korrelieren. Die Beziehungen können aber noch komplexer sein, so kann Variable 1 und 12 jeweils getrennte Beziehungen zur Variable 13 haben. Man kann sich also vorstellen, dass die Interpretation aller Beziehungen aller Variablen zueinander aufwendig ist und letztendlich bleibt der Forscher immer mit der Frage zurück, ob die Beziehungen tatsächlich bestehen, oder nur Nebeneffekte anderer Beziehungen sind. (Wir sprechen hier von multiplen Korrelationen!) Die Faktorenanalyse ist ein Verfahren, das diese Beziehungen vereinfacht. Sie hilft jene Faktoren / gemeinsame Zusammenhangsmuster zu identifizieren, die relevant sind. Die Faktorenanalyse zeigt uns das Muster hinter den Variablen. Ad A: Die exploratorische FA erfolgt in zwei Schritten: 1. Extraktion von Faktoren (Wie viele Faktoren liegen dem Datenmaterial zugrunde?) 2. Rotation von Faktoren (Welche Items/Variablen laden auf welchem Faktor?) 11 12 Ad B: Konfirmatorische FA: Sie dient der Bestätigung der Ergebnisse der exploratorischen Faktorenanalyse. Sie bestätigt (oder widerlegt) die Annahme, ob zukünftig erhobene Daten der, durch die EFA gefundenen Erklärung entsprechen. Das nennt man „Anpassungsgüte“. Für das grobe Verständnis der Persönlichkeitsforschung reicht dieses Wissen! Wer sich für Testkonstruktion, Methodenlehre und Statistik interessiert, sei an diese Vorlesungen verwiesen! Cattell wollte mittels Faktorenanalyse die vielen Eigenschaften des Menschen auf wenige, grundlegende, reduzieren und so die Grundstruktur der menschlichen Persönlichkeit offenlegen. Dazu überprüfte er Listen von Persönlichkeitseigenschaftswörtern dahingehend, ob sie inhaltlich zusammengehören. Dieses „Zusammengehören“ bezeichnet das Ergebnis mittels Faktorenanalyse, nämlich einen Faktor. Faktoren sind Konstrukte hinter den Beschreibungen. Z. B.: Jemand beschreibt sich als „entschlossen“, „beharrlich“, „produktiv“ und „zielgerichtet“. Das dahinter liegende Konstrukt, also das, was alle diese Begriffe gemeinsam haben, ist eine Eigenschaft, die man als „Erfolgsorientierung“ bezeichnen könnte (WICHTIG: Die Bezeichnung des Faktors obliegt dem Wissenschaftler. Die Faktorenanalyse sagt nur, dass es einen Faktor gibt, nicht wie er heißt!) Die Faktorenanalyse liefert also ein Maß der Persönlichkeitseigenschaft „Erfolgsorientierung“ anhand der Ausprägungen in den Variablen „Entschlossenheit“, „Beharrlichkeit“, „Produktivität“ und „Zielgerichtetheit“. Cattell definierte die Persönlichkeit als diejenigen Charakteristika eines Individuums, die darüber entscheiden, wie es sich in einer bestimmten Situation verhalten wird. Er identifizierte dazu eine Vielzahl von Persönlichkeitseigenschaften, die er als „relativ stabile und zeitlich überdauernder Bestanteile der Persönlichkeit“ sah. Er unterschied zwischen verschiedenen Typen von Persönlichkeitseigenschaften. Die erste Unterteilung war die, in genetisch determinierte „konstitutionelle“ Persönlichkeitseigenschaften versus durch Umwelterfahrungen erworbene, sogenannte “umweltbedingte“ Persönlichkeitseigenschaften. Cattell schloss sich damit einem immer noch fortwährenden Trend in der Persönlichkeitsforschung an, der sich intensiv damit beschäftigt, ob und wie viel von unserer Persönlichkeit angeboren bzw. erworben ist. Er verwendete Persönlichkeitstests und maß die unterschiedlichen Ausprägungen einer Persönlichkeitseigenschaft in sehr komplexen Stichproben. Seine Stichproben waren gemeinsam aufgewachsene Familienmitglieder getrennt aufgewachsene Familienmitglieder gemeinsam aufgewachsene, eineiige Zwillinge getrennt aufgewachsene, eineiige Zwillinge gemeinsam aufgewachsene, verwandte Kinder 13 getrennt aufgewachsene, verwandte Kinder gemeinsam aufgewachsene, nicht verwandte Kinder getrennt aufgewachsene, nicht verwandte Kinder Cattell erhoffte sich dadurch Aufschluss zu bekommen, ob die gemessene Persönlichkeitseigenschaft angeboren oder erworben ist. Dieses Verfahren wird heute noch in der Verhaltensgenetik angewendet! Weiter unterschied Cattell zwischen fähigkeitsbezogenen, temperamentsbezogenen und dynamischen Persönlichkeitseigenschaften. Fähigkeitsbezogene Eigenschaften bestimmen, wie gut man in einer Situation zurechtkommt und in welchem Ausmaß man sein Ziel in dieser Situation erreicht. Diese Eigenschaft steht in engem Zusammenhang mit Intelligenz. Temperamentsbezogene Eigenschaften beschreiben jene Eigenschaften, die Cattell auch als „Stil“ verstanden wissen will. Wie wir unser Ziel erreichen, hängt vom Temperament ab. Dynamische Persönlichkeitseigenschaften würden unser Verhalten energetisieren und motivieren. Cattell teilte die dynamischen Persönlichkeitseigenschaften noch in drei weitere Untereigenschaften ein. Alle dynamischen Persönlichkeitseigenschaften sind miteinander auf komplexe Art vernetzt und bilden ein dynamisches Verstrebungsnetzwerk. Da dieses Konzept des Verstrebungsnetzwerks zu komplex war, wurde der Ansatz in der Psychologie nicht weiter verfolgt. Cattell unterschied weiter zwischen allgemeinen Persönlichkeitseigenschaften und individuellen Persönlichkeitseigenschaften. Allgemeine liegen bei vielen Menschen vor. Dazu zählen Intelligenz, Umgänglichkeit, Abhängigkeit etc. Individuelle Eigenschaften sind seltener und spezifisch für ein Individuum. Z.B.: Das Interesse für das Sammeln von Bierdeckel, Knöpfen, ... Individuelle Persönlichkeitseigenschaften sind Vorlieben für bestimmte Dinge. Sie motivieren uns zu damit assoziierten Handlungen und machen uns einzigartig. Cattell unterschied zwischen Oberflächeneigenschaften und Grundeigenschaften. Oberflächeneigenschaften sind bestimmte Gruppen von Eigenschaften, die bei vielen Individuen auffindbar sind und die über die Zeit und über viele Situationen konstant gemeinsam auftreten. Das bedeutet, wenn jemand gesellig ist, dann ist er meistens auch eher sorglos, optimistisch, etc. In der Faktorenanalyse zeigt sich dann, dass Oberflächeneigenschaften auf „Faktoren“ oder Grundeigenschaften zurück geführt werden können. (In diesem Fall die Grundeigenschaft „Extroversion“.) Die Oberflächeneigenschaften sind also die beobachtbaren, 14 offenkundigen Verhaltensweisen, die Grundeigenschaften beschreiben die dahinter liegenden, relevanten Unterschiede zwischen Menschen. Die Grundeigenschaften sind die Struktur der Persönlichkeit. Die Hoffnung, die auf dem Erkennen dieser Struktur liegt, ist die, dass wir eines Tages Verhalten vorhersagen können. Um die Grundstruktur der Persönlichkeit beschreiben zu können begann Cattell die Eigenschaftswörterlisten von Allport und Odbert (4504 Wörter) mittels zweier Ratingverfahren und einer Faktorenanalyse zu untersuchen. Zusätzlich nahm er Ergebnisse von anderen Studien sowie klinische Studien aus der Psychiatrie hinzu. - - Dies führte zu 46 Oberflächeneigenschaften. Diese überprüfte er an einer großen Stichprobe und gewann die sogenannten Lebensdaten (L-Daten). Dies sind Daten, die durch die Bewertung von Menschen im Alltag entstehen. Z. B.: Schulnoten, Führerscheinprüfung, Statistiken über Autounfälle, etc. Diese Daten reduzierte Cattell auf 12 Grundeigenschaften. Dann untersuchte er Daten, die durch Persönlichkeitsfragebögen gewonnen wurden, die sogenannten Questionnaire-Daten (Q-Daten). Als dritte Quelle für seine Untersuchung nahm er Test-Daten (T-Daten). Diese werden in standardisierten Experimenten gewonnen. Diese Experimente sollen objektiv sein. Mittels Faktorenanalyse aus dem gesamten Datenmaterial kam Cattell zu 16 Primärfaktoren (12 L-Daten, 4 Q-Daten), die den zentralen Grundeigenschaften des Menschen entsprechen sollen. (Fortlaufende Untersuchungen fanden noch 7 weitere Faktoren.) Diese Daten wurden im 16 PF-Persönlichkeitstest umgesetzt. Cattell reihte diese 16 Persönlichkeitsfaktoren nach ihrem Einfluss auf das Verhalten in eine Rangliste. Jeder Faktor stellt dabei ein Kontinuum dar, auf dem das Individuum positioniert wird. Die Endpunkte des Kontinuums markieren jeweils die extremste Ausprägung der Eigenschaft. 15 Faktor A „Wärme“ (Sachorientierung vs. Kontaktorientierung) Dieser Faktor hat in der Psychiatrie Bedeutung gefunden. In der Vergangenheit wurde anhand dieses Faktors entschieden, ob jemand stationär aufgenommen werden muss. Faktor B „logisches Schlussfolgern“ (konkretes Denken vs. abstraktes Denken) Cattell war der erste Forscher, der Intelligenz als Persönlichkeitseigenschaft sah. Faktor C „emotionale Stabilität“ (emotionale Störbarkeit vs. emotionale Widerstandsfähigkeit) Emotionale Stabilität wird assoziiert mit Impulskontrolle und mit effizienter Problemlösung. Wer am positiven Ende eingeordnet ist, ist emotional stabil, kommt gut mit seinem Leben zurecht und hat eine realistische Lebenseinstellung. Am negativen Ende sind Menschen eher labil, neurotisch und ängstlich. Faktor E „Lebhaftigkeit“ (Besonnenheit vs. Begeisterungsfähigkeit) Um diesen Faktor beschreiben zu können, erfand Cattell einen neuen Begriff, das Kunstwort „surgency“, da er kein passendes aus der Alltagssprache herausfand. Menschen mit hoher Lebhaftigkeit sind fröhlich, gesellig, zugänglich, freudig, geistreich, humorvoll, gesprächig, dynamisch. Menschen mit geringer Lebhaftigkeit sind pessimistisch, neigen zu Depressionen, sind eigenbrötlerisch, selbstbeobachtend, sorgenvoll und zurückgezogen. 55 % der Varianz dieser Eigenschaft seien laut Cattell auf genetische Vererbung zurück zu führen. Faktor G „Regelbewusstsein“ (Flexibilität vs. Pflichtbewusstsein) Cattell verglich diesen Faktor mit Freud´s „Über-Ich“. Personen mit ausgeprägtem Regelbewusstsein sind beharrlich, verlässlich und verfügen über gute Selbstkontrolle. Demgegenüber sind Menschen mit schwachem Regelbewusstsein geneigt, den Weg des geringsten Widerstands zu gehen. Faktor H „soziale Kompetenz“ (Zurückhaltung vs. Selbstsicherheit) Hier kontrastiert Cattell das kühne, selbstbewusste, angenehme, abenteuerlustige und gesellige Individuum mit dem schüchternen, distanzierten, in sich zurück gezogenen und ängstlichen. Cattell führte diese Eigenschaft auf das sympathische und parasympathische Nervensystem zurück. Das sympathische Nervensystem reagiert auf Stress mit der KampfFlucht-Reaktion. Das parasympathische System sorge eher für Ruhe und Entspannung. Welches System mehr reagiert sei zu 40 % angeboren. Faktor I „Empfindsamkeit“ (Robustheit vs. Sensibilität) Robuste Individuen sind reif, geistig unabhängig, selbständig und realistisch. Sensible Individuen hingegen sind sanftmütig, fantasievoll, ängstlich und ungeduldig. Faktor L „Wachsamkeit“ (Vertrauensbereitschaft vs. Skeptische Haltung) „Skeptische“ Menschen sind nicht nur misstrauisch sondern auch eifersüchtig und im Leben eher zurückgezogen. Sie haben eine hohe Ausprägung in diesem Faktor. Menschen mit niederer Ausprägung sind vertrauensvoll, gelassen und verständnisvoll. 16 Faktor M „Abgehobenheit“ (Pragmatismus vs. Unkonventionalität) Eine hohe Ausprägung im M-Faktor bedeutet, dass der Mensch unkonventionell, intellektuell und fantasievoll ist. Diese Menschen kümmern sich nicht um praktische Dinge des Lebens. Menschen die eher praktisch orientiert sind, sind konventionell, logisch denkend, pflichtbewusst und neigen zur Besorgnis. Faktor N „Privatheit“ (Unbefangenheit vs Überlegenheit) Hier stehen sich Ausprägungen gegenüber wie gerissen, clever, scharfsinnig, weltgewandt versus natürlich, unschuldig, schlicht, spontan, anspruchslos, naiv. Faktor Q „Besorgtheit“ (Selbstvertrauen vs. Besorgtheit) Ein hohes Ausmaß an Besorgtheit sieht Cattell hauptsächlich bei Kriminellen, Alkoholikern, Drogenabhängigen und Menschen mit einer bipolaren Störung. Menschen mit hohem Selbstvertrauen wären hingegen friedlich, belastbar und selbstsicher. Cattell fand noch vier weitere Faktoren (Q-Faktoren), die sich aber nicht ganz so stabil erwiesen wie die zuerst genannten. Faktor Q1 „Offenheit für Veränderung“ (Sicherheitsinteresse vs. Veränderungsbereitschaft) Menschen mit einer niedrigen Ausprägung hätten Angst vor Veränderungen. Sie würden nach Bekanntem streben. Menschen mit einer hohen Ausprägung hingegen würden das Unkonventionelle lieben und sich nicht an gesellschaftliche Normen halten. Faktor Q2 „Selbstgenügsamkeit“ (Gruppenverbundenheit vs. Eigenständigkeit) Hier wird die Vorliebe beschrieben, sich Gruppen anzuschließen oder für sich zu bleiben. Faktor Q3 „Perfektionismus“ (Spontaneität vs. Selbstkontrolle) Menschen mit einer hohen Ausprägung in Q3 sind zwanghaft, sie brauchen eine kontrollierte Umgebung, die hochgradig vorhersehbar ist. Menschen mit einer niederen Ausprägung sind eher undiszipliniert, nachlässig und unorganisiert. Faktor Q4 „Anspannung“ (Innere Ruhe vs. Innere Gespanntheit) Menschen mit einer hohen Ausprägung im Q4 sind getrieben und angespannt. Menschen am anderen Ende sind entspannt und unbekümmert. Cattell wollte eine empirisch begründete Persönlichkeitstheorie schaffen, die biologische und umweltbezogene Aspekte mit einbezog und eine Vorhersage von Verhalten möglich machen sollte. Er schuf den 16 PF-Persönlichkeitstest, der heute in seiner revidierten Fassung immer noch im Einsatz ist. Dass seine Arbeit nicht mehr Einfluss auf die Forschung hatte, erklärt sich dadurch, dass seine Veröffentlichungen wirklich sehr schwer zu lesen sind. Cattell war in erster Linie „Statistiker“. 17 Ad 5. Hans Eysencks Eigenschaftstheorie der Persönlichkeit: Hans Eysenck wurde 1916 in Deutschland geboren. Zu der Zeit, in der Eysenck forschte, dominierte der Behaviorismus. Kinder würden demnach als weißes Blatt Papier geboren, nur Erziehung und Erfahrung forme ihre Persönlichkeit. Die Forschung war zweigeteilt. Viele damals forschende Persönlichkeitstheoretiker entwickelten entweder Theorien ODER widmeten sich der experimentell Forschung, die sich für individuelle Unterschiede nicht zu interessieren schien. Eysenck trat dagegen an. Er war überzeugt davon, dass es angeborene Anteile unserer Persönlichkeit gibt und dass die Theorie und das Experiment gut zusammen gingen. Er definierte Persönlichkeit wie folgt: „Persönlichkeit ist die mehr oder weniger stabile und dauerhaft Organisation des Charakters, Temperaments, Intellekts und Körperbaus eines Menschen, die seine einzigartige Anpassung an die Umwelt bestimmt. Der Charakter eines Menschen bezeichnet das mehr oder weniger stabile und dauerhaft System, seines konativen Verhaltens (des Willens), sein Temperament das mehr oder weniger stabile und dauerhafte System seines affektiven Verhaltens (der Emotionen oder der Gefühle), sein Intellekt das mehr oder weniger stabile und dauerhaft System seines kognitiven Verhaltens (der Intelligenz), sein Körperbau das mehr oder wenig stabile System seiner physischen Gestalt und neuroendokrinen (hormonale) Ausstattung.“ (Eysenck, 1970, s. S. 2) Auf Basis seiner faktorenanalytischen Untersuchungen kam Eysenck auf drei Faktoren der Persönlichkeit, die er als Persönlichkeitstypen bezeichnete. Ausgehend von Verhaltensbeobachtungen von spezifischen Verhaltensweisen entwickelte er eine hierarchische Typologie der Persönlichkeit. Beobachtet man einen Menschen lang genug, sammelt man viele spezifische Verhaltensweisen. Diese können zu Gewohnheiten (= habituelle Verhaltensweisen) zusammen gefasst werden. Gruppen von habituellen Verhaltensweisen lassen sich wieder zu Persönlichkeitseigenschaften zusammenfassen. 18 Z. B.: Wir sehen verschiedene, spezifische Verhaltensweisen wie z.B., dass jemand gerne mit Fremden spricht, lustig ist, keine Scheu hat, etc. Diese spezifischen Verhaltensweisen würden wir unter dem Begriff „Geselligkeit“ (= Habituelle Verhaltensweise) subsummieren. Wir beobachten weitere habituelle Verhaltensweisen wie Lebendigkeit (lacht viel, sucht Augenkontakt, ...) und Bestimmtheit (setzt sich in Diskussionen durch, ...). Diese habituellen Verhaltenseigenschaften vereinen sich in der Faktorenanalyse zum Faktor „Extroversion“. Aus diesen Faktoren bildete Eysenck drei Persönlichkeitstypen: (1) Den extrovertierten Persönlichkeitstyp ist gesellig und impulsiv. Der introvertiert Persönlichkeitstyp hingegen still und selbstbeobachtend. Eysenck´s Meinung nach wäre die Basis dieser Unterschiede eine biologische Prädisposition, die im aufsteigenden reticulären Aktivierungssystem (ARAS) verankert ist. (Diese Annahme ist bis heute nicht vollständig bestätigen.) 19 (2) Der zweite Typ heißt „Neurotizismus“: ein neurotischer Mensch ist eine emotional instabile Persönlichkeit, diese Menschen neigen zu unbegründeter Furcht (Phobien), zeigen zwanghafte Symptome oder sind impulsiv. Neurotizismus beschreibt die Neigung der Realität unangemessene Angst oder Frucht zu zeigen. Eysenck beschrieb innerhalb der Neurotiker eine Untergruppe, die völlig frei von Angst sei. Dies wären die Psychopathen. Sie verhalten sich antisozial, haben vor Bestrafung keine Angst und zeigen keine Reue. Da er Psychopathen von Psychotikern abgrenzen wollte, schuf Eysenck einen dritten Persönlichkeitstyp. (3) Psychotizismus: Den Übergang zwischen krank und gestört sah Eysenck als fließend an. Psychotiker würden sich von Neurotikern nur durch die Schwere der Störung abgrenzen. Psychotiker zeigen zwar schwere Symptome der Psychopathie, sie wären zwar unbarmherzig, uneinfühlsam, selbstzentriert, feindselig, und würden aus Bestrafung nicht lernen, dennoch hätten sie auch positive Eigenschaften. Sie wären sehr kreativ (weil sie sich um Konventionen nicht kümmern, keine Angst vor Verlust der Zuneigung haben, ...). Die Grenze zum Genie ist dünn. Wer sehr erfolgreich in seinem Beruf ist, wird ebenfalls Züge der Psychopathie haben, da es entscheidend ist, sich und seinen Zielen 20 treu zu bleiben (Egozentrismus), ein gewisser Hang zum Regelbruch und zur Durchsetzung eigener Ideen ist ebenfalls wichtig. Eysenck stellte somit als erster einen Zusammenhang von Psychotizismus und Kreativität her und grenzte sich von Maslow und Rogers ab, da diese Kreativität als das Ergebnis einer optimalen gesunden Entwicklung ansahen. Eysenck räumte ein, dass im Bereich der Kreativität noch weitere Forschung notwendig sein wird. Eysenck formulierte anhand der drei Persönlichkeitstypen die Grundstruktur der Persönlichkeit und entwickelte ein Messinstrument, den sogenannten EPQ (Eysenck Personality Questionnaire). Er versuchte auch Vorhersagen zum Verhalten zu treffen und war überzeugt, dass zwei Drittel der Varianz im Verhalten auf biologische Ursachen zurück zu führen sind. Die Umwelteinflüsse bestimmten für ihn auf welche Art und Weise Persönlichkeitsmerkmale zum Ausdruck kämen, in Bezug auf ihre Veränderbarkeit gibt es aber biologische Grenzen. Es gibt viele Forschungsbefunde, die Eysenck´s Theorie bestätigen. Die Neurotizismus Skala und die Extroversions Skala haben sich als sehr zuverlässig zur Beschreibung der Persönlichkeit erwiesen. Die Psychotizismus Skala ist und blieb problematisch. Eysenck´s Grundstruktur der Persönlichkeit wurde in 24 Ländern in Afrika, Asien, Europa, Amerika bei Männern und Frauen festgestellt. Sybil Eysenck entwickelte den EPQ weiter zu einer Version für Kinder und Jugendliche (JEPQ). Auch dieser erwies sich über die Kulturen hinweg als konsistent. Für Eysenck war das der Beweis, dass Persönlichkeit genetisch determiniert sei, da sich diese drei Persönlichkeitsfaktoren über die Kulturen hinweg zeigen würden. Die Modifikation des genetisch determinierten Verhaltens würde dann durch Sozialisationserfahrungen passieren. (Z. B.: Extroversion – jemand redet gerne mit fremden Menschen => die Kultur gebietet uns 21 darüber wie wir sprechen, ob wir das jeweilig andere Geschlecht ansprechen dürfen, Augenkontakt haben dürfen, etc.) Eysenck beschäftigte sich mit der Psychopathologie und als dem Behaviorismus verpflichtet, war er überzeugt davon, dass gesundes wie abnormes Verhalten die Folge der Art und Weise ist, wie Individuen auf Reize in ihrer Umwelt reagieren. Zusätzlich bestimmte die Persönlichkeit, in welche Situationen sich ein Individuum begibt. Eysenck lehnte alle Therapierichtungen außer der Verhaltenstherapie ab. Besonders der Psychoanalyse gegenüber war er feindselig gestimmt. Dies führte dazu, dass die meisten Therapierichtungen begannen, ihre Arbeit zu evaluieren und wissenschaftlich zu begründen. So führte seine Kritik zu einer Verwissenschaftlichung und Qualitätssteigerung der Psychotherapie und umgekehrt führte diese Qualitätssteigerung wiederum zu einer Aufweichung seiner Kritik, so dass er später nicht mehr ganz so kategorisch gegen andere Therapierichtungen argumentierte. Ad 6. Die „Big-Five“ und das Fünf-Faktorenmodell der Persönlichkeit: Historische Entwicklung des Ansatzes In der Wissenschaft herrschte immer mehr die Einigkeit darüber, dass fünf Faktoren ausreichen, um die Struktur der Persönlichkeit zu beschreiben. Wie diese Faktoren allerdings zu benennen sind, darüber wird wie eh und je diskutiert. Zwei Modelle, die zur Einigkeit beigetragen haben, seien hier erklärt. Zusätzlich werden noch andere unterstützende Modelle genannt. 1. Der lexikalische Ansatz und die Big Five 2. Fünf-Faktoren Modell der Persönlichkeit (und die Fünf-Faktoren-Theorie) 22 Ad 1. Der lexikalische Ansatz und die „Big Five“: Die Grundannahme des lexikalischen Ansatzes ist, dass sich für Menschen wichtige und bedeutsame Unterschiede in der Persönlichkeit in der Sprache niederschlagen. Cattell´s 16 PF-Test, die Eigenschaftswörterlisten von Allport und Odbert, die Analysen von Tupes und Christal, Digman und Takemoto-Chock, Norman sowie Goldberg gehen alle in diese Richtung. Goldberg (1981) führte die wohl umfangreichste Untersuchung dazu durch, in dem die fünf Faktoren bestätigt wurden. Alle diese Ansätze, die zu fünf Faktoren kommen, werden unter dem Begriff „Big Five“ zusammengefasst. Der Kritikpunkt daran ist, dass man zwar immer auf fünf Faktoren kommt, welche Eigenschaften sich aber unter diese Faktoren subsummieren lassen – darüber gibt es unterschiedliche Ansichten. Ad 2. Das Fünf-Faktoren Modell der Persönlichkeit (FFM) und die Fünf-Faktoren-Theorie: Die zweite Quelle, die die Annahme einer Fünf Faktoren Struktur der Persönlichkeit stützt, besteht aus verschiedenen faktorenanalytischen Befunden. Wichtig ist zu wissen, dass diese fünf Faktoren aufgrund der Faktorenanalyse, also einer statistischen Methode, hervorgebracht wurden. Sie beruhen nicht auf einer Persönlichkeitstheorie. Dies ist in der Psychologie keine übliche Vorgehensweise. Normalerweise wird eine theoriebasierte Hypothese gebildet, über die Daten in der Realität gesammelt werden. Diese werden dann dahingehend ausgewertet, ob sie eine Hypothese stützten oder nicht. Die fünf Faktoren wurden aufgrund einer Faktorenanalyse des Datenmaterials gebildet. Die Vorgehensweise ist also datengeleitet, nicht theoriegeleitet. (Das ist auch einer der Hauptkritikpunkte, nämlich ob man mittels dieser Methode nicht nur die sprachliche Fähigkeit von uns Menschen, Eigenschaften verbal abzubilden, untersucht.) Costa und McCrae (1985 - 1997) fanden in ihrer Analyse zunächst die drei Faktoren von Cattell. Daraus schufen sie den NEO-PI (Neurotizismus-Extraversion-OffenheitPersönlichkeits-Inventar). Ein Test, der weit verbreitet ist. Später wurde dieser Test in seiner Revision um zwei weiter Faktoren ergänzt. (OCEAN: Openess, Consciousness, Extraversion, Agreeableness, Neuroticsm.) Jeder Primärfaktor stellt dabei wieder ein Kontinuum dar, auf dem sich die Individuen je nach Ausprägung einreihen lassen. Auf Deutsch heißen diese Faktoren: 1. 2. 3. 4. 5. Offenheit für Erfahrungen Gewissenhaftigkeit Extraversion Verträglichkeit Neurotizismus 23 Jede Hauptdimension beinhaltet weitere spezifische Persönlichkeitseigenschaften. Costa und McCrae nennen diese Facetten. Jeder Faktor beinhaltet sechs Facetten. Das Modell von Costa und McCrae weist keine theoretische Verankerung auf (also kein „Warum“ und „Wie“). Die Faktoren sind ihrer Meinung nach biologisch determiniert. Wie sich diese im Verhalten abbilden, bleibt unerklärt. Später versuchten die beiden Wissenschaftler ein Erklärungsmodell nachzuliefern (siehe Abbildung). 24 Allgemein Kritik am „Big Five“ und dem Fünf-Faktoren-Modell: Es besteht bis jetzt nur Einigkeit über die Anzahl der Faktoren, nicht über deren Benennung und über deren Natur. Saucier und Goldberg kritisieren auch die Flut an Versuchen, die fünf Faktoren zu bestätigen. Sie fänden es fruchtbarer, wenn man diesen gesetzten Rahmen verließe und versuche, das Gegenteil zu beweisen (statt nach weiterer Bestätigung zu forschen). Ein weiterer Kritikpunkt ist die datengeleitete Herangehensweise und dass sich aufgrund der deskriptiven Natur der Faktoren keine Vorhersagen von Verhalten getroffen werden können. Die Persönlichkeitsfaktoren erklären nur 10 % der Varianz des menschlichen Verhaltens. Der Rest erklärt sich aus anderen Einflüssen. Die Tests führten eine Zeit lang zum blinden Vertrauen in ihre Qualität. Bewerber, Schüler, etc. wurden danach beurteilt und ausgewählt. Mittlerweile weiß man um die Schwächen und ergänzt die Tests durch andere psychometrische Verfahren. 25 Biologische Ansätze zu Persönlichkeit und Intelligenz Zahlreiche Befunde deuten darauf hin, dass es in menschlichen Populationen einen genetischen Einfluss auf die Persönlichkeit gibt. Gut erforscht wurden z.B. genetische Einflüsse auf die drei bzw. fünf Faktorenmodelle der Persönlichkeit. Eysenck ging von drei Persönlichkeitsdimensionen aus 1. Psychotizismus (einzelgängerisch, missmutig, niederträchtige und antisoziale Persönlichkeitseigenschaften) 2. Extraversion (gesellig, sorglos und optimistisch) 3. Neurotizismus (ängstlich, sorgenvoll, launisch) Das fünf Faktoren Modell geht davon aus, dass folgende Persönlichkeitsdimensionen existieren: 1. Offenheit für Erfahrungen (aufmerksam, intellektuelle, kenntnisreiche kultiviert künstlerische neugierige analytische liberale Persönlichkeitseigenschaften) 2. Extraversion (gesellige redselige aktive, spontane abenteuerlustige, enthusiastische personenorientierte, durchsetzungsfähige Persönlichkeitseigenschaften) 3. Gewissenhaftigkeit (praktisch, umsichtige ernsthafte, vertrauenswürdige organisierte, sorgsame, verlässliche, arbeitssame, ambitionierte Persönlichkeitseigenschaften 4. Verträglichkeit (warme, vertrauensvolle, herzliche, verträgliche, kooperative Persönlichkeitseigenschaften. 5. Neurotizismus (emotionale, ängstliche, depressive, befangene Persönlichkeitseigenschaften) In verschiedenen Zwillingsstudien konnten nun gezeigt werden, dass ein großer Anteil dieser Persönlichkeitseigenschaften genetisch vererbt wurde. 26 27 Für Extraversion und Neurotizismus kann die Erblichkeit von 20-54% angenommen werden. Für Offenheit für Erfahrungen gibt es keine Beweise für eine genetische Determiniertheit. Die Ergebnisse legen nahe, dass es neben einem mehr oder weniger großen genetisch determinierten Anteil auch eine erheblich durch Umwelteinflüsse geprägten Anteil in der Persönlichkeit gibt. Will man sich mit der Erblichkeit von Persönlichkeitseigenschaften beschäftigen muss man sich folgende Fragen stellen: Zur Erklärung: „Phänotyp“ oder das Erscheinungsbild ist in der Genetik die Menge aller Merkmale eines Organismus. Er bezieht sich nicht nur auf morphologische, sondern auch auf physiologische Eigenschaften und auf Verhaltensmerkmale. „Genotyp“ oder das Erbbild eines Organismus repräsentiert seine exakte genetische Ausstattung, also den individuellen Satz von Genen, den er im Zellkern in sich trägt und der somit seinen morphologischen und physiologischen Phänotyp bestimmt. 28 29 Psychophysiologie, Neuropsychologie und Persönlichkeit: Psychophysiologie und Neuropsychologie sind Teilgebiete der Psychologie, die sich mit den physiologischen Grundlagen psychologische Prozesse befassen. Beide Disziplinen wollen mittels bildgebender Verfahren eine objektive Verbindung zwischen Prozessen im Gehirn und Verhalten herstellen. Eine der Grundannahmen ist, dass jegliches Verhalten, darunter auch Persönlichkeit und individuelle Unterscheide, durch physiologische und neurologische Faktoren beeinflusst werden kann. Eysencks biologisches Modell von Persönlichkeit und Aktivierung (Arousal) Eysenck (1976, 1990) versuchte eine Verbindung zwischen Biologie und Persönlichkeitsforschung herzustellen. Er meint, dass das menschliche Gehirn über zwei unterschiedlich neuronale Mechanismen verfüge: Exzitatorische Mechnaismen Inhibitorische Mechanismen Der exzitatorische Mechanismus dient dazu, das Individuum wachsam, aktiv und physiologisch erregt zu halten, während der inhibitorische Mechanismus mit Inaktivität und Lethargie in Zusammenhang steht. Das Individuum strebe nach Gleichgewicht. Das ARAS, das aufsteigende reticuläre Aktivierungssystem (im Hirnstamm) reguliere das Gelichgewicht. Das ARAS hat Verbindung zu Thalamus (einer neuronale Schnittstelle für Nervenimpulse im Gehirn) Hypothalamus (dieser reguliert den Stoffwechsel, sorgt für die notwendige Energie und reguliert die vegetativen Prozesse Cortex, dieser ist für die elaborierten neuronalen Verarbeitungsprozesse verantwortlich. Das ARAS verwaltet, wie viel Informationen oder Stimulation das Gehirn bekommt, es kontrolliert Wachheit und Schlaf und hält das Individuum wachsam und aktiv. Zusätzlich identifiziert Eysenck zwei neuronale Schaltkreise, die Erregung im Individuum regulieren: den retico-corticalen und den retico-limbischen Schaltkreis. Der retico-corticale Schaltkreis kontrolliert die durch eingehende Reize hervorgerufenen, corticalen Aktivierung, währen der retico-limbische Schaltkreis die Erregung in Reaktion auf emotionaler Reize kontrolliert. Arousal ist eine zentrale Variable, mit der sich die Persönlichkeit mit zahlreichen Reaktionen in Verbindung bringen ließe – das heißt: Extraversion und Neurotizimus stehen direkt mit den Reaktionsarten des ARAS in Verbindung. 30 Extraversion und Erregung: Eysenck Extraversion und Introversion hängen direkt mit dem Erregungsniveau im reticulocorticalen Schaltkreis zusammen. Das ARAS arbeitet unterschiedlich, je nachdem ob eine Person introvertiert oder extravertiert ist. Introvertiert Menschen haben ein ARAS, das ein sehr hohes Maß an Erregung hervorruft, während das ARAS von extrovertierten Menschen nur ein geringes Maß an Erregung auslöst. Introvertierte würden nach Eysenck deshalb weniger Gesellschaft und Anregung im Außen suchen, da sie innerlich schon sehr erregt seien. Hingegen wären Extrovertierte ständig unterregt und deshalb würden sie sich auch schnell langweilen. Genn (1984) führte dazu ein Experiment durch. Sie nahm je eine Gruppe an Extravertierten und introvertierten Menschen, die eine schwierige und langweilige Aufgabe lösen mussten. Beide Gruppen durften dabei Musik hören und die Lautstärke frei wählen. Es zeigte sich, dass die Introvertierten durchwegs leiser Musik hörten als Extravertierte. Die Leistungen der beiden Gruppen waren gleich gut. Im zweiten Durchgang des Experiments wurde die Lautstärke durch die Testleitung bestimmt. Diesmal wurde die Musik bei den Introvertierten etwas lauter und bei den Extravertierten etwas leiser gedreht. Bei beiden Gruppen sank die Leistung unter den Durchschnitt. Neurotizismus und Erregung: 31 Neurotizismus steht mit dem reticulo-limbischen Schaltkreis in Verbindung. Personen mit ausgeprägtem Neurotizimus werden durch emotionale Stimulation über den reticulo-limbischen Schaltkreis mehr erregt Menschen mit geringem Neurotizimus würden weniger erregt Der Unterschied würde sich in stressbehafteten Situationen am deutlichsten zeigen (z.B: Prüfungssituationen: hoher Neurotizismus – Studenten machen sich ständig Sorgen um ihre Leistungen) Die VAS/VHS-Theorie von Gray: Die Theorie von Grey ist eine Theorie der Verstärkungssensitivität. Ursprünglich war sie als Erweiterung der Theorie Eysencks gedacht, entwickelte sich aber zu einer eigenständigen Theorie. Die Kernaussage ist, dass Persönlichkeit auf der Interaktion zwischen zwei grundlegenden Systemen im Gehirn basiert: dem Verhaltensaktivierungssystem, (VAS) und dem Verhaltenshemmungssystem (VHS). Das erste System, das Verhaltensaktivierungssystem (VAS) umfasst Annäherungsmotivationen. Es führt dazu, dass Menschen sensitiv gegenüber Belohnungen sind und nach diesen streben. (=> Motivation) Das zweite System, das Verhaltenshemmungssystem (VHS) umfasst Vermeidungsmotivationen. Diese machen den Menschen sensitiv gegenüber Bestrafung oder möglichen Gefahren. Der Mensch will diese Gefahren/Bestrafungen vermeiden. 32 Impulsivität und Ängstlichkeit stehen in Verbindung mit diesen zwei Persönlichkeitsvariablen. Individuen mit hoch ausgeprägter Verhaltensaktivierung sind impulsiv, sie sind hoch motiviert Belohnung zu bekommen und sehen viele Aspekte ihres Lebens als Quelle von Belohnung an. Individuen mit geringer Verhaltensaktivierung sind nicht impulsiv. Individuen mit hoch ausgeprägter Verhaltenshemmung sind ängstlich, da sie sich in hohem Maß in Richtung potenzieller Bestrafung oder Gefahren ausrichten. Sie sehen viele Aspekte ihres Lebens als Quelle möglicher Bestrafung an. Menschen mit niedriger Verhaltenshemmung sind nicht ängstlich. Carver und White (1994) entwickelten zu dieser Theorie ein Verfahren mit dem man Verhaltensaktivierung und Verhaltenshemmung anhand 24 Skalen messen kann. Fragen zum Verhaltensaktivierungssystem: Ich tue alles, um zu bekommen was ich will Ich bin immer bereit, etwas Neues auszuprobieren, wenn ich davon überzeugt bin, dass es Spaß machen wird Wenn mir etwas Gutes widerfährt, bewegt mich das immer sehr Fragen zum Verhaltenshemmungssystem: Ich bin immer sehr besorgt oder aufgeregt, wenn ich vermute oder sogar weiß, dass jemand wütend auf mich ist. Wenn ich glaube, dass etwas Unangenehmes passieren wird, werde ich immer flattrig Ich sorge mich immer, dass ich Fehler machen könnte. Cloningers biologisches Modell der Persönlichkeit: Cloninger entwickelte eine psychobiologische Persönlichkeitstheorie mit sieben Persönlichkeitsdimensionen. Er vereinte darin verschiedene psychometrische, neuropharmakologische, neuroanatomische Erkenntnisse mit Familienstudien zum Thema Konditionierung von Verhalten und Lernprozessen beim Menschen. Des Weiteren griff er auf Jungs Theorie zurück und vertrat eine humanistische Sichtweise des Selbst. Er unterschied vier Temperamentsdomänen: 1. Neuigkeitssuche 2. Risikovermeidung 3. Belohnungsabhängigkeit 4. Hartnäckigkeit Und drei Charakterdomänen: 1. Selbstbezogenheit 2. Kooperationsbereitschaft 3. Selbsttranszendenz 33 Die Temperamentsdomänen sind stehen mit biologischen Systemen in Zusammenhang und werden als erblich angesehen. Sie liegen in Form unabhängiger Systeme im Gehirn vor. Diese Systeme sind miteinander über Nervenzellen/-fasern verbunden, die Übertragung erfolgt mittels jenen Neurotransmitter, die für Aktivierung und Hemmung von Verhalten, Lernprozessen und Reaktionen verantwortlich sind. Ad 1. Temperamentsdomäne Neuheitssuche: Neuheitssuche beschreibt die Fähigkeit die Aufregung, die als Reaktion auf neue Reize entsteht, zu genießen. Diese Dimension steht mit impulsivem Verhalten und Verhaltensaktivierung in Beziehung. Personen mit einem hohen Wert in Neuheitssuche mögen es Dinge zu erkunden, neue Leute kennenzulernen, neue Dinge auszuprobieren. Neuheitssuche steht laut Cloninger in Verbindung mit dem Neurotransmitter Dopamin. Dopamin: ist wichtig für die Funktionsweise der Hirnareale, die unsere Bewegungen kontrollieren steht mit dem Belohnungssystem in Verbindung (Belohnung = das Gefühl von Wohlbefinden und Freude beim Tun) es regelt den Zufluss von Informationen in den Frontallappen des Gehirns, die mit Planung, Koordination, Kontrolle und Ausführung von Verhalten in Zusammenhang stehen Neuheitssuche hat also etwas mit Motivation, Vergnügen und Planung zu tun. Das Konzept der Neuheitssuche überschneidet sich mit dem Sensation Seeking von Zuckermann (1991). Zuckermann und Andresen sehen Sensation Seeking als sechsten Basisfaktor der Persönlichkeit. Bei Sensation Seeking handelt sich ebenfalls um ein physiologisch begründetes Konstrukt. Zuckermann und Andresen gehen davon aus, dass es für jeden Menschen ein optimales Erregungsniveau gibt. Über das Aufsuchen oder Vermeiden von stimulierenden Reizen kann die Erregung reguliert werden. Dabei suchen Menschen mit einem geringen initialen Erregungsniveau eher aufregende Reize und werden somit als Sensation-Seeker bezeichnet. Diese Menschen suchen ständig neue Reize, um den gewünschten Pegel einer Stimulierung halten zu können. Mit dem Test Sensation Seeking Scale (BSSS; Hoyle et al., 2002) kann diese Eigenschaft gemessen werden. Der Begriff „Sensation-Seeking“ teilt sich in vier weitere Punkte auf: „Thrill and adventure seeking“: Körperlich riskante Aktivitäten „Experience seeking“: Abwechslung durch unkonventionellen Lebensstil (Reisen, Musik, Drogen) „Disinhibition seeking“ (dt.: „Enthemmung“): Abwechslung durch soziale Stimulation (Party, Promiskuität, soziales Trinken) „Boredom susceptibility“ (dt.: „Anfälligkeit für Langeweile“): Abneigung gegenüber Langeweile und Neigung zur Unruhe, wenn die Umwelt keine Abwechslung mehr bietet. 34 Zwillingsstudien zufolge lassen sich im Durchschnitt ca. 70 % der interindividuellen Unterschiede bezüglich des optimalen Erregungsniveaus durch genetische Varianz erklären, die restlichen 30 % werden auf Umwelteinflüsse zurückgeführt. Die Test- Items zu dieser Domäne nach Cloninger beziehen sich darauf wie erregbar, explorativ, impulsiv und extravagant jemand ist. (im Gegensatz zu reserviert und nachdenklich) Ad 2. Temperamentsdomäne Risikovermeidung: Risikovermeidung wird als Verhaltenshemmung beschreiben, es beinhaltet eine Tendenz, intensiv auf aversive Reize zu reagieren oder Verhalten zu hemmen, um Bestrafung oder Neues zu vermeiden. Menschen mit einem hohen Wert in Risikovermeidung haben Angst davor, neue Dinge auszuprobieren und sind im sozialen Umfeld schüchtern. Für Cloninger hängt diese Temperamentsdomäne mit dem Neurotransmitter Serotonin zusammen, der Stimmung, Emotionen und Schlaf reguliert und auch an einer Vielzahl von verhaltensbezogenen und physiologischen Funktionen beteiligt ist. Die dazu gehörigen Test-Items beziehen sich darauf, wie sorgenvoll und furchtsam oder wie optimistisch jemand gegenüber Unsicherheit ist. Ad 3. Temperamentsdomäne Belohnungsabhängigkeit: Menschen mit einer hohen Belohnungsabhängigkeit reagieren auf Belohnungen sensibel. Sie suchen Situationen, die Belohnung versprechen. Cloninger bringt diese Domäne mit „Verhaltensfortführung“ in Zusammenhang. Der dazu gehörende Neurotransmitter ist Noradrenalin. Noradrenalin ist ein Stresshormon, das Teile des menschlichen Gehirns, in denen Aufmerksamkeit und Impulsivität kontrolliert werden, beeinflusst. Noradrenalin wirkt auf den teil des sympathische Nervensystems, der unsere Reaktionen auf Stress reguliert. Die Test-Items erheben wie unabhängig und eigenständig jemand ist (niedrig ausgeprägte Belohnungsabhängigkeit) oder wie abhängig und gebunden jemand ist. Ad 4. Temperamentsdomäne Hartnäckigkeit Diese Domäne beschreibt die Fähigkeit Handlungen trotz Frustration und Ermüdung beharrlich fortzuführen. Auch sie steht mit Noradrenalin in Verbindung. Dieses lässt uns „dran“ bleiben. Die dazugehörigen Test-Items erheben, wie das Individuum, au potenzielle Belohnung reagiert und wie ambitioniert und perfektionistisch es ist. Bzw. das Gegenteil; wie faul und frustriert es angesichts von Fehlschläge ist und in welchem Ausmaß es dazu neigt, bei Schwierigkeiten aufzugeben Die Charakterdomänen in Cloningers Theorie stehen im Kontrast zu den Temperamentsdomänen. Sie sind nicht biologischen Ursprung, sondern mit dem Selbstverständnis des Individuums in seiner sozialen Umwelt verknüpft. Sie repräsentieren unsere Emotionen, Gewohnheiten, Ziele und intellektuellen Fähigkeiten, die wir in Reaktion auf die Außenwelt entwickelt haben. Sie sind unterschiedliche Aspekte des Selbstkonzepts. Ad 1. Charakterdomäne Selbstbezogenheit: 35 Diese Domäne spiegelt die Vorstellung des Individuums wieder, wie eigenständig es in Bezug auf Denken und Urteilen ist. In dieser Dimension drücken Menschen Gefühle wie Selbstwertschätzung, persönliche Integrität und Führungsstärke aus. Test-Items erheben wie sehr das Individuum zum entschlossenen Handeln und zur Übernahme von Verantwortung neigt, wie zielstrebig und einfallsreich es ist. Das Gegenteil dazu sind Fragen, die messen, wie sehr ein Mensch dazu neigt, anderen die Schuld zu geben und wie sehr es ihm an Zielbewusstheit mangelt Ad 2. Charakterdomäne Kooperationsbereitschaft Diese Domäne spiegelt jenen Anteil des Selbstkonzepts wieder, der für Anpassung an die Gesellschaft, Gefühle von Sittlichkeit, Ethik, Gemeinschaftsgefühl und Anteilnahme enthält Items dieser Domäne beziehen sich auf das Ausmaß von sozialer Toleranz, Empathie und Hilfsbereitschaft oder auf das Ausmaß von sozialer Intoleranz sozialem Desinteresse und Neigung zur Rachsucht. Ad 3. Charakterdomäne Selbsttranszendenz: Diese Domäne spiegelt das Selbstkonzept der Person hinsichtlich ihrer Überzeugungen in Bezug auf mystische Erfahrungen wider, Konzepte wie religiöse Überzeugungen und Spiritualität bilden diese Dimension aus. Hier erfragen die Test-Items wie sehr das Individuum dazu neigt, sich mit transpersonalen Ideen zu identifizieren und spirituelle Dinge zu akzeptieren. Die Domänen-Arten interagieren miteinander. So kann jemand mit einem hohen Wert an Neuheitssuche und Kooperationsbereitschaft a) Viel für wohltätige Organisationen tun, z.B. im Fundraising b) Viel auf Weltreise sein, andere Kulturen und Religionen kennen lerne und so Spiritualität erkunden. Cloninger entwickelt einen Temperament und Character Inventory Revised-Test(TCI-R), den es sowohl für Erwachsene also auch für Kinder/Jugendliche gibt. Zwischen Eysencks, Grays und Clonigers Modell bestehen enge Zusammenhänge. Wie sieht es mit den empirischen Befunden dazu aus? Messungen des EEGs, von Herzraten, Hautwiderständen, Blutdruck, Schwitzen, etc.. haben gezeigt, dass es irgendeine Verbindung zwischen diesen Messwerten und der Persönlichkeit gibt. Dass diese Ergebnisse nicht eindeutiger sind, liegt nach Matthews und Gillland daran, dass die Theorien viel zu starke Vereinfachungen der komplexen neuro-biologischen Prozesse darstellen. Das einzige, das sicher ist, ist, dass in diesem Bereich noch sehr viel Forschungstätigkeit notwendig sein wird. Gene und die Persönlichkeitseigenschaft >> Ängstlichkeit<<: Gene sind die geerbte Information von unseren Vorfahren. Sie bestehen aus DNA. Sie können an- und ausgeschaltet werden, oder mehr oder weniger Proteine produzieren, das nennt man „Gen-Expression“. 36 Im Gehirn steuert die Gen-Expression, wie sich Neurotransmitter verhalten, die wiederum Funktionen wie Erinnern, Persönlichkeit, Intelligenz steuern. Neurotransmitter haben wiederum umgekehrt Einfluss auf die Gen-Expression ebenso wie Umweltfaktoren (wie z.B. Stresslevel, Ernährung, Traumata..) Ein Beispiel: Bestimmte Genvarianten führen zu Unterschieden im Spiegel von Serotonin (zu wenig ist ein Risikofaktor für Depression) und Dopamin (zu wenig führt zu Risikoverhalten). Das bedeutet der Genotyp kann zu einer Veränderung der Gehirnfunktionen führen, die wiederum das Verhalten beeinflussen. Allerdings können neue Erfahrungen und neues Lernen die Kreisläufe und Funktionen im Gehirn physiologisch ändern. Wir bilden als Reaktion auf neue Erfahrungen Neuronalverbindungen aus und produzieren neue Neuronen. Diesen Prozess nennt man Neuroplastizität. Die Fähigkeit zur Neuroplastizität besteht ein Leben lang. An einfachsten ist dies beim Lernen von Faktenwissen oder bei der Rehabilitation nach Schlaganfällen erlebbar. Hier kann man mittels bildgebender Verfahren neuen Gehirnzellen beim Wachsen zusehen („Neurogenesis“). Wie viel von dem, was wir sind, ist neurologisch/genetisch „programmiert“? Unser Gehirn unterliegt stark kulturellen Einflüssen: Kulturunterscheide sind sehr nachhaltig in der Veränderung unseres Gehirns und somit in der Gestaltung unserer Persönlichkeit. Erinnern Sie sich an das Michigan Fish-Experiment? Die Kultur prägt unsere Wahrnehmung und unser Selbstverständnis (siehe Film Sheena Iyengar). Sie prägt nicht nur unseren Geschmack – man denke an die Vorliebe für dicke Frauen in Mauretanien, wo Mädchen regelrecht gemästet werden, oder in Peru, wo Leibesfülle mit vielen Unterröcken vorgetäuscht wird – sie prägt die Art und Weise, wie wir miteinander kommunizieren – wie viel Augenkontakt, Körperkontakt in unterschiedlichen Beziehungen wir für angemessen halten, wie laut wir reden, und so weiter. „To a larger degree than we suspected, culture determines what we can and cannot perceive”. 37 Merlin Donald, ein kanadischer Kognitionswissenschaftler, stellte fest, dass in dem Moment, in dem wir lesen und schreiben lernen, unser Gehirn sich umorganisiert. Nicht nur, dass wir unser Wissen vergrößern, wir müssen verschiedene Fähigkeiten miteinander kombinieren. Unser visu-motorisches System muss sich an diese Aufgabe anpassen. Nisbett konnte mit dem Michigan Fish-Experiment zeigen, dass sich unsere Wahrnehmung unterscheidet, je nachdem wo wir aufgewachsen sind. Er konnte aber auch zeigen, dass sich unserer Art wahrzunehmen verändert, wenn wir die uns umgebende Kultur verändern. 38 Das „Plastizitätsparadoxon“ (Normal Doidge) Das Plastizitätsparadoxon beschreibt den Umstand, dass genau jene Dinge, die uns Veränderung im Gehirn und damit auch im Verhalten ermöglich auch dazu führen, dass unser Verhalten rigider und weniger flexibel wird. Unsere größten „Störungen“ resultieren aus der Gehirnplastizität. Man kann sich das mit dem „Wanderpfadprinzip“ erklären. Wird ein Weg oft genug gegangen, wird und bleibt er sichtbar. Genauso verhält es sich mit Verhaltensweisen, die uns stören oder schädigen. Es ist die Doppelnatur der Neuroplastizität. Durch neue Erfahrungen formen sich Strukturen im Gehirn, die diese Erfahrungen mit all den verknüpften Empfindungen, Erinnerungen, etc. abbilden. Das gilt für gute nützliche Erkenntnisse genauso wie für maligne. Der Prozess der Neuroplastizität wertet nicht. Oft sind es nicht angemessene „Überlebensmuster“ aus der Kindheit die Menschen in Therapie führen. Da wir sie immer wiederholen, verstärken sie sich und werden zu sichtbaren Charaktereigenschaften. Wieder zurück zu den Genen: Wir haben alle eine Art genetischer Blaupause in uns, die zu einem Teil entscheidet wie aggressiv oder extrovertiert wir sind. Wie aggressiv wir uns verhalten ist allerdings ein Produkt unserer Erziehung. Persönlichkeit ist ein Bündel an gewohnheitsmäßig/anerzogenen Verhaltensantworten. 39 Was bedeuten diese Erkenntnisse für die Psychotherapie jenseits der Behandlung von Störungen? Psychotherapie wird oft als Lernmodell, als Erfahrungsraum, „Labor“, Spielfeld beschrieben, in dem der Patient/Klient neue Erfahrungen machen, sie reflektieren und angstfrei sich selbst erfahren kann. Psychotherapie bedeutet für fast alle Menschen eine neue Kultur des Umgangs mit sich und anderen. In dieser Kultur werden die eigenen „Programmierungen“ deutlich und durch neue Erfahrungen umgeschrieben. Psychotherapie verändert, weil durch den stattfindenden Lernprozess auf jene Gene Einfluss genommen wird, die für die Stärke der Synapsenverbindungen im Gehirn verantwortlich sind. Psychotherapie wirkt, indem sie tief im Gehirn die Synapsenverbindungen zwischen Gehirnzellen verändert und die richtigen Gene einschaltet. Die Verbindungen der Nervenzellen werden verstärkt oder geschwächt (=>Wanderpfadprinzip). Nerves that fire together wire together: Gehirnzellen, die gleichzeitig aktiv sind, gehen eine Verbindung ein (Hebbsche Lernregel). Hebb postulierte eine „Assoziation“ bei Gleichzeitigkeit. 40 Freuds Gesetz der Assoziation findet sich später in der Behandlungsform der freien Assoziation wieder, die vorsieht, dass der Patient in der Therapiesitzung seinen Gedanken freien Lauf lässt und alles erzählt, was ihm in den Sinn kommt, ganz gleichgültig wie unangenehm oder banal es auch sein mag. Der Analytiker sitzt hinter dem Patienten und sagt meist nur wenig. Freud stellte fest, dass viele verdrängte Gefühle zutage traten und sich unter den Assoziationen der Patienten viele interessante Verbindungen ergaben, wenn er sich nicht einmischte. Die Therapieform der freien Assoziation basierte auf der Annahme, dass in unseren psychischen Assoziationen, selbst den scheinbar zufälligen und sinnlosen, Verbindungen in unserer Erinnerung zum Ausdruck kommen. Gehirnzellen, die vor Jahren gemeinsam aktiv waren, sind eine Verbindung eingegangen, und diese Verbindungen sind oft nach wie vor vorhanden und kommen in den freien Assoziationen der Patienten wieder zum Vorschein Vorstellung eines plastischen Gedächtnisses geht eigentlich auf Freud zurück: Freud beobachtete, dass sich Erinnerungen verändern können, je nachdem, in welchem Kontext der Klient sie bewertet. Erinnerungen können sich unter dem Eindruck nachfolgender Ereignisse verändern und umgeschrieben werden. Das Gedächtnis ist nicht einfach sondern mehrfach vorhanden und in verschiedenen Arten von Zeichen niedergelegt. Um unsere Erinnerungen verändern zu können, müssen wir sie uns bewusst machen und sie aufmerksam beobachten Freud machte auch Aussagen darüber, wie wir uns diese Erinnerungen bewusst machen können. Er fand heraus, dass die Methode hinter den Patienten zu sitzen und nur spärliche Kommentare abzugeben, gut geeignet ist, die Übertragungsreaktion auszulösen. Das bedeutet, sie übertragen unbewusste Erfahrungen mit wichtigen Menschen in kritischen Phasen in die Gegenwart und auf den Therapeuten. Sie erinnerten sich nicht, sondern erlebten die Vergangenheit neu. Wenn die Patientinnen sich ihre Übertragungen bewusst machten und verstanden, dann können sie ihre verzerrte Sicht der Realität korrigieren. „Auf diese Weise ließen sich die Erinnerungen und die zugrunde liegenden neuronalen Netze verändern und überschreiben“ (S. 41 „Depression und Neuroplastizität“). In der Therapie ist Wiederholung notwendig, damit sich die neuen Muster verstärken und die alten geschwächt/verlernt werden können. Neuroplastizität beschreibt damit den Vorgang, der mit der Veränderung der Stärke von Verbindungen zwischen Nervenzellen einhergeht. Die Veränderung der Größe der synaptischen Kontaktfläche durch das Wachstum des Endknopfs und der gegenüber liegenden Auftreibung (dendritischer Dorn) 41 Grundlage für Neuroplastizität ist, dass das Gehirn IMMER LERNT: Das Gehirn passt sich laufend an, es unterscheidet nicht zwischen Erziehung und Bildung. Elektrische Impulse werden von Gehirn aufgenommen, weitergeleitet und verarbeitet, wobei sie über Verbindungstellen zwischen Nervenzellen laufen (Synapsen). Deren Benutzung führt zur Verstärkung, der Nicht-Gebrauch zu einer Abschwächung bzw. Zum Wegfall der Verbindung. Die Gesamtheit dieser Veränderungen nennt man Lernen. Unser Gedächtnis ist nichts anderes als die Summe der Spuren vergangener Erlebnisse, durch welche die Synapsen in ihrer Stärker verändert wurden. Wiederholung ist gut für das Lernen, weil dann Impulse immer wieder über die entsprechenden Synapsen laufen und sich diese durch den wiederholten Gebrauch nachhaltig ändern = „Gedächtnisspuren“. Wann immer das Gehirn gebraucht wird, ändert es sich, zwar nur wenig, aber doch. Einmal angelegte Spuren, werden immer wieder benützt, auch wenn sie nicht mehr optimal passen, denn das Gehirn ist bequem. Eine Erfahrungsabhängige entstanden Gedächtnisspuren sorgen damit automatisch für ihre eigene Verfestigung. Anhand einzelner Erlebnisse werden nicht Einzelheiten gespeichert, sondern allgemeine Regeln und Zusammenhänge, Fertigkeiten, Fähigkeiten, Einstellungen und Haltungen. Durch Spielen werden diese neuen Fähigkeiten geübt und wiederholt. In der Gegenwart: 42 Dieser Brain Scan zeigt, wie Psychotherapie auf jene Regionen im Gehirn wirkt, die zwanghaftes Verhalten steuern. Diese Veränderung tritt nach ca. 10 Wochen Therapie auf. Obwohl unsere Gehirne ähnlich aufgebaut sind, sind sie nicht gleich, keines ähnelt dem andern. Bis zu den 70er Jahren bestand der Glaube, dass unsere Gehirnfunktionen, haben wir das Erwachsenenalter erreicht, stabil an einen bestimmten Ort im Gehirn lokalisiert sind. Neuere Erkenntnisse – die wir vor allem bildgebenden Verfahren verdanken – zeigen, dass Gehirnfunktionen sich nicht nur verändern sondern auch „umgesiedelt“ werden können. Am deutlichsten zeigten dies Bilder von Gehirnen von vor kurzem erblindeter Menschen. Menschen, die ihr Augenlicht verloren haben, brauchen die Nervenzellen im Gehirn, die für das Sehen zuständig sind, nicht mehr. Diese Felder werden „umprogrammiert“. So hören und fühlen Blinde tatsächlich genauer, weil ihnen im Gehirn dafür mehr Nervenzellen zur Verfügung stehen. Doidge nennt dies das Prinzip des „use it or lose it”. Was nicht mehr verwendet wird, wird umfunktioniert und steht dann auch nicht mehr zur Verfügung. Ein spannender Gedanke, der sich in der Psychotherapie weiterspinnen lässt. 43 Einführung in die Differentielle Psychologie und Persönlichkeitsforschung für angehende PsychotherapeutInnen und PsychotherapiewissenschaftlerInnen Teil 3 Vortragende: MMag. Dr. Nina Petrik T: 0660 7389932 M: [email protected] W: www.kbt-wien.at W: www.sportpsychologie.or.at 44 Entwicklung der Intelligenzforschung: Zunächst die Frage: Warum sollten sich angehende Psychotherapeuten mit Intelligenzforschung und Intelligenzdiagnostik beschäftigen? Diagnostische Instrumente dienen unterschiedlichen Zielsetzungen und im klinischen Bereich ist ihre Bedeutung mittlerweile akzeptiert. (Diagnostik von Störungsbildern mittels Fragebögen, Ratingskalen, strukturierten Interviews, etc.) Das Ergebnis dieser Testungen und Interviews ist eine Diagnose, die dem Therapeuten Hinweise auf die Art der Behandlung gibt und die für die gängigen Krankenkassen Grundlage für die Mit- oder Vollfinanzierung der Therapie darstellt. Diagnostik ist sehr wichtig und wird deshalb als eigenes Fach unterrichtet. Intelligenzdiagnostik ist Teil der Leistungsdiagnostik. Diese hat das Ziel, die Leistungsfähigkeit und indirekt damit auch die Gesundheit ihres Gehirns zu messen und Aussagen über Ursachen von Veränderung zu machen. So gibt es bereits ein breites Spektrum an Forschungsergebnissen zum alternden Gehirn oder zu Veränderungen von z.B. Gedächtnisleistungen bei psychischer Erkrankung. Leistungsdiagnostik will aber nicht nur Krankheit erklären, sondern auch Möglichkeiten aufzeigen, wie das (gesunde) Gehirn sein Potenzial entwickeln kann. In der psychotherapeutischen Praxis ist die Messung der Intelligenz dann bedeutsam, wenn Klienten sich Sorgen über ihre intellektuellen Fähigkeiten machen. So berichten sehr viele depressive Klienten über Verschlechterungen ihrer Konzentration und Merkfähigkeit. Hier ist die Zusammenarbeit mit Klinischen Psychologen notwendig, deren Aufgabe es ist zu unterscheiden ob die berichteten Störungen Teil der psychischen Erkrankung sind (wie etwa bei Depressionen, schizophrenen Erkrankungen, Zwangsstörungen und als Begleitsymptome einer PTBS) oder ob es sich um dementielle Prozesse handelt, um die geeignete Therapieform vorzuschlagen. Je nach Ergebnis ergeben sich unterschiedliche Schwerpunkte für die Behandlung und Therapieplanung. Ein weites und wenig erforschtes Feld ist z.B. Psychotherapie für Menschen mit geistiger Behinderung. Aufgaben der Leistungsdiagnostik 1. Beurteilung der aktuellen kognitiven Leistungsfähigkeit bei Patientinnen mit Störungsbildern, die häufig durch kognitive Defizite gekennzeichnet sind : Schizophrenie, Depression, Zwangsstörung, PTSD, Aufmerksamkeits-störung (ADS) im Erwachsenenalter. 2. Therapie- und Rehabilitationsplanung 3. Diagnosestellung bei Störungsbilden, die eine psychometrische Beur-teilung des Leistungsniveaus erfordern (Demenz, Intelligenzminderung, Entwicklungsstörung) 4. Differentialdiagnose (z.B. Depression versus Demenz) 5. Begutachtung (Berufsunfähigkeit, Erwerbsunfähigkeit] 45 Zum Beispiel können kognitive Defizite bei schizophrenen Klienten mehr Einfluss auf den Therapieverlauf haben, als die eigentlichen schizophrenen Symptome. Die Diagnostik dieser Defizite ist wichtig für die Therapieplanung. Zudem sind die subjektiv empfundenen Leistungsdefizite, von denen Klienten immer wieder in der Therapie berichten, sehr belastend und ängstigend. Klienten neigen dazu dies als Hinweis auf die eigene Willensschwäche („Ich streng mich nicht genug an“), auf Kontrollverlust („Mein Gehirn gehorcht mir nicht mehr“) oder beginnende Demenz („Ich verblöde zusehends“) zu deuten. Die Testung der Intelligenz und Aufklärung über typische krankheitsbedingte Einschränkungen wirkt entlastend und fördert einen bewältigungsorientierten Umgang. Zudem gehört es immer mehr zu den Aufgaben der niedergelassenen Psychotherapeuten „Befunde“ für Krankenkassen, Pensionsversicherungen und Arbeitsmediziner zu erstellen. Häufig wird von Leistungstests erwartet, dass sie eindeutig klären, ob die beobachteten Leistungsdefizite hirnorganischer Natur sind oder Teil einer „rein“ psychologisch bedingten Erkrankung. Diese Erwartung werden durch die gängigen Tests enttäuscht, da wohl festgestellt werden kann, dass Leistungsdefizite bestehen, über die Ursachen und Art der Schädigung kann ein Test allerdings kaum Auskunft geben. Hier ein Auszug aus dem ICD-10 (International Statistical Classification of Diseases and Related Health Problems): 46 47 48 Robert J. Sternberg, Professor an der Yale University und einer der führenden Intelligenzforscher meinte dazu, dass Intelligenz eine wichtige Bedeutung hat für uns sowohl bei unseren alltäglichen Entscheidungen als auch bei Entscheidungen, die unsere nahestehenden Menschen betreffen. Wir haben eine Meinung von unserer eigenen Intelligenz (unabhängig von den Noten, die wir vielleicht bis jetzt bekommen haben) und wir haben eine Meinung über die Intelligenz unserer Freunde und Familienangehörigen. Unsere Eltern haben eine Meinung zu unserer Intelligenz und haben sicherlich auch Einfluss darauf zunehmen versucht, indem sie uns förderten, bestimmte Ausbildungen nahe legten, etc. Dieses Bild von unserer eigenen Intelligenz hat uns bewegt: zu lernen, uns zu entwickeln, weiterzumachen oder auf zu geben. Dieses Bild ist jedoch kein wissenschaftliches. Es ist eine implizite Theorie der Intelligenz. Genauso wie wir implizite Theorien über Persönlichkeit haben, haben wir auch implizite Theorien über Intelligenz. Sie besteht aus unseren alltäglichen Vorstellungen darüber und laut Sternberg (2001) sind diese Theorien eine wichtige Grundlage für die Erforschung der Intelligenz. Sie sind wichtig, [1] weil sie praktische Relevanz für das Alltagsleben besitzen, sie darüber bestimmen, auf welche Weise Menschen ihre eigene Intelligenz und die Anderer wahrnehmen und beurteilen, weil sie bestimmen, welche Schlüsse wir aus diesen Urteilen ziehen und zu guter Letzt welche Entscheidungen wir im Alltag treffen. [2] weil sie die Grundlage für formalere Theorien der Intelligenz bilden, die sich wissenschaftlich untersuchen lassen. [3] weil sie einen sinnvollen Ansatz für weitergehende Studien bieten. [4] weil sich aus ihnen weitere Theorien bilden lassen wie z. B. Konstrukte über Intelligenzentwicklung, kulturübergreifende Aspekte von Intelligenz, ... Studien zur Erforschung der impliziten Laientheorien (Ein Laie ist eine Person ohne Fachkenntnisse auf einem bestimmten Gebiet.) Robert J. Sternberg wurde 1949 in den USA geboren. Er wurde aufgrund eines schlechten Intelligenztests später eingeschult und war an der Universität anfangs auch nicht der Beste. Später schloss er jedoch mit Auszeichnung ab. Er hat in Stanford promoviert und besitzt heute vier Ehrendoktortitel. 1981 untersuchten Sternberg und drei Kollegen in mehreren Studien, welche Vorstellungen von Intelligenz ihre Versuchspersonen hatten. Die Teilnehmer an der ersten Studie waren 61 Leute, die in einer College-Bibliothek lernten, 63 Leute, die gerade einen Supermarkt betreten hatten und 62 Leute, die an einem Bahnsteig auf einen Zug warteten. Diese Leute wurden gebeten Verhaltensweisen aufzulisten, die charakteristisch für „Intelligenz“, „akademische Intelligenz“, „Alltagsintelligenz“ und „Dummheit“ seien. Anschließen wurden in der zweiten Studie 122 andere Leute aufgefordert, die in der ersten Studie gesammelten Beschreibungen von Verhaltensweisen in Hinblick darauf zu beurteilen, wie zutreffend sie Aspekte von Intelligenz wiederspiegelten. Anhand der Befunde dieser beiden Studien identifizierten Sternberg et al. drei Intelligenzdimensionen in ihrer Stichprobe: (1) Praktisches Problemlösen bezeichnet die Fähigkeit, Probleme in alltäglichen Lebens- und Beziehungssituationen praktisch und logisch anzugehen. Wenn jemand ein Problem hat, dann kann sich dieser davon überwältigt fühlen oder eben die Situation gut analysieren und 49 auf diese Analyse Entscheidungsprozesse aufbauen. Gute praktische Problemlöser sind in der Lage eine Situation aus unterschiedlichen Perspektiven zu betrachten und dabei mögliche Lösungen zu entwickeln. (2) Verbale Fähigkeiten beschreibt die Fähigkeit sich verbal gut ausdrücken zu können und sich sicher und redegewandt mit anderen zu unterhalten. Jemand mit einer hohen verbalen Fähigkeit versteht die korrekte Bedeutung eines Wortes, kann Sprache sicher verwenden, kann den Inhalt geschriebener Texte rasch erfassen, erkennt fehlende Wörter in Sätzen und kann sich bei Bedarf allgemeinverständlich ausdrücken. Außerdem beinhaltet verbale Fähigkeit auch die Fähigkeit, Analogien zu erkennen (das ist die Fähigkeiten, Ähnlichkeiten bei ansonsten unähnlichen Dingen zu erkennen, z. B. Katze zu Miau wie Hund zu ….) und Antonyme zu verwenden (ein Antonym ist ein Wort, das das Gegenteil eines andere Wortes bedeutet: glücklich / unglücklich, reich / arm). Es ist auch die Fähigkeit in Sprachbildern sprechen zu können (z. B. Peter ist ein Schrank). (3) Soziale Kompetenz bezeichnet die Fähigkeiten, die notwendig sind, um ein sozial, akzeptiertes und erfülltes Leben zu führen. Jemand, der über hohe soziale Kompetenz verfügt, zeigt ein hohes Maß an Wissen, Verstehen und Zutrauen in Bezug auf sich selbst und andere und ist zum Umgang mit anderen Menschen motiviert. Weiterhin hat der Betreffende ein hohes Maß an Selbstwahrnehmung, gute interpersonelle Fähigkeiten und eine gute Balance zwischen Unabhängigkeit und Interdependenz (bedeutet auf personelle Beziehungen angewiesen sein). Dazu gehören auch die Bereitschaft von persönlicher Verantwortung und eine positive Wertschätzung seiner Mitmenschen. In einer zweiten Untersuchung widmete sich Sternberg der Frage, welche Theorien der Intelligenz von Laien vorliegen. Er befragt insgesamt 46 Erwachsene, welche Verhaltenseigenschaften für sie typisch für eine im höchsten Maß intelligente Person seien. Er erhielt 40 Deskriptoren, die er wiederum von College-Studenten aus Yale dahingehend sortieren ließ, welche der Eigenschaften wahrscheinlich gemeinsam in einer Person auftreten. Die Ergebnisse waren ähnlich der ersten Studie, allerdings fand Sternberg diesmal sechs Aspekte der Intelligenz: (1) Praktische Problemlösefähigkeit (z. B. kann mögliche Ziele erkennen und erreichen, kann gut zwischen richtigen und falschen Antworten unterscheiden, ...) (2) Verbale Fähigkeiten (z. B. verfügt über einen reichhaltigen Wortschatz, kann sich über fast jedes Thema unterhalten, ...) (3) Intellektuelle Ausgeglichenheit und Integration (z. B. kann Gemeinsamkeiten und Unterschiede erkennen, kann Dinge verbinden und trennen, ...) (4) Zielorientiertheit und Verwirklichung eigener Ziele (z. B neigt dazu, Informationen für bestimmte Zwecke zu sammeln und zu verwenden, ist zu hohen Leistungen fähig, ...) (5) Kontextuelle Intelligenz (z. B. gewinnt Informationen aus vorangegangene Fehlern oder Erfolgen und lernt daraus, verfügt über die Fähigkeit, sein Umwelt zu verstehen und zu deuten, …) (6) Flüssiges Denken (z. B. denkt schnell, hat guten Zugang zu mathematischen Dingen, ...) 50 Implizite Laientheorien zur Intelligenz im Kulturvergleich Die Vorstellungen von dem, was Laien als intelligent bezeichnen, unterscheiden sich je nachdem in welchem Winkel der Erde man danach fragt. Einig ist man sich darüber, dass im Westen eher mentale Verarbeitungsgeschwindigkeit und die Fähigkeit, Informationen rasch und effizient zu sammeln, aufzunehmen und zu sortieren, betont werden. Zentrales Moment ist im Westen die Geschwindigkeit. Wer schnell, klar und flüssig seine Ideen kommunizieren kann und Probleme schnell lösen kann, gilt als intelligent. In Kulturvergleichen kann man zu unserem Bild von Intelligenz Abweichungen aber auch Gemeinsamkeiten finden. Der Schwerpunkt der Erforschung kultureller Unterschiede liegt in Untersuchungen des Zusammenhangs zwischen Intelligenz, Selbst und der sozialen Umwelt. Demetriou und Papadopoulous (2004) fanden heraus, dass sich westliche Betrachtungsweisen von Intelligenz eher auf das Individuum beziehen, hingegen in östlichen Kulturen Intelligenz zusätzlich Wissen um soziale, historische und spirituelle Aspekte des Alltagslebens miteinbezieht. So umfasst die Dimension „Problemlösefähigkeit“ in östlichen Kulturen nicht nur die Fähigkeiten des Individuums selbst, sondern auch die Fähigkeit, die Familie um Rat zu fragen, geschichtliches Wissen anzuwenden und die eigenen spirituellen Bedürfnisse zu berücksichtigen. Shih-Ying Yang und Robert Sternberg (1997) untersuchten Ideen von Intelligenz in der chinesischen Philosophie, in den beiden wichtigen spirituellen Traditionen Chinas: dem Konfuzianismus (Konfuzius 551 – 479 v. Chr.) und dem Daoismus/Taoismus (einer indigenen Hochreligion). Sie fanden, dass in der konfuzianischen Philosophie, Wohltätigkeit und rechtschaffenes Handeln als wichtiger Teil von Intelligenz genannt wird. In der taoistischen Tradition liegt der Schwerpunkt eher auf Bescheidenheit, 51 Freiheit von traditionellen oder konventionellen Urteilsmaßstäben, die Fähigkeit zur Wahrnehmung von Veränderungen in den äußeren Umständen und zur Anpassung daran sowie die Fähigkeit, umfassendes Wissen über sich selbst und äußere Umstände zu zeigen. Ein US-amerikanisches Forscherteam um Bibhu Baral untersuchte Intelligenzdefinitionen in Indien. In Indien werden hoch differenziertes Denken, Urteilen und Entscheiden als wichtige Aspekte der Intelligenz angesehen. Dabei ist es bedeutend, wie diese Aspekte zusammenwirken. Optimales zusammenwirken wird durch mentale Harmonie erreicht, die aus Selbstwahrnehmung und Gewissenhaftigkeit resultiert. Dazu gehört weiter Wertschätzung anderer, Höflichkeit, Interessen an anderen Menschen und Bescheidenheit. Yang und Sternberg führten eine Follow-up-Untersuchung zur chinesischen Philosophie bei taiwanesischen Studenten durch. Sie befragten 68 Studenten nach Deskriptoren von Intelligenz und ließen diese von 434 Personen in Hinblick auf die Relevanz für intelligentes Verhalten sortieren. Sie fanden fünf Aspekte von Intelligenz: 1. Genereller kognitiver Faktor (entspricht der westlichen Idee vom praktischen Problemlösen) 2. Interpersonelle Intelligenz (bezieht sich auf den harmonischen und effizienten Umgang mit andere Menschen, Warmherzigkeit, Anteilnahme, Höflichkeit, ...) 3. Intrapersonelle Intelligenz (bezieht sich auf das Wissen um das eigene Selbst und die Fähigkeit, sich objektiv zu sehen z. B.: „Akzeptiert andere Meinungen“) 4. Intellektuelle Selbstbehauptung (Selbstsicherheit und Selbstbewusstsein in Bezug auf die eigene Intelligenz z. B.: „Stellt die eigenen Interessen an erste Stelle“, „Gewinnt rasch die Sympathie anderer“, „Ist hochnäsig und arrogant“) 5. Intellektuelle Zurückhaltung (Bescheidenheit oder Demut in Hinblick auf den eigenen Intellekt „ist einsam, sensibel“, ...) Am deutlichsten tritt bei diesen kulturvergleichenden Studien hervor, dass im Westen mit Intelligenz eher kognitive Fähigkeiten gemeint sind und im Osten diese um die sozialen, historischen und spirituellen Komponenten ergänzt werden. Woong Lim, Jonathan A. Plucker aus den USA sowie Kyuhyeok aus Korea führten einige Studien in Korea durch und konnten fünf Intelligenzfaktoren finden: 1. Soziale Kompetenz 2. Problemlösefähigkeit 3. Bewältigung neuer Anforderungen 4. Selbstverantwortliches Handeln 5. Praktische Kompetenz Da diese Faktoren den westlichen sehr ähnlich sind, fragten die Forscher auch nach deren Gewichtung. In Korea wird Selbstverantwortung und soziale Kompetenz höher geschätzt als im Westen. Seit einiger Zeit werden in den asiatischen Ländern westliche Intelligenztests verwendet. Man kann vermuten, dass dies auch einen Einfluss auf die Laientheorien sowie auf das kulturelle Verständnis von Intelligenz hat bzw. haben wird. Dies ist noch nicht ausreichend erforscht und wird in Zukunft noch viele Fragen aufwerfen. Fang und Keats (1987) untersuchten Vorstellungen über Intelligenz in China und Australien und fanden folgende Gemeinsamkeiten: Erwachsene in beiden Ländern waren der Ansicht, dass 52 Bereitschaft zum Denken, vielseitige Interessen und Unabhängigkeit im Denken Anzeichen von Intelligenz seien. Unterschiede fanden sie bei den australischen Probanden dahingehend, dass diese Problemlösefähigkeit, logisches Denken wichtig fanden, die chinesischen hingegen Lernfähigkeit, analytische Fähigkeit, scharfes Denken und offenkundiges Selbstvertrauen. Chen und Chen (1988) verglichen implizite Theorien von Intelligenz bei Schülern in chinesischen und englischsprachigen Schulen. Beide Gruppen nannten nonverbales Denken, verbales Denken, soziale Fertigkeiten, Rechenkenntnisse und Gedächtnisleitungen als wichtige Deskriptoren. Die chinesischen Schüler fanden aber sprachliche Fähigkeiten weniger wichtig als die englischsprachigen. Durch die Angleichung der Kulturen durch neue Medien hat sich diesbezüglich sicher viel verändert und es gibt viele Fragen, die bislang unbeantwortet blieben. 53 Die Veränderung impliziter Theorien über die Lebensspanne hinweg Dieses Kapitel behandelt die Fragen, ob unsere Intelligenz über die Lebensspanne hinweg gleich bleibt und ob sich unsere Ansichten darüber, was intelligentes Verhalten ist ändern, je nach zu beurteilender Altersgruppe? Was halten erwachsene Menschen bei anderen Menschen unterschiedlicher Altersstufen für intelligent? Gehen Sie davon aus, dass intelligentes Verhalten bei einem 15-jährigen mit intelligentem Verhalten bei einem 35-jährigen identisch ist? Der Psychologe Prem Fry (1984) verglich implizite Theorien der Intelligenz in Bezug auf drei Schulstufen: Grundschule (5 – 11 Jahre), Mittelschule (11 – 18 Jahre) weiterbildende Schulen (18+). Die Versuchspersonen waren Lehrer, die ideal intelligente Schüler beschreiben sollten. Idealintelligente Grundschüler sind: beliebt, freundlich, respektieren Regeln und Gesetzte, haben Interesse an der Umwelt. Idealintelligente Mittelschüler haben folgend Eigenschaften: Tatkraft, Flüssige Ausdrucksweise. Idealintelligente Studenten verfügen über: logisches Denken, breitgefächertes Wissen, schlussfolgendes Denken, Fähigkeit erwachsen und effizient mit Problemen umzugehen. Cynthia Berg und Robert Sternberg untersuchten, ob sich Konzepte über Intelligenz bei Erwachsene der Gruppen 30/50/70 Jahre unterscheiden. Sie untersuchten Beschreibungen von „durchschnittlicher“ und „außergewöhnlicher“ Intelligenz. Durchschnittlich wurde bei allen drei Altersgruppen die Fähigkeiten zum Umgang mit Neuem, Kompetenz im Alltagsleben und verbale Kompetenz angesehen. In Bezug auf außergewöhnliche Intelligenz hingegen wurde das Interesse am und die Fähigkeit zum Umgang mit Neuem bei den zu beschreibenden 30-jährigen betont. Kompetenz im Alltagsleben und verbale Kompetenz als wichtig bei außergewöhnlich intelligenten 50und 70-jährigen. Wie verändert sich die Vorstellung von Intelligenz bei Menschen im Laufe ihres Lebens? Sind die Ansichten in Bezug darauf, was intelligent ist, bei 15-jährigen und 35-jährigen identisch? Yussen und Kane (1985) untersuchten diese Frage und befragten 71 Schüler zwischen 11 und 16 Jahren. Ältere Schüler beschreiben Intelligenz als etwas, das aus mehreren Kategorien besteht. Sie konnten zwischen diese Kategorien differenzieren und sie erachteten Wissen als wichtiger als soziale Kompetenz. (Es kann jemand akademisch gebildet und trotzdem sozial ungeschickt sein.) 54 Jüngere Schüler sahen Intelligenz als eindimensional (jemand ist intelligent oder eben nicht.) Außerdem waren jüngere Schüler eher überzeugt davon, dass Intelligenz biologischen Ursprungs, also angeboren sei. Ältere Schüler glaubten an einen Zusammenhang zwischen Anlage und Umwelt. Warum verändert sich diese Sichtweise? Ältere Schüler sind kognitiv gereift, sie können komplexer denken und sie haben schon Erfahrung mit dem Schulsystem sammeln können (Sozialisation), in dem auch sie differenziert bewertet werden. Die Sichtweise von Experten zum Thema Intelligenz: Die wissenschaftliche Erforschung der Intelligenz hat eine mehr als 100 Jahre alte Tradition. Der richtige Boom ging allerdings erst 1921 los, als die Herausgeber des „Journal of Educational Psychology“ in einer Sonderausgabe die berühmtesten 14 Theoretiker der damaligen Zeit beschrieben ließen, was für sie Intelligenz sei. Diese Befragung wurde 1986 mit 24 Experten wiederholt und das Ergebnis war nicht viel besser. Die Definitionen unterschieden sich immens. Sternberg und Detterman resümierten daraus Folgendes: Es gibt keinen Konsens in Bezug auf die Definition von Intelligenz, aber es gibt wiederkehrende Themen und eine gewisse Übereinstimmung darin, dass bestimmte Qualitäten der Intelligenz wie Anpassung an die Umwelt, grundlegende mentale Verarbeitungsprozesse und Aspekte des höheren Denkens wie Schlussfolgern, Problemlösen und Entscheidungsfindung wichtige Deskriptoren sind. Eine weitere Erkenntnis dieser Untersuchung ist, dass es noch viel Diskussion brauchen wird, da man noch nicht einig darüber ist, ob Intelligenz ein abgegrenzte Eigenschaft ist oder ein Vielzahl verschiedener Fähigkeiten und Verhaltensweisen umfasst. Sternberg befragte 200 Professoren für Kunst, Wirtschaft, Philosophie und Physik nach Deskriptoren von Intelligenz. Erwartungsgemäß fielen diese sehr unterschiedlich aus: 55 Richtig ernst wurde es in der Intelligenzforschung 1994. In diesem Jahr gaben die Forscher Hernstein und Murray ein Buch mit dem Titel „The Bell Curve: Intelligence and Class Structure in American Life“ heraus. Darin ging es um verschiedene Dinge in Zusammenhang mit Intelligenz, darunter auch ihre Erblichkeit. Diese Forscher prognostizierten, dass sich in den USA eine kognitive Elite herausbilden werde. Diese Prognose rüttelte die Wissenschaftscommunity auf. Solche Aussagen könnten hohe politische Brisanz haben, den wäre dem tatsächlich so, dann würde der Staat eventuell Förderungen für Schulen und Bildung zurück ziehen, da es ohnehin keinen Sinn mache zu investieren. Auch die Diskussion ob Intelligenz und Hautfarbe zusammenhängt, wurde wieder angefacht. Das Buch wurde nicht nur inhaltlich sondern auch methodisch scharf kritisiert. Die Amerikanische Vereinigung der Psychologen rief eine Fachgruppe ein, die einen Untersuchungsbericht zu diesem Buch anfertigen und letztendlich den aktuellen Wissensstand zum Thema Intelligenz dokumentieren sollte. Geleitet wurde diese Gruppe von Ulric Neisser. Es wurde festgehalten, dass folgende Dinge noch offen sind: die genaue Natur des Einflusses genetischer Faktoren auf die Intelligenz, die genaue Natur des Einflusses umweltbezogener Faktoren, die genaue Natur des Einflusses der Ernährung, weshalb es Unterschiede im Abschneiden bestimmter Gruppen in Intelligenztests gibt. Theorie und Messung der Intelligenz: Intelligenztests Die Grundlagen für die moderne Intelligenztheorie und –forschung wurde Ende des 19. Jahrhunderts von zwei Wissenschaftlern geschaffen, Sir Francis Galton und Alfred Binet. 1965 begann Galton – inspiriert durch seinen Cousin Charles Darwin – mit der Erforschung der Vererbung. Er entwickelte Darwin´s Konzept der Variation weiter und untersuchte diese im menschlichen Verhalten. Er war überzeugt, dass Genialität vererbt wurde. Bemerkenswert ist, dass Galton als erster versuchte den wissenschaftlichen Beweis zu erbringen, dass Menschen unterschiedlich intelligent sind. Das impliziert, dass Intelligenz direkt messbar ist. Da er ein sehr biologisch orientiertes Weltbild hatte, lautete seine Theorie, dass intelligente Menschen eingehende Sinnesinformationen adäquat handhaben könnten. Menschen mit niedriger Intelligenz würden auf sensorischen Input weniger reagieren als Menschen hoher Intelligenz. Dazu vermaß er in seinem anthropometrischen Labor Menschen nach ihrer Hör-, Sehfähigkeit, ihrer Fähigkeit Hitze oder Kälte zu ertragen etc. Natürlich hat schlechtes Sehvermögen nichts mit Intelligenz zu tun. Das ist uns heute klar. Bemerkenswert ist auch weniger der Inhalt seiner Messungen als der Umstand, dass er überzeugt davon war, dass Intelligenz überhaupt messbar sei. Einige seiner Maße – wie etwa Reaktionszeiten – werden heute noch standardmäßig bei psychologischen Tests angewendet. Alfred Binet Entwickelte den ersten Intelligenztest. 1904 wurde er vom französischen Bildungsministerium dazu beauftragt ein Verfahren zu entwickeln, mit dem minderbegabte Kinder identifiziert und einer Förderung zugeführt werden können. Gemeinsam mit Theodore Simon entwickelte er den BinetSimon-Test. Dieser enthält 30 kurze Aufgaben mit ansteigendem Schwierigkeitsgrad zu Alltagsaufgaben von Kindern. 56 Zu diesen Aufgaben zählten: Einem hin und her bewegten brennenden Streichholz mit den Augen folgen Hände schütteln Körperteile benennen Münzenzählen Objekte in einem Bild benennen Einige Zahlen aus einer dargebotenen langen Liste erinnern Wörter definieren Fehlende Wörter in einem Satz ergänzen. Die letzte noch geschaffte Aufgabe definierte das Intelligenzniveau. Jedes Schwierigkeitsniveau wurde so angelegt, dass es für einen bestimmten Entwicklungsstand bei Kindern zwischen drei und zehn Jahren stand. Dieser Test konnte also jedem Kind und jedem realen Alter ein geistiges Alter zuordnen. Schnitt z. B. ein fünfjähriges Kind gut ab, so konnte es geistig sieben Jahre alt sein. Die Berücksichtigung des Alters war einer der herausragenden Beiträge Binet´s zur Intelligenzforschung. Etwas, das für uns heute so selbstverständlich ist! Binet´s Arbeit war auch aus anderen Gründen ein Meilenstein: Zum ersten Mal konnte man die Intelligenz von Kindern mit einer altersgleichen Gruppe vergleichen. Weitere Ansätze zur Messung von Intelligenz: Der IQ Lewis M. Terman Fand heraus, dass der Binet-Simon-Test bei kalifornischen Schulkindern zu keinen guten Ergebnissen führte und überarbeitete ihn. Er testete seine Version an über 1000 Kindern und konnte so auf eine viel breitere Datenbasis zurückgreifen als Binet und Simon. Dies führte zu einer breiten Akzeptanz standardisierter Testverfahren. William Stern Entwickelte 1912 den Intelligenzquotienten „IQ“ Stern bemerkte, dass das geistige Alter von Kindern proportional zu ihrem realen Alter variierte. Ein sechsjähriges Kind mit einem geistigen Alter von fünf Jahren wird mit zehn Jahren ein geistiges Alter von acht Jahren haben. Teilt man nun das geistige Alter durch das reale Alter bekommt man einen konstanten Wert, den IQ. Ein IQ von 100 bedeutet normale Entwicklung. 57 Robert Yerkes Entwickelte zwei Gruppen von Tests im Auftrag des Militärs. Yerkes bekam den Auftrag die Rekruten der US-Armee zu testen, damit sie mit angemesseneren Aufgaben betraut werden können. Ein wichtiges Kriterium für diese Tests war, dass sie zeitökonomisch ablaufen sollten, da zur gleichen Zeit sehr viele Rekruten zu testen waren. Yerkes entwickelte das erste Gruppentest-verfahren. Gemeinsam mit 40 Psychologen schuf er zwei Arten von Tests, den Army-Alpha-Test und den ArmyBeta-Test. Der Army-Alpha-Test: Dies war eine Testbatterie für alphabetisierte Rekruten. Er testete Wissensgrundlagen im mündlichen und schriftlichen Bereich. Dazu zählten unter anderem: Befolgen mündlicher Anweisungen, was das Verständnis einfacher und komplexer Anweisungen erfordert. Lösen arithmetischer Aufgaben, wofür Kenntnisse der Arithmetik sowie grundlegende Fähigkeiten im Kopfrechnen erforderlich sind. Verwendung von Synonymen und Antonymen (Kenntnis von „gleichbedeutenden“ und „gegenteiligen“ Wörtern). … Der Army-Beta-Test Diese Testbatterie war für Menschen gedacht, die die englische Sprache weniger als sechs Jahre sprachen oder die nicht lesen und schreiben konnten. Oder für jene Rekruten, die im Alphatest sehr schlecht abschnitten. Dieser Test kam fast gänzlich ohne Sprache aus. Die Ergebnisse aus den Subtests wurden addiert und in Kategorien eingeordnet: A überdurchschnittlich intelligent B, C+ durchschnittlich intelligent C-, D, Dunterdurchschnittlich intelligent. Yerkes testete bis zum Ende des ersten Weltkriegs 1.250.000 Personen. Später wurde der Test auch in der Wirtschaft, der Industrie und dem Bildungswesen verwendet. 58 Meilensteine bis dahin waren: Die Entwicklung einer offiziellen Richtlinie für die quantitative Messung von Intelligenz, dem IQ, Berücksichtigung von kulturspezifischen Einflussfaktoren. Der Generalfaktor der Intelligenz (g): Theorie und Messung Zwischen 1904 und 1927 setzte Charles Spearman einen weiteren Meilenstein bei der Messung der Intelligenz. Er maß die Intelligenz von Kindern und unterzog alle über Jahre erhobenen Daten einer Faktorenanalyse. Die Ergebnisse waren: Es besteht eine positive Korrelation zwischen Intelligenztests. Das bedeutet, wer in einem Intelligenztest gut abschneidet, schneidet auch in einem Test zu speziellen intellektuelle Fertigkeiten gut ab. Diese positive Korrelation nennt Spearman „positive Mannigfaltigkeit“. Aufgrund der Faktorenanalyse dieser Mannigfaltigkeit entwickelte Spearmann die Zwei-Faktoren-Theorie der Intelligenz: o Der g-Faktor („Generalfaktor“): Dieser umfasst die Grundlage aller Leistungen in Intelligenztests. Für Spearman stellt der g-Faktor eine mentale Energie da, die den spezifischen Faktoren, den s-Faktoren, zugrunde liegt. o s-Faktoren („spezifische Faktoren“) sind den g-Faktoren untergeordnet. Sie beschreiben spezifische Fähigkeiten in den einzelnen Aufgaben von Intelligenztests. (z.B. sprachliche, mathematische, räumliche Intelligenz,…) Die gesamte Leistung in einem Intelligenztest entsteht durch das Zusammenwirken von gund s-Faktoren. Gemessen werden diese Faktoren z. B. im Wechsler Intelligenztest und im RAVEN-Matrizen-Test. Der Wechsler-Test Wechsler ging wie Spearman von zwei Faktoren, einem Generalfaktor und einen spezifischen Faktor der Intelligenz aus. Daraus entwickelte er einen Intelligenztest, der an 1500 Personen geeicht wurde. Wechsler Adult Intelligence Scale (WAIS) Wechsel Scale for Children (WISC) Wechslers Tests mussten in Einzelsitzungen getestet werden, sie hatten einen verbalen (V) und einen Handlungsteil (H). Der Test besteht aus folgenden Teilen: Der ‚Mosaik-Test‘ gehört zu den Kerntests des wahrnehmungsgebundenen logischen Denkens. Mit Hilfe von zweifarbigen Würfeln soll die Testperson unterschiedlich komplexe Mustervorlagen innerhalb einer vorgegebenen Zeit nachbauen. Der Test soll die Fähigkeit erfassen, abstrakte visuelle Reize zu analysieren und zu integrieren. 59 Der Untertest ‚Gemeinsamkeiten finden‘ zählt zu den Kerntests im Index Sprachverständnis. Er erfasst verbale Konzeptbildung und verbales Schlussfolgern. Das ‚Zahlen nachsprechen‘ gehört zu den Kerntests des Index Arbeitsgedächtnis und besteht aus den drei Aufgabenteilen ‚Zahlen nachsprechen vorwärts‘, ‚Zahlen nachsprechen rückwärts‘ und ‚Zahlen nachsprechen sequentiell‘. Der ‚Matrizen-Test‘ ist der zweite Kerntest des Index wahrnehmungsgebundenes logisches Denken. Die Person betrachtet eine unvollständige Matrize oder Reihe und wählt aus fünf Antwortmöglichkeiten das fehlende Teil aus. Der Test erfasst fluide Intelligenz, visuelle Fähigkeiten, Klassifikationsfähigkeiten, räumlich-konstruktive Fähigkeiten, das Wissen über Beziehungen zwischen einem Teil und dem Ganzen, die simultane Verarbeitung und Wahrnehmungsorganisation. Der ‚Wortschatz-Test‘ ist der zweite Kerntest des Index Sprachverständnis. Personen benennen Objekte, die als Bild vorgelegt werden oder sie erklären schriftlich oder mündlich dargebotene Konzepte. Er erfasst den Wortschatz und die Konzeptbildung einer Person. Der Untertest ‚Rechnerisches Denken‘ zählt zu den Kerntests des Arbeitsgedächtnisses. Die Person löst eine Serie von mündlich vorgegebenen Rechenaufgaben. Dafür sind Fähigkeiten der mentalen Manipulation, Konzentration, Aufmerksamkeit, Kurz- und Langzeitgedächtnis, numerisches Schlussfolgern und geistige Wachheit erforderlich. ‚Symbol-Suche‘ gehört zu den Kerntests des Index Verarbeitungsgeschwindigkeit. Die Testperson vergleicht in einer begrenzten Zeit eine Gruppe von abstrakten Symbolen mit einem Zielsymbol und gibt an, ob sich das Zielsymbol in der Suchgruppe befindet. Der Untertest ‚Visuelle Puzzles‘ ist der dritte Kerntest des Index wahrnehmungsgebundenes logisches Denken. Innerhalb einer bestimmten Zeitgrenze soll die Testperson ein abgebildetes Puzzle aus drei auszuwählenden Puzzleteilen rekonstruieren. Der Test erfasst das nonverbale Schlussfolgern und die Fähigkeit, abstrakte Stimuli zu analysieren und zu integrieren. => 60 Der dritte Kerntest des Index Sprachverständnis ist das ‚Allgemeine Wissen‘. Die Person beantwortet Fragen zu allgemein bekannten Ereignissen, Sachverhalten, Orten und Persönlichkeiten. Der Untertest erfasst die Fähigkeit, allgemeines Faktenwissen anzusammeln, zu behalten und wieder abzurufen. Der ‚Zahlen-Symbol-Test‘ gehört zu den Kerntests der Verarbeitungsgeschwindigkeit. Einer Serie einfacher Ziffern soll die Testperson abstrakte Symbole zuordnen. Der Untertest ‚Buchstaben-Zahlen-Folgen‘ kann als optionaler Untertest des Index Arbeitsgedächtnis für die Altersgruppe 16;00 bis 69;11 eingesetzt werden. Der Person werden eine Reihe von Buchstaben und Zahlen vorgegeben, die in aufsteigender bzw. alphabetischer Reihenfolge wiedergegeben werden müssen. Der optionale Untertest ‚Formenwaage‘ kann in der Altersgruppe zwischen 16;0 und 69;11 Jahren eingesetzt werden. Er erfasst das wahrnehmungsgebundene logische Denken. Der Untertest ‚Allgemeines Verständnis‘ gehört zu den optionalen Untertests des Index Sprachverständnis. Die Person beantwortet Fragen, die das Verständnis von allgemeinen Prinzipien und sozialen Situationen oder Regeln erfordern. Mit diesem Untertest werden verbales Schlussfolgern und Konzeptbildung, verbales Verständnis und Ausdrucksvermögen, die Fähigkeit, vergangene Erfahrung zu evaluieren und gewinnbringend zu nutzen, die Fähigkeit praktisches Wissen und Urteilsvermögen zu zeigen, erfasst. Der ‚Durchstreich-Test‘ ist ein optionaler Untertest der Verarbeitungsgeschwindigkeit, der für die Altersgruppe 16;00 bis 69;11 eingesetzt werden kann. Die Person betrachtet eine Bilderanordnung aus verschiedenen ähnlichen Symbolen und markiert in einer begrenzten Zeit die Zielsymbole. ‚Bilder ergänzen‘ ist ein optionaler Untertest des Index wahrnehmungsgebundenes logisches Denken. Die Person sieht eine Reihe von Bildern und zeigt oder benennt das wesentliche Teil oder Detail, das auf dem jeweiligen Bild fehlt. 61 In neueren Auflagen dieses Tests wird die Zweiteilung in Handlungs- und Verbalteil aufgegeben und die Tests anhand vier Indizes organisiert. Diese sind Sprachverständnis, wahrnehmungsgebundenes, logisches Denken, Arbeitsgedächtnis und Verarbeitungsgeschwindigkeit. Wechsler´s Test unterschied sich von den Vorgängern dahingehend, dass er für Menschen aller Altersstufen konzipiert wurde. Außerdem führte er einen Abweichungs-IQ ein. Dieser sollte ein faires Bewertungssystem darstellen. Da die Intelligenz in jungen Jahren schnell zunimmt und im Alter mehr oder weniger stagniert und wir wesentlich länger alt als jung sind, versucht Wechsler Tearmanns IQ an diesen Umstand anzupassen. Würden nämlich ein 20jähriger und ein 40Jähriger die gleichen Testergebnisse haben, wäre nach Tearmanns Formel der 40Jährige nur halb so intelligent wie der 20jährige. Wechsler löste dieses Problem indem er einen Referenzwert für jede Altersgruppe zur Verfügung stellte. Damit kann man jede Testperson mit dem Durchschnitt ihrer Altersgruppe vergleichen. 62 Um diese Werte anbieten zu können musste Wechsler eine große Anzahl an Menschen testen und die Testwerte dann so transformieren, dass sie eine standardisierte Form annahmen. Dazu wurden die Testpersonen in Schichten eingeteilt, die hinsichtlich Alter, sozioökonomischer Status, Geschlecht, ... vergleichbar waren. Bei jeder Schichte wurde der Mittelwert so berechnet, dass das Durchschnittsergebnis 100 ist. Der Testwert einer Person konnte nun zu dem Mittelwert der Vergleichspopulation in Beziehung gesetzt werden und man konnte die Intelligenz von Menschen unterschiedlichen Alters (trotz unterschiedlicher Testergebnisse) vergleichen. Zusätzlich wurden IQBereiche zu Kategorien zusammengefasst: Der RAVEN-Test (=>http://www.raventest.net/=) John Raven veröffentlichte den Matrizentest („Standard Progressive Matrices“ und „Advanced Progressive Matrices“). Beide Tests sind sprach- und kulturunabhängig und bestehen aus Matrizen, die progressiv, also fortlaufend, schwerer werden. Raven bezieht sich ebenfalls auf den g-Faktor und misst mit seinem Test die abstrakte Fähigkeit, Zusammenhänge zwischen Objekten, Ereignissen und Informationen wahrzunehmen und daraus Schlussfolgerungen zu ziehen. 63 Die Standard Progressive Matrices können ab 6 Jahren angewendet werden. Multifaktorielle Theorie von Thurstone, Cattell und Guilford Thurstone, Cattell und Guilford versuchten mittels Faktorenanalyse Intelligenz zu verstehen, kamen aber jeweils zu sehr unterschiedlichen Lösungen. Thurstones Primärfaktorenmodell: Thurstone untersuchte die Beziehung zwischen den verschiedenen Arten von Intelligenz und suchte nach zugrundeliegenden Mustern und Strukturen. Für ihn war der g-Faktor die Folge, nicht die Ursache der mentalen Fähigkeiten. Thurstone fand 7 primäre mentale Fähigkeiten: 1. Assoziatives Gedächtnis (= Fähigkeit zum Lernen durch Wiederholung) 2. Rechenfähigkeit (Fähigkeit korrekte mathematische Operationen durchzuführen) 3. Wahrnehmungs- Auffassungsgeschwindigkeit (Fähigkeit zur Wahrnehmung von Details, Anomalien, Ähnlichkeiten,..) 4. Schlussfolgendes Denken ( Fähigkeit zu induktiven und deduktiven Schlüssen) 5. Räumliches Vorstellungsvermögen (Fähigkeit zur visuell-räumlichen Vorstellung, zur räumlichen Orientierung und zum Erkennen von Objekten aus unterschiedlichen Perspektiven) 64 6. Sprachbeherrschung (Fähigkeit zum Lesen, Textverständnis und zum Verständnis verbaler Analogien) 7. Wortflüssigkeit (Fähigkeit zum Verständnis von verbalen Beziehungen, etwa in Anagrammen) Thurstone begründete den ersten multifaktoriellen Ansatz in der Intelligenzforschung. Er ging von mehreren Faktoren aus, die er im I-S-T-2000R-Intelligenztest verwirklichte. Cattell´s Modell der fluiden und kristallinen Intelligenz: Cattell´s Modell anerkennt den g-Faktor, er unterteilt ihn in zwei unterschiedliche Komponenten, der fluiden und der kristallinen Intelligenz. Die kristalline Intelligenz (Gc) besteht aus erworbenem Wissen (Inhalt). Die fluide Intelligenz (Gf) aus den Fähigkeiten zu Denken (Prozess). Beide stehen in einer dynamischen Beziehung. Die fluide Intelligenz ist kulturunabhängig, sie ist angeboren und stabilisiert sich im Erwachsenenalter. Seiner Meinung nach nimmt die kristalline Intelligenz mit dem Alter zu, die fluide ab. Viele Intelligenztests messen kristalline Intelligenz. Sie prüfen Wissen ab und sind damit an die kulturelle Wissensvermittlung gebunden. Aus dieser Kritik heraus entwickelte er einen kulturunabhängigen Intelligenztest (Culture Fair Test CFT). Guilford´s Modell der unterschiedlichen Intelligenzen und ihren Kombinationen: Guilford verneinte die Existenz eines g-Faktors und teilte Intelligenz in 120 verschiedene Fähigkeiten ein. Grundlegende intellektuelle Fähigkeiten lassen sich in drei Kategorien einteilen: 1. Vorgänge: Evaluation (= Bewertung), konvergente Produktion (= logisches Schlussfolgern), divergente Produktion (= Kreativität), Gedächtnis (= Abspeichern und Erinnern), Kognition (=Bewusstheit, Wahrnehmung, Infoverarbeitung), 2. Inhalte: figural, auditorisch, symbolisch, semantisch, verhaltensmäßig (also in welcher mentalen Form die Inhalte vorliegen) 3. Produkte: Einheiten, Klassen, Beziehungen, Systeme, Transformationen, Implikationen (= die Art und Weise, wie die Information verarbeitet wird). 65 Guilford´s Modell war sehr komplex und erklärte als erstes wie das Zusammenspiel von verschiedenen Intelligenzen zur Entstehung von Fähigkeiten führt. Er entwickelte viele psychometrische Tests, jedoch wurde sein Modell nie endgültig bestätigt. Robert Sternberg´s Triarchische Theorie der Intelligenz: Sternberg entwickelte in den 80er Jahren seine eigene Theorie, in der er drei Arten von Intelligenz identifizierte: 1. Komponenten-Subtheorie, 2. Kontext-Subtheorie, 3. Erfahrungs-Subtheorie. Ad 1. Komponenten-Subtheorie: Die Subtheorien beschreiben den internen Aspekt von Intelligenz, der analytischen Intelligenz. Sie beziehen sich auf interne Mechanismen, die intelligentem Verhalten zugrunde liegen. Sie besteht aus drei Funktionen: Metakomponenten: dienen dazu Probleme zu erkennen und Strategien zu ihrer Lösung zu erarbeiten. Performanzkomponenten: beschreiben die Prozesse, die tatsächlich an der Problemlösung beteiligt sind. Wissenskomponenten: beschreiben wie Wissen erworben, verwaltet, bewertet, … wird. Z. B.: Beim Schreiben Ihrer Seminararbeit kommen Ihnen Zweifel: Metakomponenten: Bin ich am richtigen Weg? Wie sicher/unsicher bin ich mir? Wie kann ich herausfinden, ob ich am richtigen Weg bin? Performanzkomponente: Brauche ich Hilfe? Wie bekomme ich Hilfe? Welche Strategie ist erfolgversprechender? Wissenskomponente: Informationen aussortieren, Informationen kombinieren, abwägen, einarbeiten, … Ad 2. Kontext-Subtheorie: Beschreibt die externen Aspekte von Intelligenz, die praktische Intelligenz. Unsere interne Intelligenz interagiert immer mit einer äußeren Umwelt und die Außenwelt bestimmt wiederum unser Intelligenzverhalten durch: Anpassung (z. B. an die Regeln der Universität, Zitierregeln,..) Formung (z. B. Anpassung der Außenwelt an die Innenwelt – Aushandeln von Prüfungsfragen ;O)) Selektion (z. B. Wahl der Umwelt: SFU nicht Hauptuni, ...) Um diese Kontext-Subtheorie zu messen, musste Sternberg auf das Konzept des „verborgenen Wissens“ zurückgreifen. Das verborgene Wissen besteht aus handlungsorientiertem Wissen. Handlungsorientiertes Wissen basiert auf Prozeduren nicht auf Fakten. (Prozedurales Wissen, also WIE man etwas tut, nicht was man tut). Der Begriff „verborgenes Wissen“ oder „tacit knowledge“ geht auf Polanyi (1958) zurück und ging nicht nur in die Psychologie, sondern auch in die Bildungswissenschaften, Wirtschaftswissenschaften, und Theologie ein. Polanyi unterteilt Wissen in 66 focal awareness (fokussierte Aufmerksamkeit) und subsidiary awareness (~ untergeordnete Aufmerksamkeit). Wenn wir etwas tun, dann ist das immer eine Mischung aus focal und subsidiary awareness. Wir sind – wenn wir eine Aufgabe erfüllen – uns dieser Tätigkeit bewusst, wir sind fokussiert darauf. Subsidiär passieren aber viele unterstützende Dinge. Stellen Sie sich ein therapeutisches Erstgespräch vor. Während sie Fragen stellen (= Fokus), tun sie subsidiär viele andere Dinge: sie beobachten Körperhaltung, Stimmung, abgespaltene Emotionen, Gegenübertragung, Übertragung, sie machen sich Notizen, dabei beachten sie Grundlagen der Grammatik, der Rechtschreibung etc., sie kontrollieren ihre eigene Atmung, die Lautstärke ihrer Stimme, die Betonung der Worte, sie hören zu und merken sich die Antworten, sie generieren aus dem Gehörten neue Fragen, etc... Die Theorie besagt nun folgendes: umso mehr jemand Experte in einem Fach ist, desto differenzierter und umfangreicher ist sein subsidiäres Wissen. Über subsidiäres Wissen (tacit knowledge) können wir aber keine Auskunft geben. Es wird durch Übung, Lernen am Modell und Erfahrung und Herausforderung erworben. Tacit Knowledge wird als Teil der praktischen Intelligenz gesehen, die wiederum ein Teil des GFaktors ist. Sternberg meint, dass das verborgene Wissen ein wichtiger Teil dieser praktischen Intelligenz ist, der die Unterschiede in der Ausführung/Performance erklärt. Tacit knowledge is the „informal, implicit knowledge used to achieve goals” (Sternberg, Wagner, Williams und Horvath 1995) Beispiele für verborgenes Wissen bei erfolgreichen Studenten (Untersuchung von Leonard und Insch, 2005): Erfolgreiche Studenten haben z. B. kognitive Fertigkeiten in Selbstmotivation (z.B.: das Wissen, wie ich mich motiviere am Samstag in die Vorlesung zu gehen) kognitive Fertigkeiten in Selbstorganisation (z.B. das Wissen, wie ich mich innerlich dazu bringen, konzentriert zu bleiben, „dran“ zu bleiben,..) institutionelle technische Fertigkeiten (z.B. wissen, wie man an der Uni zu Wissen kommt, wie man sich zu Prüfungen anmeldet,..) Soziale Fertigkeiten (sich in Lerngruppen organisieren, in mündlichen Prüfungen zu bestehen,..) … Ad 3. Erfahrungs-Subtheorie: Sie umfasst die kreative Intelligenz, die Interaktion zwischen Innen- und Außenwelt. Sternberg unterscheidet zwei Erfahrungs-Subtheorien: 1. Neuheit: Fähigkeit zum Umgang mit neuen Situationen, 2. Automatisierung: Fähigkeit Informationsverarbeitungsprozesse zu automatisieren (z. B. gleichzeitiges Zuhören und Schreiben, Autofahren und Telefonieren) Sternberg´s Theorie ist sehr einflussreich, vor allem im Bereich der Erforschung von Hochbegabung, Kreativität, Weisheit. Er entwickelte den Triarchic Abilities Test, welcher noch nicht evaluiert ist und sich laufend im Versuchsstadium befindet. 67 INTELLIGENZTESTS: Wozu brauchen wir Intelligenztests und welche Arten gibt es? Intelligenztests sind Teil der Leistungsdiagnostik und werden sowohl im beruflichen/schulischen Kontext als auch im klinischen Bereich eingesetzt. Im klinischen und edukativen Setting kann die Unterscheidung von hochbegabten, durchschnittlich intelligenten und minderbegabten Menschen wichtig werden, wenn es um Fragen der Förderung und Potenzialentfaltung geht. Dementielle Prozesse zeigen sich in einem Schwinden bestimmter intellektueller Fähigkeiten und hierbei geht es dann nicht nur um eine Feststellung des „Schadens“ sondern auch darum herauszufinden, an welchen Punkten Maßnahmen, die den weiteren Abbau verlangsamen können, ansetzen müssen. Intelligenztestungen – vor allem im großen Stil - haben immer auch eine politische Komponente. Oft wurde Intelligenz mit dem Begriff „Rasse“ in Verbindung gebracht. Mittlerweile weiß man, dass Intelligenz nicht nur mit dem Genmaterial zusammenhängt, sondern sehr stark von Umweltfaktoren im engeren Sinn (Eltern, Schule, ..) und im weiteren Sinn (Ernährung, Sicherheit,..) zusammenhängt. In diesem Zusammenhang wird der Flynn-Effekt genannt. Im Groben wird zwischen psychometrischen und kognitionspsychologischen Tests unterschieden. Die psychometrischen Verfahren gehen auf die Faktorenanalyse zurück und befassen sich mit zahlreichen Eigenschaften von Intelligenz. Die kognitionspsychologischen Verfahren suchen – so wie eigenschaftstheoretischen Verfahren – eine „Grundeinheit“ der Intelligenz zu identifizieren, allerdings auf biologisch/physiologischem Niveau. Forscher dieser Richtung versuchen verschiedene biologische Korrelate für Intelligenz zu finden und zu messen. Der erste, der dies systematisch betrieb war Friedrich Tiedemann (1836). Er untersuchte die Gehirngrößen von Verstorbenen und stellte einen Zusammenhang zwischen Intelligenz und Große her. Seine Ergebnisse wurden später mit neuen bildgebenden Verfahren bestätigt. Es konnte eine positive Korrelation zwischen Gehirngröße und Intelligenz gefunden werden. Der Psychologe, Arthur Jensen, zog zur Messung von Intelligenz sogenannte EKAs hinzu. Das sind elementare kognitive Aufgaben, die zur Messung unterschiedlicher kognitiver Prozesse dienen, zum Beispiel Identifikation von Reizen, Diskrimination und Auswahl zwischen Reizen, visuelle Suche nach Reizen, Fähigkeit Dinge zu memorieren und sie aus dem Kurz- und Langzeitgedächtnis abzurufen. Die Aufgaben waren sehr kurz und einfach gehalten, die Leistung wird in Reaktionszeiten gemessen. Jensen (1998) unterschied folgende Messgrößen: (1) Reaktionszeiten: Das ist der Median der Reaktionszeiten eines Probanden, der anhand mehrerer Versuchsdurchgänge berechnet wurde. Dieser Wert gibt Auskunft darüber, die individuelle Leistungsfähigkeit bei elementaren kognitiven Aufgaben zu messen. (2) Standardabweichung der Reaktionszeit. Dieser Wert gibt Aufschluss darüber, wie weit die Leistungsschwankungen eines Probanden sind. (3) Inspektionszeit: Dieser Wert beschreibt, wie schnell Probanden visuelle oder auditorische Reize identifizieren, lokalisieren oder diskriminieren können. (z.B. zwei Linien vergleichen,..) (4) Evozierte Potenziale zeigen, wie viel Zeit ein Proband für die Verarbeitung von Informationen braucht. Dieser Wert wird mit einem Elektroencephalogramm gemessen. (Ein evoziertes Potenzial ist ein Potenzial im Gehirn, das entsteht, wenn ein Reiz dargeboten wird, ein elektrischer Ausschlag, der im EEG sichtbar wird.) Die Zeit zwischen Reizdarbietung und evoziertem Potenzial ist ein Maß für Intelligenz. 68 Zwischen diesen Messgrößen und psychometrischen Intelligenztests konnte ein Zusammenhang festgestellt werden. Den Vorteil, den Jensen in seinem Verfahren sah, war, dass sein Intelligenztest kulturunabhängig ist. Viele traditionelle Intelligenztests würden Wissen, Schlussfolgender und Problemlösen messen, das sind kulturspezifische Aufgaben. Einschränkend meint er jedoch, dass die ganze Bedeutung der Geschwindigkeit der Reizverarbeitung noch nicht verstanden wird. Ein weiterer bemerkenswerter Forscher in dieser Richtung ist Alexander Romanovitsch Lurija (19021977). Er begann mit 16 Jahren mit dem Medizinstudium, dem Studium der Psychologie und Gesellschaftswissenschaften und schloss mit 21 Jahren diese Studien ab. Danach widmete er sich der Herausforderung Freuds Konzepte von Abnormalität im Denken und mentalen Prozessen mittels neurophysiologischer Methoden zu untersuchen. Er forschte aber auch im Bereich der kulturvergleichenden Psychologie. So untersuchte er z.B. 109 Universitätsstudenten kurz vor einer Prüfung. Sie sollten zu 30 Stichwörtern ein ihnen spontan dazu einfallendes Wort sagen und gleichzeitig einen Gummiball drücken. Dabei fand Lurija heraus, dass die Reaktionszeiten bei prüfungsbezogenen Stichwörtern länger waren und die Bewegungskurve (Ball drücken) niedriger. Bei den Messungen nach der Prüfung traten diese Phänomene nicht auf. Lurija schloss daraus, dass die Intensitätsschwankungen im Verhalten Ausdruck innerer emotionaler Konflikte seien. Diese Erkenntnisse führten in der Folge zur Entwicklung des Lügendetektors. (Polygraf) 1924 begann Lurija gemeinsam mit Wygotski und Leontjew im Bereich der Konzeptualisierung von Intelligenz zu forschen. Die Ergebnisse dieser Forschung führten zur Entstehung des sozialen Konstruktivismus, dem zufolge menschliches Lernen durch soziale Prozesse beeinflusst wird. Lernende schaffen eine innere Repräsentation der Welt. Dabei haben die Interaktionen zwischen Lernenden und Lehrenden eine große Bedeutung für den Lernprozess, denn Wissen wird sozial konstruiert. Menschen passen sich an die Umwelt nicht passiv an, sondern eignen sich aktiv verschiedene gesellschaftlich-historisch relevante Fertigkeiten an. Diese Fertigkeiten würden verinnerlicht und stünden dann zur Steuerung der Kognitionen zur Verfügung. Lurija vertiefte sich später in die Erforschung anatomisch-neuronaler Verbindungen zwischen den Gehirnhälften/-teilen und lehnte die damalige Meinung, dass visuelle Informationsverarbeitung, Wahrnehmung oder Vorstellung in der rechten, während auditorische, sprachliche Kommunikation und logisches Denken in der linken Gehirnhälfte verortet wäre, ab. Er hielt dies für viel zu vereinfacht. Die linke Hälfte wäre der Sitz der kognitiven Fähigkeiten und die Instanz für die bewusste Kontrolle von Verhalten. Die Rechte ist für automatisierte und unbewusste Vorgänge verantwortlich. Er unterschied zwischen einer simultanen (gleichzeitigen) und einer sequenziellen (in zeitlicher Abfolge stattfindender) kognitiven Verarbeitung. Simultan bedeutet, dass viele Informationen gleichzeitig berücksichtig werden, dies ermöglicht uns das Erkennen von Beziehungen (z.B. beim Lesen), das Verständnis von komplexer Teste, räumlicher Anordnungen,.. Die sequenzielle Verarbeitung hingegen berücksichtigt zeitliche Beziehungen. Z.B. beim Lösen von mathematischen Gleichungen, Verständnis historischer Ereignisse, Nachsprechen von Zahlenreihen. Die sequenzielle Verarbeitung ist im frontotemporalen Hirnarealen lokalisiert und die simultane Verarbeitung in parieto-occipitalen Arealen. 69 Lurija studierte in den 30er Jahren verschiedene Formen der Läsionen und schuf ein Klassifikationssystem für Aphasie. Er entwickelte verschiedene Verfahren zur Testung, die Anleitungen zur Therapieplanung und Rehabilitation enthielten. Diese Tests wurden jedoch nie standardisiert, da Lurija der Überzeugung war, dass jeder Mensch individuell sei. Herausragend ist seine Arbeit deshalb, weil er als erster der gängigen Meinung von der Lokalisation von Hirnfunktionen widersprach. (Neuroplastizität) Moderne Intelligenztests, die biologische und physiologische Aspekte aus Lurjias Arbeit berücksichtigen sind zum Beispiel das Cognitive Assessment System von Das und Naglierie und der Kaufmann-Test. Das Cognitive Assessment System (CAS) ist ein Test zur Messung der kognitiven Fähigkeiten, der auf der PASS-Theorie der kognitiven Verarbeitung basiert. PASS steht für Planung ( ein kognitiver Prozess, bei dem das Individuum eine Strategie zur Lösung eines Problems erwägt, auswählt und anwenden muss.) Aufmerksamkeit ( ein kognitiver Prozess, bei dem das Individuum sich auf einen bestimmten Reiz konzentrieren und damit im Wettstreit stehenden Störreize ignorieren muss) Simultanität (ein kognitiver Prozess, bei dem getrennte Reize zu einem Ganzen oder zu einer Gruppe integriert werden müssen) Sequenzialität ( ein kognitiver Prozess, bei dem Dinge in eine serielle Ordnung gebracht werden müssen) 70 Diese vier Aspekte werden in verschiedenen Skalen repräsentiert, die einen standardisierten IQ liefern. Alle Skalen zusammen bilden einen Gesamt-IQ. Der Test wurde für Kinder und Jugendliche entwickelt. Er dient nicht nur der Feststellung von Fähigkeiten sondern kann z.B. auch ADHS, Hirnstörungen und Hochbegabungen diagnostizieren. Kaufmann-Test: Der Kaufmann-Test dient der Feststellung von Lernstörungen. Er misst drei Aspekte der Intelligenz; (1) Erworbene Fertigkeiten (z.B. Lesen, Rechnen,..) (2) Simultane Verarbeitung (räumliche oder analogiebezogene Fertigkeiten, bei denen der Proben mehrere Informationen gleichzeitig integrieren und neue Informationen synthetisieren muss) (3) Sequenzielle Verarbeitung (Aufgaben, bei denen der Proband Dinge in sequenzieller oder serieller Reihenfolge anordnen muss) Später änderte Kaufmann sein Konzept dahingehend, dass er bei Kindern die Unterscheidung zwischen sequenzieller und simultaner Verarbeitung für wichtig hielt, bei Jugendlichen und Erwachsenen aber durch die Unterscheidung zwischen fluider und kristalliner Intelligenz ersetzte. Ein wichtiger Beitrag von Kaufmann war es, sich Gedanken darüber zu machen, warum viele Kinder mit Verdacht auf Lernstörungen einen Migrationshintergrund haben. Viele Intelligenztests und auch fast alle Aufgaben in der Schule wären sprachbezogen. Sein Test könne Intelligenz und Lernfähigkeit diagnostizieren ohne die Überbetonung von Sprache. Es handelt sich damit um einen kulturfreien Test. Der Flynn-Effekt: Wir haben schon anfangs erwähnt, dass es mehr Einflüsse auf die Intelligenz gibt, als zunächst angenommen. Der Flynn-Effekt – benannt nach seinem Erfinder – beschreibt nun die Feststellung, dass der durchschnittlich IQ-Wert bis in die Mitte der 90er Jahre in den westlichen Industrieländern kontinuierlich gestiegen ist. Flynn entdeckte diesen Effekt, als er die Intelligenztests der Armeen unterschiedlicher Ländern verglich. Man führte diese Zunahme auf eine Verbesserung im Bildungssystem und in der Ernährung zurück. Flynn untersuchen, ob dieses Phänomen auch für andere Länder gilt. Der Schluss dieser Untersuchung war, dass bei vielen Nationen der IQ über die Jahre zugenommen hat. Eine weitere wichtige Erkenntnis war, dass der IQ unterschiedlich wächst: In der sprachlichen/kristallinen Intelligenz weniger stark (~ 9 IQ Punkte pro Generation) als in der fluiden/nicht-sprachlichen (~15 IQ-Punkte pro Generation). Damit widersprach das Ergebnis der Hypothese Jensens, der meinte, die Intelligenzzunahme wäre auf die längere Schulbildung zurück zu führen. Man versuchte nun verschiedene Hypothesen zu testen: 1. Dauer des Schulbesuchs konnte ausgeschlossen werden, denn es war besonders die fluide Intelligenz, die zunahm. 2. Testerfahrung: Wir sind in der heutigen Zeit mit Tests vertraut. Auch unser Schulsystem lehrt uns den Umgang mit Tests. Diese Erfahrung würde sich in der Zunahme der IQ-Punkte widerspiegeln. Diese Hypothese wurde ebenfalls verworfen, da selbst eine 71 Testwiederholung des selben Tests nicht mehr als einen Punktezuwachs von durchschnittlich 6 IQ-Punkten bringt 3. Erziehungsstile und Bildungsprogramme: Eltern fördern ihre Kinder mehr. Diese Hypothese konnte verworfen werden, nachdem Flynn ein Programm zur Frühförderung evaluiert hatte. Kinder konnten den durch Frühförderung erworbenen Vorsprung nur 3-4 Jahre halten. 4. Kulturelle, visuelle und technologische Umgebung: Unsere Art wahrzunehmen hat sich verändert, wir sind immer mehr gefordert Bedeutung aus visuellem Material selbst zu erzeugen. Diese Hypothese musste ebenfalls fallen gelassen werden, da gerade in nichtsprachlichen Tests der Intelligenzzuwachs am deutlichsten war. 5. Ernährung: Die gute Ernährung der letzten Jahrzehnte führte zu einer Zunahme an Körpergröße, warum also nicht auch an einer Zunahme an Gehirn/Intelligenz. Es gab verschiedene Untersuchungen dazu. Z.B. in China. Hier gibt es Regionen, die mit Jod unterversorgt sind. Man verglich Kinder, die ich einer Jod-Ersatztherapie unterzogen haben mit solchen, die das nicht taten und stellte einen starken Unterschied in Bezug auf ihre Intelligenz fest. In einer anderen Untersuchung wurde eine Kinder-Versuchsgruppe mit Mineralien und anderen wichtigen Zusatzstoffen versorgt, während die Versuchsgruppe 2 nur ein Placebo und die Versuchsgruppe 3 gar nichts bekam. Die Kinder, die mit Mineralien gut versorgt wurden, verzeichnete nach 8 Monaten eine Zunahme an fluider Intelligenz. So beeindruckend die Ergebnisse der Experimente zur Ernährung sind, man muss folgende Einschränkungen bedenken: Ernährung hängt auch mit sozialer Stellung, Armut, Zugang zum Bildungssystem, etc. zusammen. Mangelernährung führt immer zu kognitiven Defiziten. Die Diskussion geht weiter.. Ernährungshypothese versus kognitive Stimulationshypothese (kognitive Stimulation = Förderung führt zur Intelligenzzunahme) Förderung der Intelligenz führt zu einer Zunahme des IQ, allerdings, umso klüger jemand ist, umso geringer ist der Zuwachs Flynn selbst schloss 2009 die Ernährungshypothese aus, da Körpergröße nicht mit dem IQ ausreichend korreliert. Mittlerweile ist der Flynn-Effekt fast verschwunden. Seit den 90er Jahren konnte kein nennenswerter Intelligenzzuwachs mehr festgestellt werden. Die Erklärung dafür ist, dass es immer weniger Menschen mit sehr geringen IQ-Testwerten gibt. (Immer bessere Förderung von Kindern, bessere Ernährung,..etc.) Auf der anderen Seite stellte Flynn fest, dass die Durchschnitts-IQ-Werte bei 12-15Jährigen wieder am sinken sind. Werden wir also wieder dümmer? Er erklärt den Unterschied dahingehend: IQ-Werte von 9-11 Jährigen wären höher, da sie mehr gefördert werden. Die Eltern kümmern sich noch viel um die Kinder, diese sind in der Schule mehr eingebunden. Mit 12-15 würden die Kindern sich mehr nach außen orientieren und letztendlich denselben Beschäftigungen nachgehen wir die Vergleichsgruppe von 12-15 Jährigen aus den 70-er Jahren (sie hängen ab). Damit würde der IQ wieder sinken. 72 Die dunkle Seite der Intelligenzforschung: Ist Intelligenz erblicht? Galton konstatierte als erster, dass Intelligenz nicht nur vererbt sein könne, es müsse auch Umwelteinflüsse geben. Um dies zu untersuchen, studierte er Stammbäume berühmter Menschen. (1875!! Es gab noch keine Genetik!!!) Er fasste dies zusammen unter der Phrase „nature versus nurture“. Heute wird dieses Thema in der Verhaltensgenetik untersucht. Diese beschäftigt sich mit den Gemeinsamkeiten und Unterschieden von Individuen in einer bestimmten Population. Ob diese Unterschiede auf Gene oder auf Umweltfaktoren zurück zu führend sind. Um die Erblichkeit von Intelligenz zu untersuchen greift man auf Zwillingsstudien, Familienstudien und Adoptionsstudien zurück. Viele Studien deuten in die Richtung, dass Intelligenz bis zu 70% vererbt wird. Nur was bedeutet das? Im Moment gibt es zu diesem Thema mehr Fragen als Antworten, wir stecken mitten in einer GenUmwelt-Debatte, wissen nur, dass die Umwelt erheblichen Einfluss hat, aber wie, wo, wie viel und immer? Ist noch nicht geklärt. 73 Neues Lernen in der Psychotherapie: In den 70er Jahren entwickelte David A Kolb seine Theorie des erfahrungsbasierten Lernens. Er beruft sich auf Rogers, Jung, Guilford und Gardner und macht Aussagen darüber, wie erfahrungsbasiertes Lernen (experiential learning) von statten geht. Kolb definiert vier Aspekte des Lernens: 1) konkrete Erfahrung (Fühlen): Hier lernen wir durch unsere Einbeziehung in eine neue Erfahrung. 2) Beobachtung und Reflexion (Zusehen): Wir denken über unsere eigenen Erfahrungen oder die von anderen, die wir beobachtet haben, nach. 3) Bildung abstrakter Begriffe (Denken) Hier lernen wir, in dem wir Theorien/Hypothesen aufstellen, die unsere Beobachtungen erklären. 4) Aktives Experimentieren (Handeln) Wir ziehen diese Theorien heran und erproben sie an der Realität. Alle vier Schritte ergeben einen Lernzyklus. 74 Anhand dieser vier Beschreibungen von Lernprozessen identifiziert Kolb individuelle Unterschiede in der bevorzugten Art und Weise des Lernens und nannte vier Lernstile. 1. 2. 3. 4. Den akkommodierenden Stile Den divergierenden Stil Den konvergierenden Stil Den assimilierenden Stil Ad 1. Akkommodierender Stil: Dieser Lernstil verbindet konkrete Erfahrung und aktives Experimentieren (Fühlen und Handeln). Ein Akkommodierer bevorzugt eine praktische Herangehensweise, er ist risikofreudig und arbeitet gut in einer Rolle, die Aktivität und Initiative erfordert. (z.B. Vertrieb) Ad 2. Divergierender Stil: Dieser Lernstil verbindet konkrete Erfahrung mit Beobachtung und Reflexion (Fühlen und zusehen) Divergierer betrachten konkrete Situationen aus zahlreichen unterschiedlichen Perspektiven und arbeiten am besten, wenn sie Situationen beobachten und Informationen zusammen tragen. Diese Informationen verwenden sie dann anschließend zur Generierung von Ideen und zur Erarbeitung von Lösungsvorschlägen für Probleme. Sie sind emotional, kreativ und arbeiten gerne mit Menschen. Sie arbeiten am besten in Gruppen und sind gute Berater. Ad 3. Konvergierender Stil: Dieser Lernstil verbindet aktives Experimentieren mit der Bildung abstrakter Begriffe, (Handeln und Denken). Konvergierer sind Problemlöser, die sich für die Bewältigung praktischer Hindernisse interessieren. Sie sind gut in der Anwendung von Ideen und Theorien auf reale Situationen und der Erarbeitung von Lösungsvorschlägen. Sie neige dazu, nicht emotional zu sein und arbeiten lieber mit Sachen als Mit Menschen. Ad 4. Assimilierender Stil: Dieser Lernstil verbindet Beobachtung und Reflexion mit der Bildung abstrakter Begriffe (Zusehen und Denken) Assimilierer bevorzugen eine logische Herangehensweise und ziehen Konzepte Emotionen vor. Sie könne große Mengen an Informationen verarbeiten, in eine logische Form bringen und integrieren. Theoretisieren ist ihnen lieber als praktische Anwendung. Sie sind gute Planer. 75 Nach Kolb bedeutet erfolgreiches Lernen die Anwendung aller vier Lernprozesse. Die einseitige Nutzung von nur einem Lernstil hat folgende Ursachen: 1. Persönlichkeit: (extravertierte Persönlichkeit neigt zu Lernstilen, die Handlung oder den Umgang mit anderen Menschen beinhalten) 2. Schulbildung: (einseitige Form des Unterrichts) 3. Anforderungen des Jobs fördern einen Stil gegenüber den anderen Kolb entwickelte einen Test mit 12 Items genannt das Learning Style Inventory, das die bevorzugte Art des Lernens erfragt. Beispiele aus dem Fragebogen sind: Wenn ich lerne _______achte ich auf meine Gefühle (konkrete Erfahrung) _______beobachte ich und höre zu (Beobachtung und Reflexion) _______denke ich über Ideen nach (Bildung abstrakter Begriffe) _______handle ich gerne direkt (aktives Experimentieren) Kritik: Kolb berücksichtigt viele Faktoren nicht, wie z.B. Ziele, Lernabsichten, Intentionen, er überprüft nicht, ob überhaupt Lernen stattgefunden hat, es werden keine kulturellen oder andere Umweltbedingungen mit einbezogen. Außerdem wird Kolb borgeworfen, dass seine Theorie zu wenig evaluiert wurde. 76 HOCHBEGABUNG: Terman verfasste auf Basis seiner Doktorarbeit ein Buch mit dem Titel: Genius and Stupidity: A Study of the Intellectual Processes of Seven Bright and Seven Stupid Boys“ in dem er seine Studie vorstellte. Er begleitete jeweils sieben sehr intelligente und sieben dumme Kinder bis ins Erwachsenenleben. Diese Kinder wurden später als Termans Termiten bekannt. Terman setzte sich stark dafür ein, dass man hochbegabte Kinder fördern müsse, da sie dem Durchschnitt auf vielen Ebenen überlegen wären (moralisch, verhaltensbezogen, physisch). Er forderte die flächendeckende Testung aller Kinder, damit die begabtesten unter ihnen identifiziert und gefordert werden können. Hochbegab ist, wer in den oberen 3-5% der IQ-Testwert-Verteilung der jeweiligen Altersgruppe liegt. Viele Untersuchungen zeigen, dass der IQ tatsächlich ein guter Prädiktor für Hochbegabung ist. Hochbegabung beschreibt – wie Studien zeigten – keine Inselbegabungen, sondern meist hat sie Auswirkungen auf viele psychophysische Variablen. In unterschiedlichen Untersuchungen wurde eine Zusammenhang mit der Unkompliziertheit der Schwangerschaft, mit dem Bildungsniveau der Eltern, mit der Zeit, die Kinder mit Lesen und Hausaufgaben verbringen, mit dem sozioökonomischen Status der Eltern festgestellt. Was ist nun Hochbegabung? Folgende Indikatoren werden in der Literatur genannt: Zeigt überragendes logisches Denkvermögen und ausgeprägte Fähigkeit zum Umgang mit Ideen: kann aus spezifischen Fakten sofort generalisieren und subtile Zusammenhänge erkennen; verfügt über herausragende Problemlösefähigkeiten. Zeigt unaufhörliche intellektuelle Neugier, stellt suchende Fragen, zeigt außergewöhnliches Interesse an der Natur des Menschen und des Universums Hat ein breites Spektrum an Interessen, oft intellektueller Natur, entwickel eine oder mehrere dieser Interessen zu beträchtlicher Tiefe Ist in Qualität und Quantität es geschriebenen und/oder gesprochenen Vokabulars überragend; interessiert sich für subtile Bedeutungen von Wörtern und ihre Verwendungsmöglichkeiten Liest begierig und versteht Bücher deutlich besser als seine Altersgenossen Lernt leicht und schnell und behält das Gelernte; erinnert wichtige Details, Konzepte und Prinzipien, versteh mühelos Zeigt Einsicht in arithmetische Probleme, die sorgfältige Überlegung erfordern und erfasst mathematische Probleme mühelos Zeigt kreative Fähigkeiten oder imaginativen Ausdruck in Bereichen wie Musik, Kunst, Tanz, Theater, zeigt Sensibilität und Finesse in Rhythmus, Bewegung und Körperbeherrschung Erhält seine Konzentration über lange Zeiträume aufrecht und zeigt herausragende Eigenverantwortung und Unabhängigkeit in unterrichtsbezogenen Aufgabensetzt sich selbst realistisch hohe Standard, ist selbstkritisch in der Bewertung und Korrektur seiner Bemühungen Zeigt in intellektuellen Arbeiten Initiativen und Originalität, zeigt Flexibilität im Denken und betrachtet Probleme aus einer Reihe unterschiedlicher Perspektiven Beobachtet genau und ist zugänglich für neue Ideen Zeigt soziales Selbstvertrauen und kann in reifer Weise mit Erwachsenen kommunizieren Zeigt Begeisterung und Freude an intellektuellen Herausforderungen, zeigt einen Aufgeweckten und subtilen Sinn für Humor. 77 Psychologische Modelle von Hochbegabung: Callahan (2000) schlägt vor, dass es fünf zentrale psychologische Theorien von Hochbegabung gibt. (1) Sternbergs triarchisches Modell der Hochbegabung (2) Gardners Modell der multiplen Intelligenzen und Hochbegabung (3) Renzullis Drei-Ringe-Theorie (4) Tannenbaums psychosoziale Definition (5) Feldmans entwicklungsbezogene Sichtweise. Sternbergs triarchisches Modell sowie Gardners Modell der multiplen Intelligenzen der Hochbegabung sind Erweiterungen der schon vorgestellten Modelle. Laut Sternberg existieren drei unterscheidbare Arten von Hochbegabung: 1. Analytische Hochbegabung: sie beruht auf mentalen Mechanismen, die intelligentem Verhalten zugrundeliegen (z.B. Einstein) Beschrieben in der Komponenten-Subtheorie. 2. Praktische Hochbegabung; diese beruht auf der Interaktion zwischen mentalen Mechanismen und der Welt zur Produktion intelligenten Verhaltens. Beschrieben in der Kontext-Subtheorie. 3. Kreative Hochbegabung; diese Art von Hochbegabung beruht auf der Interaktion zwischen Erfahrung und der internen und externen Welt zur Hervorbringung intelligenten Verhaltens, ein Beispiel wäre eine Person mit Intuition und Einsicht, die gut mit Neuheit umgehen kann, z.B. Shakespeare. Diese Begabung wird in der Erfahrungs-Subtheorie beschreiben. Gardners Modell der Hochbegabung basiert auf seiner Theorie der multiplen Intelligenzen und setzt die Exzellenz in mindestens einer der neun Intelligenzen voraus (sprachlich-linguistisch, logischmathematisch, bildlich-räumlich, musikalisch-rhythmisch, körperlich-kinästhetisch, interpersonal, intrapersonal, naturalistisch und existenzialistisch. Renzullis Drei-Ringe-Theorie: Renzulli wollte die Definition von Hochbegabung nicht auf Intelligenzmessungen bzw. hohe IQs beschränkt sehen und legte sein Konzept sehr breit an. Es sieht Hochbegabung als positive Kombination von Verhaltensweisen an und nicht als dem Individuum innewohnende Eigenschaft. Die Eigenschaften bestehen nach Renzulli aus 1. Überdurchschnittlichen Fähigkeiten Menschen mit überdurchschnittlichen Fähigkeiten zeigen ein hohes Maß an abstraktem Denken, Anpassung an neue Situationen und dem Vermögen, Informationen rasch und präzise abzurufen. Außerdem besitzen sie die Fähigkeit generelle Kompetenzen auf spezifische Wissensbereiche anzuwenden, relevante von irrelevanten Informationen zu trennen und im Verlauf eines Problemlöseprozesses elaboriertes Wissen und Strategien zu erwerben und zu verfolgen. 2. Aufgabenverpflichtung Die Aufgabenverpflichtung umfasst die Fähigkeiten hochgradiges Interesse und Enthusiasmus für Aufgaben zu zeigen, in einem bestimmten Bereich entschlossen und hart zu arbeiten, dabei Selbstvertrauen und Leistungsstreben zu zeigen und hohe Standards für die eigenen Arbeit zu setzen. 3. Kreativität Umfass die Fähigkeit flüssig, flexibel und originell zu denken und offen für neue Erfahrungen, neugierig und risikobereit zu sein. 78 Diese Begabungen werden in Ringen dargestellt, wobei die Schnittmenge den Bereich darstellt, in dem Hochbegabung zu finden ist. Hochbegabung ist eine Balance zwischen diesen drei Ringen. Es reicht nicht kreativ zu sein und viele großartige Fähigkeiten zu haben, wenn man z.B. nicht aufgabenverpflichtet ist (sprich - wenn der Ehrgeiz fehlt). Tannenbaums psychosoziale Definition von Hochbegabung: Tannenbaum sieht den Schlüssel für Hochbegabung ähnlich wie Renzulli eher in der Fähigkeit zur Produktion als in der Fähigkeit Informationen aufzunehmen. Er schlägt vor, dass entwickelte Talente nur beim Erwachsenen zu finden sind und unterscheidet in seiner „Begabungstypologie“ folgende vier Talente: 1. Mangeltalente: Talente, die zur Lösung gesellschaftlich relevanter, jedoch schwieriger Probleme benötigt werden. 2. Überschusstalente: Talente, die es den Menschen ermöglichen, auf künstlerischem Weg die Ästhetik der Umwelt zu bereichern. 3. Quotentalente: intellektuelle Fähigkeiten ohne besondere Qualitätsmerkmale, etwas Talente in Bezug auf die Bereitstellung von Geschäften, waren und Dienstleistungen 4. Außergewöhnliche Talente, Praktische Talente, etwa herausragend Fähigkeiten im Schnelllese oder bestimmten Sportarten. Hochbegabung ist nach Tannenbaums Definition ein im Erwachsenenalter zum erblühen gebrachtes Talent und somit die Endstufe einer Entwicklung. Bei Hochbegabung im Kindesalter sah er die generelle Intelligenz als verbindenden Faktor, des weiteren außergewöhnliches Begabungen, spezielle Anlagen, nicht-intellektuell Vermittler (hohe Motivation, hoher Selbstwert) umweltbezogenen Einflüsse und Zufall. Feldmans entwicklungsbezogene Sichtweise der Hochbegabung: Koinzidenz: Hochbegabung im Erwachsenenalter stellt eine Koinzidenz von Kräften dar, die zusammengewirkt haben, um das talentierte Individuum hervorzubringen. Diese Kräfte unterteilt er in folgende Kategorien: 79 1. Biologische und psychologische Kräfte: Faktoren, die das Gehirn und den Geist betreffen und dem Individuum die Prädisposition für Hochbegabung verleihen (z.B. gute kognitive Verarbeitungsfähigkeiten) 2. Soziale und umweltbezogene Kräfte: Faktoren, die in der Umwelt liegen und die für die Entwicklung von Hochbegabung entscheiden sind 8z.B. fördernde Eltern, gute Lehrer,..) 3. Historische Kräfte: Diese Kräfte repräsentieren die sozialen Gelegenheit der Umwelt des Kindes wieder (z.B. Sind bestimmte Fächer Teil des Schulsystems?) 4. Evolutionäre Kräfte: kulturelle und biologische Faktoren, die die Entstehung von Hochbegabung fördern oder behindern. Feldmann verglich Gelegenheit, bei denen Hochbegabung im Erwachsenenalter auftritt oder eben nicht. Z.B. verhindern viele Geschlechtsrollenstereotypen, dass Frauen ihre Hochbegabung auch leben. Die Arbeit mit intelligenzgeminderten Personen: In der Erforschung der Intelligenz von intelligenzgeminderten Personen gibt es zwei historische Entwicklungslinien: 1. die negative historische Linie 2. die positive historische Linie (aktuell) ad 1. Die negative historische Linie: Besonders in der NS-Zeit führten Tests zur Intelligenz zur sogenannten Eugenik. Eugenik bezeichnet jenen Prozess der künstlichen Selektion, bei dem das Ziel verfolgt wird, Kinder mit bestimmten Eigenschaften zu züchten. Eugenik teilt sich in zwei Gruppen: Die positive Eugenik versucht durch erhöhte Reproduktionsraten von Menschen mit der jeweils gewünschten Eigenschaft (z.B. hohe Intelligenz) diese positive Eigenschaften in der Population insgesamt zu erhöhen. Die negative Eugenik versucht die Fortpflanzung von Individuen mit unerwünschten Eigenschaften zu verhindern (Zwangssterilisation). Die Eugenik nahm ihren Ausgangspunkt bei Sir Francis Galton. Dieser studierte Charles Darwins Wert über den Ursprung der Arten der darin seine Theorie über Evolution und über die Selektion vorstellte. Galton entwickelte diese Ideen in seinem Buch „Genie und Vererbung“ (1910) weiter. Er war überzeugt davon, dass die Gesellschaft ihre schwachen Mitglieder schützen und so die natürliche Selektion verhindern würde. In seinem Buch schrieb er fest, dass Intelligenz vererbt wird und dass man sie durch künstliche Selektion vermehren könne. Terman griff diese Idee auf und meinte zu erkennen, dass Minderbegabungen besonders in hispanoamerikanischen und afroamerikanischen Familien gehäuft auftreten. Kinder dieser Familien sollten getrennt unterrichtet werden, da sie zu abstraktem Denken nicht in der Lage sind. Außerdem äußerte er die Sorge, dass gerade diese Familien sich stärker vermehren als die weißen Amerikaner. Er sowie seine Anhänger traten für die Sterilisation ein. Im Dritten Reich wurden viele Zwangssterilisationen durchgeführt. 1948 wurde von der UN ein _Beschluss verfasst, demzufolge alle Männer und Frauen ungeachtet ihrer ethischen Zugehörigkeit - das Recht haben zu heiraten und eine Familie zu gründen Ad 2. Die positive Linie Sie hat ihre Wurzeln in Frankreich. 1797 beobachtete man das erste Mal einen umherstreifenden Jungen in einem Waldstück in Südfrankreich. Man fing ihn ein, doch er floh wieder und 1898 gelang 80 es, ihn erneut zu fangen und wieder floh er. Erst 1800 gelang es ihn tatsächlich zu fangen und zu einem Arzt zu bringen. Doch da er nicht sprechen konnte, brachte man ihn in eine Taubstummenanstalt nach Paris. Der Psychiater Pinel begutachtete den Jungen und stufte ihn als „Idioten“ ein. Der französische Arzt Jean-Marc Gaspard Itard jedoch widersprach der Diagnose. Er nannte den Jungen Victor von Aveyron und widmete sich die nächsten fünf Jahre diesem Kind, in dem er es mit Hilfe eines eigens entwickelten Bildungsprogramms schulte. Nach fünf Jahren konnte Viktor lesen und einige Wörter sprechen. Der Arzt war von den geringen Fortschritten enttäuscht und bracht sein Experiment ab. Viktor kam zu Madam Guerin in die Obhut. Er war damals ca. 18 Jahre alt. Er starb im Alter von 40 Jahren. So traurig die Geschichte ist. Dr. Jean Itard war der erste, der etwas tat, das wir heute als Förderunterricht bezeichnen würden. Nachdem das Trauma des 2. Weltkrieges etwas verdaut war, konnte man Intelligenztests wieder hernehmen um zu unterscheiden und für jene Kinder, die nicht so gut abschnitten Programme entwickeln. Besonders in den 60er und 70er Jahren wurde in diese Richtung intensiv geforscht. Man konzentrierte sich nicht nur auf intelligenzgeminderte Menschen sondern auch auf Inselbegabte, sogenannte Sarvants, eine Spezialform des Autismus. Autismus ist eine angeborene Wahrnehmungsund Informationsverarbeitungsstörung, die durch extreme Schwierigkeiten in der Kommunikation, stereotype Verhaltensweisen und übermäßig Bindung an bestimmte Objekte gekennzeichnet ist. Savants stechen dadurch heraus, dass sie besondere Begabungen haben. Z.B. Rainman. Alle die Ergebnisse deuten dahin, dass selbst intelligenzgeminderte Menschen lernen und sich verbessern können. Feuerstein und die strukturelle kognitive Veränderbarkeit Feuerstein arbeitete als Psychologe in Israel mit schwer traumatisierten Holocaust-Überlebenden, in israelischen Jugenddörfern. Er entwickelte eine Theorie und ein Programm zur strukturellen kognitiven Veränderbarkeit. Dieser Theorie liegen drei Annahmen zugrunde: 1. die menschlichen Fähigkeiten und Verhaltensweisen sind dynamisch und änderbar, nicht statisch. Das bedeutet, Fähigkeiten lassen sich ändern. 2. Individuen müssen hierfür eine Veränderung wünschen oder benötigen 3. Kognitive Fähigkeiten, insbesondere Intelligenz, spielen eine zentrale Rolle in der Fähigkeit einer Person sich selbst zu ändern. Die Theorie und das Programm dazu umfassen drei zentrale Elemente: 1. Mediierte Lernerfahrung Das mediierte Lernen besteht aus direktem und mediierten Lernen: unter direktem Lernen versteht Feuerstein eine direkte Interaktion zwischen Lernendem und einem umweltbezogenen Lernfaktor, etwas dem Lesen eine Buches oder der Teilnahme an einem Kurs. Mediierte Lernen verlangt einen Mediator zwischen Lernendem und Umwelt, einem Lehrer. Dieser Mediator kann umweltbezogenen Lernfaktoren interpretieren, verändern, betonen oder selektieren, z.B. eine Leseunterstützung beim Buchlesen,.. Bei Menschen mit Intelligenzminderungen ist nach Feuerstein ein Mediator unerlässlich. Er hat die Aufgaben, die Umwelt an den Lernenden anzupassen. Die gezielte Aufmerksamkeit des Mediators kann zu einer kognitiven Verbesserung führen. 2. Das Learning Propensity Assessment Device (LPAD) LPAD ist ein Intelligenztest, der auf der Grundlage dessen, was Feuerstein als adaptiven oder dynamischen Ansatz zur Beurteilung der Lernneigung bezeichnet hat. 81 Die Lernneigung ist das natürliche Potenzial, die natürliche Neigung des Menschen zum Lernen. Der LPAD besteht aus 15 Instrumenten zur Identifikation der kognitiven Funktionen, der Lernprozesse und der Problemlösestrategien im Zusammenhang mit Wahrnehmung, Aufmerksamkeit, Gedächtnis, Problemlösen und logischem Denken. 3. Instrumentelle Bereicherung. Die Instrumentelle Bereicherung baut auf dem LPAD auf und verbessert jene Fähigkeiten, die für unabhängiges Denken und Lernen auf Seiten des Individuums notwendig sind. Dies geschieht durch: Beseitigung von Unzulänglichkeiten in den Lernfähigkeiten der Person Unterweisung in neuen Lernoperationen und –techniken Steigerung der Motivation Entwicklung schulspezifischer Lernstrategien und Ansätze Das Programm zur instrumentellen Bereicherung wurde in mehr als 60 Ländern und in über 2000 Projekten angewendet. Savant-Syndrom „Inselbegabung“ Das Substantiv „Savant“ bedeutet in der französischen und in der englischen Sprache in einem umfassenden Sinn „Wissender“ oder „Gelehrter“. Hier wird der Begriff aber zur Beschreibung von „Inselbegabungen“ verwendet und bedeutet, dass - bei insgesamt schwacher Begabung - in einem abgegrenzten einzelnen Fach, einer sogenannten „Insel“, eine herausragende Leistungsfähigkeit vorliegen kann, die in bizarrem Gegensatz zur übrigen Persönlichkeit steht. Es handelt sich um „eine isolierte Gabe inmitten von Defekten“ 50 Prozent der bekannten Inselbegabten sind Autisten. Sechs von sieben Inselbegabten sind männlich. Es gibt keine zuverlässigen Untersuchungen darüber, wie häufig das Savant-Syndrom auftritt. Der amerikanischen Psychiater und Autismus-Forscher Darold Treffert schlug eine Unterscheidung in prodigious savants, abgeleitet von prodigy (Wunderkind, Talent) im Deutschen übersetzt mit „erstaunlichen Savants“, die wirklich herausragende Fähigkeiten besitzen autistisch veranlagte Inselbegabte auch „Autistic Savant“ oder „Savant Autistique“ vor, im Deutschen mit „talentierten“ Savants übersetzt, die höchstens durchschnittliche Leistungen zeigen, die aber in Anbetracht ihrer Behinderung dennoch bemerkenswert sind. Zurzeit sind weltweit etwa 100 Menschen bekannt, die man nach dieser Unterteilung als erstaunliche Savants bezeichnen kann. Der Intelligenzquotient der Personen liegt meist unter 70, kann aber auch durchschnittlich, in einigen Fällen auch überdurchschnittlich sein. Die Fähigkeiten sind dabei sehr unterschiedlich ausgeprägt. Ins Bewusstsein der Öffentlichkeit gelangte das Savant-Syndrom unter anderem durch den Film Rain Man. Inselfertigkeiten sind fast immer angeboren, können jedoch auch später aus einer Hirnschädigung entstanden sein. Bei der Suche nach Erklärungen ist zu unterscheiden zwischen dem prüfbaren Können der Inselbegabten und der Frage, warum sie das können. Nach Douwe Draaisma ist der Savant das Produkt aus Konzentration, Einseitigkeit und endloser Wiederholung. 82 Eine Hypothese der Harvard-Neurologen Norman Geschwind und Albert Galaburda beruht auf Erkenntnissen der Hirnforschung, wonach zwischen der zehnten und der achtzehnten Woche der embryonalen Phase ein beschleunigtes Wachstum des Gehirns eintritt. Störungen dieser explosionsartig beschleunigten Neuronenverbindungen führen zu massiven Gehirnschäden. Einer der möglichen Störfaktoren ist das männliche Hormon Testosteron, das im Körper zirkuliert, während die Hoden des Embryos angelegt werden. Ein hoher Testosteronspiegel wirkt hemmend auf das Wachstum der Hirnrinde. Diese Theorie könnte die männliche Überrepräsentanz unter den Inselbegabten erklären. Auch der Hirnforscher Michael Fitzgerald vom Trinity College (Dublin) sieht die herausragende Kreativität der Inselbegabten als Folge der bei den Autisten bestehenden neuronalen Fehlschaltungen. Seiner Meinung nach waren bei vielen Genies wie Albert Einstein, Isaac Newton und Mozart mehr oder minder starke Ausprägungen von Autismus vorhanden. Allan Snyder von der Universität Sydney geht davon aus, dass man bestimmte Gehirnareale ausschalten muss, um die Reserven der anderen Bereiche freisetzen zu können. Seine Versuchsergebnisse mit starken Magnetfeldern (rTMS) und die daraus abgeleiteten Thesen sind jedoch umstritten. Eine weitere gängige Theorie besagt, dass bei Inselbegabten die Filtermechanismen des Gehirns gestört seien. Dadurch würden nur ausgewählte Informationen des Unbewussten und nur einzelne, für relevant gehaltene, Informationen des Gedächtnisses dem bewussten Bereich des Gehirns zugeführt, um dessen Überforderung zu verhindern und den Menschen im Alltag schneller und intuitiver entscheiden zu lassen. Manche Wissenschaftler gehen davon aus, dass jeder Mensch ausnahmslos alle Sinneseindrücke in seinem Gedächtnis speichert, aber nur Zugriff auf die Wichtigen hat, während ein Savant in einem Teilbereich auf jede Information zugreifen kann, unabhängig von ihrer Relevanz oder emotionalen Bedeutung. Neuere Forschungen (2012) an Taufliegen zur Gedächtnisbildung deuten auch auf mögliche Ursachenim Zusammenhang mit Dopamin und Savants hin. Dies würde diesen Theorien entgegenkommen. Es konnte gezeigt werden, dass ein Dopamin-Rezeptor (DAMB-Receptor) beim Prozess des „Vergessens“ eine wichtige Rolle spielt. Wichtig ist, sich vor Augen zu führen, dass es nicht den einen Savant gibt, sondern ein breites Spektrum von Inselbegabten mit sehr unterschiedlichen Hirnstörungen und Teilbegabungen. Beispiele: Kim Peek, kannte laut eigenen Angaben den Inhalt von etwa 12.000 Büchern auswendig. Diese Menge an Büchern las er mittels einer außergewöhnlichen Fähigkeit: Er konnte zwei Seiten gleichzeitig lesen, und zwar die eine mit dem linken und die andere mit dem rechten Auge. Außerdem benannte er für jede US-amerikanische Stadt die Postleitzahl, Vorwahl und den Highway, der dorthin führt. Des Weiteren war er in der Lage, zu jedem Datum binnen Sekunden den Wochentag zu nennen. Kim Peek war das Vorbild des Raymond Babbitt im 1988 erschienenen Film Rain Man mit Dustin Hoffman als Hauptdarsteller. 83 Ziad Fazah, Libanese, spricht 58 Sprachen fließend, darunter Chinesisch, Thailändisch, Griechisch, Indonesisch, Hindi und Persisch. Die meisten dieser Sprachen hat Fazah sich selbst beigebracht. Dafür brauche es aber sehr viel Ausdauer und Disziplin, erklärt der Multilinguale, der es mit seinem Talent sogar ins Guinness-Buch der Rekorde geschafft hat. George Widener ist ein US-amerikanischer Künstler (* 1962), der bereits als Kind als verhaltensauffällig galt. Anfang der 1980er Jahre arbeitete er bei der U.S. Air Force in Deutschland, wo er Spionagematerial auswertete. Sein Studium der Ingenieurwissenschaften in Texas brach er ab und lebte zeitweise in der Amsterdamer Hausbesetzer-Szene. Später wurde er obdachlos, suchte jedoch tagsüber Bibliotheken auf, um dort zu lesen und zu studieren. Im Jahr 2000 wurde bei ihm das Asperger-Syndrom diagnostiziert. Heute ist Georg Widener ein gefragter Künstler, der seine Begabung für den Umgang mit Daten und Zahlen in außergewöhnliche Zeichnungen übersetzt. 84 Als Asperger-Syndrom wird eine tiefgreifende Entwicklungsstörung innerhalb des Autismusspektrums bezeichnet, die vor allem durch Schwächen in den Bereichen der sozialen Interaktion und Kommunikation gekennzeichnet ist sowie von eingeschränkten und stereotypen Aktivitäten und Interessen bestimmt wird. Beeinträchtigt ist vor allem die Fähigkeit, nonverbale und parasprachliche Signale bei anderen Personen intuitiv zu erkennen und intuitiv selbst auszusenden. Das Kontakt- und Kommunikationsverhalten von Asperger-Autisten erscheint dadurch merkwürdig und ungeschickt und wie eine milde Variante des frühkindlichen Autismus (Kanner-Syndrom). Da ihre Intelligenz in den meisten Fällen normal ausgeprägt ist, werden sie von ihrer Umwelt nicht als Autisten, sondern als wunderlich wahrgenommen. Gelegentlich fällt das Asperger-Syndrom mit einer Hoch- oder Inselbegabung zusammen. Das Asperger-Syndrom gilt als angeboren und nicht heilbar. Es macht sich etwa vom vierten Lebensjahr an bemerkbar. Das Asperger-Syndrom ist nicht nur mit Beeinträchtigungen, sondern oft auch mit Stärken verbunden, etwa in den Bereichen der Wahrnehmung, der Introspektion, der Aufmerksamkeit oder der Gedächtnisleistung. Ob es als Krankheit oder als eine Normvariante der menschlichen Informationsverarbeitung eingestuft werden sollte, wird von Wissenschaftlern und Ärzten sowie von Asperger-Autisten und deren Angehörigen uneinheitlich beantwortet. Uneinig ist sich die Forschergemeinschaft auch hinsichtlich der Frage, ob man im Asperger-Syndrom ein selbstständiges Störungsbild oder eine graduelle Variante des frühkindlichen Autismus sehen sollte. In neuer Zeit wird das Aspergersyndrom auch umgangssprachlich „Geek-Syndrome“ genannt. Mithilfe von Strategien wie geschicktem Ausweichverhalten und bewusster Konzentration auf berufliche und sachliche Lebensschwerpunkte kommen die Betroffenen in unserer Technik dominierten und zunehmen unpersönlicher werdenden Welt relativ gut zurecht und bleiben lange unentdeckt. Aus dem Heise-Online-Magazin: http://www.heise.de/tp/artikel/11/11997/1.html (durchaus mit Humor versetzt ;O) „Autisten fehlt die Theory of Mind, wie Psychologen es nennen, die Fähigkeit, Gefühle und Gedanken anderer zu erkennen. Während beim Autismus im Sinne Aspergers die Probleme der Wahrnehmungsverarbeitung im Vordergrund stehen und weniger Probleme des Denkens und der geistig-intellektuellen Funktionen, kommen bei der aus Rain Man bekannten autistischen Störung, wie sie Leo Kanner beschrieben hat, schwerwiegende kognitive Funktionsbeeinträchtigungen hinzu, die Übergänge zwischen beiden fließen. Die Ortsfremde in der Grammatik der Gefühle ist ihnen gemein, wenn auch unterschiedlich stark ausgeprägt. Autismus-Forscher Simon Baron-Cohen beschreibt in einer Publikationen drei Fälle von Asperger Syndrom: der erste, Richard Borcherds, Inhaber der Fields Medal war 38, als er sich auf Autismus untersuchen ließ und AS diagnostiziert wurde, worunter seine Laufbahn im Exzentrikern aufgeschlossenen Biotop der Universität (in seinem Fall Berkeley) bis heute nicht gelitten hat. Borcherds bezeichnet sich selbst als socially inept und fügt hinzu, dass in allen Mathematikfakultäten, die er kannte, immer mindestens einer gewesen sei, der noch verrückter war als er selbst. Der zweite war ebenfalls ein Mathegenie und der dritte ein herausragender Informatiker. Keiner von den dreien jedoch konnte Gesichtsausdrücke auf ihren emotionalen Inhalt hin entschlüsseln, wenn ihnen entsprechende Fotografien vorgelegt wurden. Was sehen Sie? Wut, Schmerz, Angst, Freude? Nichts. Es gibt Schätzungen, dass 93 Prozent aller Kommunikation nonverbal abläuft. Jemand mit AspergerSyndrom könnte diese Information vielleicht so interpretieren, dass nur sieben von hundert gesprochenen Wörtern wirklich Sinn machen 85 Autismus ist eine Folge von Entwicklungsstörungen des Stammhirns, die bereits sehr früh im Mutterleib beginnen. Laut einer Studie, die das International Molecular Genetic Study of Autism Consortium im September letzten Jahres in der Zeitschrift American Journal of Human Genetics veröffentlichte, gibt es Gene auf den Chromosomen 2, 7,16 und 17, die Autismus begünstigen, wobei Erbanlagen auf Chromosom 2 die größte Bedeutung zu haben scheinen. An welchem Punkt wird eine Entwicklungsstörung eine Persönlichkeitsstörung und wann ist sie einfach eine Variante der Persönlichkeit?“ Emotionale Intelligenz (EQ): Zur Wiederholung: Emotionen können als ein zentrales Subsystem der Persönlichkeit verstanden werden. Interindividuelle Unterscheide in der Neigung zum Erleben positiver und negativer Emotionen und Stimmungen sind ein wesentlicher Bestandteil von Persönlichkeitsmerkmalen. Es zeigen sich außerdem stabile und konsistente interindividuelle Unterschiede in der Art und Weise, wie Menschen Emotionen zum Ausdruck bringen und Emotionen regulieren. Emotionen sind Prozesse, die aus verschiedenen Komponenten bestehen, einer kognitiven, einer (neuro-)physiologischen, einer motivationalen, einer Gefühls- und einer Verhaltens- bzw. Ausdruckskomponente. Eine größere Einigkeit besteht darüber, dass ein zentraler Aspekt von Emotionen die kognitive Bewertung „appraisal“ der aktuellen Situation durch den Organismus ist. Die sogenannten Appraisal-Theorien betonen die Situationsbewertung und Informationsverarbeitung. Sie werden unter dem Begriff der Komponenten-Ansätze – also der Ansätze, die Situationsmerkmal zu identifizieren sucht, die spezifische Emotionen auslösenzusammen gefasst. Daneben gibt es eine zweite Richtung, die sich auf persönliche Ziele bezieht. Diese zielorientierten Ansätze betonen, dass Emotionen nur dann entstünden, wenn es um persönlich relevante Ziele ginge. Emotionaler Ausdruck wird seit Darwin als Anpassungsvorteil bei der natürlichen Selektion gesehen. Dieser Ausdruck ist universell über alle Kulturen gleich und ist ein zentraler Bestandteil von Emotionen: Ohne Ausdruck keine Emotion. Ekman (1993) definiert distinktive Ausdrücke für die Grundemotionen Ärger, Furcht, Ekel, Traurigkeit und Freude. Für Verachtung, Überraschung und Interesse sind die Ausdrücke weniger klar. (Allerdings schränkt Ekman später ein, dass wir bewusst, den Ausdruck unterdrücken können bzw. den Ausdruck auch vortäuschen können, ohne die Emotionen zu spüren). Emotionen haben neurophysiologische Korrelate. Allerdings steckt die Forschung hier noch in den Kinderschuhen. Mit Sicherheit lässt sich sagen, dass Ärger, Angst und Traurigkeit mit einer stärkeren Erhöhung des Herzschlags einher geht als z.B. Ekel. Bei Ärger ist die Fingertemperatur höher als bei Angst. Angst und Ekel erhöhen den Herzschlag mehr als Freude. James-Lange-Theorie: Diese Die Rückmeldung des Zustands unserer Skelettmuskulatur und der autonomen Erregung ist das bestimmende Element im Erleben von Emotionen. Kurz: wir sind ängstlich, weil wir zittern und davonlaufen. 86 Cannon (1927) meint wiederum, dass alle Emotionen von einer zugrundeliegenden undifferenzierten, sympathischen Aktivierung begleitet werden. Emotionales Erleben ist eine spezifische Reaktion des Zentralnervensystems. Schachter und Singer (1962) entwickelten diese Theorie dann weiter zu einer kognitiven Emotionstheorie. Appraisal-Theorien: Appraisal meint die subjektive Bewertung der Situation und erklärt, warum Menschen eine und dieselbe Situation unterschiedlich emotional erleben, sie erklärt auch warum ein und derselbe Mensch unterschiedliche Situationen gleich emotional erleben kann. Beispiel Prüfungssituation – der eine fürchtet sich, der andere nicht Beispiel: Student X fürchtet sich bei Prüfungen, im Dunkeln, beim Zahnarzt,… Der Hauptvertreter dieser Richtung ist Larzarus, der vertritt den Standpunkt, dass appraisal nicht nur hinreichend sondern auch notwendig ist um die Auslösung von Emotionen zu erklären. Ausgangspunkt für Lazarus Beobachtungen war, dass Menschen auf Stress sehr unterschiedlich reagierten. Er führte diese Unterschiede eben auf die unterschiedliche Bewertung (~Kognition) der Stress auslösenden Situationen zurück. Daraus entwickelte er zwei zentrale Aspekte der Situationsbewertung: 1. primary appraisal, erfasst die grundlegende Bedeutung einer Situation für das persönliche Wohlbefinden Zielrelevanz (betrifft das Ausmaß der Bedeutung einer Person-Umwelt-Interaktion für persönliche Ziele, ist keine Bedeutung für persönliche Ziele vorhanden, ist auch keine Emotion möglich.) Zielkongruenz/-inkongruenz (Ausmaß der Übereinstimmung einer Person-UmweltInteraktion mit den Zielen einer Person. Kongruenz führt zu positiven Emotionen, Inkongruenz zu negativen. Typ of ego-involvement (betrifft verschiedenen Aspekte der Ich-Identität: es werden selfand social esteem, moral values, ego-ideals, meanings and ideas, other persons and their wellbeing und life goals genannt.) 2. secudary appraisal beschreibt die Bewältigungsmöglichkeiten einer Person in einer bestimmten Situation. Verschulden „blame/credit“ (weiß eine Person, wer für eine Situation verantwortlich ist und weiß dieser Person, dass der Akt für ihn kontrollierbar war, wird blame/credit zugewiesen Bewältigungspotenzial „coping potential“: (betrifft die Einschätzung einer Person, ob sie mit den Anforderungen einer Situation umgehen oder persönliche Absichten umsetzen kann. Hier ist nicht tatsächliche Bewältigung, sondern eine Bewertung jener Handlungen und Kognitionen gemeint, die ihrerseits eine Veränderung der Person-Umwelt-Konfiguration bewirken) Zukunftserwartungen „future expectancies“ (betrifft die Einschätzung, ob es wahrscheinlich ist, dass sich aus irgendeinem Grund etwas zum Besseren oder Schlechteren verändert) Diese Kognitionen sind nicht nur Auslöser des „Affektprogramms“ sondern auch Bestandteil der Emotionen und sie werden wiederum von Emotionen beeinflusst. 87 Emotionalität als Persönlichkeitseigenschaft: Alle bekannten Persönlichkeitsdimensionen sind in einem gewissen Ausmaß „affekthaltig“. Dies gilt insbesondere für Neurotizismus und Extraversion, die beiden grundlegenden Persönlichkeitsdimensionen, die in der einen oder anderen Form in allen eigenschaftstheorietische und biologischen Theorien der Persönlichkeit enthalten sind. Zur Wiederholung Neurotizismus und Extraversion: Neurotizismus beinhaltet die generell erhöhte Neigung zum Erleben negativer Emotionen und Stimmungen. Diese Persönlichkeitsdimension ist weitgehend über Affekt definiert, wie aus den einzelnen Eigenschaften hervorgeht, die Neurotizismus zugeordnet werden. Im Fünf-Faktoren-Modell der Persönlichkeit wird Neurotizismus definiert durch die sechs Facetten: - Ängstlichkeit - soziale Befangenheit - Reizbarkeit - Impulsivität - Depression - Verletzlichkeit Die „neurotisches Kaskade“ Auf der Ebene des konkreten Verhaltens geht der Stellenwert von Neurotizismus für das emotionale Erleben sehr anschaulich aus Studien hervor. Z.B. mit der Methode des experience sampling oder ambulanten Assessments – d.h. Daten werden in der natürlichen Welt der Testpersonen gesammelt, die Datenerhebung geht über einen längeren Zeitraum und umfasst mehrere Messzeitpunkte. Diese Form der Datenerhebung ermöglicht Prozessanalysen zur Darstellung von Verläufen. Praktisch wird dies heute zunehmend über Smartphones gemacht. Diese fordern die Versuchspersonen in regelmäßigen Zeitabständen zur Dateneingabe auf – time sampling- oder zur Eingabe bei bestimmten Ereignissen – event-sampling. Zusätzlich werden physiologische Parameter gemessen – dies wird möglich, da es immer kleinere und dadurch tragbare Messgeräte gibt. Der Vorteil: Es werden retrospektive Verzerrungen verringert, da die Daten zeitnahe erfasst werden. Der Nachteil: Der hohe technische Aufwand und dass die Versuchspersonen durch die Selbstbeobachtung immer sensibler werden = „Reaktivität“, d.h. die Methode verändert das zu messende Merkmal! Die Ergebnisse solcher Untersuchungen zeigen, dass Menschen mit hohen Neurotizismuswerten nicht nur eine erhöhte Neigung zu negativ getönten Erfahrungen aufweisen, sondern auch negative Erfahrungen intensiver erleben, sich also hinsichtlich Niveau und Reaktivität von jenen Personen unterscheiden, die einen geringen Neurotizismus-Score haben. Dies nennen Suls und Martin (2005) „Neurotisches Kaskade“. „Negative Affektivität“ (Watson und Clark 1984) beschreibt die interindividuellen Unterschiede in der Neigung zu negativem Affekt, zu einem negativen Selbstkonzept und zu negativ getönten Erfahrungen. Negative Affektivität beinhalten die dispositionelle Neigung zu erhöhter Anspannung, Nervosität, Besorgnis, Ärger, Schuldgefühle, Niedergeschlagenheit und Unzufriedenheit mit sich selbst und entspricht damit der Dimension des Neurotizismus. Der einzige Vorteil in der Verwendung des 88 Begriffs „negative Affektivität“ gegenüber Neurotizismus liege nach Watson und Clark darin, dass Neurotizismus mit psychischer Störung assoziiert wird. Die beiden entwickelten einen Fragebogen PANAS Positive Affect and Negative Affekt Schedule: Je zehn Items erfassen Emotionen, Stimmungen oder auch Zustände der Aktivierung. (Beispiele für negative Affekte: bekümmert, feindselig, nervös; Beispiele für positive Affekte: interessiert, freudig erregt, begeistert) Die Neigung zu positivem Affekt ist ein Kernelement der Extraversionsdimension. Personen mit einer hohen Ausprägung in Extraversion sind unbekümmert, erlebnishungrig und waghalsig. Das Fünf-Faktoren-Modell beschreibt Extraversion mittels sechs Facetten: - Herzlichkeit Geselligkeit - Erlebnissuche - Durchsetzungsfähigkeit - positive Emotionen - Aktivität Behavioral Inhibition System (BIS) und Behavioral Activation System (BAS) Die aus der Tierforschung stammende Reinforcement Sensitivity Theorie von Gray (2000) beschreibt die interindividuellen Unterschiede im Annäherungs-Vermeidungsverhalten. Dazu gibt es drei neurobiologisch definierte Systeme (= spezifische Aktivierungszentren) der Verhaltenssteuerung, die im Gehirn lokalisiert sind. Alle drei Systeme kennzeichnen sich durch eine unterschiedliche Reaktionsbereitschaft auf positive und negative Reize und damit assoziierten Emotionen aus. (1) Fight-Flight-Freeze System (FFFS) steuert die (unkonditionierte) Reaktion auf alle Straf-Reize und aktiviert Flucht und Vermeidungsverhalten, die über Furcht ermittelt werden. (Furcht = Abwendung von Gefahr) (2) Behavioral Approach System (BAS) ist gekennzeichnet durch eine erhöhte Ansprechbarkeit auf appetitive Reize, die Belohnung anzeigen. Es initiiert Annäherungsverhalten und ist verbunden mit positiven Affekten wie z.B. Hoffnung und antizipatorischem Genuss. (3) Behavioral Inhibition System (BIS) wird durch die konditionierte Reaktion auf Straf-Reize ausgelöst. Diesem Prozess ist die Emotion Angst zugeordnet. (Angst = Zuwendung zur Gefahr) 89 Es wird angenommen, dass es zwischen Menschen stabile interindividuell Unterschiede in der Stärke der drei Systeme gibt, aus denen unterschiedliche Reaktionsbereitschaften und damit assoziierte emotionale Reaktionen resultieren. „Subjektives Wohlbefinden“ Die Zirkumplextheorie des Affekts nach Watson und Tellegen (1985) Watson und Tellegen widmeten sich der Erforschung von Stimmungslagen und unterschieden zwei Dimensionen: den positiven Affekt und den negativen Affekt. Sie bedienten sich dabei des Zirkumplexmodells. Dieses Modell wurde von Timothy Leary (1957) entwickelt um interpersonelle Aspekte der Persönlichkeit darzustellen. Timothy Leary (1920 – 1996) Leary war US-amerikanischer Psychologen der nicht nur wegen seines Zirkumplexmodells berühmt wurde, sondern vor allem für sein Engagement für die Legalisierung von psychodelischen Drogen. (LSD, Mescalin, Psilocybin). Er befand sich viele Jahre auf der Flucht (die ihn sogar für ein paar Wochen nach Wien brachte) und wurde zu mehreren Jahren Haft verurteilt. Timothy Leary sah psychodelische Drogen als Mittel zur „Neu-Programmierung“ des Gehirns, d. h. (in seiner Terminologie) der Aufhebung vorhandener und der gleichzeitigen Öffnung für neue Prägungen. Leary war seiner Zeit weit voraus! Heute wird dieser Ansatz erneut verfolgt und evaluiert. Leary betonte drei wichtige Aspekte des Zirkumplexmodells: 1. Es ist eine hilfreiche visuelle Repräsentation eines Bereichs 2. Näher beieinander liegende Variablen weisen einen stärkeren Zusammenhang auf, gegenüberliegende Variablen haben einen negativen Zusammenhang und orthogonal liegende Variablen haben keinen Zusammenhang 3. Es bietet viele Möglichkeiten, die Anordnung von Variablen empirisch zu überprüfen. Watsons und Tellegens Zirkumplexmodell des Affekts: 90 Das Modell hat acht Endpunkte, die unterschiedliche Stimmungslagen repräsentieren: - hoher positiver Affekt - niedriger positiver Affekt - Hoher negativer Affekt - niedriger negativer Affekt - Erregung - Ruhe - Lust - Unlust Zentral sind die bipolaren Dimensionen von hohem und niedrigem positiven sowie negativem Affekt Hoher positiver Affekt wird durch Gefühle und Emotionen im Zusammenhang mit aktivem, beschwingtem und aufgeregtem Erleben charakterisiert Niedriger positiver Affekt wird durch Gefühle und Emotionen im Zusammenhang mit schwerfälligem, müdem, trägen Erleben charakterisiert Hoher negativer Affekt wird durch Gefühle und Emotionen im Zusammenhang mit leidendem, furchtsamen und nervösem Erleben charakterisiert Niedriger negativer Affekt wird durch Gefühle und Emotionen im Zusammenhang mit gelassenem, entspanntem und ruhige Erleben charakterisiert. Positiver und negativer Affekt steht auch mit den anderen Endpunkten des Modells - Erregung, Ruhe, Lust und Unlust - in Zusammenhang. Der Endpunkt Erregung wird durch Gefühle und Emotionen im Zusammenhang mit Erweckung, Verblüffung, Überraschung typisiert. Der Endpunkt Ruhe wird durch Gefühle und Emotionen im Zusammenhang mit Geruhsamkeit und Unbewegtheit typisiert. Der Endpunkt Lust wird durch Gefühle und Emotionen im Zusammenhang mit Zufriedenheit, Glücklichsein, Befriedigung typisiert. Der Endpunkt Unlust wird durch Gefühle und Emotionen im Zusammenhang mit Einsamkeit, Traurigkeit und Unglücklichsein typisiert. Man kann also die Hauptdimensionen als Kombination anderer Stimmungslagen ansehen, z.B. hoher positiver Affekt wird durch eine Kombination aus starker Erregung und Lust typisiert, niedriger positiver Affekt wird durch eine Kombination aus Ruhe und Unlust typisiert, hoher negativer Affekt durch eine Kombination aus starker Erregung und Unlust, niedriger negativer Affekt durch eine Kombination aus Ruhen und Lust. Daraus entwickelten Watson, Tellegan und Clark die PANA, ein Instrument zur Messung des positiven und negativen Affekts mit insgesamt 20 Deskriptoren. Was ist subjektives und psychologisches Wohlbefinden? Die Unterscheidung von subjektivem und psychologischem Wohlbefinden geht auf zwei Philosophen zurück, Aristippos (435 v. Chr.) und Aristoteles (384-322 v. Chr.) Aristippos gilt als Begründer der kyrenaischen Philosophie oder auch des Hedonismus, der Lust als das höchste Gut feiert und es für unmoralisch hält, Lustempfindungen aufzuschieben oder zu verzichten. Der Grund der menschlichen Existenz ist das Vergnügen. Es ist akzeptabel Regeln und soziale Konventionen zu verletzen und sich schockierend oder unwürdig zu verhalten, wenn es dem Lustgewinn dient. Aristoteles schuf den Begriff der Eudaimonie, der übersetzt bedeutet, von einem guten Geist geleitet zu sein. Ein gutes Leben ist nach Aristoteles ein angenehmes und erfolgreiches Leben. 91 Keyes et al. (2002) berufen sich auf diese zwei Philosophen, wenn sie subjektives Wohlbefinden (Hedonismus) und psychologisches Wohlbefinden (Eudaimonie) unterscheiden. Das subjektive Wohlbefinden wird mittels Lebenszufriedenheit gemessen. Das psychologische Wohlbefinden wird über sechs Aspekte konzeptualisiert: 1. Autonomie 2. Zutrauen 3. Persönliche Weiterentwicklung 4. Lebenssinn 5. Positive Beziehungen 6. Selbstakzeptanz 92 Anders dargestellt repräsentieren subjektives unterschiedliche, jedoch verwandte Aspekte. 93 und psychologisches Wohlbefinden zwei Die habituelle Neigung zum Erleben positiven Affekts ist Bestandteil des subjektiven Wohlbefindens, das einen wichtigen Indikator für psychische Gesundheit darstellt. Subjektives Wohlbefinden wird definiert als das Erleben positiver Emotionen und die Zufriedenheit mit dem eigenen Leben und umfasst damit eine affektive und eine kognitive Komponenten. Subjektives Wohlbefinden kann als aktuelle Befindlichkeit gemessen werden oder als relativ stabiles und konsistentes Persönlichkeitsmerkmal. Wer habituell eher zu positiven Affekten neigt (Extraversion) sowie zu einer hohen BASAusprägung, zeigt meist auch höhere Wohlbefinden. Wer habituell eher zum Erleben negativer Affekte neigt (Neurotizismus) sowie eine hohe FFFS- und BIS-Ausprägung hat, erlebt eher negatives Wohlbefinden. Spezifische Aspekte der Emotionalität: Es gibt eine unglaubliche Fülle an Konstrukten, die interindividuelle Unterschiede in spezifischen Aspekten des emotionalen Erlebens beschreiben. Gohm und Clore (2000) geben einen Überblick über 19 solcher Merkmale und ordnen sie fünf Aspekten der Emotionalität zu: (1) Absorbtion: die Neigung, sich emotionalem Erleben und den damit verbundenen sensorischen Empfindungen hinzugeben, offen für das Erleben von Gefühlen zu sein und dem inneren Befinden Aufmerksamkeit zuzuwenden. (2) Aufmerksamkeit: das Ausmaß mit dem eine Person ihre Gefühle beachtet, sie wertschätzt und das Gefühlerleben steigert (3) Klarheit: die Fähigkeit, unterschiedliche Emotionen im Erleben zu identifizieren, sie voneinander zu unterscheiden und zu beschreiben (4) Intensität: die Stärke, mit der eine Person Gefühle erlebt (5) Ausdruck: das Ausmaß, in dem eine Person ihre Gefühle zum Ausdruck bringt, sowie ihre Einstellung zu einem offenen Ausdruck von Gefühlen. Mit der zunehmenden Verbreitung des Konzepts der Emotionalen Intelligenz ist das Interesse an Merkmalen gewachsen, die sich auf die Wahrnehmung und die Aufmerksamkeit für die eigenen Gefühle beziehen. Die Grundthese ist, dass die Beachtung eigener Gefühle eine wichtige Voraussetzung für eine adäquate Verarbeitung affektiver Reize und die Regulation von Emotionen ist. Jedoch ist dies differenzierter zu sehen: Lischetzke und Eid (2003) konnten zeigen, dass die Fähigkeit zur Stimmungsregulation entscheidet, ob sich die Aufmerksamkeit auf die eigene Gefühlwelt als förderlich erweist oder nicht. Personen mit niederer Stimmungsregulation erleben eine Verschlechterung des Wohlbefindens. Ein weiteres bekanntes Konstrukt ist das der Alexithymie: dies ist eine Störung, die es Betroffenen schwer bis unmöglich macht Gefühle und die mit emotionalen Erregungen verbunden körperlichen Symptome wahrzunehmen, zwischen unterschiedlichen Gefühlen zu differenzieren und Gefühl zu beschreiben. Das angemessene Erleben von Emotionen und ihr angemessener Ausdruck werden als Grundlage von Gesundheit betrachtet. Bei fast allen psychischen Erkrankungen kann man Probleme im Erleben und Ausdruck von Emotionen finden. In der unten stehenden Tabelle finden Sie einen Überblick: 94 85% alle psychischen Störungen beinhalten eine Art von emotionaler Problematik (Thoits 1985). Patienten kommen in die Behandlung, weil sie sich besser fühlen wollen, das als problematisch präsentierte Verhalten dient oft nur der Bewältigung, Vermeidung oder Bekämpfung der problematischen Emotionen (z.B. Angst, Scham, Aggression). Expressivität: Expressivität meint den Ausdruck von Emotionen. Es gibt verschiedene Konstrukte, die die interindividuellen Unterschiede beim Ausdruck von Emotionen beschreiben. Gross und John (1998) haben auf Grundlage einer Faktorenanalyse von sechs solchen Verfahren fünf Facetten identifiziert und in ein hierarchisches Modell der Expressivität eingeordnet. In diesem Modell sind auf der untersten Ebene die Facetten abgebildet, die die Kernexpressivität ausmachen (core emotional expressivity). Dieses sind der Ausdruck positiver, negativer Emotionen sowie die allgemeine Stärke im Erleben und Ausdruck von Gefühlen. Der Ausdruck von positiven Emotionen hängt mit Extraversion, Offenheit für Erfahrungen, Sozialverträglichkeit, Positiver 95 Affektivität und BAS, sowie mit hohen Sympathiewerten zusammen. Negative Emotionen hängen mit höheren Werten in Neurotizismus, negativer Affektivität und niedrigen Sympathiewerten zusammen. Auf der zweiten Ebene der Ausdruckshierarchie kommen zwei Facetten hinzu, die weitgehend voneinander unabhängig sind. Die erste ist die Ausdruckssicherheit, die das Wissen um die eigene Kompetenz im emotionalen Ausdruck vor allem in sozialen und öffentlichen Situationen beinhaltet. Die Ausdruckssicherheit ist verbunden mit der Neigung zum Erleben positiver Emotionen sowie mit der Fähigkeit, positive Emotionen auf entsprechende Aufforderung hin darzustellen. Die zweite Facette ist die Maskierung. Diese beinhaltet das Bemühen, in öffentlichen Situationen den Ausdruck erlebter Emotionen im Hinblick auf eine gewünschte Selbstdarstellung zu regulieren. Emotionsregulation: Die Fähigkeit zur Regulation von Emotionen rückt immer mehr in den Forschungsmittelpunkt und bezieht sich auf alle kognitiven, expressiven und verhaltensbezogenen Vorgänge, die das Erleben und den Ausdruck einer Emotion beeinflussen. Es wird angenommen, dass Emotionsregulation sowohl bewusst als auch automatisiert, d.h. ohne bewusstes Eingreifen erfolgt. Stressbewältigung: Das Konzept der Stressbewältigung („Coping“) ist eng verwandt mit dem der Emotionsregulation. Die wohl berühmteste Stresstheorie stammt von Lazarus und Folkmann (1984). Sie definieren Stress als Ergebnis der subjektiven Einschätzung einer Person, ob sie die Anforderungen der Situation bewältigen kann oder nicht. Im groben kann man zwischen problemlösezentrierter und emotionszentrierter Bewältigung oder aktive Kontrolle vs. Anpassung an die Situation durch Änderung der eigenen Ziele unterscheiden. Wie bei der Emotionsregulation stellt sich hier auch die Frage nach der Effizienz der Bewältigungsmöglichkeiten. Manche Formen erweisen sich hinsichtlich des subjektiven Wohlgefühls besser als andere. Die Wirksamkeit einer Strategie kann aber nicht per se postuliert werden, wenn man den Kontext nicht mitberücksichtigt. Denn entscheidend ist weniger die Wirksamkeit einer einzelnen Strategie sondern die Passung zwischen Merkmalen der Stresssituation (z.B. Dauer und Kontrollierbarkeit) und dem Bewältigungsverhalten. Die Fähigkeit zur Flexibilität, die eine situationsangemessene Bewältigung ermöglicht, ist wichtig. Empirische Bestätigung eines Zusammenhangs zwischen habituellen Stressbewältigungsstrategien und Persönlichkeit konnte noch nicht gefunden werden. 96 Emotionale Intelligenz Emotionale Intelligenz Ist ein Begriff, der durch Daniel Goleman populärwissenschaftlich aufbereitet wurde und der in der deutschsprachigen Intelligenzforschung auf Widerstand gestoßen ist, weil er mit dem vorherrschenden Modell von Intelligenz wenig zu tun hatte. Sie sahen die EQ als Teil der Persönlichkeit, als soziale-emotionale Kompetenz. Emotionale Intelligenz wird als Fähigkeit definiert, die eigenen Emotionen und die der Mitmenschen zu verstehen. Das Modell der emotionalen Intelligenz nach Salovey und Mayer (1990) Die beiden Forscher betonen die Bedeutung der Emotionen, für sie sind Gefühle physiologische Reaktionen, die einen starken kognitiven Anteil haben (Bewertung, das Geben von Bedeutung, das Lernen über sich selbst anhand der eigenen Emotionen,..). Emotionale Intelligenz gliedere sich nach Salovey und Mayer in: (1) (2) (3) (4) Wahrnehmen von Emotionen Verwendung von Emotionen bei kognitiven Anforderungen Verstehen/Wissen um Emotionen Emotionsmanagement/Umgang Ad 1. Wahrnehmung von Emotionen: Dazu zählt Wahrnehmen, Bewertung und Ausdruck von Emotionen. Menschen mit hohem EQ können Emotionen bei anderen Menschen gut erkennen. Ad 2. Verwendung von Emotionen zur Unterstützung des Denkens & Kenntnis über Zusammenhänge zwischen Emotionen und Denken: Menschen bei denen diese Aspekt der emotionalen Intelligenz hoch ausgeprägt ist, können Emotionen zur Stütze für ihr Gedächtnis verwenden und Urteile über bestimmte Gefühle treffen, um in ihrem Denken Prioritäten zu setzen. Sie können Emotionen nutzen um zu einem breiteren Bild über unterschiedliche Standpunkte zu gelangen und können erkenne, dass bestimmte Emotionen auf Problemlösevorgänge günstiger einwirken als andere. Ad 3. Verstehen von Emotionen: Emotionen verstehen und analysieren, Einsatz des Wissens über Emotionen: Menschen mit hoher EQ können Emotionen präzise benennen und die Beziehungen zwischen einzelnen Emotionen erkennen. Sie verstehen, dass manche Emotionen verbunden sind. Sie kennen die Übergänge von Emotionen (z.B. erst schimpft man, dann spürt man Schuldgefühle,.) Ad 4. Umgang mit Emotionen: Reflexive Regulierung von Emotionen zur Förderung emotionalen und intellektuellen Wachstums: Menschen mit hoher EQ können für angenehme und unangenehme Emotionen offen bleiben und sich innerlich von einer spezifischen Emotion lösen und darüber reflektieren, um zu sehen, ob sie ihnen irgendwelche Informationen liefern. Sie können bei sich und anderen beurteilen, ob diese Emotionen typisch sind, ob sie angemessen sind und ob sie einen beeinflussen. Sie können dadurch mit den eigenen und fremden Emotionen umgehen und sie zu emotionalen und intellektuellen Wachstum nützen. Diese vier Aspekte werden von Salovey und Mayer folgenden zwei Bereichen zugeordnet und nach ihrer Differenziertheit geordnet: 97 A: Erfahrungs- und Erlebensbereich Dieser Bereich um fasst die Wahrnehmung und die Verwendung von Emotionen B: Strategiebereich Dieser Bereich umfasst das Verstehen von Emotionen und den Umgang mit ihnen; Aspekte also, die mit Zielen oder Handlungsplänen zusammenhängen) Das Modell der EQ ist ein Fähigkeitsmodell, da es sich auf die Fähigkeiten hinsichtlich Wahrnehmung und Verwendung von Emotionen bezieht. Die EQ wird mittels Mayer-Salovey-Carus-EmotionalIntelligence-Test gemessen. Dieser Test besteht aus 141 Items, die die vier beschriebenen Aspekte der EQ erfassen. (1) Wahrnehmen von Emotionen Bilder müssen beurteilt werden, in welchem Ausmaß eine bestimmte Emotion vorhanden ist. (2) Verwendung von Emotionen bei kognitiven Anforderungen Die Testperson muss angeben in welchem Ausmaß eine Reihe von Stimmungslagen für eine bestimmte Situation (z.B. Kennenlernen der Familie des Partners) hilfreich wären. (3) Verstehen/Wissen um Emotionen Die Testperson soll angeben, wie sich eine Person fühlt, die von ihrer Arbeit gestresst ist und jetzt noch ein Projekt dazubekommt. Dazu gibt es fünf Emotionen zu Auswahl: überwältigt, niedergeschlagen, beschämt, selbstsicher, nervös) (4) Emotionsmanagement/Umgang Der Proband soll sich vorstellen, jemand kommt ausgeglichen und zufrieden aus dem Urlaub zurück. Dann soll er eine Reihe von Handlungen dahingehend bestimmen, wie sehr sie geeignet sind, diese Stimmung aufrecht zu erhalten. 98 99 Revidiertes Modell der EI von Salovey und Mayer (Schulze et al., 2007, S. 45) 100 Golemans Modell der Emotionalen Intelligenz: Golemann griff die Ideen von Salovey und Mayer auf und ergänzte das Modell. Für ihn bestand ein starker Zusammenhang zwischen emotionale Intelligenz und den Amygdala im Gehirn. Die Amygdala sind Bestandteil des limbischen Systems. Dieses ist eine funktionale Einheit verschiedener Hirnstrukturen, die für die Verarbeitung von Emotionen, die Entstehung von Triebverhalten, die Bildung von Erinnerungen und intellektuellen Funktionen verantwortlich ist. Die Amygdala sind an der Verarbeitung von Aggression und Furcht beteiligt, zwei grundlegende Reaktionen auf Bedrohung ( flight-flight-reaction). Die Kampf-Flucht-Reaktion wurde vom US-amerikanischen Physiologen, Walter Cannon, 1915, so benannt und beschreibt die zwei Reaktionsweisen auf Bedrohung bei Tieren. Bedrohung führt zu einer Zunahme der neuronalen Aktivität m sensorischen Cortex, die mit einem erhöhten Spiegel von Hormonen und Neurotransmittern wie Adrenalin und Noradrenalin einhergeht. Diese Hormone und Neurotransmitter rufen im Körper unmittelbar physiologische Reaktionen wie etwa Erhöhung der Herzrate, des Muskeltonus und der Atemfrequenz hervor um das Tier gegenüber seiner Umwelt und der Bedrohungssituation wachsam zu machen. Diese Reaktion bezeichnet man auch als Stressreaktion. Das Tier hat dann zwei Möglichkeiten auf diese Stressreaktion zu reagieren: a) es flüchtet, b) es stellt sich der Bedrohung. Goleman behauptet nun, dass die Kampf-Flucht-Reaktion ein zentrales Element der emotionalen Intelligenz sei. Der Mensch hätte im Laufe seiner Evolution Kontrolle über diese Emotionen erlernt. Zum Beispiel würden kleine Kinder auf Bedrohung (z.B. Strafe durch die Eltern) anders reagieren als ältere Kinder oder Erwachsene. Diese lernen zunehmend ihre Emotionen zu kontrollieren und die Bedrohung durch reifere Methoden abzuwenden. (Diskussion, Entschuldigung, Beteuerungen, Ausreden..) As Ausmaß in dem wir in der Lage sind, unsere Kampf-Flucht-Reaktion zu kontrollieren, also das Ausmaß in dem wir in der zu Entwicklung, Kontrolle und (konstruktiven) Verwendung unserer emotionalen Reaktionen in der Lage sind, bestimmt unsere emotionale Intelligenz. 1995 veröffentlichte Goleman die erste Version seiner EQ und unterschied fünf Aspekte: 1. Die Fähigkeit, die eigenen emotionalen Zustände zu identifizieren und zu verstehen, dass ein Zusammenhang zwischen Emotionen, Denken und Handeln existiert 2. Die Fähigkeit, mit den eigenen Emotionen umzugehen und diese zu kontrollieren, sowie unerwünschte Emotionen in angemessenere umzuwandeln 3. Die Fähigkeit, zum Erleben emotionaler Zustände, die mit dem Drang nach Leistung und Erfolg verknüpft sind (z.B. Fähigkeit glücklich zu sein und daraus einen Antrieb für die eigenen berufliche Tätigkeit zu beziehen) 4. Die Fähigkeit, die Emotionen anderer Menschen zu beurteilen, dafür empfänglich zu sein und sie zu beeinflussen (wenn man erkennt, dass jemand traurig ist und ihn darauf hin tröstet) 5. Die Fähigkeit, gute interpersonelle Beziehungen aufzubauen und zu erhalten (Freundschaften pflegen) 101 Diese fünf Aspekte sind hierarchisch geordnet, sie bauen aufeinander auf. Wer seine eigenen Emotionen nicht versteht, kann sie nicht kontrollieren, kann sie mit nichts verknüpfen und sie auch nicht bei anderen erkennen, das wiederum die Basis für Freundschaften darstellt. Sein späteres Modell (2202) enthält nur mehr vier Aspekte 1. Selbstwahrnehmung (Erkennen der eigenen emotionalen Zustände) 2. Selbstmanagement ( Kontrolle und Umgang mit den eigenen Emotionen) 3. soziale Bewusstsein (Fähigkeit Emotionen anderer zu beurteilen und zu beeinflussen) 4. Beziehungsmanagement ( Fähigkeit zu guten interpersonellen Beziehungen) Golemann unterscheidet zwischen sozialen Kompetenzen (soziales Bewusstsein und Beziehungsmanagement) und persönlichen Kompetenzen (Selbstwahrnehmung und Selbstmanagement) Die zweite Unterscheidung ist die hinsichtlich Selbstwahrnehmung und soziales Bewusstsein basiert auf Wahrnehmung Selbstmanagement und Beziehungsmanagement beruft auf Regulationsmechanismen (=Management) Goleman identifizierte 25 Fähigkeiten, die emotionale Intelligenz kennzeichnen, die Zahl hängt allerdings vom Kontext ab, in dem emotionale Intelligenz zum Tragen kommt. 102 103 Goleman hat dazu einen Test entwickelt, den Emotional Competence Inventory (ECI), der für den Einsatz in der Arbeitswelt designt wurde. Im deutschen Sprachraum heißt er Emotionaler Kompetenz Fragebogen (Rindermann 2009). Dieser Test ist ein 360° Inventar, das heißt es ist ein Fremdbeurteilungsinstrument. Andere Personen beurteilen die Testperson ob sie Sich selbst in sicherer, energischer, eindrucksvoller und bedenkenloser Weise präsentiert Andere Menschen mit unterschiedlichem Hintergrund respektiert, höflich behandelt und gut mi ihnen auskommt Die Stimmungen, Gefühle und nonverbalen Hinweise anderer Menschen in zutreffender Weise schätzen kann. Bar-Ons Modell der emotionalen Intelligenz: Bar-On ist ein US-amerikanischer Psychologe, der ein emotional-soziales Intelligenzmodell entwickelte (1997, 2005). Er bezog sich bei seinem Modell auf die Evolutionstheorie von Darwin. Dieser schrieb in seinem Buch „The Expression of the Emotions in Man and Animals (1872, 1965)” wie Tiere und Menschen sich mittels ihrer Emotionen ausdrücke und sich Signale übermitteln. Darwin konnte zeigen, dass Tiere viele physische Ausdrucksmöglichkeiten für Emotionen besitzen, die auch beim Menschen zu finden sind. Sie können Wut, Furcht, Glücklichsein, Überraschung, Traurigkeit ausdrücken. (z.B. zeigt ein Tier Aggression oder Furcht, wenn es bedroht wird.) Diese Emotionen dienen der Anpassung und dem Überleben. Emotionale und soziale Intelligenz beim Menschen würde dazu dienen, eine effektive Anpassung an Umweltbedingungen im Sinne von Darwins Theorie vorzunehmen. Bar-On betrachtet die emotional-soziale Intelligenz als eine Reihe von wechselseitig miteinander verknüpften emotionalen und sozialen Kompetenzen, mit deren Hilfe sich das Individuum selbst verstehen, ausdrücken und mit anderen interagieren kann. Bar-On identifiziert fünf Domänen mit 15 Unteraspekten der emotional-sozialen Intelligenz. (2) Intrapersonelle Intelligenz: Die Fähigkeit Emotionen zu erkennen, zu verstehen und auszudrücken. Die einzelnen Aspekte dieser Domäne sind: Emotionale Selbstwahrnehmung Bestimmtheit Selbstachtung Selbstakutalisierung Unabhängigkeit (3) Interpersonelle Intelligenz: Die Fähigkeit, zu verstehen, was andere Menschen empfinden und eine Beziehung zu ihnen herzustellen. Die einzelnen Aspekte sind: Interpersonelle Beziehungen Soziales Verantwortungsgefühl Empathie (4) Anpassungsfähigkeit: Die Fähigkeit, Emotionen zu kontrollieren und mit ihnen umzugehen. Die einzelnen Aspekte dazu sind; Problemlösen Realitätsprüfung Flexibilität 104 (5) Stressmanagement: Die Fähigkeit, mit Problemen im, persönlichen und interpersonellen Bereich umzugehen, diese zu verändern, sich an sie anzupassen und sie zu lösen. Die einzelnen Aspekte dazu sind: Stresstoleranz Impulskontrolle (6) Stimmungslage: Die Fähigkeit, positiven Affekt bei sich hervorzurufen und motiviert zu sein. Die einzelnen Aspekte der Stimmungslage sind: Glücklichsein Optimismus Daraus entwickelte er ein Messinstrument, das Emotional Quotient Inventory EQ-i. Dieser Fragebogen umfasst 133 Items aus denen drei Messwerte errechnet werden können: Den Gesamtwert der Emotionalen Intelligenz, fünf Skalenwerte für die Domänen und 15 Subskalenwerte für die einzelnen Aspekte, die diese fünf Domänen bilden. Der Gesamtwert EQ wird wie der IQ berechnet. Ein hoher EQ bedeute hohe emotional-soziale Intelligenz. Bar-Ons Modell ist – wie das Modell von Goleman - ein gemischtes Modell. Das heißt es wird das Konzept der Emotionalen Intelligenz (~ emotionale Zustände) mit Persönlichkeitseigenschaften (wie z.B. Gewissenhaftigkeit, Anpassungsfähigkeit, Vertrauenswürdigkeit) kombiniert/gemischt. Daneben gibt es auch Fähigkeitsmodelle (Mayer, Salovey, Caruso). Das Fähigkeitsmodell unternimmt den Versuch, emotionale Intelligenz zu beschreiben, d.h. das Konstrukt dahinter zu definieren. Mayer Salovey und Carusos Definition mit den vier Aspekten der emotionalen Intelligenz und konzentriert sich auf die Identifikation einer Reihe von Fähigkeit, die als einzigartig für emotionalen Intelligenz angesehen werden. Ihr Modell beinhaltet keine Persönlichkeitseigenschaften, die zu anderen psychologischen Modellen gehören. Das hat Vorteile: Man kann klar kommunizieren, was emotionale Intelligenz ist Es können Beziehungen zwischen der emotionalen Intelligenz und anderen Konzepten untersucht werden Es können Auswirkungen der emotionalen Intelligenz auf z.B. schulische oder berufliche Leistung gemessen werden. Emmerling und Goleman verteidigen ihr gemischtes Modell, sie würden nicht emotionale Intelligenz per se definieren, sondern einen Standard für eine emotional intelligente Person setzen. Goleman ist Arbeitspsychologe und betont den Praxisnutzen seines Modells. Anwendung des Konzepts der emotionalen Intelligenz in der Psychologie: Es konnten positive Zusammenhänge zwischen verschiedenen Variablen gefunden werden: In einer Metaanalyse von Schutte, Malouff, Thornsteinsson, Bhullar und Rooke (2007), von 44 Studien an insgesamt 7898 Probanden zeigte sich, dass hohe emotionale Intelligenz mit einer besseren physischen und psychischen Gesundheit assoziiert ist. Mikolajczak und Luminet (2008) konnte zeigen, dass emotionale Intelligenz mit Selbstwirksamkeit zusammenhängt. Außerdem konnten sie zeigen, dass es einen Zusammenhang zu Lazarus Stressmodell gibt. Es gibt einen Zusammenhang zwischen der Ausprägung der emotionalen Intelligenz und der primären Bewertung von Situationen nach Lazarus. (Die primäre Bewertung bestimmt, wie weit wir 105 eine Situation als positiv, irrelevant oder als stressbehaftet erleben. Wird eine Situation als stressbehaftet erlebt, dann erfolgt eine Einschätzung dahingehend ob sie eine Herausforderung darstellen, ob sie Bedrohlich ist oder mit Schädigung/Verlust assoziiert wird.) Wird eine Situation als herausfordernd erlebt, dann schließt die Person daraus, dass sie diese bewältigen (coping) oder sogar davon durch persönliches Wachstum profitieren kann. Mikolajczak und Luminet fanden nun heraus, dass Menschen mit hoher emotionaler Intelligenz in Situationen, die Coping verlangten, größere Selbstwirksamkeit zeigten und stressbehaftete Situationen eher als Herausforderung erlebten denn als Bedrohung. Externera und Fernandez-Berrocal (2005) fanden einen Zusammenhang zwischen emotionaler Intelligenz und Lebenszufriedenheit. Chamorro-Premuzic, Benett und Furnham entdeckten eine Beziehung zwischen emotionaler Intelligenz und einem höheren Niveau an Glücklichsein. Verschiedene Studien beschäftigen sich mit dem Zusammenhang von beruflichen und akademischen Erfolg und emotionale Intelligenz. Die Ergebnisse waren aber uneinheitlich. Petrides, Frederickson und Furnham (2004) sowie Cote und Miners (2006) schlugen ein kompensatorisches Modell von emotionaler und genereller Intelligenz vor. Emotionale Intelligenz verhilft bei einer eher niederen generellen Intelligenz zu guten akademischen Erfolgen. Bei hoher Intelligenz hat sie keinen Effekt. Gibt es negative Auswirkungen von einer hohen emotionalen Intelligenz? Machiavellismus Der Begriff Machiavellismus leitet sich vom italienischen Staatsmann, Dichter und Philosophen Niccolo Machiavelli ab und bezeichnet ein raffiniertes, intrigantes und skrupelloses Vorgehen. Macchiavelli übte in seinem Werk „Der Fürst“ heftige Kritik an den damaligen Herrscher. Der Begriff wird heute in der Psychologie als Beschreibung der Persönlichkeitseigenschaft verwendet, die sich 106 durch ein rücksichtsloses Streben nach der Durchsetzung des eigenen Vorteils auszeichnet. Es wird gelogen, manipuliert und auf äußerst verschlagene Weise agiert. Um zu manipulieren muss man die Emotionen anderer beeinflussen können. Die Frage, die sich nun Austin, Farrelly, Black und Moore 2007 stellte, war, ob es eine positive Korrelation zwischen Machiavellismus und Emotionaler Intelligenz gibt. In einem aufwendigen Verfahren maßen sie die Korrelationen zwischen emotionaler Intelligenz, Machiavellismus und Manipulation. Sie fanden heraus, dass Menschen die einen hohen Score in der Dimension Machiavellismus haben auch viele manipulative Verhaltensweisen zeigen (positive Korrelation). Zwischen Manipulation und emotionaler Intelligenz sowie zwischen Machiavellismus und emotionaler Intelligenz konnte kein Zusammenhang festgestellt werden. Der Schluss, den sie daraus zogen ist, dass emotionale Intelligenz keine negativen Aspekte hat. Gibt es geschlechtsspezifische Unterschiede? Hier nur eine grobe Zusammenfassung der Ergebnisse unterschiedlichster Untersuchungen: Im Fähigkeitsmodell der emotionalen Intelligenz schneiden Frauen in den vier Aspekten – Wahrnehmung, Verwendung, Verstehen und Umgang - ganz wenig besser ab als Männer. In den gemischten Modellen konnten im Gesamtwert kein Unterschied festgestellt werden. In den fünf Domänen und 15 Subskalen gibt es allerdings Unterschiede: Frauen erreichen höhere Werte in den drei Aspekten der Domäne interpersonelle Intelligenz (Interpersonell Beziehung, soziale Verantwortungsgefühl, Empathie) und sie sind sich ihrer eigenen Emotionen besser bewusst. Männer haben eine höhere Selbstachtung, bewältigen Stress besser, lösen Probleme besser und sind unabhängiger, flexibler und optimistischer. Die Unterschiede sind allerdings sehr gering! Kritik an der Theorie der emotionalen Intelligenz: Die Vermischung von emotionaler Intelligenz und Persönlichkeitseigenschaften führt dazu, dass man Effekt nicht eindeutig auf die emotionale Intelligenz zurückführen kann. Wenn jemand beruflich erfolgreich ist, ist er dies aufgrund einer Persönlichkeitseigenschaft, seiner emotionalen Intelligenz oder irgendwelchen Wechselwirkungen? Es gibt außerdem kein Außenkriterium anhand dessen emotionale Intelligenz beobachtbar wäre. Intelligenz ließe sich anhand von z.B. Schulnoten beobachten. Der dritte Kritikpunkt richtete sich gegen die biologische Begründung: Die Annahme emotionale Intelligenz hänge mit den Amgydala oder mit evolutionären Prozessen zusammen ist nicht durch Forschungsergebnisse bewiesen. 107