www.skriptenforum.net/psychologie 1 www.skriptenforum.net Ein herzliches Willkommens-QUAK! Du hältst ein Skriptum der Seite www.skriptenforum.net in der Hand. Was ist das SKRIPTENFORUM: Das "Skriptenforum" ist ein unabhängiger, gemeinnütziger Verein, der den Aufbau einer Sammlung und die Propagierung von frei zugänglichem Wissen zum Ziel hat. Was ist OPEN KNOWLEDGE: Open Knowledge - Dokumente sind FREI und KOSTENLOS für jedermann verfügbar und sind nicht an das NUTZUNGSRECHT eines einzelnen gebunden. Die Dokumente werden KOLLEKTIV ENTWICKELT UND GEWARTET und von der Open Knowledge - Gemeinde und einem jeweiligen Verantwortlichen LAUFEND ÜBERARBEITET. Das ZIEL ist es, nicht mehrere mittelmäßige Einzeldokumente zu haben, sondern das Beste aus jedem in EINEM QUALITATIV HOCHWERTIGEN Dokument zusammenzufassen! Das Open Knowledge - Konzept ist am Skriptenforumprojekt entwickelt worden, ist aber natürlich nicht auf dieses beschränkt! Kann ich mitmachen? Ja, natürlich!! Je mehr mitmachen, umso mehr Erfolg hat das Projekt! Schau auf www.skriptenforum.net, dort findest du die nötigen Informationen, um entweder als Administrator mitzuarbeiten, oder uns ein Dokument zukommen zu lassen. Wo erfahre ich mehr über das Projekt? Alle Informationen zum Projekt und zum Verein sind auf unserer Seite www.skriptenforum.net zu finden. Info zu diesem Skriptum Verantwortlicher: noch kein Verantwortlicher Nachdem du dieses Skriptum durchgeackert hast, gib doch bitte eine Bewertung dazu ab unter: http://www.skriptenforum.net/index.php?area=15&type=docs&doctype=skript&docid=402 Dieses Schriftstück ist ein "Open Knowledge - Schriftstück" und unterliegt den "Nutzungsbedingungen für Open Knowledge - Schriftstücke" des Vereins "Skriptenforum". Nachzulesen sind diese auf der Seite des Vereins "Skriptenforum" unter http://www.skriptenforum.net/index.php3?id=regeln im Internetz. Das Nutzungsrecht an diesem Schriftstück liegt beim Verein "Skriptenforum". www.skriptenforum.net/psychologie 2 Qualitative Methoden Beispiele & Grundbegriffe Serielle Abhängigkeit - Messungen, die hintereinander liegen, gegenseitig beeinflussen können, d.h. eine von der anderen abhängig ist und man dies durch Berechnung der Phasenmittelwerte entschärfen kann. Z.b wenn eine Logopädin bei Sprachschwierigkeiten eines Kindes verschiedene Tests macht, in Form von A-B-A-B dass dann die jeweiligen Phasenmittelwerte ausgerechnet werden müssen. eine moderatorvariable ist eine variable, die den zusammenhang zwischen zwei anderen variablen beeinflußt, z.b. die unabhängige variable raucher/nichtraucher und als abhängige variable das körpergewicht, und aus untersuchungen schließt, dass rauchen zu einem niedrigen körpergewicht führt, kann das falsch sein! zum beispiel könnte es sein, dass die raucher mehr sport machen, und deshalb ein besseres gewicht haben Der Unterschied zwischen den qualtativen und den quantitativen Methoden ist ja genau der, dass bei den qualitativen Methoden auf Zahlen weitgehend verzichtet und damit nicht gerechnet wird (es geht eben um Qualitäten und nicht um Quantitäten). Das Methodeninventar erstreckt sich hier auf Interviews, Gruppendiskussionen, Metaphernanalysen usw. induktive-deduktive Kategorienbildung: ich hab nur herausgefunden, dass "Kategoriensysteme entweder induktiv aus dem Material gewonnen werden oder deduktiv (theoriegeleitet) an das Material herangetragen werden" Induktion: das Schließen vom Einzelnen auf etwas Allgemeines Deduktion: das Schließen vom Allgemeinen auf das Besondere Eine Hypothese ist bei induktiver Vorgehensweise das Resultat und bei deduktiver Vorgehensweise der Ausgangspunkt einer empirischen Untersuchung. direktiv: ich würde mal sagen, nondirektiv wäre die Person im Interview einfach erzählen zu lassen und direktiv zum Beispiel einzugreifen, wenn die Person vom Thema abschweift. direktiv heißt dass der interviewer eher mehr redet + mehr lenkt nicht-direktiv heißt dass der interviewer die leute eher reden lässt, wovon auch immer Was versteht man unter disjunktiver und konjunktiver Erweiterung bei den Wissenschaftlichen Hypothesen? eine hypothese zb.: "Wenn der Alkoholspiegel hoch ist, dann ist die Reaktionsfähigkeit niedrig". jetzt machst du eine konjunkitve Erweiterung des Wenn-teils deiner Hypothese und ihr Informationsgehalt sinkt. --> "Wenn der Alkoholspiegel hoch ist UND man zu wenig geschlafen hat, dann ist die Reaktionsfähigkeit niedrig." denn jetzt www.skriptenforum.net/psychologie 3 hat die niedrige Reaktionsfähigkeit 2 Ursachen und kann nun schwerer falsifiziert werden. Wenn du nun aber eine disjunktive erweiterung (ODER) des Wenn-teils vornimmst erlebst du das gegenteil. Beispiel für Aktionsforschung: Warum werden viele Kinder häufig nach der ersten Impfung von ihren Müttern nicht zu den folgenden Impfterminen gebracht? Probabilistische Stichproben: Jedes Element (also im Prinzip alle Menschen) müssen die Chance haben, in die Stichprobe aufgenommen zu werden. Es ist also notwendig, dass man eine Liste der gesamten Population hat, aus der man dann zufällig eine Stichprobe auswählt. In der Psychologie ist das allerdings streng genommen nicht möglich, da das Prinzip der Freiwilligkeit gilt und Personen, die an der Forschung nicht teilnehmen wollen, in der Stichprobe nicht vertreten sein können. Nicht-Probabilistische Stichprobe: Sind dann im Prinzip alle Stichproben, in denen nicht die gesamte Population repräsentiert ist. Sie soll aber trotzdem möglichst zufällig gewählt werden, um so gut es geht repräsentativ zu sein. Versuchspersonen können nicht nach Zufall auf die experimentellen Bedingungen aufgeteilt werden. Es ist zB notwendig, dass zwei Gruppen von Patienten unterschiedliche Informationen über die Wirkung eines Medikaments bekommen) formative Reliabilitätsprüfung: erfolgt nachdem ich einen Teil meines Materials überarbeitet habe. Reliabilität bedeutet: Zuverlässigkeit Formation bedeutet: Bildung Dh ich schaue ob meine Kategorien passen (zuverlässig sind), so wie ich sie bis jetzt gebildet habe. Summative Reliabilität: ist dann demnach einfach die Prüfung der Zuverlässigkeit der Kategorien, nachdem ich das ganze Material bearbeitet habe. Histographische Methode: Warum war vor 100 Jahren die Kindersterblichkeit höher als heute? Teilnehmende Feldforschung:Beobachten des Verhaltens von Jugendlichen in der Schulpause. Einzelfallstudien: Wie hängt das Auftreten von Erkältungen mit dem Stress einer Person zusammen? Abduktion" ist ein Begriff aus der Logik und bezeichnet Schlußfolgerungen, bei denen unbekannte Ursachen aus bekannten Effekten oder Konsequenzen abgeleitet werden.Die Abduktion wurde von Charles Sanders Peirce 1867 neben der Deduktion und der Induktion in die Logik eingeführt und bietet die Möglichkeit syllogistischen Schließens zur Erklärung überraschender Tatsachen, bei der vom Resultat und von der Regel auf den Fall geschlossen wird. So läßt sich beispielsweise www.skriptenforum.net/psychologie 4 aus der Regel "Alle Kartoffeln in dieser Kiste sind braun" und dem Resultat "Kartoffeln sind braun" der formale Fall "Diese Kartoffeln sind aus dieser Kiste" rekonstruieren. Abduktion ist daher die einzige logische Operation, die in eine logische Argumentation irgendeine neue Idee einführen kann, indem sie in einem ersten Schritt eine "problematische" Theorie in Form einer "Vor-Aussage" hinsichtlich eines bestimmten Erwartungshorizontes aufstellt. Die logischen Konsequenzen dieser zunächst hypothetischen Aussage werden meist deduktiv ermittelt und ihre möglichen praktischen Konsequenzen induktiv geprüft. Die Abduktion ist der einzige "echt synthetische" Schlußmodus, da sie nicht nur eine Erklärung für einen rätselhaften oder überraschenden Umstand findet, sondern auch neue Theorien erfindet (vgl. Wirth 1995). Abduktives Schließen liegt z.B. der klinischen Diagnostik, technischen Systemen, der juristischen Interpretation von vielen Kausalattributionen des Alltags zugrunde. Eine Reihe legt nahe, daß derartige Schlußfolgerungen systematisch von der Logik abweichen. der Fehlersuche in Sachverhalten und empirischer Befunde normativen Modellen Generell betrachtet bleibt für die Abduktion offen, inwieweit sie neben Deduktion und Induktion überhaupt eine Form des Schließens sein kann. Es hängt die Beantwortung dieser Frage nach Altenseuer (2000) allein davon ab, "welches Vorverständnis man vom Begriff des Schlusses und des Schließens mitbringt", der überhaupt darauf verzichtet, die Abduktion explizit als "Schluß" zu bezeichnen: "Dieser Verzicht hat zwar keine guten Gründe, aber es hängt auch nichts daran, ob man den Prozeß der Generierung von Hypothesen nun als "Schluß" oder aber als "Suche" bezeichnet. Entscheidend ist allein die Frage, wie Hypothesen gebildet werden". Nonreaktive Verfahren: Es besteht keinerlei Beeinflussung auf die Untersuchten Personen, Ereignisse und Prozesse. Beobachter und Proband treten nicht in Kontakt! Beispiele: Physische Spuren: Abgetretener Teppich für häufig benutzte Wege, Buchankreuzungen für häufig gelesene Textteile usw. Schilder, Hinweistafeln, Hausordnungen. Viele "Spielen verboten Schilder als Maß für Kinderfeindlichkeit" Bücher, Zeitschriften, Filme usw. Z.B. Kinderbücher: Werden Kinder in stereotypen abgebildet (Mädchen Kleid und Puppe), Junge, Hose und Legosteine Symbole: Autoaufkleber, Abzeichen, Buttons als Maß für soziale Identität und Gruppenzugehörigkeit (VW FREUNDE NAUMBURG) Lost Letter Technik: Man legt Briefe mit verschiedenen fiktiven Adressaten aus (als seinen sie verloren gegangen und wartet welche Briefe vom Finder weitergeleitet werden. Nach Anzahl der Rückläufer lässt sich ein Image der verschiedenen Adressen aufzeigen (Kirche, Parteien, Tierschutzvereine). www.skriptenforum.net/psychologie 5 Verkaufsstatistiken: Anzahl verkauter CDs als Beliebtheitsindikator für Musiker. Ausführlichere Beschreibung zum Beispiel Non-Reaktives Verfahren: Ich möchte erforschen welche Themen Menschen in Österreich heute besonders interessieren. Zuerst studiere ich vorhandene Fachliteratur zu dem Thema, damit ich nicht schon erforschtes erneut erforsche und ich sehe was zu diesem Thema bereits geforscht wurde, was sich eventuell für meine Forschung als hilfreich erweisen könnte. Daraus ergibt sich dann eine präzesierung meiner Forschungsfrage. Ich wende ein nonreaktives Verfahren an und nutze öffentliche Archive (Entlehungen aus Bibliotheken). Grund: Ich erhalte eine gute Übersicht über die Art der Bücher die ausgeliehen wurden und kann mir durch die Inhalte der Bucher ein Bild über interessierende Themen machen. Außerdem beeinflusse ich die Bezugspersonen dabei nicht. Die Störvariable des Versuchsleitereffekts kann also ausgeschaltet werden. Da ich nicht alle Bibliotheken besuchen kann und auch nicht alle Entlehungen der letzen Zeit untersuchen kann ziehe ich Stichproben. Diese sollen möglichs zufällig gewählt werden, da sie repräsentativ sein sollen. Ich wähle also zufällig Bibliotheken aus Österreich aus (Anzahl der Bibliotheken lege ich vorher fest) und in diesen Bibliotheken treffe ich wiederrum eine einfache Zufallsauswahl (probabilistische Stichprobe) an Entlehungen. Dies ist möglich, da ich eine Liste aller Entlehungen der jeweiligen Bibliothek habe und für jede Entlehung die gleiche Chance besteht gezogen zu werden. Ich mache mir nun einen Überblick über die Bücher die ausgeborgt wurden und informiere mich über den Inhalt dieser Bücher. Nun kann ich meine erhobenen Daten auswerten. Um ein besseres Forschungsergebnis zu erzielen, kann ich diese Methode noch mit anderen Methoden ergänzen (z.B. Interviews) Ethnographie (engl.: Ethnography, Ethnographic Research) Ethnographie bezeichnet einen vor allem innerhalb der Ethnologie, aber auch in der Soziologie existierenden Forschungsansatz, der unter Rückgriff insbesondere auf die Methode der teilnehmenden Beobachtung und der Befragung darauf zielt, die materiellen und symbolisch-semantischen Weltbezüge fremder Kulturen bzw. gesellschaftlicher Teilkulturen zu rekonstruieren. Ihre Ursprünge hat die Ethnographie in der ethnologischen und kulturanthropologischen Erforschung von kleineren Stammeskulturen. Das Vorgehen hat der Ethnologe Clifford Geertz einmal so beschrieben: "Wir reden mit dem Bauern auf dem Reisfeld oder mit der Frau auf dem Markt, weitgehend ohne strukturierten Fragenkatalog und nach einer Methode, bei der eins zum anderen und alles zu allem führt; wir tun dies in der Sprache der Einheimischen, über eine längere Zeitspanne hinweg, und beobachten dabei fortwährend aus nächster Nähe ihr Verhalten" (Geertz 1985: 38). Schon in der Ethnologie richtet sich das Forschungsinteresse nicht nur auf exotische, mehr oder weniger fremde Stämme. Als Völkerkunde oder europäische Ethnologie untersucht sie vielmehr auch Teilkulturen innerhalb der modernen Gesellschaft selbst: Dörfer, Grenzregionen, Betriebe usw.. Innerhalb der Soziologie können ethnographische Traditionen bis in die Arbeiten der -> Chicago School zurückverfolgt werden. Gegenwärtig finden sich ethnographische Ansätze in der Soziologie als "lebensweltliche Ethnographie" (Honer 1993) gesellschaftlicher Teilkulturen, z.B. www.skriptenforum.net/psychologie 6 besonderer Milieus oder Gruppen (etwa Punks, Skinheads, Adel), sozialer Praktiken (z.B. Kaffeefahrten, Sado-Masochismus, Heimwerken) oder Organisationen (bspw. Betriebskulturen). In den USA wurden außerdem Ideen einer kritischen E. entwickelt, welche den tendenziell statischen und damit manchmal auch 'konservativen' Charakter der etablierten E. überwinden und Fragen von Politik und Macht explizit in die ethnographische Analyse einbauen will (Thomas 1993). Im angelsächsischen Sprachraum wird der Begriff E. (in seinen englischen Äquivalenten natürlich) manchmal auch gleichbedeutend mit "qualitativer Forschung" verwendet. Anwendungsbeispiele: Geertz, C.: Vom Hereinstolpern. In: Freibeuter Nr. 25, 1985, S.37-41. Honer, A.: Lebensweltliche Ethnographie. Wiesbaden: DUV, 1993. Thomas, J.: Doing Critical Ethnography. Newbury Park: Sage (Sage Qualitative Research Methods, Vol. 26), 1993. Atkinson, P.: The Ethnographic Imagination. Textual Constructions of Reality. London, New York: Routledge, 1990. Atkinson, P.: Understanding Ethnographic Texts. London, Thousand Oaks: Sage, 1992. Barley, N.: Traumatische Tropen. Notizen aus meiner Lehmhütte. München: dtv, 1997. Dammann, R.: Die dialogische Praxis der Feldforschung. Der ethnographische Blick als Paradigma der Erkenntnisgewinnung. Frankfurt/New York: Campus, 1991. Favret-Saada, J.: Die Wörter, der Zauber, der Tod. Der Hexenglaube im Hainland von Westfrankreich. Frankfurt a. M.: Suhrkamp, 1981. Hirschauer, S. / Amann, K. (Hrsg.): Die Befremdung der eigenen Kultur. Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt a. M.: Suhrkamp, 1997. Wittel, A.: Belegschaftskultur im Schatten der Firmenideologie: eine ethnographische Fallstudie. Berlin: Sigma, 1996. Soziogramm (sociogram) Definition: Bezeichnung für ein Standardverfahren der Soziometrie, entwickelt von dem amerikanischen Psychiater (s. Psychiatrie) J.L. MORENO (1892). Das S. ist ein Schaubild, in dem die Ergebnisse eines soziometrischen Tests dargestellt werden. Untersucht werden dabei die Beziehungen zwischen den Gruppenmitgliedern in Form von Fragen. Beispiele: ãMit welchem Gruppenmitglied würdest Du gerne Deine Freizeit verbringen?", ãNeben welchem Gruppenmitglied möchtest Du nicht sitzen?" Die Beziehungswünsche geben Aufschluß darüber, welche Gruppenmitglieder besonders beliebt bzw. unbeliebt sind und ob sich z.B. Untergruppen in Form von Cliquen gebildet haben. www.skriptenforum.net/psychologie 7 Im S. werden die sozialen Beziehungen graphisch dargestellt. In einem Kreisoder Koordinatensystem werden die Personen als Punkte dargestellt, wobei es zur Unterscheidung der Geschlechter für Männer und Frauen verschiedene Zeichen gibt. Die von den Gruppenmitgliedern getroffenen Wahlen (positiv oder negativ) werden in Form von Linien oder Pfeilen (z.B. farbig, gestrichelt) abgebildet. Mithilfe des S.s erhält man Auskünfte über emotionale (s. Emotion) Distanz oder Nähe zwischen Personen in einer Gruppe, über mögliche Cliquenbildung sowie über Rangordnung, Gruppenführer (s. Führer) und Außenseiter. Die von Moreno entwickelte Form ist nur bei Gruppen unter 20 Personen anwendbar; bei mehr Teilnehmern wird das S. zunehmend unübersichtlich und muß daher anders dargestellt werden. Dem Anwender des Soziogramms stehen grundsätzlich drei Arten von Wahlen zur Verfügung: Er kann nur die Zuneigung der Personen (durch ausschließlich positive Wahlen), nur die Abneigung (durch ausschließlich negative Wahlmöglichkeiten) oder beides gleichzeitig messen. Handlungstheorie/theory of action eine Theorie, die auf der Basis empirisch überprüfbarer Aussagen konkretes menschliches Handeln erklären will. Gefragt wird nach den Gesetzmäßigkeiten und Regeln, die tatsächliches Verhalten von Menschen in bestimmten Situationen prägen, aber auch nach Handlungsspielräumen, nach den Chancen und Voraussetzungen für die Einführung wirtschaftlicher und sozialer Neuerungen. So wird einmal ein verhaltenstheoretisches Kontrastprogramm zur Rationaltheorie gefordert (G. Schmölders), daneben eine sozialwissenschaftliche Integration der zahlreichen Wissenschaften vom Menschen (H. Albert). Außerdem wird auf die dem Menschen eigenen Handlungsbeschränkungen aufmerksam gemacht und eine Theorie der Evolution menschlicher Gesellschaften entfaltet, die auf die Bedeutung von Verhaltensregeln für den Aufstieg einer offenen Gesellschaft verweist (F. A. von Hayek). Betont wird generell - wie bereits bei A. Smith - die Notwendigkeit einer Analyse des "Alltagsverhaltens" und der damit verbundenen Moralvorstellungen. All diese Anregungen haben in Verbindung mit dem Ausbau der Entscheidungstheorie dazu geführt, dass gelegentlich von einer verhaltenstheoretischen Revolution in den Sozialwissenschaften gesprochen wird. In den verschiedenen Handlungsmodellen sind die Schwerpunkte uneinheitlich gesetzt. Die Beschreibung sozialen Agierens orientiert sich an den Grundbegriffen Handlungsziel, Handlungsbedingung, Handlungsnorm und Handlungskoordination bzw. -interpretation. Dabei kommt die rein zweckgerichtete Handlungstheorie, die in erster Linie die Effektivität im Gebrauch von Handlungsmitteln hinsichtlich eines Handlungszieles untersucht, besonders in den Wirtschaftswissenschaften zum Tragen. In der Systemtheorie von T. Parsons sowie in der sozialpsychologisch orientierten Rollentheorie interessierte vor allem der Zusammenhang zwischen gesellschaftlichen Normen und menschlichem Handeln. Die Verarbeitung interaktionistischer und www.skriptenforum.net/psychologie 8 sprechakttheoretischer Ansätze führte dazu, dass die Handlungstheorie sich der Funktion der Sprache als Mittel der Handlungskoordination und -interpretation zuwandte. www.skriptenforum.net/psychologie 9 allgemein: psychometrische Einzelfalldiagnostik "...wenn unter Bezugnahme auf eine spezielle Testtheorie die aus der Konstruktion, Normierung und Standardisierung eines Tests vorliegenden Informationen zur zufallskritischen Beurteilung der testbefunde herangezogen werden." (JÄGER 1988) Beispiel für den Vergleich von Daten 'innerhalb' eines Pbn (siehe SchulzSkript): HAWIE - statistischer Vergleich von Handlungs- und Verbal-IQ um über einen 'Abbauquotienten' Hinweise auf mögliche hirnorganische Schädigungen zu erhalten. Absicherung: Meßfehler (als Gegenstück der Reliabilität) und diagnostische Relevanz berechnen und vergleichen. mögliche Absicherung der Einzelfalldiagnostik sind Daten von früheren Tests verfügbar? genau explorieren, präzisieren Hypothese vor dem Test explizit formulieren; - sie sollte in der Regel zweiseitig sein ( konservativerer Signifikanztest) - bei schwerwiegenden Entscheidungen: auf dem 1%-Niveau testen psychometrische, also normierte, reliable und objektive Verfahren verwenden dann möglich: Berechnung von Konfidenzintervallen und Kritischen Differenzen - Profilvergleiche bei langen Meßwertreihen (50-100 Zeitpunkte) kann die Zeitreihenanalyse verwendet werden; in der Praxis gilt sie jedoch als zu aufwendig Die Erfassung von Veränderungen spielt in der klinischen Psychologie, Psychosomatik, Psychotherapie und Psychiatrie traditionell eine zentrale Rolle (Baumann u. Mitarb. 1990, Lambert u.Hill 1994, Stieglitz u. Baumann 2001). Die Überprüfung von Veränderungen erfolgt dabei über entsprechende Messungen, so genannte Veränderungsmessungen. Diese beziehen sich auf Feststellungen von quantitativen und qualitativen Veränderungen, die sich über eine gewisse Zeitspanne hinweg ergeben haben (Jäger u. Scheurer 1999). Ein wichtiger methodischer Zugang zu Veränderungsmessungen ergibt sich über die Einzelfalldiagnostik (Huber 1973, 1999, Petermann 1996 a, b, Kern 1997). Auf die spezifischen methodischen Probleme des einzelfalldiagnostischen Ansatzes und der in diesem Bereich relevanten statistischen Auswertungsmethoden (wie die Zeitreihenanalyse) kann hier nicht näher eingegangen werden (dazu Appelt u. Strauß 1985, Schmitz 1989, Strauß 1992, Krauth 1996, Revenstorf u. Keeser 1996). Es soll an dieser Stelle jedoch darauf hingewiesen werden, dass eine klassische Methode der einzelfallanalytischen Verlaufsforschung, nämlich die Tagebuchmethode, in den letzten Jahren in Forschung und Praxis eine Renaissance erlebt (Wilz u. Brähler 1997). www.skriptenforum.net/psychologie 10 Qualitative Gruppenbefragung In der Regel entspanntere Atmosphäre, weil man nicht direkt angesprochen wird und sich nicht zu allem äußern muss. Genau hier liegt aber auch das Problem der Qualität der Antworten. Methodische Ansätze sind Brainstorming, Gruppendiskussion und das Moderationsverfahren. In der Diskussion bietet sich die Möglichkeit, Meinungen und Einstellungen einzelner Teilnehmer, sowie der Gruppe zu erfahren. Hier muss allerdings im Vorfeld geklärt sein, wie sich die Gruppe zusammen setzen soll (homogen/heterogen, Anzahl, zufällig, Ort, Thema usw.) Das Moderationsverfahren als besondere Form der Organisation von Gruppenprozessen achtet darauf, das sich alle Teilnehmer gleichberechtigt beteiligen. Alle Arbeitsschritte werden geplant und erzielte Ergebnisse visualisiert (Karten). ? Zukunftswerkstätten. Leitfadeninterview: Das Leitfadeninterview ist die gängigste Form der Befragung. Durch das erstellen eines Interviewgerüstes erhält man vergleichbare Daten für die Datenauswertung. Es lässt es dennoch zu, im Leitfaden nicht integrierte Fragen während des Ablaufs des Interviews hinzuzufügen. Am Ende des Interviews werden in der Regel mittel quantitativer Befragung Sozialdaten erhoben (Alter, Geschlecht, Einkommenssituation usw.) Fokussiertes Interview: Ein bestimmter Themengegenstand wird im Interview fokussiert (z. b. ein Interview über einen Film) Hierzu ist es nötig, das der Interviewer sich selbst intensiv mit diesem Gegenstand auseinandergesetzt z.B. wenn die befragten vorher einen film gesehen oder einen text etc. gelesen haben & dann konzentriert man sich auf ihre reaktionen und interpretationen. die erhebung erfolgt in relativ offener formhat. Reaktionen auf einen bestimmten Themenkomplex sollen erfasst werden. Narratives Interview: Erlebnisse und Episoden aus der Lebensgeschichte des Probanden sollen erfasst werden. (Biographieforschung, biographisches Interview). Anhand eines Erzählanstoßes bekommt der Proband die Möglichkeit sich frei und nach seinen Wünschen zu äußern. Das Thema soll (auch gefühlsmäßig) für den Probanden relevant sein. Es wird versucht den Probanden möglichst wenig zu unterbrechen. vorallem bei lebensgeschichtlich bezogenen fragestellungen, z. B. wird eine bestimmte lebensphase erzählt. biographisches interview: hier wäre das thema z.B. Herkunft &kindheit, schulzeit, schwere krankheit (offenes interview) Qualitative Interviews Die Bandbreite von qualitativen Interviews reicht von der eher strukturierten Form des Leitfaden-Interviews über fokussierte Interviews bis hin zu narrativen Interviews, bei denen meist der lebensgeschichtliche Kontext der Befragten berücksichtigt wird. Wie „standardisiert“ das Interview abläuft, ist von Thema und Forschungsvorhaben abhängig. So werden etwa Experteninterviews häufig mit einem Leitfaden durchgeführt, um die Vergleichbarkeit der einzelnen Interviews zu sichern. Diese können etwa dem Erwerb von Detailwissen ebenso dienen wie dem explorativen Sondieren in einem wenig erforschten Gebiet. Bei narrativen Interviews wird dem Befragten ein Erzählimpuls gegeben. Der Verlauf des Interviews bleibt relativ offen, der Interviewer fragt lediglich bei der Erzählung www.skriptenforum.net/psychologie 11 nach. Diese Form des Interviews eignet sich besonders dann, wenn z.B. die Kultur eines bestimmten Unternehmens erforscht werden soll. Für die Durchführung von qualitativen Interviews ist es sehr wichtig, dass nur erfahrene Interviewer mit gutem Einfühlungsvermögen eingesetzt werden. 1. Grundbegriffe Grounded Theory Wissenschaftstheoretisch begründeter Forschungsstil und gleichzeitig ein abgestimmtes Arsenal von Einzeltechniken, mit deren Hilfe aus Interviews, Feldbeobachtungen, Dokumenten und Statistiken schrittweise eine in den Daten begründete Theorie entwickelt werden kann. "Gegenstandsverankerte Theorie, die aus der Untersuchung des Phänomens abgeleitet wird, welches sie abbildet. Sie wird durch systematisches Erheben und Analysieren von Daten, die sich auf das entdeckte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander." (Strauss/Corbin 1996: 8) Entwickelt Anfang der 60er Jahre von Anselm Strauss (Chicago) und Barney Glaser (Columbia), von ihnen benutzt in hauptsächlich medizinischen Studien. Ziel: Theorie für einen bestimmten Wirklichkeitsbereich aufstellen Der Grounded Theory Ansatz eignet sich speziell zur Erforschung von Beziehungen zwischen Menschen, ihrem Verhalten und ihrer Kommunikation. grounded theory ist der wesentliche unterschied zur inhaltsanalyse folgender: dass nicht nur die kategorien ausgearbeitet werden, sondern DAS Kernproblem gesucht wird und geschaut wird wie die Probleme vernetzt sind Entwickeln von Theorien: Daten müssen konzeptualisiert, Konzepte miteinander in Beziehung gesetzt werden, um eine theoretische Wiedergabe der Wirklichkeit erzeugen zu können theoretisches Modell dient zur Erklärung der Wirklichkeit und bietet Rahmen fürs Handeln Fragestellung in "Grounded Theory": Festlegung, die das Phänomen bestimmt, welches untersucht werden soll, sie besitzt Handlungs- und Prozessorientierung Gegenstandsbereich muss eingegrenzt und fokussiert werden. Fragestellung ist eine Art Wegweiser, der den Forscher dazu anhält, einen ganz bestimmten Gegenstandsbereich, den Ort oder Platz, an dem die Ereignisse stattfinden, Dokumente und das Handeln der Menschen zu untersuchen oder Informanten zu interviewen Methodik: Zirkularität: Wechsel von Datenerhebung und Analyse, theoretisches Sampling bis Sättigung erreicht ist. Theoretical Sampling (dt.: Theoriegeleitete Stichprobenziehung; der englische Begriff wird jedoch auch in der deutschsprachigen Literatur häufig verwendet) www.skriptenforum.net/psychologie 12 Im Rahmen der Grounded Theory entwickeltes Konzept der Auswahl von Untersuchungseinheiten: Diese sollen (jedenfalls im allgemeinen) nicht nach Kriterien statistischer Repräsentativität ausgewählt werden, sondern danach, ob sie das Wissen über den Untersuchungsgegenstand zu erweitern geeignet sind oder nicht. T. S. impliziert daher meist ein konsekutives, kumulatives Vorgehen: Zunächst werden eine oder mehrere Untersuchungseinheiten analysiert; auf der Grundlage der so gewonnenen Ergebnisse bzw. Vermutungen, Ideen oder Konzepte wird nach weiteren Einheiten/Fällen gesucht, die geeignet sein könnten, die bisherigen Ergebnisse etc. zu bestätigen, zu kontrollieren, zu modifizieren, zu erweitern oder zu relativieren. Memo (engl.: Memo) Allgemein: "Erinnerungshilfe". In der Grounded Theory werden als Memos alle Notizen, Anmerkungen, Kommentare zum Datenmaterial bezeichnet. Ziel sollte sein, möglichst Theorie-Memos zu verfassen, d. h. solche, in denen theoretische Konzepte, Hypothesen oder Fragen formuliert werden. Diese Konzepte sollen sich gleichermaßen auf die vorhandenen Codierungen stützen wie gegebenenfalls neue Codierungen anregen. Letztlich sollen die Theorie-Memos zur Entwicklung einer ausformulierten Theorie führen. Strauss/Corbin 1996 unterscheiden drei Arten von Memos: Code-Notizen Memos, die sich auf Ergebnisse des Codierens beziehen, z. B. Anmerkungen zu den Namen der gewählten Kategorien, wichtige Eigenschaften, die beim Codieren herangezogen wurden, etc. Theoretische Memos oder siehe oben Theorie-Memos PlanungsNotizen: Memos mit Handlungsanweisungen für die eigene Person oder für das ForscherInnenteam 2. Analyse in der "Grounded mikroskopische Untersuchung Theory" sorgfältiges Kodieren von Daten, 1. Offenes Kodieren 2. Axiales Kodieren 3. Selektives Kodieren Zwei grundlegende Verfahren im Kodierprozess: Fragenstellen und Vergleichen ad 1. Offenes Kodieren: Analyseteil, in dem Phänomene mittels einer eingehenden Untersuchung der Daten benannt (konzeptionalisiert) und kategorisiert werden Aufbrechen des Textes in einzelne Teile, gründliche Untersuchung, Vergleich auf Ähnlichkeiten oder Unterschiede, wichtig: schon nach verallgemeinernden Überbegriffen suchen www.skriptenforum.net/psychologie 13 Erster Schritt zur Analyse: Herausgreifen einer Beobachtung, eines Satzes, eines Abschnittes und das Vergeben von Namen für jeden enthaltenen Vorfall, jede Idee, jedes Ereignis Fragestellung zu jeder Einheit: Was ist das? Was repräsentiert es?, Vorfall mit anderen Vorfällen vergleichen, damit ähnliche Phänomene denselben Namen bekommen Konzepte: Benennung eines Phänomens Fragen über das Phänomen stellen legen nahe, wie Phänomene möglicherweise miteinander in Beziehung stehen erlauben Folgerungen, die die Datensammlung leiten Entdecken von Kategorien: Konzepte müssen gruppiert werden, scheinbar gleiches zu gleichem Kategorisieren, Zuweisen eines konzeptionellen, abstrakteren Namens fassen Gruppen von Konzepten oder Subkategorien in ihrem Umkreis zusammen Entwickeln von Kategorien in Bezug auf ihre Eigenschaften und Dimensionen: Eigenschaften: Charakteristika oder Kennzeichen einer Kategorie (Bsp.: Farbe: Schattierung / Intensität / Farbton...) Dimension: beschreiben die Anordnung der Eigenschaft auf einem Kontinuum (Bsp.: Farbton: hell bis dunkel) eher analytisch als deskriptiv über die Daten nachdenken, provisorische Kategorien und deren Dimensionen erzeugen, über generierende Fragen nachdenken Theoretische Sensibilität: persönliche Fähigkeit des Forschers: Bewusstsein für die Feinheiten in der Bedeutung von Daten, auch: Fähigkeit, Einsichten zu haben, den Daten Bedeutung zu verleihen, Fähigkeit, zu verstehen, das Wichtige vom Unwichtigen zu trennenErhöhen der theoretischen Sensibilität Fragen, die automatisch an alle Daten zu stellen sind: (nach Flick 1995: 200/201) Was? Worum geht es hier? Welches Phänomen wird angesprochen? Wer? Welche Personen/Akteure sind beteiligt? Welche Rollen spielen sie dabei? Wie interagieren sie? Wie? Welche Aspekte des Phänomens werden angesprochen? Oder: Welche nicht? Wann? Wie lange? Wo? Zeit, Verlauf und Ort Wie viel? Wie stark? Intensitätsaspekte Warum? Welche Begründungen werden gegeben, welche lassen sich erschließen? Wozu? In welcher Absicht? Zu welchem Zweck? daraus sind viele speziellere Fragen ableitbar In regelmäßigen Abständen einen Schritt zurückgehen und fragen: Was geschieht hier? Trifft das, was ich zu sehen glaube, die Wirklichkeit der Daten? Skeptische Haltung beibehalten: Alle theoretischen Erklärungen müssen als provisorisch angesehen und immer wieder überprüft werden (auch bei möglicher Übernahme von Konzepten/Variablen anderer Forscher!) www.skriptenforum.net/psychologie 14 Flip-Flop-Technik: Vergleich der Extrempole einer Kategorie/eines Phänomens Weithergeholte Vergleiche: Vergleich mit Phänomenen aus ganz anderen Kontexten Schwenken der roten Fahne: Wörter/Phrasen wie "nie", "immer", "es kann unmöglich so sein", "jeder weiß, dass es so gemacht wird", "es besteht kein Grund zur Diskussion" sollten als Signale gesehen werden, genauer hinzuschauen: Unter welchen Bedingen gilt das? Was ist damit gemeint? Was geschieht? usw. nichts für selbstverständlich halten ad 2. Axiales Kodieren : Aus Vielzahl der entstandenen Kategorien werden die ausgewählt, deren Ausarbeitung am vielversprechendsten erscheint "Achsenkategorien", werden mit möglichst vielen Textstellen angereichert sowie mit ihren Subkategorien systematisch mittels des Paradigmatischen Modells verbunden und in Beziehung gesetzt Prozedur ist fokussiert um zur Theorie zu werden, müssen Konzepte systematisch miteinander in Beziehung gesetzt werden Paradigmatisches Modell (A) Ursächliche Bedingungen (B) Phänomen Kontext (D) Intervenierende Bedingungen Handlungs- und interaktionale Strategien Konsequenzen (C) (E) (F) Verknüpfen und Entwickeln von Kategorien mit dem Paradigma: 1. Hypothetisches In-Beziehungsetzen der Kategorien mit Subkategorien Paradigma Fragestellen in Richtung einer Beziehung 2. Verifizieren anhand der tatsächlichen Daten mit kategorieverknüpfenden Fragen in den Daten nach Hinweisen, Ereignissen suchen, die die Fragen bestätigen oder widerlegen, auch: Suche nach Gegenbeispielen mehr Variation und Dichte 3. Fortgesetzte Suche nach Eigenschaften der Kategorien und Subkategorien und nach der dimensionalen Einordnung der Daten, auf die sie verweisen versuchen, jedes Ereignis in den Daten hinsichtlich seiner genauen dimensionalen Ausprägung zu bestimmen und zu spezifizieren 4. Beginnende Untersuchung der Variation von Phänomenen, wobei jede Kategorie und ihre Subkategorien mit verschiedenen Mustern verglichen werden, die durch Vergleiche der dimensionalen Einordnung von Beispielen aus den Daten entdeckt wurden Grundlage für selektives Kodieren, auch: Muster von Bedingungen, Strategien, Konsequenzen interagieren miteinander und bringen noch weitere Unterschiede hervor Prozesse, Bewegungen in den Daten www.skriptenforum.net/psychologie 15 Versuch, soviel wie möglich an Komplexität und Bewegung in der wirklichen Welt einzufangen Entwicklung und Spezifikation von Unterschieden zwischen und innerhalb der Kategorien ist ein Herzstück der Grounded Theory Hin- und Herpendeln zwischen induktivem und deduktivem Denken, konstantes Wechselspiel zwischen Aufstellen und Überprüfen, RückwärtsVorwärtsbewegung: Erst das macht die Theorie gegenstandsverankert ad 3. Selektives Kodieren: Ziel: Herausarbeitung einer Kernkategorie, um die sich die anderen entwickelten Kategorien gruppieren lassen Integration der gegenstandsverankerten Theorie, Formulierung 1. Schritt: Offenlegen des roten Fadens der Geschichte Konzeptualisierung einer beschreibenden Geschichte über das zentrale Phänomen der Untersuchung Kernkategorie 2. Schritt: Verbinden der Kernkategorie mit Hilfe des Paradigmas welche Kategorie entspricht welchem Bestandteil des Paradigmas? 3. Schritt: Verbinden der Kategorien auf der dimensionalen Ebene "Geschichtenerzählen", sequentielle Ordnung, Kategorien an- und umordnen, bis sie zur Geschichte passen analytische Version, Geschichte muss genau und logisch erzählt werden; ansonsten: umschreiben oder neu erzählen, bis Anordnung der Kategorien Sinn ergibt 4. Schritt: Validieren/Modifizieren dieser Beziehungen durch die Daten Überprüfung Fall für Fall 5. Schritt: Auffüllen der Kategorien, die einer weiteren Verfeinerung oder Entwicklung bedürfen gezielt ins Feld zurückkehren und Daten erheben Das Codierparadigma, welches in den späteren Schriften von Strauss (z. B. Strauss 1994) vorgeschlagen wurde, sieht vor, die Daten nach folgenden Kriterien zu codieren: Im Mittelpunkt steht ein bestimmter Gegenstand/ein Thema, das Phänomen. Gefragt werden soll dann zunächst nach den Ursachen oder Bedingungen des Phänomens, weiterhin nach Kontextbedingungen oder intervenierenden Bedingungen, unter denen diese Ursachen wirksam werden, ferner nach Handlungsstrategien, die das Phänomen bei den involvierten oder betroffenen Akteuren auslöst, sowie nach Konsequenzen, die sich aus dem Phänomen oder auch aus den Handlungsstrategien ergeben. (Man wird kaum sagen können, dass dieses Schema hohe Originalität für sich beanspruchen kann, aber wahrscheinlich soll es das auch nicht). www.skriptenforum.net/psychologie 16 3. Prozessaspekte in der Grounded Theory: Natur von Geschehnissen entwickelt sich: zeigen, warum und wie sich Handlungen/Interaktionen verändern, gleich bleiben oder zurückentwickeln "Schnappschüsse von Handlungen/Interaktionen machen, diese zu einer Sequenz oder Serie verknüpfen" Prozessaspekte sollten schon durch vorhergehende Analyse selbst auftauchen, werden aber oft übergangen oder ungenügend berücksichtigt Aufzeigen, warum Idealbild je nach Kontext variiert Bild des Ereignisflusses vermitteln, der mit dem Zeitverlauf auftritt Wo kann man Prozessaspekte finden? 1. Im Bedingungsmuster kann Reaktionskette in Gang setzen mit Auswirkungen auf alles folgende 2. In jeder der intervenierenden Bedingungen: kann zur Notwendigkeit führen, Handeln zu verändern 3. Konsequenzen vorausgehenden Handelns/Interagierens können innerhalb einer Ereignis-Sequenz zurückwirken: kann zu neuer Bedingung werden, z.B. erfolgreiche Krisenbewältigung Die ideale "Grounded Theory"... ist ein transaktionales System, das erlaubt, die interaktive Struktur von Ereignissen zu untersuchen Handlung/Interaktion ist das Herzstück jedes Phänomen wird durch zweckgerichtete, untereinander verbundene Handlungs-/Interaktionsabfolgen analytisch ausgedrückt alle Phänomene sind in Sätze von Bedingungen eingebettet, führen zu spezifzierbaren Konsequenzen Eigenschaften eines transaktionalen Systems: 1. besteht aus interaktiven, miteinander verbundenen Bedingungen, die von "sehr weit entfernt" bis zu "sehr spezifisch" reichen 2. Bedingungen auf jeder Ebene können für Phänomen Ursache, Kontext oder intervenierende Bedingungen (die zwischen Kontext und Handlung vermitteln, diese fördern oder hemmen) sein. 3. Handlung/Interaktion stehen im Mittelpunkt der Bedingungsebenen 4. Handlung/Interaktion finden in Abfolgen statt Prozesshaftigkeit 5. Handlung/Interaktion ergeben bestimmte Konsequenzen, die auf Bedingungen in verschiedenen Ebenen einwirken 6. Bedingungen beinhalten einen zeitlichen Verlauf 7. Bedingungen fördern oder behindern Handlung/Interaktion www.skriptenforum.net/psychologie 17 Wichtig: ungeachtet der Ebene, auf der ein Phänomen lokalisiert werden kann, steht es in einer bedingenden Beziehung zu den anderen Ebenen Vorgehen: Beginn mit Ereignis/Vorfall/Geschehen, feststellen, warum es auftrat, welche Bedingungen wirksam waren, wie sie sich manifestiert haben, welche Konsequenzen das hatte Vorteile/Nachteile/Probleme als Analysemethode: Vorteile Nachteile/Probleme Keine Prüfung von Theorien über die Realität an der Realität, sondern Entwicklung und Prüfung von Theorien aus der Realität Bisher kaum zu bewältigende Datenflut: "Datenfriedhöfe" - für Einzelforscher rasch zu viel, für Gruppe zu hoher Koordinationsaufwand Theorienentwicklung immer entlang der Daten Wie finde ich immer genau die Fälle für mein nötiges Sampling? Kein deskriptives, sondern analytisches Vorgehen Braucht jede Menge Übung und Praxis, Erlernen ist schwer Kann zu tieferem Textverständnis ohne Paraphrase oder Zusammenfassung beitragen Potentielle Unendlichkeit der Kodierungsund Vergleichsmöglichkeiten häufig Unmenge von Codes und Vergleichen Leichtigkeit Methoden Um potentieller Unendlichkeit vorzubeugen, muss schon zu Anfang mit impliziten Theorien gearbeitet werden und Flexibilität der www.skriptenforum.net/psychologie Entnommen aus: Strauss/Corbin 1996: 136 18 www.skriptenforum.net/psychologie Entnommen aus: Flick 1995: 199 19 www.skriptenforum.net/psychologie Zirkularität des qualitativen Forschungsprozesses quantitativ-standardisiertem Vorgehen. Entnommen aus: Flick 1995: 61 20 im Vergleich zu www.skriptenforum.net/psychologie 21 Einzelfallstudie/Qualitatives Experiment Einzelfallstudie- Definition - Ihr Gegenstand ist ein einzelnes soziales Element. In der Regel ist es die Untersuchung von Individuen. Es können aber auch andere soziale Einheiten untersucht werden. Eine Familie, Gruppe, Firma, Kultur, Organisationen, Verhaltensmuster können als Einzelfall verstanden werden. - Es handelt sich nicht um eine Erhebungsmethode, sondern um einen Forschungsansatz. - Ziel ist es, genaueren Einblick in das Zusammenwirken einer Vielzahl von Faktoren zu erhalten, wobei sie meist auf das Auffinden und Herausarbeiten typischer Vorgänge gerichtet ist. - Es wird angestrebt, die untersuchten Einzelfälle in ihrer Ganzheitlichkeit realitätsgerecht zu erfassen. - Das Material für Einzellfälle kann prinzipiell durch alle Techniken der empirischen Sozialforschung erhoben werden. Meist beruft sich die Einzelfallstudie aber auf das qualitative Paradigma. - Häufig verwendet man mehrer Methoden, um Methodenartefakte erkenne und eliminiern zu können. - Methoden der Fallstudie sind kommunikativ, offen, naturalistisch und authentisch Fallstudie – qualitative Forschungslogik Qualitative Fallstudie Quantitatives Forschungsdesign Partikularistische Sicht Ganzheitliche Sicht Eine Methode Mehrere Methoden Breite Informationen Tiefe Informationen Viele Informationen Viele Informationen Viele Fälle Wenige Fälle www.skriptenforum.net/psychologie 22 Fallstudie- in qualitativer Forschung Fallstudie wird häufig nur am Rande erwähnt. Erlebt gewisse Renaissance besonders in Therapieforschung. Forschungsansatz, mehrere Methoden (Triangulation) typische Vorgänge, realitätsgerechte Erfassung, methodologische Prinzipien Fallstudie- in quantitativer Forschung - Gilt als unkontrolliert + unstandardisiert + verzerrend - Keine wissenschaftliche Beweiskraft - Funktionen: Generierung von Hypothesen, zur Information über Soziales Feld, relevante Dimensionen des Gegenstands, zur Abschätzung von Methodenwahl, Zugangsproblematik und Verweigerungsrate, Operationalisierung, illustrative Aufgabe, Ergänzung Fallstudie- in qualitativer Forschung - Offene Fragestellung wird erarbeitet - Durch theoretisches Sampling werden Untersuchungseinheiten ausgewählt - Handlungsmuster (gleichartig/ kontrastierend) - Multimethodisches Vorgehen - Kommunikative Verfahren mit dem die Natürlichkeit der sozialen Realität gesichert sein sollte - Soziale Realität ist immer eine interpretierende - Ergebnisse müssen auch interpretiert werden - Handlungsfiguren werden identifizierit, Handlungsmuster systematisiert - Ergebnisse sorgfältig dokumentiert Erkenntnisziele Explorativ: Erfassung subjektiver Einschätzungen, Deutungsmuster, Handlungsorientierungen unter Berücksichtigung situations-spezifischer Kontextbedingungen. Ermittlung individueller Perspektiven und Verläufe, www.skriptenforum.net/psychologie 23 die in den Varianzen von quantitativen Gruppenstudien untergehen (Korrektiv für quantitativ-statistische Analysen) Überprüfend: Gegenüberstellung von theoriebasierten Hypothesen mit Auswertungsresultaten der Fallanalysen Forschungslogik Induktionsprinzip (einzelne Beobachtungen (generelle Aussagen) Innovative Hinweise (exploratives Erkenntnisziel) Plausibilisierung von Ursache-Wirkungs-Zusammenhängen Theorietestende Untersuchungen beziehen Einzelfälle auf theoretische Aussagen und Hypothhesen, Warum-Fragen Kritik: Induktionsproblem Typologie: Einzelpersonen vs. soziales Aggregat Binnenstruktur vs. Auflenkontakte Untersuchungseinheit gibt Struktur der Ergebnisbeschreibung vor. Zusammenfassung - Forschungsansatz - Handlungsmuster auf alltagsweltlichen, realen Handlungsfiguren - Interpretation und Deutung der Alltagswelt - Verhindert Stereotypisierung und vorschnelle Strukturierung von Daten - Ohne Prädetermination durch hypothetische Raster - Erhebungstechniken müssen kommunikativ sein - Untersuchungssituation soll Alltag möglichst nahe kommen - Verwendung verschiedener Techniken - Methodentriangulation soll Fehler/Nachteile der jeweiligen Methoden ausgleichen - Sollen interpretierend und typisierend sein Qualitatives Experiment www.skriptenforum.net/psychologie 24 - Das qualitative Experiment ist die Basis aller Forschungen Gerhard Kleinig (1982) entwickelte diese Methode in einem Aufsatz der Kölner Zeitschrift für Soziologie und Sozialpsychologie - Es ist der nach wissenschaftlichen Regeln vorgenommener Eingriff in eine sozialen Gegenstand zur Erforschung seiner Struktur. Es ist die explorative, heuristische Form des Experiments. Seite 13 - Ist ein Versuch, (klinische) Fallgeschichten zu formalisieren. Eshandelt sich um einen experimentellen Ansatz, erlaubt kausale Schlussfolgerungen. Erfordert mehrere Phasen: - Anamnese/Vorgeschichte - Baseline - Repeated Measurment- Mehrere Erhebungen. Operation zur Erlangung der Messungen müssen deutlich formuliert und genau nach Plan durchgeführt werden. - Kontextveränderungen kontrollieren und genau dokumentieren - Methodologische Voraussetzungen und Ansprüche (Wiederholbarkeit, Hypothesenprüfung, Quantifizierung, Kausalanalyse) sind nur bedingt relevant Handlungsstrategien Maximierung/Minimierung: suche und erforschen von extremen Situationen, Einstellungen und Handlungsweisen Testen von Grenzen Adaption: möglichst viele Techniken, möglichste Erkenntnis bei minimalem Eingriff Regeln 1) Regel über das Subjekt. Hypothesenprüfung/Hypothesenentwicklung 2) Regel über das Objekt Offenheit/Flexibilität dem Gegenstand des Experiment - Regel über experimentelles Handeln flexibel einsetzen, maximale www.skriptenforum.net/psychologie 25 Alle Einflüsse, die den Gegenstand beeinflussen könnten müssen variiert werden. Testanordnung, Testpersonen, Versuchsleiter, Rahmenbedingungen, Instruktionen, Abfolgen und Testzeiten 4) Regel über Bewertung der Daten. Herausfiltern von Gemeinsamkeiten. Trennende wird nicht eliminiert, sondern zur Erkennung der Gemeinsamkeiten benutzt. Prozess ist zirkulär. Techniken Gliederung des Gegenstandes - Seperation/Segmentation (Teilung/Gliederung eines Gegenstands in verschiedene Neben-Untergruppen. Unterschiedliche Gliederungen geben unterschiedlichen Sinn vor. - Kombination Teile werden auf andere Art wieder zusammengesetzt, als im Gegenstand vorhanden Einschränkung bzw. Ausdehnung des Gegenstandes - Reduktion/Abschwächung - Adjektion/Intensivierung Umwandlung eines Gegenstandes - Substitution - Transformation Zusammenfassung - Explorative, heuristische Form des Experiments - Im Sinne des Abstraktionsniveaus und der Nähe zum Gegenstand zwischen Alltagsmethoden und quantitativem Experiment angesiedelt - Methodologischen Voraussetzungen (Wiederholbarkeit, Hypothesenprüfung, Kausalanalyse, quantitativen Experiments sind irrelevant - Maximierung/Minimierung, Testen von Grenzen, Adaption Maximale Erkenntnis bei minimalem Eingriff Quantifizierung) des www.skriptenforum.net/psychologie 26 Fokusgruppen Eine der populärsten und am häufigsten eingesetzte Methode qualitativer Forschung ist das Instrument der Fokusgruppe. Im Gegensatz zu typischen qualitativen Einzelinterviews handelt es sich bei einer Fokusgruppe um eine moderierte und fokussierte Diskussion einer Gruppe von Personen, die durch den gegenseitigen Austausch und die Konfrontation mit Wahrnehmungen, Meinungen und Ideen anderer Diskussionsteilnehmer ein deutliches Plus an Informationen bieten soll als eine nacheinander durchgeführte Mehrzahl an Einzelinterviews. Gruppendynamische Prozesse sollten zu einer intensiveren Auseinandersetzung der Teilnehmer mit dem interessierenden Gegenstand führen, da die Mitglieder einer Fokusgruppe einerseits ihre eigenen Meinungen gegenüber anderen Teilnehmern begründen müssen bzw. sich durch das Aufeinandertreffen unterschiedlicher Wahrnehmungen und Ansichten gegenseitig befruchten können. Dieser gegenseitige Austausch sollte zu einer Vertiefung der individuellen Überlegungen führen, wichtige zentrale Aspekte sollten daher klarer und deutlicher zu Tage treten als es in Einzelinterviews der Fall ist. Gleichzeitig führt die Gruppensituation dazu, dass emotionale Reaktionen der Teilnehmer, die in einem Einzelgespräch nicht auftreten würden, sichtbar werden, Reaktionen, die spontan und damit ehrlich geäußert werden. Damit wird dem Auftraggeber ein sehr tiefgehender Einblick in die Denkweise der Mitglieder einer Fokusgruppe vermittelt, wie es sonst kaum möglich ist. Gleichzeitig darf aber nicht übersehen werden, daß trotz der Eleganz und Vielzahl an positiven Aspekten dieser Ansatz auch maßgebliche Schwächen bzw. Restriktionen in sich birgt: Wie alle qualitativen Techniken unterliegt er der Auswertung und Interpretation des Forschers. Zusätzlich nimmt der Moderator der Fokusgruppe einen zentralen Platz ein und kann daher starken, u.U. auch negativen Einfluß auf Verlauf und Inhalt der Gruppendiskussion ausüben. Dominierende Teilnehmer können, wenn der Moderator nicht in der Lage ist, für einen Ausgleich und daher für eine Berücksichtigung aller Teilnehmer zu sorgen, die Richtung und Schwerpunkte der Diskussion beeinflussen bzw. andere Diskussionspartner verunsichern, was dazu führt, daß bestimmte Aspekte des interessierenden Gegenstandes gar nicht erst zur Sprache gebracht werden. Daß darüber hinaus die Ergebnisse nicht repräsentativ und www.skriptenforum.net/psychologie 27 damit ungeeignet für Projektionen auf die Gesamtpopulation sind, sollte sich von selbst verstehen. Da Fokusgruppen-Teilnehmer in der Vielzahl der Fälle über "convenient sampling" ausgewählt werden, kann es auch zu einer Verzerrung der Ergebnisse kommen. Daher sollte auch von allen Versuchen einer Quantifizierung von Fokusgruppenergebnissen (in der Form von prozentuellen Angaben) Abstand genommen werden. Aufgrund dieser Restriktionen ergibt sich für das Instrument der Fokusgruppe ein erheblich eingeschränktes Einsatzgebiet, nicht alle interessierenden Sachverhalte lassen sich abbilden: Prinzipiell eignen sich Fokusgruppen zur Generierung von Ideen durch Externe. Ebenso ist es denkbar, Ansprüche und Erwartungen über solche Gruppendiskussionen herauszufiltern, die dann in quantitativ ausgerichteten Untersuchungen an repräsentativen Stichproben abgetestet werden. (Ein weiteres Einsatzgebiet stellt der Bereich der Werbung dar. Fokusgruppen können zur Generierung positionierungsrelevanter Themen für Werbekampagnen herangezogen werden.) Bei allen Aspekten der Beschreibung eines aktuellen Zustandes oder repräsentativen Überprüfung der Akzeptanz neuer Ideen sollten Fokusgruppen nur mit äußerster Vorsicht und maximal als explorative Voruntersuchung zur Generierung zentraler Dimensionen, die dann in quantitativ orientierten Untersuchungen zum Einsatz gelangen können, eingesetzt werden. Ablauf einer Fokusgruppe Folgende Schritte sind bei der Planung einer Fokusgruppe zu berücksichtigen: 1. Auswahl der Teilnehmer: Die Auswahl der Teilnehmer richtet sich prinzipiell nach der Art der interessierenden Fragestellung. Da von vornherein aber keine Ansprüche an die Repräsentativität der Ergebnisse gestellt werden können, ist ein Convenient Sample in den meisten Fällen vollkommen ausreichend. Dennoch sind folgende Punkte dabei unbedingt zu berücksichtigen: > die Teilnehmer sollten ein ausreichendes Maß an Interesse und Involvement bezüglich des interessierenden Gegenstandes mitbringen, > die Teilnehmer sollten sich auf der einen Seite durch ein gewisses Ausmaß an Homogenität, andererseits aber auch durch genügend große Unterschiede, um die www.skriptenforum.net/psychologie 28 Diskussion unterschiedlicher Meinungen und Ansichten zu ermöglichen. Homogenität sollte sich daher auf Beruf, Ausbildung, best. soziodemographische Kriterien, etc. beziehen, denn gerade auf diesen Dimensionen können zu große Unterschiede zu Verständigungsund Verständnisproblemen führen. Es empfiehlt sich auch nicht, mehrere unterschiedliche Gruppen in eine Fokusgruppe zu nehmen, denn obwohl hier zumindest mehrere Teilnehmer jeweils einer Gruppe zugeordnet werden können, sind die Unterschiede in vielen Fällen doch zu groß, um tiefgehende Diskussionen zu gewährleisten. In solchen Fällen empfiehlt sich vielmehr die Abhaltung einer ganzen Serie von Fokusgruppen, jeweils mit Teilnehmern unterschiedlicher Austauschpartner. > Nicht empfehlenswert ist die Aufnahme von Ehepaaren oder befreundeten Personen in ein und die selbe Fokusgruppe. Aufgrund der engen persönlichen Beziehungen kann die Tendenz zu starker Gleichförmigkeit entstehen, sodas de facto die Anzahl der diskutierenden Teilnehmer reduziert wird. > Bezüglich der Anzahl oder Größe der Fokusgruppe streuen die Empfehlungen relativ breit. Meist wird aber eine Obergrenze von 10 Personen genannt, da ansonsten eine professionelle Moderation kaum mehr gewährleistet werden kann und andererseits auch mit jedem zusätzlichen Teilnehmer die verfügbare Redezeit pro Person so stark reduziert wird, dass es kaum mehr möglich wird, intensive und damit zeitlich längere Diskussionsbeiträge zuzulassen. Zu lange erzwungene Redepausen können darüber hinaus dazu führen, dass einzelne Personen quasi "verstummen". Generell gilt: Je mehr jeder einzelne Teilnehmer an Erfahrung mit dem interessierenden Gegenstand mitbringt, umso kleiner kann die Fokusgruppe sein. Bei der Auswahl der Teilnehmer ist die Verwendung einer Checkliste sehr hilfreich. Damit soll sichergestellt werden, dass die ausgewählten Personen auch wirklich die Merkmale erfüllen, die im Vorfeld als wichtige, den Untersuchungsgegenstand beeinflussende Kriterien ermittelt worden sind. Im Rahmen von Telefoninterviews oder persönlichen Gesprächen werden dann in Frage kommende Personen auf ihre "Brauchbarkeit" hinsichtlich der gewählten Kriterien geprüft. 2. Örtlichkeit und Dauer einer Fokusgruppe: Idealerweise werden Fokusgruppen an einem unabhängigen Ort (Seminarhotel oder ähnliches) abgehalten, um keine unnötigen Berührungsängste der Teilnehmer aufzubauen. Um Moderation und anschließende Auswertung zu vereinfachen, www.skriptenforum.net/psychologie 29 empfiehlt es sich - bei voriger Information der Teilnehmer - die Gruppendiskussion zumindest auf Kassetten ermöglicht darüber hinaus aufzunehmen, die Analyse eine der Aufzeichnung Körpersprache auf Videokassette und emotionaler Reaktionen. Die Dauer einer Fokusgruppe kann je nach Intensität und Anzahl der Teilnehmer relativ stark variieren, es zeigt sich jedoch immer wieder, dass nach etwa 2 bis 2.5 Stunden die "Kondition" der Teilnehmer wie auch des Moderators ziemlich erschöpft ist. Dabei sollte aber darauf geachtet werden, dass nicht zu sklavisch auf solch einen Zeitplan geachtet wird: es mag Fälle geben, in welchen selbst nach 3 Stunden noch intensiv über neue Aspekte diskutiert wird und es wenig Sinn machen würde, frühzeitig abzubrechen. Und es mag durchaus auch vorkommen, dass die Diskussion bereits nach etwas mehr als 1 Stunde auf der Stelle tritt und keine wesentlich neuen Aspekte mehr auftauchen. Ständiges Nachbohren könnte hier unter Umständen sogar zu Reaktanz auf der Seite der Teilnehmer führen. (Getränke und kleine Imbisse wiederum lockern auf der einen Seite die Atmosphäre auf, verschleiern auch den förmlichen Charakter einer solchen Diskussion, auf der anderen Seite stören sie den Ablauf einer Fokusgruppe praktisch überhaupt nicht.) 3. Der Moderator: Der Erfolg einer Fokusgruppe liegt, neben der Auswahl der richtigen Teilnehmer, zu einem Gutteil beim Moderator der Gesprächsrunde. Er muss in der Lage sein, eine entspannte und angenehme Atmosphäre aufkommen zu lassen, damit für die Teilnehmer nicht der Eindruck einer "Prüfungssituation" entsteht und damit Diskussionsängste aufkommen. Daher wird im Rahmen von sog. Aufwärmrunden versucht, die Atmosphäre durch gegenseitiges Kennen lernen und ein erstes vorsichtiges Annähern an das Thema aufzulockern. Auf diese Weise werden Hemmungen der Teilnehmer langsam abgebaut und die Diskussion immer starker auf das eigentliche Kernthema konzentriert. Flexible Moderatoren sind dabei in der Lage, die Diskussion immer wieder auf zentrale Themen zurückkehren zu lassen und gleichzeitig die unterschiedlichen Auffassungen der einzelnen Diskussionspartner abzuklären und zu vertiefen. Im Mittelpunkt seiner Arbeit sollte das Zuhören sowie die Leitung der Diskussion stehen, eigene Ansichten und Meinungen zum Thema sind eher fehl am Platze da sie die Teilnehmer zu stark in eine bestimmte Richtung lenken www.skriptenforum.net/psychologie 30 könnten. Das Ziel des Moderators sollte es sein, die Teilnehmer zu umfassenden und detaillierten Statements zu veranlassen bzw. einzelne Aussagen immer weiter zu vertiefen, umso ein möglichst detailliertes Bild der dahinter liegenden Bedeutungsstrukturen zu erhalten. Die Fragen, derer sich der Moderator im Verlaufe einer solchen Diskussion bedient, sollten dem Ziel, einen möglichst umfassenden Einblick in die Gedankenwelt der Teilnehmer zu erhalten, Rechnung tragen und daher so offen wie möglich gestellt werden. Folgende Abbildung zeigt häufig eingesetzte Fragestellungen: Idealtypische Fragen für Fokusgruppen: (Bereich Marketing) > Was würden Sie ihrem besten Freund über dieses Produkt/Idee/etc. erzählen? > Stellen Sie sich einmal vor, dieses Produkt könnte sprechen. Was würde es über sich selbst erzählen? > Stellen Sie sich vor, Sie sind für einen Tag Vorstand dieses Unternehmens. Welche Handlungen würden Sie sofort setzen ? Was würde sich dadurch Ihrer Meinung nach im Betrieb verändern? > Gibt es 5 positive/negative Aspekte zu diesem Produkt ? Können Sie mir diese nennen, ganz egal wie klein oder wichtig sie sind? 4. Auswertung und Reporting: Audio- oder gar Video-Aufzeichnungen der Diskussion ermöglichen ein genaues Analyse und Auswerten einer Fokusgruppe. Eine genaue Abschrift der gesamten Diskussion stellt dabei den Ausgangspunkt dar. Auf Basis dieses Transkripts lassen sich relevante Kategorien der interessierenden Fragestellung bilden und damit themenzentrierte Auswertungen und Berichte erstellen. Notizen der Moderatoren sowie Eindrücke der Videoaufnahmen können das so entstandene Bild weiter abrunden und vertiefen. Im Falle einer ganzen Serie von Fokusgruppen zum selben Thema empfiehlt es sich, zumindest die Auswertungen getrennt vorzunehmen und erst im Bericht das Gesamtergebnis darzustellen. Aber auch hier sollte der Kontext in Form der jeweils spezifischen Fokusgruppe, in der eine bestimmte Kategorie aufgetaucht ist, immer klar ersichtlich sein. Im Reporting sollte jede Art des "Köpfezählens" vermieden werden, um nicht unnötigerweise eine defacto keinesfalls www.skriptenforum.net/psychologie 31 vorhandene Repräsentativität zu suggerieren und damit zu vorschnellen Projektionen auf die Grundgesamtheit zu verleiten. Folgende Aspekte verdienen in der Auswertungsphase größte Aufmerksamkeit: A: Welche Bedeutung steckt hinter einzelnen Aussagen? Nicht alle verstehen bspw. unter kompetenter Beratung das gleiche. B: Achtung auf den Kontext, in welchem eine Aussage fällt. Ist ein Statement Ergebnis einer offenen Frage oder wird es aufgrund einer Nennung eines anderen Teilnehmers gemacht. C: Achtung auf individuelle Konsistenz verschiedener Aussagen ein und derselben Person. D: Berücksichtigung der Anzahl und Ausführlichkeit best. angeführter Diskussionspunkte. Kehrt die Diskussion immer wieder auf ein paar damit zentrale Themen zurück, nehmen dabei alle Teilnehmer intensiv teil oder beschränken sich die Wortmeldungen nur auf ein paar wenige Gruppenmitglieder. E: Berücksichtigung der (emotionalen) Intensität der Aussagen. Insbesondere Audiound Videoaufzeichnungen sind hier sehr hilfreich, weil gerade ein veränderter Tonfall, häufig wechselnde Sitzpositionen, ein Anheben der Stimme, Unterbrechen anderer Teilnehmer etc. auf solche emotionalen Reaktionen hinweisen. www.skriptenforum.net/psychologie 32 Fokusgruppen Fokusgruppen sind moderierte Gruppendiskussionen, an denen acht bis zwölf Personen teilnehmen. Mit Fokusgruppen können Argumentationslinien, Kommunikationsstrategien, aber auch Werbemittel getestet werden. Sie geben weniger über die Verteilung von Einstellungen in der Bevölkerung Auskunft als über deren Einbettung in einen kommunikativen Kontext. Besonders eignen sich Fokusgruppen, wenn es darum geht herauszufinden, warum welche Argumente ziehen, weil beobachtet werden kann, wie sie in einem Kleingruppenkontext wahrgenommen und verarbeitet werden. Darüber hinaus ist eine wesentliche Funktion von Fokusgruppen die Ideengewinnung und das explorative Sondieren von Einstellungen und Erwartungen, wodurch sich wertvolle Hinweise für eine mögliche weiterführende quantitativ-empirische Arbeit ergeben können. Neben der beschriebenen Art der Fokusgruppen gibt es auch die Möglichkeit, Fokusgruppen online durchzuführen. Diese Methode hat den Vorteil, dass die TeilnehmerInnen über weitere Entfernungen hinweg via Internet an der Fokusgruppe teilnehmen können und somit die Anreise wegfällt, was Zeit und Kosten sparen hilft. Die Online-Fokusgruppe wird von einem Moderator geleitet, die TeilnehmerInnenzahl sollte neun Personen nicht überschreiten. Die Kommunikation kann mit der eines sogenannten „chats“ verglichen werden. www.skriptenforum.net/psychologie 33 Inhaltsanalyse Die Inhaltsanalyse ist eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen. Das Ziel besteht darin, anhand der Textmerkmale Schlussfolgerungen (Inferenzen) über den Text, seinen Produzenten oder den Empfänger einer Mitteilung zu formulieren. Seite 2 • Formal-deskriptive Analysen befassen sich mit den formalen Aspekten eines Textes. (Bsp.: Berechnung von Indizes zur rel. Häufigkeit bestimmter Zeichen oder Zeichenkombinationen • Diagnostische Analysen richten die Aufmerksamkeit auf die Beziehung zwischen Sender und Mitteilung. Was möchte der Produzent (Autor, Redaktion usw.) mitteilen und bewirken. Welche Werte fließen in den Text ein, welche Werte repräsentiert der Sender? • Prognostische Inhaltsanalysen beziehen sich auf die Erforschung der Wirkungen von Mitteilungen bei den Rezipienten. Wie reagieren die Empfänger auf eine Mitteilung? Verändern Werbetexte das Konsumentenverhalten? • Vergangenheitsbezug: Auch die Untersuchung von Materialien, die in der Vergangenheit produziert wurden, ist möglich. • Sozialer Wandel: Der Wandel sozialer Werte ist mit der Inhaltsanalyse gut erforschbar. • Nicht-Reaktivität: Datenerhebungsmethode, die im Zuge ihrer Durchführung keinerlei Einfluss auf die untersuchten Personen, Ereignisse oder Prozesse ausüben. Hauptvorteile der Inhaltsanalyse: Beobachtung • Die Beobachtung ist in der Sozialwissenschaft eine Form der Datenermittlung. Sie bezieht sich auf "konkretes Verhalten, auf Handeln und symbolisches Interagieren von Menschen in ... sozialen Situationen". (MAYNTZ/HOLM/HÜBNER, 1978: 87) • Der Begriff Beobachtung bezeichnet "im Alltag und in der Wissenschaft die gezielte visuelle Wahrnehmung sozialer Situationen und Vorgänge". (ATTESLANDER,1993:93) Grundfragen der Beobachtung: • Was soll beobachtet werden? • Wie soll beobachtet werden? • In welcher Form kann das Beobachtete aufgezeichnet werden? Alltagsbeobachtung – Wissenschaftliche Beobachtung Seite 6 Beobachtungsformen • Teilnehmende - nicht teilnehmende Beobachtung • Offene - verdeckte Beobachtung • Feldbeobachtung - Beobachtung im Labor • Unstrukturierte - strukturierte Beobachtung Grundkonzepte der Inhaltsanalyse Die folgenden Grundgedanken inhaltsanalytischer Vorgehensweise erscheinen uns zentral auch für die Entwicklung einer qualitativen Inhaltsanalyse: Einordnung in ein Kommunikationsmodell: Hier soll festgelegt werden, was das Ziel der Analyse ist, Variablen des Textproduzenten (dessen Erfahrungen, Einstellungen, Gefühle), der Entstehungssituation des Materials, des soziokulturellen Hintergrunds, der Wirkung des Textes. Regelgeleitetheit: Das Material wird, einem inhaltsanalytischen Ablaufmodell folgend, in Analyseeinheiten zerlegt und schrittweise bearbeitet. www.skriptenforum.net/psychologie 34 Kategorien im Zentrum: Die Analyseaspekte werden in Kategorien gefasst, die genau begründet werden und im Laufe der Auswertung überarbeitet werden (Rückkopplungsschleife). Gütekriterien: Das Verfahren will prinzipiell nachvollziehbar sein, seine Ergebnisse im Sinne eines Triangulationsansatzes mit anderen Studien vergleichbar machen und auch Reliabilitätsprüfungen einbauen. Zur Bestimmung der Interkoderreliabilität werden allerdings nur ins Projekt eingearbeitet Kodierer eingesetzt, auch argumentative Elemente eingebaut (Kann ich den Erstkodierer von der Angemessenheit meines abweichenden Auswertungsurteils überzeugen?) und die Ansprüche an Übereinstimmung heruntergeschraubt (COHENS Kappa über 0.7 als ausreichend). [7] Beobachtungsformen – Zusammenfassung (nach LAMNEK, 1995: 254) • Die wissenschaftliche Beobachtung unterscheidet sich von der alltäglichen dadurch, dass sie systematisch geplant, aufgezeichnet und analysiert wird und den Kriterien der Zuverlässigkeit und Gültigkeit genügen muss. • Die strukturierte oder standardisierte Beobachtung arbeitet mit vorab fixierten Beobachtungskategorien, die als Raster auf das zu beobachtende Verhalten angelegt werden, während die unstrukturierte Beobachtung offen für die Verhältnisse und deren Entwicklungen im sozialen Feld ist. • Bei der offenen Beobachtung ist den Beobachteten die Tatsache des Beobachtens bekannt, während bei der verdeckten Beobachtung die Forschungsabsicht verheimlicht wird. • Bei der teilnehmenden Beobachtung begibt sich der Forscher in das soziale Feld, wird Teil desselben und beobachtet aus dieser Rolle heraus. Bei der nicht teilnehmenden Beobachtung wird das Feld von außen durch den Forscher beobachtet. • Der Partizipationsgrad der Teilnahme im beobachteten sozialen Feld kann von aktiver bis zu passiver Teilnahme variieren. • Die Feldbeobachtung erfolgt in natürlichen Alltagssituationen der Beobachteten, während die Laborbeobachtung in einem künstlich geschaffenen Umfeld vorgenommen wird. Sozialwissenschaftliche Befragung Die Befragung ist eine Kommunikation zwischen zwei oder mehreren Personen. Durch verbale Stimuli (Fragen) werden verbale Reaktionen (Antworten) hervorgerufen. Das Ziel einer Befragung besteht einerseits in der Deskription und andererseits in der Entdeckung und/oder Prüfung von Zusammenhängen. Es werden zwar individuelle Daten gesammelt, für die Sozialforschung sind aber die nach Typen oder Gruppen zusammengefassten Ergebnisse von besonderem Interesse. Mit dem Mittel der Befragung wird nicht soziales Verhalten insgesamt, sondern lediglich verbales Verhalten erfasst. Arten von Befragungen nach der Kommunikationsart • mündlich • schriftlich • telefonisch nach dem Standardisierungsgrad • nicht standardisiert • halbstandardisiert • standardisiert nach der Art der Durchführung • Einzelbefragung • Gruppeninterview nach der Häufigkeit • einmalige Befragung (Querschnittsanalyse) www.skriptenforum.net/psychologie 35 • mehrmalige Befragung (Längsschnittanalysen, Panel- und Trendanalysen) Standardisierung - kann sich beziehen auf die: • Frageformulierung • Antwortmöglichkeiten • Fragenreihenfolge • Interviewsituation Bei geringerer Standardisierung ist die Vergleichbarkeit der erhobenen Daten eingeschränkt. Z.B.: Sind unterschiedliche Antworten auf unterschiedliches Interviewerverhalten, unterschiedliche verbale Fertigkeiten, unterschiedliche Aufmerksamkeit etc. zurückzuführen? Befragungsformen (Überblick) Seite 14 www.skriptenforum.net/psychologie 36 Qualitative Interviews Als qualitative Interviews werden i.d.R. jene bezeichnet, die... - nicht oder teilstandardisiert sind, - in mündlicher Kommunikationsform erfolgen und - ausschließlich offene Frageformulierungen verwenden. Die Erhebung erfolgt zumeist nicht an größeren, und repräsentativen Stichproben sondern häufiger an theoretisch ausgewählten Fällen. Arten: Narratives Interview, Leitfadeninterview, ... Standardisierte Befragung Mündliche oder schriftliche Befragung mittels eines standardisierten Fragebogens. Bei einem völlig strukturierten Interview werden alle Fragen mit vorgegebenen Antwortkategorien in festgelegter Reihenfolge gestellt. Im Idealfall sollten die Antwortreaktionen (und damit die Daten) unabhängig davon sein, wer das Interview durchführt bzw. auswertet. Voraussetzung ist ein erhebliches Vorwissen über die zu erforschende soziale Situation. Seite 18 Zentralität "Unter Zentralität ist zu verstehen einerseits der Grad der Betroffenheit, andererseits der Bezug zu wesentlichen existenziellen Überzeugungen und Glaubensvorstellungen". (Atteslander 1993, 140) Beispiel geringe Zentralität: "Wie zufrieden sind Sie mit Ihrem Leben?" "Wie religiös sind sie?" Seite 19,20 Quellen der Antwortverzerrung • Befragtenmerkmale (soziale Wünschbarkeit, „Meinungslosigkeit“, systematische Antwortmuster...) • Fragenmerkmale (Formulierung, Antwortkategorien, Suggestivfragen, Fremddimensionen, Positionseffekte...) • Merkmale des Interviewers/der Interviewsituation (Geschlecht, Kleidung, Alter, Anwesenheit Dritter, Fälschung von Interviews.....) Interviewerverhalten /Situationskonstrolle Interviewer sollten geschult werden und sollten das Instrument in gleicher Weise anwenden. Die Befragungssituationen sollten weitgehend gleichartig gehalten werden. Einige Richtlinien zur Frageformulierung Fragen - Einfache Wortwahl (allg. verständlich, keine Fachausdrücke, Abkürzungen, ...) - keine Suggestion - keine Stereotype - Vermeiden hypothetischer Fragen - keine doppelte Verneinung - keine Überforderung - Eindimensionalität Antwortmöglichkeiten - Symmetrie der Ausprägungen - Eindimensionalität der Ausprägungen - disjunkt, erschöpfend, präzise Fragebogen-Dramaturgie • Interesse für das Thema durch gute „Eisbrecherfragen“ wecken. www.skriptenforum.net/psychologie • • • • • • 37 Fragebögen in Themenblöcke untergliedern Chronologisch sinnvolle Abfolge Überleitungen formulieren (ev. "trichtern") Einsatz von Filterfragen um unnötige Fragen zu vermeiden "Schwierige" Fragen in die Mitte des Fragebogens "Sensible" und demografische Fragen an den Schluss Standardisierte Befragung Arbeitsschritte: 1. Formulierung der Fragestellung 2. Auflösen des Forschungsgegenstands in ein Modell operationalisierbarer Variablen 3. Einsatz explorativer Techniken um das Primärwissen über den Gegenstand zu erweitern 4. Fragebogenkonstruktion 5. Pretest 6. Stichprobenkonstruktion 7. Durchführung der Befragung 8. Aufbereitung der gewonnen Daten 9. Auswertung 10. Bericht Seite 26 a) Zusammenfassende Inhaltsanalyse will das Material so reduzieren, dass die wesentlichen Inhalte erhalten bleiben, aber ein überschaubarer Kurztext entsteht. Das Verfahren bietet sich immer dann an, wenn man nur an der inhaltlichen Ebene des Materials interessiert ist und eine Komprimierung benötigt (Mayring 2000, 472). [Arbeitsschritte Paraphrasierung; Generalisierung auf das gewählte Abstraktionsniveau; Reduktion 1: Beseitigung von Redundanzen im Interview; Reduktion 2: fallübergreifende Zusammenfassungen] b) Explizierende Inhaltsanalyse will das Gegenteil der zusammenfassenden Analyse: Zu einzelnen unklaren Textbestandteilen soll zusätzliches Material herangezogen werden, um die Textstellen verständlich zu machen. Grundgedanke: systematisches, kontrolliertes Sammeln von Explikationsmaterial (Mayring 2000,473).[Arbeitsschritte lexikalisch-grammatikalische Definition; Bestimmung des Explikationsmaterials; enge Kontextanalyse mit direkter Beziehung zur Textstelle; weite Kontextanalyse; explizierende Paraphrase; Überprüfung] c) Strukturierende Inhaltsanalyse ist die zentralste inhaltsanalytische Technik. Sie will bestimmte Aspekte aus dem Material herausfiltern, will unter vorher festgelegten Ordnungskriterien einen Querschnitt durch das Material legen oder das Material unter bestimmten Kriterien einschätzen. (Mayring 2000, 473). >formale Strukturierung: nach formalen Strukturierungsgesichtspunkten kann eine innere Struktur herausgearbeitet werden >inhaltliche Strukturierung: Material kann zu bestimmten Inhaltsbereichen extrahiert und zusammengefaßt werden >typisierende Strukturierung: man kann auf einer Typisierungsdimension nach markanten Ausprägungen im Material suchen und diese genauer beschreiben >skalierende Strukturierung: das Material kann nach Dimensionen in Skalenform eingeschätzt werden qualitative Inhaltsananlyse: www.skriptenforum.net/psychologie 38 Qualitative Erhebungsmethoden bieten umfassende Möglichkeiten, über einen wenig erforschten Bereich Wissen zu erwerben bzw. vorhandenes Wissen zu vertiefen. Qualitative Methoden können in der Forschung sehr vielfältig eingesetzt werden: Ideengewinnung und exploratives Sondieren Erkunden von Detailwissen (z.B. Experteninterviews) Erforschung von Argumentationsmustern und -ketten Erhebung spezifischer sprachlicher Ausdrucksformen zu einem Bereich Erforschung von Reaktionen auf Stimuli (z.B. auf Begriffe, Artikel, Produkte etc.) Häufig werden qualitative Erhebungen als Vorbereitung von oder in Kombination mit quantitativen Umfragen eingesetzt. Mittels der Methode der Inhaltsanalyse werden Texte und Bilder, aber auch TV- und Radiosendungen einer quantitativen oder qualitativen Analyse unterzogen. Insbesondere werden oft Gruppendiskussionen zum Gegenstand von Inhaltsanalysen. Dabei werden Kommunikationsinhalte jeder Art nach festgelegten Regeln in Kategorien klassifiziert. In dieser konventionellen Inhaltsanalyse wird mit erfahrenen und geschulten Kodierkräften gearbeitet. Die qualitative Inhaltsanalyse bezieht auch Kommunikationsinhalte, die nicht explizit ausgesprochen werden, in die Analyse ein. Durch eine systematische Interpretation wird die inhaltliche Bedeutung von Aussagen ermittelt, ohne das Material auf quantifizierbare Aussagen zu reduzieren. Bei der Analyse von explorativen Einzelinterviews und Gruppendiskussionen wird zumeist das Instrumentarium der qualitativen Inhaltsanalyse eingesetzt. Die meisten Verfahren der herkömmlichen ("quantitativen") Inhaltsanalyse beruhen darauf, das (teilweise: gemeinsame) Auftreten bestimmter Worte zu erfassen, zu quantifizieren und zu zählen. Es kann aber auch um andere Textmerkmale gehen, etwa grammatikalische Konstruktionen, rhetorische Wendungen. Fast noch mehr als bei anderen sozialwissenschaftlichen Verfahren ist hier der Gegensatz zwischen "qualitativen" und "quantitativen" Verfahren tendenziell nur scheinbar: Insoweit Inhaltsanalysen nicht ausschließlich im Zählen von Worten, Satzkonstruktionen etc. bestehen, kommt auch eine quantitative Analyse nicht ohne qualitative Elemente aus, ja hat diese fast stets zur Voraussetzung. Daher geht es meist nur um unterschiedliche Akzentsetzungen: Qualitative Analysen versuchen, den Prozeß des Verstehens bzw. der hermeneutischen Analyse und der Explikation von Sinn möglichst umfassend nachzuvollziehen, während quantitative Analysen eher versuchen, die erfaßten Sinngehalte in Form von Häufigkeiten bzw. Assoziationsmustern auszuwerten, um so zu statistisch analysierbaren Vergleichen, Trendmustern etc. zu kommen. www.skriptenforum.net/psychologie 39 Kategorie Definition Ankerbeispiele K1: hohes Selbstvertrauen Hohe subjektive Gewissheit, mit der Anforderung gut fertig geworden zu sein, d.h. Sicher hats mal ein Problemchen gegeben, aber das wurde dann halt ausgeräumt, entweder von mir die Einsicht, oder vom - Klarheit über die Art der Schüler, je nachdem, wer den Anforderung und deren Fehler gemacht hat. Fehler macht ja ein jeder. Bewältigung, Kodierregeln Alle drei Aspekte der Definition müssen in Richtung hoch weisen, es soll kein Aspekt auf nur mittleres Selbstvertrauen schließen lassen Positives, Ja klar, Probleme gabës Kodierung hoffnungsvolles Gefühl natürlich, aber zum Schluß Sonst beim Umgang mit der hatten wir ein sehr gutes mittleres S. Verhältnis, hatten wir uns Anforderung, zusammengerauft. Überzeugung, die Bewältigung der Anforderung selbst in der Hand gehabt zu haben. teilweise oder Ich hab mich da einigermaßen K2: mittleres Nur Selbstvertrauen schwankende Gewissheit, durchlaviert, aber es war oft mit der Anforderung gut eine Gratwanderung. fertig geworden zu sein Mit der Zeit ist es etwas besser geworden, aber ob das an mir oder an den Umständen lag. Weiß ich nicht. Wenn nicht alle drei Definitionsaspekte auf hoch oder niedrig schließen lassen K3: niedriges Überzeugung, mit der schlecht Selbstvertrauen Anforderung fertig geworden zu sein, d.h. Alle drei Aspekte deuten auf niedriges Selbstvertrauen, auch keine Schwankungen erkennbar - wenig Klarheit über die Art der Anforderung, negatives, pessimistisches Gefühl beim Umgang mit der Anforderung, Überzeugung, Umgang mit den der das hat mein Selbstvertrauen getroffen; da hab ich gemeint, ich bin eine Null &endash; oder ein Minus. www.skriptenforum.net/psychologie Anforderung nicht selbst in der Hand gehabt zu haben. 40 www.skriptenforum.net/psychologie 41 Die Transkription als die verschriftlichte Aufzeichnung von Audioaufnahmen oder audiovisuellen Aufnahmen zur Gesprächsanalyse folgt bestimmten Prinzipien und Kriterien. Weil das Standard-Schriftsystem für die verschriftlichte Analyse sprachlicher Interaktionen nicht ausreicht, wurden vielerorts unterschiedliche Transkriptionssysteme entwickelt, die auf z. T. sehr verschiedenen Notationskonventionen beruhen. Die beiden wichtigsten Formen der Transkription sind: Partiturnotation und Textnotation Die Partiturnotation bzw. Partitur-Schreibweise ist in der deutschen Gesprächslinguistik weit verbreitet (z.B. HIAT = Halbinterpretative Arbeitstranskription). Dabei wird analog zur Notendarstellung in einem Musikstück verfahren, bei der die in verschiedenen Notenzeilen übereinander stehenden, in einem Akkord zusammengefassten Noten gleichzeitig gespielt werden müssen. Denn bei der Notation von Gesprächen werden analog dazu die gleichzeitig stattfindenden Kommunikationsereignisse in parallel zu lesenden, untereinander angeordneten Zeilen festgehalten. (am Rand der Zeile angebrachte Klammern zusätzlich signalisiert, welche bzw. wie viele Zeilen parallel zu lesen). Dadurch kann der gesprochene Text in einer eigenen Zeile notiert werden und die Zeilen darüber und darunter können Angaben zu den nonverbalen Bestandteilen der Kommunikation enthalten. Die Vorteile der Partiturnotation liegen auf dem Gebiet der übersichtlichen Darstellung interaktiver Strukturen. Sind Partitursysteme jedoch schwerer lesbar. (vgl. Brinker/Sager 1989, S.41) Die Textnotation Bei der Textnotation werden die Beiträge der einzelnen Sprecher in einzelnen Textblöcken untereinander notiert. Vor jeden dieser Textblöcke wird die anonymisierte Bezeichnung für den jeweiligen Sprecher, die Sprechersigle, festgehalten. Mit den Transkriptionskonvention des Gesprächsanalytischen Transkriptionssystems (GAT) und ihren Grundsätzen und Kriterien hat die Textnotation wieder eine weite Verbreitung gefunden. Regeln für die Verschriftlichung (Transkription) mündlicher Kommunikation. Je nach Ziel und Zweck der Analyse können relativ einfache (und damit vereinfachende), aber auch sehr komplexte T. zum Einsatz kommen. Wichtige Merkmale, die in T. berücksichtigt werden können, sind u. a.: Lautgestalt (soll das gesprochene Wort in der Hochsprache transkribiert, soll gegebenenfalls Dialekt angedeutet, oder soll eine exakte Lautschrift verwendet werden?); Anschlüsse (z. B. Überlappungen zwischen Äußerungen zweier oder mehrerer Sprecher); Redepausen und gegebenenfalls deren (ungefähre oder exakte) Länge; Lautstärke (besonders leise oder besonders laut gesprochene Passagen); Betonung; Intonation (Steigen oder Sinken der Stimme); Dehnungen; Wortabbrüche (nur begonnene, aber nicht vollständig ausgesprochene Worte). Weiterhin müssen u. U. erfasst bzw. gekennzeichnet werden: Unverständliche oder nicht sicher verstandene Äußerungen; Parasprachliche Äußerungen wie Lachen, Stöhnen etc.; u. U. weitere Merkmale der Kommunikationssituation, die für ein Verstehen der Äußerungen; (bzw. der Transkription) von Bedeutung sein können (z. B.: Hinzukommen Dritter, Störungen durch externe Geräusche, u.v.a.m.). www.skriptenforum.net/psychologie 42 Anwendungsbeispiele Hier sollen nun einige Anwendungsbeispiele qualitativer Inhaltsanalyse angeführt werden, die die verschiedenen Vorgehensweisen verdeutlichen können. Sandro VICINI (1993) hat 14 ausführliche offene Interviews mit ErziehungsberaterInnen zu konkreten Behandlungsfällen geführt, um subjektive Beratungstheorien herauszufiltern. Eine zusammenfassende qualitative Inhaltsanalyse zu 8 Hauptkategorien wurde durchgeführt. Er konnte eine starke Therapeutisierung der Beratung, einen großen Pluralismus der Beratungskonzepte und einen hohen Ausbildungsstand der BeraterInnen belegen. [20] Christa GERWIN (1994) hat eine offene Tagebuchstudie mit 21 LehrerInnen der Sekundarstufe I über ihre täglichen Sorgen und Highlights durchgeführt und mit zusammenfassender qualitativer Inhaltsanalyse ausgewertet. Sie konnte zeigen, dass das Lehrerdasein von erheblichen Belastungen, von alltäglichem Ärger mit Kopiergeräten bis hin zum Umgang mit erziehungsschwierigen Kindern, geprägt ist. [21] Klaus BECK und Gerhard VOWE (1995) haben aus 25 einschlägigen Medienprodukten (Texten aus Tageszeitung, Wochenpresse und Rundfunk) Argumentationsmuster zum Thema Multimedia mit qualitativer Inhaltsanalyse herausgearbeitet. Durch eine Kombination induktiver und deduktiver Verfahrensweisen gelangten sie zu Argumentationsmustern wie Euphorie, ökonomischem Optimismus, politischer Kritik bis hin zu apokalyptischer Argumentation gegenüber der Multimediaentwicklung. [22] Claudia DOLDE und Klaus GÖTZ (1995) haben 5 offene Interviews mit TeilnehmerInnen eines innerbetrieblichen PC-Lernstudios an ihrem Arbeitsplatz durchgeführt und das Material mit zusammenfassender und strukturierender qualitativer Inhaltsanalyse bearbeitet, um ihr Lernvorgehen und die von ihnen gewählten Lernformen zu erheben. Zeitliche Flexibilität der Lernform stellte sich dabei als Vorteil, Heterogenität der Kursteilnehmer als Nachteil für das Lernen dar. [23] Joachim BAUER et al. (1998) haben Lebensläufe von 21 Alzheimer-Patienten nach gemeinsamen Merkmalen untersucht und mit einer Kontrollgruppe von 11 Patienten vergleichbaren Alters mit vaskulärer Demenz verglichen. Die biographischen Leitfadeninterviews wurden mit qualitativer Inhaltsanalyse ausgewertet und ergaben gemeinsame Merkmale, die zu typischen biographischen Mustern (z.B. fürsorgliche Bevormundung) der Alzheimer-Patienten zusammengefasst wurden. [24] Diskussion KRITIKMit der qualitativen Inhaltsanalyse sind Verfahrensweisen systematischer Textanalyse beschrieben worden, die Stärken der kommunikationswissenschaftlichen Inhaltsanalyse (Theoriegeleitetheit, Regelgeleitetheit, Kommunikationsmodell, Kategorienorientiertheit, Gütekriterien) nutzen, um qualitative Analyseschritte (induktive Kategorienentwicklung, Zusammenfassung, Kontextanalyse, deduktive Kategorienanwendung) methodisch kontrolliert vollziehen zu können. Dadurch werden auch die Verbindungslinien zu quantitativen Analyseschritten gezogen. [26] Die Verfahrensweisen finden dort ihre Einschränkungen und Grenzen, wo entweder die Fragestellung offener, explorativer, variabler ist und der Bezug zu festen Kategorien als Beschränkung erschiene, oder wo ganzheitlicherer, nicht zergliedernd-schrittweiser Analyseablauf angestrebt wird. Allerdings lassen sich die beschriebenen Verfahrensweisen auch gut mit anderen qualitativen Ansätzen kombinieren. Dabei sollte immer die Fragestellung der Studie und die Charakteristik des zu untersuchenden Materials das Primat haben, nicht der Methode der Analyse. Deshalb wäre es m.E. auch sinnvoller, Methodenfragen immer in Bezug auf bestimmte www.skriptenforum.net/psychologie 43 Gegenstandsfelder zu diskutieren (z.B. zur Krankheitsbewältigungsforschung vgl. MAYRING 1994b; zur Emotionsforschung vgl. SCHMITT & MAYRING 2000) und hier dann methodenvergleichend (auch unter Einbeziehung quantitativer Ansätze) vorzugehen. [28] Vorgehensweise qualitativer Inhaltsanalyse Die oben aufgeführten Bausteine quantitativer Inhaltsanalyse sollen beibehalten werden, um darauf qualitative Verfahren aufzubauen. Im Zentrum stehen dabei zwei Ansätze, induktive Kategorienentwicklung und deduktive Kategorienanwendung (vgl. zum Folgenden und zu weiteren Ansätzen MAYRING 2000). [8] Induktive KategorienentwicklungDie Darstellungen zur klassische Inhaltsanalyse schweigen sich zum Problem, woher denn ihre Kategorien kommen, wie sie entwickelt werden, weitgehend aus: "How categories are defined ... is an art. Little is written about it." (KRIPPENDORFF 1980, S.76) [9] Im Rahmen qualitativ orientierter Ansätze ist aber gerade dies wichtig, die Auswertungsaspekte nahe am Material, aus dem Material heraus zu entwickeln. Hier ist im Rahmen qualitativer Inhaltsanalyse ein Prozedere induktiver Kategorienentwicklung vorgeschlagen worden, das sich an systematischen Reduktionsprozessen orientiert, die im Rahmen der Psychologie der Textverarbeitung (vgl. BALLSTAEDT, MANDL, SCHNOTZ & TERGAN 1981; van DIJK 1980) beschrieben wurden. [10 Die einzelnen Schritte können hier nicht genauer ausgeführt werden. Grundgedanke ist, aus der Fragestellung der Studie abgeleitet und theoretisch begründet ein Definitionskriterium festzulegen, das bestimmt, welche Aspekte im Material berücksichtigt werden sollen, und dann schrittweise das Material danach durchzuarbeiten. Die entwickelten Kategorien werden in einer Rückkopplungsschleife überarbeitet, einer Reliabilitätsprüfung unterzogen, und können später auch zu Überkategorien zusammengefasst und je nach Fragestellung auch nach quantitativen Aspekten ausgewertet werden. [12