Empirische Forschungsmethoden – Fragenkatalog WS 2009/2010 Sophia Buchner Erste Vorlesung (19.10.2009) 1. Worin besteht der Hauptunterschied zwischen wissenschaftlich fundiertem Wissen und Alltagsbehauptungen? Wissenschaftlich fundiertes Wissen ist besser begründet und geordnet als Alltagswissen. Wissenschaft verwendet bessere Methoden bei der Erkenntnisgewinnung & -absicherung. 2. Was zeichnet die Psychologie als empirische Wissenschaft aus? Hypothesen und Theorien werden nicht nur durch grundlegende Überlegungen und Diskussionen überprüft, sondern v.a. an gezielt ausgewählten Erfahrungsdaten Antworten, Messungen, Testergebnisse usw. aus systematischen Beobachtungen, Experimenten, Befragungen… 3. Erläutern Sie Gütekriterien von wissenschaftlichen Erklärungen. Wissenschaftliche Erklärungen sind… - vernunftgeleitet (sie folgen den Regeln der Logik) - empirisch (sie beruhen auf Erfahrungsdaten) - widerspruchsfrei - überprüfbar und testbar (sie können durch Erfahrungsdaten verifiziert bzw. falsifiziert (!) werden - einfach (sie ordnen und systematisieren Erfahrungen) - allgemeingültig (beinhalten mdst. 1 Allgemeinaussage) - vorläufig (sie sind approximativ und unvollkommen) - unter Rechtfertigungsdruck (sie stehen im Wettbewerb mit alternativen Theorien –gut!) Zweite Vorlesung (27.10.2009) 4. Beschreiben Sie die vier Aufgaben der Psychologie (nach Schneewind). 1. Beschreiben (möglichst umfassende und unvoreingenommene Beschreibung menschl. Verhaltens- und Erlebensweisen) 2. Erklären (Ursachen / Bedingungen von Verhaltensweisen oder –änderungen) 3.Vorhersagen (Kenntnis von Verhaltensbedingungen erlaubt Verhaltensprognose) 4. Verändern (verhaltensändernde Wirkung von Wissenschaft) 5. Was ist mit einer Theoriegetränktheit von Beobachtungen und Erfahrungen gemeint? Beobachtungen sind theoriegetränkt, d.h. man geht nicht völlig neutral und ohne Erwartung an die Beobachtung heran. Die Theorie stets im Hinterkopf erwartet man ein bestimmtes Ergebnis und trifft so eine Vorselektion von Beobachtungen es gibt keine absolute objektive Forschung! 6. Welche grundlegenden Schritte kennzeichnen wissenschaftliches Arbeiten in der Psychologie (mit Fragestellung als Ausgangspunkt)? 1. Entwicklung einer Forschungsfrage 2. Abduktion: Aufstellen einer Theorie 3. Deduktion: Ableiten von Folgerungen (Hypothese) 4. Wahl eines Versuchsdesigns (Experiment / Befragung / …) 5. Durchführung des Versuchs 6. Analyse der Daten (SPSS) 7. Induktion: Interpretation, und Bericht 8. Integration in Hinblick auf die Ausgangsfrage und Entwicklung fortführender Fragestellung 1 7. Was besagt das Unabschließbarkeitstheorem von Kurt Gödel? Es ist unmöglich, wissenschaftliche Systeme rational aus sich selbst heraus zwingend zu begründen. Jedes System von Aussagen (Theorie) enthält Sätze, auf die es aufbaut und die nicht mehr innerhalb dieser Theorie bewiesen oder belegt werden können. 8. Was ist mit absoluten Voraussetzungen eines wissenschaftlichen Programms gemeint Absolute Voraussetzungen sind jene Sätze, auf die eine Theorie aufbaut und die nicht mehr innerhalb dieser Theorie bewiesen oder belegt werden können, z.B. - die Natur und ihre Gesetzmäßigkeiten sind durch Vernunft und vernunftgeleitetes Handeln erkennbar - die Natur ist in kleinster Entitäten materieller Natur aufteilbar (Moleküle) - das Auftreten komplexer Strukturen kann durch die Kombination verschiedener Einzelelemente erklärt werden 9. Was meint Ludwik Fleck mit „Denkstilen“ und „Denkkollektiven“ in der Wissenschaft? Denkstil: Ausbildungs- und Wahrnehmungstradition eines Denkkollektivs Denkkollektiv: Gemeinschaft von Wissenschaftlern, die in einer gemeinsamen Wissenschaftstradition stehen. 10. Worin sieht Wilhelm Dilthey den entscheidenden Unterschied zwischen Natur- und Geisteswissenschaften? „Die Natur erklären wir, das Seelenleben verstehen wir“ Natur- und Geisteswissenschaften sind unvereinbar Unterschiede: Naturwissenschaft ist erklärend, generalisierend; Geisteswissenschaften sind verstehend, einfühlend, beschreiben das Individuum 11. Welche grundlegenden Methoden werden Natur- und Geisteswissenschaften zugewiesen, und wie wird diese Zuweisung begründet? Dilthey unterscheidet zwei psychologische Erkenntnisweisen, nämlich die an der naturwissenschaftlichen Methode orientierte erklärende und konstruktive Psychologie, und die beschreibende und zergliedernde Psychologie Naturwissenschaften: kontrollierte, systematische Beobachtungen (versucht, seelische Erscheinungen aus einem Kausalzusammenhang abzuleiten, Suche nach allgemeinen Gesetzen) Geisteswissenschaften: Verstehen, interpretative, hermeneutische Methoden (Hermeneutik = Auslegung von Texten, Zeichen o.Ä.) 12. Erklären Sie Gründe und Argumente, warum eine Unterscheidung zwischen Natur- und Geisteswissenschaften für die Psychologie nicht nutzbringend ist. Psychologie ist weder eine reine Geisteswissenschaft noch eine reine Naturwissenschaft, befasst sich sowohl mit Themen aus den Naturwissenschaften (körperlich-manifeste Abläufe und Prozesse), als auch mit Themen aus den Geisteswissenschaften (mental-immaterielle Zustände und Abläufe) 13. Worin unterscheiden sich nomothetische und idiographische Vorgehensweisen? Der nomothetische Ansatz sucht nach allgemeinen Gesetzen, der idiographische Ansatz hingegen befasst sich mit individuellen Beschreibungen. Gruppe Individuum Dritte Vorlesung (02.11.2009) 14. Wodurch entsteht ein Werteproblem für die wissenschaftliche Psychologie? Verhältnis von Praxis / Anwendung von wissenschaftlichen Erkenntnissen in Alltag, Gesellschaft, Politik und Wissenschaft: Einerseits Forderung nach einer objektiven (wertfreien) wissenschaftlichen Erkenntnisgewinnung, andererseits werden wissenschaftliche Erkenntnisse an ihrem Nutzen für die praktische Lebensführung gemessen 2 15. Nennen Sie Beispiele, wie Interessenskonflikte die Freiheit von Forschung und Lehre beeinträchtigen können. Einflussnahme der Wirtschaft / Politik auf die Wissenschaft: drängende Probleme fordern wissenschaftliche Untersuchungen / Verbesserungen und werden folglich besser finanziell unterstützt 16. Inwieweit ist die wissenschaftliche Psychologie ein soziales und kollektives Unternehmen? - Aufnahme in die Wissenschaftlergemeinde (z.B. durch Studium), - Akzeptanz von z.B. Studien durch Rezeption von Theorien / Meinungen Zitationen, Preise etc. - sozialer Austausch durch Publikationen, Vorträge, Kooperationen (Qualitätssicherung durch Wettstreit von Ideen / Theorien / Ergebnissen, Begutachtung durch andere Wissenschaftler vor Herausgabe) 17. Nennen und erläutern Sie drei grundlegende ethische Prinzipien der psychologischen Forschung. 1. Prinzip der Autonomie: - Informierte Zustimmung vor dem Experiment (Ziele der Studie, Dauer, Methoden) - Aufklärung in verständlicher Form - Freiwilligkeit der Teilnahme - Schutz der Privatsphäre (keine Verbindung Person-Daten) 2. Prinzip der Nichtschädigung und des Nutzens - Minimierung des Schadens (psychisch & physisch) - Positive Nutzen-Risiken-Bilanz (Rechtfertigt der Aufwand den Nutzen des Experiments? Vorselektion bei manchen Experimenten in Hinblick auf Ängstlichkeit, Vorgeschichte bei z.B. psychischen Störungen) 3. Prinzip der Gerechtigkeit - gerechte Auswahl & Behandlung von Vpn (man darf nicht schon vorher bestimmte Gruppen ausschließen, es sei denn, es ist rational begründbar; gleiche Behandlung von VG bei z.B. neuer Behandlung / Therapie) - Kompensation Vierte Vorlesung (09.11.2009) 18. Womit beschäftigt sich die Erkenntnistheorie? Erkenntnistheorie = Epistemologie Beschäftigt sich mit Möglichkeiten, Bedingungen und Grenzen der Erkenntnis und des Wissens Wie ist Erkenntnis möglich? (Methodik der Erkenntnisgewinnung) Was können wir wissen? (Objekt der Erkenntnisgewinnung) 19. Nennen Sie die vier grundlegenden erkenntnistheoretischen Positionen, die sich jeweils paarweise gegenüberstehen. Welche erkenntnistheoretischen Fragen werden von welchem Paar adressiert? Realismus vs. Idealismus (Was können wir erkennen?) Rationalismus vs. Empirismus (Wie können wir erkennen? = Methodenfrage) 20. Welche Grundannahme kennzeichnet den Realismus? Existenz einer von uns unabhängigen Außenwelt, die wir durch Wahrnehmung / Denken erkennen können (=Materialismus) Naiver Realismus: Außenwelt beeinflusst direkt unsere Sinneseindrücke Kritik: optische Täuschungen; Wahrnehmungsillusionen; Erfahrungen und Einstellungen prägen die Wahrnehmung (Subjektivität); verschieden gewichtete Aufmerksamkeit (selektive Wahrnehmung); Wahrnehmungskonstruktionen (Liebe – nicht nachweisbar, also gibt es sie nicht?) 3 21. Welche Grundannahme kennzeichnet den Idealismus. Es gibt nur eine geistige Wirklichkeit und die uns bekannten Dinge sind nichts anderes als Gebilde von Vorstellungen. (Wahrnehmungskonstrukte) Radikaler Idealismus: Existenz einer ’Ideenwelt’, Wahrnehmung bestimmt, was das Objekt ist! (Bsp: es gibt den Baum nicht, nur die Idee) es gibt keine subjekt-unabhängige Außenwelt! Kritischer Idealismus: es gibt etwas Materielles, welches die Ideen bestimmt 22. Heben Sie die wesentlichen Unterschiede zwischen erkenntnistheoretischen Positionen des Realismus und des Idealismus hervor. Gewichtung der Erkenntnisgewinnung Varianten Realismus Erkenntnis richtet sich nach dem Objekt Existenz einer von uns unabhängigen Außenwelt (durch Wahrnehmung und Denken erkennbar) Begriffe einer wissensch. Theorie beziehen sich auf reale Entitäten Wissenschaft als Annäherung an die Realität (Wahrheit, wirklichkeitstreue Wiedergabe) naiver, kritischer, struktureller Realismus Idealismus Erkenntnis richtet sich nach dem Subjekt Es gibt keine subjektunabhängige Außenwelt, alle uns bekannten Dinge sind nur Wahrnehmungskonstrukte. (radikaler I.) “Die Welt ist meine Erscheinung“ (kritischer I.) radikaler, kritischer Idealismus 23. Erklären Sie die Position des Empirismus mit dem damit verbundenen Theorieverständnis. Empirismus: = eine erkenntnistheoretische Position und bedeutet nicht empiristisches Arbeiten. = Die Sinneserfahrung ist die alleinige oder zumindest die wichtigste Quelle der Erkenntnisgewinnung. („tabula rasa“) Der Verstand kann die Erkenntnis ordnen/verallgemeinern (induktive Schlüsse) Methode der Erkenntnisgewinnung: Induktives Vorgehen = von den Beobachtungen zu den Theorien (Beobachtung Phänomene, Zusammenfassung der Resultate in Theorien) 24. Erklären Sie die Position des Rationalismus mit dem damit verbundenen Theorieverständnis. Rationalismus: = geht davon aus, dass Form und Inhalt allen Wissens primär im Verstand begründet ist. Durch Denken können wir die Wirklichkeit erkennen. = wissenschaftl. Theorie ist keine Sammlung voraussetzungsfreier Erfahrungen (Verstand gibt die Richtung vor) Methode: Deduktives Vorgehen = von den Theorien zu den Beobachtungen (Ableitung von Vorhersagen aus Theorien, Überprüfung an Untersuchungsergebnissen) 25. Beschreiben Sie grundlegende Unterschiede zwischen rationalistischen und empiristischen Positionen der Erkenntnisgewinnung. Beim Empirismus steht v.a. die Sinneserfahrung als mehr oder weniger alleinige Quelle der Erkenntnis im Vordergrund, während beim Rationalismus primär im Verstand das Wissen begründet ist. Im Empirismus ist die Methode der Erkenntnisgewinnung das induktive Vorgehen: von der Beobachtung wird auf die Theorie geschlossen. Beim Rationalismus ist es hingegen umgekehrt: ausgehend von einer Theorie werden Beobachtungen getätigt, die die Theorie bestätigen (deduktives Vorgehen). 4 26. Beschreiben Sie die Annahmen des Konstruktivismus und die Implikationen für die psychologische Forschung. Die Erkenntnisgewinnung wird von individuellen Erfahrungen, Begrifflichkeiten und Motiven beeinflusst, für jeden Menschen existiert eine individuelle Wirklichkeit (Konstruktion der „Wirklichkeit“) Schlussfolgerung: es gibt nicht eine „richtige“ Wirklichkeit, sondern jeweils nur individuelle Wirklichkeiten Implikation: Therapeut muss die individuelle Wirklichkeit des Patienten verstehen wie verhalten sich unterschiedliche Menschen in identischen Situationen? weg vom verobjektivierenden Wirklichkeitszugang hin zur qualitativen (nicht in Zahlen umsetzbar) und narrativen (erzählend beschreibend) Forschung. 27. Beschreiben Sie den Pragmatismus und sein „Wahrheitskriterium“ für Theorien. Der Pragmatismus sieht Theorien als Werkzeuge an – die darin enthaltenden wissen-schaftlichen Erkenntnisse werden nicht an ihrer Wahrheit gemessen, sondern an der Nützlichkeit für das alltägliche Leben (Wert für die praktische Lebensführung) „Wahrheitskriterium“: Nützlichkeit, Anwendbarkeit, Erfolg ‚Wahr ist das, was nützlich ist.’ 28. Erklären Sie den Skeptizismus. Grundidee: Verstand oder Erfahrung können keine Einsicht in grundlegende Wahrheiten geben. Der Zweifel ist der Freund der Wissenschaft (= wichtig, berechtigt) Ideal: kritische Hinterfragung aller wissenschaftlichen Aussagen (methodischer Zweifel) 29. Welche Position nimmt der „Nihilismus“ ein und welche Argumente wurden gegen diese Position vorgebracht? Nihilismus = Extremposition vom Skeptizismus Grundidee: absolute Werte (Moral) und jedwede Möglichkeit von grundlegenden Erkenntnissen (Wahrnehmung) werden verneint. Wissenschaft ist Zeit- und Ressourcenvergeudung Gegenargumente: Erfolge der Wissenschaft (Auto, Medizin) Logisches Problem: Wenn es keine absoluten Annahmen gibt, dann ist ja schon die Annahme, dass es keine absoluten Annahmen gibt, widersprüchlich! Fünfte Vorlesung (16.11.2009) 30. Welche grundlegenden Ideen gehen auf die Atomisten zurück, und inwiefern sind sie für die Psychologie von Bedeutung? Atomisten: Leukipp und Demokrit (Antike, ca. 400 v. Chr.) Grundideen: o Materialismus (nur Leere und Materie sind existent – keine Ideen) o Materie besteht aus unendlich vielen, unteilbaren Teilchen (gr. atomos) o Veränderung = Mischung, Entmischung, Kontakt, Abstand von Elementarteilchen o alles unterliegt naturwissenschaftlichen Gesetzen, alles geschieht mit Grund und aus Notwendigkeit (= Determinismus) 31. Beschreiben Sie das Höhlengleichnis von Platon. Welche Schlussfolgerungen lassen sich aus dem Höhlengleichnis auf die Möglichkeiten der Erkenntnisgewinnung ziehen? Gefesselte in einer Höhle betrachten Schatten von Gegenständen auf der Höhlenwand und halten diese Schattenbilder für die Wirklichkeit. Wenn sie von ihren Fesseln befreit werden und den Rest der Welt sehen, erkennen sie die „wirklichen“ Gegenstände = Erkenntnis. Schlussfolgerung: Existenz einer von uns unabhängigen Ideenwelt, die den wirklich existierenden und realen Gegenständen ihr Wesen geben, auch wenn dies nicht der Realität entspricht. Um Erkenntnis gewinnen zu können, muss der Mensch sich von seinen Fesseln befreien und „hinter die Dinge schauen“, „nicht nur das Vordergründige betrachten“ 5 32. Was ist „Ockhams Rasiermesser“? Sparsamkeit als methodisches Leitprinzip: * von mehreren Theorien, die den gleichen Sachverhalt erklären, ist die einfachste allen anderen vorzuziehen * Theorie soll im Aufbau der inneren Zusammenhänge möglichst einfach gestaltet sein Theorie so kompliziert wie nötig und so einfach wie möglich 33. Nennen Sie die vier Arten von Idolen, die nach Francis Bacon zu einer Verzerrung der Wahrnehmung und der Erkenntnismöglichkeiten führen können. o Idole des Stammes (idola tribus): Vorgeformtheit durch die kulturelle und gattungsmäßige Zugehörigkeit ( psychische und physische Einschränkungen (Beschränktheit der Sinnesorgane)) o Idole der Höhle (idola specus): Erkenntniseinschränkung durch die individuelle Beschaffenheit der Person (Sozialisation, Vorurteile etc.) o Idole des Marktes (idola fori): Verzerrung durch sprachliche Gepflogenheiten (sprachliche, abstrakte Konstrukte) und den „gesunden“ Menschenverstand o Idole des Theaters (idola theatri): Beeinflussung durch Dogmen der Philosophie und dem Zeitgeist (Naturwissenschaften haben z.Z. die Deutungsmacht) 34. Warum ist nach Francis Bacon ein experimentelles Vorgehen in der Erkenntnisgewinnung wichtig? Das Experiment ist methodische Hilfe für unsere Sinne und unseren Verstand. Die Natur gibt die Wahrheit nicht ungebeten preis, deshalb ist ein aktives Eingreifen nötig (Experiment stellt Frage an die Natur) 35. Worin begründet René Descartes den berühmten Spruch „Ich denke, also bin ich.“? Descartes trennt den Geist von der Materie als grundlegend verschiedene Wesenheiten und sieht den Zweifel, also das Denken, als absolute Sicherheit an. Nur der Akt des Denkens (Zweifel) beweist die eigene Existenz. 36. Was ist der cartesianische Schnitt? Welches Paradigma des Lebendigen wurde damit eingeführt? Cartesianischer Schnitt = Trennung von Geist und Körper (Leib-Seele-Dualismus) Einführung Maschinenparadigma des Organismus Organismus als komplizierte Automaten, der gesetzmäßigen Regelmäßigkeiten folgt, wird auch heute noch auf den Geist angewendet, dabei ist der Geist als eigene Substanz überflüssig (aber: psychische Phänomene sind davon ausgeschlossen!) 37. Beschreiben Sie Auswirkungen des ontologischen Dualismus von René Descartes auf das heutige Verständnis der Psychologie. Ontologischer Dualismus: geistiges Sein / materielles Sein durchzieht bis heute die Wissenschaft Psychologie folgt bis heute dem Maschinenmodell des Lebendigen o Annahme, dass auch menschliches Verhalten und Geistiges Gesetzmäßigkeiten folgt als eine Voraussetzung für psychologische Forschung und der Suche nach diesen Gesetzmäßigkeiten o Dualismus machte den Geist, losgelöst vom Körper, zu einer eigenen Wesenheit und damit zum Objekt von Erkenntnis o Psychologie befasst sich einerseits mit der Materie und andererseits mit psychischen Vorgängen (Geist), die oft nicht aufeinander zurückführbar sind zwei unterschiedliche Annahmen über Verhältnis Körper und Geist: o Körper und Geist beeinflussen sich gegenseitig (Interaktionismus) o Körper und Geist gehen harmonisch und gleichsinnig einher (Parallelismus), z.B. Entscheidungen treffen, Motivation etc. 6 38. Welche Leitmetapher innerhalb der Psychologie wurde von Isaac Newton maßgeblich geprägt? Universum als kausales Kraftgefüge (Fortschreibung der Mechanisierung des Weltbildes), Berechenbarkeit und Vorhersagbarkeit des mechanischen Systems (Determinismus); Ziel: Universum und Natur vorhersagbar machen Ideal einer durchgängig kausalen Naturbeschreibung: Aktion Reaktion ( = auch Leitmetapher innerhalb der Psychologie) 39. Welche Grundannahme kennzeichnet den englischen Empirismus? Vertreter: David Hume, John Locke Das grundlegende Material des Geistes sind Sinneseindrücke und daraus abgeleitete Ideen. Alle Erkenntnis wird von Erfahrungen beeinflusst, am Anfang des Lebens ist der menschl. Geist ein unbeschriebenes Blatt („tabula rasa“) Einzigartigkeit des Individuums durch einzigartige Kombination von Erfahrungen Wahrnehmungen aktivieren über Assoziationen Ideen und andere Wahrnehmungen 40. Welches Argument wurde gegen den englischen Empirismus hauptsächlich vorgebracht? Induktionsprinzip: aus Einzelwahrnehmungen erschließen sich Allgemeinbegriffe, es wird aber nicht geklärt, woher das Induktionsprinzip kommt! Wenn alles aus Einzelwahrnehmungen kommt, wie kann dann der Mensch verallgemeinern? 41. Was meint Immanuel Kant mit „transzendentalen Kategorien“? = Kategorien, die nicht aus Einzelerfahrungen ableitbar sind, sondern ihnen vorangehen; A-priori Voraussetzungen des Erkennens, die bei allen Menschen und zu allen Zeiten gleichermaßen gegeben sein müssen: o Raum, o Zeit, o Kausalität, o Relation, etc. machen Wahrnehmung möglich, sind angeboren, nicht gelernt 42. Wie lässt sich die Notwendigkeit einer empirisch vorgehenden Psychologie in Kants Aussagensystem begründen? Kant unterteilt in analytische Sätze (a priori Aussagen, enthalten ihr Prädikat in sich) und synthetische Sätze (zusammengesetzte Aussagen, Ableitung nicht möglich, meist a posteriori Aussagen) Die meisten synthetischen Aussagen sind nicht a priori (durch die Gesetze der Logik und der Deduktion) beweisbar; sie sind logisch möglich, aber nicht zwingend wahr Wahrheitswert muss erst empirisch festgestellt werden (= Erfahrungserkenntnis) 43. Welche Bedeutung hatte Hermann von Helmholtz für die Entwicklung der wissenschaftlichen Psychologie? Hermann von Helmholtz führte die experimentelle Methodik (aus der Physik) auch in die Psychologie und in die Wahrnehmungslehre ein o Messung der Fortpflanzungsgeschwindigkeit der Nervenerregung o Experimentelle Arbeiten zur Sinnesphysiologie und Wahrnehmung (Dreifarbenlehre, Prinzip des Verarbeitungsortes modalitätsspezifische Verarbeitung im Cortex) 44. Welches Wissenschaftsverständnis liegt psychophysischen Gesetzesannahmen zugrunde? Begründer der Psychophysik: Gustav Theodor Fechner Psychophysik beschreibt gesetzmäßige Beziehungen zwischen objektiven physikalischen Reizen und subjektivem Reizerleben Gesetzesannahme: Empfindungsstärke (E), Reizintensität (R), Konstanten (c und K): E = c * log(R) + K 7 45. Welche Methode setzten Wilhelm Wundt und seine Schüler in der Erforschung psychischer Vorgänge und Zustände hauptsächlich ein? Etablierung der empirisch-experimentellen Psychologie: Introspektionsmethode zur Erforschung der Struktur des Geistes über die Isolation von „psychischen Elementen“ und deren Beziehungen Introspektion = Selbstbericht, Selbsteinsicht in psychische Prozesse, wobei der Versuchsleiter gleichzeitig die Versuchsperson ist Sechste Vorlesung (23.11.2009) 46. Beschreiben und begründen Sie das Black-Box-Modell des Behaviorismus. Organismus = Black-Box (keine Spekulation über psychische, innere Vorgänge und Strukturen möglich, werden daher nicht weiter beachtet) Im Behaviorismus werden Reiz-Reaktions-Beziehungen gedeutet, dass etwas im Organismus passiert, wird zwar anerkannt, da es aber nicht beobachtet werden kann, wird es als nicht wichtig angesehen. 47. Probleme und Argumente gegen das behavioristische Forschungsprogramm o nicht jeder Reiz führt zu einer Reaktion o nicht jedes Verhalten geht auf eine bestimmte Reizsituation zurück o Überbewertung von Umwelteinflüssen o Simplifizierung der Wahrnehmung o es wird kein Einblick in mentale Vorgänge geleistet o psychobiologische Grundlagen werden ignoriert ( preparedness) o unzureichende Erklärung der Aneignung von Sprache o Verallgemeinerung von Tierforschung auf Menschen 48. Welches Menschenbild vertritt die Kognitionspsychologie und was versteht sie unter dem Begriff der „Kognition“? Menschenbild: Mensch = informationsverarbeitendes System: Eingabe Verarbeitung und Speicherung Ausgabe Kognition: mentale Transformation und Manipulation von Information o nicht auf Verhalten reduzierbar o greifen intervenierend und moderierend in die Sequenz zwischen Reiz und Reaktion ein (z.B. Ziele, Erwartungen, etc.) o als Symbolverarbeitung 49. Nennen Sie wesentliche Unterschiede und Gemeinsamkeiten zwischen der Informationsverarbeitung in Computern und in Menschen. Unterschiede: Mensch Computer Schaltungen hochkomplex, dynamisch einfach, statistisch Geschwindigkeit niedrig sehr hoch Parallelisierung hochgradig moderat Gedächtnis in der Struktur in Speichern Stärken Analogien, Mustererkennung, Anpassungsfähigkeit Unzuverlässigkeit, langsames Training, Verweigerungshaltung, kein Zufallsverständnis Präzision, ewige Wiederholungen, Stabilität Scheuklappen, Stupidität, Gehorsam, kein Sinnverständnis Schwächen 8 Gemeinsamkeiten: o Verarbeitung von Informationen o Fähigkeit der Speicherung von Informationen o Weitergabe von Informationen 50. Welche theoretische Position modelliert Kognition mit künstlichen neuronalen Netzen? Beschreiben Sie den elementaren Aufbau eines künstlichen neuronalen Netzes. Theoretische Position: Konnektionismus (Simulation von kognitiven Funktionen mit künstlichen neuronalen Netzen; keine Unterscheidung zwischen Software und Hardware) Kognitionen = mentale Manipulationen von Informationen in einem informationsverarbei-tenden System Künstliches neuronales Netz = Vernetzung von Input-Units, Hidden-Units und Output-Units Ziel: Funktionsweise des menschlichen Gehirns besser verstehen, Lösen von konkreten Anwendungsbeispielen (z.B. Robotik) 51. Welche Ziele verfolgt die Wissenschaftstheorie? Welche generellen Vorgehensweisen lassen sich identifizieren? Wissenschaftstheorie = Metawissenschaft Grundlegende Ziele: Fragen und Antworten nach den Möglichkeiten und Grenzen der Erkenntnisgewinnung, … beschäftigt sich mit: Prinzipien, Zielen, Wegen und Ergebnissen von einzelnen Realwissenschaften (z.B. der Psychologie) Vorgehen: 1) Deskriptives Vorgehen: Beschreibung (Wie wird Wissenschaft betrieben?) 2) Normatives Vorgehen: Empfehlung (Wie sollte man Wissenschaft betreiben?) 52. Erläutern Sie mit einem Beispiel die Unterscheidung zwischen der Syntax, Semantik und Pragmatik von Symbolsystemen. Präzisierung von Beschreibungen und Erklärungen eines Phänomens mit fachspezifischen Begriffen Sprachliche Begriffe = bedeutungshaltige Zeichen, Symbole a) Syntax: Beziehungen zwischen Zeichen b) Semantik: Beziehung zwischen Zeichen und Bezeichneten (Bedeutung von Wörtern, z.B. Haus, die Mutter geht nach Hause…) c) Pragmatik: Beziehung zwischen Zeichen und ihrer Verwendung 53. Was kennzeichnet eine explizite Definition eines Begriffs? Explizite Definition = der zu definierende Ausdruck (das Definiendum) wird mit anderen Begriffen oder Aussagen (dem Definiens) gleichgesetzt (→ logische Äquivalenz) z.B. - Realdefinitionen - Nominaldefinitionen - Gebrauchsdefinitionen - Operationale Definitionen (logische Äquivalenz: zwischen A und B besteht eine Implikationsbeziehungen in beide Richtungen: A ↔ B: Wenn A dann B gilt genauso wie: Wenn B dann A) 54. Erläutern Sie anhand eines Beispiels eine operationale Definition eines Konstrukts. Operationale Definitionen geben konkrete Anweisungen, wann und unter welchen Umständen ein Objekt einem Begriff zugeordnet werden darf. Beispiel: „Ein Objekt hat dann eine rote Farbe (Rotes Objekt: Definiendum), wenn die Person die Farbe des Objektes mit „rot“ beurteilt.“ (Farburteil: Definiens) → hier wird die Bedeutung durch das Aufzeigen an der Erfahrung festgelegt, sie wird operational definiert. 9 „Ein Objekt hat dann eine rote Farbe, wenn in einer Spektralanalyse das von diesem Objekt reflektierte Licht einer bestimmten Wellenlänge entspricht.“ (Spektralanalyse: Definiens) → weitere Möglichkeit der operationalen Definition: Festsetzung von bestimmten Operationen an einem Objekt, deren Ergebnisse eine eindeutige Aussage darüber ermöglichen, ob diesem Objekt der Begriff zugeordnet werden darf 55. Stellen Sie zwei grundlegende Vorgehensweisen vor, die eine Operationalisierung von Konstrukten ermöglichen. Operationalisierung durch Herstellen: Untersucher greift aktiv in die Situation ein und schafft Bedingungen, die dem Konstrukt entsprechen sollen. = Operationalisierung durch Angabe experimenteller Aktionen (Bsp. schwierige vs. leichte Aufgaben, unter- vs. überschwellige Präsentation, sachliche vs. unsachliche Rückmeldungen …) Operationalisierung durch Messen: entsprechend dem Konstrukt werden Personen beobachtet oder Daten durch Fragebögen oder sonstige Tests erhoben = Operationalisierung durch Angabe von Messanweisungen (Bsp: Leistungstests, Persönlichkeitstests, Verhaltensbeobachtungen, Befragung…) 56. Warum sind operationale Definitionen für die Hypothesenformulierung so wichtig? Operationale Definitionen stellen eine Verbindung zwischen (latenten) theoretischen und (manifesten) Beobachtungsbegriffen her und sind damit für die Hypothesenformulierung unabdingbar. 57. Welche Bedeutung haben operationale Definitionen für die Bestimmung der konvergenten Validität eines Tests? Konvergente Validität: Prüfung der Konsistenz der operationalen Zuweisung (wenn Angabe von mehreren operationalen Definitionen für einen Begriff möglich ist) 58. Was ist damit gemeint, dass operationale Definitionen keine Überschussbedeutung besitzen? Operationale Definitionen = nur Kurzbeschreibungen für Resultate von Beobachtungen und Verfahren unter bestimmten Bedingungen 59. Erläutern Sie die Zweisprachenkonzeption und diskutieren Sie problematische Annahmen dieser Vorstellung. 1. Theoretische Sprache (theoretische Begriffe verbunden durch theoretische Annahmen) ↕ Zuordnungsregeln ↕ 2. Beobachtungssprache (Beobachtungsbegriffe verbunden durch regelmäßige Beziehungen) Probleme: es gibt keine klaren Kriterien für Beobachtungen Kontinuum von direkten sinnlichen Erfahrungen bis hin zu komplexen, indirekten Messungen mit Apparaturen; keine Beobachtung frei von Voraussetzungen oder Theorien ( Theoriegetränktheit) 60. Wie weit muss eine Definitionskette fortgeführt werden? Welches Kriterium legt das Ende einer Definitionskette fest? Explizite Definitionen bis hin zu elementaren Begriffen, die durch Verweis auf konkret existierende Ereignisse oder Objekte bestimmt werden können Definitionskette endet dort, wo sie auf bestimmte undefinierte Grundbegriffe stößt (baut darauf auf, z.B. natürliche Zahl, Gerade, Punkt etc.) diese undefinierten Begriffe hängen immer vom Anwendungsbereich der Theorie ab! Kriterium = Anwendungsbereich 10 Siebte Vorlesung (30.11.2009) 61. Welche Eigenschaften sollten wissenschaftliche Definitionen besitzen? Eliminierbarkeit Nicht-Kreativität Kontextabhängigkeit Adäquatheit (Angemessenheit, nicht wahr/falsch!) Präzision 62. Wann ist eine wissenschaftliche Definition „eliminierbar“? … wenn der definierte Begriff durch das Definiens ersetzt werden kann, ohne dass sich der Wahrheitswert der entsprechenden Aussagen ändert. 63. Warum sind wissenschaftliche Begriffsdefinitionen „nicht-kreativ“? … weil eine Definition eine rein begriffliche Operation ist, die weder empirisch richtig noch falsch sein kann. 64. Erklären Sie die Kontextabhängigkeit einer wissenschaftlichen Definition anhand eines Beispiels. Kontextabhängigkeit: Definitionen erfolgen stets in Bezug auf eine bestimmte Begrifflichkeit oder Theorie unterschiedliche Bedeutung eines Begriffs je nach Kontext Bsp.: Verstärker in der Lernpsychologie / Verstärker in der Elektrotechnik 65. Wann ist eine wissenschaftliche Begriffsdefinition „inadäquat“? o wenn die Definition zu weit ist, weil zu viele Objekte unter den Begriff fallen o wenn sie zu eng ist, weil zu wenig Objekte unter den Begriff fallen o wenn sie nur negative Bestimmungen enthält o wenn sie zirkulär ist (A wird mit B erklärt, und B mit A) 66. Welche Bedeutung hat die Präzision und Offenheit der Bedeutungsfestlegung von Begriffen für den wissenschaftlichen Prozess? Präzision: Verwendung von präzisen Begriffen im Definiens, die entweder allgemein verständlich sind oder bereits vorher näher umschrieben wurden (Vorbild: Mathematik) o Präzision und Offenheit haben Bedeutung, da durch sie Diskussionen über begriffliche Differenzen angeregt werden o Bedeutungserklärung als Teil des wissenschaftlichen Diskurses, die zur Weiterentwicklung der Wissenschaft beiträgt o Wenn keine Präzision vorhanden: Fehlinterpretation, Unklarheiten der Fachsprache 67. Welche Teilgebiete umfasst die formale Logik? Formale Logik = Grundbaustein der Wissenschaft = Wissenschaft vom konkreten Schließen (Begründer: Gottlob Frege) Teilgebiete: 1. Aussagelogik (Junktorenlogik): Verknüpfung von einfachen Aussagen durch Bindewörter (Junktoren: und, oder, wenn – dann, genau dann wenn) 2. Prädikatenlogik (Quantorenlogik): Beschreibung der Struktur von Aussagen (Subjekt, Prädikat) und ihrer Beziehung mit Hilfe von Existenz- und Allaussagen (Quantoren: alle, einige) 68. Was sind Aussagensätze? = Satz der einen Sachverhalt darstellt 69. Was ist das Prinzip der Zweiwertigkeit? = Aussage ist entweder wahr oder falsch 11 70. Wie kann der Wahrheitswert von elementaren Aussagen bestimmt werden? … durch die Anwendung der Aussagelogik: Festlegung des Wahrheitswertes (wahr, falsch) der elementaren Aussagen o inhaltliche Auswahl des Wahrheitskriteriums o empirische Untersuchungen zur Prüfung der Wahrheit (Falschheit) der Aussage Wichtig bei zusammengesetzten Aussagen (zwei oder mehrere, durch Junktoren wie und, oder etc. getrennte elementare Aussagen): Wahrheitswert muss von allen elementaren Aussagen festgestellt werden 71. Was sind logische Junktoren? Junktoren = Bindewörter zwischen elementaren Aussagen Disjunktionoder (nicht ausschließendes „oder“) Konjunktion und Implikation wenn…, dann… Äquivalenz genau dann, wenn v ٨ → ↔ 72. Nennen und erklären Sie zwei allgemeingültige Aussageformen. Allgemeingültige Aussageform = Aussageform, die unabhängig vom Wahrheitswert der elementaren Aussagen immer gelten Satz vom ausgeschlossenen Dritten: A v ¬A x hat die Eigenschaft A oder x hat die Eigenschaft Nicht-A Satz vom Widerspruch: ¬(A ٨ ¬A) Eine Theorie, die gleichzeitig A und ihr logisches Gegenteil ¬A enthält, ist logisch inkonsistent und immer falsch. 73. Wozu dienen Wahrheitstafeln? - veranschaulichen durch die Darstellung der Wahrheitswerte der elementaren Aussagen die Wahrheitswerte der zusammengesetzten Aussagen = tabellarische Aufstellung des Wahrheitswerts-Verlaufes einer logischen Aussage - Definition von Junktoren 74. Erklären Sie den Modus ponens mit einem konkreten Beispiel. Wenn die Implikation A → B gilt und wenn die Aussage A wahr ist, folgt daraus zwingend die Wahrheit der Aussage B. [(A → B) ٨ A] → B Bsp.: Frustration (A) führt zu Aggression (B) wenn Paul frustriert ist, dann ist er auch aggressiv. 75. Erklären Sie den Modus tollens mit einem konkreten Beispiel. Wenn die Implikation A → B gilt und wenn B falsch ist, lässt sich daraus die Falschheit von A ableiten. [(A → B) ٨¬B] → ¬A Bsp.: Wenn Paul nicht aggressiv ist, dann kann vorher keine Frustration da gewesen sein. 76. Erklären Sie den Unterschied zwischen notwendigen und hinreichenden Bedingungen mit einem Beispiel. Gesetzesannahme: Körperbestrafung (A) führt zu Schmerz (B). Körperbestrafung ist eine hinreichende Bedingung für Schmerz. Schmerz ist eine notwendige Bedingung für Körperbestrafung. Körperbestrafung ist aber nicht notwendig für Schmerz (es gibt auch andere Quellen von Schmerz) Schmerz ist nicht hinreichend für Körperbestrafung 12 Bsp: Wenn es regnet, ist die Straße nass: Regen ist ausreichend dafür, dass die Straße nass wird; er ist aber keine notwendige Bedingung hierfür, weil es auch andere Möglichkeiten gibt, eine Straße zu benetzen – zum Beispiel ein Wasserrohrbruch Das Gegenstück zur hinreichenden Bedingung ist die notwendige Bedingung, die besagt, dass ein Sachverhalt erforderlich, aber eben nicht ausreichend dafür ist, dass ein anderer Sachverhalt eintritt. Bsp: Volljährigkeit ist eine notwendige Bedingung fürs Wahlrecht (nur wenn ich volljährig bin, darf ich wählen) … aber nicht hinreichend: man muss in der Regel zusätzliche notwendige Bedingungen erfüllen, z. B. die Staatsbürgerschaft des Landes haben Hinreichend ist eine Bedingung dann wenn sie für eine Sache erforderlich ist, aber nicht unbedingt anwesend sein muss. Es gibt neben dieser noch andere Bedingungen, die das entsprechende auslösen können. Zudem muss eine hinreichende Bedingung nicht unbedingt die erwartete Folge haben, aber sie reicht aus. Z.B. ist Frustration hinreichend für Aggression. Wenn man frustriert ist, kann man aggressiv werden, aber man muss es nicht und es gibt auch noch andere Gründe für Aggression. 77. Warum ist Induktion das Gegenteil von Deduktion? Induktion – Folgern vom Besonderen zum Allgemeinen (nicht logisch zwingend); der Gehalt der Konklusion übersteigt den Gehalt der Prämisse unsicherer Schluss Deduktion – Folgern vom Allgemeinen zum Besonderen (wahrheitskonservierend); die Konklusion kann nicht mehr aussagen als die Prämisse sicherer Schluss 78. Wann ist ein Argument „induktiv“? Ein Argument ist induktiv, wenn: o … die Wahrheit der Konklusion nicht notwendigerweise aus der Wahrheit der Prämisse folgt (gehaltserweiternd) o … die Prämisse dennoch die Konklusion in irgendeiner Weise unterstützt oder sie wahrscheinlicher macht 79. Was ist eine enumerative Induktion? Welche Annahme liegt ihr zugrunde? Enumerative Induktion = Verallgemeinerung o Extrapolation: Schließen auf einzelne Situationen oder Personen (z.B. Wenn Herr B. betrunken ist, dann schlägt er seine Frau.) o Generalisierung: Schließen auf alle interessierenden Situationen oder Personen (z.B. Wenn Männer betrunken sind, dann schlagen sie ihre Frauen.) Voraussetzung: die betrachteten Phänomene oder Objekte sind einheitlich / uniform (= Uniformitätsannahme) 80. Erläutern Sie die grundlegenden Vorgehensweisen bei einer eliminativen Induktion. Eliminative Induktion = Ausschluss von anderen Einflussfaktoren Annahme eines allgemeingültigen Zusammenhangs zwischen X und Y, wenn: o … X und Y regelmäßig miteinander auftreten, und zwar unabhängig von der Variation anderer Einflussfaktoren (= Übereinstimmungsmethode) o … sich Situationen, in denen Y bzw. Nicht-Y eintritt, sich nur dadurch unterscheiden, dass im ersten Fall X vorliegt, im zweiten Fall aber nicht (= Differenzmethode) 81. Was ist eine empirische Vermutung? Empirische Vermutung = Anwendung einer Theorie auf eine Situation, die außerhalb dem geprüften Geltungsbereichs der Theorie liegt. 13 82. Nennen Sie drei verschiedene Arten der induktiven Argumentation. Erläutern Sie grundlegende Gemeinsamkeiten und Unterschiede zwischen ihnen. Enumerative Induktion Eliminative Induktion Gemeinsamkeiten - schließen vom Besonderem zum Allgemeinen - Induktionsproblem - ceteris-paribus-Bedingungen als Voraussetzung Empirische Vermutung Unterschiede - betrachtete Phänomene oder Objekte müssen einheitlich oder uniform sein - eventuelle Einflussfaktoren werden ausgeschlossen - Vielfalt von Beobachtungs-situationen wichtig - bezieht sich auf Theorien und deren Anwendung - zur Ausweitung des Geltungsbereiches von Theorien Achte Vorlesung (07.12.) 83. Wie lassen sich induktive Schlüsse rechtfertigen? 1. Anzahl und Anteil der bisherigen Fälle o Je größer die Zahl und deren Anteil der bisherigen positiven Schlüsse und je kleiner die Zahl und der Anteil der bisherigen negativen Schlüsse, desto berechtigter ist der induktive Schluss. 2. Validität der Fälle o Je größer die Validität / Güte / Sicherheit der in der Prämisse zusammengefassten positiven Fälle und je kleiner die Validität / Güte / Sicherheit der negativen Fälle, desto berechtigter ist der induktive Schluss ( Methodik, wie gut die Studie ist) 3. Variabilität der Fälle o Je größer die Variabilität der bisherigen positiven Fälle und je kleiner die Variabilität der bisherigen negativen Fälle, desto berechtigter ist der induktive Schluss 4. Ähnlichkeit neuer und bisheriger Fälle o Je größer die Ähnlichkeit zwischen den neuen und den bisherigen positiven Fällen und je kleiner die Ähnlichkeit zwischen den neuen und den bisherigen negativen Fällen, desto berechtigter ist der induktive Schluss 84. Was sind Ceteris-Paribus-Bedingungen? = unter sonst gleichen Umständen, = Annahme, dass alle anderen Einflussfaktoren (alle Rahmenbedingungen außer die relevanten Größen in der Prämisse) konstant bleiben 85. Was ist ein wissenschaftliches Gesetz? Gesetz = Aussage über einen regelhaften Zusammenhang zwischen zwei oder mehreren Variablen o Nominale Gesetze (Wenn…, dann…) o Ordinale Gesetze (monotoner Zusammenhang; z.B. Je stärker…, desto größer…) o Quantitative Gesetze (funktionale Beziehung zwischen quantitativen Variablen, z.B. E = c * log (R) + K 86. Welche Merkmale besitzen wissenschaftliche Gesetze? 1. Gesetze sind allgemeine Aussagen über einzelne Objekte 2. Gesetz muss irgendeine Allaussage bezüglich Person, Zeit und Situation (oder ihren Kombinationen) enthalten 3. Gesetzesaussagen sind unerschöpflich, d.h. sie beziehen sich auf mehr Fälle, als bisher aufgezählt oder beachtet worden sind; unerschöpfliche Aussagen bezüglich Personen und Zeitpunkte 4. Wissenschaftliche Gesetze dürfen nicht bereits widerlegt oder stark erschüttert sein 14 87. Was unterscheidet probabilistische von deterministischen Gesetzesannahmen? Deterministische Gesetzesannahmen: - A tritt mit einer Notwendigkeit und ohne Ausnahme auf, wenn B vorliegt - Störfaktoren können Zusammenhänge jedoch verdecken Probabilistische Gesetzesannahmen - A tritt mit einer erhöhten Wahrscheinlichkeit auf, wenn B vorliegt - Aussagen gehen von bedingten Wahrscheinlichkeiten P(A|F) aus, Störfaktoren können nicht ausgeschlossen werden 88. Warum lässt sich aus probabilistisch formulierten Gesetzesaussagen nicht eindeutig ableiten, ob ein probabilistischer oder deterministischer Variablenzusammenhang angenommen wird? Meist ist unklar, ob ein probabilistischer Zusammenhang oder nur eine unzureichende Annäherung an die determinierte Realität gemeint ist 89. Wie erklärt der Empirismus Kausalität und Kausalannahmen? Empirismus Kausalität ist nur ein geistiges Konstrukt, das entsteht - aufgrund der zeitl. Nähe von 2 Ereignissen (Kontiguität) - aufgrund der zeitlichen Priorität der Ursache (Ursache kommt vor der Wirkung) - aufgrund der regelhaften Verknüpfung oder Abfolge von Ursache und Wirkung (Kontingenz) Kausalität als Unterstellung einer regelhaften, gesetzmäßigen Beziehung zwischen Ereignissen in einer bestimmten zeitlichen Abfolge (Ursache Wirkung) 90. Warum lässt sich der Ursachenbegriff nicht ohne weiteres mit hinreichenden Bedingungen für das Auftreten eines Sachverhalts gleichsetzen? Die Ursache ist nur dann eine hinreichende Bedingung für die Wirkung, wenn gewisse Rahmenbedingungen (R) vorliegen. 91. Erläutern Sie die INUS-Explikation des Ursachenbegriffs + Beispiel. INUS-Explikation: A cause is an insufficient but necessary part of an unnecessary but sufficient condition. Ursache (U: Kurzschluss) ist dann eine Ursache von W (Wirkung: Hausbrand), wenn o U (Kurzschluss) einzeln notwendig für den Brand – ohne ihn hätte es bei Konstanz aller anderen Bedingungen nicht gebrannt o U aber nicht hinreichend für W ist (z.B. kein Hausbrand, wenn kein O2 oder Brennmaterial vorhanden ist) o U und R (Randbedingungen: O2 und brennbares Material) hinreichend, aber nicht notwendig für W (Hausbrand) sind o R nicht hinreichend für W ist (O2 + brennbares Material ≠ Hausbrand) 92. Welche Bedeutung kommt Ceteris-Paribus-Bedingungen in der INUS-Explikation des Ursachenbegriffs zu? INUS-Explikation setzt Konstanz der ermöglichenden Randbedingungen voraus: o Ursache ist zusammen mit den gegebenen Randbedingungen hinreichend für die Wirkung, aber nicht notwendigerweise mit veränderten Bedingungen o Ursache ist nur unter den gegebenen Randbedingungen einzeln notwendig für das Auftreten der Wirkung, d.h. es liegen keine anderen Sachverhalte vor, die die Wirkung unabhängig von der Ursache hervorrufen können 93. Wie können Kausalaussagen empirisch überprüft werden? Kausalaussage Veränderung der unabhängigen Variablen (UV: Haarwuchsmittel) bewirkt Veränderungen in der abhängigen Variablen (AV: Haarwuchs) Überprüfung durch Experimentalmethodik: Vergleich von mindestens zwei Untersuchungsbedingungen, die in allen anderen Belangen vollkommen identisch sein sollen: 15 a) Bedingung mit Ursachenfaktor b) Bedingung ohne Ursachenfaktor 94. Wie werden Theorien anhand von Erfahrungen (weiter-)entwickelt? Erläutern Sie die Unterschiede zwischen einem rationalistischen und einem empiristischen Vorgehen. Beim empiristischen Vorgehen werden aus den Erfahrungen neue und modifizierte Theorien induktiv abgeleitet, wohingegen beim Rationalismus aus einer Theorie, deren Falsifikation Anlass für Modifikation gibt, neue Vorhersagen deduktiv abgeleitet werden. 95. Beschreiben Sie typische Stufen einer induktiven Theorieentwicklung. 1. Abgrenzung, Beobachtung und Beschreibung von Phänomenen des Forschungs-bereiches 2. Aufstellen von empirischen Generalisierungen, die die beobachteten Regelmäßig-keiten verallgemeinern 3. Deduktive Systematisierung der empirischen Generalisierungen, so dass speziellere aus allgemeinen Sätzen abgeleitet werden können 4. Erklärung von systematisierten Zusammenhängen mit Begriffen, Konstrukten und Annahmen, die nicht mehr vollständig durch Beobachtungen definiert werden Neunte Vorlesung (14.12.) 96. Erläutern Sie die Theorieentwicklung nach rationalistischem Verständnis. Rationalismus: deduktive Ableitung von Vorhersagen aus der Theorie, deren Falsifikation Anlass für Modifikation gibt. zu Beginn: Abduktiver Schritt: Theorie geht aus unbegründeten „Einfällen“, unverbundenen Einzelaussagen und kreativen „Zufällen“ hervor (detektivische Methode) Theorien sind jedoch selten völlig neu, sondern bereits existierende Theorien werden i.d.R. an Erfahrungen geprüft, verändert und modifiziert Rationalisten modifizieren bestehende Theorien an Erfahrungen 97. Welche allgemeinen Anforderungen sollten bei Theorieprüfungen erfüllt sein? 1. Jede Theorie ist so zu formulieren, dass sie empirisch möglichst streng prüfbar ist. 2. Jede empirische Prüfung einer Theorie ist möglichst streng zu gestalten. 98. Die Prüfbarkeit einer Theorie ist umso größer, je größer ihr empirischer Gehalt ist. Erläutern Sie diese Aussage. der empirische Gehalt ist umso größer, je mehr potenzielle Falsifikatoren* die Theorie hat (* = Verbot von Beobachtungen; das darf man nicht beobachten) Menge an potenziellen Falsifikatoren ist umso größer, je ausgeprägter die Allgemeinheit und Bestimmtheit der Theorie o Allgemeinheit wird erhöht, wenn die Menge der Objekte, Situationen oder Phänomene erhöht wird, auf die die Theorie anwendbar ist (eine bestimmte Phobie vs. alle Phobien) o Bestimmtheit wird erhöht, indem die Aussagen präzisiert werden (Ziel: präzise Vorhersagen darüber, was nicht passieren dürfte) 99. Wann ist eine empirische Hypothesenprüfung „streng“? eine empirische Hypothesenprüfung ist streng, wenn sie so angelegt ist, dass ein Scheitern der zu prüfenden Theorie zu erwarten ist, falls sie tatsächlich falsch ist ( muss im Test auch scheitern können) - Einflussfaktoren: Versuchsplanung und Validität (Gültigkeit) der Untersuchung - je unwahrscheinlicher die Theorievorhersage nach dem bisherigen Wissen (ohne geprüfte Theorie) ist, desto strenger ist die Prüfung 16 100. Wodurch wird der Grad der Bewährung einer Theorie bestimmt? Grad der Bewährung einer Theorie nimmt mit Strenge ihrer Prüfung zu (= eines der Hauptkriterien der Theoriebewertung) 101. Erläutern Sie das empirische Sinnkriterium des logischen Empirismus. Warum kann dieses Kriterium nicht stringent angewendet werden? Empirisches Sinnkriterium: Eine Aussage ist nur dann wissenschaftlich sinnvoll, wenn ihre Wahrheit oder Falschheit empirisch eindeutig festgestellt werden kann, d.h. wenn sie sich im Prinzip mit Hilfe von Beobachtungen vollständig bestätigen oder empirisch verifizieren lässt (Verifikationismus – Bestätigung von wissenschaftlichen Aussagen / Hypothesen) alle anderen Aussagen, die nicht geprüft wurden, sind provisorisch /nicht wissenschaftlich stringente Anwendung nicht möglich: manche Sachverhalte sind nicht direkt beobachtbar (z.B. Motivation, Empfindungen, Gedanken, etc.), eine eindeutige Wahrheit oder Falschheit kann oft nicht festgestellt werden, alle Beobachtungen sind theoriegetränkt und Verifikationen daher vielleicht nur vorläufig, Theorien mit unerschöpflichen Allsätzen sind nicht komplett empirisch verifizierbar 102. Nennen Sie die Leitprinzipien des logischen Empirismus. 1. Orientierung an den Methoden der exakten Naturwissenschaften ( Physik als Idealwissenschaft) 2. Möglichst formalisierte Wissenschaftssprache, die so einer logischen Analyse zugänglich gemacht wird 3. Prinzipielles und absolutes Metaphysik-Verbot (Metaphysik: Was hinter den Dingen steht: z.B. Wille, Wunsch, Gott) 4. Es gibt nur analytische und synthetische Sätze. Synthetische Sätze sind empirisch zu bestätigen. 5. Nur solche Sätze sind sinnvoll, bei denen auch eine empirische Operationalisierung angegeben werden kann 6. Jeder sinnvolle Satz ist auf Sätze (Protokollsätze) reduzierbar, die durch unmittelbare Wahrnehmung zustande kommen. 103. Was sind Protokollsätze? Protokollsätze = Aussagen über direkt Beobachtbares, die unmittelbar und eindeutig verständlich sind und deren Wahrheit mit Sicherheit zu erkennen ist (Beobachtungssprache), z.B. „Die Maus drückt den Hebel.“ 104. Warum nennt man den logischen Empirismus auch logischen Positivismus? logischer Empirismus = logischer Positivismus, entwickelt vom Wiener Kreis Positivismus = fehlerfreie und unbeeinflusste Beschreibung von dem „Gegebenen“ logischer Positivismus fordert, dass sich alle Terme einer präzisen Wissenschaftssprache, außer dem logischen, letztendlich auf das direkte Erfassen von Sinnesdaten zurückführen lassen müssen; vorheriges Verstehen seiner Bedeutung sollte hier nicht vorausgesetzt sein und die Wahrnehmung von Sinnesdaten als unkorrigierbar gelten. 105. Nennen Sie Kritikpunkte am Programm des logischen Empirismus. a) strenge Trennung zwischen Beobachtung und Theorie ist nicht haltbar (die Natur antwortet nicht, wenn sie nicht gefragt wird; Theoriegetränktheit von Beobachtungen) b) Induktionsproblem ist nicht empirisch, sondern nur metaphysisch begründbar Induktionsproblem als Letztbegründungsproblem (Wie begründet man das Prinzip von Beobachtungen?) c) Nicht-Verifizierbarkeit von Theorien mit unerschöpflichen Allsätzen ( kritischer Rationalismus) 17 106. Wieso sollte anstelle der Verifikation die Falsifikation von wissenschaftlichen Aussagen angestrebt werden? Erklären Sie den Unterschied zwischen Verifikation und Falsifikation von Aussagen an einem konkreten Beispiel. Verifikation: Bestätigung von wissenschaftl. Aussagen ( Logischer Empirismus) Falsifikation: Widerlegung von wissenschaftl. Aussagen ( kritischer Rationalismus), ist logisch gesehen dem Verifikationismus überlegen wissenschaftl. Allaussagen lassen sich niemals vollständig verifizieren, es werden lediglich Hypothesen vorläufig bestätigt für die Widerlegung einer Allaussage reicht hingegen eine einzige Beobachtung aus Aussage einer Falsifikation hat mehr empirisches Gehalt Bsp.: Allaussage: „Alle Schwäne sind weiß“ - Verifikationskriterium: Bestätigung der Allaussage durch Beobachtungen von weißen Schwänen - es ist jedoch unmöglich, alle Schwäne der Vergangenheit, Gegenwart und Zukunft zu beobachten Aussage geht über die Beobachtungsaussagen hinaus ( = „unwissenschaftliche“ Induktion) - Falsifikationskriterium: Widerlegung der Allaussage durch Beobachtungen von nicht-weißen Schwänen - die Beobachtung eines einzigen nicht-weißen Schwans reicht aus, um den Wahrheitsgehalt (Falschheit) der Allaussage festzustellen 107. Wie erfolgt der Wissens- und Erkenntnisfortschritt gemäß dem kritischen Rationalismus? … erfolgt nach dem Falsifikationsprinzip: Aussagen / Theorien müssen an der Empirie scheitern können Erkenntnisgewinn durch das Aussieben von „falschen“ (widerlegten) Theorien nur die, die sich bewährt hat, bleibt übrig Falsifikationsversuche in Entscheidungsexperimenten (experimentum crucis): zwei Theorien mit konträren Sachverhalten werden gegeneinander getestet (selten in Psy.) Empirischer Gehalt ist umso größer, je mehr potenzielle Falsifikatoren die Theorie hat 108. Nennen und erläutern Sie Problem- und Kritikpunkte am Programm des kritischen Rationalismus. Probleme: Problem mit probabilistischen Theorieaussagen: Konventionen müssen Kriterien für eine „praktische“ Falsifikation schaffen ( Signifikanztests) Problem der Zusatzannahmen (ceteris-paribus-Bedingungen, z.B. Licht, um beobachten zu können; Experimentelles Setting; Messmodelle…): o Negation des Basissatzes ist nicht mehr alleine, sondern nur zusammen mit den Zusatzannahmen aus der Theorie ableitbar o Falsifikation der Theorie oder mindestens einer der Zusatzannahmen o bei Falsifikation: hat die Theorie oder die Zusatzannahmen dazu geführt, dass nicht beobachtet wurde, was erwartet war? Empirische Immunisierung: Ausschöpfung der weiteren Gültigkeit einer Theorie trotz kritischer Befunde o Einschränkung des Geltungsbereichs o Ad-hoc-Modifikationen (nach dem Ergebnis wird Erwartung korrigiert / modifiziert, ABER: Erwartung muss schon vor dem Experiment feststehen!) Kritik: Wissenschaftler versuchen in der Praxis nicht ernsthaft, ihre eigenen Theorien und Überzeugungen zu falsifizieren Versuch, alternative, nicht-eigene Theorien zu widerlegen Entscheidungsexperiment ist eine Fiktion Unvollkommenheit von empirischen Ergebnissen verbietet nicht nur absolute empirische Wahrheiten, sondern auch absolute empirische Falschheiten (man kann nicht alle Schwäne beobachten) Warnung vor blindem Falsifikationismus: o Falsifikation ist kein Zweck in sich selbst 18 o Falsifikation führt nur dann zu Erkenntnisfortschritt, wenn die falsche Theorie durch eine bessere ersetzt wird (Hoffnung, falsche Theorien auszusieben kein Fortschritt; nur durch Vorschlag einer besseren Theorie) Wissenschaftliche Praxis folgt nicht einem „naiven“ Falsifikationsprinzip! 109. Erläutern Sie die Methodologie wissenschaftlicher Forschungsprogramme von Imre Lakatos. = Ablehnung eines „naiven“ Falsifikationismus = normativer Ansatz (Empfehlung, wie man Wissenschaft betreibt) Imre Lakatos unterscheidet zwischen: a) Forschungsprogramm = komplexes theoretisches Modell, das sehr allgemeine Thesen enthält, von denen aus das Forschungsprogramm entwickelt wird (z.B. Informationsverarbeitungsmodell) b) Einzeltheorien mit Zusatzannahmen = speziellere Theorien, die den Gürtel um den harten Kern des Forschungsprogramms bilden Basis: empirische Prüfungen treffen nie das ganze Forschungsprogramm, sondern nur einzelne Theorien und Hypothesen; erfolgreiche Falsifikation führt nicht dazu, dass das ganze Forschungsprogramm aufgegeben wird, sondern dass die einzelne (Hilfs-)Theorie hinterfragt wird - Hinzufügung von ad-hoc-Modifikationen, solange es der harte Kern des Forschungsprogramms zulässt - Modifikation der Hilfstheorie, Forschungsprogramm bleibt im Kern unangetastet - Einführung von Sonderfällen und Extrabedingungen Degeneriertes Forschungsprogramm (z.B. Behaviorismus, Gottes Schöpfung) wird erst dann aufgegeben, wenn ein konkurrierendes Forschungsprogramm mit größerem explanatorischem Gehalt existiert (= rationaler Vergleich) wenn eine bessere Alternative existiert (z.B. kognitionspsychologischer Ansatz, Evolutionstheorie), sonst würde Forschungsprogramm 1 erhalten bleiben 110. Welche Bedeutung wird dem Falsifikationsprinzip in der Methodologie wissenschaftlicher Forschungsprogramme von Imre Lakatos zugewiesen? - Ablehnung eines „naiven“ Falsifikationismus - Falsifikation betrifft immer nur Einzeltheorien mit ihren Zusatzannahmen - Falsifikation führt nicht dazu, dass das ganze Forschungsprogramm aufgegeben wird 111. Nennen und erläutern Sie typische Phasen im Wissenschaftsprozess nach Thomas Kuhn? 1. Normalwissenschaftliche Forschung: vorherrschendes Paradigma als Denkstil (z.B. Behaviorismus) 2. Auftreten von Anomalien / Unstimmigkeiten Lösung: Ad-hoc-Modifikationen 3. Krise und außerordentliche Wissenschaft (grundlegende Annahmen werden in Frage gestellt) 4. Auflösung der Anomalien durch bisheriges Paradigma oder durch revolutionäres Ersetzen mit einem vollkommen neuen Paradigma 112. Was meint Thomas Kuhn mit „Paradigmenwechsel“? Paradigmenwechsel = Unterschied zu Lakatos: Forschungsprozess schreitet nicht nur kumulativmodifizierend vor und endet im rationalen Vergleich zwischen zwei Theorien, sondern weist „irrationale“ Brüche mit Wechseln zwischen Paradigmen auf wichtige Rolle spielen dabei wissenschaftlich-soziologische Positionen, Politik und Zeitgeist (vgl. geozentrisches heliozentrisches Weltbild (damals nicht entscheidend überlegen)) vor- und nachrevolutionäre Paradigmen sind inkommensurabel, d.h. sie können nicht miteinander verglichen werden (versch. Denkschulen, Sprachen Übersetzung nötig) oft kein eindeutiger Beleg mgl. dass das neue Paradigma empirisch gehaltvoller und besser bestätigt ist (…naja…) 19 113. Nennen und erklären Sie Hauptkriterien zur Bewertung von Theorien. 1. Logische Konsistenz: Lassen sich aus der Theorie mit Sicherheit keine widersprüchlichen Aussagen ableiten? 2. Empirischer Gehalt: Kann die Theorie potentiell empirisch widerlegt werden? Wie groß ist die Möglichkeit der Falsifikationsmöglichkeiten? Wie gut ist die Theorie widerlegbar? 3. Empirische Bewährung: Wie viele nicht-triviale Falsifikationsversuche hat die Theorie erfolgreich überstanden? Ist die Theorie mit theoriekonträren Befunden belastet? (Eine Theorie, die nicht überprüft wurde, ist keine wissenschaftl./empirische Theorie) 114. Benennen und erläutern Sie Nebenkriterien zur Bewertung von Theorien. 1. Praktisch-technologische Relevanz (Anwendbarkeit): Eröffnet die Theorie auf nahe liegende Weise technologische Anwendungsmöglichkeiten? 2. Emanzipatorische Relevanz (Holzkamp): Trägt die Theorie zur Selbstaufklärung des Menschen über seine gesellschaftlichen und sozialen Abhängigkeiten bei? (Aufklärung) 3. Heuristischer Wert: Inspiration; Regt die Theorie neue empirische Untersuchungs-paradigmen und Fragestellungen an? 4. Integrativer Wert: Werden andere Theorien durch die betreffende Theorie zusammen-gefasst und damit überflüssig? (viele Theorien 1 Theorie) 5. Präzision: Ist die Theorien in einer präzisen formalen Sprache explizierbar und eventuell sogar axiomisiert ( gut! Axiome: Grundannahmen, absolute Voraussetzungen) 115. Wann ist eine Theorie (T2) „besser“ als eine andere Theorie (T1)? wenn: T2 steht mit allen Fakten im Einklang, mit denen auch T1 in Einklang steht T2 steht mit wenigstens einigen Basissätzen in Einklang, die T1 widersprechen T2 erlaubt darüber hinaus die Ableitung neuer oder präziserer Vorhersagen T2 bewährt sich in zumindest einigen dieser Prüfungen eine Theorie zu falsifizieren ist nur dann sinnvoll und notwendig, wenn sie durch eine bessere Theorie ersetzt werden kann! Zehnte Vorlesung (04. 01.) 116. Nennen Sie Kennzeichen eines Experiments. 1. Absichtliche Herstellung oder Auswahl von Untersuchungsbedingungen Etablierung einer oder mehrerer unabhängigen Variablen (z.B. Höhe der verabreichten Elektroschocks, Versuchsleiter als Autorität, Nähe zum Schüler etc.) Unabhängige Variable: Wirk- / Ursachenvariable, die etwas verändern soll 2. Systematische Variation der Bedingungen Versuchsplanung; mindestens 2 Bedingungen (+ Versuchs- / Kontrollgruppe) 3. Betrachtung der Auswirkungen der Bedingungsvariation Festlegung einer oder mehrerer abhängigen Variablen Abhängige Variable: hier manifestieren sich die Veränderungen 4. Kontrolle anderer möglicher Einflussfaktoren Kontrolle durch Konstanthaltung, Parallelisierung oder Zufallszuordnung (zufällige Zuordnung von Vpn = Randomisierung) nur die UV werden variiert! isolierende Variation der UV 117. Erläutern Sie verschieden Typen von Experimenten. Welche Probleme gehen typischerweise mit welchem Experimenttyp einher? a) Laborexperimente: rigorose Bedingungskontrolle möglich Problem: externe (oder ökologische) Validität sinkt (= Übertragbarkeit) b) Feldexperimente: in kontrollierter Umgebung Schaffung von möglichst natürlichen Umständen Problem: interne Validität sinkt 20 c) Quasi-Experimente: Vergleich von Gruppen, die nicht durch eine Zufallsordnung entstanden sind (z.B. bei vorhandenem Krankheitsbild) i. Organismische Variablen (z.B. Geschlecht, Intelligenz etc.) ii. Messwiederholung (z.B. Leistung vor und nach Training Veränderungen lassen sich sensitiver feststellen) Problem: interne Validität (Konfundierung was hat die Verbesserung hervorgerufen? versteckte Variationen gefährden Eindeutigkeit des Ergebnisses 118. In welche Bestandteile lassen sich experimentelle Untersuchungen zerlegen? 1. Theorie: Entwicklung einer Forschungsfrage, Aufstellen einer Theorie durch Abduktion, Ableitung (Deduktion) einer Hypothese 2. Methode: Wahl eines Versuchsdesigns, Durchführung des Versuchs 3. Ergebnisse: Analyse der Daten, Interpretation (Induktion) und Bericht 4. Diskussion: Integration in Hinblick auf die Anfangsfrage und Entwicklung fortführender Fragestellungen 119. 120. Was ist der Unterschied zwischen einem theorieorientierten und einem problemorientierten Forschungsprogramm? Problem-orientiertes Forschungsprogramm: Ausrichtung der Forschungsfragestellung auf die Ursachen und Folgen eines Sachverhalts (Probleme motivieren Theorie) Theorie-orientiertes Forschungsprogramm: Ausrichtung der Forschungsfragestellung auf die Ausgestaltung und Gültigkeit einer Theorie (Theorie existiert schon) Erklären Sie den Unterschied zwischen Kausal- und Assoziationshypothesen mit einem konkreten Beispiel. Kausalhypothesen: Erwartung eines Ursache-Wirkungs-Zusammenhangs Bsp.: wenn Personen frustriert werden, dann werden sie aggressiv Assoziationshypothesen: Erwartung eines regelhaften Zusammenhangs zwischen Variablen (Kovarianz, Korrelation) Bsp.: Extravertierte Personen sind aggressiver als introvertierte 121. Welche wichtigen Untersuchungsaspekte gilt es bei der Planung von empirischen Vorgehensweisen im Methodenteil der Untersuchung zu berücksichtigen? Exemplarische Untersuchung der psychologischen Hypothese in einer empirischen Anwendungssituation (konkrete Vorhersagen, was man nicht beobachten darf, wenn die Theorie stimmt (Falsifikation)) Formulierung einer empirischen Hypothese ( Ableitungsvalidität) Festlegung einer Untersuchungsart (experimentell? korrelativ? Feld? Labor?) Festlegung und Operationalisierung der Variablen: Sicherstellung, dass Variable das Konstrukt tatsächlich erfasst ( Variablenvalidität) Bestimmung eines Versuchsplans ( vollst. Ausbalancierung? gekreuztes Design?) Kontrolle von Störfaktoren ( interne Validität) Testplanung: Festlegung der Fehlerwahrscheinlichkeiten 1. und 2. Art = zufalls-kritische Absicherung der Ergebnisse Signifikanztest 122. Erläutern Sie die Abfolge theoretisch-inhaltliche Hypothesen, empirische Hypothesen und statistische Hypothesen mit einem konkreten Beispiel. Ableitung von begründeten Vermutungen über zu erwartende Ergebnisse aus den vorliegenden Befunden, Theorien und Annahmen = psychologische Hypothese Bsp.: theoretisch-inhaltliche Hypothese: Menschen mit blonden Haaren haben häufiger blaue Augen als Menschen mit braunen Haaren Übersetzung der psychologischen Hypothese: sind noch zu allgemein, um vollständig empirisch überprüft zu werden, dazu ist Spezifikation einer empirischen Hypothese nötig (empirische Hypothese: Im Mittel haben mehr blonde Menschen blaue Augen als braunhaarige Menschen.) 21 Ableitung von statistischen Hypothesen aus den empirischen Vorhersagen (d.h. psychologische Hypothese → empirische Hypothese → statistische Hypothese) Statistische Hypothesen = Annahmen über Verteilungen oder Parameter von Zufallsvariablen in Populationen 123. Was ist bei der Diskussion der Untersuchungsergebnisse zu beachten? Diskussion von möglichen Störvariablen, Durchführungsfehlern und Moderatorvariablen Diskussion von möglichen Konsequenzen für weitere Theorieentwicklungen, empirische Untersuchungen und praktische Anwendung 124. Welche Entscheidungen müssen bei der Erstellung eines Versuchsplans gefällt werden? Vollständige oder teilweise Realisierung der angelegten Zellen? Bestimmung der Anzahl der Beobachtungen pro Zelle? Interindividuelle oder intraindividuelle Bedingungsvariation? Randomisierte oder nicht-randomisierte Zuordnung der Vpn zu den Zellen? 125. Was ist ein experimenteller Faktor? Variation einer experimentellen Bedingung 126. Was ist der Unterschied zwischen uni- und mulitifaktoriellen Versuchsplänen? 1. Einfaktorieller Versuchsplan: Variation eines Faktors A mit n Stufen (A1, A2, ... An) = single-factor design 2. Mehrfaktorieller Versuchsplan: Variation von mehreren Faktoren (A1, A2, ... An; B1, B2, ... Bm; ...) = factorial design 127. Erklären Sie die Logik eines Randomisierungsplans. identische Bedingungen sind unmöglich herzustellen → deshalb werden Randomisierungspläne genutzt mit Hilfe dieser ist es möglich, die Störeinflüsse auf alle Gruppen gleich zu verteilen (= Randomisierung) → aus einer Stichprobe werden die Personen zufällig den Untersuchungsgruppen zugeordnet. 128. Erklären Sie einen vollständig gekreuzten Versuchsplan (2x2 faktorielles Design) an einem Beispiel. bei vollständig gekreuzten Versuchsplan hat man 2 Faktoren mit jeweils 2 Ausprägungen → ergibt 4 Zellen Beispiel: 1. 1. Faktor Geschlecht (Ausprägung männlich, weiblich), 2. 2. Faktor Depression (Ausprägung ja, nein) 3. Im Versuchsplan wird jede Ausprägung des einen Faktors mit jeder Ausprägung des anderen Faktors kombiniert und untersucht, also G(m), D(ja); G(m), D(nein); G(w), D(nein); G(w), D(ja) → so kann die maximale Anzahl an Zellen realisiert werden 129. Berechnen Sie den Haupteffekt des Faktors „Fahrerfahrung“ auf die durchschnittliche Unfallhäufigkeit. Alkoholgehalt im Blut 0-0.5 ‰ 0.6-1 ‰ 1.1-1.5 ‰ 3 7 20 Fahrerfahrung < 5 Jahre ≥ 5 Jahre 2 4 18 < 5 Jahre = 10 ≥ 5 Jahre =8 22 130. Mittelwerte unterscheiden sich→ impliziert Haupteffekt des Faktors "Fahrerfahrung" (allerdings muss man eine Signifikanztest machen, um festzustellen, ob wirklich ein Haupteffekt vorliegt) Interpretieren Sie die Effekte (Haupteffekt? Interaktion?) der Faktoren A und B auf das abhängige Maß mit Hilfe eines konkreten Beispiels. es liegt eine disordinate Interaktion vor, also keine Interaktion Haupteffekte sollten in solch einem Fall nicht interpretiert werden Beispiel: Interaktion zwischen Art der Therapie und Art der Depression - AV: Depression nach der Therapie → Therapie A1 wirkt bei Depressionsart B2 besser und bei B1 schlechter, Therapie A2 wirkt jedoch bei Depressionsart B2 besser und bei Therapie A2 schlechter → Art der Therapie wirkt also je nach Art der Depression unterschiedlich 131. Was ist ein unbalancierter Versuchsplan? = ungleiche Anzahl von Beobachtungen pro Zelle 132. Was ist ein orthogonales Versuchsdesign? Im orthogonalen Design sind die beiden Faktoren nicht miteinander assoziiert bzw. korreliert (Varianzhomogenität) Elfte Vorlesung (11.01.) 133. Erklären Sie Logik und Aufbau eines Blockgruppenplans. Aufbau: Probanden werden entsprechend ihren Ausprägungen auf einer Kontrollvariablen zu Blöcken zusammengefasst (homogenisiert) Danach werden die Probanden aus den gleichen Blöcken zufällig auf die experimentellen Gruppen verteilt Man hat also zunächst eine Stichprobe. Diese untersucht man und teilt die Probanden in Blöcke. Aus diesen Blöcken teilt man die Probanden dann zufällig auf die Experimentalgruppen auf. Dies hat den Vorteil, dass Probanden aus jedem Block in jeder Experimentalgruppe sind. Damit wird eine Gleichverteilung sichergestellt. 134. Warum führt ein Blockgruppenplan zu einer Erhöhung der Testpower, wenn tatsächlich ein Effekt vorliegt? (Veranschaulichung an einem simplen Diagramm wird empfohlen) Konstanthalten einer theoretisch irrelevanten Einflussvariablen reduziert Fehlervarianz So höhere Testpower , so Einfluss auf AV 135. Nennen Sie Vorteile und Nachteile von Blockgruppenplänen. Vorteile Konstanthalten einer theoretisch irrelevanten Einflussvariablen reduziert Fehlervarianz Höhere Testpower wenn Einfluss auf AV Nachteile Aufwändiger Matching-Prozess (Zeit, Personen, Testung) reduzierte Generalisierbarkeit Reduzierte Testpower bei schlechter Homogenisierung 23 136. Welche Arten der Bedingungsvariation werden in einem Mischplan vorgenommen? Es werden interindividuelle (Vergleiche von Messung zwischen Personen = between subject design) und intraindividuelle (Vergleiche von Messungen innerhalb der Peson = within subjekt design) Bedingungsvariationen vorgenommen. 137. Nennen Sie Vorteile und Nachteile einer intraindividuellen Bedingungsvariation (Messwiederholungsplan). Vorteile Verringerte Fehlervarianz durch Konstanthalten von personenbezogenen Faktoren → größere Testpower Ökonomie (Vpn, Zeit, Ressourcen) Präzisere statistische Auswertungstechniken Nachteile Längere Experimentdauer → Ermüdung, Langeweile Übertragungseffekte (carry-over effects) aufgrund von: Lernen, Übung, Sensitivierung und Desensitivierung (Habituation) Erinnerung an frühere Antworten (Kontrast, Assimilation) Erwartungseffekte (demand characteristics) 138. 139. Erläutern Sie drei grundlegende Vorgehensweisen, wie Sequenzeffekte einer intraindividuellen Bedingungsvariation unter experimentelle Kontrolle gebracht werden können. Ausbalancierung der Reihenfolge (counterbalancing) Minimierung von Sequenzeffekten Einführung der Reihenfolge als separate UV → Trennung der Sequenzeffekte von Behandlungseffekten Beschreiben Sie eine vollständige Ausbalancierung der Reihenfolge von zwei Treatments anhand eines konkreten Beispiels. Welche Probleme können bei einer vollständigen Ausbalancierung auftreten? Bei der Ausbalancierung von medikamentöser (M) und Verhaltenstherapie (V) ist es notwendig alle möglichen Reihenfolgekombinationen zu realisieren. Dies sind in diesem Fall: MV und VM. Probleme: - hohe VP-Anzahl notwendigbei k- Treatments (sprich k Fakultät) - unsymmetrische SequenzeffekteTreatment Ki wirkt vor Kj anders als Kj vor Ki 140. In einem Experiment wird der Einfluss von bedrohlichen Reizen auf die Aufmerksamkeitsallokation untersucht. Jeder Versuchsperson werden Bilder mit folgenden Inhalten gezeigt: (1) Spinnen, (2) Schlangen, (3) Waffen und (4) Verletzungen. Nehmen Sie eine Ausbalancierung der Reihenfolge der Bilder in einem lateinischen Quadrat vor. Lateinisches Quadrat: ABCD jedes Treatment an jeder ordinalen Position BDAC jedes Treatment vor und nach jedem anderen Treatment CADB (Problem: Lateinisches Quadrat benötigt eine gerade Stufenanzahl) DCBA 1 2 3 4 2 1 4 3 3 4 1 2 4 3 2 1 24 141. Nennen Sie Beispiele dafür, wie Carry-over Effekte eines experimentellen Treatments auf ein nachfolgendes Treatment eliminiert werden können. Prätraining, Zeit für Adaption oder Habituation, Pausen, Cover-story 142. Erklären Sie mit einem konkreten Beispiel, warum in Untersuchungen häufig die Bedingungsreihenfolge als eigenständiger experimenteller Faktor in das Design aufgenommen wird. Beispiel: Experiment, bei dem starke und schwache Elektroschocks gegeben werden Reihenfolge kann aufgrund von Habituations- oder Sensitivierungseffekten die Ergebnisse stark beeinflussen macht man die Reihenfolge zu einer eigenen Variablen, kann man diese Effekte kontrollieren. 143. 144. 145. Erklären Sie Aufbau und Nutzen von Solomons vier-Gruppen Plan. Aufbau: Der Plan besteht aus vier Gruppen die verschiedene Designs durchlaufen: o Gruppe 1 durchläuft Pretest, Treatment und Posttest o Gruppe 2 nur Pretest und Posttest- Design o Gruppe 3 erhält Treatment und Posttest o Gruppe 4 nur Posttest Gruppen 1 und 2 realisieren Pretest-Posttest Design Gruppen 3 und 4 ermöglichen Prüfung von Vortesteffekten: o Treatmenteinfluss mit Pretest (Gruppen 1 und 2) vs. o Treatmenteinfluss ohne Pretest (Gruppen 3 und 4) Nutzen: korrektere Einschätzung der Stärke eines Treatmenteffekts! Unter welchen Umständen sollte ein Messwiederholungsplan eingesetzt werden? Starke Korrelation zwischen Personenvariablen und AV (A-priori Fähigkeitsunterschiede zwischen Personen verursachen starke Variationen in der Aufgabenleistung.) Geringe Verfügbarkeit von Versuchsteilnehmer(innen) (klinische Gruppen, soziale und berufliche Untergruppen etc.) Experimentelle Untersuchung von Sequenzeffekten (Carry-over Effekte sind theoretisch interessant, Untersuchung von Effekten des Trainings, der Übung, der Habituation und Sensitivierung, etc.) Vergleichen Sie die Vor- und Nachteile von „between-subjects“ und „within-subjects“ Designs. Vorteile Nachteile Between-subjects design * keine carry-over Effekte * hohe Generalisierbarkeit * kürzere Experimentdauer * viele Vpn * interindividuelle Variation erhöht Fehlervarianz * geringe Testpower Within-subjects design * spart Vpn * reduziert Fehlervarianz * hohe Testpower * carry-over Effekte * Erwartungs- und Sequenzeffekte * längere Experimentdauer 146. Was ist ein multivariater Versuchsplan? Welche Vor- und Nachteile sind mit dieser Versuchsanordnung verbunden? Ein multivariater Versuchsplan hat mehrere abhängige Maße (mehrere AV’s) Vorteile: o Ökonomie (Vpn, Zeit, Ressourcen) o Chance steigt, dass eine der AV sensitiv für die UV ist o Manipulationscheck möglich o Zusammenfassung zu einem sensitiven Gesamtmaß Nachteile: o Korrelation zwischen den abhängigen Variablen, Reihenfolgeeffekte 25 Zwölfte Vorlesung (18.01.2010) 147. Was ist unter der „Validität“ einer Untersuchung zu verstehen? Wahrscheinlichkeit von korrekten Entscheidungen = Gültigkeit einer Untersuchung Eignung einer Untersuchung, falsche empirische Hypothesen als falsch und richtige empirische Hypothesen als richtig zu erkennen 148. Erklären Sie den Unterschied zwischen der internen und externen Validität einer Untersuchung. Interne Validität: Die Unterschiede in der UV tatsächlich die Ursache für die Unterschiede der AV sind (Störvariablen wurden berücksichtigt) (→ experimentelle Bedingungen unterscheiden sich nur in den UV-Variationen) externe Validität: Die Beziehung auch auf andere Personen, Situationen oder Materialien übertragbar (generalisierbar) sind → ökologische Validität 149. Was wird unter dem Konzept der „Variablenvalidität“ gefasst? Beziehen sich die kausal assoziierten Variablen tatsächlich auf die zu untersuchenden theoretischen Begriffe? Variablenvalidität = adäquate Operationalisierung von nicht direkt beobachtbaren Konzepten durch Beobachtungen oder Messungen 150. Wodurch kann die Variablenvalidität verbessert werden? Validität einer Variablen ist umso sicherer, je eindeutiger und sicherer die individuellen Ausprägungen der interessierenden theoretischen Variablen durch die individuellen Ausprägungen der empirischen Variablen erfasst werden. Variablenvalidität ist umso höher, ... je besser die realisierten Ausprägungen der empirischen Variablen die Ausprägungsmöglichkeiten der theoretischen Variablen abdecken (→ Durchschlagskraft der UV) („große Aggression“ ist besser mit „keine Aggression“ zu vergleichen, als „geringe A.“ mit „keiner A.“) je mehr adäquate Operationalisierungen für ein theoretisches Konstrukt eingesetzt werden (→ konzeptuelle Replikation) je besser die Entsprechung zwischen dem Skalenniveau der empirischen Variablen mit dem Begriffstypus der theoretischen Variablen ist. (Wenn Geschlecht gefragt, ist Quatsch eine Skala von 0-100 anzubieten) 151. In welche Varianzanteile lässt sich die Datenvarianz eines Experiments zerlegen? 1) Primärvarianz: Varianz aufgrund UV (Signal) →AV 2) Sekundärvarianz: systematischer Störeinfluss („bias“) (Konfundierung) 3) Zufallsfehlervarianz: unsystematischer, zufälliger Störeinfluss -> Ablenkungen (variieren nicht systematisch mit UV) 152. Erläutern Sie das Max-Kon-Min Prinzip. 1. Maximiere die Primärvarianz („Signal“) - Wahl von Extremgruppen - Wahl von „optimalen“ Werten der UV - Geeignete Operationalisierung 2. Kontrolliere die Sekundärvarianz („systematische“ Fehler) - Eliminierung eines Störfaktors - Konstanthaltung eines Störfaktors für alle Versuchsgruppen und experimentellen Bedingungen (z.B. Placebo-Effekte) 26 3. Minimiere die Zufallsfehlervarianz („Rauschen“) - Wahl eines geeigneten Versuchsplans - Standardisierung der Untersuchungssituation (Labor) - Erhöhung der Zuverlässigkeit (und Gültigkeit) des Messinstruments - Großer Stichprobenumfang 153. 154. 155. 156. 157. Erklären Sie die Logik einer Varianzanalyse (F-Test). Die Varianzanalyse, der F-Test, zerlegt die Varianzquellen der Gesamtvarianz (Gesamtvarianz = Primärvarianz + Fehlervarianz (Fehlervarianzen= Sekundärvarianz und Zufallsfehlervarianz)): o Primärvarianz = Varianz zwischen den UV- Bedingungen o Fehlervarianz = Varianz innerhalb der UV- Bedingungen. o Die Gruppen sollen sich voneinander unterscheiden, innerhalb der Gruppen sollen wenige Variationen sein. Anschließend wird der F-Wert berechnet, indem man die mittlere Quadratsumme der Primärvarianz durch die mittlere Quadratsumme der Fehlervarianz teilt Je größer der F-Wert, desto kleiner die Wahrscheinlichkeit, dass der Mittelwertsunterschied zufällig durch Messfehler zustande gekommen ist Varianzanalyse kann nur zufällige Fehler messen Systematische Fehler können nicht ausgeschlossen werden Wieso wird die interne Validität auch als Validität der Ceteris-paribus Bedingungen bezeichnet? Bei interner Validität unterscheiden sich die experimentellen Bedingungen nur in den UVVariationen und alle Variablen außer den gezielt variierten UV haben die gleiche Ausprägung oder die gleiche Verteilung. Weil empirische Ergebnis einer intern validen Untersuchung ist eindeutig kausal interpretierbar sind! (sonst kein kausaler Schluss möglich) Das entspricht den Ceteris-Paribus-Bedingungen, bei denen alle anderen Einflussfaktoren (alle Rahmenbedingungen außer die relevanten Größen in der Prämisse) konstant bleiben Nennen Sie typische Störquellen der internen Validität einer Untersuchung. Unterschiede zwischen Situationen (Räumlichkeiten, Instruktionswortlaut, Versuchsleiter- verhalten, Lärmbelästigung, Untersuchungszeitpunkt, Antwortregistrierung, ...) Unterschiede zwischen Personen (Geschlecht, mittlere Lebensalter, Bildung, Motivation, Vorerfahrung mit Experimenten, ...) Unterschiede zwischen Positionen (Sequenzeffekte, Carry-over Effekte, Erwartungseffekte, Übung, Ermüdung, Erinnerung, ...) Was ist eine Störvariable? Störvariablen sind sowohl mit der UV als auch mit der AV assoziiert. Siehe Frage 155?! Nennen Sie verschiedene Techniken für eine Kontrolle von Störeinflüssen. Kontrollgruppen, Störvariablen eliminieren, Störvariablen konstant halten, Gruppen parallelisieren, Verwendung von abhängigen Gruppen durch Messwiederholung, Bedingungen ausbalancieren, Störvariable als zusätzliche explizite UV einführen, Störvariable als Kovariable einführen, randomisierte Bedingungszuweisung. 158. Was ist der „Hawthorne-Effekt“? Auch "Versuchskanincheneffekt", beschreibt das Phänomen, dass allein die Teilnahme an einem Experiment zu einer Veränderung von Verhalten führen kann Nicht konstant gehaltene Störvariable ist dabei das Wissen an einem Versuch teilzunehmen 27 Dies führt zu Reaktivität, also erhöhter Aufmerksamkeit und Anstrengung Beispiel: Untersuchung der Wirkung der Arbeitsplatzbedingungen auf Arbeitsleistung von Arbeiterinnen (bessere ↔ normale Beleuchtung) egal welche Manipulation: Arbeiterinnen wurden stets produktiver 159. 160. Was ist eine Konfundierung? = Störvariable wirkt auf die AV ein und variiert systematisch mit den Stufen einer UV Konfundierung der Beleuchtung (UV) mit Reaktivität → keine eindeutige kausale Schlussfolgerung mehr möglich! Nennen Sie ein Beispiel für eine Elimination einer Störvariablen. Störeinfluss ausschalten Bsp: Lärm → Schallschutz Nur bei Situationsmerkmalen möglich, aber nicht bei organismischen Variablen (Alter, Vorwissen, Intelligenz, etc.) Reduzierte ökologische Validität als mögliche Konsequenz 161. Nennen Sie ein Beispiel für ein Konstanthalten einer Störvariablen. Konstante Umgebung/Bedingungen schaffen Bsp: konstanter Lärmpegel, Wortlaut der Instruktion, Material, Antwortregistrierung Oft Laborsetting nötig Hoher Aufwand Reduzierte ökologische Validität 162. Warum ist eine randomisierte Zuweisung von Untersuchungseinheiten zu den experimentellen Bedingungen so wichtig? Die Randomisierung ist das Kernmerkmal eines Experiments. Sie ermöglicht die Kontrolle von unbekannten und nicht erfassten Sörvariablen und ist somit eine unverzichtbare Kontrolltechnik. Durch die randomisiete Zuweisung erreicht man eine Gleichverteilung der Störeinflüsse auf die experimentellen Bedingungen. Die Wahrscheinlichkeit, dass trotz Randomisierung ein Unterschied zwischen den Bedingungen hinsichtlich einer Variablen besteht, sinkt mit der zahl der zufällig zugeordneten Einheiten. 163. In der Forschungspraxis ist eine freiwillige Teilnahme an Experimenten Standard und eine ethische Verpflichtung. Welche methodischen Probleme können durch die Bevorzugung von freiwilligen Versuchsteilnehmern entstehen? Selektivität der Stichprobe → stellt Repräsentativität in Frage Ausfalleffekte 164. Was sind „Ausfalleffekte“? Eine Vpn kann aus verschiedenen Gründen nicht mehr am Experiment teilnehmen. (z.B.: wenn Person keine Lust mehr hat, kann sie keiner zwingen weiterzumachen) 28 Dreizehnte Vorlesung (25.01.2010) 165. Welchen Nutzen bringt eine Parallelisierung von Gruppen? Kontrolle von Störvariablen durch Bildung von homogenen VP-Paaren, Tripeln, Blöcken Ermöglicht Kontrolle von organismischen Variablen, die gruppeninterne Fehlervarianz wird so reduziert 166. Was ist eine Moderatorvariable und wie kann sie experimentell isoliert werden? Sie ist eine Drittvariable, die den Einfluss der UV auf die AV verändert Sie kann varianzmäßig von der UV getrennt werden (mittels Kovarianzanalyse) 167. Was ist der „Rosenthal-Effekt“? Dies ist der Versuchsleiter- Erwartungseffekt Durch die Informationen, die der Versuchsleiter hat, kommt es zu Ergebnissen, die dieser erwartet, obwohl vorher randomisiert und parallelisiert wurde 168. Erklären Sie Logik und Aufbau eines Doppelblindversuchs. Aufbau: bei Doppelblindversuch kennen weder Versuchsleiter noch Versuchsperson die Untersuchungshypothesen bzw. die Bedingungszuweisung Logik: dadurch werden systematische Erwartungseffekte reduziert bzw. verhindert 169. Erklären Sie das Prinzip der isolierenden Variation. Ein Grundprinzip der Versuchsplanung o Manipuliere stets nur eine Variable X “zu einem Zeitpunkt”, d.h. kontrolliere die möglichen Störfaktoren. o Wenn dann eine Veränderung in der abhängigen Variable Y eintritt, dann kann X als Ursache dafür angesehen werden. Unter diesem Prinzip lassen sich letztlich alle Kontrolltechniken subsumieren. 170. Was bezeichnet die externe Validität einer Untersuchung? Wodurch wird sie beeinträchtigt? Die externe Validität bezeichnet die Repräsentativität der Stichprobe und der Untersuchungssituation, welche die Übertragbarkeit der Ergebnisse auf die Grundgesamtheit bestimmt. (Populationsvalidität) Die externe Validität kann beeinträchtigt werden durch: o reaktives Testen o Interaktion zwischen der Antwortneigung des Subjekts (der Vpn) und der UV o reaktive Effekte der experimentellen Untersuchungsanordnung o multiple-Treatment-Interferences 171. Was sind statistische Hypothesen und wozu werden sie benötigt? Statistische Hypothesen sind Hilfsmittel zur Beantwortung von psychologischen Fragestellungen anhand empirischer Daten und dienen der zufallskritischen Absicherung von Entscheidungen. 172. Erläutern Sie den Zusammenhang zwischen empirischen Vorhersagen und statistischen Hypothesen. Empirische Vorhersage und statistische Hypothese müssen homomorph (strukturgleich) sein Entscheidungen über die statistischen Hypothesen müssen eindeutig und sinnvoll auf Entscheidungen über die empirischen Hypothesen abzubilden sein o wenn H0 wahr, dann ist die empirische Vorhersage falsch o wenn H0 falsch, dann ist der Falsifikationsversuch bestanden ABER: keine logische Wahrheit der statistischen Hypothese (SH) ABER: Eindeutige Festlegung der Falschheit einer SH nicht möglich ABER: Zusatzannahmen für die logische Implikation psychologische Hypothese→ SH 29 Vierzehnte Vorlesung (01.02.2010) 173. 174. Was ist ein Signifikanztest? Instrument zur Entscheidung, ob erwartete und tatsächliche Datenstrukturen systematisch oder zufällig miteinander übereinstimmen oder voneinander abweichen Dient der Überprüfung der Reliabilität von Mittelwertsdifferenzen Dient der Prüfung von statistischen Hypothesen, d.h. von Aussagen über Verteilung oder Parameter (→ Populationstest) Ziel des Signifikanztests: Zufall als Alternativerklärung eines Unterschieds ausschließen Warum ist die Normalverteilung von Zufallsvariablen so wichtig für die Prüfung von statistischen Hypothesen? Die Normalverteilung (auch gaußsche Normalverteilung genannt) ist ein wichtiger Typ kontinuierlicher Wahrscheinlichkeitsverteilung. Die besondere Bedeutung der Normalverteilung beruht u.a. auf dem zentralen Grenzwertsatz, der besagt, dass eine Summe von n unabhängigen, identisch verteilten Zufallsvariablen im Grenzwert n → ∞ normalverteilt ist. d.h., dass man Zufallsvariablen dann als normalverteilt ansehen kann, wenn sie durch Überlagerung einer großen Zahl von unabhängigen Einflüssen stehen. Statistische Hypothesen lassen sich durch die Normalverteilung entweder exakt oder wenigstens in guter Näherung beschreiben, vor allem Prozesse, die in mehreren Faktoren abhängig voneinander in verschiedene Richtungen wirken. 175. Was besagt der zentrale Grenzwertsatz? Der zentrale Grenzwertsatz befasst sich mit unabhängigen, identisch verteilten Zufallsvariablen und besagt, dass deren Erwartungswert und deren Varianz endlich sind.: Die Summe von n unabhängigen, identisch verteilten Zufalls- variablen im Grenzwert von n→∞ ist normalverteilt, d.h. jede zufallsverteilte Variable nähert sich bei hinreichend großem n einer Normalverteilung an. 176. Nennen Sie bekannte Testverteilungen. T-Test , F-Test, Students t-Verteilung, Chi-Quadrat- Test, Mann-Whitney U-Test, ... 177. Was zeigt der Standardfehler der Mittelwerte an? Der Standardfehler ist definiert als die Standardabweichung des Mittelwertes, d.h. als die Wurzel aus der Varianz der Verteilung der Stichproben-Mittelwerte von gleichgroßen, unabhängigen, zufälligen Stichproben aus einer gegebenen Grundgesamtheit. Bezeichnen n die Größe der Stichprobe und σ2 die Varianz der Grundgesamtheit, so ist der Standardfehler durch folgende Formel gegeben: (M =Mittelwert der Stichproben) Der Standardfehler liefert eine Aussage über die Güte des ermittelten Mittelwertes. Je mehr Einzelwerte es gibt, desto robuster ist der Mittelwert und desto kleiner der Standardfehler. Der Standardfehler findet z.B. Anwendung bei der Messung von Konstanten. Wenn bei der Messung unterschiedliche Ergebnisse ermittelt, liegt es nicht an der Konstanten, sondern die Abweichungen werden z.B. von Messfehlern verursacht (auch Ungenauigkeit des Messgerätes). Misst man häufiger, so nähert sich der Mittelwert der Messung dem wahren Wert in folgendem Sinne an: Wie die Formel für den Standardfehler zeigt, sind viermal so viele Messungen nötig, um eine doppelte Genauigkeit zu erreichen. Im Gegensatz dazu bildet die Standardabweichung die in einer Population (=Grundgesamtheit) tatsächlich vorhandene Streuung ab, die auch bei höchster Messgenauigkeit und unendlich vielen Einzelmessungen vorhanden ist (z.B. Gewichts-/ Größenverteilung...). Sie Zeigt, ob Einzelwerte nahe beieinander liegen oder eine starke Entfernung zwischen den Daten vorliegt. 30 178. Welches statistische Entscheidungsproblem versucht die Inferenzstatistik zu lösen? Antwort auf die Frage, ob die registrierte Mittelwertsdifferenz zufällig (dieselbe Population) oder systematisch (verschiedene Populationen) entstanden ist Ist die empirisch festgestellte Mittelwertsdifferenz zwischen den Bedingungen durch die experimentelle Behandlung oder nur durch Zufall entstanden? Frage: Stammen die Sichproben-Kennwerte (m1, m2) aus derselben Grundgesamtheit (H0: μ1 = μ2 Zufallsdifferenz) oder aus verschiedenen Grundgesamtheiten (H1: μ1 ≠ μ2 systematische Differenz)? 179. Wann gilt eine Mittelwertsdifferenz als statistisch signifikant? Die Werte sind statistisch signifikant, wenn die Wahrscheinlichkeit p, dass die Mittelwertdifferenzen aus zwei oder mehreren Stichproben, die aus derselben Population stammen, zufällig entstanden ist, nur sehr gering ist. (p < 0,5) d.h. der Unterschied ist bedeutsam, entstand nicht zufällig p … Mittelwertsdifferenz unter Annahme der H0 180. Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt α an? Zufälliger Unterschied wird als Effekt ausgegeben: α (False Alarm), d.h. die H0 wird abgelehnt, obwohl sie eigentlich zutrifft. P (H1 annehmen | H0 gilt) = α < 0.05 (meistens) 181. Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt 1-α an? P (H0 annehmen | H0 gilt) = 1- α d.h. ein zufälliger Unterschied wird als solcher auch erkannt und abgelehnt (Correct Rejection) 182. Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt β an? P (H0 annehmen | H1 gilt) = β d.h. ein systematischer Unterschied wird als Zufall betrachtet (Miss) es gibt einen Effekt, aber er wird nicht erkannt 183. Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt 1-β an? P (H1 annehmen | H1 gilt) = 1- β d.h. ein systematischer Unterschied wird als solcher auch entdeckt (Hit) Hit-Rate = Teststärke 184. Benennen Sie die Wahrscheinlichkeiten von statistischen Entscheidungen in Termini der Signalentdeckungstheorie (Hits, False Alarms, Correct Rejections, Misses). α (False Alarm): Zufälliger Unterschied wird als Effekt ausgegeben 1- α (Correct Rejection): Zufälliger Unterschied wird als solcher erkannt β (Miss): Systematischer Unterschied wird als Zufall betrachtet 1- β (Hit): Systematischer Unterschied wird als solcher entdeckt 185. Was sind strenge, wohlwollende und faire Hypothesenprüfungen ausgedrückt in den Wahrscheinlichkeiten für Fehlentscheidungen? Strenge HÜ (min α -Fehler), wohlwollende HÜ (max 1- β) und faire HÜ (α = β) 186. Sie wollen zwei Stichprobenmittelwerte in einem t-Tests für unabhängige Stichproben auf Signifikanz prüfen. Beschreiben Sie die groben Vorgehensschritte. Aufstellung einer Null- und einer Alternativhypothese H0: ungerichtet: μ1 = μ2 gerichtet: μ1 ≤ μ2 H1: ungerichtet: μ1 = μ2 gerichtet: μ1 > μ2 Festlegung des Signifikanzniveaus α P (Ablehnung von H0|H0 zutreffend) ≤ α (α = .05) Erhebung der empirischen Daten Erhebung der Variablenausprägungen Y in n1 Personen aus Gruppe 1 und n2 Personen aus Gruppe 2. Berechung der arithmetischen Mittelwerte y1 und y2 und Varianzen s21 und s22. 31 Berechnung des empirischen Werts der Teststatistik = Mittelwertsdifferenz / gepoolte Standardabweichung* Standardfehler Zahl der Freiheitsgrade (df): n1 + n2 – 2 Bestimmung der Überschreitungswahrscheinlichkeit Bestimmung der Wahrscheinlichkeit p, dass bei Gültigkeit von H0 eine t -verteilte Zufallsvariable mit df Freiheitsgraden einen Wert annimmt (temp), der in Richtung der H1 liegt. (empirischer Wert im Bezug zum kritischen Wert setzen) - Einseitig: p = P(tkrit ≤ temp) temp ≥ tkrit (Effekt, signifikant) - Zweiseitig: p = P( |tkrit| <> |temp|) wenn der empirische t-Wert größer oder gleich dem kritischen t-Wert ist, dann gibt es einen Effekt; der Unterschied ist signifikant Entscheidung über die statistischen Hypothesen p ≤ α → H0 wird abgelehnt (und H1 wird beibehalten). p ≥ α → H0 wird (vorläufig) beibehalten (und H1 wird abgelehnt). - One-tailend test (Unterschied einseitig, gesamter Fehler α wird auf eine Seite geschoben, kritischer t-Wert = 1.65, sobald empirischer Wert > 1.65 → signifikant) - Two-tailed test (Zweiseitig: α -Fehler wird aufgeteilt → sobald |Wert| > 1.95 (empirischer Wert liegt zwischen den beiden kritischen t-Werten) → signifikant) begründete Entscheidungen über die Akzeptanz oder Ablehnung von statistischen Hypothesen. 187. Was bedeutet der p-Wert inhaltlich? Die Wahrscheinlichkeit, dass (unter Annahme der Gültigkeit der H0) der Bedingungsunterschied rein zufällig beobachtet wurde. 188. Welche Vorteile bringen Signifikanztests? Systematische Berücksichtigung von unvermeidlichen Abweichungen von den Ceteris-Paribus Bedingungen durch unkontrollierbare Zufallseinflüsse („Fehlervarianz“) . Entscheidungen über die statistischen Hypothesen können konsistent und ohne unrealistische Annahmen getroffen werden. (Auswertungsobjektivität) Durch die explizite Kontrolle von α- und β-Fehlern kann die Strenge und das Wohlwollen von Prüfungen beeinflusst werden. Anwendung von Signifikanztests ist eine weithin akzeptierte Strategie der Datenauswertung und Hypothesenprüfung unter Fachwissenschaftlern Auswertungsobjektivität 32 189. Diskutieren Sie Mängel und typische Probleme von Signifikanztests. o Eine exakte Nullhypothese μ1 - μ2 = 0 ist streng genommen niemals wahr → Wahrscheinlichkeit eines exakten Werts geht gegen Null. o Entscheidung über H0 beruht auf P(Daten|H0). Diese bedingte Wahrscheinlichkeit sagt nichts über die Wahrscheinlichkeiten P(H0|Daten) und P(H1|Daten) aus. o Der ermittelte p-Wert gibt weder die Bedeutsamkeit noch die Replizierbarkeit des Ergebnisses an (über Bedeutsamkeit der Effekte ist keine direkte Schlussfolgerung möglich) o Die (Nicht-) Signifikanz eines Tests sagt nicht unbedingt etwas über die Größe der Abweichung der Daten von der H0 aus. o Ob eine Abweichung von der H0 als signifikant entdeckt wird oder nicht, hängt sehr stark von der Anzahl der Untersuchungseinheiten ab. Fünfzehnte Vorlesung (08.02.2010) 190. Was ist die Teststärke, und welche Bedeutung hat sie für die statistische Hypothesenentscheidung? Teststärke = Wahrscheinlichkeit, mit der ein Signifikanztest zugunsten der H1 entscheidet, falls diese zutrifft Die Teststärke hat den Wert 1-β, wobei β die Wahrscheinlichkeit bezeichnet, einen Fehler 2. Art zu begehen. Durch sie hat man ein Maß dafür, wie gut ein Test misst, also wie gut man mit einem Test Unterschiede finden kann 191. Durch welche Einflussgrößen wird die statistische Testpower erhöht (bzw. verringert)? Wenn alle anderen Faktoren konstant sind, ist die statistische Power 1- β umso größer, je größer die tatsächliche Effektgröße (Differenz von μ1–μ2) je größer das Signifikanzniveau α ist (sofern β nicht festgelegt ist) je größer der Stichprobenumfang N= n1 + n2 ist (da der Standardfehler kleiner wird) 192. Erklären Sie den Unterschied zwischen absoluten und relativen Effektgrößen. absoluten Effektgrößen sind die empirischen Mittelwertsdifferenzen in bekannten Maßeinheiten, geben aber keine Info über Varianz der abhängigen Variablen relativen Effektgrößen sind die empirischen Mittelwertsdifferenzen an der gemeinsamen Standardabweichung innerhalb der Gruppen relativiert 193. Experiment 1: M1= 15, M2= 20 Items (σ= 10). Experiment 2: M1= 15, M2= 20 Items (σ= 5). Berechnen Sie die Effektgröße (Cohens d) für beide Experimente. Welches Experiment hat den größeren Effekt produziert? Experiment 1: d = 15-20 / 10 = - 0,5 Experiment 2: d = 15-20 / 5 = -1 Das Experiment 2 hat den größeren Effekt. Ab einem Wert von 0,8 spricht man von einer großen Effektstärke. 33 194. Die Korrelation zwischen Vernachlässigung im Kindesalter und Straffälligkeit im Jugendalter beträgt r= .60. Berechnen Sie den Determinationskoeffizienten, und erklären Sie seine Bedeutung an diesem Beispiel. r2=0.36 → der Determinationskoeffizient ist der Anteil der Varianz einer Variablen, der durch die andere Variable aufgeklärt wird. die Varianz der Straffälligkeit im Jugendalter wird also zu 0.36 (ist r2= 0, dann kein linearer Zusammenhang, ist r2= 1, dann kann x zu 100% aus y vorausgesagt werden) durch die Variable Vernachlässigung im Kindesalter erklärt. 195. Sie haben eine Effektgröße (Cohens d) von d= 0.45 errechnet. Wie ist diese Effektgröße nach den Empfehlungen von Cohen einzustufen? Dies ist eine kleine bis mittlere Effektgröße. 196. Sie haben eine Effektgröße (Korrelation) von r= 0.45 errechnet. Wie ist diese Effektgröße nach den Empfehlungen von Cohen einzustufen? Dies ist eine mittlere bis große Effektgröße. 197. Welchem Zweck dienen a-priori Poweranalysen? Welche Einflussgrößen müssen dabei bestimmt werden? Dienen der Bestimmung des Stichprobenumfangs für die angestrebte Teststärke Festgelegt werden müssen dafür das alpha-Niveau, die Effektstärke und der beta- Fehler 198. Welchem Zweck dienen a-posteriori Poweranalysen? Welche Einflussgrößen müssen dabei beachtet werden? Dienen der Bestimmung der Wahrscheinlichkeit 1-β (Teststärke), der mit dem Effekt d zu entdecken war Beachtet werden müssen dabei das alpha-Niveau, die Effektgröße und der Stichprobenumfang 199. Bestimmen Sie die Stichprobengröße (pro Bedingungsgruppe, um einen mittleren Effekt mit einer Power von .80 entdecken zu können, anhand der folgenden Tabelle: Die Stichprobe müsste einen Umfang von etwa 50 haben 200. Welche Größe sollte die statistische Power im optimalen Fall erreichen? Im optimalen Fall sollte die Prüfung fair sein (alpha = beta) dies würde eine Power von 0.95 betragen. 34