PRÜFUNGSFRAGEN der VO „Philosophische

Werbung
Empirische Forschungsmethoden – Fragenkatalog
WS 2009/2010
Sophia Buchner
Erste Vorlesung (19.10.2009)
1. Worin besteht der Hauptunterschied zwischen wissenschaftlich fundiertem Wissen und
Alltagsbehauptungen?
Wissenschaftlich fundiertes Wissen ist besser begründet und geordnet als Alltagswissen.
Wissenschaft verwendet bessere Methoden bei der Erkenntnisgewinnung & -absicherung.
2. Was zeichnet die Psychologie als empirische Wissenschaft aus?
Hypothesen und Theorien werden nicht nur durch grundlegende Überlegungen und Diskussionen
überprüft, sondern v.a. an gezielt ausgewählten Erfahrungsdaten
 Antworten, Messungen, Testergebnisse usw. aus systematischen Beobachtungen,
Experimenten, Befragungen…
3. Erläutern Sie Gütekriterien von wissenschaftlichen Erklärungen.
Wissenschaftliche Erklärungen sind…
- vernunftgeleitet (sie folgen den Regeln der Logik)
- empirisch (sie beruhen auf Erfahrungsdaten)
- widerspruchsfrei
- überprüfbar und testbar (sie können durch Erfahrungsdaten verifiziert bzw. falsifiziert (!) werden
- einfach (sie ordnen und systematisieren Erfahrungen)
- allgemeingültig (beinhalten mdst. 1 Allgemeinaussage)
- vorläufig (sie sind approximativ und unvollkommen)
- unter Rechtfertigungsdruck (sie stehen im Wettbewerb mit alternativen Theorien –gut!)
Zweite Vorlesung (27.10.2009)
4. Beschreiben Sie die vier Aufgaben der Psychologie (nach Schneewind).
1. Beschreiben (möglichst umfassende und unvoreingenommene Beschreibung menschl.
Verhaltens- und Erlebensweisen)
2. Erklären (Ursachen / Bedingungen von Verhaltensweisen oder –änderungen)
3.Vorhersagen (Kenntnis von Verhaltensbedingungen erlaubt Verhaltensprognose)
4. Verändern (verhaltensändernde Wirkung von Wissenschaft)
5. Was ist mit einer Theoriegetränktheit von Beobachtungen und Erfahrungen gemeint?
Beobachtungen sind theoriegetränkt, d.h. man geht nicht völlig neutral und ohne Erwartung an die
Beobachtung heran. Die Theorie stets im Hinterkopf erwartet man ein bestimmtes Ergebnis und
trifft so eine Vorselektion von Beobachtungen  es gibt keine absolute objektive Forschung!
6. Welche grundlegenden Schritte kennzeichnen wissenschaftliches Arbeiten in der
Psychologie (mit Fragestellung als Ausgangspunkt)?
1. Entwicklung einer Forschungsfrage
2. Abduktion: Aufstellen einer Theorie
3. Deduktion: Ableiten von Folgerungen (Hypothese)
4. Wahl eines Versuchsdesigns (Experiment / Befragung / …)
5. Durchführung des Versuchs
6. Analyse der Daten (SPSS)
7. Induktion: Interpretation, und Bericht
8. Integration in Hinblick auf die Ausgangsfrage und Entwicklung fortführender Fragestellung
1
7. Was besagt das Unabschließbarkeitstheorem von Kurt Gödel?
Es ist unmöglich, wissenschaftliche Systeme rational aus sich selbst heraus zwingend zu
begründen. Jedes System von Aussagen (Theorie) enthält Sätze, auf die es aufbaut und die nicht
mehr innerhalb dieser Theorie bewiesen oder belegt werden können.
8. Was ist mit absoluten Voraussetzungen eines wissenschaftlichen Programms gemeint
Absolute Voraussetzungen sind jene Sätze, auf die eine Theorie aufbaut und die nicht mehr
innerhalb dieser Theorie bewiesen oder belegt werden können, z.B.
- die Natur und ihre Gesetzmäßigkeiten sind durch Vernunft und vernunftgeleitetes Handeln
erkennbar
- die Natur ist in kleinster Entitäten materieller Natur aufteilbar (Moleküle)
- das Auftreten komplexer Strukturen kann durch die Kombination verschiedener Einzelelemente
erklärt werden
9. Was meint Ludwik Fleck mit „Denkstilen“ und „Denkkollektiven“ in der Wissenschaft?
Denkstil: Ausbildungs- und Wahrnehmungstradition eines Denkkollektivs
Denkkollektiv: Gemeinschaft von Wissenschaftlern, die in einer gemeinsamen
Wissenschaftstradition stehen.
10. Worin sieht Wilhelm Dilthey den entscheidenden Unterschied zwischen Natur- und
Geisteswissenschaften?
„Die Natur erklären wir, das Seelenleben verstehen wir“
 Natur- und Geisteswissenschaften sind unvereinbar
Unterschiede: Naturwissenschaft ist erklärend, generalisierend; Geisteswissenschaften sind
verstehend, einfühlend, beschreiben das Individuum
11. Welche grundlegenden Methoden werden Natur- und Geisteswissenschaften zugewiesen,
und wie wird diese Zuweisung begründet?
 Dilthey unterscheidet zwei psychologische Erkenntnisweisen, nämlich die an der
naturwissenschaftlichen Methode orientierte erklärende und konstruktive Psychologie,
und die beschreibende und zergliedernde Psychologie
Naturwissenschaften: kontrollierte, systematische Beobachtungen (versucht, seelische
Erscheinungen aus einem Kausalzusammenhang abzuleiten, Suche nach allgemeinen Gesetzen)
Geisteswissenschaften: Verstehen, interpretative, hermeneutische Methoden (Hermeneutik =
Auslegung von Texten, Zeichen o.Ä.)
12. Erklären Sie Gründe und Argumente, warum eine Unterscheidung zwischen Natur- und
Geisteswissenschaften für die Psychologie nicht nutzbringend ist.
Psychologie ist weder eine reine Geisteswissenschaft noch eine reine Naturwissenschaft, befasst
sich sowohl mit Themen aus den Naturwissenschaften (körperlich-manifeste Abläufe und
Prozesse), als auch mit Themen aus den Geisteswissenschaften (mental-immaterielle Zustände und
Abläufe)
13. Worin unterscheiden sich nomothetische und idiographische Vorgehensweisen?
Der nomothetische Ansatz sucht nach allgemeinen Gesetzen, der idiographische Ansatz hingegen
befasst sich mit individuellen Beschreibungen. Gruppe  Individuum
Dritte Vorlesung (02.11.2009)
14. Wodurch entsteht ein Werteproblem für die wissenschaftliche Psychologie?
Verhältnis von Praxis / Anwendung von wissenschaftlichen Erkenntnissen in Alltag, Gesellschaft,
Politik und Wissenschaft:
Einerseits Forderung nach einer objektiven (wertfreien) wissenschaftlichen Erkenntnisgewinnung, andererseits werden wissenschaftliche Erkenntnisse an ihrem Nutzen für die
praktische Lebensführung gemessen
2
15. Nennen Sie Beispiele, wie Interessenskonflikte die Freiheit von Forschung und Lehre
beeinträchtigen können.
Einflussnahme der Wirtschaft / Politik auf die Wissenschaft: drängende Probleme fordern
wissenschaftliche Untersuchungen / Verbesserungen und werden folglich besser finanziell
unterstützt
16. Inwieweit ist die wissenschaftliche Psychologie ein soziales und kollektives Unternehmen?
- Aufnahme in die Wissenschaftlergemeinde (z.B. durch Studium),
- Akzeptanz von z.B. Studien durch Rezeption von Theorien / Meinungen  Zitationen, Preise
etc.
- sozialer Austausch durch Publikationen, Vorträge, Kooperationen (Qualitätssicherung durch
Wettstreit von Ideen / Theorien / Ergebnissen, Begutachtung durch andere Wissenschaftler vor
Herausgabe)
17. Nennen und erläutern Sie drei grundlegende ethische Prinzipien der psychologischen
Forschung.
1. Prinzip der Autonomie:
- Informierte Zustimmung vor dem Experiment (Ziele der Studie, Dauer, Methoden)
- Aufklärung in verständlicher Form
- Freiwilligkeit der Teilnahme
- Schutz der Privatsphäre (keine Verbindung Person-Daten)
2. Prinzip der Nichtschädigung und des Nutzens
- Minimierung des Schadens (psychisch & physisch)
- Positive Nutzen-Risiken-Bilanz (Rechtfertigt der Aufwand den Nutzen des Experiments?
Vorselektion bei manchen Experimenten in Hinblick auf Ängstlichkeit, Vorgeschichte bei z.B.
psychischen Störungen)
3. Prinzip der Gerechtigkeit
- gerechte Auswahl & Behandlung von Vpn (man darf nicht schon vorher bestimmte Gruppen
ausschließen, es sei denn, es ist rational begründbar; gleiche Behandlung von VG bei z.B. neuer
Behandlung / Therapie)
- Kompensation
Vierte Vorlesung (09.11.2009)
18. Womit beschäftigt sich die Erkenntnistheorie?
Erkenntnistheorie = Epistemologie
Beschäftigt sich mit Möglichkeiten, Bedingungen und Grenzen der Erkenntnis und des Wissens
 Wie ist Erkenntnis möglich? (Methodik der Erkenntnisgewinnung)
 Was können wir wissen? (Objekt der Erkenntnisgewinnung)
19. Nennen Sie die vier grundlegenden erkenntnistheoretischen Positionen, die sich jeweils
paarweise gegenüberstehen. Welche erkenntnistheoretischen Fragen werden von welchem
Paar adressiert?
Realismus vs. Idealismus (Was können wir erkennen?)
Rationalismus vs. Empirismus (Wie können wir erkennen? = Methodenfrage)
20. Welche Grundannahme kennzeichnet den Realismus?
Existenz einer von uns unabhängigen Außenwelt, die wir durch Wahrnehmung / Denken erkennen
können (=Materialismus)
Naiver Realismus: Außenwelt beeinflusst direkt unsere Sinneseindrücke
Kritik: optische Täuschungen; Wahrnehmungsillusionen; Erfahrungen und Einstellungen prägen
die Wahrnehmung (Subjektivität); verschieden gewichtete Aufmerksamkeit (selektive
Wahrnehmung); Wahrnehmungskonstruktionen (Liebe – nicht nachweisbar, also gibt es sie
nicht?)
3
21. Welche Grundannahme kennzeichnet den Idealismus.
Es gibt nur eine geistige Wirklichkeit und die uns bekannten Dinge sind nichts anderes als Gebilde
von Vorstellungen. (Wahrnehmungskonstrukte)
Radikaler Idealismus: Existenz einer ’Ideenwelt’, Wahrnehmung bestimmt, was das Objekt ist!
(Bsp: es gibt den Baum nicht, nur die Idee)  es gibt keine subjekt-unabhängige Außenwelt!
Kritischer Idealismus: es gibt etwas Materielles, welches die Ideen bestimmt
22. Heben Sie die wesentlichen Unterschiede zwischen erkenntnistheoretischen Positionen des
Realismus und des Idealismus hervor.
Gewichtung der
Erkenntnisgewinnung
Varianten
Realismus
Erkenntnis richtet sich nach
dem Objekt
Existenz einer von uns
unabhängigen Außenwelt
(durch Wahrnehmung und
Denken erkennbar)
 Begriffe einer wissensch.
Theorie beziehen sich auf reale
Entitäten
 Wissenschaft als
Annäherung an die Realität
(Wahrheit, wirklichkeitstreue
Wiedergabe)
naiver, kritischer, struktureller
Realismus
Idealismus
Erkenntnis richtet sich nach
dem Subjekt
Es gibt keine
subjektunabhängige Außenwelt,
alle uns bekannten Dinge sind
nur Wahrnehmungskonstrukte.
(radikaler I.)
“Die Welt ist meine
Erscheinung“ (kritischer I.)
radikaler, kritischer Idealismus
23. Erklären Sie die Position des Empirismus mit dem damit verbundenen Theorieverständnis.
Empirismus:
= eine erkenntnistheoretische Position und bedeutet nicht empiristisches Arbeiten.
= Die Sinneserfahrung ist die alleinige oder zumindest die wichtigste Quelle der
Erkenntnisgewinnung. („tabula rasa“)
 Der Verstand kann die Erkenntnis ordnen/verallgemeinern (induktive Schlüsse)
Methode der Erkenntnisgewinnung: Induktives Vorgehen = von den Beobachtungen zu den
Theorien (Beobachtung Phänomene, Zusammenfassung der Resultate in Theorien)
24. Erklären Sie die Position des Rationalismus mit dem damit verbundenen
Theorieverständnis.
Rationalismus:
= geht davon aus, dass Form und Inhalt allen Wissens primär im Verstand begründet ist. Durch
Denken können wir die Wirklichkeit erkennen.
= wissenschaftl. Theorie ist keine Sammlung voraussetzungsfreier Erfahrungen (Verstand gibt die
Richtung vor)
Methode: Deduktives Vorgehen = von den Theorien zu den Beobachtungen (Ableitung von
Vorhersagen aus Theorien, Überprüfung an Untersuchungsergebnissen)
25. Beschreiben Sie grundlegende Unterschiede zwischen rationalistischen und empiristischen
Positionen der Erkenntnisgewinnung.
Beim Empirismus steht v.a. die Sinneserfahrung als mehr oder weniger alleinige Quelle der
Erkenntnis im Vordergrund, während beim Rationalismus primär im Verstand das Wissen
begründet ist. Im Empirismus ist die Methode der Erkenntnisgewinnung das induktive Vorgehen:
von der Beobachtung wird auf die Theorie geschlossen. Beim Rationalismus ist es hingegen
umgekehrt: ausgehend von einer Theorie werden Beobachtungen getätigt, die die Theorie
bestätigen (deduktives Vorgehen).
4
26. Beschreiben Sie die Annahmen des Konstruktivismus und die Implikationen für die
psychologische Forschung.
Die Erkenntnisgewinnung wird von individuellen Erfahrungen, Begrifflichkeiten und Motiven
beeinflusst, für jeden Menschen existiert eine individuelle Wirklichkeit (Konstruktion der
„Wirklichkeit“)
Schlussfolgerung: es gibt nicht eine „richtige“ Wirklichkeit, sondern jeweils nur individuelle
Wirklichkeiten
Implikation: Therapeut muss die individuelle Wirklichkeit des Patienten verstehen  wie
verhalten sich unterschiedliche Menschen in identischen Situationen?
 weg vom verobjektivierenden Wirklichkeitszugang hin zur qualitativen (nicht in Zahlen
umsetzbar) und narrativen (erzählend beschreibend) Forschung.
27. Beschreiben Sie den Pragmatismus und sein „Wahrheitskriterium“ für Theorien.
Der Pragmatismus sieht Theorien als Werkzeuge an – die darin enthaltenden wissen-schaftlichen
Erkenntnisse werden nicht an ihrer Wahrheit gemessen, sondern an der Nützlichkeit für das
alltägliche Leben (Wert für die praktische Lebensführung)
„Wahrheitskriterium“: Nützlichkeit, Anwendbarkeit, Erfolg
 ‚Wahr ist das, was nützlich ist.’
28. Erklären Sie den Skeptizismus.
Grundidee: Verstand oder Erfahrung können keine Einsicht in grundlegende Wahrheiten geben.
Der Zweifel ist der Freund der Wissenschaft (= wichtig, berechtigt)
Ideal: kritische Hinterfragung aller wissenschaftlichen Aussagen (methodischer Zweifel)
29. Welche Position nimmt der „Nihilismus“ ein und welche Argumente wurden gegen diese
Position vorgebracht?
Nihilismus = Extremposition vom Skeptizismus
Grundidee: absolute Werte (Moral) und jedwede Möglichkeit von grundlegenden Erkenntnissen
(Wahrnehmung) werden verneint. Wissenschaft ist Zeit- und Ressourcenvergeudung
Gegenargumente: Erfolge der Wissenschaft (Auto, Medizin)
Logisches Problem: Wenn es keine absoluten Annahmen gibt, dann ist ja schon die Annahme,
dass es keine absoluten Annahmen gibt, widersprüchlich!
Fünfte Vorlesung (16.11.2009)
30. Welche grundlegenden Ideen gehen auf die Atomisten zurück, und inwiefern sind sie für die
Psychologie von Bedeutung?
Atomisten: Leukipp und Demokrit (Antike, ca. 400 v. Chr.)
Grundideen:
o Materialismus (nur Leere und Materie sind existent – keine Ideen)
o Materie besteht aus unendlich vielen, unteilbaren Teilchen (gr. atomos)
o Veränderung = Mischung, Entmischung, Kontakt, Abstand von Elementarteilchen
o alles unterliegt naturwissenschaftlichen Gesetzen, alles geschieht mit Grund und aus
Notwendigkeit (= Determinismus)
31. Beschreiben Sie das Höhlengleichnis von Platon. Welche Schlussfolgerungen lassen sich aus
dem Höhlengleichnis auf die Möglichkeiten der Erkenntnisgewinnung ziehen?
Gefesselte in einer Höhle betrachten Schatten von Gegenständen auf der Höhlenwand und halten
diese Schattenbilder für die Wirklichkeit. Wenn sie von ihren Fesseln befreit werden und den Rest
der Welt sehen, erkennen sie die „wirklichen“ Gegenstände = Erkenntnis.
Schlussfolgerung: Existenz einer von uns unabhängigen Ideenwelt, die den wirklich existierenden
und realen Gegenständen ihr Wesen geben, auch wenn dies nicht der Realität entspricht.
Um Erkenntnis gewinnen zu können, muss der Mensch sich von seinen Fesseln befreien und
„hinter die Dinge schauen“, „nicht nur das Vordergründige betrachten“
5
32. Was ist „Ockhams Rasiermesser“?
Sparsamkeit als methodisches Leitprinzip:
* von mehreren Theorien, die den gleichen Sachverhalt erklären, ist die einfachste allen anderen
vorzuziehen
* Theorie soll im Aufbau der inneren Zusammenhänge möglichst einfach gestaltet sein
Theorie  so kompliziert wie nötig und so einfach wie möglich
33. Nennen Sie die vier Arten von Idolen, die nach Francis Bacon zu einer Verzerrung der
Wahrnehmung und der Erkenntnismöglichkeiten führen können.
o Idole des Stammes (idola tribus): Vorgeformtheit durch die kulturelle und
gattungsmäßige Zugehörigkeit ( psychische und physische Einschränkungen
(Beschränktheit der Sinnesorgane))
o Idole der Höhle (idola specus): Erkenntniseinschränkung durch die individuelle
Beschaffenheit der Person (Sozialisation, Vorurteile etc.)
o Idole des Marktes (idola fori): Verzerrung durch sprachliche Gepflogenheiten
(sprachliche, abstrakte Konstrukte) und den „gesunden“ Menschenverstand
o Idole des Theaters (idola theatri): Beeinflussung durch Dogmen der Philosophie und dem
Zeitgeist (Naturwissenschaften haben z.Z. die Deutungsmacht)
34. Warum ist nach Francis Bacon ein experimentelles Vorgehen in der Erkenntnisgewinnung
wichtig?
Das Experiment ist methodische Hilfe für unsere Sinne und unseren Verstand.
Die Natur gibt die Wahrheit nicht ungebeten preis, deshalb ist ein aktives Eingreifen nötig
(Experiment  stellt Frage an die Natur)
35. Worin begründet René Descartes den berühmten Spruch „Ich denke, also bin ich.“?
Descartes trennt den Geist von der Materie als grundlegend verschiedene Wesenheiten und sieht
den Zweifel, also das Denken, als absolute Sicherheit an. Nur der Akt des Denkens (Zweifel)
beweist die eigene Existenz.
36. Was ist der cartesianische Schnitt? Welches Paradigma des Lebendigen wurde damit
eingeführt?
Cartesianischer Schnitt = Trennung von Geist und Körper (Leib-Seele-Dualismus)
 Einführung Maschinenparadigma des Organismus
Organismus als komplizierte Automaten, der gesetzmäßigen Regelmäßigkeiten folgt, wird auch
heute noch auf den Geist angewendet, dabei ist der Geist als eigene Substanz überflüssig (aber:
psychische Phänomene sind davon ausgeschlossen!)
37. Beschreiben Sie Auswirkungen des ontologischen Dualismus von René Descartes auf das
heutige Verständnis der Psychologie.
Ontologischer Dualismus: geistiges Sein / materielles Sein  durchzieht bis heute die
Wissenschaft
Psychologie folgt bis heute dem Maschinenmodell des Lebendigen
o Annahme, dass auch menschliches Verhalten und Geistiges Gesetzmäßigkeiten folgt als
eine Voraussetzung für psychologische Forschung und der Suche nach diesen
Gesetzmäßigkeiten
o Dualismus machte den Geist, losgelöst vom Körper, zu einer eigenen Wesenheit und
damit zum Objekt von Erkenntnis
o Psychologie befasst sich einerseits mit der Materie und andererseits mit psychischen
Vorgängen (Geist), die oft nicht aufeinander zurückführbar sind
zwei unterschiedliche Annahmen über Verhältnis Körper und Geist:
o Körper und Geist beeinflussen sich gegenseitig (Interaktionismus)
o Körper und Geist gehen harmonisch und gleichsinnig einher (Parallelismus), z.B.
Entscheidungen treffen, Motivation etc.
6
38. Welche Leitmetapher innerhalb der Psychologie wurde von Isaac Newton maßgeblich
geprägt?
Universum als kausales Kraftgefüge (Fortschreibung der Mechanisierung des Weltbildes),
Berechenbarkeit und Vorhersagbarkeit des mechanischen Systems (Determinismus);
Ziel: Universum und Natur vorhersagbar machen
Ideal einer durchgängig kausalen Naturbeschreibung: Aktion  Reaktion ( = auch
Leitmetapher innerhalb der Psychologie)
39. Welche Grundannahme kennzeichnet den englischen Empirismus?
Vertreter: David Hume, John Locke
 Das grundlegende Material des Geistes sind Sinneseindrücke und daraus abgeleitete
Ideen.
 Alle Erkenntnis wird von Erfahrungen beeinflusst, am Anfang des Lebens ist der menschl.
Geist ein unbeschriebenes Blatt („tabula rasa“)
 Einzigartigkeit des Individuums durch einzigartige Kombination von Erfahrungen
 Wahrnehmungen aktivieren über Assoziationen Ideen und andere Wahrnehmungen
40. Welches Argument wurde gegen den englischen Empirismus hauptsächlich vorgebracht?
Induktionsprinzip: aus Einzelwahrnehmungen erschließen sich Allgemeinbegriffe, es wird aber
nicht geklärt, woher das Induktionsprinzip kommt!
 Wenn alles aus Einzelwahrnehmungen kommt, wie kann dann der Mensch verallgemeinern?
41. Was meint Immanuel Kant mit „transzendentalen Kategorien“?
= Kategorien, die nicht aus Einzelerfahrungen ableitbar sind, sondern ihnen vorangehen; A-priori
Voraussetzungen des Erkennens, die bei allen Menschen und zu allen Zeiten gleichermaßen
gegeben sein müssen:
o Raum,
o Zeit,
o Kausalität,
o Relation, etc.
 machen Wahrnehmung möglich, sind angeboren, nicht gelernt
42. Wie lässt sich die Notwendigkeit einer empirisch vorgehenden Psychologie in Kants
Aussagensystem begründen?
Kant unterteilt in analytische Sätze (a priori Aussagen, enthalten ihr Prädikat in sich) und
synthetische Sätze (zusammengesetzte Aussagen, Ableitung nicht möglich, meist a posteriori
Aussagen)
Die meisten synthetischen Aussagen sind nicht a priori (durch die Gesetze der Logik und der
Deduktion) beweisbar; sie sind logisch möglich, aber nicht zwingend wahr  Wahrheitswert
muss erst empirisch festgestellt werden (= Erfahrungserkenntnis)
43. Welche Bedeutung hatte Hermann von Helmholtz für die Entwicklung der
wissenschaftlichen Psychologie?
Hermann von Helmholtz führte die experimentelle Methodik (aus der Physik) auch in die
Psychologie und in die Wahrnehmungslehre ein
o Messung der Fortpflanzungsgeschwindigkeit der Nervenerregung
o Experimentelle Arbeiten zur Sinnesphysiologie und Wahrnehmung (Dreifarbenlehre,
Prinzip des Verarbeitungsortes  modalitätsspezifische Verarbeitung im Cortex)
44. Welches Wissenschaftsverständnis liegt psychophysischen Gesetzesannahmen zugrunde?
Begründer der Psychophysik: Gustav Theodor Fechner
Psychophysik beschreibt gesetzmäßige Beziehungen zwischen objektiven physikalischen Reizen
und subjektivem Reizerleben
Gesetzesannahme: Empfindungsstärke (E), Reizintensität (R), Konstanten (c und K):
E = c * log(R) + K
7
45. Welche Methode setzten Wilhelm Wundt und seine Schüler in der Erforschung psychischer
Vorgänge und Zustände hauptsächlich ein?
Etablierung der empirisch-experimentellen Psychologie: Introspektionsmethode zur Erforschung
der Struktur des Geistes über die Isolation von „psychischen Elementen“ und deren Beziehungen
Introspektion = Selbstbericht, Selbsteinsicht in psychische Prozesse, wobei der Versuchsleiter
gleichzeitig die Versuchsperson ist
Sechste Vorlesung (23.11.2009)
46. Beschreiben und begründen Sie das Black-Box-Modell des Behaviorismus.
Organismus = Black-Box (keine Spekulation über psychische, innere Vorgänge und Strukturen
möglich, werden daher nicht weiter beachtet)
Im Behaviorismus werden Reiz-Reaktions-Beziehungen gedeutet, dass etwas im Organismus
passiert, wird zwar anerkannt, da es aber nicht beobachtet werden kann, wird es als nicht wichtig
angesehen.
47. Probleme und Argumente gegen das behavioristische Forschungsprogramm
o nicht jeder Reiz führt zu einer Reaktion
o nicht jedes Verhalten geht auf eine bestimmte Reizsituation zurück
o Überbewertung von Umwelteinflüssen
o Simplifizierung der Wahrnehmung
o es wird kein Einblick in mentale Vorgänge geleistet
o psychobiologische Grundlagen werden ignoriert ( preparedness)
o unzureichende Erklärung der Aneignung von Sprache
o Verallgemeinerung von Tierforschung auf Menschen
48. Welches Menschenbild vertritt die Kognitionspsychologie und was versteht sie unter dem
Begriff der „Kognition“?
Menschenbild: Mensch = informationsverarbeitendes System:
Eingabe  Verarbeitung und Speicherung  Ausgabe
Kognition: mentale Transformation und Manipulation von Information
o nicht auf Verhalten reduzierbar
o greifen intervenierend und moderierend in die Sequenz zwischen Reiz und Reaktion ein
(z.B. Ziele, Erwartungen, etc.)
o als Symbolverarbeitung
49. Nennen Sie wesentliche Unterschiede und Gemeinsamkeiten zwischen der
Informationsverarbeitung in Computern und in Menschen.
Unterschiede:
Mensch
Computer
Schaltungen
hochkomplex, dynamisch
einfach, statistisch
Geschwindigkeit
niedrig
sehr hoch
Parallelisierung
hochgradig
moderat
Gedächtnis
in der Struktur
in Speichern
Stärken
Analogien, Mustererkennung,
Anpassungsfähigkeit
Unzuverlässigkeit, langsames
Training,
Verweigerungshaltung, kein
Zufallsverständnis
Präzision, ewige
Wiederholungen, Stabilität
Scheuklappen, Stupidität,
Gehorsam, kein
Sinnverständnis
Schwächen
8
Gemeinsamkeiten:
o Verarbeitung von Informationen
o Fähigkeit der Speicherung von Informationen
o Weitergabe von Informationen
50. Welche theoretische Position modelliert Kognition mit künstlichen neuronalen Netzen?
Beschreiben Sie den elementaren Aufbau eines künstlichen neuronalen Netzes.
Theoretische Position: Konnektionismus (Simulation von kognitiven Funktionen mit künstlichen
neuronalen Netzen; keine Unterscheidung zwischen Software und Hardware)
Kognitionen = mentale Manipulationen von Informationen in einem informationsverarbei-tenden
System
Künstliches neuronales Netz = Vernetzung von Input-Units, Hidden-Units und Output-Units 
Ziel: Funktionsweise des menschlichen Gehirns besser verstehen, Lösen von konkreten
Anwendungsbeispielen (z.B. Robotik)
51. Welche Ziele verfolgt die Wissenschaftstheorie? Welche generellen Vorgehensweisen lassen
sich identifizieren?
Wissenschaftstheorie = Metawissenschaft
Grundlegende Ziele: Fragen und Antworten nach den Möglichkeiten und Grenzen der
Erkenntnisgewinnung,
… beschäftigt sich mit: Prinzipien, Zielen, Wegen und Ergebnissen von einzelnen
Realwissenschaften (z.B. der Psychologie)
Vorgehen:
1) Deskriptives Vorgehen: Beschreibung (Wie wird Wissenschaft betrieben?)
2) Normatives Vorgehen: Empfehlung (Wie sollte man Wissenschaft betreiben?)
52. Erläutern Sie mit einem Beispiel die Unterscheidung zwischen der Syntax, Semantik und
Pragmatik von Symbolsystemen.
Präzisierung von Beschreibungen und Erklärungen eines Phänomens mit fachspezifischen
Begriffen  Sprachliche Begriffe = bedeutungshaltige Zeichen, Symbole
a) Syntax: Beziehungen zwischen Zeichen
b) Semantik: Beziehung zwischen Zeichen und Bezeichneten (Bedeutung von Wörtern, z.B.
Haus, die Mutter geht nach Hause…)
c) Pragmatik: Beziehung zwischen Zeichen und ihrer Verwendung
53. Was kennzeichnet eine explizite Definition eines Begriffs?
Explizite Definition = der zu definierende Ausdruck (das Definiendum) wird mit anderen
Begriffen oder Aussagen (dem Definiens) gleichgesetzt (→ logische Äquivalenz)
z.B.
- Realdefinitionen
- Nominaldefinitionen
- Gebrauchsdefinitionen
- Operationale Definitionen
(logische Äquivalenz: zwischen A und B besteht eine Implikationsbeziehungen in beide
Richtungen: A ↔ B: Wenn A dann B gilt genauso wie: Wenn B dann A)
54. Erläutern Sie anhand eines Beispiels eine operationale Definition eines Konstrukts.
 Operationale Definitionen geben konkrete Anweisungen, wann und unter welchen Umständen ein
Objekt einem Begriff zugeordnet werden darf.
Beispiel: „Ein Objekt hat dann eine rote Farbe (Rotes Objekt: Definiendum), wenn die Person die
Farbe des Objektes mit „rot“ beurteilt.“ (Farburteil: Definiens)
→ hier wird die Bedeutung durch das Aufzeigen an der Erfahrung festgelegt, sie wird operational
definiert.
9
„Ein Objekt hat dann eine rote Farbe, wenn in einer Spektralanalyse das von diesem Objekt
reflektierte Licht einer bestimmten Wellenlänge entspricht.“ (Spektralanalyse: Definiens)
→ weitere Möglichkeit der operationalen Definition: Festsetzung von bestimmten Operationen an
einem Objekt, deren Ergebnisse eine eindeutige Aussage darüber ermöglichen, ob diesem Objekt
der Begriff zugeordnet werden darf
55. Stellen Sie zwei grundlegende Vorgehensweisen vor, die eine Operationalisierung von
Konstrukten ermöglichen.
 Operationalisierung durch Herstellen: Untersucher greift aktiv in die Situation ein und schafft
Bedingungen, die dem Konstrukt entsprechen sollen.
= Operationalisierung durch Angabe experimenteller Aktionen (Bsp. schwierige vs. leichte
Aufgaben, unter- vs. überschwellige Präsentation, sachliche vs. unsachliche Rückmeldungen
…)
 Operationalisierung durch Messen: entsprechend dem Konstrukt werden Personen beobachtet
oder Daten durch Fragebögen oder sonstige Tests erhoben
= Operationalisierung durch Angabe von Messanweisungen (Bsp: Leistungstests,
Persönlichkeitstests, Verhaltensbeobachtungen, Befragung…)
56. Warum sind operationale Definitionen für die Hypothesenformulierung so wichtig?
Operationale Definitionen stellen eine Verbindung zwischen (latenten) theoretischen und
(manifesten) Beobachtungsbegriffen her und sind damit für die Hypothesenformulierung
unabdingbar.
57. Welche Bedeutung haben operationale Definitionen für die Bestimmung der konvergenten
Validität eines Tests?
Konvergente Validität: Prüfung der Konsistenz der operationalen Zuweisung (wenn Angabe von
mehreren operationalen Definitionen für einen Begriff möglich ist)
58. Was ist damit gemeint, dass operationale Definitionen keine Überschussbedeutung
besitzen?
Operationale Definitionen = nur Kurzbeschreibungen für Resultate von Beobachtungen und
Verfahren unter bestimmten Bedingungen
59. Erläutern Sie die Zweisprachenkonzeption und diskutieren Sie problematische Annahmen
dieser Vorstellung.
1. Theoretische Sprache (theoretische Begriffe verbunden durch theoretische Annahmen)
↕ Zuordnungsregeln ↕
2. Beobachtungssprache (Beobachtungsbegriffe verbunden durch regelmäßige Beziehungen)
Probleme: es gibt keine klaren Kriterien für Beobachtungen  Kontinuum von direkten sinnlichen
Erfahrungen bis hin zu komplexen, indirekten Messungen mit Apparaturen;
keine Beobachtung frei von Voraussetzungen oder Theorien ( Theoriegetränktheit)
60. Wie weit muss eine Definitionskette fortgeführt werden? Welches Kriterium legt das Ende
einer Definitionskette fest?
 Explizite Definitionen bis hin zu elementaren Begriffen, die durch Verweis auf konkret
existierende Ereignisse oder Objekte bestimmt werden können
 Definitionskette endet dort, wo sie auf bestimmte undefinierte Grundbegriffe stößt (baut
darauf auf, z.B. natürliche Zahl, Gerade, Punkt etc.)
 diese undefinierten Begriffe hängen immer vom Anwendungsbereich der Theorie ab!
 Kriterium = Anwendungsbereich
10
Siebte Vorlesung (30.11.2009)
61. Welche Eigenschaften sollten wissenschaftliche Definitionen besitzen?
 Eliminierbarkeit
 Nicht-Kreativität
 Kontextabhängigkeit
 Adäquatheit (Angemessenheit, nicht wahr/falsch!)
 Präzision
62. Wann ist eine wissenschaftliche Definition „eliminierbar“?
… wenn der definierte Begriff durch das Definiens ersetzt werden kann, ohne dass sich der
Wahrheitswert der entsprechenden Aussagen ändert.
63. Warum sind wissenschaftliche Begriffsdefinitionen „nicht-kreativ“?
… weil eine Definition eine rein begriffliche Operation ist, die weder empirisch richtig noch
falsch sein kann.
64. Erklären Sie die Kontextabhängigkeit einer wissenschaftlichen Definition anhand eines
Beispiels.
Kontextabhängigkeit: Definitionen erfolgen stets in Bezug auf eine bestimmte Begrifflichkeit oder
Theorie  unterschiedliche Bedeutung eines Begriffs je nach Kontext Bsp.: Verstärker in der
Lernpsychologie / Verstärker in der Elektrotechnik
65. Wann ist eine wissenschaftliche Begriffsdefinition „inadäquat“?
o wenn die Definition zu weit ist, weil zu viele Objekte unter den Begriff fallen
o
wenn sie zu eng ist, weil zu wenig Objekte unter den Begriff fallen
o
wenn sie nur negative Bestimmungen enthält
o
wenn sie zirkulär ist (A wird mit B erklärt, und B mit A)
66. Welche Bedeutung hat die Präzision und Offenheit der Bedeutungsfestlegung von Begriffen
für den wissenschaftlichen Prozess?
Präzision: Verwendung von präzisen Begriffen im Definiens, die entweder allgemein verständlich
sind oder bereits vorher näher umschrieben wurden (Vorbild: Mathematik)
o Präzision und Offenheit haben Bedeutung, da durch sie Diskussionen über begriffliche
Differenzen angeregt werden
o Bedeutungserklärung als Teil des wissenschaftlichen Diskurses, die zur Weiterentwicklung
der Wissenschaft beiträgt
o Wenn keine Präzision vorhanden: Fehlinterpretation, Unklarheiten der Fachsprache
67. Welche Teilgebiete umfasst die formale Logik?
Formale Logik = Grundbaustein der Wissenschaft = Wissenschaft vom konkreten Schließen
(Begründer: Gottlob Frege)
Teilgebiete:
1. Aussagelogik (Junktorenlogik): Verknüpfung von einfachen Aussagen durch Bindewörter
(Junktoren: und, oder, wenn – dann, genau dann wenn)
2. Prädikatenlogik (Quantorenlogik): Beschreibung der Struktur von Aussagen (Subjekt,
Prädikat) und ihrer Beziehung mit Hilfe von Existenz- und Allaussagen (Quantoren: alle, einige)
68. Was sind Aussagensätze?
= Satz der einen Sachverhalt darstellt
69. Was ist das Prinzip der Zweiwertigkeit?
= Aussage ist entweder wahr oder falsch
11
70. Wie kann der Wahrheitswert von elementaren Aussagen bestimmt werden?
… durch die Anwendung der Aussagelogik: Festlegung des Wahrheitswertes (wahr, falsch) der
elementaren Aussagen
o inhaltliche Auswahl des Wahrheitskriteriums
o empirische Untersuchungen zur Prüfung der Wahrheit (Falschheit) der Aussage
Wichtig bei zusammengesetzten Aussagen (zwei oder mehrere, durch Junktoren wie und, oder etc.
getrennte elementare Aussagen): Wahrheitswert muss von allen elementaren Aussagen festgestellt
werden
71. Was sind logische Junktoren?
Junktoren = Bindewörter zwischen elementaren Aussagen
 Disjunktionoder (nicht ausschließendes „oder“)
 Konjunktion
und
 Implikation wenn…, dann…
 Äquivalenz genau dann, wenn
v
٨
→
↔
72. Nennen und erklären Sie zwei allgemeingültige Aussageformen.
Allgemeingültige Aussageform = Aussageform, die unabhängig vom Wahrheitswert der
elementaren Aussagen immer gelten
 Satz vom ausgeschlossenen Dritten: A v ¬A
x hat die Eigenschaft A oder x hat die Eigenschaft Nicht-A
 Satz vom Widerspruch: ¬(A ٨ ¬A)
Eine Theorie, die gleichzeitig A und ihr logisches Gegenteil ¬A enthält, ist logisch
inkonsistent und immer falsch.
73. Wozu dienen Wahrheitstafeln?
- veranschaulichen durch die Darstellung der Wahrheitswerte der elementaren Aussagen die
Wahrheitswerte der zusammengesetzten Aussagen
= tabellarische Aufstellung des Wahrheitswerts-Verlaufes einer logischen Aussage
- Definition von Junktoren
74. Erklären Sie den Modus ponens mit einem konkreten Beispiel.
Wenn die Implikation A → B gilt und wenn die Aussage A wahr ist, folgt daraus zwingend die
Wahrheit der Aussage B.
[(A → B) ٨ A] → B
Bsp.: Frustration (A) führt zu Aggression (B)  wenn Paul frustriert ist, dann ist er auch
aggressiv.
75. Erklären Sie den Modus tollens mit einem konkreten Beispiel.
Wenn die Implikation A → B gilt und wenn B falsch ist, lässt sich daraus die Falschheit von A
ableiten.
[(A → B) ٨¬B] → ¬A
Bsp.: Wenn Paul nicht aggressiv ist, dann kann vorher keine Frustration da gewesen sein.
76. Erklären Sie den Unterschied zwischen notwendigen und hinreichenden Bedingungen mit einem
Beispiel.
Gesetzesannahme: Körperbestrafung (A) führt zu Schmerz (B).
 Körperbestrafung ist eine hinreichende Bedingung für Schmerz.
 Schmerz ist eine notwendige Bedingung für Körperbestrafung.
 Körperbestrafung ist aber nicht notwendig für Schmerz (es gibt auch andere Quellen von
Schmerz)
 Schmerz ist nicht hinreichend für Körperbestrafung
12


Bsp: Wenn es regnet, ist die Straße nass: Regen ist ausreichend dafür, dass die Straße nass wird; er
ist aber keine notwendige Bedingung hierfür, weil es auch andere Möglichkeiten gibt, eine Straße
zu benetzen – zum Beispiel ein Wasserrohrbruch
Das Gegenstück zur hinreichenden Bedingung ist die notwendige Bedingung, die besagt, dass ein
Sachverhalt erforderlich, aber eben nicht ausreichend dafür ist, dass ein anderer Sachverhalt
eintritt.
 Bsp: Volljährigkeit ist eine notwendige Bedingung fürs Wahlrecht (nur wenn ich
volljährig bin, darf ich wählen)
 … aber nicht hinreichend: man muss in der Regel zusätzliche notwendige
Bedingungen erfüllen, z. B. die Staatsbürgerschaft des Landes haben
Hinreichend ist eine Bedingung dann wenn sie für eine Sache erforderlich ist, aber nicht unbedingt
anwesend sein muss. Es gibt neben dieser noch andere Bedingungen, die das entsprechende
auslösen können. Zudem muss eine hinreichende Bedingung nicht unbedingt die erwartete Folge
haben, aber sie reicht aus. Z.B. ist Frustration hinreichend für Aggression. Wenn man frustriert ist,
kann man aggressiv werden, aber man muss es nicht und es gibt auch noch andere Gründe für
Aggression.
77. Warum ist Induktion das Gegenteil von Deduktion?
Induktion – Folgern vom Besonderen zum Allgemeinen (nicht logisch zwingend); der Gehalt der
Konklusion übersteigt den Gehalt der Prämisse  unsicherer Schluss
Deduktion – Folgern vom Allgemeinen zum Besonderen (wahrheitskonservierend); die
Konklusion kann nicht mehr aussagen als die Prämisse  sicherer Schluss
78. Wann ist ein Argument „induktiv“?
Ein Argument ist induktiv, wenn:
o … die Wahrheit der Konklusion nicht notwendigerweise aus der Wahrheit der Prämisse
folgt (gehaltserweiternd)
o … die Prämisse dennoch die Konklusion in irgendeiner Weise unterstützt oder sie
wahrscheinlicher macht
79. Was ist eine enumerative Induktion? Welche Annahme liegt ihr zugrunde?
Enumerative Induktion = Verallgemeinerung
o Extrapolation: Schließen auf einzelne Situationen oder Personen (z.B. Wenn Herr B.
betrunken ist, dann schlägt er seine Frau.)
o Generalisierung: Schließen auf alle interessierenden Situationen oder Personen (z.B.
Wenn Männer betrunken sind, dann schlagen sie ihre Frauen.)
 Voraussetzung: die betrachteten Phänomene oder Objekte sind einheitlich / uniform
(= Uniformitätsannahme)
80. Erläutern Sie die grundlegenden Vorgehensweisen bei einer eliminativen Induktion.
Eliminative Induktion = Ausschluss von anderen Einflussfaktoren
Annahme eines allgemeingültigen Zusammenhangs zwischen X und Y, wenn:
o … X und Y regelmäßig miteinander auftreten, und zwar unabhängig von der Variation
anderer Einflussfaktoren (= Übereinstimmungsmethode)
o … sich Situationen, in denen Y bzw. Nicht-Y eintritt, sich nur dadurch unterscheiden,
dass im ersten Fall X vorliegt, im zweiten Fall aber nicht
(=
Differenzmethode)
81. Was ist eine empirische Vermutung?
Empirische Vermutung = Anwendung einer Theorie auf eine Situation, die außerhalb dem
geprüften Geltungsbereichs der Theorie liegt.
13
82. Nennen Sie drei verschiedene Arten der induktiven Argumentation. Erläutern Sie
grundlegende Gemeinsamkeiten und Unterschiede zwischen ihnen.
Enumerative
Induktion
Eliminative
Induktion
Gemeinsamkeiten
- schließen vom Besonderem
zum Allgemeinen
- Induktionsproblem
- ceteris-paribus-Bedingungen
als Voraussetzung
Empirische
Vermutung
Unterschiede
- betrachtete Phänomene oder Objekte
müssen einheitlich oder uniform sein
- eventuelle Einflussfaktoren werden
ausgeschlossen
- Vielfalt von Beobachtungs-situationen
wichtig
- bezieht sich auf Theorien und deren
Anwendung
- zur Ausweitung des Geltungsbereiches
von Theorien
Achte Vorlesung (07.12.)
83. Wie lassen sich induktive Schlüsse rechtfertigen?
1. Anzahl und Anteil der bisherigen Fälle
o Je größer die Zahl und deren Anteil der bisherigen positiven Schlüsse und je kleiner die Zahl
und der Anteil der bisherigen negativen Schlüsse, desto berechtigter ist der induktive Schluss.
2. Validität der Fälle
o Je größer die Validität / Güte / Sicherheit der in der Prämisse zusammengefassten positiven
Fälle und je kleiner die Validität / Güte / Sicherheit der negativen Fälle, desto berechtigter ist
der induktive Schluss ( Methodik, wie gut die Studie ist)
3. Variabilität der Fälle
o Je größer die Variabilität der bisherigen positiven Fälle und je kleiner die Variabilität der
bisherigen negativen Fälle, desto berechtigter ist der induktive Schluss
4. Ähnlichkeit neuer und bisheriger Fälle
o Je größer die Ähnlichkeit zwischen den neuen und den bisherigen positiven Fällen und je
kleiner die Ähnlichkeit zwischen den neuen und den bisherigen negativen Fällen, desto
berechtigter ist der induktive Schluss
84. Was sind Ceteris-Paribus-Bedingungen?
= unter sonst gleichen Umständen,
= Annahme, dass alle anderen Einflussfaktoren (alle Rahmenbedingungen außer die relevanten
Größen in der Prämisse) konstant bleiben
85. Was ist ein wissenschaftliches Gesetz?
Gesetz = Aussage über einen regelhaften Zusammenhang zwischen zwei oder mehreren Variablen
o Nominale Gesetze (Wenn…, dann…)
o Ordinale Gesetze (monotoner Zusammenhang; z.B. Je stärker…, desto größer…)
o Quantitative Gesetze (funktionale Beziehung zwischen quantitativen Variablen,
z.B. E = c * log (R) + K
86. Welche Merkmale besitzen wissenschaftliche Gesetze?
1. Gesetze sind allgemeine Aussagen über einzelne Objekte
2. Gesetz muss irgendeine Allaussage bezüglich Person, Zeit und Situation (oder ihren
Kombinationen) enthalten
3. Gesetzesaussagen sind unerschöpflich, d.h. sie beziehen sich auf mehr Fälle, als bisher
aufgezählt oder beachtet worden sind; unerschöpfliche Aussagen bezüglich Personen und
Zeitpunkte
4. Wissenschaftliche Gesetze dürfen nicht bereits widerlegt oder stark erschüttert sein
14
87. Was unterscheidet probabilistische von deterministischen Gesetzesannahmen?
Deterministische Gesetzesannahmen:
- A tritt mit einer Notwendigkeit und ohne Ausnahme auf, wenn B vorliegt
- Störfaktoren können Zusammenhänge jedoch verdecken
Probabilistische Gesetzesannahmen
- A tritt mit einer erhöhten Wahrscheinlichkeit auf, wenn B vorliegt
- Aussagen gehen von bedingten Wahrscheinlichkeiten P(A|F) aus, Störfaktoren können nicht
ausgeschlossen werden
88. Warum lässt sich aus probabilistisch formulierten Gesetzesaussagen nicht eindeutig
ableiten, ob ein probabilistischer oder deterministischer Variablenzusammenhang
angenommen wird?
Meist ist unklar, ob ein probabilistischer Zusammenhang oder nur eine unzureichende Annäherung
an die determinierte Realität gemeint ist
89. Wie erklärt der Empirismus Kausalität und Kausalannahmen?
Empirismus  Kausalität ist nur ein geistiges Konstrukt, das entsteht
- aufgrund der zeitl. Nähe von 2 Ereignissen (Kontiguität)
- aufgrund der zeitlichen Priorität der Ursache (Ursache kommt vor der Wirkung)
- aufgrund der regelhaften Verknüpfung oder Abfolge von Ursache und Wirkung
(Kontingenz)
 Kausalität als Unterstellung einer regelhaften, gesetzmäßigen Beziehung zwischen Ereignissen
in einer bestimmten zeitlichen Abfolge (Ursache  Wirkung)
90. Warum lässt sich der Ursachenbegriff nicht ohne weiteres mit hinreichenden Bedingungen
für das Auftreten eines Sachverhalts gleichsetzen?
Die Ursache ist nur dann eine hinreichende Bedingung für die Wirkung, wenn gewisse
Rahmenbedingungen (R) vorliegen.
91. Erläutern Sie die INUS-Explikation des Ursachenbegriffs + Beispiel.
INUS-Explikation: A cause is an insufficient but necessary part of an unnecessary but sufficient
condition.
 Ursache (U: Kurzschluss) ist dann eine Ursache von W (Wirkung: Hausbrand), wenn
o U (Kurzschluss) einzeln notwendig für den Brand – ohne ihn hätte es bei Konstanz aller
anderen Bedingungen nicht gebrannt
o U aber nicht hinreichend für W ist (z.B. kein Hausbrand, wenn kein O2 oder
Brennmaterial vorhanden ist)
o U und R (Randbedingungen: O2 und brennbares Material) hinreichend, aber nicht
notwendig für W (Hausbrand) sind
o R nicht hinreichend für W ist (O2 + brennbares Material ≠ Hausbrand)
92. Welche Bedeutung kommt Ceteris-Paribus-Bedingungen in der INUS-Explikation des
Ursachenbegriffs zu?
INUS-Explikation setzt Konstanz der ermöglichenden Randbedingungen voraus:
o Ursache ist zusammen mit den gegebenen Randbedingungen hinreichend für die Wirkung,
aber nicht notwendigerweise mit veränderten Bedingungen
o Ursache ist nur unter den gegebenen Randbedingungen einzeln notwendig für das
Auftreten der Wirkung, d.h. es liegen keine anderen Sachverhalte vor, die die Wirkung
unabhängig von der Ursache hervorrufen können
93. Wie können Kausalaussagen empirisch überprüft werden?
Kausalaussage  Veränderung der unabhängigen Variablen (UV: Haarwuchsmittel) bewirkt
Veränderungen in der abhängigen Variablen (AV: Haarwuchs)
Überprüfung durch Experimentalmethodik:
Vergleich von mindestens zwei Untersuchungsbedingungen, die in allen anderen Belangen
vollkommen identisch sein sollen:
15
a) Bedingung mit Ursachenfaktor
b) Bedingung ohne Ursachenfaktor
94. Wie werden Theorien anhand von Erfahrungen (weiter-)entwickelt? Erläutern Sie die
Unterschiede zwischen einem rationalistischen und einem empiristischen Vorgehen.
Beim empiristischen Vorgehen werden aus den Erfahrungen neue und modifizierte Theorien
induktiv abgeleitet, wohingegen beim Rationalismus aus einer Theorie, deren Falsifikation Anlass
für Modifikation gibt, neue Vorhersagen deduktiv abgeleitet werden.
95. Beschreiben Sie typische Stufen einer induktiven Theorieentwicklung.
1. Abgrenzung, Beobachtung und Beschreibung von Phänomenen des Forschungs-bereiches
2. Aufstellen von empirischen Generalisierungen, die die beobachteten Regelmäßig-keiten
verallgemeinern
3. Deduktive Systematisierung der empirischen Generalisierungen, so dass speziellere aus
allgemeinen Sätzen abgeleitet werden können
4. Erklärung von systematisierten Zusammenhängen mit Begriffen, Konstrukten und Annahmen,
die nicht mehr vollständig durch Beobachtungen definiert werden
Neunte Vorlesung (14.12.)
96. Erläutern Sie die Theorieentwicklung nach rationalistischem Verständnis.
Rationalismus: deduktive Ableitung von Vorhersagen aus der Theorie, deren Falsifikation
Anlass für Modifikation gibt.
zu Beginn: Abduktiver Schritt: Theorie geht aus unbegründeten „Einfällen“, unverbundenen
Einzelaussagen und kreativen „Zufällen“ hervor (detektivische Methode)
Theorien sind jedoch selten völlig neu, sondern bereits existierende Theorien werden i.d.R. an
Erfahrungen geprüft, verändert und modifiziert
 Rationalisten modifizieren bestehende Theorien an Erfahrungen
97. Welche allgemeinen Anforderungen sollten bei Theorieprüfungen erfüllt sein?
1. Jede Theorie ist so zu formulieren, dass sie empirisch möglichst streng prüfbar ist.
2. Jede empirische Prüfung einer Theorie ist möglichst streng zu gestalten.
98. Die Prüfbarkeit einer Theorie ist umso größer, je größer ihr empirischer Gehalt ist. Erläutern
Sie diese Aussage.
 der empirische Gehalt ist umso größer, je mehr potenzielle Falsifikatoren* die Theorie hat (*
= Verbot von Beobachtungen; das darf man nicht beobachten)
 Menge an potenziellen Falsifikatoren ist umso größer, je ausgeprägter die Allgemeinheit und
Bestimmtheit der Theorie
o Allgemeinheit wird erhöht, wenn die Menge der Objekte, Situationen oder
Phänomene erhöht wird, auf die die Theorie anwendbar ist (eine bestimmte Phobie vs.
alle Phobien)
o Bestimmtheit wird erhöht, indem die Aussagen präzisiert werden (Ziel: präzise
Vorhersagen darüber, was nicht passieren dürfte)
99. Wann ist eine empirische Hypothesenprüfung „streng“?
eine empirische Hypothesenprüfung ist streng, wenn sie so angelegt ist, dass ein Scheitern der zu
prüfenden Theorie zu erwarten ist, falls sie tatsächlich falsch ist ( muss im Test auch scheitern
können)
- Einflussfaktoren: Versuchsplanung und Validität (Gültigkeit) der Untersuchung
- je unwahrscheinlicher die Theorievorhersage nach dem bisherigen Wissen (ohne geprüfte
Theorie) ist, desto strenger ist die Prüfung
16
100. Wodurch wird der Grad der Bewährung einer Theorie bestimmt?
Grad der Bewährung einer Theorie nimmt mit Strenge ihrer Prüfung zu (= eines der Hauptkriterien
der Theoriebewertung)
101. Erläutern Sie das empirische Sinnkriterium des logischen Empirismus. Warum kann
dieses Kriterium nicht stringent angewendet werden?
Empirisches Sinnkriterium: Eine Aussage ist nur dann wissenschaftlich sinnvoll, wenn ihre
Wahrheit oder Falschheit empirisch eindeutig festgestellt werden kann, d.h. wenn sie sich im
Prinzip mit Hilfe von Beobachtungen vollständig bestätigen oder empirisch verifizieren lässt
(Verifikationismus – Bestätigung von wissenschaftlichen Aussagen / Hypothesen)
alle anderen Aussagen, die nicht geprüft wurden, sind provisorisch /nicht wissenschaftlich
stringente Anwendung nicht möglich: manche Sachverhalte sind nicht direkt beobachtbar (z.B.
Motivation, Empfindungen, Gedanken, etc.), eine eindeutige Wahrheit oder Falschheit kann oft
nicht festgestellt werden,
alle Beobachtungen sind theoriegetränkt und Verifikationen daher vielleicht nur vorläufig,
Theorien mit unerschöpflichen Allsätzen sind nicht komplett empirisch verifizierbar
102. Nennen Sie die Leitprinzipien des logischen Empirismus.
1. Orientierung an den Methoden der exakten Naturwissenschaften ( Physik als
Idealwissenschaft)
2. Möglichst formalisierte Wissenschaftssprache, die so einer logischen Analyse zugänglich
gemacht wird
3. Prinzipielles und absolutes Metaphysik-Verbot (Metaphysik: Was hinter den Dingen steht:
z.B. Wille, Wunsch, Gott)
4. Es gibt nur analytische und synthetische Sätze. Synthetische Sätze sind empirisch zu
bestätigen.
5. Nur solche Sätze sind sinnvoll, bei denen auch eine empirische Operationalisierung angegeben
werden kann
6. Jeder sinnvolle Satz ist auf Sätze (Protokollsätze) reduzierbar, die durch unmittelbare
Wahrnehmung zustande kommen.
103. Was sind Protokollsätze?
Protokollsätze = Aussagen über direkt Beobachtbares, die unmittelbar und eindeutig verständlich
sind und deren Wahrheit mit Sicherheit zu erkennen ist (Beobachtungssprache), z.B. „Die Maus
drückt den Hebel.“
104. Warum nennt man den logischen Empirismus auch logischen Positivismus?
logischer Empirismus = logischer Positivismus, entwickelt vom Wiener Kreis
Positivismus = fehlerfreie und unbeeinflusste Beschreibung von dem „Gegebenen“
logischer Positivismus fordert, dass sich alle Terme einer präzisen Wissenschaftssprache, außer
dem logischen, letztendlich auf das direkte Erfassen von Sinnesdaten zurückführen lassen müssen;
vorheriges Verstehen seiner Bedeutung sollte hier nicht vorausgesetzt sein und die Wahrnehmung
von Sinnesdaten als unkorrigierbar gelten.
105. Nennen Sie Kritikpunkte am Programm des logischen Empirismus.
a) strenge Trennung zwischen Beobachtung und Theorie ist nicht haltbar (die Natur antwortet
nicht, wenn sie nicht gefragt wird; Theoriegetränktheit von Beobachtungen)
b) Induktionsproblem ist nicht empirisch, sondern nur metaphysisch begründbar 
Induktionsproblem als Letztbegründungsproblem (Wie begründet man das Prinzip von
Beobachtungen?)
c) Nicht-Verifizierbarkeit von Theorien mit unerschöpflichen Allsätzen ( kritischer
Rationalismus)
17
106. Wieso sollte anstelle der Verifikation die Falsifikation von wissenschaftlichen Aussagen
angestrebt werden? Erklären Sie den Unterschied zwischen Verifikation und Falsifikation von
Aussagen an einem konkreten Beispiel.
Verifikation: Bestätigung von wissenschaftl. Aussagen ( Logischer Empirismus)
Falsifikation: Widerlegung von wissenschaftl. Aussagen ( kritischer Rationalismus), ist logisch
gesehen dem Verifikationismus überlegen
 wissenschaftl. Allaussagen lassen sich niemals vollständig verifizieren, es werden
lediglich Hypothesen vorläufig bestätigt
 für die Widerlegung einer Allaussage reicht hingegen eine einzige Beobachtung aus 
Aussage einer Falsifikation hat mehr empirisches Gehalt
Bsp.: Allaussage: „Alle Schwäne sind weiß“
- Verifikationskriterium: Bestätigung der Allaussage durch Beobachtungen von weißen
Schwänen - es ist jedoch unmöglich, alle Schwäne der Vergangenheit, Gegenwart und Zukunft zu
beobachten  Aussage geht über die Beobachtungsaussagen hinaus ( = „unwissenschaftliche“
Induktion)
- Falsifikationskriterium: Widerlegung der Allaussage durch Beobachtungen von nicht-weißen
Schwänen - die Beobachtung eines einzigen nicht-weißen Schwans reicht aus, um den
Wahrheitsgehalt (Falschheit) der Allaussage festzustellen
107. Wie erfolgt der Wissens- und Erkenntnisfortschritt gemäß dem kritischen
Rationalismus?
… erfolgt nach dem Falsifikationsprinzip: Aussagen / Theorien müssen an der Empirie scheitern
können
 Erkenntnisgewinn durch das Aussieben von „falschen“ (widerlegten) Theorien  nur die, die
sich bewährt hat, bleibt übrig
Falsifikationsversuche in Entscheidungsexperimenten (experimentum crucis): zwei Theorien mit
konträren Sachverhalten werden gegeneinander getestet (selten in Psy.)
 Empirischer Gehalt ist umso größer, je mehr potenzielle Falsifikatoren die Theorie hat
108. Nennen und erläutern Sie Problem- und Kritikpunkte am Programm des kritischen
Rationalismus.
Probleme:
 Problem mit probabilistischen Theorieaussagen: Konventionen müssen Kriterien für eine
„praktische“ Falsifikation schaffen ( Signifikanztests)
 Problem der Zusatzannahmen (ceteris-paribus-Bedingungen, z.B. Licht, um beobachten zu
können; Experimentelles Setting; Messmodelle…):
o Negation des Basissatzes ist nicht mehr alleine, sondern nur zusammen mit den
Zusatzannahmen aus der Theorie ableitbar
o Falsifikation der Theorie oder mindestens einer der Zusatzannahmen
o bei Falsifikation: hat die Theorie oder die Zusatzannahmen dazu geführt, dass nicht
beobachtet wurde, was erwartet war?
 Empirische Immunisierung: Ausschöpfung der weiteren Gültigkeit einer Theorie trotz
kritischer Befunde
o  Einschränkung des Geltungsbereichs
o Ad-hoc-Modifikationen (nach dem Ergebnis wird Erwartung korrigiert / modifiziert,
ABER: Erwartung muss schon vor dem Experiment feststehen!)
Kritik:
 Wissenschaftler versuchen in der Praxis nicht ernsthaft, ihre eigenen Theorien und
Überzeugungen zu falsifizieren  Versuch, alternative, nicht-eigene Theorien zu widerlegen
 Entscheidungsexperiment ist eine Fiktion
 Unvollkommenheit von empirischen Ergebnissen verbietet nicht nur absolute empirische
Wahrheiten, sondern auch absolute empirische Falschheiten (man kann nicht alle Schwäne
beobachten)
 Warnung vor blindem Falsifikationismus:
o Falsifikation ist kein Zweck in sich selbst
18
o
Falsifikation führt nur dann zu Erkenntnisfortschritt, wenn die falsche Theorie durch
eine bessere ersetzt wird (Hoffnung, falsche Theorien auszusieben  kein Fortschritt;
nur durch Vorschlag einer besseren Theorie)
 Wissenschaftliche Praxis folgt nicht einem „naiven“ Falsifikationsprinzip!
109. Erläutern Sie die Methodologie wissenschaftlicher Forschungsprogramme von Imre
Lakatos.
= Ablehnung eines „naiven“ Falsifikationismus
= normativer Ansatz (Empfehlung, wie man Wissenschaft betreibt)
Imre Lakatos unterscheidet zwischen:
a) Forschungsprogramm = komplexes theoretisches Modell, das sehr allgemeine Thesen enthält,
von denen aus das Forschungsprogramm entwickelt wird (z.B. Informationsverarbeitungsmodell)
b) Einzeltheorien mit Zusatzannahmen = speziellere Theorien, die den Gürtel um den harten
Kern des Forschungsprogramms bilden
Basis: empirische Prüfungen treffen nie das ganze Forschungsprogramm, sondern nur einzelne
Theorien und Hypothesen;
erfolgreiche Falsifikation führt nicht dazu, dass das ganze Forschungsprogramm aufgegeben wird,
sondern dass die einzelne (Hilfs-)Theorie hinterfragt wird
- Hinzufügung von ad-hoc-Modifikationen, solange es der harte Kern des
Forschungsprogramms zulässt
- Modifikation der Hilfstheorie, Forschungsprogramm bleibt im Kern unangetastet
- Einführung von Sonderfällen und Extrabedingungen
Degeneriertes Forschungsprogramm (z.B. Behaviorismus, Gottes Schöpfung) wird erst dann
aufgegeben, wenn ein konkurrierendes Forschungsprogramm mit größerem explanatorischem
Gehalt existiert (= rationaler Vergleich)  wenn eine bessere Alternative existiert (z.B.
kognitionspsychologischer Ansatz, Evolutionstheorie), sonst würde Forschungsprogramm 1
erhalten bleiben
110. Welche Bedeutung wird dem Falsifikationsprinzip in der Methodologie
wissenschaftlicher Forschungsprogramme von Imre Lakatos zugewiesen?
- Ablehnung eines „naiven“ Falsifikationismus
- Falsifikation betrifft immer nur Einzeltheorien mit ihren Zusatzannahmen
- Falsifikation führt nicht dazu, dass das ganze Forschungsprogramm aufgegeben wird
111. Nennen und erläutern Sie typische Phasen im Wissenschaftsprozess nach Thomas
Kuhn?
1. Normalwissenschaftliche Forschung: vorherrschendes Paradigma als Denkstil (z.B.
Behaviorismus)
2. Auftreten von Anomalien / Unstimmigkeiten  Lösung: Ad-hoc-Modifikationen
3. Krise und außerordentliche Wissenschaft (grundlegende Annahmen werden in Frage gestellt)
4. Auflösung der Anomalien durch bisheriges Paradigma oder durch revolutionäres Ersetzen mit
einem vollkommen neuen Paradigma
112. Was meint Thomas Kuhn mit „Paradigmenwechsel“?
Paradigmenwechsel = Unterschied zu Lakatos: Forschungsprozess schreitet nicht nur kumulativmodifizierend vor und endet im rationalen Vergleich zwischen zwei Theorien, sondern weist
„irrationale“ Brüche mit Wechseln zwischen Paradigmen auf
wichtige Rolle spielen dabei wissenschaftlich-soziologische Positionen, Politik und Zeitgeist (vgl.
geozentrisches  heliozentrisches Weltbild (damals nicht entscheidend überlegen))
vor- und nachrevolutionäre Paradigmen sind inkommensurabel, d.h. sie können nicht miteinander
verglichen werden (versch. Denkschulen, Sprachen  Übersetzung nötig)  oft kein eindeutiger
Beleg mgl. dass das neue Paradigma empirisch gehaltvoller und besser bestätigt ist (…naja…)
19
113. Nennen und erklären Sie Hauptkriterien zur Bewertung von Theorien.
1. Logische Konsistenz: Lassen sich aus der Theorie mit Sicherheit keine widersprüchlichen
Aussagen ableiten?
2. Empirischer Gehalt: Kann die Theorie potentiell empirisch widerlegt werden? Wie groß ist die
Möglichkeit der Falsifikationsmöglichkeiten? Wie gut ist die Theorie widerlegbar?
3. Empirische Bewährung: Wie viele nicht-triviale Falsifikationsversuche hat die Theorie
erfolgreich überstanden? Ist die Theorie mit theoriekonträren Befunden belastet? (Eine
Theorie, die nicht überprüft wurde, ist keine wissenschaftl./empirische Theorie)
114. Benennen und erläutern Sie Nebenkriterien zur Bewertung von Theorien.
1. Praktisch-technologische Relevanz (Anwendbarkeit): Eröffnet die Theorie auf nahe liegende
Weise technologische Anwendungsmöglichkeiten?
2. Emanzipatorische Relevanz (Holzkamp): Trägt die Theorie zur Selbstaufklärung des
Menschen über seine gesellschaftlichen und sozialen Abhängigkeiten bei? (Aufklärung)
3. Heuristischer Wert: Inspiration; Regt die Theorie neue empirische Untersuchungs-paradigmen
und Fragestellungen an?
4. Integrativer Wert: Werden andere Theorien durch die betreffende Theorie zusammen-gefasst
und damit überflüssig? (viele Theorien  1 Theorie)
5. Präzision: Ist die Theorien in einer präzisen formalen Sprache explizierbar und eventuell sogar
axiomisiert ( gut! Axiome: Grundannahmen, absolute Voraussetzungen)
115. Wann ist eine Theorie (T2) „besser“ als eine andere Theorie (T1)?
wenn:
 T2 steht mit allen Fakten im Einklang, mit denen auch T1 in Einklang steht
 T2 steht mit wenigstens einigen Basissätzen in Einklang, die T1 widersprechen
 T2 erlaubt darüber hinaus die Ableitung neuer oder präziserer Vorhersagen
 T2 bewährt sich in zumindest einigen dieser Prüfungen
eine Theorie zu falsifizieren ist nur dann sinnvoll und notwendig, wenn sie durch eine bessere
Theorie ersetzt werden kann!
Zehnte Vorlesung (04. 01.)
116. Nennen Sie Kennzeichen eines Experiments.
1. Absichtliche Herstellung oder Auswahl von Untersuchungsbedingungen
 Etablierung einer oder mehrerer unabhängigen Variablen (z.B. Höhe der verabreichten
Elektroschocks, Versuchsleiter als Autorität, Nähe zum Schüler etc.)
Unabhängige Variable: Wirk- / Ursachenvariable, die etwas verändern soll
2. Systematische Variation der Bedingungen
 Versuchsplanung; mindestens 2 Bedingungen (+ Versuchs- / Kontrollgruppe)
3. Betrachtung der Auswirkungen der Bedingungsvariation
Festlegung einer oder mehrerer abhängigen Variablen
Abhängige Variable: hier manifestieren sich die Veränderungen
4. Kontrolle anderer möglicher Einflussfaktoren
Kontrolle durch Konstanthaltung, Parallelisierung oder Zufallszuordnung (zufällige
Zuordnung von Vpn = Randomisierung)
nur die UV werden variiert!  isolierende Variation der UV
117.
Erläutern Sie verschieden Typen von Experimenten. Welche Probleme gehen
typischerweise mit welchem Experimenttyp einher?
a) Laborexperimente: rigorose Bedingungskontrolle möglich
Problem: externe (oder ökologische) Validität sinkt (= Übertragbarkeit)
b) Feldexperimente: in kontrollierter Umgebung Schaffung von möglichst natürlichen
Umständen
Problem: interne Validität sinkt
20
c) Quasi-Experimente: Vergleich von Gruppen, die nicht durch eine Zufallsordnung
entstanden sind (z.B. bei vorhandenem Krankheitsbild)
i. Organismische Variablen (z.B. Geschlecht, Intelligenz etc.)
ii. Messwiederholung (z.B. Leistung vor und nach Training  Veränderungen
lassen sich sensitiver feststellen)
Problem: interne Validität (Konfundierung  was hat die Verbesserung
hervorgerufen? versteckte Variationen gefährden Eindeutigkeit des Ergebnisses
118. In welche Bestandteile lassen sich experimentelle Untersuchungen zerlegen?
1. Theorie: Entwicklung einer Forschungsfrage, Aufstellen einer Theorie durch Abduktion,
Ableitung (Deduktion) einer Hypothese
2. Methode: Wahl eines Versuchsdesigns, Durchführung des Versuchs
3. Ergebnisse: Analyse der Daten, Interpretation (Induktion) und Bericht
4. Diskussion: Integration in Hinblick auf die Anfangsfrage und Entwicklung fortführender
Fragestellungen
119.


120.


Was ist der Unterschied zwischen einem theorieorientierten und einem
problemorientierten Forschungsprogramm?
Problem-orientiertes Forschungsprogramm: Ausrichtung der Forschungsfragestellung auf die
Ursachen und Folgen eines Sachverhalts (Probleme motivieren Theorie)
Theorie-orientiertes Forschungsprogramm: Ausrichtung der Forschungsfragestellung auf die
Ausgestaltung und Gültigkeit einer Theorie (Theorie existiert schon)
Erklären Sie den Unterschied zwischen Kausal- und Assoziationshypothesen mit
einem konkreten Beispiel.
Kausalhypothesen: Erwartung eines Ursache-Wirkungs-Zusammenhangs
Bsp.: wenn Personen frustriert werden, dann werden sie aggressiv
Assoziationshypothesen: Erwartung eines regelhaften Zusammenhangs zwischen Variablen
(Kovarianz, Korrelation)
Bsp.: Extravertierte Personen sind aggressiver als introvertierte
121.
Welche wichtigen Untersuchungsaspekte gilt es bei der Planung von empirischen
Vorgehensweisen im Methodenteil der Untersuchung zu berücksichtigen?
 Exemplarische Untersuchung der psychologischen Hypothese in einer empirischen
Anwendungssituation (konkrete Vorhersagen, was man nicht beobachten darf, wenn die Theorie
stimmt (Falsifikation))
 Formulierung einer empirischen Hypothese ( Ableitungsvalidität)
 Festlegung einer Untersuchungsart (experimentell? korrelativ? Feld? Labor?)
 Festlegung und Operationalisierung der Variablen: Sicherstellung, dass Variable das
Konstrukt tatsächlich erfasst ( Variablenvalidität)
 Bestimmung eines Versuchsplans ( vollst. Ausbalancierung? gekreuztes Design?)
 Kontrolle von Störfaktoren ( interne Validität)
 Testplanung: Festlegung der Fehlerwahrscheinlichkeiten 1. und 2. Art = zufalls-kritische
Absicherung der Ergebnisse  Signifikanztest
122. Erläutern Sie die Abfolge theoretisch-inhaltliche Hypothesen, empirische Hypothesen
und statistische Hypothesen mit einem konkreten Beispiel.
 Ableitung von begründeten Vermutungen über zu erwartende Ergebnisse aus den vorliegenden
Befunden, Theorien und Annahmen = psychologische Hypothese
Bsp.: theoretisch-inhaltliche Hypothese: Menschen mit blonden Haaren haben häufiger blaue
Augen als Menschen mit braunen Haaren
Übersetzung der psychologischen Hypothese: sind noch zu allgemein, um vollständig empirisch
überprüft zu werden, dazu ist Spezifikation einer empirischen Hypothese nötig (empirische
Hypothese: Im Mittel haben mehr blonde Menschen blaue Augen als braunhaarige Menschen.)
21
Ableitung von statistischen Hypothesen aus den empirischen Vorhersagen
(d.h. psychologische Hypothese → empirische Hypothese → statistische Hypothese)
Statistische Hypothesen = Annahmen über Verteilungen oder Parameter von Zufallsvariablen in
Populationen
123.


Was ist bei der Diskussion der Untersuchungsergebnisse zu beachten?
Diskussion von möglichen Störvariablen, Durchführungsfehlern und Moderatorvariablen
Diskussion von möglichen Konsequenzen für weitere Theorieentwicklungen, empirische
Untersuchungen und praktische Anwendung
124.
Welche Entscheidungen müssen bei der Erstellung eines Versuchsplans gefällt
werden?
Vollständige oder teilweise Realisierung der angelegten Zellen?
Bestimmung der Anzahl der Beobachtungen pro Zelle?
Interindividuelle oder intraindividuelle Bedingungsvariation?
Randomisierte oder nicht-randomisierte Zuordnung der Vpn zu den Zellen?




125. Was ist ein experimenteller Faktor?
Variation einer experimentellen Bedingung
126. Was ist der Unterschied zwischen uni- und mulitifaktoriellen Versuchsplänen?
1. Einfaktorieller Versuchsplan: Variation eines Faktors A mit n Stufen (A1, A2, ... An)
= single-factor design
2. Mehrfaktorieller Versuchsplan: Variation von mehreren Faktoren (A1, A2, ... An; B1, B2, ...
Bm; ...) = factorial design
127.


Erklären Sie die Logik eines Randomisierungsplans.
identische Bedingungen sind unmöglich herzustellen
→ deshalb werden Randomisierungspläne genutzt
mit Hilfe dieser ist es möglich, die Störeinflüsse auf alle Gruppen gleich zu verteilen
(= Randomisierung)
→ aus einer Stichprobe werden die Personen zufällig den Untersuchungsgruppen zugeordnet.
128. Erklären Sie einen vollständig gekreuzten Versuchsplan (2x2 faktorielles Design) an
einem Beispiel.
 bei vollständig gekreuzten Versuchsplan hat man 2 Faktoren mit jeweils 2 Ausprägungen →
ergibt 4 Zellen
 Beispiel:
1. 1. Faktor Geschlecht (Ausprägung männlich, weiblich),
2. 2. Faktor Depression (Ausprägung ja, nein)
3. Im Versuchsplan wird jede Ausprägung des einen Faktors mit jeder Ausprägung des
anderen Faktors kombiniert und untersucht, also G(m), D(ja); G(m), D(nein); G(w),
D(nein); G(w), D(ja)
→ so kann die maximale Anzahl an Zellen realisiert werden
129.
Berechnen Sie den Haupteffekt des Faktors „Fahrerfahrung“ auf die durchschnittliche
Unfallhäufigkeit.
Alkoholgehalt im Blut
0-0.5 ‰ 0.6-1 ‰ 1.1-1.5 ‰
3
7
20
Fahrerfahrung < 5 Jahre
≥ 5 Jahre
2
4
18


< 5 Jahre = 10
≥ 5 Jahre =8
22

130.
Mittelwerte unterscheiden sich→ impliziert Haupteffekt des Faktors "Fahrerfahrung"
(allerdings muss man eine Signifikanztest machen, um festzustellen, ob wirklich ein
Haupteffekt vorliegt)
Interpretieren Sie die Effekte (Haupteffekt? Interaktion?) der Faktoren A und B auf
das abhängige Maß mit Hilfe eines konkreten Beispiels.



es liegt eine disordinate Interaktion vor,
also keine Interaktion
Haupteffekte sollten in solch einem Fall
nicht interpretiert werden
Beispiel: Interaktion zwischen Art der Therapie
und Art der Depression
- AV: Depression nach der Therapie
→ Therapie A1 wirkt bei Depressionsart B2
besser und bei B1 schlechter, Therapie A2
wirkt jedoch bei Depressionsart B2 besser und
bei Therapie A2 schlechter
→ Art der Therapie wirkt also je nach Art der
Depression unterschiedlich
131. Was ist ein unbalancierter Versuchsplan?
= ungleiche Anzahl von Beobachtungen pro Zelle
132. Was ist ein orthogonales Versuchsdesign?
Im orthogonalen Design sind die beiden Faktoren nicht miteinander assoziiert bzw. korreliert
(Varianzhomogenität)
Elfte Vorlesung (11.01.)
133.



Erklären Sie Logik und Aufbau eines Blockgruppenplans.
Aufbau: Probanden werden entsprechend ihren Ausprägungen auf einer Kontrollvariablen zu
Blöcken zusammengefasst (homogenisiert)
Danach werden die Probanden aus den gleichen Blöcken zufällig auf die experimentellen
Gruppen verteilt
Man hat also zunächst eine Stichprobe. Diese untersucht man und teilt die Probanden in
Blöcke. Aus diesen Blöcken teilt man die Probanden dann zufällig auf die Experimentalgruppen auf. Dies hat den Vorteil, dass Probanden aus jedem Block in jeder Experimentalgruppe sind. Damit wird eine Gleichverteilung sichergestellt.
134. Warum führt ein Blockgruppenplan zu einer Erhöhung der Testpower, wenn tatsächlich
ein Effekt vorliegt? (Veranschaulichung an einem simplen Diagramm wird empfohlen)
 Konstanthalten einer theoretisch irrelevanten Einflussvariablen reduziert Fehlervarianz
 So höhere Testpower , so Einfluss auf AV
135.
Nennen Sie Vorteile und Nachteile von Blockgruppenplänen.
Vorteile
 Konstanthalten einer theoretisch irrelevanten Einflussvariablen reduziert Fehlervarianz
 Höhere Testpower wenn Einfluss auf AV
Nachteile
 Aufwändiger Matching-Prozess (Zeit, Personen, Testung)
 reduzierte Generalisierbarkeit
 Reduzierte Testpower bei schlechter Homogenisierung
23
136.
Welche Arten der Bedingungsvariation werden in einem Mischplan vorgenommen?
Es werden interindividuelle (Vergleiche von Messung zwischen Personen = between subject
design) und intraindividuelle (Vergleiche von Messungen innerhalb der Peson = within
subjekt design) Bedingungsvariationen vorgenommen.
137.
Nennen Sie Vorteile und Nachteile einer intraindividuellen Bedingungsvariation
(Messwiederholungsplan).
Vorteile
 Verringerte Fehlervarianz durch Konstanthalten von personenbezogenen Faktoren
→ größere Testpower
 Ökonomie (Vpn, Zeit, Ressourcen)
 Präzisere statistische Auswertungstechniken
Nachteile
Längere Experimentdauer → Ermüdung, Langeweile
Übertragungseffekte (carry-over effects) aufgrund von: Lernen, Übung, Sensitivierung
und Desensitivierung (Habituation)
 Erinnerung an frühere Antworten (Kontrast, Assimilation)
 Erwartungseffekte (demand characteristics)


138.



139.


Erläutern Sie drei grundlegende Vorgehensweisen, wie Sequenzeffekte einer
intraindividuellen Bedingungsvariation unter experimentelle Kontrolle gebracht
werden können.
Ausbalancierung der Reihenfolge (counterbalancing)
Minimierung von Sequenzeffekten
Einführung der Reihenfolge als separate UV → Trennung der Sequenzeffekte von
Behandlungseffekten
Beschreiben Sie eine vollständige Ausbalancierung der Reihenfolge von zwei
Treatments anhand eines konkreten Beispiels. Welche Probleme können bei einer
vollständigen Ausbalancierung auftreten?
Bei der Ausbalancierung von medikamentöser (M) und Verhaltenstherapie (V) ist es
notwendig alle möglichen Reihenfolgekombinationen zu realisieren. Dies sind in diesem Fall:
MV und VM.
Probleme:
- hohe VP-Anzahl notwendigbei k- Treatments (sprich k Fakultät)
- unsymmetrische SequenzeffekteTreatment Ki wirkt vor Kj anders als Kj vor Ki
140. In einem Experiment wird der Einfluss von bedrohlichen Reizen auf die Aufmerksamkeitsallokation untersucht. Jeder Versuchsperson werden Bilder mit folgenden Inhalten
gezeigt: (1) Spinnen, (2) Schlangen, (3) Waffen und (4) Verletzungen. Nehmen Sie eine
Ausbalancierung der Reihenfolge der Bilder in einem lateinischen Quadrat vor.
Lateinisches Quadrat:
ABCD
 jedes Treatment an jeder ordinalen Position
BDAC
 jedes Treatment vor und nach jedem anderen Treatment
CADB
(Problem: Lateinisches Quadrat benötigt eine gerade Stufenanzahl)
DCBA
1
2
3
4
2
1
4
3
3
4
1
2
4
3
2
1
24
141.
Nennen Sie Beispiele dafür, wie Carry-over Effekte eines experimentellen Treatments
auf ein nachfolgendes Treatment eliminiert werden können.
Prätraining, Zeit für Adaption oder Habituation, Pausen, Cover-story
142.
Erklären Sie mit einem konkreten Beispiel, warum in Untersuchungen häufig die
Bedingungsreihenfolge als eigenständiger experimenteller Faktor in das Design
aufgenommen wird.
Beispiel: Experiment, bei dem starke und schwache Elektroschocks gegeben werden
Reihenfolge kann aufgrund von Habituations- oder Sensitivierungseffekten die Ergebnisse stark
beeinflussen
macht man die Reihenfolge zu einer eigenen Variablen, kann man diese Effekte kontrollieren.
143.




144.
145.
Erklären Sie Aufbau und Nutzen von Solomons vier-Gruppen Plan.
Aufbau: Der Plan besteht aus vier Gruppen die verschiedene Designs durchlaufen:
o Gruppe 1 durchläuft Pretest, Treatment und Posttest
o Gruppe 2 nur Pretest und Posttest- Design
o Gruppe 3 erhält Treatment und Posttest
o Gruppe 4 nur Posttest
Gruppen 1 und 2 realisieren Pretest-Posttest Design
Gruppen 3 und 4 ermöglichen Prüfung von Vortesteffekten:
o Treatmenteinfluss mit Pretest (Gruppen 1 und 2) vs.
o Treatmenteinfluss ohne Pretest (Gruppen 3 und 4)
Nutzen: korrektere Einschätzung der Stärke eines Treatmenteffekts!
Unter welchen Umständen sollte ein Messwiederholungsplan eingesetzt werden?

Starke Korrelation zwischen Personenvariablen und AV
(A-priori Fähigkeitsunterschiede zwischen Personen verursachen starke Variationen in der
Aufgabenleistung.)

Geringe Verfügbarkeit von Versuchsteilnehmer(innen)
(klinische Gruppen, soziale und berufliche Untergruppen etc.)

Experimentelle Untersuchung von Sequenzeffekten
(Carry-over Effekte sind theoretisch interessant, Untersuchung von Effekten des Trainings,
der Übung, der Habituation und Sensitivierung, etc.)
Vergleichen Sie die Vor- und Nachteile von „between-subjects“ und „within-subjects“
Designs.
Vorteile
Nachteile
Between-subjects design
* keine carry-over Effekte
* hohe Generalisierbarkeit
* kürzere Experimentdauer
* viele Vpn
* interindividuelle Variation erhöht
Fehlervarianz
* geringe Testpower
Within-subjects design
* spart Vpn
* reduziert Fehlervarianz
* hohe Testpower
* carry-over Effekte
* Erwartungs- und Sequenzeffekte
* längere Experimentdauer
146.
Was ist ein multivariater Versuchsplan? Welche Vor- und Nachteile sind mit dieser
Versuchsanordnung verbunden?
 Ein multivariater Versuchsplan hat mehrere abhängige Maße (mehrere AV’s)
 Vorteile:
o Ökonomie (Vpn, Zeit, Ressourcen)
o Chance steigt, dass eine der AV sensitiv für die UV ist
o Manipulationscheck möglich
o Zusammenfassung zu einem sensitiven Gesamtmaß
 Nachteile:
o Korrelation zwischen den abhängigen Variablen, Reihenfolgeeffekte
25
Zwölfte Vorlesung (18.01.2010)
147. Was ist unter der „Validität“ einer Untersuchung zu verstehen?
 Wahrscheinlichkeit von korrekten Entscheidungen = Gültigkeit einer Untersuchung
 Eignung einer Untersuchung, falsche empirische Hypothesen als falsch und richtige empirische
Hypothesen als richtig zu erkennen
148.
Erklären Sie den Unterschied zwischen der internen und externen Validität einer
Untersuchung.
Interne Validität: Die Unterschiede in der UV tatsächlich die Ursache für die Unterschiede der AV
sind (Störvariablen wurden berücksichtigt) (→ experimentelle Bedingungen unterscheiden sich
nur in den UV-Variationen)
externe Validität: Die Beziehung auch auf andere Personen, Situationen oder Materialien
übertragbar (generalisierbar) sind → ökologische Validität
149.


Was wird unter dem Konzept der „Variablenvalidität“ gefasst?
Beziehen sich die kausal assoziierten Variablen tatsächlich auf die zu untersuchenden
theoretischen Begriffe?
Variablenvalidität = adäquate Operationalisierung von nicht direkt beobachtbaren Konzepten
durch Beobachtungen oder Messungen
150.

Wodurch kann die Variablenvalidität verbessert werden?
Validität einer Variablen ist umso sicherer, je eindeutiger und sicherer die individuellen
Ausprägungen der interessierenden theoretischen Variablen durch die individuellen
Ausprägungen der empirischen Variablen erfasst werden.
Variablenvalidität ist umso höher, ...
 je besser die realisierten Ausprägungen der empirischen Variablen die
Ausprägungsmöglichkeiten der theoretischen Variablen abdecken (→ Durchschlagskraft der
UV) („große Aggression“ ist besser mit „keine Aggression“ zu vergleichen, als „geringe A.“
mit „keiner A.“)
 je mehr adäquate Operationalisierungen für ein theoretisches Konstrukt eingesetzt werden (→
konzeptuelle Replikation)
 je besser die Entsprechung zwischen dem Skalenniveau der empirischen Variablen mit dem
Begriffstypus der theoretischen Variablen ist. (Wenn Geschlecht gefragt, ist Quatsch eine
Skala von 0-100 anzubieten)
151.
In welche Varianzanteile lässt sich die Datenvarianz eines Experiments zerlegen?
1) Primärvarianz: Varianz aufgrund UV (Signal) →AV
2) Sekundärvarianz: systematischer Störeinfluss („bias“) (Konfundierung)
3) Zufallsfehlervarianz: unsystematischer, zufälliger Störeinfluss -> Ablenkungen (variieren
nicht systematisch mit UV)
152. Erläutern Sie das Max-Kon-Min Prinzip.
1. Maximiere die Primärvarianz („Signal“)
- Wahl von Extremgruppen
- Wahl von „optimalen“ Werten der UV
- Geeignete Operationalisierung
2. Kontrolliere die Sekundärvarianz („systematische“ Fehler)
- Eliminierung eines Störfaktors
- Konstanthaltung eines Störfaktors für alle Versuchsgruppen und experimentellen
Bedingungen (z.B. Placebo-Effekte)
26
3. Minimiere die Zufallsfehlervarianz („Rauschen“)
- Wahl eines geeigneten Versuchsplans
- Standardisierung der Untersuchungssituation (Labor)
- Erhöhung der Zuverlässigkeit (und Gültigkeit) des Messinstruments
- Großer Stichprobenumfang
153.





154.



155.



156.
157.
Erklären Sie die Logik einer Varianzanalyse (F-Test).
Die Varianzanalyse, der F-Test, zerlegt die Varianzquellen der Gesamtvarianz
(Gesamtvarianz = Primärvarianz + Fehlervarianz
(Fehlervarianzen= Sekundärvarianz und Zufallsfehlervarianz)):
o Primärvarianz = Varianz zwischen den UV- Bedingungen
o Fehlervarianz = Varianz innerhalb der UV- Bedingungen.
o Die Gruppen sollen sich voneinander unterscheiden, innerhalb der Gruppen sollen
wenige Variationen sein.
Anschließend wird der F-Wert berechnet, indem man die mittlere Quadratsumme der
Primärvarianz durch die mittlere Quadratsumme der Fehlervarianz teilt
Je größer der F-Wert, desto kleiner die Wahrscheinlichkeit, dass der Mittelwertsunterschied
zufällig durch Messfehler zustande gekommen ist
Varianzanalyse kann nur zufällige Fehler messen
Systematische Fehler können nicht ausgeschlossen werden
Wieso wird die interne Validität auch als Validität der Ceteris-paribus Bedingungen
bezeichnet?
Bei interner Validität unterscheiden sich die experimentellen Bedingungen nur in den UVVariationen und alle Variablen außer den gezielt variierten UV haben die gleiche Ausprägung
oder die gleiche Verteilung.
Weil empirische Ergebnis einer intern validen Untersuchung ist eindeutig kausal
interpretierbar sind! (sonst kein kausaler Schluss möglich)
Das entspricht den Ceteris-Paribus-Bedingungen, bei denen alle anderen Einflussfaktoren (alle
Rahmenbedingungen außer die relevanten Größen in der Prämisse) konstant bleiben
Nennen Sie typische Störquellen der internen Validität einer Untersuchung.
Unterschiede zwischen Situationen
(Räumlichkeiten, Instruktionswortlaut, Versuchsleiter- verhalten, Lärmbelästigung,
Untersuchungszeitpunkt, Antwortregistrierung, ...)
Unterschiede zwischen Personen
(Geschlecht, mittlere Lebensalter, Bildung, Motivation, Vorerfahrung mit Experimenten, ...)
Unterschiede zwischen Positionen
(Sequenzeffekte, Carry-over Effekte, Erwartungseffekte, Übung, Ermüdung, Erinnerung, ...)
Was ist eine Störvariable?
 Störvariablen sind sowohl mit der UV als auch mit der AV assoziiert.
 Siehe Frage 155?!
Nennen Sie verschiedene Techniken für eine Kontrolle von Störeinflüssen.
Kontrollgruppen, Störvariablen eliminieren, Störvariablen konstant halten, Gruppen
parallelisieren, Verwendung von abhängigen Gruppen durch Messwiederholung, Bedingungen
ausbalancieren, Störvariable als zusätzliche explizite UV einführen, Störvariable als
Kovariable einführen, randomisierte Bedingungszuweisung.
158. Was ist der „Hawthorne-Effekt“?
 Auch "Versuchskanincheneffekt", beschreibt das Phänomen, dass allein die Teilnahme an
einem Experiment zu einer Veränderung von Verhalten führen kann
 Nicht konstant gehaltene Störvariable ist dabei das Wissen an einem Versuch teilzunehmen
27
 Dies führt zu Reaktivität, also erhöhter Aufmerksamkeit und Anstrengung
 Beispiel: Untersuchung der Wirkung der Arbeitsplatzbedingungen auf Arbeitsleistung von
Arbeiterinnen (bessere ↔ normale Beleuchtung) egal welche Manipulation: Arbeiterinnen
wurden stets produktiver
159.



160.
Was ist eine Konfundierung?
= Störvariable wirkt auf die AV ein und variiert systematisch mit den Stufen einer UV
Konfundierung der Beleuchtung (UV) mit Reaktivität
→ keine eindeutige kausale Schlussfolgerung mehr möglich!
Nennen Sie ein Beispiel für eine Elimination einer Störvariablen.
Störeinfluss ausschalten
Bsp: Lärm → Schallschutz
Nur bei Situationsmerkmalen möglich, aber nicht bei organismischen Variablen (Alter,
Vorwissen, Intelligenz, etc.)

Reduzierte ökologische Validität als mögliche Konsequenz



161.





Nennen Sie ein Beispiel für ein Konstanthalten einer Störvariablen.
Konstante Umgebung/Bedingungen schaffen
Bsp: konstanter Lärmpegel, Wortlaut der Instruktion, Material, Antwortregistrierung
Oft Laborsetting nötig
Hoher Aufwand
Reduzierte ökologische Validität
162.
Warum ist eine randomisierte Zuweisung von Untersuchungseinheiten zu den
experimentellen Bedingungen so wichtig?
 Die Randomisierung ist das Kernmerkmal eines Experiments.
 Sie ermöglicht die Kontrolle von unbekannten und nicht erfassten Sörvariablen und ist somit
eine unverzichtbare Kontrolltechnik.
 Durch die randomisiete Zuweisung erreicht man eine Gleichverteilung der Störeinflüsse auf
die experimentellen Bedingungen.
 Die Wahrscheinlichkeit, dass trotz Randomisierung ein Unterschied zwischen den
Bedingungen hinsichtlich einer Variablen besteht, sinkt mit der zahl der zufällig zugeordneten
Einheiten.
163.
In der Forschungspraxis ist eine freiwillige Teilnahme an Experimenten Standard und
eine ethische Verpflichtung. Welche methodischen Probleme können durch die
Bevorzugung von freiwilligen Versuchsteilnehmern entstehen?

Selektivität der Stichprobe → stellt Repräsentativität in Frage

Ausfalleffekte
164.
Was sind „Ausfalleffekte“?
Eine Vpn kann aus verschiedenen Gründen nicht mehr am Experiment teilnehmen.
(z.B.: wenn Person keine Lust mehr hat, kann sie keiner zwingen weiterzumachen)
28
Dreizehnte Vorlesung (25.01.2010)
165.


Welchen Nutzen bringt eine Parallelisierung von Gruppen?
Kontrolle von Störvariablen durch Bildung von homogenen VP-Paaren, Tripeln, Blöcken
Ermöglicht Kontrolle von organismischen Variablen, die gruppeninterne Fehlervarianz
wird so reduziert
166.
Was ist eine Moderatorvariable und wie kann sie experimentell isoliert werden?
 Sie ist eine Drittvariable, die den Einfluss der UV auf die AV verändert
 Sie kann varianzmäßig von der UV getrennt werden (mittels Kovarianzanalyse)
167.
Was ist der „Rosenthal-Effekt“?
 Dies ist der Versuchsleiter- Erwartungseffekt
 Durch die Informationen, die der Versuchsleiter hat, kommt es zu Ergebnissen, die dieser
erwartet, obwohl vorher randomisiert und parallelisiert wurde
168.
Erklären Sie Logik und Aufbau eines Doppelblindversuchs.
Aufbau: bei Doppelblindversuch kennen weder Versuchsleiter noch Versuchsperson die
Untersuchungshypothesen bzw. die Bedingungszuweisung
 Logik: dadurch werden systematische Erwartungseffekte reduziert bzw. verhindert

169.
Erklären Sie das Prinzip der isolierenden Variation.

Ein Grundprinzip der Versuchsplanung
o Manipuliere stets nur eine Variable X “zu einem Zeitpunkt”, d.h. kontrolliere die
möglichen Störfaktoren.
o Wenn dann eine Veränderung in der abhängigen Variable Y eintritt, dann kann X als
Ursache dafür angesehen werden.

Unter diesem Prinzip lassen sich letztlich alle Kontrolltechniken subsumieren.
170.
Was bezeichnet die externe Validität einer Untersuchung? Wodurch wird sie
beeinträchtigt?
 Die externe Validität bezeichnet die Repräsentativität der Stichprobe und der
Untersuchungssituation, welche die Übertragbarkeit der Ergebnisse auf die Grundgesamtheit
bestimmt. (Populationsvalidität)
 Die externe Validität kann beeinträchtigt werden durch:
o reaktives Testen
o Interaktion zwischen der Antwortneigung des Subjekts (der Vpn) und der UV
o reaktive Effekte der experimentellen Untersuchungsanordnung
o multiple-Treatment-Interferences
171.
Was sind statistische Hypothesen und wozu werden sie benötigt?
 Statistische Hypothesen sind Hilfsmittel zur Beantwortung von psychologischen
Fragestellungen anhand empirischer Daten und dienen der zufallskritischen Absicherung von
Entscheidungen.
172. Erläutern Sie den Zusammenhang zwischen empirischen Vorhersagen und statistischen
Hypothesen.
 Empirische Vorhersage und statistische Hypothese müssen homomorph (strukturgleich) sein
 Entscheidungen über die statistischen Hypothesen müssen eindeutig und sinnvoll auf
Entscheidungen über die empirischen Hypothesen abzubilden sein
o
wenn H0 wahr, dann ist die empirische Vorhersage falsch
o
wenn H0 falsch, dann ist der Falsifikationsversuch bestanden
 ABER: keine logische Wahrheit der statistischen Hypothese (SH)
 ABER: Eindeutige Festlegung der Falschheit einer SH nicht möglich
 ABER: Zusatzannahmen für die logische Implikation psychologische Hypothese→ SH
29
Vierzehnte Vorlesung (01.02.2010)
173.




174.




Was ist ein Signifikanztest?
Instrument zur Entscheidung, ob erwartete und tatsächliche Datenstrukturen systematisch oder
zufällig miteinander übereinstimmen oder voneinander abweichen
Dient der Überprüfung der Reliabilität von Mittelwertsdifferenzen
Dient der Prüfung von statistischen Hypothesen, d.h. von Aussagen über Verteilung oder
Parameter (→ Populationstest)
Ziel des Signifikanztests: Zufall als Alternativerklärung eines Unterschieds ausschließen
Warum ist die Normalverteilung von Zufallsvariablen so wichtig für die Prüfung von
statistischen Hypothesen?
Die Normalverteilung (auch gaußsche Normalverteilung genannt) ist ein wichtiger Typ
kontinuierlicher Wahrscheinlichkeitsverteilung.
Die besondere Bedeutung der Normalverteilung beruht u.a. auf dem zentralen Grenzwertsatz,
der besagt, dass eine Summe von n unabhängigen, identisch verteilten Zufallsvariablen im
Grenzwert n → ∞ normalverteilt ist.
d.h., dass man Zufallsvariablen dann als normalverteilt ansehen kann, wenn sie durch
Überlagerung einer großen Zahl von unabhängigen Einflüssen stehen.
Statistische Hypothesen lassen sich durch die Normalverteilung entweder exakt oder
wenigstens in guter Näherung beschreiben, vor allem Prozesse, die in mehreren Faktoren
abhängig voneinander in verschiedene Richtungen wirken.
175.
Was besagt der zentrale Grenzwertsatz?
Der zentrale Grenzwertsatz befasst sich mit unabhängigen, identisch verteilten
Zufallsvariablen und besagt, dass deren Erwartungswert und deren Varianz endlich sind.: Die
Summe von n unabhängigen, identisch verteilten Zufalls- variablen im Grenzwert von n→∞
ist normalverteilt, d.h. jede zufallsverteilte Variable nähert sich bei hinreichend großem n
einer Normalverteilung an.
176.
Nennen Sie bekannte Testverteilungen.
T-Test , F-Test, Students t-Verteilung, Chi-Quadrat- Test, Mann-Whitney U-Test, ...
177.
Was zeigt der Standardfehler der Mittelwerte an?
Der Standardfehler ist definiert als die Standardabweichung des Mittelwertes, d.h. als die
Wurzel aus der Varianz der Verteilung der Stichproben-Mittelwerte von gleichgroßen,
unabhängigen, zufälligen Stichproben aus einer gegebenen Grundgesamtheit. Bezeichnen n
die Größe der Stichprobe und σ2 die Varianz der Grundgesamtheit, so ist der Standardfehler
durch folgende Formel gegeben: (M =Mittelwert der Stichproben)
Der Standardfehler liefert eine Aussage über die Güte des ermittelten Mittelwertes.
Je mehr Einzelwerte es gibt, desto robuster ist der Mittelwert und desto kleiner der
Standardfehler.
Der Standardfehler findet z.B. Anwendung bei der Messung von Konstanten. Wenn bei der
Messung unterschiedliche Ergebnisse ermittelt, liegt es nicht an der Konstanten, sondern die
Abweichungen werden z.B. von Messfehlern verursacht (auch Ungenauigkeit des
Messgerätes).
Misst man häufiger, so nähert sich der Mittelwert der Messung dem wahren Wert in
folgendem Sinne an: Wie die Formel für den Standardfehler zeigt, sind viermal so viele
Messungen nötig, um eine doppelte Genauigkeit zu erreichen.
Im Gegensatz dazu bildet die Standardabweichung die in einer Population (=Grundgesamtheit)
tatsächlich vorhandene Streuung ab, die auch bei höchster Messgenauigkeit und unendlich
vielen Einzelmessungen vorhanden ist (z.B. Gewichts-/ Größenverteilung...). Sie Zeigt, ob
Einzelwerte nahe beieinander liegen oder eine starke Entfernung zwischen den Daten vorliegt.
30
178.
Welches statistische Entscheidungsproblem versucht die Inferenzstatistik zu lösen?
Antwort auf die Frage, ob die registrierte Mittelwertsdifferenz zufällig (dieselbe Population)
oder systematisch (verschiedene Populationen) entstanden ist
 Ist die empirisch festgestellte Mittelwertsdifferenz zwischen den Bedingungen durch die
experimentelle Behandlung oder nur durch Zufall entstanden?
Frage: Stammen die Sichproben-Kennwerte (m1, m2) aus derselben Grundgesamtheit
(H0: μ1 = μ2  Zufallsdifferenz) oder aus verschiedenen Grundgesamtheiten (H1: μ1 ≠ μ2
 systematische Differenz)?
179.
Wann gilt eine Mittelwertsdifferenz als statistisch signifikant?
Die Werte sind statistisch signifikant, wenn die Wahrscheinlichkeit p, dass die
Mittelwertdifferenzen aus zwei oder mehreren Stichproben, die aus derselben Population
stammen, zufällig entstanden ist, nur sehr gering ist. (p < 0,5)  d.h. der Unterschied ist
bedeutsam, entstand nicht zufällig
p … Mittelwertsdifferenz unter Annahme der H0
180.
Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt α an?
Zufälliger Unterschied wird als Effekt ausgegeben: α (False Alarm), d.h. die H0 wird
abgelehnt, obwohl sie eigentlich zutrifft. P (H1 annehmen | H0 gilt) = α < 0.05 (meistens)
181.
Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt 1-α an?
P (H0 annehmen | H0 gilt) = 1- α
d.h. ein zufälliger Unterschied wird als solcher auch
erkannt und abgelehnt (Correct Rejection)
182.
Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt β an?
P (H0 annehmen | H1 gilt) = β
d.h. ein systematischer Unterschied wird als Zufall
betrachtet (Miss)  es gibt einen Effekt, aber er wird nicht erkannt
183.
Welche Wahrscheinlichkeit bei der statistischen Hypothesenentscheidung gibt 1-β an?
P (H1 annehmen | H1 gilt) = 1- β
d.h. ein systematischer Unterschied wird als solcher auch
entdeckt (Hit)  Hit-Rate = Teststärke
184.
Benennen Sie die Wahrscheinlichkeiten von statistischen Entscheidungen in Termini
der Signalentdeckungstheorie (Hits, False Alarms, Correct Rejections, Misses).

α (False Alarm): Zufälliger Unterschied wird als Effekt ausgegeben

1- α (Correct Rejection): Zufälliger Unterschied wird als solcher erkannt

β (Miss): Systematischer Unterschied wird als Zufall betrachtet

1- β (Hit): Systematischer Unterschied wird als solcher entdeckt
185.
Was sind strenge, wohlwollende und faire Hypothesenprüfungen ausgedrückt in den
Wahrscheinlichkeiten für Fehlentscheidungen?
Strenge HÜ (min α -Fehler), wohlwollende HÜ (max 1- β) und faire HÜ (α = β)
186.
Sie wollen zwei Stichprobenmittelwerte in einem t-Tests für unabhängige Stichproben
auf Signifikanz prüfen. Beschreiben Sie die groben Vorgehensschritte.
 Aufstellung einer Null- und einer Alternativhypothese
H0: ungerichtet: μ1 = μ2 gerichtet: μ1 ≤ μ2
H1: ungerichtet: μ1 = μ2 gerichtet: μ1 > μ2
 Festlegung des Signifikanzniveaus α
P (Ablehnung von H0|H0 zutreffend) ≤ α (α = .05)
 Erhebung der empirischen Daten
Erhebung der Variablenausprägungen Y in n1 Personen aus Gruppe 1 und n2 Personen aus
Gruppe 2. Berechung der arithmetischen Mittelwerte y1 und y2 und Varianzen s21 und s22.
31
 Berechnung des empirischen Werts der Teststatistik
= Mittelwertsdifferenz / gepoolte Standardabweichung* Standardfehler
Zahl der Freiheitsgrade (df): n1 + n2 – 2
 Bestimmung der Überschreitungswahrscheinlichkeit
Bestimmung der Wahrscheinlichkeit p, dass bei Gültigkeit von H0 eine t -verteilte
Zufallsvariable mit df Freiheitsgraden einen Wert annimmt (temp), der in Richtung der H1 liegt.
(empirischer Wert im Bezug zum kritischen Wert setzen)
- Einseitig: p = P(tkrit ≤ temp)
temp ≥ tkrit (Effekt, signifikant)
- Zweiseitig: p = P( |tkrit| <> |temp|)
 wenn der empirische t-Wert größer oder gleich dem kritischen t-Wert ist, dann gibt es einen
Effekt; der Unterschied ist signifikant
 Entscheidung über die statistischen Hypothesen
p ≤ α → H0 wird abgelehnt (und H1 wird beibehalten).
p ≥ α → H0 wird (vorläufig) beibehalten (und H1 wird abgelehnt).
- One-tailend test (Unterschied einseitig, gesamter Fehler α wird auf eine Seite
geschoben, kritischer t-Wert = 1.65, sobald empirischer Wert > 1.65 → signifikant)
- Two-tailed test (Zweiseitig: α -Fehler wird aufgeteilt → sobald |Wert| > 1.95
(empirischer Wert liegt zwischen den beiden kritischen t-Werten) → signifikant)
 begründete Entscheidungen über die Akzeptanz oder Ablehnung von statistischen Hypothesen.
187.
Was bedeutet der p-Wert inhaltlich?
Die Wahrscheinlichkeit, dass (unter Annahme der Gültigkeit der H0) der Bedingungsunterschied rein zufällig beobachtet wurde.
188.

Welche Vorteile bringen Signifikanztests?
Systematische Berücksichtigung von unvermeidlichen Abweichungen von den Ceteris-Paribus
Bedingungen durch unkontrollierbare Zufallseinflüsse („Fehlervarianz“) .
Entscheidungen über die statistischen Hypothesen können konsistent und ohne unrealistische
Annahmen getroffen werden. (Auswertungsobjektivität)
Durch die explizite Kontrolle von α- und β-Fehlern kann die Strenge und das Wohlwollen von
Prüfungen beeinflusst werden.
Anwendung von Signifikanztests ist eine weithin akzeptierte Strategie der Datenauswertung
und Hypothesenprüfung unter Fachwissenschaftlern  Auswertungsobjektivität



32
189. Diskutieren Sie Mängel und typische Probleme von Signifikanztests.
o Eine exakte Nullhypothese μ1 - μ2 = 0 ist streng genommen niemals wahr
→ Wahrscheinlichkeit eines exakten Werts geht gegen Null.
o Entscheidung über H0 beruht auf P(Daten|H0). Diese bedingte Wahrscheinlichkeit sagt nichts
über die Wahrscheinlichkeiten P(H0|Daten) und P(H1|Daten) aus.
o Der ermittelte p-Wert gibt weder die Bedeutsamkeit noch die Replizierbarkeit des
Ergebnisses an (über Bedeutsamkeit der Effekte ist keine direkte Schlussfolgerung möglich)
o Die (Nicht-) Signifikanz eines Tests sagt nicht unbedingt etwas über die Größe der
Abweichung der Daten von der H0 aus.
o Ob eine Abweichung von der H0 als signifikant entdeckt wird oder nicht, hängt sehr stark von
der Anzahl der Untersuchungseinheiten ab.
Fünfzehnte Vorlesung (08.02.2010)
190.
Was ist die Teststärke, und welche Bedeutung hat sie für die statistische
Hypothesenentscheidung?
 Teststärke = Wahrscheinlichkeit, mit der ein Signifikanztest zugunsten der H1 entscheidet,
falls diese zutrifft
 Die Teststärke hat den Wert 1-β, wobei β die Wahrscheinlichkeit bezeichnet, einen Fehler 2.
Art zu begehen.
 Durch sie hat man ein Maß dafür, wie gut ein Test misst, also wie gut man mit einem Test
Unterschiede finden kann
191.
Durch welche Einflussgrößen wird die statistische Testpower erhöht (bzw. verringert)?
Wenn alle anderen Faktoren konstant sind, ist die statistische Power 1- β umso größer,
 je größer die tatsächliche Effektgröße (Differenz von μ1–μ2)
 je größer das Signifikanzniveau α ist (sofern β nicht festgelegt ist)
 je größer der Stichprobenumfang N= n1 + n2 ist (da der Standardfehler kleiner wird)
192.
Erklären Sie den Unterschied zwischen absoluten und relativen Effektgrößen.
 absoluten Effektgrößen sind die empirischen Mittelwertsdifferenzen in bekannten
Maßeinheiten, geben aber keine Info über Varianz der abhängigen Variablen
 relativen Effektgrößen sind die empirischen Mittelwertsdifferenzen an der gemeinsamen
Standardabweichung innerhalb der Gruppen relativiert
193.
Experiment 1: M1= 15, M2= 20 Items (σ= 10).
Experiment 2: M1= 15, M2= 20 Items (σ= 5).
Berechnen Sie die Effektgröße (Cohens d) für beide Experimente. Welches Experiment
hat den größeren Effekt produziert?
 Experiment 1: d = 15-20 / 10 = - 0,5
 Experiment 2: d = 15-20 / 5 = -1
 Das Experiment 2 hat den größeren Effekt. Ab einem Wert von
0,8 spricht man von einer großen Effektstärke.
33
194.
Die Korrelation zwischen Vernachlässigung im Kindesalter und Straffälligkeit im
Jugendalter beträgt r= .60. Berechnen Sie den Determinationskoeffizienten, und
erklären Sie seine Bedeutung an diesem Beispiel.

r2=0.36 → der Determinationskoeffizient ist der Anteil der Varianz einer Variablen, der
durch die andere Variable aufgeklärt wird.
 die Varianz der Straffälligkeit im Jugendalter wird also zu 0.36 (ist r2= 0, dann kein linearer
Zusammenhang, ist r2= 1, dann kann x zu 100% aus y vorausgesagt werden) durch die
Variable Vernachlässigung im Kindesalter erklärt.
195.
Sie haben eine Effektgröße (Cohens d) von d= 0.45 errechnet. Wie ist diese Effektgröße
nach den Empfehlungen von Cohen einzustufen?
Dies ist eine kleine bis mittlere Effektgröße.
196.
Sie haben eine Effektgröße (Korrelation) von r= 0.45 errechnet. Wie ist diese Effektgröße
nach den Empfehlungen von Cohen einzustufen?
Dies ist eine mittlere bis große Effektgröße.
197.
Welchem Zweck dienen a-priori Poweranalysen? Welche Einflussgrößen müssen dabei
bestimmt werden?
 Dienen der Bestimmung des Stichprobenumfangs für die angestrebte Teststärke
 Festgelegt werden müssen dafür das alpha-Niveau, die Effektstärke und der beta- Fehler
198.
Welchem Zweck dienen a-posteriori Poweranalysen? Welche Einflussgrößen müssen
dabei beachtet werden?
 Dienen der Bestimmung der Wahrscheinlichkeit 1-β (Teststärke), der mit dem Effekt d zu
entdecken war
 Beachtet werden müssen dabei das alpha-Niveau, die Effektgröße und der Stichprobenumfang
199.
Bestimmen Sie die Stichprobengröße (pro Bedingungsgruppe, um einen mittleren Effekt
mit einer Power von .80 entdecken zu können, anhand der folgenden Tabelle:
Die Stichprobe müsste einen Umfang von etwa 50 haben
200.
Welche Größe sollte die statistische Power im optimalen Fall erreichen?
Im optimalen Fall sollte die Prüfung fair sein (alpha = beta) dies würde eine Power von 0.95
betragen.
34
Herunterladen