spada-kap4-denken-und - Fachschaft Psychologie Freiburg

Werbung
Kapitel 4: Problemlösen, Denken und Entscheiden
1. Historische Entwicklungslinien
4.1.1. Würzburger Schule der Denkpsychologie (ca. 1900)
Historische Anfänge
- Aristoteles: Wahrnehmungen (der Außenwelt) entsprechen den Vorstellungen der Seele
 Vorstellungen sind bewusst
 Vorstellungen untereinander verbunden zu Assoziationen
- Anfänge der Psychologie
 Denken vollzieht sich als bewusster, aber nicht steuerbarer Prozess durch
Assoziationen von Vorstellungen
 Psychologie begann mit Experimenten zu subjektiven Empfindungen, der
Psychophysik
Würzburger Schule (gegen assoziationspsychologische Deutung) – Methode der
Introspektion
- Keine philosophischen Ableitungen, sondern empirische Erforschung von
Denkvorgängen
- Denken (wie auch Entstehung von Gefühlen) vollzieht sich in nicht anschaulichen (=
dem Subjekt zugänglichen) Bewusstseinsinhalten; Denken an sich geht ohne
Bewusstsein vonstatten, Bewusstseinsakt stellt sich nach dem Denkprozess ein,
Vorgänge beim Urteilsfinden nicht zugänglich
MAYER & ORTH (1901):
- untersuchten die qualitativen Eigenschaften von Assoziationen
MARBE (1901):
- Was spielt sich bei Schätzurteilen (z.B. Gewichtsprüfungen) zwischen
Aufgabenstellung und Abgabe des Urteils im Geiste ab? => VPen können keine
Aussage zur Urteilsfindung machen
WATT (1905): Phasen der Urteilsfindung (von der Aufgabenstellung bis zur Antwort)
1) Vorbereitungsphase
2) Zu bedenkende Problemstellung / Sachverhalt
3) Suche nach der Antwort
4) Antwort
 Phase 1 läuft bewusst ab; ist sie erfolgreich, laufen die restlichen Phasen unbewusst
und automatisch ab.
ACH (1905):
- Vorbereitungsphase gibt entscheidende Richtung für anschließende Denkprozesse und
Handlungsvorbereitung vor = determinierende Tendenz
- heutige Sicht: Phänomen der Aufmerksamkeit wurde betrachtet
BÜHLER: Bewusstseinsprozess tritt erst nach Ablauf des Denkprozesses ein (Denken ohne
Bewusstsein; Aha-Erlebnis)
Kritik an der von der Würzburger Schule:
- Verfolgen der Methode der Introspektion als zu leicht verfälschbar und fehleranfällig
1
4.1.2. Denken aus Sicht der Gestaltpsychologie
FREUD: Denken ist geistiges Probehandeln
 wurde von den Gestaltpsychologen aufgegriffen
Gestaltgesetze
- Wahrnehmung basiert auf Gestaltgesetzen: Einzelheiten eines Objekts werden
unter der Wirkung von Gestaltgesetzen erkannt und interpretiert
 „Das Ganze (die Gestalt) ist mehr als die Summe der Teile“
Annahmen:
- Denken als geistiges Probehandeln ist kein Trial-and-Error, sondern ein systematisch
ablaufender Vorgang (systemat. von Prinzipien geleitet) => Prinzip der guten
Gestalt
- …auf das Problemlösen angewandt: Personen sind mit unbefriedigter Gestalt
konfrontiert (= dem Problem), welche es in eine gute Gestalt zu überführen gilt (= die
Lösung) => Umstrukturierung (von schlecht nach gut)
Wichtigster Forscher: MAX WERTHEIMER
KÖHLER (1921):
Versuch mit Schimpansen, die vor dem Problem standen, eine in unerreichbarer Höhe
platzierte Banane zu erreichen. Im Käfig befanden sich Kisten, die aufeinander gestapelt
werden konnten.
 Nach versuchsweisem Probehandeln folgt gedankliches Probehandeln
(Umstrukturierung der Situation, durch Kistenstapeln, als Möglichkeit zur
Überwindung des Hindernisses versucht: schlechte Gestalt = unerreichbare Frucht);
erfolgt die Einsicht, wird das Handeln ausgeführt
DUNCKER (1935):
- Problemlöseprozesse beim Menschen sind zielgerichtet
- Gelingt Problemlösung nicht auf Anhieb, werden Teilziele definiert
- Um den Fortschritt zu kontrollieren, wird die Entfernung zum Endziel immer
abgeschätzt  Ursprung der MZA?
WALLAS (1926): 4 Phasen des Problemlöseprozesses
1) Vorbereitung: Informationssammlung mit vorläufigen Lösungsversuchen
(Probehandeln)
2) Inkubation: Beiseitelegen des Problems für eine Unterbrechung
3) Erleuchtung: Der Schlüssel zur Lösung erscheint (Einsicht bzw. Aha-Erlebnis)
4) Verifikation: Überprüfung der Richtigkeit der Lösung
DUNCKER (1935):
- Vorwissen ist oftmals nötig, kann für die Problemlösung aber auch hinderlich
sein: durch Vorwissen zieht man bestimmte Umstrukturierungsmöglichkeiten nicht in
Betracht
 Funktionale Gebundenheit: Vorwissen bewirkt eine mentale Blockierung einem
Objekt gegenüber, das zur Problemlösung in ungewohnter Weise benutzt werden muss
(siehe Pendelaufgabe)
BIRCH & RABINOWITZ (1951): Pendelaufgabe
- Versuch, bei dem zwei Seile miteinander verknotet werden müssen, die zu weit
auseinander hängen, als dass dies ohne Hilfsmittel möglich wäre
2
-
Gewohnte Gegenstände (Schalter, Relais) müssen (zu einem Pendel) umfunktioniert
wer
 Hatten die Versuchspersonen im Vorversuch einen der beiden Gegenstände in gewohnter
Weise benutzt, so benutzten sie für das Seilproblem jeweils den anderen Gegenstand
(Gegenstand scheint in seiner Funktion gebunden zu sein)
Frühere Erfahrung kann unverzichtbare Wissensgrundlage für spezifische Problembereiche
liefern, sie kann aber auch durch starke Bindung an Situationskontexte den Transfer auf neue
Problemsituationen erschweren.
NS-Machtergreifung 1933 beendet die Berliner Schule der Gestaltpsychologie.
1.3. Die Kognitive Wende zur Psychologie der Informationsverarbeitung
Zuvor: Behaviorismus dominierte die Psychologie seit Anfang des 20 Jhdt.s
 Beschränkung der Forschung auf beobachtbares Verhalten
 Keine Erforschung von Denken und Problemlösen
Paradigmenwechsel ab 50er Jahre = Kognitive Wende
Menschenbild: Mensch als informationsverarbeitendes System:
- verfügt über Eingangs- und Ausgangskanäle
- Speicherung und Transformation von aufgenommener Information
- Wechselwirkung zwischen Mensch und Umwelt: Mensch nimmt Info aus der Umwelt
auf, verarbeitet sie und handelt wiederum (entsprechend der Infos) in der Umwelt
 Abhängigkeit vom inneren Zustand
Gründe für den Paradigmenwechsel in der Psychologie:
- Fortschritte in Mathematik, Logik und Computerwissenschaften (gute Verknüpfung
mit Psychologie)
- Computer-Metapher: Das menschliche Gehirn wird als biologische Rechenmaschine
wahrgenommen
 Psychologie konnten mit formalen Wissenschaften (Mathe, Logik, ...) und biologischen
Wissenschaften verknüpft werden
MILLER (´56): “The magical number 7, plus or minus 2”
- Ganz unterschiedliche menschliche Leistungen hängen mit der Kapazität
zusammen, mit der wir Infos kurzfristig präsent halten.
BRUNER & AUSTIN (1956): “A study of thinking” über die Begriffsbildung
- Personen verfolgen unterschiedliche, aber präzise beschreibbare Strategien, welche
zur Erfüllung übergeordneter Ziele dienen (Entlastung des Gedächtnisses,
Minimierung möglicher Fehler)
-  keine „Black Box“, sondern Prozesse der Info-Verarbeitung
NEWELL & SIMON (1956): “Logic Theorist“
- programmierte Rechenmaschine, die einen mathematisch-logischen Beweis
mechanisch und symbolisch ausführte (später „General Problem Solver“ genannt)
4.2 Problemlösen
3 Merkmale als kennzeichnend für Problemsituationen:
(1) unerwünschte Ausgangssituation, die i. eine angestrebte Zielsituation zu überführen ist
(2) keine unmittelbare Überführung möglich („Barriere“ vorhanden  überwinden)
(3) Überwindung erfordert Durchführung von Problemlösehandlungen
3
Klassische Problemstellungen (Beispiele für Problemklassen):
- Neun-Punkte-Problem (Einsichtsproblem => 1 Lösungsschritt)
- Turm-von-Hanoi (Transformationsproblem => mehrere Lösungsschritte)
- Physikaufgaben (ebenfalls Transformationsproblem)
 Gut definierte Probleme: Ausgangssituation + Ziel sind bekannt und genau
beschrieben, können aber nicht direkt gelöst werden
Bei schlecht definierten Problemen können der Anfang, das Ziel oder beide unklar sein (z.B.
Probleme der Gestaltung oder künstlerische Probleme). Häufig sind auch die möglichen
Problemlösehandlungen unklar oder unbekannt
Verschiedene Arten von Problemen:
- Einsichtsproblem: Problemlösung hängt vom Gelingen einiger weniger kritischer
Einzelschritte ab (z.B. Neun Punkte Problem)
- Transformationsproblem: Entscheidend für Problemlösung ist eine längere Abfolge
von Schritten (z.B. Turm v. Hanoi, Physikaufgabe)
- Vorwissensarme Probleme: erfordern für ihre Lösung kein spezifisches Wissen, das
über die in der Instruktion gegebene Info hinausgeht (z.B. Neun-Punkte Problem, Turm v.
Hanoi)
- Bereichsspezifisches Vorwissen: benötigt z.B. bei vielen Physikaufgaben
Aspekte von Problemen sind demnach:
- Grad an benötigtem Vorwissen
- Anzahl an Lösungsschritten (s.o.)
- Detailliertheit der Problemdefinition (inkl. Bekanntheit der Lösungsschritte)
4.2.1. Problemlösen als Informationsverarbeitung
-
Gestaltpsychologie war die Erste, die sich mit den Vorgängen des Denkens und
Problemlösens beschäftigt hat
 Theoretische Auffassung: Umstrukturierung einer Problemlösesituation von einer
gegebenen schlechten in eine gesuchte gute Gestalt
Problemlöseaktivitäten als Prozess der Infoverarbeitung: seit Mitte des 20. Jhdt.s
- Forschungsaspekte: Problemrepräsentation; Analyse der Problemlösestrategien
- Bevorzugtes Untersuchungsmaterial: Denksportaufgaben
- Newell & Simon (´72): Human problem solving
 Problemlösen als zielgerichtete Suche in einem Problemraum (bis heute einflussreich;
Bsp.: Turm v. Hanoi-Problem (ToH-Problem))
4.2.1.1 Problemraum und Problemsuche (NEWELL & SIMON, 1972)
Zentrale Konzepte: Problemraum und Suche
Problemraum: Alle möglichen Zustände, die ein Problem vom Anfangszustand bis zum
Zielzustand annehmen kann.
- Netzwerk, in dem die Knoten für einzelne Problemzustände stehen und die Kanten zw.
den Knoten die Transformations-, d.h. Lösungsschritte (Übergänge) von einem
Problemzustand zu einem anderen repräsentieren.
 Lösen eines Problems entspricht der Suche eine i.d.R. möglichst günstigen Weges
vom Anfangs- zum Zielzustand
Was hat man von Problemanalyse durch Problemräume?
- Anforderungen eines Problems können bestimmt werden (z.B. Anzahl möglicher
Zustände, Art der Problemlösehandlungen
4
-
in empirischen Studien können Problemräume die Problemlöseaktivitäten von
Personen protokollieren, analysieren und bewerten helfen
- Theoretischer Begriff:
- Problemräume sind gedankliche Konstruktionen und immer auch Abstraktionen 
kein eindeutiger Raum, sondern best. „Sicht“ auf das Problem
 mehrere Problemräume zu einem Problem sind denkbar
- oft sind sie sehr komplex und daher schwer visualisierbar
Fazit: Der theoretische Begriff des Problemraums stellt Vorstellungen, Begriffe und
Methoden bereit, um viele auf den ersten Blicke unterschiedliche Phänomene aus einer
einheitlichen Betrachtungsweise heraus zu analysieren
4.2.1.2. Mentale Anforderungen beim Problemlösen
- Die Gestalt des Problemraums ist nicht der einzige Faktor, der die Schwierigkeit eines
Problems bestimmt (da dieser nur eine abstrakte Repräsentation d. Problems darstellt).
 isomorphe (auf den gleichen Problemraum abbildbare) Probleme sind nicht
notwendigerweise gleich schwer
5 Faktoren beeinflussten bei Kovotsky et al. die Problemschwierigkeit:
1) wie einfach Problemlöseregeln gelernt/verstanden werden
2) wie einfach die Regeln anzuwenden sind
3) wie stark sie mit vorhandenem Weltwissen korrespondieren
4) wie stark das Gedächtnis belastet wird
5) wie der Problemraum subjektiv repräsentiert wird
Zwei wesentliche Anforderungen an das Problemlöseverhalten:
(1) Organisation des Lösungsprozesses:
- Oft mehrere Problemlösehandlungen alternativ ausführbar
- Auswahl und Anwendung von Lösungsstrategien sind von zentraler
Bedeutung!
 Bei vorwissensarmen Problemen (z.B. Turm von Hanoi) gehen Personen beim ersten
Lösungsversuch oft langsam, fehleranfällig, ineffektiv und stark an lokale
Anforderungen orientiert vor (z.B. indem sie lokale Heuristiken verwenden)
(2) Gedächtnisbeanspruchende Schwierigkeiten:
o Bei den meisten Problemen ist es nützlich, sich an vorangegangene
Schritte zu erinnern
o Erfolgreiches Problemlösen erfordert Anwendung von Strategien, die
mehrere Problemlösehandlungen organisieren und koordinieren
 Lokale Heuristiken müssen durch abstrakte, global formulierbare Strategien ersetzt
werden,
 Möglichkeit, den gesamten Problemlöseprozess planerisch vorzubereiten und
durchzuführen (weniger Gedächtnisarbeit nötig)
4.2.1.3. Suchstrategien beim Problemlösen
- Erschöpfend vs. nicht-erschöpfend (Wird der gesamte Problemraum durchsucht?)
- Allgemein vs. heuristisch (Auf beliebigen oder spezif. Problemraum anwendbar?)
Allgemeine Suchstrategie:
- systematisches Vorgehen nach einfacher Regel  Blind gegenüber Besonderheiten
- Erschöpfende und allgemeine Strategie: uninformierte Suchstrategie - Bsp.: Suche
ein best. Buch i. d. Bibliothek; suche Regal für Regal, jeweils von li. oben nach re.
unten
- Vorteil: breite Anwendbarkeit
5
 Psychologisch ist die Verwendung allgemeiner Suchstrategien wenig plausibel; schon
bei einfachen Problemen wenden Personen heuristische Strategien an (das zeigt sich
auch in der Definition der Strategie und Repräsentation des Problemraums)
Heuristische Strategien:
- organisieren den Lösungsprozess vollständig und effizient von Anfang an (abstrakte
Natur)
- Berücksichtigung von problemspezifischem Wissen / Info
- In einer Entscheidungssituation wird eine Bewertung alternativer Problemlöseschritte
vorgenommen (s.u., z.B. Unterschiedsreduktion, Mittel-Ziel-Analyse)
- Bsp. Bibliothek: Ordnung der Aufstellung der Bücher wird genutzt, um Suchbereich
einzuschränken
 Rekursive Strategie im ToH-Problem
 Menschen verwenden selbst bei einfachen Problemen meist heuristische Strategien
Unterschiedsreduktion:
- Auswahl desjenigen Lösungsschrittes, der den Unterschied zw. Ausgangs- und
Zielsituation am deutlichsten reduziert
 Berücksichtigung problemspezifischer Info
- Bsp.: Bergsteiger-Methode und Mittel-Ziel-Analyse
Mittel-Ziel-Analyse (vorwärtsgerichtete Suche inkl. rückwärtsgerichtete Teilzielbildung)
Drei ineinander verschachtelte Teilschritte:
(1)
- Unterschied zwischen aktuellem Zustand und Zielzustand analysieren
- Kein Unterschied: Problem gelöst
- Unterschied: Mit Hilfe einer Heuristik den „wichtigsten“ Unterschied auswählen
- (Bsp. ToH-Problem: Wichtigster Unterschied in der Ausgangssituation = Größte
- Scheibe ist nicht auf dem Zielstab)
- Beseitigung dieses Unterschieds als neues aktuelles Teilziel definieren  zu
(2)
(2)
- Operator für die Beseitigung des Unterschieds suchen
- Wenn keiner existiert, kann das Problem nicht gelöst werden
- Wenn existiert, unter Anwendung einer Heuristik einen der gefundenen Operator
auswählen  zu (3)
(3)
- Analysiere Unterschiede zwischen dem aktuellen Zustand und den
Anwendungsbedingungen des ausgewählten Operators
- Wenn kein Unterschied vorhanden ist, Anwendung des Operator +  zu (1)
- Wenn Unterschied vorhanden, unter Anwendung einer Heuristik den
„wichtigsten“ der gefundenen Unterschiede auswählen
- Beseitigung dieses Unterschieds zum aktuellen Teilziel erklären  zu (2)
Welcher Unterschied ist der wichtigste?
 Berücksichtigung von problemspezif. heuristischem Wissen
Vorteile der MZA:
- heuristische Strategie  Einbezug problemsspezifischen Wissens
- multiple Ziele können verfolgt werden
- einfache und ökonomische Zielverwaltung
6
Nachteile:
- unflexible Zielverwaltung:
- Reihenfolge ist vollständig und eindeutig festgelegt
- Zurücknahme/Korrektur ist nicht möglich
- Wissen über Abhängigkeiten zwischen Teilzielen kann nicht transparent
berücksichtigt werden  kann in Sackgasse enden
- empirisch zeigt sich, dass Menschen anders Probleme lösen: oft Zielwechsel vor
Erreichen des vorherigen Ziels, teilweise parallele Verarbeitung mehrer Aufgaben
 andere Problemlösestrategie nötig: Zugriff auf noch nicht verarbeitete Ziele,
transparente Repräsentation von Relationen zwischen (Unter-) Zielen
Weitere heuristische Problemlösemethoden:
- Nutzung von Analogien: Suche der Lösung mit Hilfe eines bekannten analogen
Problems  Suchraumerweiterung/Suchraumwechsel
Oft genutzte Methoden in Problemlöseforschung:
- Methode des lauten Denkens (Ericsson & Simon)
- Computermodellierung
4.2.2. Modellierung von Problemlöseprozessen: Wissensbasierte Systeme
Problemlösen erfordert verschiedene Formen des Wissens:
- Deklaratives Wissen („Wissen, was“; beschreibt Objekte, Situationen oder
Ereignisse)
- Prozedurales Wissen („Wissen, wie“; stellt Operationen zur Nutzung und zum
Erwerb von Wissen bereit)
- Kontrollwissen („Wissen, wann“; steuert das Zusammenspiel d. beiden
Erstgenannten)
In den Computer-Modellierungen sind die Wissensarten in spezielle Komponenten
umgewandelt:
- Deklaratives Wissen => Propositionale Strukturen (siehe 3.4.1)
- Prozedurales Wissen => Bedingungen, unter denen es anwendbar ist, +
resultierende Konsequenzen (wenn…, dann…)
 Regelartige Struktur kognitiver Architektur: Wenn [Bedingungen], dann
[Aktionen]
 Beim Lösen von Problemen wirken deklarative Wissensanteile (= Problem,
Ausgangssituation, Zielzustand, Komponenten des Problemraums) und prozedurale
Wissensanteile im Sinne der rekursiven Lösungsstrategie zusammen (beim ToHProblem)
Modellierung zweier Vorgehensweisen des Problemlösens
(1) Vorwärtsverkettendes Problemlösen:
Suche nach Infos, die den Bedingungsteil von Regeln erfüllen => Ausführung der
Aktionen im Dann-Teil
= datenorientierte Informationsverarbeitung
(2) Rückwärtsverkettendes Problemlösen:
Suche nach Möglichkeiten / Infos, um Ziel zu erreichen:
Wenn ein Ziel im Dann-Teil steht => Überprüfung, ob Wenn-Teil der entsprechenden
Regel erfüllt ist - wenn nicht: neue Unterziele (um diese zu erreichen, wird das
rückwärtsverkettende Schließen erneut angewendet)
= ziel- oder hypothesenorientierte Infoverarbeitung
7
Kognitive Architekturen
Infoverarbeitungsvorgänge setzen ohne ausführendes System voraus, welches für die
Ausführung zuständig ist
 Formulierung kognitiver Architekturen (ermöglichen Wahrnehmung, Speicherung,
Repräsentation/Auswahl von Wissen, ...)
- z.B. ACT (Anderson) und SOAR (Newell)
ACT (Adaptive Character of Thought)
2 Annahmen:
1. Kognitive Fertigkeiten können durch Regeln oder Produktionen repräsentiert werden
2. Elementare Einheiten:
- Deklaratives Gedächtnis: Einheiten des Arbeitsgedächtnisses (v.a. Chunks)
- Prozedurales Gedächtnis: Produktionen
 Produktionen und Chunks sind mit Stärkeparametern versehen: Diese geben u.a.
Auskunft über die Anwendungshäufigkeit, bestimmen, ob Produktionen / Chunks in
einem bestimmten Verarbeitungsschritt angewendet werden u.Ä.)
Lernen wird im ACT insbesondere auf 2 Arten modelliert:
- Anpassung der Stärkeparameter aufgrund von Erfahrung
- Bildung neuer Produktionen (durch Analogie)
Vorteil von Architekturvorstellungen:
- theoretisch begründbare Einschränkungen der Freiheitsgrade bei Modellbildung
- ein einheitlicher und technischer Rahmen wird geboten  Vergleichbarkeit wird
erleichtert
- Mit Computersoftware simulierbar
Kognition kann als Zusammenspiel unterschiedlicher Wissensbestände beschrieben und
analysiert werden!
ABER: Einschränkung durch Fokussierung auf vorwissensarme und gut-definierte Probleme
und durch Fokussierung auf individuelles Problemlösen.
4.2.3 Problemlösen und Lernen: Der Selbsterklärungseffekt
Problemlösen ist eng mit dem Wissenserwerb verknüpft; die Flexibilität menschlichen
Problemlösens kann nur auf dem Hintergrund der Lernmechanismen verstanden werden, die
zum Erwerb von Wissen führen.
Prozesse des Wissenserwerbs:
 Phasentheorie (im Rahmen seiner ACT-Theorie; Anderson,´93):
(1) Phase der Verwendung deklarativen Wissens
- Neue Info zuerst in deklarativer Form
- Keine unmittelbare Umsetzung von Wissen im Verhalten
- „Interpretation“ mit Hilfe allgemeiner, bereichsunspezifischer Problemlöse- prozeduren (Menschen haben Repertoire an PLP, z.B. Mittel-Ziel-Analyse)
(2) Phase der Wissenskompilierung
o Bildung von Problemlöseregeln des jeweiligen Bereichs
o Deklaratives Wissen wird in prozedurales Wissen umgewandelt
o Größere kogn. Effizienz (Zugewinn an Schnelligkeit, Reduktion d.
Gedächtnisbelastung)
(3) Phase der Wissensoptimierung
- Feinabstimmung des prozeduralen Wissens durch 3 Lernmechanismen:
o Generalisation
o Diskrimination
8
o Verstärkung
 Durch die Phasentheorie können bekannte Problemlösephänomene, wie der
Einstellungseffekt, rekonstruiert werden; sie vernachlässigt allerdings die
Kodierung deklarativen Wissens und die Rolle von Vorwissen
Lernende erwerben oft schon aufgrund eines Beispiels bzw. weniger Beispiele neues Wissen.
Dabei nutzen sie in vielfältiger Weise ihr Vorwissen, um die Beispiele zu elaborieren und
Analogiebildungen vorzunehmen!
Studie: „Selbsterklärungseffekt“(CHI et al.; 1989)
(1) Wissenserwerbphase:
Schüler mussten sich Physikwissen über ein Lehrbuch aneignen, sowie Kapitel zur
Mechanik, das v.a. ausgearbeitete Musterlösungen thematisierte (s. Abb. 4.6; S.216)
(Musterlösung = schrittweise Ableitung der Lösung, aber Erklärungen sind oft
unterspezifiziert und unvollständig)
(2) Problemlösephase:
Bearbeitung von Physikaufgaben
In beiden Phasen wurden Protokolle lauten Denkens erfasst
Danach wurden die Schüler in gute und schlechte Problemlöser aufgeteilt:
Unterschiede zwischen guten und schlechten Problemlösern:
- gute PL verbalisierten in der ersten Phase mehr Äußerungen, die auf
Konzepte/Gesetze bezogen waren
- während der 2. Phase verbalisierten gute PL angemessenere Äußerungen der
Selbstüberwachung, auch Monitoring-Aussagen wurden öfter getroffen
- gute PL nahmen seltener aber gezielter Bezug auf die Musterlösungen
Welches sind die Prozesse, die effektives Lernen aus Beispielen unterstützen –
Erklärungen für das Ausmaß des unterschiedlichen Wissenserwerbs
Simulationsmodell „Cascade“
Effektives Lernen aus Beispielen beruht auf zwei grundlegenden kognitiven Leistungen:
Verstehen von Musterlösungen:
- Cascade geht davon aus, dass gute und schlechte PL Musterlösungen unterschiedlich
gut nutzen:
- gute PL versuchen jede Zeile zu erklären (anhand des zuvor gelesenen), schlechte
nicht
- fehlendes Wissen wird in „Cascade“ konstruiert durch entweder Analogie-Abduktion
oder erklärungsbasiertes Lernen korrekter Lösungsschritte (ELBC)
- ELBC – nutzt 3 Arten des Vorwissens: Allgemeinwissen, naives physikalisches
Wissen, Heuristiken für Verbindung von naivem und physikalischem Wissen, sonst...
- Analogie-Abduktion: Schließen von Konsequenzen einer bereichsspezifischen Regel
auf die Gültigkeit ihrer Voraussetzung  Bedingungen einer Regel als Erklärung für
Konsequenzen  wird künftig in analogen Sit. angewandt
Lösen von Problemen:
- Ableitung durch eine rückwärtsverkettende Suche (in der Menge physikal.
Gleichungen)
- Sackgasse  Es wird versucht, diese mit der EBLC-Methode zu überbrücken:
- Erfolg  neues, problemspezifisches Wissen erworben
- Misserfolg  Problemlösung scheitert
- Die Methode der Analogie-Abduktion kann beim Problemlösen nicht eingesetzt
werden, da keine Lösungsschritte vorgegeben sind
9
-
-
Aus der Menge von möglichen Regeln sucht „Cascade“ bRegeln durch eine
analogiebasierte Suchkontrolle aus  Diejenigen Regeln werden bevorzugt, die sich
in analogen Situationen bewährt haben
Gute Problemlöser haben viele neue Regeln gebildet, auf die sie zurückgreifen
können
Schlechte Problemlöser greifen stattdessen auf frühere Beispiele zurück, in denen die
aktuell gesuchte Größe vorkommt  oberflächliche Analogie
Zentrales:
- viele vorwissensintensive Probleme, die früher als besonders schwierig angesehen
wurden, können heute mit Computern modelliert werden
- einige Aspekte menschlichen Problemlösens sind dennoch nicht rekonstruierbar
- Computermodellierung simuliert menschliche Info-Verarbeitung nicht korrekt (z.B.
Annahmen zur Speicherkapazität)
4.2.4 Problemlösen aus neurowissenschaftlicher Sicht
-
Der präfrontale Kortex spielt im Zusammenhang mit exekutiven Funktionen
(Steuerungs-, Entscheidungs- und Planungsprozesse) eine wichtige Rolle
Eine fMRI-Studie hat gezeigt, dass beim Lösen des ToH-Problems das frontoparietale System beteiligt ist
Läsionen im präfrontalen Kortex führen zu spezifischen Planungs- und
Problemlösedefizite (am gravierensten links- bzw. beidseitige Schädigung)
4.3 Problemlösen mit Sachkenntnis: Expertiseforschung
Hier geht es um Aufgaben, die wie so viele im alltäglichen Leben, nur mit viel Vorwissen
bewältigt werden können (Mediziner, Programmierer, Schachspieler, ...)
 Experten mit Expertise 
Experte:
- Hat auf bestimmtem Gebiet herausragende Fähigkeiten und großes Wissen erworben.
Er löst Probleme auf diesem Gebiet effizient, erreicht meistens gute Arbeitsergebnisse
und kennt dabei seine Stärken und Grenzen.
Expertise:
- Erwerb erfordert viel Zeit
Frage: Was zeichnet Experten aus psychologischer Sicht aus?
Methoden:
- oft Experten vs. Novizen
- selten Längsschnittstudien zur Verfolgung von Sachkenntnis
4.3.1 Schach
Schachspieler haben gegenüber Novizen deutlich besser organisierteres und umfangreicheres
Wissen  zeigt sich auch in Gedächtnisleistungen für Schachstellungen
Studien:
DEGROOT (1965), CHASE & SIMON (1973):
o Überlegenheit von Schachprofis bei schachbezogenen Gedächtnisleistungen
über Laien (Darbietung von Schachkonfigurationen für jeweils 5 sek.)
10
CHI (1978):
- Kinder mit Schachkenntnissen sind besser in schachbezogenen Gedächtnisaufgaben
als Erwachsenen ohne Schachkenntnisse
OPWIS et al. (1990):
- Darbietung von sinnvollen und sinnfreien Schachstellungen. Die Probanden waren
entweder Experten oder Novizen
- Die Experten waren den Novizen in der Erinnerungsleistung deutlich überlegen,
sowohl bei sinnvollen als auch bei sinnfreien Stellungen (bei ersterer Stellung war die
Leistung deutlich gesteigert)
Wie kommt es zu besseren Gedächtnisleistungen?
Einprägen durch Chunks:
Chase & Simon (1973):
- sie gingen davon aus, dass Schachexperten größere Chunks (mehrere Figuren)
bildeten und deswegen bei gleicher Anzahl von Chunks im AG bessere Leistungen
zeigten
- Überprüfung u.a. durch Nachbauenlassen von Stellungen - die Anzahl der Figuren /
Blick zur Vorlage war bei Experten größer
Schablonen über Schachzüge:
Gobet & Simon (1996):
- sie vermuteten, dass Schachexperten viele „Schablonen“ über Schachstellungen
inklusive zielführender Züge im LZG haben  template theory
- Schablonen aus ca. 12 fixen Positionen und Infos über variabel positionierbare
Figuren
 Zusammenfassung von Wissen über ähnliche Stellungen
Überprüfung:
- Vergleich der Spielstärke bei einem und mehreren simultanen Gegnern: kaum
Differenz, jedoch ist Durchdenken beim simultanen Spiel ausgeschlossen, da wenig
Zeit vorhanden war.  Beleg für Schablonen (?)
Unvertraute Stellungen:
- bei Holding & Reynolds (1982) zeigte sich auch hier deutlicher Vorteil der
Schachexperten
 strategische Fähigkeiten scheinen bei Experten ebenfalls höher zu sein
Fazit:
- Schachexperten haben breites Wissen über Stellungen und relevante Züge (langjährige
Erfahrung)
 Routinierte Lösungen aber auch flexible Reaktionen sind möglich
- Gedächtnisleistung ist aufgrund größerer Sinneinheiten besser
ABER: Sie durchdenken nicht mehr Züge!
4.3.2 Schulphysik
Wie lösen Novizen und wie Experten bestimmte Physikaufgaben?
Experten:
- wählen zumeist vorwärtsverkettende Problemstrategie:
- Ausgangspunkt sind gegebene Größen – diese werden genutzt um sukzessive neue
Infos abzuleiten
11
 basiert auf gutem Domänenwissen, da wissensbasierte Entscheidungen getroffen
werden müssen
- Experten haben Problemlöseschemata (nach Van Lehn, 1989):
- sie enthalten Infos über Problemklassen, auf die es anwendbar ist und über
Lösungsprozeduren
 Reduktion des „Suchaufwands“
 3 Schritte zum Problemlösen: Auswahl des passenden Lösungsschemas  Anpassung an
vorliegendes Problem  Ausführung der Lösungsprozedur
Novizen:
- nutzen eher rückwärtsverkettende Problemlösestrategien:
- Ausgangspunkt sind gesuchte Größen  Versuch Formeln anzuwenden
- Problem:
- Überblick geht verloren, Teilziele werden vergessen, ...
 viele Möglichkeiten falsche Wege zu gehen; Gefahr der Überlastung des
Gedächtnisses
Problemraumperspektive:
- Experten grenzen Suchraum auf wenige aussichtsreiche Ausschnitte ein
- Novizen durchsuchen große, oft nicht zielführende Abschnitte
Strategiewechsel
- Experten handeln flexibler  Strategiewechsel je nach Voraussetzung
o oft Wechsel zwischen vorwärts- und rückwärtsverkettender Suche
Klassifikation von Problemen
- hierbei helfen Lösungsschemata
- in einer Studie sortierten Experten Physikprobleme nach physikalischen Prinzipien,
Novizen nutzten fast nur Oberflächenmerkmale
 Experten repräsentierten Probleme so, dass Lösungswege erkennbar und anwendbar
wurden
Art der Problemrepräsentation
Experten
- nutzen oft zwei unterschiedliche Problemrepräsentationen: eine qualitativkonzeptuelle und eine quantitativ-numerische
- qualitativ-konzeptuell: enthält z.B. Infos über einwirkende Kräfte  Eingrenzung d.
Problemraums
- quantitativ-numerisch: wird durch erstere begünstigt; z.B. in Form von Gleichungen,
Gesetzen, ...
 beide Klassen ermöglichen Ableitung d. gesuchten Größe in vorwärts verkettender
Strategie
Novizen:
- meist keine korrekte qualitative Repräsentation wegen unvollständigen Wissens
 rein quantitativer Ansatz: z.B. Lösungsversuch durch Manipulation von Gleichungen
(oft vergebens)
Außerdem:
- Novizen haben oft naive qualitative Alltagsvorstellungen, die in zentralen Aspekten
vom wissenschaftlichen Standpunkt abweichen  zusätzliche Erschwerung
12
Erwerb von Physik-Expertise (Spada & Plötzner, 1998, ...)
1) naiv qualitatives Alltagswissen: nützlich im Alltag, daher relativ
robust; in Kindheit erworben
2) qualitativ-konzeptuelles und quantitativ-numerisches Wissen (Idealfall)
– wissenschaftlich korrektes Wissen sollte in Schule erworben werden;
allerdings häufig nur quantitativ-numerisches
 Problem, denn oft wird 3.Phase mit konsolidiertem qualitativen und quantitativen
Wissen, was gut für Problemlösung wäre, nicht erreicht
Computermodell von Plötzner (1995)
Simulation empirisch beobachtbarer Unterschiede von Schülern in 2. und 3. Phase des
Expertiseerwerbs in klass. Mechanik
- bei quantitativen „Aspekten“: Problemlösen wie bei Novizen  Scheitern bei
komplexeren Problemen
- bei qualitat. und quant. Aspekten: Simulation einer für Experten typischen Strategie
4.3.3. Medizin
Entwicklung medizinischer Expertise in Studium und Beruf (3 Expertisestufen):
Anfänger:
- Einprägung vieler Fakten (erste Studienjahre)
- Aufbau eines weit verzweigten, zuerst nur lose verknüpften Wissensnetzwerks
(Grundlagen-, Faktenwissen): Beantwortung von Fragen braucht viel Zeit und es
werden viele Fehler gemacht
Übergangsstadium:
- Wissen wird sicherer: Wissenselemente werden enger verknüpft, rascher Abrufbar und
auf Anwendung ausgerichtet
- Zwischenschritte von Erklärungen (z.B.: biolog. Erklärung eines Begriffs) werden
ausgeblendet = (Wissens-)Einkapselung (Konzeptbildung, die größere Einheiten
betrifft)
Experte:
- Wissen ist bezogen auf Fälle und klinische Anwendung
- Krankheitsschemata vorhanden (typ. Krankheiten mit Ursachen und Symptomen)
- Diagnose und Behandlung von Krankheiten wird routiniert
- Fallbezogene Interpretation von Infos / Wissen (Symptome aktivieren
Krankheitsschemata)
4.3.4 Zusammenfassung: Experten vs. Novizen
-
Überlegenheit des Experten beruht auf seinem umfangreichen Wissen und nicht auf
generell hohen kognitiven Fähigkeiten;
zudem ist sein Wissen auch besser organisiert, so dass schnellerer Zugriff möglich ist
und mehr Informationen simultan repräsentiert und verarbeitet werden können 
bessere Gedächtnis- und Problemlöseleistung in der entsprechenden Domäne
 Siehe hierzu die Phasentheorie von ANDERSON (4.2.3):
Wissenskompilierung von deklarativem zu prozeduralem Wissen
 z.B. in Medizin: Aufbau deklarativen Wissens (Netzwerk)  irgendwann:
Krankheitsschemata (hier ist proz. Wissen wichtig)
 Prozedurales Wissen erleichtert u.a. auch für Nutzung von
Textverarbeitungsprogrammen: Welcher Schritt kommt als nächstes?
13
 Chunking von Prozeduren als Lernmechanismus (Newell, 1990) 
routiniertes aber unreflektiertes Verhalten
-
Experten sind fähig, Lösungsstrategien zu wechseln (d.h. zwischen vorwärts- und
rückwärtsverkettendem Problemlösen zu wechseln)
- Experten verfügen über Sachkenntnis: s. Einschub: „conceptual change“ von
VOSNIADOU  Sachkenntnis kann sich in qualitativen Sprüngen (aber nicht von
heute auf morgen) durch Veränderung zentraler Konzepte herausbilden (Bsp.:
Weltbild bei Kindern)
Negativ am Expertiseerwerb:
- Einzelne Teilschritte werden bewusster Kontrolle entzogen
 sind schwer verbalisier- und hinterfragbar  Experten sind oft nicht in der
Lage, ihre Kompetenzen an Andere weiterzugeben
 z.B. „over the top“ stage bei Managern (Weggeman, 2000)
4.4. Deduktives Denken
Definition:
Aus als gültig vorausgesetzten Prämissen werden Schlussfolgerungen gezogen, die – falls
logisch korrekt abgeleitet – zwingend gültig sind.
(vgl. induktives Denken: kein zwingend gültiges, also zweifelsfrei wahrheitserhaltendes
Schlussfolgern / Denken)
Anwendung deduktiven Denkens:
- Mathematik, um einzelne Formeln zu beweisen
- Wissenschaft, um Hypothesen aus Theorien abzuleiten
- Alltägliche Argumentation
Forschungsfragen:
- Inwieweit besitzen auch nicht speziell vorgebildete Personen Kompetenzen, um
logische Schlüsse vorzunehmen?
- Gibt es systematische Fehler (biases)?
- Welche mentalen Repräsentationen der Aufgaben und welche Schlussmechanismen
liegen richtigen und falschen Schlüsse zugrunde?
- Forschung zu deduktivem Denken gibt Auskunft über menschliche Rationalität (?)
Methode:
- Sprachliche Argumente sollen auf ihre log. Gültigkeit geprüft werden oder aus
Prämissen sollen Schlussfolgerungen abgeleitet werden (Prämisse: als wahr
vorausgesetzte Aussage)
4.4.1. Logische Kalküle
Definition:
System von Regeln, mit denen sich Ausdrücke (Aussagen, Formeln) formulieren, sowie
daraus neue Ausdrücke ableiten lassen.
Ziel:
-
Wissen zu formalisieren und Regeln bereits zu stellen, um gültige Folgerungen aus
diesem Wissen bestimmen zu können.
14
Achtung:
- Ein Kalkül transportiert die Gültigkeit von Prämissen auf die Folgerung (Konklusion),
garantiert aber nicht die Richtigkeit der Prämissen.
Historie:
- Erfinder der formalen Logik ist Aristoteles, der Syllogismen (= allgemeingültige
- Schlussschemata) formulierte
- Bekanntester logischer Kalkül ist die Prädikatenlogik von Gottlob Frege (1879)
Aussagenlogik als Beispiel für ein solches logisches Regelsystem:
- besitzt eine bestimmte Syntax: Regel zur Verknüpfung und Zusammensetzung der einzelnen
sprachlichen Elemente; bestimmt, was mit einem Sprachsystem gesagt werden kann
Sprachliche Elemente der Aussagenlogik:
- Atomare Aussagen: Kleinste mögliche Wissenseinheit (dargestellt mit A, B, C; z.B.
Petra ist in Paris)
- Wahrheitswert (der atomaren Aussagen): Eine atomare Aussage kann wahr oder
falsch sein
Operatoren: Sind zwei atomaren Aussagen „A“ und „B“ syntaktisch korrekt, lassen sie
sich mit Hilfe der Operatoren (Verknüpfungswerkzeuge) zu komplexen Aussagen
verbinden
 Beispiele für Operatoren (alle 6 sind syntaktisch mögliche Aussagen)






Negation:
Konjunktion:
Disjunktion:
Exklusive Disjunktion:
Konditional:
Bikonditional:
nicht A
A und B
A oder B oder beides
entweder A oder B
Wenn A, dann B
Wenn A, dann und nur dann B
Sind alle syntaktisch möglichen Ausdrücke auch gültig, d.h. konsistent mit der
Bedeutung der Kalküle? => Gültigkeitsbestimmung über zwei Methoden
1) Die modelltheoretische Methode
- Bedeutung der logischen Operatoren wird über sog. Wahrheitstafeln definiert (siehe
Tabelle
- 4.2, S. 229), die festlegen, in welchen Fällen eine Aussage wahr bzw. falsch ist
- In Wahrheitstafeln sind alle möglichen Kombinationen der Wahrheitswerte der
atomaren
- Aussagen aufgeführt. Der Wahrheitswert einer komplexen Aussage wird auf den
- Wahrheitswert ihrer atomaren Aussagen zurückgeführt
=> Bsp.: „P“
„Q“
Negation („ P“)
Konditional („PQ“)
wahr wahr
falsch
wahr
- Zum Lesen der Tabelle (S. 229 unten):
o Spalte 1 und 2: Alle möglichen Kombinationen der Wahrheitswerte zweier
atomarer Aussagen
o Oberste Zeile: Alle möglichen, d.h. formulierbaren Prämissen
o Restliche Felder: Wahrheitswerte der logischen Operatoren; zeigen an, ob bei
einer bestimmten Kombination der Wahrheitswerte von P und Q die jeweilige
Prämisse gültig ist oder nicht (Bsp. auf S. 19)
o „ P“ (negierte Aussage) ist wahr, wenn die (pos.) Aussage „P“ falsch ist
15
o Die Konjunktion „P^ Q“ ist wahr, wenn d. Teilaussagen „P“ und „Q“ wahr
sind
o Konditional „PQ“ ist nur falsch, wenn „P“ (der Antezedenz = Vorausgehend
wahr, aber die Konsequenz „Q“ falsch ist
Mit der Wahrheitstabelle kann geprüft werden, ob
- zwei Aussagen logisch äquivalent sind (den gleichen Wahrheitswert haben)
- eine logische Schlussfolgerung zwingend folgt (d.h. das Gegenteil ist unmöglich)
- eine Menge von Aussagen widerspruchsfrei ist (mind. eine Kombination möglich, bei
der die Konjunktion aller Aussagen wahr ist)
Beispiel:
- Theorie T sagt Phänomen D voraus, D tritt auf
- Ist dadurch die Theorie T zweifelsfrei bestätigt?
Zwei Prämissen:
1. Wenn Theorie T zutrifft (P), dann kann Phänomen D beobachtet werden
2. Das Phänomen D kann beobachtet werden (Q)
- (PQ)^ Q ist eine Übersetzung der Prämissen; da beide Prämissen gültig sein
müssen, werden sie konjunktiv verknüpft
-  Was folgt daraus für P? (siehe S. 229 Tabelle)
- Wenn Q wahr ist, kann P immer noch falsch oder wahr sein, es kann also nicht
entschieden werden, ob Theorie T wahr oder falsch ist
ABER: Wenn Q nicht wahr ist, obwohl P gegeben ist, kann zweifelsfrei behauptet werden,
dass nicht gilt PQ!
2) Die Methode der natürlichen Deduktion (GENTZEN, 1935)
- Analogon zu den Überlegungen eines Detektivs: Es wird ein Satz logischer Regeln
definiert, mit denen man eine Schlussfolgerung, die man aus bestimmten Prämissen
gezogen hat, beweisen kann (beweistheoretische Methode)
- Für jeden Operator gibt es eine oder mehrere Schlussregeln; eine Schlussregel besteht
aus einer / mehreren gegebenen Aussagen sowie einer Folgerung (Tab. 4.4, S. 230) 
Aus den Regeln sollen Beweise schrittweise konstruiert werden können
- Es können aber auch Annahmen gemacht werden, die später verworfen werden
können
Zwei Arten von Schlussregeln:
Einführungsregel:
- Regel, die eine Aussage mit dem Operator als bewiesen einführt – z.B. „Wenndann-Einführung: Wenn aus Annahme P folgt, dass Q gilt, dann ist „Wenn P
dann Q“ bewiesen.
Eliminationsregel:
- Regel, um aus einer Aussage mit dem Operator eine Aussage ohne ihn
abzuleiten
- Ein Operator stellt eine Verknüpfung zwischen zwei atomaren Aussagen dar
- Wenn man also auf eine bestimmte Gegebenheit (z.B. „P“) diese Verknüpfung
richtig anwendet („Wenn P, dann Q“), kann ich aus der Verknüpfung eine
einzelne (atomare) Aussage ableiten, aus welcher die Verknüpfung sozusagen
eliminiert ist: „Q“.
- Bsp.: Wenn-dann-Elimination: aus „PQ“ und „P“ folgt „Q“ => Modus
Ponens
- Bsp. für „Anwendung“: Modus Barbara; S. 231
16
Zusatz: Reductio-ad-absurdum-Regel (Beweis durch Widerspruch):
- Wenn aus der Annahme „P“ ein Widerspruch folgt, dann ist die Annahme
falsch, d.h. es gilt ihr Gegenteil „Nicht P“
Nachweis der Gültigkeit eines Arguments: Kombination verschiedener
Bsp.: Beweis, dass Modus Ponens-Schlüsse transitiv sind:
Aus „AB“ und „BC“ folgt „AC“ (wird Modus Barbara genannt)
1. „AB“ Prämisse 1
2. „BC“ Prämisse 2
3. +„A“
Nehme vorübergehend „A“ als gegeben an
4. „B“
Folgerung aus 1) und 3); Wenn-dann-Elimination (Operator
eliminiert)
5. „C“
Folgerung aus 2) und 4); Wenn-dann-Elimination
6. Beweis „AC“ Folgerung aus 3) und 5); Wenn-dann-Einführung (Operator
 eingeführt)
 Aus den Prämissen folgt zwingend „AC“
Vorgehen beim aussagelogischen Schlussfolgern:
1) Form der Prämissen und atomare Aussagen werden identifiziert / definiert
2) Abstrahieren von konkreten Inhalten der atomaren Aussagen (P, Q, R etc. werden
verwendet)
3) Beweis- oder modelltheoretisches Vorgehen
4) Ziehen logischer Schlussfolgerungen, die von den logischen Operatoren der Prämissen
abhängen
Psychologische Frage: Wie ziehen Personen logische Schlüsse?
1)
Wie verstehen und nutzen Personen die logischen Operatoren?
 Zur Untersuchung der Verwendung log. Operatoren werden abstrakte Aufgaben
verwendet, wobei der Inhalt der atomaren Aussagen möglichst neutral gehalten wird
2)
Spielt der Inhalt der atomaren Aussagen eine Rolle, oder gehen Personen immer
formal vor?
 Untersuchung mit inhaltlichen Aufgaben (Prämissen mit denselben logischen
Operatoren, wobei der Inhalt der Prämissen variiert wird , um Inhaltseffekte ausfindig
zu machen)
4.4.2. Logisches Schließen - mit mentalen Modellen oder mentalen Regeln
Konditionales Schließen
Logisch korrekt:
 Modus Ponens (MP): aus „Wenn P, dann Q“ und „P“ dann schließe „Q“
 Modus Tollens (MT): aus „Wenn P, dann Q“ und „nicht-Q“ dann schließe
„nicht-P“
Logisch falsch:
 Negation des Antezedens (NA): aus „Wenn P, dann Q“ und „nicht-P“ dann
schließe „nicht-Q“
 Affirmation der Konsequenz (AK): aus „Wenn P, dann Q“ und „Q“ dann
schließe „P“
17
Wie oft ziehen Personen solche Schlüsse?
- MP: fast alle
- MT: ca. 70%
- NA und AK allerdings auch häufig obwohl logisch falsch; AK dabei häufiger als NA
Mögliche Gründe:
- Personen interpretieren „Wenn P, dann Q“ bikonditional, statt konditional  alle 4
Antworten sind logisch gerechtfertigt
 insgesamt nicht haltbar (Erstellen keine passende Wahrheitstafel)
Interessanter Befund:
- Negation in Prämissen haben einen Effekt, obwohl es aussagenlogisch keinen
Unterschied machen sollte: z.B. führt Negation im Konditional dazu, dass seltener der
falsche NA gefolgert wird, der in diesem Fall affirmativ wäre (Wenn A, dann nicht B
 NA: Wenn nicht A, dann B
 jeweilige Konklusion wird seltener gezogen, wenn sie affirmativ ist, als wenn sie negiert
ist  negative conclusion bias (gilt nicht für MP)
Fazit: Diese Ergebnisse sind Hinweis für die logischen Kompetenzen des Menschen, aber
auch Hinweis auf systematische Abweichungen von der Logik
Zwei Erklärungsansätze (Theorien) zur Erklärung von Abweichungen von der Logik:
1. Die Theorie der mentalen Modelle
2. Die Theorie mentaler Regeln
Logisches Schließen mit mentalen Modellen
Kernidee:
Personen lösen logische Aufgaben nicht rein aussagenlogisch - auf Grundlage der
syntaktischen Form der Prämissen und der Anwendung von Beweisregeln- sondern sie
repräsentieren die Bedeutung der Prämissen in einem mentalen Modell und daraus ihre
Schlussfolgerungen ab.
Mentale Modelle:
- Ein mentales Modell ist eine Repräsentation der möglichen Situationen, die durch
Prämissen
- beschrieben werden.
- Personen geben an, sich z.B. Objekte „vor ihrem inneren Auge bildlich in ihrer
Anordnung
- vorzustellen“ ( Vorstellung der Situation mit mentalen Modellen)
3 Schritte beim Schließen mit mentalen Modellen:
1) Modellbildung: Initiales Modell wird gebildet, wobei Infos aus Prämissen
integriert werden: Vorstellen einer Situation, die den Prämissen entspricht
2) Antwortgenerierung: Ableiten einer vorläufigen Antwort aus dem Modell
3) Validierung: Antwort wird auf Allgemeingültigkeit geprüft, indem alle weiteren
möglichen Modelle auf Gegenbeispiele untersucht werden, die der Antwort
widersprechen könnten
 Eine Antwort ist nur dann logisch zwingend, wenn sie in allen Modellen gilt!
[Bsp. für mentale Modelle: Tabelle 4.6, S. 233]
18
Welche mentalen Modelle bilden Personen wenn sie aussagenlogisch schlussfolgern?
- Mentale Modelle sind mit dem modelltheoretischem Ansatz der Aussagenlogik
verwandt,
- sind aber in bestimmten Aspekten auch modifiziert:
1. Prinzip der Wahrheit: Es werden nur die Modelle aufgestellt, die mit der
Gültigkeit der Prämissen vereinbar sind
2. Unterscheidung zwischen initialen und vollständigen Modellen:
Modellbildung geschieht sequentiell, nicht parallel  sparsame
Repräsentation  Entlastung des AG
ABER: Fehlerquelle, da evtl. nicht alle Modelle gebildet werden; passiert
umso eher, je mehr Modelle möglich sind
3. Theorie formuliert Mechanismus, wie Personen Aufgaben lösen:
Dreischritt: 1. Modellbildung, 2. Antwortgenerierung, 3. Validierung
Wie erklärt die Theorie die berichteten Befunde zu konditionalem Schließen?
Anwendung auf die einzelnen Fälle:
Modus Ponens:
- einfach, weil aus beiden Prämissen (Konditional „Wenn P dann Q“- und
Faktenprämisse „und P“) nur ein Modell resultiert, aus dem der korrekte Schluss
direkt ablesbar ist. ([P] [Q])
Affirmation der K.:
- ebenfalls „einfach“ (aber leider falsch…), da gleiches Prozedere: Modell der
Faktenprämisse [Q] ist direkt in das initiale Modell integrierbar, so dass keine
weiteren Modelle gebildet werden
-
Beim Modus Tollens und d. Negation des Antezedens ist das Modell der
Faktenprämisse nicht in das intitiale Modell der Konditionalprämisse (Wenn P, dann
Q) integrierbar, beide Schlüsse erfordern Bildung eines dritten Modells [nicht P]
[nicht Q], was sowohl schwieriger als auch aufwendiger ist!
 Erklärung für Phänomen, dass Personen meinen aus den letzten beiden könne man nichts
folgern
Negative Conclusion Bias in mentalen Modellen:
Evans:
- MP und AK werden kaum beeinflusst, da beide aus initialem Modell des Konditionals
folgen.
- MT und NA benötigen neues Modell
 bei pos. Formulierung des Antezedens (wenn a dann 7) ist drittes Modell eher
einfach (nicht a, nicht 7)  Schluss von „keine 7 auf kein a“ relativ leicht
(direkt ablesbar)
 bei neg. Formulierung d. Ant. (wenn nicht a, dann 7) wäre nun doppelte
Negierung nötig  fällt schwerer
Fazit: Mentale Modell erklären Abweichungen von der logischen Norm durch Präferenzen
und Auslassungen bei der Modellbildung. (konnte sogar auf andere Bereiche erweitert
werden)
19
Folgendes Phänomen konnte ebenfalls dadurch vorhergesagt werden:
Szenario: In einer Skatrunde sagt einer: „Für meine Karten gilt entweder, - Wenn ich einen
König habe, dann habe ich ein Ass – oder – Wenn ich keinen König habe, dann habe ich ein
Ass -. Ich habe eine König, Was meinen Sie: Habe ich ein Ass?
 Die meisten sagen ja, ABER es muss nicht so sein  illusionäre Inferenz!
Logisches Schließen mit mentalen Regeln
Personen ziehen logische Schlüsse mit Hilfe allgemeiner Regeln (analog der natürlichen
Deduktion)
RIPS (1994): “The psychology of proof”
- Beschreibung einer Theorie mentaler Regeln im Detail (mit PSYCOP)
- Ähnlich wie bei GENTZEN enthält dieses Programm Einführungs- und
Eliminationsregeln, jedoch viel mehr Regeln sowie zwei Beweisstrategien, die
Personen beim Schlussfolgern verfolgen:
1. Vorwärts-Schließen: Aus gegebenen Aussagen werden logische Implikationen bestimmt
2. Rückwärts-Schließen: Beweisziele werden definiert
 Von gegebenen Aussagen vorwärts, von zu beweisenden Aussagen rückwärts
Das Programm von Psycop beginnt mit Vorwärtsregeln und wechselt dann systematisch.
 Manche Schlussregeln gibt es doppelt
Grundsätzlich gilt: Ein Beweis ist umso schwieriger, je mehr Regeln angewandt werden
müssen
z.B. MP-Regel:
Vorwärts:
- „Wenn P, dann Q“ und „P“ dann schließe „Q“
Rückwärts:
- Hat man das Ziel „Q“ zu beweisen, und hat man konditional „Wenn P, dann Q“, so
setze man sich als nächstes Ziel „P“ zu beweisen; schafft man das, folgt auch „Q“
Wie lassen sich die empirischen Befunde zum konditionnalen Schließen mit dieser
Theorie erklären?
Modus Ponens:
- ist deshalb so einfach / wird von fast allen gezogen, weil es eine direkte Regel dafür
gibt (Wenn-dann-Elimination)
Modus Tollens:
- hat keine eigene Regel, sondern erfordert eine Kombination von Modus Ponens und
reductio ad absurdum, was schwieriger ist.
NA und AK:
- Die Theorie besagt, dass Probanden das Konditional PQ zu QP umkehren
(bikonditionale Interpretation),
- AK  MP und NA MT
 entsprechend werden NA-Inferenzen seltener gezogen als AK-Inferenzen
Negative Conclusion Bias bei mentalen Regeln
- bei MP-Schlüssen keine Auswirkung
- Bei MT-Schlüssen  bei affirmativer Antwort ist ein weiterer Deduktionsschritt
erforderlich (Auflösung der doppelten Verneinung)
 niedrigere Häufigkeit affirmativen MTs und Nas (s.o.)
20
Empirische Belege:
- in vielen Studien konnte logisches Schließen gut mit mentalen Regeln erklärt werden
- Rips: Nicht- Einführung bzw. –Elimination wurden selten verwendet  reductio ad
absurdum ist indirekt und komplex
- ebenfalls wurde Oder-Einführung selten durchgeführt  intuitiv schwer einsehbar,
warum aus der Aussage „es schneit“ die Disjunkttion „es schneit oder regnet“, was
genauso richtig wäre, gemacht werden sollte  Verlust an Präzision durch Alternative
Welches Modell ist angemessener? – Mentale Theorien vs. mentale Regeln
Mentale Modelle und mentale Regeln im Vergleich
- die Frage spaltet bis heute die Forschung in 2 Lager
Gegen mentale Modelle:
- z.B. mit Aufgaben, die bei Lösung über Modelle sehr zeitaufwendig wären (z.B. wenn
A oder B oder C oder D oder ... dann Y und „B“ – Was folgt  „Y“)
 konterkariert die Annahme, je mehr Modelle desto schwieriger
Gegen mentale Regeln:
- mentale Regeln seien rein syntaktisch, menschliches Schließen aber ein semantischer,
auch vom Inhalt abhängiger Prozess, der nur durch Modelle erfasst werden könne
- (z.B. Wenn Susi Hausarbeiten macht, sitzt sie aufm Klo; Wenn kein anderer aufm Klo
sitzt, sitzt sie aufm Klo; Susi macht Hausarbeiten  eigentlich aufm Klo, aber würden
weniger Leute sagen! (am anderen Beispiel unter 40%)
 spricht gegen rein syntaktische Anwendung der MP-Regel.
Wichtigere Frage: Bei welchen Aufgaben wird eher in Modellen und bei welchen eher
anhand von Regeln gedacht? (aufgabenabhängige Repräsentationen)
4.4.3. Inhaltliches Schließen – mit evolutionären Modulen oder logisch mit erworbenen
Wissen
Auftreten von Inhaltseffekten beim logischen Schlussfolgern
- Inhalteseffekte sind seit geraumer Zeit bekannt und untersucht für (1) das
Schlussfolgern mit Quantoren als belief bias und für (2) das konditionale
Schließen
Frage: Sollen Theorien das deduktiven Denkens abstrakt und bereichsübergreifend konzipiert
sein oder muss man inhalts- bzw. bereichsspezifische Mechanismen annehmen? Wenn ja,
sind diese Mechanismen evolutionär oder kulturell vermittelt?
WASON (1966): Wahlaufgabe
- 4 Karten (vorn: Buchstabe; hinten: Zahl): A, K, 5, 8
- Regel: Wenn auf der einen Seite ein A ist, dann ist auf der anderen Seite eine 5.
=> Die Frage, welch Karten umgedreht werden müssen, um die Regel zu verifizieren oder zu
falsifizieren, wird von weniger als 10% der Personen korrekt beantwortet.
Nach der Aussagenlogik ist das Konditional „Wenn P, dann Q“ nur falsch, wenn „P und
nicht-Q“, also müssen die Karten umgedreht werden, die „P“ und „nicht-Q“ entsprechen –
also A und 8. (Karten: P, nicht-P, Q, nicht-Q)
=> Entdeckung von ersten Inhaltseffekten (diese Aufgabe): 70er Jahre
Aufgabenvariante mit verschiedenen Arten sozialer Regeln (z.B. Wenn Zuschuss erhalten
wird, dann wird die Heizung modernisiert)
Unterscheidung von der ursprüngl. Aufgabe:
21
-
Kein willkürlicher Zusammenhang zwischen Buchstaben und Zahlen
Andere Instruktion: Gültigkeit wird vorausgesetzt; man muss Einzelfälle auf
Regelverletzungen untersuchen
Beiden Aufgaben gemeinsam:
- konditional: Wenn P, dann Q
- Im Fall „P, nicht-Q“ verletzt
- Lösung: „P, nicht-Q“  50 % der VPen lösen dieselbe Aufgabe richtig
bei stark normativen Regeln sogar über 70 %
-
Verwendung der Regelverletzungs-Instruktion + Bekanntheit der Regel => keine
Verbesserung für abstrakte Aufgabe
Evolutionäre Module als Erklärungen für Inhaltseffekte
Bereichsspezifische Kompetenzen gehören zum evolutionären Erbe des Menschen. Inhaltlich
spezifische Problemstellungen, mit denen Menschen (oder eine andere Spezies) in ihrer
Evolution konfrontiert waren, haben das Design von Denk- und Problemlösemechanismen
kausal beeinflusst.
Analogie: Schweizer Taschenmesser, ausgestattet mit einer Vielzahl bereichsspezifischer
Module für die Lösung ganz bestimmter Aufgaben
Algorithmus zur Betrügerentdeckung
Zuschuss-Aufgabe: In der häufigeren Lösung zeigt sich nicht allgemeines logisches
Denkvermögen, sondern bereichsspezifische Kompetenz, nämlich die Identifikation von
Betrügern.
Generell gilt, dass immer, wenn ein bereichsspezifisches Modul zur Verfügung steht, es
unspezifischen Mechanismen (in diesem Fall des logischen Denkens) vorgezogen wird.
Perspektivenbefund – Anpassungsaufgabe aus Evolution:
Entwicklung von Kooperation
Theorie der sozialen Verträge: Mensch müssen Kosten und Nutzen von Handlungen
repräsentieren und effizient Betrüger entlarven können.
Betrug: Partei nimmt Nutzen von Anderen in Anspruch, ohne die eigenen Kosten zu tragen
=> Anwendung eines Algorithmus zur Betrügerentdeckung statt logischer Regel
=> Zum Beweis: leicht modifizierte Zuschuss-Aufgabe
- Änderung der Perspektive: „Stellen Sie sich vor, Sie seien Hausbesitzer in einer
Gemeinde… Welche Karte müsste man dann umdrehen, um zu sehen, ob die Gemeinde, die
Regel verletzt hat?
„Wenn die Gemeinde einen Zuschuss bezahlt, dann modernisiert der Hausbesitzer die
Heizung“: Hier geht es darum, das Prinzip der Kooperation und je nachdem, aus welcher
Perspektive (der der Gemeinde oder der des Hausbesitzers) man überprüft, ob dieses
Kooperationsprinzip verletzt ist, wählen VPen zu ein und derselben Konditionalprämisse
unterschiedliche „Karten“ (vgl. WASON) zur Überprüfung der Regel aus.
Vorteile der evolutionspsychologischen Sichtweise:
- Wichtige Impulse für die Identifikation von Inhaltsbereichen
- lenkt Blick auf Passung zwischen Denkstruktur und Struktur in der Umwelt
- lenkt Blick auf Umstand: mit begrenzten kogn. Ressourcen müssen oft schnelle
Entscheidungen getroffen werden
Schwächen:
- Inhaltseffekte zeigen nur, wie bereichsspezifisches Denken über bereichsunabhängige
Schlussmechanismen dominiert, können aber den evolutionären Ursprung der
Kompetenzen nicht belegen.
22
-
Bereichsspezifische Module werden nicht immer unspezifischen Strategien
vorgezogen
Der Perspektivenbefund wurde empirisch durch weitere Belege abgeschwächt.
Zwei-Quellen-Ansatz als Erklärung für Inhaltseffekte
BELLER & SPADA (2003):
Dieser Ansatz berücksichtigt sowohl bereichsspezifische als auch bereichsunspezifische,
syntaktische Aspekte, indem er davon ausgeht, dass es zwei Quellen für logische Schlüsse
gibt (Bsp.: „Wenn Petra in Paris ist, dann ist sie im Louvre.“ „Petra ist nicht in Paris…“)
- die syntaktische Form eines Arguments ( Es kann keine Aussage gemacht werden)
sowie
- den Inhalt der Aussagen („Petra ist nicht im Louvre“)
Inhaltskompetenz
Korrekter Umgang mit (d.h. auch korrektes Schlussfolgern aus) inhaltlichem Wissen (kann
streng aussagenlogischer Ableitung gegenüberstehen)
 Inhaltseffekt: Der Inhalt eines Arguments kann die formal korrekte Antwort
erleichtern oder erschweren, je nach dem, ob die Schlussfolgerungen aus beiden
Quellen zusammen- oder auseinanderfallen.
Formkompetenz
Adäquater Bezug der syntaktischen Form einer Aussage auf bereichsspezifisches Wissen;
Probanden können beurteilen, ob ihr in ein bestimmtes Konditional überführtes Wissen
Allgemeingültigkeit besitzt oder nicht.
Erklärung des Perspektivenbefunds
Wechselt bei der Zuschussregel die Perspektive zum Hausbesitzer, so wählen Probanden
gerade die zwei Karten aus, mit denen man rein aussagenlogisch die Gültigkeit der Regel
nicht überprüfen kann.
Bei dieser Zuschussregel geht es um das Konzept des konditionalen Versprechens
(inhaltliches Wissen): „Wenn Du (Adressat) Handlung P tust, dann werde ich Dir Belohnung
Q geben“
Handlung in typischer Reihenfolge: 1. Adressat entscheidet, ob er sich auf Versprechen
einlassen möchte, 2. Adressat führt P aus 3. Sprecher ist verpflichtet Q zu geben
Versprechen = einseitiger Sprechakt (nur Sprecher kann es brechen)
- R1: „Wenn die Gemeinde einen Zuschuss zahlt (P), dann modernisiert der Hausbesitzer die
Heizung (Q)“  Gemeinde kann nicht gegen R1 verstoßen
- R2: „Wenn der Hausbesitzer die Heizung modernisiert (P), dann bezahlt die Gemeinde
einen Zuschuss (Q)“  Gemeinde kann gegen R2 verstoßen
Um zu überprüfen, ob die Gemeinde die Regel bzw. das Versprechen verletzen kann, wird das
gegebene Konditional (R1) umkehrbar interpretiert (=> R2 => „Q“, „nicht-R2“) = Inhaltseffekt.
Dennoch wissen die Probanden genau, welche Partei welche Regelformulierung verletzen
kann, d.h. sie können die konditionale Form korrekt auf das inhaltliche Konzept eines
Versprechens anwenden (Formkompetenz)
Der Perspektivenbefund ist kein eindeutiger Beleg für evolutionäre Module.
Die Kompetenz zur Interpretation von Versprechen könnte auch anerzogen sein
(Lerngeschichte).
Zwei-Quellen-Ansatz: prinzipielle Überlegung, die von jeder Theorie des deduktiven
Denkens berücksichtigt werden sollte.
23
Überlegungen des Zwei-Quellen-Ansatzes im Kontext mentaler Modelle & mentaler
Regeln:
Mentale Modelle:Der Inhalt der Prämissen regt die Bildung bereichsspezifischer Modelle an.
Mentale Regeln:Es werden zusätzliche Deduktionsregeln ergänzt, die bereichsspezifisches
Wissen nutzen.
Der Zwei-Quellen-Ansatz stellt keine eigene Theorie dar, sondern basiert auf diesen
grundlegenden Annahmen.
Die Unterscheidung zwischen abstraktem und inhaltlichem Schließen wurde durch
neuropsychologische Befunde bekräftigt: z.B. werden unterschiedliche Hirnareale bei
inhaltlichen/inhaltsneutralen Schlüssen aktiviert
Abschließende Bemerkungen zum Deduktiven Denken:
- Denken ist (1) nicht in dem Sinne rational, dass Schlussfolgerungen immer logisch folgen
=> unsystematische Abweichungen (Aufmerksamkeitsschwankungen)
=> systematische Abweichungen (Sprachverständnis, Grenzen der
Infoverarbeitung)
(2) nicht irrational in dem Sinne von zufällig und chaotisch
=> Logik
=> inhaltliche Konzepte
- Der Mensch besitzt eine begrenzte Rationalität (= bounced rationality)
- Die Logik kann die Gültigkeit einer Schlussfolgerung zwingend beweisen, nicht
jedoch die Korrektheit der Prämissen!
4.5 Induktives Denken
Definition: Induktive Schlüsse sind unsichere Schlüsse, deren Gehalt über den der Prämissen
hinausgeht, aber durch diese unterstützt wird.
Gültigkeit von induktiven Schlüssen
- Eine induktiv begründete Hypothese (Konzepthypothese) hat nur so lange Bestand, wie
kein Gegenbeispiel auftaucht.
- Solange man nicht alle möglichen Beispiele erschöpfend betrachtet hat, ist ein induktiver
Schluss auf ein Konzept immer mit Unsicherheit verbunden (1 schwarzer Schwan reicht)
Arten von induktiven Schlüssen
- Allgemeine Induktion: Generalisieren von Einzelereignissen zu allgemeinen Regeln
- Abduktion: Suche nach der plausibelsten Erklärung für ein Ereignis
- Analogie: Übertragung von Prinzipien aus einem Bereich auf einen ähnlichen Bereich
- Probabilistisches Schließen: Schlussfolgern unter Unsicherheit, meist aufgrund von
Wahrscheinlichkeiten
4.5.1 Von Einzelereignissen auf allgemeine Regeln schließen
-
Man beobachtet die Objekte a, b, c,…n eines bestimmten Typs und stellt fest, dass sie
alle die Eigenschaft E haben: E(a), E(b), E(c) usw.
GENERALISIERUNG der Eigenschaft E über die Objekte oder Ereignisse
24
-
Stellt man fest, dass die aufgestellte Regel zu allgemein ist, muss man eine
SPEZIALISIERUNG der Regel vornehmen (leichte Modifikation bzw.
Einschränkung)
Wann ist induktive Verallgemeinerung von Einzelfällen gerechtfertigt?
- Je größer der Anteil beobachteter positiver Fälle ist
- Je größer die Validität (Güte) der Beobachtung ist
- Je größer ihre Variabilität hinsichtlich anderer Merkmale ist (Diversitätsprinzip)
- Eine Vorhersage für einen neuen Fall ist umso plausibler, je ähnlicher der neue Fall
dem bekannten Fall ist.
Wie sollte man bei der Suche nach angemessen Generalisierungen vorgehen?
- Konfirmatorische (bestärkende) Strategie (affirmativ): positive Fälle zur Stützung der
Regel/Hypothese zusammentragen => positive Teststrategie
- Eliminative Strategie: gezielt negative Fälle ausschließen => negative Teststrategie
Welches Vorgehen im konkreten Fall ratsam ist, hängt von der formulierten Hypothese ab:
Hypothese zu allgemein
Hypothese zu speziell
=>
=>
positive Teststrategie (spezialisieren)
negative Teststrategie (generalisieren)
Experiment zu Zahlenreihen von WASON (1960):
Welche Strategien verfolgen Personen bei der Bildung und Prüfung von Hypothesen?
- Die VPen mussten aus vorgegebener Dreierzahlenreihe (z.B. 2, 4, 6) eine Regel
ableiten, selbst eine Zahlenreihe generieren und anhand der Rückmeldung des
Versuchsleiters schließen, ob ihre Regel mit der tatsächlichen Regel (der des VL),
welcher die Zahlenreihen zugrunde liegen, übereinstimmt.
 20% der VPen verfolgten eine negative Teststrategie: Sie formulierten auf Anhieb die
richtige Regel, hatten durchschnittlich 8 eigene Zahlenreihen formuliert, darunter auch
viele, die nicht der eigenen Regel (formulierten Hypothese) entsprachen
 80% verfolgten eine positive Teststrategie: Sie formulierten zunächst eine falsche
Regel, da sie meist zu spezielle Regeln generiert hatten; sie hatten durchschnittlich 3,7
Zahlenreihen gebildet, die alle positive Fälle für die eigene Regel darstellten, was sie
daran hinderte zu erkennen, dass ihre Regel zu speziell formuliert war.
- Wenn man die Versuchspersonen durch eine Instruktion veranlasste, nicht nur
positive, sondern ebenfalls negative Fälle zu suchen, verdreifachte sich die Zahl der
VPen, die auf Anhieb die richtige Lösung fanden. Sie wandten auch das
Diversitätsprinzip an, indem sie erkannten, dass unähnliche Evidenzen für weitere
Generalisierungen besser geeignet sind als ähnliche.
4.5.2 Bekannte Prinzipien per Analogie auf neue Bereiche übertragen
Tumor-General-Analogie von GICK & HOLYOAK (1980), nach DUNCKER (1945)
 siehe S. 245
Eine Analogiebildung vollzieht sich in 4 Phasen (HOLYOAK & THAGARD, 1995):
(1) Zielsituation (target) - Repräsentation der aktuellen Ausgangssituation bzw.
Zielsituation
(2) Mentale Repräsentation der Quellsituation – Erinnerung an ähnliche Situation
(Analogiequelle)
(3) Korrespondenz zwischen Zielsituation und Quellsituation herausarbeiten – Welche
Merkmale zwischen Quell- und Zielsituation korrespondieren?
(4) Lösung – Übertragen der Lösungsstrategie der Quellsituation auf die Zielsituation
25
Nutzen einer ähnlichen Situation zur Lösung eines Problems
Zwei Ähnlichkeitstypen (Ähnlichkeiten zw. Ziel- und Quellsituation):
- Auf der Ebene der konkreten Bestandteile (Aussehen, Benennung etc.)
=> Oberflächliche Ähnlichkeit
- Auf der Ebene der zugrunde liegenden relationalen Struktur => Strukturelle
Ähnlichkeit
Gute, tragfähige Analogien benötigen v.a. strukturelle Merkmale; empirisch zeigte sich bei
den Versuchspersonen aber eher eine Tendenz für oberflächliche Ähnlichkeit!
HOLYOAK & KOH (1987): Präsentation der Tumoraufgabe und einer Analogiequelle, wobei
strukturelle und oberflächliche Ähnlichkeiten systematisch
variiert wurden (Erweiterung des Tumor-Bsp.s)
- Während des Lösens der Aufgabe wurde ein Hinweis auf die Quellsituation gegeben,
die davor gelesen wurde
 Vor dem Hinweis, dass der Text als Analogiequelle benutzt werden könne:
Sowohl strukturelle als auch oberflächliche Ähnlichkeit erleichtert die Analogiebildung in
etwa gleich. Am Besten: hohe strukturelle + hohe oberflächliche Ähnlichkeit
 Nach dem Hinweis brachte nur noch der Quelltext mit struktureller Ähnlichkeit Vorteile
für die Analogiebildung (beim Vergleich zwischen den Gruppen  die 4 Gruppen
verbesserten sich alle). Der Hauptvorteil oberflächlicher Ähnlichkeit (das Erinnern an die
Quelle und Identifikation als Analogiequelle) wurde durch expliziten Hinweis nivelliert.
Funktionen der beiden Ähnlichkeitstypen
- Strukturelle Ähnlichkeit: erleichtert es, Korrespondenzen zu bilden und Lösungsprinzipien
zu übertragen
- Oberflächliche Ähnlichkeit: hilft, sich an ein früheres Beispiel zu erinnern und es als
potentielle Analogiequelle in Betracht zu ziehen
DUNBAR (2001):
In Versuchssituationen werden oberflächliche Merkmale berücksichtigt, im Alltag basieren
Analogien eher auf strukturellen Merkmalen.
Grund: Es geht um Repräsentation der Information einerseits und Abrufbedingungen
andererseits:
- Um strukturelle Analogien bilden zu können, müssen Personen die Analogiequelle
auch nach strukturellen Merkmalen repräsentiert haben, was in Experimenten oft
nicht ausreichend der Fall ist.
- Hier müssen sie die VPs erst mal an die Geschichte erinnern, was durch oberflächliche
Ähnlichkeiten erleichtert wird
- Im Alltag dagegen ist es meist die direkte Absicht, Analogien zu bilden, so dass man
auf strukturelle Merkmale achten muss
 Hauptaugenmerk auf strukturellen Merkmalen!
(Beide Faktoren wirken zusammen!)
Analogien im Alltag
- Gibt viele, z.B. bilden Schüler Analogien, wenn sie Hausaufgaben auf der Grundlage
von Aufgaben aus dem Unterricht machen
- Kurt Cobain ist der Jimi Hendrix der 90er Jahre  Hinweis, dass zwischen den beiden
Begriffen in manchen Aspekten große Ähnlichkeit besteht
26
-
Fähigkeit, analoge Beziehungen zw. Begriffen zu erkennen, in IQ-Test getestet (z.B. IS-T 2000: Bsp.: Wald : Bäume = Wiese : ??? a) Gräser, b) Heu, c) Futter, d) Grün, e)
Weide)
=> Quelle der Analogie bereits vorgegeben (Aufg.: Relation zw. ersten beiden auf
letzten beiden Begriffe übertragen)
Analogien in der Wissenschaft
- Bei der Präsentation komplexer Ergebnisse oder bei der Bildung neuer Hypothesen
- Bsp.: Wie Friedrich Kekulé auf die chem. Struktur von Benzol (C6H6) kam: Träumte
von einer Schlange, die sich in den eigenen Schwanz biss und so einen Kreis bildete
 Molekül muss ringförmig sein (visuelle Analogie trug zu einer wissenschaftl.
Entdeckung bei)
Analogien bei Erklärungen
- Bsp.: Wie bekommt der Körper aus der Nahrung was er braucht?  Analogie zu Gebäude
aus Legosteinen, aus dem man etwas anderes bauen kann
5 Regeln zur Analogiebildung (HOLYOAK & THAGARD, 1995):
(1) Bekannte Quellen verwenden
(2) Korrespondenzen verdeutlichen
(3) Auch Aspekte beschreiben, die nicht übereinstimmen (Grenzen v. Analogien deutlich
machen  Vermeidung von Fehlschüssen)
(4) Gegebenenfalls mehrere Analogien verwenden (Ergänzung)
(5) Tiefe (strukturelle, systematische, kausale Merkmale enthaltende) Analogien
verwenden
Fazit:
Deduktive Schlüsse: Man bestimmt Implikationen aus gegebenen Wissen und kommt damit
nicht über deren Wissen hinaus.
Induktive Schlüsse: Wissenserweiternd, jedoch oft nicht genauso gut gegründet wie
deduktive Schlüsse und müssen manchmal auch wieder revidiert werden – Aber sie
ermöglichen neue Erkenntnisse, weswegen sie genauso wichtig sind.
4.6 Entscheiden
Psychologische Entscheidungsforschung:
Beschreibung, Analyse und Erklärung menschlichen Entscheidungsverhaltens
4.6.1 Die klassische Entscheidungstheorie des erwarteten Nutzens
In der klassischen Entscheidungsforschung (NEUMANN & MORGENSTERN, 1944) geht
man davon aus, dass Personen rationale Entscheidungen treffen, d.h. sie sollten in einer
Entscheidungssituation diejenige Option wählen, die den erwarteten Nutzen maximiert.
2 Faktoren bei Entscheidungen:
1. Erwünschtheit mögl. Ereignisse = Wert
2. Wahrscheinlichkeit des Eintretens mögl. Ereignisse
Erwarteter Wert =  [Wahrscheinlichkeit eines Ereignisses X Wert eines Ereignisses]
27
Empirisch zeigt sich jedoch, dass Personen sich nicht so verhalten, wie die Theorie es
vorschreibt bzw. vorhersagt, daher wird bezüglich der Entscheidungstheorie zwischen
normativ-präskriptiven und empirisch-deskriptiven Modellen unterschieden.
Normativ-präskriptive Modelle: schreiben vor, wie Personen sich verhalten sollten (=>
homo oeconomicus: Rationale Entscheidungen bei unbegrenzt vorhandenem Wissen, Zeit und
rechnerischer Kapazität)
Empirisch-deskriptive Modelle: beschreiben, wie Personen sich wirklich verhalten
=> Normative und empirische Entscheidungsmuster stimmen bereits bei einfachen
Situationen nicht unbedingt überein!
Probleme normativ-präskriptiver Modellvorstellungen:
- Empirische Validität ist nicht überzeugend;
- Personen entscheiden sich in vielen Situationen einfach, eindeutig und mit hoher
interindividueller Übereinstimmung, aber nicht so, wie es normative Modelle
vorhersagen.
Bsp. für ein deskriptives Modell: Modell des erwarteten Nutzens (EDWARDS, 1954)
(Subjectively Expected Utility)
Das Modell entspricht der Berechnungsformel der klassischen Entscheidungstheorie,
allerdings sind erwarteter Nutzen, die Wahrscheinlichkeit und der Wert eines Ereignisses
keine objektiven, allgemeingültigen Variablen, sondern sie werden subjektiv von demjenigen,
der sich entscheiden muss, definiert und mit konkreten Werten gefüllt.
 Zusammenhang zwischen objektivem Wert und subjektivem Nutzen – wie kommt es
zu subjektiven Wahrscheinlichkeitseinschätzungen?
4.6.2 Rahmungseffekte und die Prospect-Theorie
Prospect-Theory (KAHNEMAN & TVERSKY, 1979):
Erklärt tatsächliches Entscheidungsverhalten über spezifische Annahmen zur subjektivmentalen Repräsentation und Verarbeitung des Nutzens und der erwarteten
Wahrscheinlichkeit einer Option.
Zwei grundlegende Annahmen sind:
(1) Die Konsequenzen einer Option werden nicht absolut, sondern relativ zu einem
Referenzpunkt bewertet, dem die Person zugrunde liegt.
(2) Es macht für Personen einen großen Unterschied, ob sie über mögliche Ereignisse als
Gewinne (pos. Nutzen einer Option) oder als Verluste (neg. Nutzen) nachdenken.
Wertefunktion der Prospect-Theorie
beliebte Prüfungsfragen…
- Objektiver Gewinn und subjektiver Nutzen stehen nicht in linearer Beziehung zueinander!
 Der gleiche Betrag an Gewinnzuwachs (z.B. 1000 €) bringt umso weniger an
subjektivem Nutzen, je höher der Referenzpunkt an bereits vorhandenem Gewinn
(z.B. 1 € vs. 10.000 €) ist (d.h. je weiter rechts sich die Person schon auf der x-Achse
befindet) => bei 1 € vorherigem Gewinn als höher empfunden
- Analoge Beziehung zu Verlust und subjektivem Nutzen
 Verlust von 2000 € nicht doppelt so schmerzhaft wie 1000 €
aber die Kurve verläuft steiler!
 Der subjektive Nutzen ist durch Verluste stärker beeinträchtigt als er durch Gewinne
hinzugewinnt. Menschen leiden unter Verlusten stärker als sie sich über Gewinne
freuen
28
Subjektiver Nutzen
Verlust
Gewinn
Unterschiedliche Entscheidungstendenzen laut Prospect-Theory:
 Im Gewinnbereich:
- Tendenz zur Risikovermeidung (risk aversion)
- Flacher Kurvenverlauf: Gewinnzuwachs geringer als mögliche
Gewinnabnahme
 im Verlustbereich:
- Tendenz zur Risikosuche (risk seeking)
Bsp.: 1.000 € gewonnen, jetzt 50 %-Chance noch mal 1.000 € zu gewinnen oder die
gewonnenen 1.000 € wieder zu verlieren => Man scheut das Risiko!
Umgekehrt: 1.000 € verloren, jetzt 50 %-Chance die 1.000 € wieder zu gewinnen oder
noch mal 1.000 € zu verlieren => Man geht das Risiko ein!
Oder z.B. bei einem Spiel, das besagt man gewinnt 8€ bei 5 oder 6 oder man gewinnt 3€ bei
größer als 1: Wenn 8€ z.B. subjektiv nur doppelt so hoch bewertet werden wie 3€
(abflachende Kurve), dann wird man sich eher für Spiel 2 entscheiden
Fazit der Prospect-Theorie:
Personen interpretieren Entscheidungsoptionen nicht absolut, sondern relativ in Abhängigkeit
eines Referenzpunktes auf der Wertefunktion. Die Entscheidungen basieren letztlich auf einer
subjektiven Repräsentation der Situation und basieren auf einer Interpretation der Situation
(Entscheidungsrahmen)
Entscheidungsrahmen (decision frame): Mentale Repräsentation der relevanten
Komponenten des spezifischen Entscheidungsproblems.
SHAFIR, SIMONSON & TVERSKY (1993)
Der Rahmungseffekt tritt nicht nur bei Gewinn-/Verlust-Darstellung der Konsequenzen
auf, sondern auch bei einer Zusammenstellung möglicher Alternativen!
(In der Studie waren es Kaufalternativen bei CD-Playern, siehe dazu S. 253f)
SHAFIR (1993)
Viele Entscheidungen werden weniger auf der Grundlage von Kosten-Nutzen-Betrachtungen
als vielmehr auf der Grundlage von Argumenten und Rechtfertigungsmöglichkeiten
getroffen!
=> Das Sorgerechtsproblem: Aufg. d. VPen: Entscheidung, welchem Elternteil das Sorgerecht
zugesprochen wird
1. Bed.: „Zusprechen“  Wer bekommt das Sorgerecht zugesprochen?
29
2. Bed.: „Absprechen“  Wem wird das Sorgerecht abgesprochen?
Info über beide Elternteile in beiden Bedingungen gleich:
- Elternteil A: Person mit unauffälligen Eigenschaften
- Elternteil B: Sowohl pos. als auch neg. Eigenschaften
Ergebnis:
Elternteil A
Elternteil B
Zusprechen
36 %
64 %
Absprechen
45 %
55 %
[ < 100 %]
[ > 100 %]
Erklärung:
Die extremen Eigenschaften von Elternteil B machen eine Entscheidung für als auch gegen
ihn besser begründbar (Fokussierung im pos. Fall auf pos. Eigenschaften, im neg. auf neg. =>
unterschiedl. Argumente herangezogen)
Entscheidungen sind keine reine Kosten-Nutzen-Abwägung, wie von der klassischen
Entscheidungstheorie postuliert!
Wie gehen Personen mit sehr seltenen Ereignissen um?
In vielen Alltagssituationen basieren Urteile / Entscheidungen nicht auf vollständigen
Beschreibungen (wie im obigen Bsp.), sondern auf unvollständigen Erfahrungen
 Unterschiedliche Meinungen:
- Kahnemann & Tversky: Seltene Ereignisse werden überschätzt=> Seltene aber
riskante Entscheidungen werden vermieden
- Hertwig et al.:
- Entscheidungen fallen anders aus, je nachdem, ob die Situation als vollständige
Beschreibung gegeben ist oder ob die Entscheidungssituation persönlich erfahren wird
- Seltene Ereignisse werden unterschätzt => Riskante Entscheidungen werden
getroffen
4.6.3 Urteilen unter Unsicherheit
Ingenieur-Rechtsanwalt-Problem (KAHNEMAN & TVERSKY, 1973):
Zwei Arten von Infos wurden vorgegeben:
1. Basisrate: Von den 100 interviewten Personen sind 30 Ingeneure u. 70 Rechtsanwälte
(= Gruppe 1; Gruppe 2 andersrum)  a priori-Wahrscheinlichkeit dafür, dass
eine Person ein Ingenieur (Rechtsanwalt) ist, beträgt 30 % (70 %)
2. Spezielle Fallbeschreibung (Jack oder Dick)
- Die Versuchspersonen sollten eine zufällig gezogene Personenbeschreibung einer der
beiden Berufsgruppen zuordnen.
- Normativ-präskriptive Argumentation: Bei der Beurteilung des Einzelfalls müssen
auch die Basisraten berücksichtigt werden.
Ergebnis:
- Keine Unterschiede in den Einschätzungen der beiden Gruppen, trotz
unterschiedlicher Basisraten
- Die VPen ignorierten völlig die Basisrate: Sie trafen ihre Entscheidung allein auf der
Grundlage der inhaltlichen Infos (der Personenbeschreibung)
=> Negation der Basisrate
30
Weiteres Beispiel: Medizinische Diagnose – Wahrscheinlichkeit v. Brustkrebs (EDDY,
1982)
Fallbeschreibung für Brustkrebsuntersuchung, 2 Gesichtspunkte:
1. Angabe der a priori-Wahrscheinlichkeiten bzw. Basisraten für Brustkrebs
und
2. Berücksichtigung der eingeschränkten Zuverlässigkeit der Tests (kein deterministischer
Zusammenhang zwischen Testergebnis und Gültigkeit der Hypothese, sondern
probabilistischer Zshg.)
Grundlage: Bayes Theorem => Berechnung der a posteriori-Wahrscheinlichkeit (Patientin
lässt sich testen und hat tatsächlich Brustkrebs (Brustkrebs / positiver Test)) dafür, dass eine
best. Hypothese zutrifft, wenn die a priori Gültigkeit dieser Hypothese und die bedingte
Wahrscheinlichkeit für den Grad an Evidenz bekannt sind (siehe S. 256/257)
Ergebnis:
Kaum eine VP wendet das BAYES-Theorem an, nicht einmal Personen mit entsprechendem
Vorwissen (hier: Ärzte)!
Zudem werden – wie bei Kahneman & Tversky – die Basisraten vernachlässigt.
=> Erklärung Kahneman & Tversky:
Menschen verwenden wegen der Beschränkungen ihrer Kapazität der Infoverarbeitung
einfache Entscheidungsregeln = Heuristiken
Heuristiken (KAHNEMAN & TVERSKY, 1974):
Ähnlichkeitsheuristik:
- Repräsentativitätsheuristik; subj. Wahrscheinlichkeit für ein Ereignis ist umso größer,
je repräsentativer das Ereignis für die Population ist, aus der es stammt
- Typische Fehler sind hierbei die Vernachlässigung der Basisrate zugunsten von
inhaltlich vermittelten stereotypen Informationen, die Vernachlässigung der
Stichprobengröße, falsche Vorstellungen von Zufallsmerkmalen, die
Außerachtlassung der Regression zur Mitte und die Überschätzung der
Wahrscheinlichkeiten von Konjunktionen
Verfügbarkeitsheuristik:
- Subj. Wahrscheinlichkeit für ein Ereignis ist umso größer, je verfügbarer das Ereignis
für die Population ist, aus der es kommt, d.h. je leichter / schneller man in der Lage ist,
sich ein Beispiel für das Ereignis vorzustellen oder in Erinnerung zu rufen
- Typischer Fehler: Beeinflussung durch Lebhaftigkeit der Darstellung / Leichtigkeit
der Erinnerung an das Bsp.
- Kann ebenfalls Neigung zur Vernachlässigung der Basisrate begünstigen; die
Informationen (etwa einzelne Beispiele), die am leichtesten erinnert werden können,
werden in der Entscheidungssituation „bevorzugt“
4.6.4. Eingeschränkte und ökologische Rationalität
SIMON (1956, 1990): Bounded Rationality (Konzept der eingeschränkten Rationalität)
Die menschliche Kognition besitzt viele „Handicaps“:
- begrenzte Aufmerksamkeit
- begrenztes Gedächtnis
- unvollständiges Wissen
- einfache Verarbeitungsstrategien
- teilweise serielle Verarbeitung
Daher muss das menschliche Infoverarbeitungssystem, also die Kognition, seine
Entscheidungen den eigenen Einschränkungen und Anforderungen anpassen.
Die Herausforderung für den Menschen besteht in einem ressourcen- und
situationsadäquatem, nicht in optimalem Verhalten.
31
GIGERENZER et al.: Menschliches Urteilen / Entscheiden unter Unsicherheit ist
weniger durch allgemeine Heuristiken beeinflusst, sondern durch spezifische Einflüsse,
wie die Art der Aufgabenstellung und Inhalt derselben.
GIGERENZER & HOFFRAGE (1995):
Nachweis, dass das Repräsentationsformat einen entscheidenden Einfluss auf die
Leistung der Person hat.
Das Medizindiagnose-Problem (Krebswahrscheinlichkeit) ist wesentlich leichter zu lösen,
wenn die Aufgabenstellung anstatt Wahrscheinlichkeiten absolute Häufigkeiten beschreibt
(S.259).
Wahrscheinlichkeiten stellen für Personen abstrakte, künstliche und schwer verständliche
Informationen dar, während absolute Häufigkeiten vielmehr der natürlichen und vertrauten
Art der Problem- und Informationsrepräsentation entsprechen.
Werden Informationen umweltgerecht dargeboten, haben Personen oft Strategien zur
Hand, um die Info korrekt und einfach zu verarbeiten.
Frugale (einfache) Strategien:
- Kommen mit minimaler Information aus, arbeiten schnell, einfach und (in passenden
Situationen) akkurat
- Sind wenig aufwendig, aber effektiv => ökologisch sinnvoll
Wiedererkennungsheuristik (Rekognitionsheuristik)
- „Welche Stadt hat mehr Einwohner: San Diego oder San Antonio?
 San Diego richtig (amerikan. Studierende: 62 %, dt. Studierende: fast 100%,
obwohl sie weniger über die Städte wussten)
Erklärung:
Wenn von 2 Objekten eines wieder erkannt wird und das andere nicht, dann könnte das
bedeuten, dass das erkannte Objekt den höheren Wert hat / bedeutsamer ist
Verwende-den-besten-Prädiktor (Take-the-best)-Heuristik
- 2 Objekte sollen verglichen werden und für beide sind mehrere Indikatoren bekannt,
die für den Vergleich nützlich sein können
- Indikatoren werden sukzessiv angewandt, beginnend mit dem vermeintlich „besten“
Prädiktor
- Sobald ein Indikator zwischen den beiden Objekten diskriminiert, wird die
Verarbeitung abgebrochen und das entsprechende Urteil getroffen
- Bsp.: „Welche dt. Stadt hat mehr Einwohner: Hamburg oder Köln?“
- Bester Prädiktor für die Größe einer Stadt: Flughafen  Beide Städte haben einen
Flughafen
- Nächst bester Prädiktor: Status als Hauptstadt  Beide keine Hauptstadt Dtlds., aber
Hamburg ist Hauptstadt eines Bundeslandes
Frugale Strategien stützen sich auf drei Regeln:
o Suchregeln:
legen fest, in welcher Reihenfolge Info eingeholt wird
o Abbruchregeln:
legen fest, wann Infosuche abgebrochen wird
o Entscheidungsregeln: legen fest, wie auf Grundlage der Info eine bestimmte
Entscheidung getroffen wird
Fazit zu Heuristiken:
Falls der Aufgabenkontext (Anforderungen) und die jeweilige Heuristik zusammenpassen,
sind Heuristiken robust, wenig fehleranfällig und sehr leistungsfähig!
32
4.7. Wissenschaftliches Denken und Problemlösen
= Untersuchung der Denkleistungen, die bei Hypothesengenerierung, Experimenten,
Interpretation und Evaluation eine Rolle spielen.
Drei Forschungsansätze:
(1) Historische Fallstudien
Versuch, über Aufzeichnungen, Tagebücher u.Ä. von bedeutenden Wissenschaftlern, große
Entdeckungen und die zugrunde liegenden motivationalen und kognitiven Prozesse, sowie
Wissensinhalte etc. nachzuvollziehen.
 Bsp.: Bell-Erfindung des Telefons (MURDOCK et al., 1998)
Probleme:
o Geringe Generalisierbarkeit, große interpretative Freiheitsgrade
o Geringe Reliabilität (retrospektive Aufzeichnungen / Interviews)
o Geringe Introspektions- / Auskunftsfähigkeit der Wissenschaftler
(2) In-vivo-Untersuchungen (Feldbeobachtung)
Beobachtung v. Wissenschaftlern im Forschungsalltag (sozialer Kontext berücksichtigt)
Ziele:
- Repräsentation und Nutzen bereichsspezifischen Wissens belegen
- Rolle von Analogien analysieren
- Heuristiken offen legen (=> Planung und Durchführung von Experimenten)
- Einfluss des sozialen Kontexts bestimmen
- Determinanten „erfolgreichen“ wissenschaftlicher Forschung zu diagnostizieren
Vor- und Nachteile:
o Hoher Auflösungsgrad
o Berücksichtigung des sozialen Kontext
o Nicht unbedingt gewährleistet, dass im Beobachtungszeitraum tatsächlich
bahnbrechende Erkenntnisse gelingen
o Sehr aufwendige Methode
(3) In-vitro-Untersuchungen (experimentelle Laboruntersuchungen)
- Systematische und kontrollierte Untersuchung von Entdeckungsprozessen mit:
- Künstlichen Mirkowelten
- Realitätsnahen virtuellen Experimentallabors
- und immer durch Verwendung von Protokollen lauten Denkens
- Oft computergestützte Szenarien eingesetzt / simulierte Experimente
Vor- und Nachteile:
- Hohe zeitliche Auflösung
- Kontrolle möglicher Störeinflüsse
- Ausblendung des sozialen Kontexts
- Im Mittelpunkt stehen nicht singulären Entdeckungen, sondern allgemeine kognitive
Prozesse, die dem wissenschaftlichen Denken generell zugrunde liegen.
Allgemein:
Egal welchen Forschungsansatz man verfolgt, wissenschaftliche Arbeit wird nicht unbedingt
durch Hypothesen vorangetrieben, sondern durch Überraschungen und Anomalien, die es zu
erklären gilt (KLAHR & SIMON, 1999).
33
4.7.1 Mikrowelten
Ausgangpunkt von Untersuchungen zum wissenschaftlichen Denken mit künstlichen
Mikrowelten: Studie von KLAHR & DUNBAR (1988): Big Trak
- Probanden sollten durch Experimentieren eine unbekannte Steuerfunktion eines Fahrzeugs
(Big Trak) erkunden (näheres weiter unten)
Scientific Discovery as Dual Search (SDDS) – Theorie:
Wissenschaftliches Entdecken vollzieht sich als koordinierte Suche in zwei verschiedenen
Problemräumen, dem Hypothesenraum (gemeinsamer Raum aller Hypothesen) und dem
Experimentalraum (Struktur des Raums möglicher Programme)
Big Trak:
Den VPen wurde die Steuerung erklärt, dann sollten sie die Funktionsweise einer
unbekannten Steuerungstaste herausfinden, indem sie Hypothesen formulierten und diese
dann mit entsprechenden Experimenten überprüften.
Bei der Überprüfung der Hypothesen zeigten die VPen ein „Experimentalverhalten“, das
deutlich von der Logik wissenschaftlicher Forschung abwich (in über 50 % der Fälle wurde
die nicht-bestätigte Hypothese beibehalten, in 25 % der Fälle wurde eine bestätigte Hypothese
nicht beibehalten).
Für den Erfolg wissenschaftlicher Forschung ist die Koordination der Suche im
Hypothesen- und im Experimentalraum von entscheidender Bedeutung!
Offen bleibt die Frage der externen Validität, also inwieweit die Studie für wissenschaftl.
Problemlösen angemessen ist.
4.7.2 Simulierte Experimentallabore
DUNBAR (1993): Simuliertes molekulargenetisches Labor (SMG) (realitätsnahes Szenario)
- Durchführung von Experimenten zu verschiedenen Wirkungsweisen von Genen am
Beispiel von Escherichia coli (= vorwissensintensives Szenario)
 DUNBAR konnte die zentrale Bedeutung der Ziele, die Probanden haben, für
o die oben genannte koordinierte Suche im Hypothesen- und Experimentalraum
und
o für den Wissensabruf bei der Experimentalplanung nachweisen!
Versuchsablauf gliederte sich in zwei Phasen:
1. Phase (Lernphase): Bewältigung einer einfachen Entdeckungsaufgabe
2. Phase (eigentliche Aufgabe): - Strukturell ähnliche, aber komplexere Aufgabe
Gute vs. schlechte Problemlöser konnten anhand d. anfänglichen Zielsetzung erkannt
werden:
- Schlechte Problemlöser hatten mehrheitlich das Ziel, die Aktivierungshypothese aus
der ersten Phase zu bestätigen
- Gute Problemlöser formulierten das Ziel, die Ursache für eine in der zweiten
Experimentalphase auftretende Anomalie (unerwartete Glukoseproduktion der
untersuchten Zellen) zu finden
 Die Ursache für die Blockade der Problemlösestrategie war vermutlich eine Art
Einstellungseffekt (hartnäckiges Festhalten an der ersten, aber falschen
Aktivierungshypothese)
34
6.3. Kooperation und Expertise
Kritik an den vitro-Studien (s.o.): Vernachlässigung des sozialen Kontextes
Untersuchungen zum kooperativen Problemlösen
- In vorwissensarmen Problemstellungen (Bsp.: 2-4-6-Aufgabe, BIGTRAK-Szenario):
Leistungsüberlegenheit von Dyaden
OKADA & SIMON (1997): Verwendeten SMG von DUNBAR
Teams (Dyaden) vs. Einzelpersonen:
- Teams sind erfolgreicher bei der Bearbeitung wissenschaftlicher Probleme
- Teams formulieren mehr Hypothesen, explorieren Alternativhypothesen eingehender
und begründen ihre Ablehnung unter Nutzung bereichsspezifischen Wissens besser
- Teams begründen die eigenen Hypothesen besser (Zugriff auf vorhandenes Wissen,
detaillierte Erklärungen)
Gründe dafür (z.B. MIYAKE; 1986):
- Die Präsenz von Partnern regt Probanden zu erklärenden Verbalisierungen an
=> Hilft, die vorhandene Information zu integrieren
- Monitoring und Hinterfragen von Theorien sowie ihre Stützung durch
Kooperationspartner resultiert in begründenden Erklärungen
=> Verstärkter Lerneffekt
Diese Aussagen werden durch Untersuchungen zum Selbsterklärungseffekt unterstützt:
=> Personen, die sich intensiv mit vorgegebenen Musterlösungen auseinandersetzen, diese
aktiv elaborieren und sich selbst ausführlich erklären, erreichen eine deutliche Steigerung
der Problemlöseleistung.
Kritik an der Studie von Dunbar: Die VPen waren Studierende, keine Wissenschaftler
(Experten), weshalb die externe Validität eingeschränkt war.
SCHUNN & ANDERSON (1999): Virtuelles psychologisches Labor (SPL)
- Berücksichtigten den Expertisegrad der Versuchspersonen (systematisch variiert)
- Die VPen mussten sich zwischen zwei Theorien, die bestimmte Phänomene erklärten,
mittels simulierter Experimente entscheiden.
Probanden:
- Bereichsexperten: Hohe Werte für allgemeine und spezifische Fertigkeiten
- Aufgabenexperten: Defizite in inhaltsspezifischen Fertigkeiten, gute allgemeine
Fertigkeiten
- Studenten: Ebenso Defizite in spezifischen Fertigkeiten, in allgemeinen Fertigkeiten
schlechter als die Aufgabenexperten
 Allgemeine methodisch-wissenschaftliche Fertigkeiten und spezifisch-inhaltliche
Fertigkeiten korrelieren danach nicht mit mathematisch-rechnerischen Fähigkeiten.
 Studierende können sich durch die Arbeit in Mikrowelten und PC-basierten
Experimentallabors im Bereich zentraler Fertigkeiten wissenschaftlichen
Argumentierens verbessern; besonders förderlich sind dabei kooperative
Lernsituationen.
 Beim kooperativen Problemlösen konzentrieren sich Studierende auf die Überprüfung
der vorgegebenen Theorie und sind gründlicher bei der Interpretation von Daten
hinsichtlich deren Aussagekraft
 Bei „echten“ Wissenschaftlern ist das Zusammenwirken von allgemein-methodischen
und spezifisch-inhaltlichen Kompetenzen besonders wichtig.
35
Herunterladen