spada-kap4-denken-und-problemlosen_alternativ

Werbung
4.1 Historische Entwicklungslinien
Würzburger Schule der Denkpsychologie
Historische Anfänge
 Aristoteles: Wahrnehmungen (der Außenwelt) entsprechen den Vorstellungen der
Seele
 Vorstellungen sind bewusst
 Vorstellungen untereinander verbunden zu Assoziationen
 Anfänge der Psychologie
 Denken vollzieht sich als bewusster, aber nicht steuerbarer Prozess durch
Assoziationen von Vorstellungen
Würzburger Schule
 keine philosophischen Ableitungen, sondern empirische Erforschung von
Denkvorgängen
 Denken (wie auch Entstehung von Gefühlen) vollzieht sich in nicht anschaulichen (=
dem Subjekt zugänglichen) Bewusstseinsinhalten; Denken an sich geht ohne
Bewusstsein vonstatten, Bewusstseinsakt stellt sich nach dem Denkprozess ein,
Vorgänge beim Urteilsfinden nicht zugänglich
[Empirie]
 MAYER & ORTH (1901): qualitative Eigenschaften von Assoziationen
 MARBE (1901): Was spielt sich bei Schätzurteilen (z.B. Gewichtsprüfungen) zwischen
Aufgabenstellung und Abgabe des Urteils im Geiste ab? => keine Aussagen möglich
 WATT (1905): Phasen der Urteilsfindung
1) Vorbereitungsphase
2) Problemstellung/Sachverhalt
3) Suche nach der Antwort
4) Antwort abgeben
 Phase 1 läuft bewusst ab; ist sie erfolgreich, laufen die restlichen Phasen
unbewusst und automatisch ab.
 ACH (1905): Vorbereitungsphase gibt entscheidende Richtung für anschließende
Denkprozesse vor = determinierende Tendenz
 BÜHLER: Bewusstseinsakt tritt erst nach Ablauf des Denkprozesses ein (Aha-Erlebnis)
[Methodik]
Kritik an der von der Würzburger Schule verfolgten Methode der Introspektion als zu leicht
verfälschbar und fehleranfällig
Denken aus Sicht der Gestaltpsychologie
FREUD: Denken beinhaltet Probehandeln (= gedankliches Ausprobieren)
 wurde von den Gestaltpsychologen aufgegriffen
Denken als geistiges Probehandeln ist kein Trial-and-Error, sondern ein systematisch
ablaufender Vorgang => Prinzip der guten Gestalt
…auf das Problemlösen angewandt: Personen sind mit unbefriedigter Gestalt konfrontiert
(= dem Problem), welche es in eine gute Gestalt zu überführen gilt (= die Lösung) =>
Umstrukturierung
1
[Empirie]
 KÖHLER (1921): Versuch mit Affen, die vor dem Problem standen, eine in
unerreichbarer Höhe platzierte Banane zu erreichen. Im Käfig befanden sich Kisten,
die aufeinander gestapelt werden konnten.
 Nach versuchsweisem Probehandeln folgt gedankliches Probehandeln
(Umstrukturierung der Situation zu Problemlösung); erfolgt die Einsicht, wird das
Handeln ausgeführt
 DUNCKER (1935): Problemlöseprozesse beim Menschen sind zielgerichtet; auf dem
Weg zur Lösung werden Teilziele definiert; zur Ausführung der Umstrukturierung
werden Handlungsmöglichkeiten in Betracht gezogen, dabei wird Entfernung zum Ziel
berücksichtigt, um Fortschritt zu kontrollieren.
 WALLAS (1926): Phasen des Problemlöseprozesses
1) Vorbereitung: Informationssammlung mit vorläufigen Lösungsversuchen
(Probehandeln)
2) Inkubation: Beiseitelegen des Problems für eine Unterbrechung
3) Erleuchtung: Schlüssel zur Lösung erscheint (Einsicht)
4) Verifikation: Überprüfung der Richtigkeit der Lösung
[Theorie]
 DUNCKER (1935): Vorwissen ist oftmals nötig, kann für die Problemlösung aber auch
hinderlich sein: durch Vorwissen zieht man bestimmte Umstrukturierungsmöglichkeiten
nicht in Betracht
 Funktionale Gebundenheit: mentale Blockierung einem Objekt gegenüber, das
zur Problemlösung in ungewohnter Weise benutzt werden muss; siehe
Pendelaufgabe)
[Empirie]
 BIRCH & RABINOWITZ (1951): Pendelaufgabe
Versuch, bei dem zwei Seile miteinander verknotet werden müssen, die zu weit
auseinander hängen, als dass dies ohne Hilfsmittel möglich wäre
 gewohnte Gegenstände (Schalter, Relais) müssen (zu einem Pendel)umfunktioniert
werden
Hatten die Versuchspersonen im Vorversuch einen der beiden Gegenstände in
gewohnter Weise benutzt (in Stromkreis eingebaut oder Ähnliches), so benutzten sie
für das Seilproblem jeweils den anderen Gegenstand
 der im Vorversuch benutzte Gegenstand war in seiner Funktion bereits gebunden
Frühere Erfahrung kann unverzichtbare Wissensgrundlage für spezifische
Problembereiche liefern, sie kann aber auch durch starke Bindung an Situationskontexte
den Transfer auf neue Problemsituationen erschweren.
Kognitive Wende zur Psychologie der Informationsverarbeitung
Der Mensch als infoverarbeitendes System:
Speicherung und Transformation von aufgenommener Information; Wechselwirkung
zwischen Mensch und Umwelt: Mensch nimmt Info aus der Umwelt auf, verarbeitet sie und
handelt wiederum (entsprechend der Infos) in der Umwelt.
Gründe für den Paradigmenwechsel in der Psychologie:
 Fortschritte in Mathematik, Logik und Computerwissenschaften
2
 Computer-Metapher: Das menschliche Gehirn wird als biologische Rechenmaschine
wahrgenommen
[Emp/Theo]
 MILLER: The magical number 7, plus or minus 2
Menschliche Leistungen unmittelbar mit Kapazität für das „Präsenthalten“ von Info
verknüpft
 BRUNER & AUSTIN (1956): A study of thinking
Anhand der Begriffsbildung lassen sich erste Einsichten in komplexe, präzise
analysierbare Prozesse der Infoverarbeitung
 NEWELL & SIMON (1956): General Problem Solver
Zielgerichtetheit und Organisiertheit von Problemlöseaktivitäten
4.2 Deduktives Denken
Definition:
Aus als gültig vorausgesetzten Prämissen werden Schlussfolgerungen gezogen, die – falls
logisch korrekt abgeleitet - zwingend gültig sind
(vgl. induktives Denken: kein zwingend gültiges, also zweifelsfrei wahrheitserhaltendes
Schlussfolgern/Denken)
Forschungsfragen:
- Inwieweit besitzen auch nicht speziell vorgebildete Personen Kompetenzen, um
logische Schlüsse vorzunehmen?
- Gibt es systematische Fehler (biases)?
- Welche mentalen Repräsentationen der Aufgaben und welche
Schlussmechanismen liegen richtigen und falschen Schlüsse zugrunde?
Logische Kalküle
Definition:
System von Regeln, mit denen sich Ausdrücke (Aussagen, Formeln) formulieren lassen
sowie daraus neue Ausdrücke ableiten lassen.
Achtung: Ein Kalkül transportiert Gültigkeit von Prämissen auf die Folgerung (Konklusion),
garantiert aber nicht die Richtigkeit der Prämissen.
Aussagenlogik als Beispiel für ein solches logisches Regelsystem: besitzt eine
bestimmte Syntax (Regel zur Verknüpfung und Zusammensetzung der einzelnen
sprachlichen Elemente; bestimmt, was mit einem Sprachsystem gesagt werden kann)
Sprachliche Elemente der Aussagenlogik:
 Atomare Aussagen: kleinste mögliche Wissenseinheit (dargestellt mit A, B, C)
 Wahrheitswert (der atomaren Aussagen): eine atomare Aussage kann einen von zwei
möglichen Wahrheitswerten besitzen – wahr oder falsch.
 Operatoren: Sind zwei atomaren Aussagen „A“ und „B“ korrekt, lassen sie sich mit Hilfe
der Operatoren (Verknüpfungswerkzeuge) zu komplexen Aussagen verbinden
3
 Beispiele für Operatoren
 Negation:
 Konjunktion:
 Disjunktion:
 Exklusive Disjunktion:
 Konditional:
 Bikonditional:
nicht A
A und B
A oder B oder beides
entweder A oder B
Wenn A, dann B
Wenn A, dann und nur dann B
Zwei verschiedene Methoden, mit denen deduktive Schlüsse erklärt werden sollen: die
modelltheoretische Methode und die Methode der natürlichen Deduktion
1) Modelltheoretische Methode
 Methode zur Überprüfung der Gültigkeit der mit der Aussagenlogik formulierten,
möglichen Ausdrücke.
 Bedeutung der logischen Operatoren wird in sog. Wahrheitstafeln zusammengesetzt
(siehe Tabelle 4.2, S. 18):
o Spalte 1 und 2: alle möglichen Kombinationen der Wahrheitswerte zweier
atomarer Aussagen
o Oberste Zeile: alle möglichen, d.h. formulierbaren Prämissen
o Restliche Felder: Wahrheitswerte der logischen Operatoren; zeigen an, ob
bei einer bestimmten Kombination der Wahrheitswerte von P und Q die
jeweilige Prämisse gültig ist oder nicht (Bsp. auf S. 19)
2) Methode der natürlichen Deduktion (GENTZEN, 1935)
 Analogon zu den Überlegungen eines Detektivs: Es wird ein Satz logischer Regeln
definiert, mit denen man eine Schlussfolgerung, die man aus bestimmten Prämissen
gezogen hat, beweisen kann (beweistheoretische Methode)
 Für jeden Operator gibt es eine oder mehrere Schlussregeln; eine Schlussregel
besteht aus einer/mehreren gegebenen Aussagen sowie einer Folgerung (s. Tab. 4.4,
S. 20); Annahmen sind dabei auch möglich
 Einführungsregeln:
Jeder Operator besitzt eine Regel, die eine Aussage mit diesem Operator als
bewiesen einführt (d.h. wenn ich eine Aussage mit einem Operator formuliere und
dies gemäß der jeweiligen Regel tue, so ist die Aussage bewiesen).
 Eliminationsregeln:
Regel, um aus einer Aussage mit dem Operator eine Aussage ohne den Operator
abzuleiten (ein Operator stellt eine Verknüpfung zwischen zwei atomaren Aussagen
dar; wenn man also auf eine bestimmte Gegebenheit (z.B. „P“) diese Verknüpfung
richtig anwendet („Wenn P, dann Q“), kann ich aus der Verknüpfung eine einzelne
(atomare) Aussage ableiten, aus welcher die Verknüpfung sozusagen eliminiert ist:
„Q“).
 Bsp. für Anwendung: Modus Barbara; S. 21
Vorgehen der Aussagenlogik.
1) Form der Prämissen und atomare Aussagen definieren
2) Abstrahieren von konkreten Inhalten der atomaren Aussagen
3) Logische Schlussfolgerungen in Abhängigkeit von den logischen Operatoren der
Prämissen ziehen
4
Psychologische Fragen:
1)
Wie verstehen und nutzen Personen die logischen Operatoren?
 Untersuchung mit abstrakten Aufgaben, der Inhalt der atomaren Aussagen wird
möglichst neutral gehalten
2)
Spielt der Inhalt der atomaren Aussagen eine Rolle, d.h. gehen Personen beim
Schlussfolgern rein formal vor?
 Untersuchung mit inhaltlichen Aufgaben (Prämissen mit denselben logischen
Operatoren)
Konditionales Schließen
 Logisch korrekt:
 Modus Ponens (MP): aus „Wenn P, dann Q“ und „P“ schließe „Q“
 Modus Tollens (MT): aus „Wenn P, dann Q“ und „nicht-Q“ schließe „nicht-P“
 Logisch falsch:
 Negation des Antezedens (NA): aus „Wenn P, dann Q“ und „nicht-P“ schließe
„nicht-Q“
 Affirmation der Konsequenz (AK): aus „Wenn P, dann Q“ und „Q“ schließe „P“
[Emp] Wie oft ziehen Personen solche Schlüsse?
MP: fast alle
MT: ca. 70%
NA und AK allerdings auch häufig; AK dabei häufiger als NA
 Grund für die falschen Schlussfolgerungen NA und AK: Personen interpretieren
„Wenn P, dann Q“ bikonditional, statt konditional!
Negative Conclusion Bias
Wie verändern sich die Häufigkeiten der angewandten Schlusschemata, wenn eine
Teilaussage negiert wird? (rein aussagenlogisch stellt dies keinen Unterschied dar)
 Die jeweilige Konklusion wird seltener gezogen, wenn sie affirmativ ist (bei „Wenn
P, dann nicht-Q“ und „nicht-P“ wäre NA: „Q) als wenn sie negiert ist.
 Ausnahme dabei ist der Modus Ponens (kaum Negationseffekte)
Erklärungen für das Antwortverhalten beim konditionalen Schließen
Zwei Erklärungsansätze:
1. mentale Modelle
2. mentale Regeln
1. mentale Modelle
 Personen lösen logische Aufgaben nicht rein aussagenlogisch (auf Grundlage der
Form der Prämissen und Beweisregeln), sondern sie repräsentieren die Bedeutung der
Prämissen in einem mentalen Modell und leiten daraus ihre Schlussfolgerungen ab:
1) Modellbildung (Vorstellen einer Situation, die den Prämissen entspricht)
2) Antwortgenerierung (Ableiten einer vorläufigen Antwort aus dem Modell)
3) Validierung (alle weiteren möglichen Modelle werden auf Gegenbeispiele
untersucht, die der Antwort widersprechen könnten)
 Eine Antwort ist nur dann logisch zwingend, wenn sie in allen Modellen gilt!
[Bsp. für mentale Modelle: Tabelle 4.6, S. 26]
5
 Mentale Modelle beinhalten Information darüber, ob es nur ein einziges mentales
Modell zu einer Prämisse gibt oder mehrere und ob es alternative mentale Modelle für
eine Konsequenz bzw. für einen Antezedens gibt.
 Mentale Modelle sind modelltheoretischem Ansatz der Aussagenlogik verwandt, sind
aber in bestimmten Aspekten modifiziert:
 Prinzip der Wahrheit: Es werden nur mit der Gültigkeit der Prämissen vereinbare
Modelle aufgestellt)
 Unterscheidung zwischen initialen und vollständigen Modellen (Modellbildung
geschieht sequentiell, nicht parallel => sparsame Repräsentation)
 Konkreter Mechanismus, wie Personen Aufgaben lösen (s.o.)
 Mögliche Fehlerquelle: Es werden nicht immer alle möglichen Modelle gebildet.
 Anwendung auf die einzelnen Fälle:
Modus Ponens:
einfach, weil aus beiden Prämissen (Konditional- und
Faktenprämisse) nur ein Modell resultiert, aus dem der korrekte
Schluss direkt ablesbar ist.
Affirmation der K.: ebenfalls „einfach“ (aber leider falsch…), da gleiches Prozedere:
Modell der Faktenprämisse [Q] ist direkt in das initiale Modell
integrierbar, so dass keine weiteren Modelle gebildet werden
Bei Modus Tollens und Negation des Antezedens ist das Modell der Faktenprämisse
nicht in das intitiale Modell der Konditionalprämisse (Wenn P, dann Q) integrierbar,
beide Schlüsse erfordern Bildung eines dritten Modells [nicht P] [nicht Q], was sowohl
schwieriger als auch aufwendiger ist!
 Negative Conclusion Bias in mentalen Modellen:
Bei negierter Faktenprämisse (bzw. teilnegierter Konditionalprämisse) ist im dritten
Modell doppelte Negation enthalten, aus der eine positive Antwort abzuleiten ist, was
erheblich schwieriger ist und deshalb häufiger zu Fehlschlüssen führt.
2. mentale Regeln
[Emp]
RIPS (1994): Psycop (psychology of proof)
Ähnlich wie bei GENTZEN enthält dieses Programm Einführungs- und Eliminationsregeln,
jedoch viel mehr Regeln sowie zwei Beweisstrategien, die Personen beim Schlussfolgern
verfolgen:
1. Vorwärts-Schließen: aus gegebenen Aussagen werden logische
Implikationen bestimmt
2. Rückwärts-Schließen: Beweisziele werden definiert
Das Programm von Psycop beginnt mit Vorwärtsregeln und wechselt dann systematisch.
 Anwendung auf die einzelnen Fälle
Modus Ponens:
ist deshalb so einfach, weil es eine direkte Regel dafür gibt (Wenndann-Elimination)
Modus Tollens:
hat keine eigene Regel, sondern erfordert eine Kombination von
Modus Ponens und reductio ad absurdum, was schwieriger ist.
NA und AK:
die Theorie besagt, dass Probanden das Konditional P -> Q zu Q > P umkehren (bikonditionale Interpretation), so dass aus AK ein
Modus Ponens und aus NA ein Modus Tollens wird; entsprechend
werden NA-Inferenzen seltener gezogen als AK-Inferenzen
6
 Negative Conclusion Bias bei mentalen Regeln
Der Negationseffekt beim Modus Tollens ist dadurch erklärbar, dass positive Antwort
im Reductio-ad-absurdum-Schema zusätzlichen Denkschritt erfordert, was schwieriger
ist. Dadurch lässt sich ebenso der Negationseffekt für NA erklären.
Grundsätzlich gilt: Ein Beweis ist umso schwieriger, je mehr Regeln angewandt werden
müssen!
Mentale Modelle und mentale Regeln im Vergleich
Es gibt sowohl theoretische als auch empirische Pro- und Contra-Argumente für beide
Modelle, keines lässt sich einwandfrei bestätigen.
Je nach Aufgabe und je nachdem, was für eine Person nahe liegender ist, wird eine
andere Aufgabenrepräsentation und eine dazu passende Lösungsstrategie verwendet.
Inhaltliches Schließen und Inhaltseffekte
Auftreten von Inhaltseffekten beim logischen Schlussfolgern
 Sollen Theorien deduktiven Denkens abstrakt und bereichsübergreifend konzipiert
sein oder muss man inhalts- bzw. bereichsspezifische Mechanismen annehmen?
Wenn ja, sind diese Mechanismen evolutionär oder kulturell vermittelt?
[Empirie]
WASON (1966): Wahlaufgabe
4 Karten: A, K, 5, 8; Regel: Wenn auf der einen Seite ein A ist, dann ist auf der anderen
Seite eine 5.
Die Frage, welch Karten umgedreht werden müssen, um die Regel zu verifizieren oder
falsifizieren, wird von weniger als 10% der Personen korrekt beantwortet.
Nach der Aussagenlogik ist das Konditional „Wenn P, dann Q“ nur falsch, wenn „P und
nicht-Q“, also müssen die Karten umgedreht werden, die „P“ und „nicht-Q“ entsprechen –
also A und 8.
Deutliche Effekte bei sozialen Regeln:
[Siehe Bsp. aus dem sozialen Leben auf S. 34]
50% lösen dieselbe Aufgabe richtig, bei stärker normativen Regeln sogar über 70%
 Wodurch kommt diese Erleichterung zustande?
Erklärungen für Inhaltseffekte
1. Erklärung durch evolutionäre Modelle
Bereichsspezifische Kompetenzen gehören zum evolutionären Erbe des Menschen.
Inhaltlich spezifische Problemstellungen, mit denen Menschen (oder eine andere Spezies)
in ihrer Evolution konfrontiert waren, haben das Design von Denk- und
Problemlösemechanismen kausal beeinflusst.
Bereichsspezifische Module
Zuschuss-Aufgabe auf S.34: in der häufigeren Lösung zeigt sich nicht allgemeines
logisches Denkvermögen, sondern bereichsspezifische Kompetenz, nämlich die
Identifikation von Betrügern. Generell gilt, dass immer, wenn ein bereichsspezifisches
Modul zur Verfügung steht, dieses unspezifischen Mechanismen (in diesem Fall des
logischen Denkens) vorgezogen wird.
7
Perspektivenbefund
„Wenn die Gemeinde einen Zuschuss bezahlt, dann modernisiert der Hausbesitzer die
Heizung“: Hier geht es darum, das Prinzip der Kooperation und je nachdem, aus welcher
Perspektive (der der Gemeinde oder der des Hausbesitzers) man überprüft, ob dieses
Kooperationsprinzip verletzt ist, wählen Vpn zu ein und derselben Konditionalprämisse
unterschiedliche „Karten“ (vgl. WASON) zur Überprüfung der Regel aus.
Kritik
- Inhaltseffekte zeigen nur, wie bereichsspezifisches Denken über
bereichsunabhängige Schlussmechanismen dominiert, können aber den
evolutionären Ursprung nicht belegen.
- Bereichsspezifische Module werden nicht immer, nicht generell unspezifische
Strategien vorgezogen.
- Der Perspektivenbefund wurde empirisch durch weitere Belege abgeschwächt.
2. Erklärung durch den Zwei-Quellen-Ansatz (BELLER & SPADA)
Dieser Ansatz berücksichtigt sowohl bereichsspezifische als auch bereichsunspezifische,
syntaktische Aspekte, indem er davon ausgeht, dass es zwei Quellen für logische
Schlüsse gibt:
- die syntaktische Form eines Arguments sowie
- den Inhalt der Aussagen
Inhaltskompetenz
Korrekter Umgang mit, d.h. auch korrektes Schlussfolgern aus inhaltlichem Wissen (kann
streng aussagenlogischer Ableitung gegenüberstehen)
 Inhaltseffekt: der Inhalt eines Arguments kann die formal korrekte Antwort
erleichtern oder erschweren, je nach dem, ob die Schlussfolgerungen aus beiden
Quellen zusammen- oder auseinanderfallen.
Formkompetenz
Adäquater Bezug der syntaktischen Form einer Aussage auf bereichsspezifisches Wissen;
Probanden können beurteilen, ob ihr in ein bestimmtes Konditional überführtes Wissen
Allgemeingültigkeit besitzt oder nicht.
Erklärung des Perspektivenbefunds
Wechselt bei der Zuschussregel die Perspektive zum Hausbesitzer, so wählen Probanden
gerade die zwei Karten aus, mit denen man rein aussagenlogisch die Gültigkeit der Regel
nicht überprüfen kann. Bei dieser Zuschussregel geht es um das Konzept des
konditionalen Versprechens. Um zu überprüfen, ob die Gemeinde die Regel bzw. das
Versprechen verletzen kann, wird das gegebene Konditional umkehrbar interpretiert
(Inhaltseffekt). Dennoch wissen die Probanden genau, welche Partei welche
Regelformulierung verletzen kann, d.h. sie können die konditionale Form korrekt auf das
inhaltliche Konzept eines Versprechens anwenden (Formkompetenz)
Der Perspektivenbefund ist kein eindeutiger Beleg für evolutionäre Module, die Kompetenz
zur Interpretation von Versprechen könnte auch anerzogen sein.
Überlegungen des Zwei-Quellen-Ansatzes
Mentale Modelle: Der Inhalt der Prämissen regt die Bildung bereichsspezifischer
Modelle an.
Mentale Regeln:
Es werden zusätzliche Deduktionsregeln ergänzt, die
bereichsspezifisches Wissen nutzen.
8
Der Zwei-Quellen-Ansatz stellt keine eigene Theorie dar, sondern basiert auf diesen
grundlegenden Annahmen.
Die Unterscheidung zwischen abstraktem und inhaltlichem Schließen wurde durch
neuropsychologische Befunde bekräftigt.
Abschließende Bemerkungen zum Deduktiven Denken:
 BOUNDED RATIONALITY: Der Mensch besitzt eine begrenzte Rationalität.
 Deduktives Denken kann die Gültigkeit einer Schlussfolgerung zwingend beweisen,
nicht jedoch die Gültigkeit der Prämissen!
4.3 Induktives Denken
Definition:
Induktive Schlüsse sind unsichere Schlüsse, deren Gehalt über den der Prämissen
hinausgeht, aber durch diese unterstützt wird.
Gültigkeit von induktiven Schlüssen
 Eine induktiv begründete Hypothese hat nur so lange Bestand, wie kein Gegenbeispiel
auftaucht.
 Solange man nicht alle möglichen Beispiele erschöpfend betrachtet hat, ist ein
induktiver Schluss immer mit Unsicherheit verbunden.
Arten von induktiven Schlüssen
- Allgemeine Induktion: Generalisieren von Einzelereignissen zu allgemeinen Regeln
- Abduktion: Suche nach der plausibelsten Erklärung für ein Ereignis
- Analogie: Übertragung von Prinzipien aus einem Bereich auf einen ähnlichen Bereich
- Probabilistisches Schließen: Schlussfolgern unter Unsicherheit, meist aufgrund von
Wahrscheinlichkeiten
Allgemeine Induktion
 Man beobachtet die Objekte a, b, c,…n eines bestimmten Typs und stellt fest, dass sie
alle die Eigenschaft E haben: E(a), E(b), E(c) usw.
 GENERALISIERUNG der Eigenschaft E über die Objekte oder Ereignisse
 Stellt man fest, dass die aufgestellte Regel zu allgemein ist, muss man eine
SPEZIALISIERUNG der Regel vornehmen.
Wann ist induktive Verallgemeinerung von Einzelfällen gerechtfertigt?
- je größer der Anteil beobachteter positiver Fälle ist
- je größer die Validität der Beobachtung ist
- je größer ihre Variabilität hinsichtlich anderer Merkmale ist
(DIVERSITÄTSPRINZIP)
Wie sollte man bei der Suche nach angemesseneren Generalisierungen vorgehen?
- Positive Teststrategie (affirmativ): positive Fälle zur Stützung der
Regel/Hypothese zusammentragen
- negative Teststrategie (eliminativ): gezielt negative Fälle ausschließen
9
Welches Vorgehen im konkreten Fall ratsam ist, hängt von der formulierten Hypothese ab:
Hypothese zu allgemein
Hypothese zu speziell
=>
=>
positive Teststrategie (spezialisieren)
negative Teststrategie (generalisieren)
[Empirie]
Experiment zu Zahlenreihen von WASON (1960):
Welche Strategien verfolgen Personen bei der Bildung und Prüfung von Hypothesen?
- Die Versuchspersonen mussten aus vorgegebener Dreierzahlenreihe eine Regel
ableiten, selbst eine Zahlenreihe generieren und anhand der Rückmeldung des
Versuchsleiters schließen, ob ihre Regel mit der tatsächlichen Regel (der des
Versuchsleiters), welcher die Zahlenreihen zugrunde liegen, übereinstimmt.
- 20% der Versuchspersonen verfolgten eine negative Teststrategie: sie formulierten
auf Anhieb die richtige Regel, hatten durchschnittlich 8 eigene Zahlenreihen
formuliert, darunter auch viele, die nicht der eigenen Regel entsprachen
- 80% verfolgten eine positive Teststrategie: sie formulierten zunächst eine falsche
Regel, da sie meist zu spezielle Regeln generiert hatten; sie hatten durchschnittlich
3,7 Zahlenreihen gebildet, die alle positive Fälle für die eigene Regel darstellten,
was sie daran hinderte zu erkennen, dass ihre Regel zu speziell formuliert war.
- Wenn man die Versuchspersonen durch eine Instruktion veranlasste, nicht nur
positive, sondern ebenfalls negative Fälle zu suchen, verdreifachte sich die Zahl der
Versuchspersonen, die auf Anhieb die richtige Lösung fanden. Sie wandten auch
das Diversitätsprinzip an, indem sie erkannten, dass unähnliche Evidenzen für
weitere Generalisierungen besser geeignet sind als ähnliche.
Analogiebildung
[Empirie]
Tumor-General-Analogie von GICK & HOLYOAK (1980), nach DUNCKER (1945)
 siehe S. 49
Eine Analogiebildung vollzieht sich in 4 Phasen (HOLYOAK & THAGARD, 1995):
(1) TARGET - Repräsentation der aktuellen Ausgangssituation bzw. Zielsituation
(2) SOURCE – Erinnerung an ähnliche Situation (Analogiequelle)
(3) ÄHNLICHKEITEN zwischen Zielsituation und Quellsituation herausarbeiten –
welche Merkmale zwischen Quell- und Zielsituation korrespondieren?
(4) LÖSUNG – Übertragen der Lösungsstrategie der Quellsituation auf die Zielsituation
Zwei Ähnlichkeitstypen
- OBERFLÄCHLICHE ÄHNLICHKEIT: Ebene der konkreten Bestandteile; Aussehen,
Benennung etc.
- STRUKTURELLE ÄHNLICHKEIT: Ebene der zugrunde liegenden relationalen
Struktur
Für gute, tragfähige Analogien spielen strukturelle Merkmale eine große Rolle; empirisch
zeigte sich bei den Versuchspersonen aber eher eine Tendenz für oberflächliche
Ähnlichkeit!
10
[Empirie]
HOLYOAK & KOH (1987)
Präsentation der Tumoraufgabe und einer Analogiequelle, wobei strukturelle und
oberflächliche Ähnlichkeiten systematisch variiert wurden
 Vor dem Hinweis, dass der Text als Analogiequelle benutzt werden könne:
Strukturelle und oberflächliche Ähnlichkeiten erleichterten beide gleich gut die
Analogiebildung
 Nach dem Hinweis brachte nur noch der Quelltext mit struktureller Ähnlichkeit Vorteile
für die Analogiebildung (beim Vergleich zwischen den Gruppen). Der Hauptvorteil
oberflächlicher Ähnlichkeit (das Erinnern an die Quelle und Identifikation als
Analogiequelle) wurde durch expliziten Hinweis nivelliert.
Funktionen der beiden Ähnlichkeitstypen
 Strukturelle Ähnlichkeit: erleichtert es, Korrespondenzen zu bilden und
Lösungsprinzipien zu übertragen.
 Oberflächliche Ähnlichkeit: hilft, sich an ein früheres Beispiel zu erinnern und es als
potentielle Analogiequelle in Betracht zu ziehen.
[Empirie]
DUNBAR (2001)
In Versuchssituationen werden oberflächliche Merkmale berücksichtigt, im Alltag basieren
Analogien eher auf strukturellen Merkmalen.
Erklärung durch Unterscheidung zwischen Repräsentation der Information und
Abrufbedingungen:
 Für strukturelle Analogien muss die Analogiequelle strukturell repräsentiert sein, das ist
in Experimenten of nicht ausreichend der Fall. Zudem besteht die Schwierigkeit meist
darin, sich an eine Analogiequelle zu erinnern und sie als solche zu identifizieren.
 Hauptaugenmerk liegt dabei auf oberflächlichen Ähnlichkeiten!
 Im Alltag dagegen ist es meist die direkte Absicht, Analogien zu bilden, so dass man
auf strukturelle achten muss
 Hauptaugenmerk auf strukturellen Merkmalen!
 Beide Faktoren wirken zusammen!
Regeln zur Analogiebildung (HOLYOAK & THAGARD, 1995):
(1) bekannte Quellen verwenden
(2) Korrespondenzen verdeutlichen
(3) Auch Aspekte beschreiben, die nicht übereinstimmen
(4) Gegebenenfalls mehrere Analogien verwenden
(5) Tiefe (strukturelle, systematische, kausale Merkmale enthaltende) Analogien
verwenden
Im Gegensatz zu deduktiven Schlüssen sind induktive Schlüsse nicht zwingend
wahrheitserhaltend, aber sie sind wissenserweiternd!
11
4.4 Entscheiden
Klassische Entscheidungstheorie des erwarteten Nutzens
[Theorie]
In der klassischen Entscheidungsforschung (NEUMANN & MORGENSTERN, 1944) geht
man davon aus, dass Personen rationale Entscheidungen treffen, d.h. sie sollten in einer
Entscheidungssituation diejenige Option wählen, die den erwarteten nutzen maximiert.
Erwarteter Wert =  [Wahrscheinlichkeit eines Ereignisses X Wert eines Ereignisses]
Empirisch zeigt sich jedoch, dass Personen sich nicht so verhalten, wie die reine Theorie
es vorschreibt bzw. vorhersagt, daher wird bezüglich der Entscheidungstheorie zwischen
normativ-präskriptiven und empirisch-deskriptiven Modellen unterschieden.
Normativ-präskriptive Modelle: schreiben vor, wie Personen sich verhalten sollten (=>
„homo oeconomicus“: rationale Entscheidungen bei unbegrenzt vorhandenem Wissen,
Zeit und rechnerischer Kapazität
Empirisch-deskriptive Modelle: beschreiben, wie Personen sich wirklich verhalten
[Theo]
Beispiel für ein deskriptives Modell: Subjectively Expected Utility (Modell des erwarteten
Nutzens; EDWARDS, 1954)
Das Modell entspricht der Berechnungsformel der klassischen Entscheidungstheorie,
allerdings sind erwarteter Nutzen, die Wahrscheinlichkeit und der Wert eines Ereignisses
keine objektiven, allgemeingültigen Variablen, sondern sie werden subjektiv von
demjenigen, der sich entscheiden muss, definiert und mit konkreten Werten gefüllt.
 Zusammenhang zwischen objektivem Wert und subjektivem Nutzen – wie kommt es zu
subjektiven Wahrscheinlichkeitseinschätzungen?
Rahmungseffekte und die Prospect-Theory
[Theo]
Prospect-Theory (TVERSKY & KAHNEMAN, 1979):
Erklärt tatsächliches Entscheidungsverhalten über spezifische Annahmen zur subjektivmentalen Repräsentation und Verarbeitung der Einflussgrößen “Nutzen einer Option” und
“erwartete Wahrscheinlichkeit”:
(1) Konsequenzen bzw. Nutzen einer Option werden nicht absolut, sondern relativ von
einem Referenzpunkt bewertet, den die Person zugrunde liegt.
(2) Es macht für Personen einen Unterschied, ob sie den Nutzen einer Option positiv
(als Gewinn) oder negativ (als Verlust) repräsentieren.
Wertefunktion der Prospect-Theorie
beliebte Prüfungsfragen…
 Schaubild auf der nächsten Seite…
 Objektiver Gewinn und subjektiver Nutzen stehen nicht in linearer Beziehung
zueinander!
 Der gleiche Betrag an Gewinnzuwachs (z.B. 1000 €) bringt umso weniger an
subjektivem Nutzen, je höher der Referenzpunkt an bereits vorhandene Gewinn
12
(z.B. 1 € vs. 10'000 €) ist (d.h. je weiter rechts sich die Person schon auf der xAchse befindet)
 Analoge Beziehung zu Verlust und subjektivem Nutzen, aber die Kurve verläuft steiler!
 Der subjektive Nutzen ist durch Verluste stärker beeinträchtigt als er durch
Gewinnen hinzugewinnt. Menschen leiden unter Verlusten stärker als sie sich über
Gewinne freuen.
Subjektiver Nutzen
Verlus
t
Gewinn
Unterschiedliche Entscheidungstendenzen laut Prospect-Theory:
 Im Gewinnbereich:
Tendenz zur Risikovermeidung (risk aversion)
flacher Kurvenverlauf: Gewinnzuwachs geringer als mögliche
Gewinnabnahme
 im Verlustbereich:
Tendenz zur Risikosuche (risk seeking)
steiler Kurvenverlauf: Personen befinden sich schneller im
stagnierenden Bereich der Verlustzone und können daher auch
schneller wieder aus dem Verlustbereich herauskommen
Fazit der Prospect-Theorie:
Personen interpretieren Entscheidungsoptionen nicht absolut, sondern relativ in
Abhängigkeit eines Referenzpunktes auf der Wertefunktion. Die Entscheidungen basieren
letztlich auf einer subjektiven Repräsentation der Situation (Entscheidungsrahmen)
Entscheidungsrahmen (decision frame): mentale Repräsentation der relevanten
Komponenten des spezifischen Entscheidungsproblems.
[Emp]
SHAFIR, SIMONSON & TVERSKY (1993)
Der Rahmungseffekt tritt nicht nur bei Gewinn-/Verlust-Darstellung der Konsequenzen auf,
sondern auch bei einer Zusammenstellung möglicher Alternativen!
(In der Studie waren es Kaufalternativen bei CD-Playern, siehe dazu S. 62f)
SHAFIR (1993)
Entscheidungen werden auf Grundlage von Argumenten und
Rechtfertigungsmöglichkeiten getroffen!
In einem Scheidungs- und Sorgerechtsfall machen extremere Eigenschaften bei einem
Elternteil daher beide Entscheidungen besser begründbar.
13
Entscheidungen sind keine reine Kosten-Nutzen-Abwägung, wie von der klassischen
Entscheidungstheorie postuliert!
Entscheidung unter Unsicherheit
[Emp]
Ingenieur-Rechtsanwalt-Problem (TVERSKY & KAHNEMAN, 1973):
 Personenbeschreibungen anhand von Interviews mit Juristen und Ingenieuren;
Verhältnis der Anzahl an Juristen zu Ingenieuren (Basisrate) war vorgegeben.
 Die Versuchspersonen sollten eine zufällig gezogene Personenbeschreibung einer der
beiden Berufsgruppen zuordnen.
 Dabei ignorierten sie völlig die Basisrate, welche in unterschiedlichen
Experimentalbedingungen zwischen hoch und niedrig variiert wurde. Sie trafen ihre
Entscheidung allein auf der Grundlage der inhaltlichen Infos (der
Personenbeschreibung) => Negation der Basisrate
[Emp]
Medizinische Diagnose (EDDY, 1982)
 Fallbeschreibung für Brustkrebsuntersuchung, Angabe der a prioriWahrscheinlichkeiten bzw. Basisraten (positiver Test / Brustkrebs)* und (positiver Test
/ kein Brustkrebs)
 a posteriori-Wahrscheinlichkeit (Patientin lässt sich testen und hat tatsächlich
Brustkrebs; (Brustkrebs / positiver Test) kann mit Hilfe des BAYES-Theorems unter
Berücksichtigung der Basisraten berechnet werden (siehe S. 68/69)
 Kaum eine Versuchsperson wendet das BAYES-Theorem an, nicht einmal Personen
mit entsprechendem Vorwissen (hier: Ärzte)! Zudem werden – wie bei TVERSKY &
KAHNEMAN – die Basisraten vernachlässigt.
 Dies kann auf das Verwenden von Heuristiken zurückgeführt werden…
Heuristiken (TVERSKY & KAHNEMAN, 1974)
Ähnlichkeitsheuristik: typischer Fehler ist hierbei die Vernachlässigung der Basisrate
zugunsten von inhaltlich vermittelten stereotypen Informationen
Verfügbarkeitsheuristik: kann ebenfalls Neigung zur Vernachlässigung der Basisrate
begünstigen; die Informationen (etwa einzelne Beispiele), die
am leichtesten erinnert werden können, werden in der
Entscheidungssituation „bevorzugt“
Eingeschränkte und ökologische Rationalität
SIMON (1956, 1990): Bounded Rationality
Die menschliche Kognition besitzt viele „Handicaps“:
- begrenzte Aufmerksamkeit
- begrenztes Gedächtnis
- unvollständiges Wissen
- einfache Verarbeitungsstrategien
- teilweise serielle Verarbeitung
Daher muss das menschliche Infoverarbeitungssystem, also die Kognition, seine
Entscheidungen den eigenen Einschränkungen und Anforderungen anpassen.
Die Herausforderung für den Menschen besteht in einem ressourcen- und
situationsadäquatem, nicht in optimalem Verhalten.
14
[Emp]
GIGERENZER et al.:
Menschliches Urteilen unter Unsicherheit ist nicht durch allgemeine Heuristiken
beeinflusst, sondern durch spezifische Einflüsse wie die Art der Aufgabenstellung und
Inhalt derselben.
GIGERENZER & HOFFRAGE (1995):
Das Medizindiagnose-Problem ist wesentlich leichter zu lösen, wenn die Aufgabenstellung
anstatt Wahrscheinlichkeiten absolute Häufigkeiten beschreibt (vgl. Tab. 4.10 und 4.11).
Wahrscheinlichkeiten stellen für Personen abstrakte, künstliche Informationen dar,
während absolute Häufigkeiten vielmehr der natürlichen Problem- und
Informationsrepräsentation entsprechen.
Werden Informationen umweltgerecht dargeboten, haben Personen oft Strategien zur
Hand, um die Info korrekt und einfach zu verarbeiten.
Frugale Strategien (GOLDSTEIN & GIGERENZER; 1996, 1999):
kommen mit minimaler Information aus, arbeiten schnell und (in passenden
Situationen) akkurat
sind wenig aufwendig, aber effektiv => ökologisch sinnvoll
Bsp.: Wiedererkennungsheuristik (Rekognitionsheuristik)
Verwende-den-besten-Prädiktor (Take-the-best)-Heuristik
stützen sich auf drei Regeln:
o Suchregeln:
legen fest, in welcher Reihenfolge Info eingeholt
wird
o Abbruchregeln:
legen fest, wann Infosuche abgebrochen wird
o Entscheidungsregeln:
legen fest, wie auf Grundlage der Info eine
bestimmte Entscheidung getroffen wird
Fazit zu Heuristiken:
Falls der Aufgabenkontext und die jeweilige Heuristik zusammenpassen, sind Heuristiken
robust, wenig fehleranfällig und extrem leistungsfähig!
4.5 Problemlösen
Problemsituation
(1) unerwünschte Ausgangssituation (in Zielsituation zu überführen)
(2) keine unmittelbare Überführung möglich („Barriere“ vorhanden)
(3) Überwindung erfordert Durchführung von Problemlösehandlungen
Klassische Problemstellungen
- Neun-Punkte-Problem (Einsichtsproblem => 1 Lösungsschritt)
- Turm-von-Hanoi (Transformationsproblem => mehrere Lösungsschritte)
- Physikaufgaben (ebenfalls Transformationsproblem)
Aspekte von Problemen:
- Grad an benötigtem Vorwissen
- Anzahl an Lösungsschritten (s.o.)
- Detailliertheit der Problemdefinition (inkl. Bekanntheit der Lösungsschritte)
15
Problemlösen als Informationsverarbeitung (seit Mitte des 20. Jhs.)
Forschungsaspekte:
- Problemrepräsentation
- Problemlösestrategien
Problemraum und Problemsuche (zurückgehend auf NEWELL & SIMON, 1972)
Problemraum: alle möglichen Zustände, die ein Problem vom Anfangszustand bis zum
Zielzustand annehmen kann.
Darstellungsform eines Problemraums:
Netzwerk, in dem die Knoten für einzelne Problemzustände stehen und die Kanten die
Transformations-, d.h. Lösungsschritte von einem Problemzustand zu einem anderen
repräsentieren.
Gemäß dieser Darstellungsform kann das Lösen eines Problems als Suche im jeweiligen
Problemraum verstanden werden: mit Hilfe der einzelnen Transformationsschritte sucht
man einen (möglichst kurzen) Weg vom Anfangszustand zum Zielzustand. (Bsp.: Turmvon-Hanoi, Abb. 4.7, S. 81) Dabei lässt jedes Problem nur eine bestimmte, begrenzte Art
von Transformationen zu; diese Transformationsarten werden auch Operatoren genannt)
Vollständige Problemräume können ein Problem objektiv darstellen und verdeutlichen, wie
viele Lösungswege es gibt und welcher der beste ist. Zudem ermöglichen sie in
empirischen Studien die Analyse des Problemlöseverhaltens der Versuchspersonen.
Obwohl der Problemraum also eigentlich eine statische Beschreibung darstellt, ermöglicht
er ebenso die Analyse dynamischer Abläufe.
Mentale Anforderungen beim Problemlösen:
 Die Gestalt des Problemraums ist nicht der einzige Faktor, der die Schwierigkeit eines
Problems bestimmt (da dieser nur eine abstrakte Repräsentation des Problems
darstellt).
 Die inhaltliche Repräsentation des Problems
sowie
 Das spezifische Problemlöseverhalten der Person (sie gut sind Lösungsstrategien
gelernt, welche subjektive mentale Repräsentation des Problems baut sie auf usw.)
spielen ebenfalls eine wichtige Rolle.
Zwei wesentliche Anforderungen an das Problemlöseverhalten:
(1) Organisation des Lösungsprozesses:
Auswahl und Anwendung von Lösungsstrategien sind von zentraler Bedeutung!
 Bei vorwissensarmen Problemen (z.B. Turm von Hanoi) gehen Personen beim
ersten Lösungsversuch oft langsam, fehleranfällig, ineffektiv und stark an lokale
Anforderungen orientiert vor (z.B. indem sie lokale Heuristiken verwenden)
(2) Gedächtnisbeanspruchende Schwierigkeiten:
Anwendung von Strategien, die mehrere Problemlösehandlungen organisieren und
koordinieren
 lokale Heuristiken müssen durch abstrakte, global formulierbare Strategien ersetzt
werden, die es ermöglichen, den gesamten Problemlöseprozess planerisch
vorzubereiten und durchzuführen (weniger Gedächtnisarbeit nötig)
Suchstrategien beim Problemlösen:
- erschöpfend vs. nicht-erschöpfend (Wird der gesamte Problemraum
durchsucht?)
16
allgemein vs. heuristisch (Auf beliebigen oder spezifischen Problemraum
anwendbar?)
- erschöpfende und allgemeine Strategie: uninformierte Suchstrategie
 Psychologisch ist die Verwendung allgemeiner Suchstrategien wenig plausibel;
schon bei einfachen Problemen wenden Personen heuristische Strategien an (das
zeigt sich auch in der Definition der Strategie und Repräsentation des
Problemraums)
-
Heuristische Strategien
Basieren auf der Idee, in Entscheidungssituationen eine Bewertung alternativer
Problemlöseschritte vorzunehmen:
- Unterschiedsreduktion (Auswahl desjenigen Lösungsschrittes, der Unterschied
zwischen Ausgangs- und Zielsituation am deutlichsten reduziert)
- Mittel-Ziel-Analyse (vorwärtsgerichtete Suche inkl. Teilzielbildung)
(1) Unterschied zwischen aktuellem Zustand und Zielzustand analysieren – mit Hilfe
einer Heuristik den wichtigsten Unterschied auswählen – Beseitigung dieses
Unterschieds als Teilziel definieren.
(2) Operator für die Beseitigung des Unterschieds suchen – Heuristik anwenden
und Operator wählen – zu (3) gehen
(3) Lena fragen
o die Mittel-Ziel-Analyse ist zwar einfach und ökonomisch, aber wenig flexibel,
z.T. auch empirisch nicht adäquat (keine Parallelrepräsentation von
mehreren Teilzielen)
- Verwendung von Analogien (=> Suchraumerweiterung, Suchraumwechsel)
[Meth]
- Methode des lauten Denkens (ERICSSON & SIMON, 1983)
- Computermodellierung der Prozesse der Infoverarbeitung (siehe nächsten
Abschnitt)
Modellierung von Problemlöseprozessen: Wissensbasierte Systeme
Computermodellierungen von Problemlöseprozessen arbeiten mit verschiedenen Klassen
von Wissen:
- deklaratives Wissen („wissen, was“; Objekte, Ereignisse)
- prozedurales Wissen („wissen, wie“; Operationen)
- Kontrollwissen („wissen, wann“; Steuerung)
In den Modellierungen sind die Wissensarten in spezielle Komponenten umgewandelt:
- deklaratives Wissen => propositionale Strukturen
- prozedurales Wissen => Bedingungen, wann es anwendbar ist; resultierende
Konsequenzen
 regelartige Struktur kognitiver Architektur: Wenn [Bedingungen], dann [Aktionen]
 Beim Lösen von Problemen wirken deklarative Wissensanteile (=Problem,
Ausgangssituation, Zielzustand, Komponenten des Problemraums) und prozedurale
Wissensanteile (rekursive Lösungsstrategie; vgl. ToH-Problem, S. 84) zusammen
Modellierung zweier Vorgehensweisen
(1) Vorwärtsverkettendes Problemlösen: Suche nach Infos, die den Bedingungsteil
von Regeln erfüllen => Ausführung der Aktionen im Dann-Teil
= datenorientierte Informationsverarbeitung
17
(2) Rückwärtsverkettendes Problemlösen: Suche nach Möglichkeiten/Infos, um Ziel
zu erreichen: Definition eines Ziels im Dann-Teil => Überprüfung, ob Wenn-Teil der
entsprechenden Regel erfüllt ist (wenn nicht: unzutreffende Bedingungen =
Unterziele)
= zielorientierte Infoverarbeitung
Infoverarbeitungssysteme können kontextfrei, ohne ausführendes System, nicht
befriedigend erforscht werden
 Formulierung kognitiver Architekturen
z.B. SOAR (NEWELL)
ACT (ANDERSON)
ACT (Adaptive Character of Thought)
1. kognitive Fertigkeiten durch Regeln und Produktionen repräsentiert
2. elementare Einheiten:
deklaratives Gedächtnis: Einheiten des Arbeitsgedächtnisses (v.a. Chunks)
prozedurales Gedächtnis: Produktionen
 Produktionen und Chunks sind mit Stärkeparametern versehen (geben Auskunft
über die Anwendungshäufigkeit, bestimmen, ob Produktionen/Chunks in einem
bestimmten Verarbeitungsschritt angewendet werden u.Ä.)
Lernen im ACT:
- Anpassung der Stärkeparameter aufgrund von Erfahrung
- Bildung neuer Produktionen (durch Analogie)
Kognition kann als Zusammenspiel unterschiedlicher Wissensbestände beschrieben und
analysiert werden!
Problemlösen und Lernen: Der Selbsterklärungseffekt
= Analyse des Erwerbs komplexer geistiger Fähigkeiten
[Theo]
Prozesse des Wissenserwerbs (ACT, ANDERSON; 1993)
 Phasentheorie:
(1) Verwendung deklarativen Wissens
Neue Info zuerst in deklarativer Form, keine Umsetzung von Wissen in Verhalten,
„Interpretation“ mit bereichsunspezifischen Problemlöseprozeduren (z.B. Mittel-ZielAnalyse)
(2) Wissenskompilierung
Bildung von Problemlöseregeln, deklaratives Wissen wird in prozedurales Wissen
umgewandelt, größere kognitive Effizienz (Zugewinn an Schnelligkeit, Reduktion
der Gedächntisbelastung)
(3) Wissensoptimierung
Feinabstimmung des prozeduralen Wissens durch 3 Lernmechanismen:
o Generalisation
o Diskrimination
o Verstärkung
 durch die Phasentheorie können bekannte Problemlösephänomene wie der
Einstellungseffekt rekonstruiert werden; sie vernachlässigt allerdings die Kodierung
deklarativen Wissens und die Rolle von Vorwissen
[Emp]
Selbsterklärungseffekt (CHI et al.; 1989)
18
(1) Wissenserwerb:
Schüler mussten sich Physikwissen über ein Lehrbuch aneignen, sowie Kapitel zur
Mechanik, das v.a. ausgearbeitete Musterlösungen thematisierte (s. Abb. 4.8; S.93)
Beispiele: Erklärungen unterspezifiziert, unvollständig
(2) Problemlösephase:
Schüler mussten Physikaufgaben bearbeiten
In beiden Phasen wurden Protokolle lauten Denkens erfasst.
Danach wurden die Schüler in gute und schlechte Problemlöser aufgeteilt:
gute Problemlöser:
- während der Bearbeitung der Musterlösung häufigere Verbalisierung von
Äußerungen, die physikalische Prinzipien, Konzepte, Gesetze betrafen
- Verbalisierung angemessenerer Äußerungen zur Selbstüberwachung; häufigere
Äußerung von Verstehensproblemen (46% zum 15%)
- Seltener, aber gezielterer Bezug auf Musterlösungen
 effektives Lernen aus Beispielen beruht auf zwei grundlegenden kognitiven
Leistungen:
o Lässt sich abstrahieren als Verstehen von Musterlösungen, welches
elaboriertes Erklären der einzelnen Lösungsschritte im Beispiel und den
Bezug dieser Lösungsschritte zu erworbenem bereichsspezifischen Wissen
beinhaltet.
o Dem schließt sich der eigentliche Prozess des Problemlösens an, der sich
dadurch kennzeichnet, dass allgemeine Regeln verwendet werden, die
während der Bearbeitung der Musterlösung abstrahiert oder generiert
werden (gute Problemlöser zeichnen sich durch analogiebasierte
Regelfindung aus; die Analogien sind struktureller Art und es werden
insgesamt mehr Regeln abgeleitet)
Dieses Wissen wurde von VAN LEHN et al. (1992) in ein Simulationsmodell namens
Cascade überführt (nähere Erklärung auf S. 93 – 95)
Lernende erwerben oft schon aufgrund eines Beispiels bzw. weniger Beispiele neues
Wissen. Dabei nutzen sie in vielfältiger Weise ihr Vorwissen, um die Beispiele zu
elaborieren und Analogiebildungen vorzunehmen!
4.6 Wissenschaftliches Denken und Problemlösen
= Untersuchung der Denkleistungen, die bei Hypothesengenerierung, Experimenten,
Interpretation und Evaluation eine Rolle spielen.
Drei Forschungsansätze
(1) historische Fallstudien
Versuch, über Aufzeichnungen, Tagebücher u.Ä. große Entdeckungen und die
zugrunde liegenden kognitiven Prozesse etc. nachzuvollziehen.
Bsp.: Bell-Erfindung des Telefons (MURDOCK et al., 1998)
[Methodik]
o geringe Generalisierbarkeit
o geringe Reliabilität (retrospektive Aufzeichnungen / Interviews)
o geringe Introspektions-/Auskunftsfähigkeit der Wissenschaftler
19
(2) in-vivo-Untersuchungen (Feldbeobachtung)
Beobachtung von Wissenschaftlern im Alltag
Ziele:
- Repräsentation und Nutzen bereichsspezifischen Wissens belegen
- Analogien analysieren
- Heuristiken offen legen (=> Planung und Durchführung von Experimenten)
- Einfluss des sozialen Kontexts bestimmen
[Methodik]
o hoher Auflösungsgrad
o Berücksichtigung des sozialen Kontexts
o Sehr aufwendige Methode
(3) in-vitro-Untersuchungen (experimentelle Laboruntersuchungen)
systematische und kontrollierte Untersuchung von Entdeckungsprozessen mit:
- künstlichen Mirkowelten
- realitätsnahen virtuellen Experimentallabors
und immer durch Verwendung von Protokollen lauten Denkens
[Methodik]
- hohe zeitliche Auflösung
- Kontrolle möglicher Störeinflüsse
- Ausblendung des sozialen Kontexts
- Keine singulären Entdeckungen, sondern allgemeine kognitive Prozesse im
Vordergrund
Allgemein: Egal welchen Forschungsansatz man verfolgt, wissenschaftliche Arbeit wird
nicht unbedingt durch Hypothesen vorangetrieben, sondern durch Überraschungen und
Anomalien, die es zu erklären gilt (KLAHR & SIMON, 1999)
Mikrowelten
[Empirie]
KLAHR & DUNBAR (1988): Big Trak
Probanden sollten durch Experimentieren eine unbekannte Steuerfunktion des Fahrzeugs
erkunden (näheres weiter unten)
Hängt zusammen mit folgender….
[Theorie]
Scientific Discovery as Dual Search (SDDS) – Theorie:
Wissenschaftliches Entdecken vollzieht sich als koordinierte Suche in zwei verschiedenen
Problemräumen, dem Hypothesenraum (gemeinsamer Raum aller Hypothesen)
und dem Experimentalraum (Struktur des Raums möglicher Programme)
Big Track:
Den Versuchspersonen wurde die Steuerung erklärt, dann sollten sie die Funktionsweise
einer unbekannten Steuerungstaste herausfinden, indem sie Hypothesen formulierten und
diese dann mit entsprechenden Experimenten überprüften.
Bei der Überprüfung der Hypothesen zeigten die Versuchspersonen ein
„Experimentalverhalten“, das deutlich von der Logik wissenschaftlicher Forschung abwich.
Für den Erfolg wissenschaftlicher Forschung ist die Koordination der Suche im Raum
möglicher Hypothesen und im Raum möglicher Experimente von entscheidender
Bedeutung!
20
Simulierte Experimentallabore
[Empirie]
DUNBAR (1993): simuliertes molekulargenetisches Labor (SMG)
Durchführung von Experimenten zu verschiedenen Wirkungsweisen von Genen am
Beispiel von Escherichia coli (= vorwissensintensives Szenario)
 DUNBAR konnte die zentrale Bedeutung der Ziele, die Probanden haben, für
o Die oben genannte koordinierte Suche im Hypo- und Experimentalraum und
o Für den Wissensabruf bei der Experimentalplanung nachweisen!
Versuchsablauf gliederte sich in zwei Phasen:
1. Experimentalphase: Lernen Entdecken
2. Experimentalphase: Komplexe Faktoren, Experimentalraum mit 120 möglichen
Experimenten
Die Probanden hatten in der Regel in der ersten Phase für die Genwirkung eine
Aktivierungshypothese formuliert, die sie auf die zweite Phase übertrugen (hier aber war
der Wirkungsmechanismus eine Hemmung, so dass die Aktivierungshypothese
unangemessen war)!
Gute vs. schlechte Problemlöser konnten anhand der anfänglichen Zielsetzung erkannt
werden:
- Schlechte Problemlöser hatten mehrheitlich das Ziel, die Aktivierungshypothese aus
der ersten Phase zu bestätigen
- Gute Problemlöser formulierten das Ziel, die Ursache für eine in der zweiten
Experimentalphase auftretende Anomalie (unerwartete Glukoseproduktion der
untersuchten Zellen) zu finden
 die Ursache für die Blockade der Problemlösestrategie war vermutlich eine Art
Einstellungseffekt (hartnäckiges Festhalten an der ersten, aber falschen
Aktivierungshypothese)
Kooperation und Expertise
Untersuchungen zum kooperativen Problemlösen
[Emp]
OKADA & SIMON (1997): verwendeten SMG von DUNBAR
Teams vs. Einzelpersonen:
- Teams sind erfolgreicher bei der Bearbeitung wissenschaftlicher Probleme
- Teams formulieren mehr Hypothesen, explorieren Alternativhypothesen
eingehender und begründen ihre Ablehnung besser
- Teams begründen die eigenen Hypothesen besser (Zugriff auf vorhandenes
Wissen, detaillierte Erklärungen)
Gründe dafür (MIYAKE; 1986):
- die Präsenz von Partnern regt Probanden zu erklärenden Verbalisierungen an
=> hilft, die vorhandene Information zu integrieren
- Monitoring und Hinterfragen von Theorien sowie ihre Stützung durch
Kooperationspartner resultiert in begründenden Erklärungen
=> verstärkter Lerneffekt
diese Aussagen werden durch Untersuchungen zum Selbsterklärungseffekt unterstützt:
21
Personen, die sich intensiv mit vorgegebenen Musterlösungen auseinandersetzen, diese
aktiv elaborieren und sich selbst ausführlich erklären, erreichen eine deutliche Steigerung
der Problemlöseleistung.
[Meth]
Kritik: die Versuchspersonen waren keine Experten, sondern Studenten, weshalb die
externe Validität eingeschränkt war.
[Emp]
SCHUNN & ANDERSON (1999)
Berücksichtigten den Expertisegrad der Versuchspersonen (systematisch variiert)
Die Vpn mussten sich zwischen zwei Theorien, die bestimmte Phänomene erklärten,
mittels simulierter Experimente entscheiden.
 Bereichsexperten: hohe Werte für allgemeine und spezifische Fertigkeiten
 Aufgabenexperten: Defizite in inhaltsspezifischen Fertigkeiten, gute allgemeine
Fertigkeiten
 Studenten: ebenso Defizite in spezifischen Fertigkeiten, in allgemeinen Fertigkeiten
schlechter als die Aufgabenexperten
 Allgemeine methodisch-wissenschaftliche Fertigkeiten und spezifisch-inhaltliche
Fertigkeiten korrelieren danach nicht mit mathematisch-rechnerischen Fähigkeiten.
 Studierende können sich durch die Arbeit in Mikrowelten und PC-basierten
Experimentallabors im Bereich zentraler Fertigkeiten wissenschaftlichen
Argumentierens verbessern; besonders förderlich sind dabei kooperative
Lernsituationen.
 Bei „echten“ Wissenschaftlern ist das Zusammenwirken von allgemeinmethodischen und spezifisch-inhaltlichen Kompetenzen besonders wichtig.
4.7 Expertiseforschung
Schach
[Emp]
DEGROOT (1965), CHASE & SIMON (1973):
 Überlegenheit von Schachprofis bei schachbezogenen Gedächtnisleistungen über
Laien (Darbietung von Schachkonfigurationen für jeweils 5 sek)
OPWIS et al. (1990):
Darbietung von sinnvollen und sinnfreien Schachstellungen
Die Probanden waren entweder Experten oder Novizen
 Die Experten waren den Novizen in der Erinnerungsleistung deutlich überlegen, sowohl
bei sinnvollen als auch bei sinnfreien Stellungen (bei ersterer Stellung war die Leistung
deutlich gesteigert)
CHASE & SIMON: Experten prägen sich Schachstellungen mit Hilfe von Chunks ein
(einzelne Figuren werden zu sinnvollen Einheiten gruppiert, diese Einheiten dann
gemerkt), welche mehrere Figuren umfassen können; Novizen versuchen, sich die Figuren
einzeln einzuprägen
GOBET & SIMON (1996): template-theory
Schachspieler haben eine große Anzahl an Schablonen über Schachstellungen im
Langzeitgedächtnis (inkl. Folgerichtiger Spielzüge); jede Schablone besteht aus 12 fixen
Figuren und Informationen über weitere variable Figuren (=> ermöglicht rasche RoutineReaktionen)
22
Fazit zur Schach-Expertise:
Schachspieler verfügen nicht über ein allgemein überlegenes Gedächtnis, sondern über
ein durch Erfahrung aufgebautes breites Wissen an Schachstellungen und –zügen und
damit über die nötige Routine und Flexibilität im Spiel!
Schulphysik
[Emp]
LARKIN et al. (1980), LARKIN (1981)
Experten
Vorwärtsverkettende ProblemlöseStrategie:
Ausgangspunkt sind gegebene Größen,
auf deren Basis zielgerichtete Infos abgeleitet werden, die zur gesuchten Größe
führen
 Nutzung bereichsspezifischer
Lösungs-schemata (VAN LEHN;
1989):
- Klasse von Problemen, auf die
dieses anwendbar ist
- Lösungsprozedur
1. Auswahl des passenden
Lösungsschemas
2. Variablen durch konkrete Größen
ersetzen
3. Lösungsprozedur ausführen
Größere Flexibilität bezüglich der
gewählten Strategie (vorwärts- und
rückwärtsverkettende)
Klassifikation von Problemen nach
physikalischen Prinzipien und Gesetzen
(CHI et al.; 1981)
Repräsentieren Probleme qualitativkonzeptionell und quantitativ-numerisch
Novizen
Rückwärtsverkettendes Problemlösen:
Ausgangspunkt sind gesuchte Größen; es
wird versucht, irgendwelche Formeln
anzuwenden
 Verlust des Überblicks, Vergessen
von Teilzielen = fehleranfällig
 Durchsuchen großen, häufig aber
nicht zielführenden Ausschnitt des
Problemraums
Klassifikation von Problemen nach
oberflächlichen Merkmalen
Repräsentieren die Probleme meist nur
quantitativ-numerisch
Novizen besitzen oft auch naive Alltagsvorstellungen über physikalische Konzepte, die von
einer wissenschaftlichen Sichtweise stark abweichen, sog. Misskonzepte
Erwerb von Physik-Expertise (SPADA & LAY, 2000)
1. naiv-qualitatives Alltagswissen (Novize)
2. wissenschaftlich korrekter, qualitativ-konzeptueller und quantitativ-numerischer
Wissenserwerb (Schule)
3. konsolidiertes qualitatives und quantitatives Wissen (Experte)
Medizin
23
[Emp]
BOSHUIZEN (2003): Entwicklung medizinischer Expertise in Studium und Beruf
 erste Studienjahre: Aufbau eines weit verzweigten, zuerst nur lose verknüpften
Wissensnetzwerks (Grundlagen-, Faktenwissen)
 Übergangsstadium: Wissenselemente werden enger verknüpft, rascher abrufbar,
auf Anwendung ausgerichtet, Zwischenschritte von Erklärungen werden
ausgeblendet = Einkapselung (Konzeptbildung, die größere Einheiten betrifft)
 Letztes Stadium: Wissen ist bezogen auf Fälle und klinische Anwendung,
Krankheitsschemata vorhanden (typische Krankheiten mit Ursachen und
Symptomen; Diagnose und Behandlung von Krankheiten wird routiniert;
fallbezogene Interpretation von Infos/Wissen)
Zusammenfassung: Experten vs. Novizen
(1) Wissen von Experten ist umfassender, aber auch besser organisiert, so dass
schnellerer Zugriff möglich ist und mehr Info simultan repräsentiert und verarbeitet
werden kann (=> bessere Gedächtnis- und Problemlöseleistung in der
entsprechenden Domäne)
Siehe hierzu die Phasentheorie von ANDERSON: Wissenskompilierung von
deklarativem zu prozeduralem Wissen
- Medizin: Wissensnetzwerk wird in Krankheitsschemata überführt
- Physik: abstrakte Formeln werden zu spezifischen, mit Werten gefüllte Formeln
- Schach: Schablonen über Stellungen und Spielzüge
(2) Experten sind fähig, Lösungsstrategien zu wechseln (d.h. zwischen vorwärts- und
rückwärtsverkettendem Problemlösen zu wechseln)
(3) Experten verfügen über Sachkenntnis
s. Einschub: „conceptual change“ von VOSNIADOU; kann sich in qualitativen
Sprüngen durch Veränderung zentraler Konzepte herausbilden => sprungartiger
Aufbau von Sachkenntnis (Bsp.: Weltbild bei Kindern)
24
Herunterladen