Zusammenfassung Kapitel 4 1-4

Werbung
4.1 Geschichte (S. 199-206)
4.1.1. Die Würzburger Schule (um 1900) widersprach der Annahme, Denken würde durch
Assoziationen von Vorstellungen im Bewusstsein vollzogen. Durch Introspektionsmethoden
stellten sie fest, dass Denkprozesse unanschaulichen Charakter haben (=> Aha-Erlebnis tritt
plötzlich und unvermutet am Ende eines Denkprozesses auf). Allerdings: Methodenkritik!
4.1.2. Gestalpsychologen (1920er) forschten zum Problemlösen und gingen davon aus, Denken
sei geistiges Probehandeln, bei dem systematisch vorgegangen wird (Problemlösen als
Umstrukturierung einer unbefriedigenden in eine gute Gestalt). Berühmt ist Köhlers
Versuch mit dem Affen, der eine Banane will und dazu Kisten stapeln soll (es fanden sich
Perioden intensiven Nachdenkens, denen Einsicht folgte). Die Gestaltpsychologen (Wallas)
kamen schließlich zu einem Modell des Problemlösens mit 4 Phasen:
1. Vorbereitung
Informationssammlung mit Probehandeln
2. Inkubation
Beiseitelegung des Problems
3. Erleuchtung
Aha-Erlebnis
4. Verifikation
Überprüfung der Richtigkeit der Lösung
Eine von den Gestaltpsychologen (Luchins und Luchins) entdeckte Gefahr für den
Problemlöseprozess ist die funktionale Gebundentheit, die Umstrukturierungsprozesse
verhindern kann. Da man mit bestimmten Objekten bestimmte Arten des Gebrauchs verbindet
gibt es eine Blockade, wenn man sie auf eine andere Art gebrauchen muss, der Transfer fällt
schwer (Versuch mit den Seilen; Relais oder Schalter als Pendelgewicht „missbrauchen“
=>Je nach Vorversuch wurde das eine oder andere Objekt seltener genutzt.). Andererseits
bilden unsere Vorerfahrungen auch die Wissensgrundlage für spezifische Problembereiche.
(Die Nazi-Machtergreifung hat die gestaltpschologische Schule schlagartig abgewürgt.)
4.1.1. Die kognitive Wende (Mitte 20.Jh.) vollzog sich weg vom Behaviorismus und hin zur Idee
vom Denken als Informationsverarbeitung. Dabei werden Menschen als
informationsverarbeitende Systeme betrachtet, die Information aufnehmen, speichern und (!)
transformieren können. Sie besitzen Ein- und Ausgangskanäle zur Umwelt und handeln in
ihr. Besonders wichtig ist aus dieser Phase der Aufsatz „The magical number seven, plus or
minus two“ (Miller), in dem die Kapazität unseres Kurzzeitspeichers (ca. 7 Elemente) mit
verschiedenen menschlichen Leistungen verbunden wurde. Bruner und Goodnow zeigten, dass
sich durchaus Einblicke in die „Black Box“ machen lassen („A study of thinking“; Menschen
verfolgen präzise beschreibbare Strategien, die übergeordneten Zielen dienen). Newell und
Simon programmierten auf informationsverarbeitungstheoretischen Grundlagen den General
Problem Solver, der erstmal einen mathematisch-logischen Beweis mechanisch-symbolisch
ausführte.
4.2 Problemlösen (S. 207-219)
Drei Merkmale einer Problemsituation:
1. Unerwünschte Ausgangssituation ist in angestrebte Zielsituation zu überführen
2. Überführung ist nicht unmittelbar möglich („Barriere“ muss überwunden werden)
3. Überwindung erfordert Problemlösehandlungen.
Typische Beispiele für in der Forschung verwendete Probleme sind Neun-Punkte-Problem,
Turm-von-Hanoi und schultypische Physikaufgaben. Wichtige Kategorien, anhand derer
Problemsituationen charakterisierbar sind, sind:
Gut definiertes Problem
(Ausgangs- und Zielzustand
sind bekannt und genau
beschrieben)
Schlecht definiertes Problem
(Ausgangs- oder Zielzustand oder
beide sind unklar)
Einsichtsproblem (Lösung
hängt vom Gelingen einiger
kritischer Einzelschritte ab)
Transformationsproblem (Durch
längere Abfolge von Schritten
charakterisiert)
Vorwissensarmes Problem
(erfordern kein Wissen, dass
über die Instruktion
hinausgeht)
Problem mit
bereichsspezifischem Vorwissen
(ist ohne Vorwissen nicht lösbar)
4.2.1. Problemlösen wird in der Tradition der Gestaltpsychologie (=> Umstrukturierung; AhaErlebnis) als Informationsverarbeitung, als zielgerichtete Suche im Problemraum
verstanden. Beforscht werden hierbei Problemrepräsentation und Problemlösestrategien.
4.2.1.1.
Gerade bei Transformationsaufgaben wie dem Turm-von-Hanoi eignet sich der
Problemraum als graphische Darstellung der Komplexität eines Problems. Hierbei zeichnet
man einen Graphen, bei dem jeder Knotenpunkt jeweils einen möglichen Zustand (eine
Problemsituation) und jede Kante einen Übergang (Problemlöseschritt) darstellt.
Problemlösen ist dann die Suche nach dem „günstigsten“ Weg vom Anfang zum Ziel.
Dieser Problemraum ist explizit und vollständig. Alle möglichen Zustände und Übergänge
sind darsgestellt. Man erkennt sofort viele Charakteristika des Problems (minimum 7 Züge
nötig, keine Sackgassen, verschiedene Lösungswege). Doch diese theoretische, statische
Beschreibung erleichtert die Analyse dynamischer Abläufe beim Problemlösen, da er hilft,
unterschiedliche Phänomene aus einer einheitlichen Betrachtungsweise zu analysieren.
4.2.1.2.
Forschung mit Problemräumen hat ergeben, dass isomorphe Probleme (die sich auf
identische Problemräume abbilden lassen) nicht gleich schwierig sind. Es wurden fünf
Faktoren gefunden, die die Problemschwierigkeit beeinflussen.
1. Wie einfach sind die Problemlöseregeln zu lernen bzw zu verstehen?
2. Wie einfach sind sie anzuwenden?
3. Wie stark korrespondieren sie mit vorhandenem Weltwissen?
4. Wie stark wird das Gedächtnis belastet? (Bisherige Entscheidungen erinnern)
5. Wie wird der Problemraum subjektiv repräsentiert?
Auswahl und Anwendung von Problemlösehandlungen (es gibt oft mehrere mögliche) ist von
zentraler Bedeutung. Hierbei wurde beobachtet, dass Personen anfangs häufig Heuristiken
verwenden, um den Problemraum bei vorwissensarmen Problemen zu verkleinern („nicht
zweimal die selbe Scheibe verschieben!“). Diese werden bei mehrmaligem Durchführen
durch global formulierte Strategien ersetzt.
4.2.1.3.
Es wird zwischen erschöpfenden (den gesamten Problemraum durchsundenden)
und nicht erschöpfenden (ausschnittsweise vorgehenden) Suchstrategien unterschieden.
Außerdem spricht man von allgemeinen, uninformierten Suchstrategien (breite
Anwendbarkeit auf alle Problemräume, systematische Regeln, Vernachlässigung der
Besonderheiten eines Problems) oder heuristischen Suchstrategien (von Menschen selbst bei
einfachen Problemen angewandt, berücksichtigen problemspezifisches Wissen, bewertet
alternative Problemlöseschritte nach der Unterschiedsreduktion zwischen aktuellem Zustand
und Ziel). Beispiel für eine heuristische Suchstrategie ist die Mittel-Ziel-Analyse:
Bei der Mittel-Ziel-Analyse wird eine vorwärtsgerichtete Suche mit einer
rückwärtsgerichteten Teilzielbildung integriert. Eine andere klassische heuristische
Methode ist das Bilden von Analogien (Lösen mit Hilfe der bekannten Lösung eines analogen
Problems). Diese Problemlösestrategien wurden oft mit der Methode des lauten Denkens
erforscht.
4.2.2. Es werden folgende Formen des Wissens unterschieden:
1. Deklaratives Wissen beschreibt Objekte, Situationen
2. Prozedurales Wissen stellt Operationen zu Nutzung und Erwerb von Wissen zur Verfügung
3. Kontrollwissen steuert das Zusammenspiel von 1 und 2
Man spricht auch von „Wissen, was“, „Wissen, wie“ und „Wissen, wann“. Deklaratives
Wissen wird in Form von Propositionen dargestellt, prozedurales in Form regelartiger
„wenn-dann“-Strukturen, die mit den Inhalten des deklarativen Wissens gefüllt werden. Man
spricht von wissensbasierten Systemen. Mit ihrer Hilfe lassen sich sowohl vorwärts- als auch
rückwärtsverkettendes Problemlösen modellieren. Beim datenorientierten
Vorwärtsverketten werden die Aktionen im Dann-Teil der Regel ausgeführt, wenn die Inhalte
des Wenn-Teils bekannt sind. Beim ziel- oder hypothesenorientierten Rückwärtsverketten
werden so lange alle Bedingungen im Wenn-Teil, die nicht erfüllt sind, als neue Unterziele
definiert, bis alle Bedingungen erfüllt sind (dann folgt vorwärtsverkettendes Problemlösen).
Die Frage nach der kognitiven Architektur ist ebenfalls von Bedeutung, da jede
Informationsverarbeitung ein System voraussetzt, dass sie ausführt (wahrnehmen, speichern,
abrufen, anwenden). Eine bekannte Architektur ist Andersons ACT (Adaptive Character of
Thought),bei der Chunks (als elementare Einheit des deklarativen Wissens) und
Produktionen ( als elementare Einheit des prozeduralen Wissens) mit Stärkeparametern
versehen sind. Diese berechnen sich (u.a.) aus der Häufigkeit ihrer früheren Verwendung und
beeinflussen, ob sie erneut verwendet werden (wenn-dann-Regeln auf höherer Ebene). Lernen
findet statt, wenn Stärkeparameter verändert werden oder völlig neue Produktionen
hinzukommen (ich denke auch neue Chunks sind lernen, aber steht nicht explizit im Buch).
Neue Produktionen werden durch Analogien gebildet.
Fazit: Derartige Modellierungen haben sich als fruchtbar erwiesen, aber ihr Geltungsbereich
sit eingeschränkt (fokussierten zu sehr auf vorwissensarme, gut definierte Probleme)
4.2.3. Die Frage nach dem Wissenserwerb spielt bei neuerer Forschung zum Problemlösen eine
große Rolle. Anderson postuliert drei Phasen:
1. Verwendung deklarativen Wissens: nicht unmittelbar in Verhalten umsetzbar, interpretiert
durch bereichsunspezifische Problemlöseprozeduren
2. Wissenskompilierung: bereichsspezifische Regelbildung; Umwandlung von deklarativem
in prozedurales Wissen
3. Wissensoptimierung: Generalisation, Diskrimination, Verstärkung
Hierbei wird aber der Einfluss des Vorwissens nicht beachtet, der sehr groß zu sein scheint.
Breits auf Basis weniger (teils nur einem) Beispiele erwerben Lernende neues Wissen (=>
Selbsterklärungseffekt).
Dieser Effekt wurde von Chi und Al untersucht. Es ist der Versuch, wo ein Kapitel im
Physikbuch gelesen und dann ein Kapitel klassische Mechanik mit Musterlösungen
durchgearbeitet wurde. Dann mussten die VP selbst Aufgaben lösen. Es ergaben sich zwei
Gruppen (gute und schlechte Problemlöser) die auf ihre Unterschiede hin untersucht wurden.
Die Guten hatten:
1. Bei der Bearbeitung der Musterlösungen mehr Bezug auf die physikalsichen Konzepte
genommen.
2. Dabei auch deutlich mehr eigene Verständnisprobleme artikuliert (Selbstüberwachung)
3. Sich beim Problemlösen seltener, aber dafür gezielter, die Musterlösungen bezogen.
Aus diesen Resultaten haben Chi und Al das Simulationsmodell Cascade zum Verstehen von
Musterlösungen entwickelt. Grundannahme: Schlechte Problemlöser speichern die
Musterlösung ohen weitere Verarbeitung. Gute Problemlöser nutzen die Musterlösung
effizienter. Im (simulierten) Idealfall wird jede einzelne Zeile der Musterlösung auf den
Lehrbuchtext zurückgeführt (Dieser ist als Wissensbasis Teil des Modells). Ist dies nicht
möglich, werden neue Gleichungen aus anderen abgeleitet und ebenfalls gespeichert. Ist auch
dies nicht möglich, gibt es zwei Wege, weiteres Wissen zu erwerben:
1. EBLC (Erklärungsbasiertes Lernen korrekter Lösungsschritte): Hier wird generalisiertes
Allgemeinwissen und naives physikalisches Wissen über Heuristiken für die Verbindung
von beidem verbunden. Wenn dies Erfolg hat, wird es als neue Regel dem Wissensschatz
hinzugefügt
2. Analogie-Abduktion: Von den Konsequenzen einer Regel auf die Gültigkeit ihrer
Voraussetzungen schließen (Also „weil an diesem Punkt der Musterlösung dieser Schritt
ausgeführt wird, muss er richtig sein, wenn so ein Problem vorliegt“). Diese Regeln werden ab
sofort in analogen Situationen angewandt.
Cascade versucht danach, mit dem so erweiterten Wissenschatz, Aufgaben zu lösen. Hier
wird rückwärtsverkettet gesucht (Problemraum sind die bekannten physikalischen
Gleichungen) und bei Sackgassen EBLC angewandt. Abduktion ist nicht möglich, da ja nicht
wie bei Musterlösungen die Konsequenzen bekannt sind. Man merkt also, dass eine gute
Verarbeitung der Musterlösung die Problemlösung erleichtert. Schlechte Problemlöser
können meist nur oberflächliche Analogien ziehen, wenn die Gleichungen des Lehrbuchtextes
nicht ausreichen.
(Bei einer Simulation arbeitete das Modell drei Musteraufgaben durch und entwickelte dabei
acht neue Regeln. Danach konnte es 23 Aufgaben lösen und erneut 15 Regeln ableiten. Ohne
die Elaboration der Musteraufgaben gelang nur die Lösugn von 9 der 23 Aufgaben, wobei nur
drei neue korrekte Regeln abgeleitet wurden).
4.2.4. Die Neurowissenschaftler haben in der letzten Zeit für viele kognitive Prozesse
Hirnkorrelate gefunden und lokalisiert, allerdings kaum für das Problemlösen, Denk- und
Entscheidungsaufgaben. Problemlösen ist neuronal komplex verschaltet und schwer zu
lokalisieren. Sicher spielt der präfrontale Kortex eine Rolle (exekutive Funktion), Studien
zeigten hier eine Beteiligung des fronto-parietalen Systems (rechter dorsolateraler Kortex,
linker inferiorer präfrontaler Kortex sowie bilateraler parietaler und prämotorischer Kortex).
Links- und beidseitige Läsionen behindern die Patienten dabei deutlich mehr als rechtsseitige.
4.3 Expertiseforschung (S. 219-226)
Im Alltag fordern die meisten Probleme von dem Menschen Sachkenntnis, Vorwissen,
sprich: Expertise. Experten haben (im Unterschied zu Novizen) großes Wissen und
herausragende Fertigkeiten in einem bestimmten Bereich, deren Erwerb VIEL Zeit gekostet hat
(deliberate practice). Im folgenden wird Expertiseforschung an drei Themenfeldern erläutert
und danach noch einmal zusammengefasst.
4.3.1. Ihren Ursprung nahm die Expertiseforschung bei Versuchen zum Schachspielen, wo gezeigt
werden konnte, dass Schachmeister Novizen nicht durch Intelligenz, Gedächtnis oder rasches
Denken voraus sind, sondern auf Grund langjähriger Erfahrung. Deshalb haben sie
umfangreicheres und besser organisiertes, bereichsspezifisches Wissen. Sie erinnern bei
kurz gezeigten Schachstellungen auch ein Vielfaches an Figuren (Chi fand, dass dies sogar den
Alterstrend überdecken kann, so dass Schachkinder besser erinnern als erwachsene Novizen).
Diese Befunde wurden darauf zurückgeführt, dass sich Experten wie Novizen rund sieben
Chunks merken können, Experten aber ganze Figurengruppen als einen Chunk speichern.
Novizen nur einzelne Figuren (Chase und Simon). Dies wird auch dadurch belegt, dass Meister
beim Nachbauen einer Stellung nach jedem Blick auf die Vorlage mehr Figuren stellen, als
Novizen. Über die Gruppierung der Figuren zu sinnvollen Einheiten hinaus wird noch
angenommen, dass Meister über Schablonen (templates) verfügen, in denen eine ganze Reihe
ähnlicher Schachstellungen zusammengefasst ist (zentrale Figuren stehen gleich). Dies
erlaubt, deutlich mehr Stellungen und zielführende Züge zu erinnern, ohne deutlich mehr
kognitive Ressourcen zu benötigen (als Beleg mussten Schachmeister gegen viele Novizen
zugleich spielen und konnten deshalb nicht jeden Zug in jeder Partie lange bedenken. Dennoch
war ihr Spiel kaum schlechter als gegen einen Gegner, da sie eben über templates schnell auf
die meisten Routine-Reaktionen zugreifen können). Die Überlegenheit von Schachmeistern ist
also auf ihre langjährige Erfahrung und ihr breites Wissen zurück zu führen. Dass diese
Meister mittlerweile von Computern an die Wand gespielt werden liegt an der unvorstellbaren
Speicherleistung der Computer.
4.3.2. Ein weiteres Themenfeld ist die Physik, wo sich zeigt, dass Experten meist
vorwärtsverkettende Lösungsstrategien anwenden. Dies ist ihnen nur möglich, da sie über
großes Fachwissen verfügen und deshalb wissensbasierte Entscheidungen für jeden
Problemschritt treffen können (bei genug Vorwissen entwickelt der Experte auch
bereichsspezifische Problemlöseschemata). Novizen dagegen müssen rückwärtsverkettend
Suchen. Sie betrachten die unbekannten gesuchten Größen und versuchen, Gleichungen zu
finden, in denen diese Vorkommen (was dann nach rekursivem Anwenden dazu führen kann,
dass man den Überblick vollkommen verliert). Außerdem verwechseln Novizen Konzepte wie
Geschwindigkeit und Beschleunigung, da ihnen die Routine fehlt (Novizen Suchen also
uninformiert im Problemraum, während Experten sozusagen heuristische Suchstrategien
anwenden).
Ebenso wie beim Schach erlaubt das größere Vorwissen den Physikexperten auch, flexibler
auf neue Probleme zu reagieren. Chi zeigte auch, dass Experten Probleme viel sinnvoller
klassifizieren als Novizen, wenn die diese nach Ähnlichkeit klassifizieren sollen. Novizen
nutzten oberflächliche Merkmale („sich drehendes Objekt“), während Experten die Probleme
gruppierten, denen die gleichen physikalische Gesetze zu Grunde lagen.
Ein weiterer Aspekt ist die unterschiedliche Problemrepräsentation. Experten repräsentieren
Probleme auf zwei Arten: quantitativ-numerisch (das tun auch Novizen) und qualitativkonzeptuell. Ersteres beinhaltet (bei physikalischen Aufgaben) vor allem Gleichungen,
während letzteres z.B. die Information beinhaltet, welche Kräfte auf einen Körper im System
einwirken. Das Wissen, das für korrekte qualitative Repräsentationen nötig ist, besitzen
Novizen nicht, sie sind also gezwungen, das Problem ganz auf der abstrakten Ebene der
Gleichungen zu lösen (Das ist schwer und geht oft schief).
Novizen haben zudem oft naive Alltagskonzepte von physikalischen Phänomenen, die von der
wissenschaftlichen Sicht abweichen. Experten haben gelernt, wie sich diese Phänomene
wirklich erklären lassen und machen deshalb keine Fehler auf Grund falscher Grundannahmen.
Expertise-Erwerb im Bereich der Physik hat (laut Spada-Forschung!) drei Phasen:
1. Novize hat naiv-qualitatives Alltagswissen (im Alltag nützlich und deshalb robust)
2. Novize erlernt quantitativ-numerisches und qualitativ-konzeptuelles Wissen (in der
Schule oft zu wenig qualitatives, weshalb Phase 3 schwer zu erreichen ist)
3. Der Experte hat konsolidiertes qualitatives und quantitatives Wissen.
4.3.3. Auch Mediziner sind (hoffentlich) Experten und wurden diesbezüglich beforscht. Diagnose
und Behandlung kann man als Problemlösehandlung betrachten, aber Expertise auf diesem
Feld geht nicht unbedingt einher mit allgemein hohen Problemlösefertigkeiten. Vielmehr ist es
erneut großes bereichsspezifisches Fachwissen, das Experten auszeichnet, und auf dem
Diagnose- und Therapiestrategien aufbauen. Diese Wissensstrukturen werden während dem
Studium und zu beginn der beruflichen Tätigkeit aufgebaut und lassen sich den
Expertisestufen Anfänger (=Novize), Übergangsstadium und Experte zuordnen.
Anfänger erwerben ein weit verzweigtes aber nur lose verknüpftes Wissensnetzwerk
(Anatomie, Bio, Chemie) und können medizinische Fachprobleme kaum und nur langsam
lösen, da sie ihr Wissen sehr weiträumig durchsuchen müssen.
Im Übergangsstadium wird das Wissen sicherer und vor allem enger verknüpft.
Zwischenschritte von Begründungen werden ausgeblendet (Einkapselung) und umfassendere
Konzepte werden gebildet. Dies erlaubt den Medizinern rasche Entscheidungen ohne das all
ihr Wissen berücksichtigt werden muss.
Experten bilden schließlich Krankheitsschemata aus, wodurch die Diagnose routiniert wird.
Wenn einzelne Elemente des Schemas in der Anamnese auftreten wird das ganze
Krankheitsschema aktiviert (vergleichbar mit den templates der Schachforschung und den
bereichsspezifischen Schemata der Phsysikexperten)
4.3.4. Fazit: Knowledge is Power. Experten sind Novizen nicht kognitiv überlegen, sondern
auf Grund ihres Domänenspezifischen Wissens. Hierbei zählt nicht nur die Menge, sondern
auch die Organisation (sie ermöglicht schnellen Zugriff und simultane Verarbeitung).
Dadurch sind die Gedächtnisleistungen und Problemlösefertigkeiten von Experten auf ihrem
Fachgebiet besser als die von Novizen. Zentral scheint der Übergang von deklarativem
Wissen (über Fakten) auf prozedurales Wissen (wie Operationen auszuführen sind), also die
Wissenskompilierung nach Anderson (=> Abschnitt 4.2.3). Belege hierfür finden sich auch in
der Forschung zu den einzelnen Fachgebieten. Ein Indikator für den Erwerb von Expertise
kann ein Wechsel in der Problemlösestrategie sein (Vorwärtsverkettung =>
Rückwärtsverkettung). Dieser Wechsel muss nicht immer quantitativer Natur sein, wenn sich
grundlegende Konzepte ändern kann es auch zu qualitativen Sprüngen kommen (conceptual
change). Newell nennt es „Chunking von Prozeduren“, wenn nach häufigem Ablauf der selben
Sequenz ein Operator entsteht, der diese Abfolge automatisiert ablaufen lässt (routiniert,
aber auch unreflektiert!). Dies kann auch dazu führen, dass Experten die einzelnen Teilschritte
ihrer Problemlösung nur noch schwer verbalisieren und hinterfragen können (bis zu dem
Punkt, wo aus Routine festgefahrene Bahnen werden, die die Flexibilität einschränken).
4.4 Deduktives Denken (S. 226-242)
Beim deduktiven Denken werden aus als gültig vorausgesetzten Prämissen
Schlussfolgerungen gezogen. Diese sind dann zwingend gültig (wenn die Prämissen
tatsächlich gültig sind). Beforscht werden die Fragen, ob Personen ohne spezielle Vorbildung
Kompetenzen besitzen, die ihnen erlauben, logische Schlüsse zu ziehen, ob es systematische
Fehler (biases) gibt und welche mentalen Repräsentationen und Schlussmechanismen
richtigen und falschen Schlüssen zu Grunde liegen. Hierzu müssen VP sprachliche Argumente
auf ihre logische Gültigkeit hin beurteilen oder selbst Schlussfolgerungen aus einer Menge an
Prämissen ableiten.
4.4.1. Ein logischer Kalkül ist ein System von Regeln zur Formulierung von Ausdrücken und
zur Ableitung neuer Ausdrücke aus gegebenen Ausdrücken. Ein Kalkül transportiert die
Gültigkeit von Prämissen auf Konklusionen, garantiert aber nicht die Gültigkeit der
Prämissen. Der bekannteste Kalkül ist die Prädikatenlogik, aus der ein Ausschnitt, die
Aussagenlogik im Folgenden näher betrachtet wird.
Die Ausdrücke dieses Kalküls folgen einer Syntax. Zu Grunde liegen hierbei atomare
Aussagen, die entweder wahr oder falsch sein können (abgekürzt mit A, B, C, ...).
Syntaktisch korrekte Aussagen sind deshalb in diesem System zum einen die atomaren
Aussagen und die beiden Wahrheitswerte („wahr“ und „falsch“) sowie die folgenden
Aussagen mit logischen Operatoren (wenn A und B korrekt sind):
Diese Regel gilt rekursiv (wenn „A und B“ und „C und D“ korrekt sind, dann ist auch „Wenn
A und B, dann C und D“ korrekt). Komplexe Aussagen lassen sich durch Kombination dieser
Aussagen repräsentieren. Ob eine syntaktisch korrekte Aussage aber auch gültig ist, ist damit
noch nicht geklärt. Hierfür werden zwei Methoden vorgestellt, die modelltheoretische
Methode und die Methode der natürlichen Abduktion:
Bei der modelltheoretischen Methode wird versucht, die Bedeutung logischer Operatoren
durch Wahrheitstafeln zu definieren. Diese Wahrheitstafeln enthalten alle möglichen
Kombinationen der Wahrheitswerte der atomaren Aussagen; der Wahrheitswert einer
komplexen Aussage wird dann auf die Wahrheitswerte ihrer atomare Aussagen zurükgeführt.
Interessant ist hier vor allem, dass ein Konditional „wenn P, dann Q“ nur dann als falsch
angesehen werden kann, wenn das Antezedens P wahr, die Konsequenz Q aber falsch ist. Mit
Wahrheitstafeln kann man prüfen, ob zwei Aussagen logisch äquivalent sind (gleiche
Wahrheitswerte), ob eine Schlussfolgerung zwingend ist (Gegenteil ist unmöglich) und ob
eine Menge von Aussagen widerspruchsfrei ist (mindestens eine Kombination, in der die
Konjunktion aller Aussagen wahr ist).
Die Methode der natürlichen Deduktion orientiert sich am mathematischen Beweis.
Zentrales Element sind Schlussregeln, die jeweils aus einer oder mehreren Aussagen und
einer Folgerung bestehen. Mit diesen Regeln wird Schritt für Schritt ein logischer Beweis
geführt. Die Schlussregeln folgen dabei einer Systematik, für jeden logischen Operator gibt
es eine Einführungsregel und eine Eliminationsregel. Darüber hinaus gibt es die Regel der
Reductio-ad-absurdum, was bedeutet dass „nicht P“ wahr ist, wenn aus „P“ ein Widerspruch
folgt.
Es ist jederzeit möglich, eine Annahme zur Gültigkeit einer Aussage zu machen („sagen wir
mal, A wäre wahr...“), ob diese wieder verworfen werden muss zeigt sich dann in der Folge.
Die Gültigkeit eines Arguments kann bewiesen werden, in dem man die einzelnen Regeln
geschickt kombiniert. Hier ein Beispiel, in dem auch eine neue Annahme gemacht wird:
In der Forschung kann man die atomaren Aussagen entweder nur als Buchstaben darstellen
(wie hier), um zu beweisen, dass Personen die logischen Operatoren abstrakt nutzen können
und um zu ergründen, ob sie eher modelltheoretisch oder beweistheoretisch vorgehen, oder
man stellt inhaltliche Aufgaben, für die man Prämissen mit identischen logischen
Operatoren konstruiert und gezielt den Inhalt der As und Bs variiert, um eventuelle
Inhaltseffekte zu finden. Diese beiden Methoden werden weiter unten erklärt.
4.4.2. Als Grundlage für den folgenden Teil (konditionales Schließen) müssen zuerst die vier
folgenden Schlussfiguren erläutert werden. Auf der Basis dieser Schlüsse wird erforscht, ob
Personen mentale Modelle oder mentale Regeln nutzen, wenn sie schlussfolgern.
Modus Ponens (MP) –
Aus „Wenn P, dann Q“ und „P“
aussagenlogisch gerechtfertigt schließe „Q“
Modus Tollens (MT) –
Aus „Wenn P, dann Q“ und
aussagenlogisch gerechtfertigt „nicht-Q“ schließe „nicht-P“
Negation des Antezedens
(NA) – aussagenlogisch nicht
gerechtfertigt
Aus „Wenn P, dann Q“ und
„nicht-P“ schließe „nicht-Q“
Affirmation der Konsquenz
(AK) – aussagenlogisch nicht
gerechtfertigt
Aus „Wenn P, dann Q“ und „Q“
schließe „P“
Die letzte beiden Schlüsse sind nicht logisch gerechtfertigt (die ersten beiden schon).
Dennoch werden sie häufig von Menschen gezogen. Versuche ergaben, dass der Modus
Ponens konstant von fast allen VP gezogen werden kann, dass sich die Anzahl derer, welche
die anderen drei Schlüsse ziehen jedoch ändert, wenn man verschiedene Teile des Konditionals
negiert. Es zeigte sich, dass sowohl der MT als auch die beiden Fehlschlüsse NA und AK
weniger oft gezogen werden, wenn sie zu einer affirmativen Antwort führen (negative
conclusion bias). Aus „Wenn nicht-P, dann Q“ und „Q“ folgern ca. 80% der VP „nicht-P“,
während nur ca. 40% aus „Wenn nicht-P, dann Q“ und „nicht Q“ „P“ folgern (abstrakt!).
Die markierten Prozentwerte sind jene, bei denen die negierte Konklusion zu ziehen war. Es
gibt also trotz grundlegender logischer Kompetenzen systematische Abweichugenn von der
Logik als Norm. Die beiden Theorien von den mentalen Modellen bzw. den mentalen
Regeln sind Ansätze, die versuchen, das Schlussfolgern von Menschen unter Berücksichtigung
der starken Wirkung der Negation zu erklären.
Die Theorie der mentalen Modelle postuliert, dass Menschen die Bedeutung der Prämissen
in einem mentalen Modell repräsentieren und daraus logische Folgerungen ableiten. Ein
mentales Modell ist dabei eine Repräsentation der Situationen, die durch die Prämissen
beschrieben werden. Der Prozess des Schließens besteht hier aus drei Schritten:
1. Ein initiales Modell wird gebildet (Die Information aus allen Prämissen wird integriert)
2. Antwortgenerierung aus diesem Modell
3. Antwort wird an allen weiteren Modell validiert (Nur wenn sie für alle Modelle gilt, ist sie
logisch zwingend)
Die folgende Grafik demonstriert die hier üblichen Schreibweisen. Eine Aussage in [eckigen
Klammern] ist eine Aussage, zu der es keine weitere Modelle gibt, während eine Aussage
ohne Klammern noch in weiteren Modellen vorkommen kann. Logischerweise sind alle
Aussagen der vollständigen Modelle in [eckigen Klammern], da man sonst ja nicht von
Vollständigkeit sprechen könnte.
Diese Darstellungsform zeigt bereits, dass sich die Theorie der mentalen Modell eng am
modelltheoretischen Schlussfolgern orientiert. Änderungen sind, dass nur Modelle gebildet
werden, die mit der Gültigkeit der Prämissen vereinbar sind (Prinzip der Wahrheit), dass
ein Mechanismus formuliert wird, wie eine Aufgabe konkret angegangen wird (oben
genannter Dreischritt) und dass zwischen initialen und vollständigen Modellen unterschieden
wird.
Da Menschen Modelle nicht parallel sondern sequenziell bilden (Arbeitsgedächtnis!) kann es
(gerade bei vielen Modellen) passieren, dass einzelne Modelle vergessen werden.
Die Theorie der mentalen Modelle erklärt die Einfachheit des MP also damit, dass nur ein
Modell gebildet werden muss (das erste Modell [A] [3] reicht aus, um „Wenn A, dann 3“ und
„A“ zu integrieren). Die AK ist ebenso leicht zu bilden (wenn auch falsch), was erklärt,
warum diese am zweit häufigsten gezogen wird. Um MT und NA zu ziehen, muss das dritte
Modell [-A][-3] gebildet werden (auch hier: der NA-Schluss ist dann trotzdem falsch).
Warum der negative conclusion bias existiert, ist noch nicht endgültig geklärt, aber eine
Annahme ist, dass es mit der doppelten Verneinung zu tun hat, die im dritten Modell
aufgelöst werden muss, wenn [-A] statt [A] gegeben ist. Das würde erklären, warum vor allem
MT und NA von diesem Phänomen betroffen sind. (Dieses Modell war für die Forschung
sehr fruchtbar und hat nebenbei noch das Phänomen der illusionären Inferenz ans Licht
gebracht: Wenn entweder gilt „Wenn A, dann B“ oder „Wenn nicht-A, dann B“ und außerdem
sicher gilt „A“, kann man nicht sagen ob „B“ gilt, obwohl das fast alle Menschen dann
schlussfolgern).
Auch die Theorie der mentalen Regeln orientiert sich eng en einer bereits besprochenen
Methode, der Methode der natürlichen Deduktion. Auch hier wird postuliert, dass allgemeine
Regeln angewandt werden. Bei Rips (PSYCOP) handelt es sich um Einführungs- und
Eleminationsregeln. Die Reductio-ad-absurdum wird hier in die „Nicht-Einführung“ und die
„Nicht-Elimination“ aufgeteilt, je nach dem, ob die Annahme, aus der ein Widerspruch
abgeleitet wird positiv oder negiert war. Doppelte Negationen werden aufgelöst (Aus „nichtnicht-P“ schließe „P“).
Rips geht davon aus, das Menschen einen logischen Beweis vorwärts und rückwärts angehen,
wobei Vorwärts-Regeln direkt logische Schlüsse aus bekannten Aussagen ziehen, während
Rückwärts-Regeln Beweisziele definieren. Wenn das Beweisziel mit den Prämissen
verbunden werden kann, ist ein logischer Beweis gelungen (auch hier werden Annahmen
gemacht, die sich als wahr oder falsch erweisen können). Je mehr Regeln angewandt werde
müssen, desto schwerer ist ein Beweis.
Auch diese Theorie kann die Befunde zum Konditionalen Schließen erklären. Der MP ist
einfach, da er exakt der „Wenn-Dann-Elimination“ entspricht. Der MT erfordert dagegen
die Kombination mehrerer Schlussregeln (incl. Reductio-ad-absurdum). Für NA und AK
erklärt das Modell den Fehlschluss dadurch, dass die VP das Konditional zu „Wenn Q, dann
P“ umkehren. In einem solchen Konditional entspricht der AK einem einfachen MP und die
NA einem MT. Entsprechend werden MP und AK häufiger gezogen als MT und NA (again:
AK und NA sind falsch).
Der negative conclusion bias kann dadurch erklärt werden, dass der MP und die AK von
einer Negation unberührt bleiben, bei der Herleitung des MT und der NA aber eine doppelte
Negation in der Reductio-ad-absurdum aufgelöst werden muss – auch wenn das in PSYCOP
kein Problem sein sollte, da es eine Regel zur Vermeidung doppelter Negierung enthält (nichtElimination). Untersuchungen haben jedoch gezeigt, dass diese Regel, ebenso wie die NichtEinführung und die Oder-Einführung (welche die Präzision einer Formulierung reduziert),
von VP kaum verwendet werden. Die Anwendung der anderen Regeln konnte jedoch in
Experimenten empirisch untermauert werden, und auch Versuche zum lauten Denken
sprechen dafür.
Es finden sich empirische und theoretische Argumente für und gegen beide hier vorgestellten
Theorien finden. Gegen die Theorie mentaler Modelle spricht z.B., dass es sehr einfache
Problemstellungen gibt, die sich sofort lösen lassen, obwohl sie hunderte von Modellen
benötigen müssten. Gegen die Theorie mentaler Regeln spricht der Effekt, dass eine
entsprechende inhaltliche Bedeutung der Aussagen sogar den MP-Schluss auf unter 40%
drücken kann (Inhaltseffekt). Vermutlich verwenden Menschen je nach Situation eine der
beiden Strategien („Wann welche?“ ist die Frage).
4.4.3. Der eben erwähnte Inhaltseffekt wirft die Frage auf, ob Theorien deduktiven Denkens
bereichsübergreifend oder bereichsspezifisch konzipiert werden sollten. Als experimentelles
Paradigma haben sich hier Versionen von Wasons Wahlaufgabe durchgesetzt:
In der ursprünglichen Version sah man vier Karten, die auf der einen Seite Zahlen, auf der
anderen Buchstaben hatten. Die Symbole A, K, 5 und 8 waren zu sehen. Die Regel dazu lautet
„Wenn auf der einen Seite ein A ist, ist auf der anderen eine 5.“ und die Probanden müssen
entscheiden, welche Karten umgedreht werden müssen, um zu überprüfen, ob die Regel
verletzt wird (korrekte Lösung: A und 8). Weniger als 10% der Leute können diese Aufgabe
lösen.
Man kann den abstrakten Inhalt der Aufgabe nun aber durch konkreten Inhalt ersetzen,
z.B. in dem man als Regel „Wenn die Gemeinde einen Zuschuss zahlt, dann modernisiert der
Hausbesitzer die Heizung“ formuliert und auf die Karten die Aussagen „Bekam einen
Zuschuss“, „Bekam keinen Zuschuss“, „Modernisiert“ und „Modernisiert nicht“ druckt. In
Diesem Fall lösten 50% der VP die Aufgabe korrekt, bei stärker normativen Regeln sogar
70% (obwohl das Konditional exakt gleich ist).
Evolutionspsychologen gehen davon aus, dass es sich um einen Beleg für bereichsspezifische
Kompetenzen handelt, die sich evolutionär herausgebildet haben. Sie verwenden die
Analogie eines Schweizer Taschenmessers, bei dem man viele spezifische Module hat, die
unspezifischen Mechanismen vorgezogen werden, falls sie greifen. In diesem speziellen Fall
gehen sie davon aus, dass Menschen bei der Entwicklung von Kooperation gelernt haben,
Betrüger zu entlarven. Sie haben eine Version der Wahlaufgabe erfunden, die mit der
inhaltlichen identisch ist, aber bei der am Ende gefragt wird, welche Karten man drehen muss,
um zu erfahren, ob die Gemeinde die Regel verletzt. Dies ist überhaupt nicht möglich,
dennoch wählen die meisten VP die beiden Karten, die im ursprünglichen Versuch falsch
waren. Fragt man die VP allerdings, ob die Gemeinde die Regel verletzen kann, so antworten
die meisten mit „Nein“. Es wäre also möglich, dass sie das Konditional im Kopf umgedreht
haben, um es zur Perspektive passend zu machen.
All diese Befunde sind außerdem selbst dann keine Belege für eine evolutionäre Theorie,
wenn sie sich als stichhaltig erweisen, da sie nur zeigen, dass bereichsspezifisches Denken
über unspezifische Schlussmechanismen dominiert. Dieses Denken könnte sich ein Mensch
jedoch auch in der individuellen Lerngeschichte angeeignet haben.
Hierzu haben Beller und Spada (!) den Zwei-Quellen-Ansatz geschaffen. Er postuliert, dass
die syntaktische Form eines Arguments die eine Quelle für logische Folgerungen ist,
während der Inhalt der Aussagen die zweite Quelle ist. „Wenn Petra in Paris ist, ist sie im
Louvre. Sie ist nicht in Paris, also ist sie nicht im Louvre“ ist eigentlich eine NA, also falsch.
Unsere Inhaltskompetenz erlaubt uns jedoch, zu verstehen, warum die Aussage wahr ist.
Die Schlussfolgerungen aus beiden Quellen können sich decken, oder nicht. Der Inhalt kann
also formal korrekte Antworten erleichtern, oder unterdrücken (wie hier). Personen wissen
außerdem, wann ein Konditional zum Inhalt passt (Formkompetenz).
Im Beispiel mit den Heizungen heißt das: Das inhaltliche Wissen, dass zu Grunde liegt, ist das
Wissen um konditionale Versprechen („Wenn du..., dann gebe ich dir...“). VP besitzen die
Formkompetenz, zu wissen, dass die Gemeinde in dem Bespiel ihr Versprechen gar nicht
brechen kann, doch der Inhaltseffekt überwiegt, wenn man sie bittet, die Perspektive der
Hausbesitzer zu übernehmen. Sie interpretieren dann die Regel als umkehrbar und wählen die
entsprechenden Karten.
Der Zwei-Quellen-Ansatz ist keine eigene Theorie, sondern eine Überlegung, die von anderen
Theorien berücksichtigt werden soll. Auch neuropsychologische Untersuchungen deuten
darauf hin, dass inhaltsneutrale Schlüsse in anderen Hinrarealen gezogen werden als
inhaltliche.
4.4.4. Die Forschung weist auf Kompetenzen zu deduktiven Schlüssen ebenso hin wie auf
systematische Einflüsse logisch irrelevanter Merkmale. Theorien müssen beiden Aspekten
gerecht werden. Das menschliche Denken folgt nicht in jeder Schlussfolgerung den Maßstäben
der Logik. Es ist aber auch nicht irrational und chaotisch. Man spricht von begrenzter
Rationalität (bounded rationality).
Herunterladen