Kapitel 4: Problemlösen, Denken und Entscheiden 1. Historische Entwicklungslinien 4.1.1. Würzburger Schule der Denkpsychologie (ca. 1900) Historische Anfänge - Aristoteles: Wahrnehmungen (der Außenwelt) entsprechen den Vorstellungen der Seele Vorstellungen sind bewusst Vorstellungen untereinander verbunden zu Assoziationen - Anfänge der Psychologie Denken vollzieht sich als bewusster, aber nicht steuerbarer Prozess durch Assoziationen von Vorstellungen Psychologie begann mit Experimenten zu subjektiven Empfindungen, der Psychophysik Würzburger Schule (gegen assoziationspsychologische Deutung) – Methode der Introspektion - Keine philosophischen Ableitungen, sondern empirische Erforschung von Denkvorgängen - Denken (wie auch Entstehung von Gefühlen) vollzieht sich in nicht anschaulichen (= dem Subjekt zugänglichen) Bewusstseinsinhalten; Denken an sich geht ohne Bewusstsein vonstatten, Bewusstseinsakt stellt sich nach dem Denkprozess ein, Vorgänge beim Urteilsfinden nicht zugänglich MAYER & ORTH (1901): - untersuchten die qualitativen Eigenschaften von Assoziationen MARBE (1901): - Was spielt sich bei Schätzurteilen (z.B. Gewichtsprüfungen) zwischen Aufgabenstellung und Abgabe des Urteils im Geiste ab? => VPen können keine Aussage zur Urteilsfindung machen WATT (1905): Phasen der Urteilsfindung (von der Aufgabenstellung bis zur Antwort) 1) Vorbereitungsphase 2) Zu bedenkende Problemstellung / Sachverhalt 3) Suche nach der Antwort 4) Antwort Phase 1 läuft bewusst ab; ist sie erfolgreich, laufen die restlichen Phasen unbewusst und automatisch ab. ACH (1905): - Vorbereitungsphase gibt entscheidende Richtung für anschließende Denkprozesse und Handlungsvorbereitung vor = determinierende Tendenz - heutige Sicht: Phänomen der Aufmerksamkeit wurde betrachtet BÜHLER: Bewusstseinsprozess tritt erst nach Ablauf des Denkprozesses ein (Denken ohne Bewusstsein; Aha-Erlebnis) Kritik an der von der Würzburger Schule: - Verfolgen der Methode der Introspektion als zu leicht verfälschbar und fehleranfällig 1 4.1.2. Denken aus Sicht der Gestaltpsychologie FREUD: Denken ist geistiges Probehandeln wurde von den Gestaltpsychologen aufgegriffen Gestaltgesetze - Wahrnehmung basiert auf Gestaltgesetzen: Einzelheiten eines Objekts werden unter der Wirkung von Gestaltgesetzen erkannt und interpretiert „Das Ganze (die Gestalt) ist mehr als die Summe der Teile“ Annahmen: - Denken als geistiges Probehandeln ist kein Trial-and-Error, sondern ein systematisch ablaufender Vorgang (systemat. von Prinzipien geleitet) => Prinzip der guten Gestalt - …auf das Problemlösen angewandt: Personen sind mit unbefriedigter Gestalt konfrontiert (= dem Problem), welche es in eine gute Gestalt zu überführen gilt (= die Lösung) => Umstrukturierung (von schlecht nach gut) Wichtigster Forscher: MAX WERTHEIMER KÖHLER (1921): Versuch mit Schimpansen, die vor dem Problem standen, eine in unerreichbarer Höhe platzierte Banane zu erreichen. Im Käfig befanden sich Kisten, die aufeinander gestapelt werden konnten. Nach versuchsweisem Probehandeln folgt gedankliches Probehandeln (Umstrukturierung der Situation, durch Kistenstapeln, als Möglichkeit zur Überwindung des Hindernisses versucht: schlechte Gestalt = unerreichbare Frucht); erfolgt die Einsicht, wird das Handeln ausgeführt DUNCKER (1935): - Problemlöseprozesse beim Menschen sind zielgerichtet - Gelingt Problemlösung nicht auf Anhieb, werden Teilziele definiert - Um den Fortschritt zu kontrollieren, wird die Entfernung zum Endziel immer abgeschätzt Ursprung der MZA? WALLAS (1926): 4 Phasen des Problemlöseprozesses 1) Vorbereitung: Informationssammlung mit vorläufigen Lösungsversuchen (Probehandeln) 2) Inkubation: Beiseitelegen des Problems für eine Unterbrechung 3) Erleuchtung: Der Schlüssel zur Lösung erscheint (Einsicht bzw. Aha-Erlebnis) 4) Verifikation: Überprüfung der Richtigkeit der Lösung DUNCKER (1935): - Vorwissen ist oftmals nötig, kann für die Problemlösung aber auch hinderlich sein: durch Vorwissen zieht man bestimmte Umstrukturierungsmöglichkeiten nicht in Betracht Funktionale Gebundenheit: Vorwissen bewirkt eine mentale Blockierung einem Objekt gegenüber, das zur Problemlösung in ungewohnter Weise benutzt werden muss (siehe Pendelaufgabe) BIRCH & RABINOWITZ (1951): Pendelaufgabe - Versuch, bei dem zwei Seile miteinander verknotet werden müssen, die zu weit auseinander hängen, als dass dies ohne Hilfsmittel möglich wäre 2 - Gewohnte Gegenstände (Schalter, Relais) müssen (zu einem Pendel) umfunktioniert wer Hatten die Versuchspersonen im Vorversuch einen der beiden Gegenstände in gewohnter Weise benutzt, so benutzten sie für das Seilproblem jeweils den anderen Gegenstand (Gegenstand scheint in seiner Funktion gebunden zu sein) Frühere Erfahrung kann unverzichtbare Wissensgrundlage für spezifische Problembereiche liefern, sie kann aber auch durch starke Bindung an Situationskontexte den Transfer auf neue Problemsituationen erschweren. NS-Machtergreifung 1933 beendet die Berliner Schule der Gestaltpsychologie. 1.3. Die Kognitive Wende zur Psychologie der Informationsverarbeitung Zuvor: Behaviorismus dominierte die Psychologie seit Anfang des 20 Jhdt.s Beschränkung der Forschung auf beobachtbares Verhalten Keine Erforschung von Denken und Problemlösen Paradigmenwechsel ab 50er Jahre = Kognitive Wende Menschenbild: Mensch als informationsverarbeitendes System: - verfügt über Eingangs- und Ausgangskanäle - Speicherung und Transformation von aufgenommener Information - Wechselwirkung zwischen Mensch und Umwelt: Mensch nimmt Info aus der Umwelt auf, verarbeitet sie und handelt wiederum (entsprechend der Infos) in der Umwelt Abhängigkeit vom inneren Zustand Gründe für den Paradigmenwechsel in der Psychologie: - Fortschritte in Mathematik, Logik und Computerwissenschaften (gute Verknüpfung mit Psychologie) - Computer-Metapher: Das menschliche Gehirn wird als biologische Rechenmaschine wahrgenommen Psychologie konnten mit formalen Wissenschaften (Mathe, Logik, ...) und biologischen Wissenschaften verknüpft werden MILLER (´56): “The magical number 7, plus or minus 2” - Ganz unterschiedliche menschliche Leistungen hängen mit der Kapazität zusammen, mit der wir Infos kurzfristig präsent halten. BRUNER & AUSTIN (1956): “A study of thinking” über die Begriffsbildung - Personen verfolgen unterschiedliche, aber präzise beschreibbare Strategien, welche zur Erfüllung übergeordneter Ziele dienen (Entlastung des Gedächtnisses, Minimierung möglicher Fehler) - keine „Black Box“, sondern Prozesse der Info-Verarbeitung NEWELL & SIMON (1956): “Logic Theorist“ - programmierte Rechenmaschine, die einen mathematisch-logischen Beweis mechanisch und symbolisch ausführte (später „General Problem Solver“ genannt) 4.2 Problemlösen 3 Merkmale als kennzeichnend für Problemsituationen: (1) unerwünschte Ausgangssituation, die i. eine angestrebte Zielsituation zu überführen ist (2) keine unmittelbare Überführung möglich („Barriere“ vorhanden überwinden) (3) Überwindung erfordert Durchführung von Problemlösehandlungen 3 Klassische Problemstellungen (Beispiele für Problemklassen): - Neun-Punkte-Problem (Einsichtsproblem => 1 Lösungsschritt) - Turm-von-Hanoi (Transformationsproblem => mehrere Lösungsschritte) - Physikaufgaben (ebenfalls Transformationsproblem) Gut definierte Probleme: Ausgangssituation + Ziel sind bekannt und genau beschrieben, können aber nicht direkt gelöst werden Bei schlecht definierten Problemen können der Anfang, das Ziel oder beide unklar sein (z.B. Probleme der Gestaltung oder künstlerische Probleme). Häufig sind auch die möglichen Problemlösehandlungen unklar oder unbekannt Verschiedene Arten von Problemen: - Einsichtsproblem: Problemlösung hängt vom Gelingen einiger weniger kritischer Einzelschritte ab (z.B. Neun Punkte Problem) - Transformationsproblem: Entscheidend für Problemlösung ist eine längere Abfolge von Schritten (z.B. Turm v. Hanoi, Physikaufgabe) - Vorwissensarme Probleme: erfordern für ihre Lösung kein spezifisches Wissen, das über die in der Instruktion gegebene Info hinausgeht (z.B. Neun-Punkte Problem, Turm v. Hanoi) - Bereichsspezifisches Vorwissen: benötigt z.B. bei vielen Physikaufgaben Aspekte von Problemen sind demnach: - Grad an benötigtem Vorwissen - Anzahl an Lösungsschritten (s.o.) - Detailliertheit der Problemdefinition (inkl. Bekanntheit der Lösungsschritte) 4.2.1. Problemlösen als Informationsverarbeitung - Gestaltpsychologie war die Erste, die sich mit den Vorgängen des Denkens und Problemlösens beschäftigt hat Theoretische Auffassung: Umstrukturierung einer Problemlösesituation von einer gegebenen schlechten in eine gesuchte gute Gestalt Problemlöseaktivitäten als Prozess der Infoverarbeitung: seit Mitte des 20. Jhdt.s - Forschungsaspekte: Problemrepräsentation; Analyse der Problemlösestrategien - Bevorzugtes Untersuchungsmaterial: Denksportaufgaben - Newell & Simon (´72): Human problem solving Problemlösen als zielgerichtete Suche in einem Problemraum (bis heute einflussreich; Bsp.: Turm v. Hanoi-Problem (ToH-Problem)) 4.2.1.1 Problemraum und Problemsuche (NEWELL & SIMON, 1972) Zentrale Konzepte: Problemraum und Suche Problemraum: Alle möglichen Zustände, die ein Problem vom Anfangszustand bis zum Zielzustand annehmen kann. - Netzwerk, in dem die Knoten für einzelne Problemzustände stehen und die Kanten zw. den Knoten die Transformations-, d.h. Lösungsschritte (Übergänge) von einem Problemzustand zu einem anderen repräsentieren. Lösen eines Problems entspricht der Suche eine i.d.R. möglichst günstigen Weges vom Anfangs- zum Zielzustand Was hat man von Problemanalyse durch Problemräume? - Anforderungen eines Problems können bestimmt werden (z.B. Anzahl möglicher Zustände, Art der Problemlösehandlungen 4 - in empirischen Studien können Problemräume die Problemlöseaktivitäten von Personen protokollieren, analysieren und bewerten helfen - Theoretischer Begriff: - Problemräume sind gedankliche Konstruktionen und immer auch Abstraktionen kein eindeutiger Raum, sondern best. „Sicht“ auf das Problem mehrere Problemräume zu einem Problem sind denkbar - oft sind sie sehr komplex und daher schwer visualisierbar Fazit: Der theoretische Begriff des Problemraums stellt Vorstellungen, Begriffe und Methoden bereit, um viele auf den ersten Blicke unterschiedliche Phänomene aus einer einheitlichen Betrachtungsweise heraus zu analysieren 4.2.1.2. Mentale Anforderungen beim Problemlösen - Die Gestalt des Problemraums ist nicht der einzige Faktor, der die Schwierigkeit eines Problems bestimmt (da dieser nur eine abstrakte Repräsentation d. Problems darstellt). isomorphe (auf den gleichen Problemraum abbildbare) Probleme sind nicht notwendigerweise gleich schwer 5 Faktoren beeinflussten bei Kovotsky et al. die Problemschwierigkeit: 1) wie einfach Problemlöseregeln gelernt/verstanden werden 2) wie einfach die Regeln anzuwenden sind 3) wie stark sie mit vorhandenem Weltwissen korrespondieren 4) wie stark das Gedächtnis belastet wird 5) wie der Problemraum subjektiv repräsentiert wird Zwei wesentliche Anforderungen an das Problemlöseverhalten: (1) Organisation des Lösungsprozesses: - Oft mehrere Problemlösehandlungen alternativ ausführbar - Auswahl und Anwendung von Lösungsstrategien sind von zentraler Bedeutung! Bei vorwissensarmen Problemen (z.B. Turm von Hanoi) gehen Personen beim ersten Lösungsversuch oft langsam, fehleranfällig, ineffektiv und stark an lokale Anforderungen orientiert vor (z.B. indem sie lokale Heuristiken verwenden) (2) Gedächtnisbeanspruchende Schwierigkeiten: o Bei den meisten Problemen ist es nützlich, sich an vorangegangene Schritte zu erinnern o Erfolgreiches Problemlösen erfordert Anwendung von Strategien, die mehrere Problemlösehandlungen organisieren und koordinieren Lokale Heuristiken müssen durch abstrakte, global formulierbare Strategien ersetzt werden, Möglichkeit, den gesamten Problemlöseprozess planerisch vorzubereiten und durchzuführen (weniger Gedächtnisarbeit nötig) 4.2.1.3. Suchstrategien beim Problemlösen - Erschöpfend vs. nicht-erschöpfend (Wird der gesamte Problemraum durchsucht?) - Allgemein vs. heuristisch (Auf beliebigen oder spezif. Problemraum anwendbar?) Allgemeine Suchstrategie: - systematisches Vorgehen nach einfacher Regel Blind gegenüber Besonderheiten - Erschöpfende und allgemeine Strategie: uninformierte Suchstrategie - Bsp.: Suche ein best. Buch i. d. Bibliothek; suche Regal für Regal, jeweils von li. oben nach re. unten - Vorteil: breite Anwendbarkeit 5 Psychologisch ist die Verwendung allgemeiner Suchstrategien wenig plausibel; schon bei einfachen Problemen wenden Personen heuristische Strategien an (das zeigt sich auch in der Definition der Strategie und Repräsentation des Problemraums) Heuristische Strategien: - organisieren den Lösungsprozess vollständig und effizient von Anfang an (abstrakte Natur) - Berücksichtigung von problemspezifischem Wissen / Info - In einer Entscheidungssituation wird eine Bewertung alternativer Problemlöseschritte vorgenommen (s.u., z.B. Unterschiedsreduktion, Mittel-Ziel-Analyse) - Bsp. Bibliothek: Ordnung der Aufstellung der Bücher wird genutzt, um Suchbereich einzuschränken Rekursive Strategie im ToH-Problem Menschen verwenden selbst bei einfachen Problemen meist heuristische Strategien Unterschiedsreduktion: - Auswahl desjenigen Lösungsschrittes, der den Unterschied zw. Ausgangs- und Zielsituation am deutlichsten reduziert Berücksichtigung problemspezifischer Info - Bsp.: Bergsteiger-Methode und Mittel-Ziel-Analyse Mittel-Ziel-Analyse (vorwärtsgerichtete Suche inkl. rückwärtsgerichtete Teilzielbildung) Drei ineinander verschachtelte Teilschritte: (1) - Unterschied zwischen aktuellem Zustand und Zielzustand analysieren - Kein Unterschied: Problem gelöst - Unterschied: Mit Hilfe einer Heuristik den „wichtigsten“ Unterschied auswählen - (Bsp. ToH-Problem: Wichtigster Unterschied in der Ausgangssituation = Größte - Scheibe ist nicht auf dem Zielstab) - Beseitigung dieses Unterschieds als neues aktuelles Teilziel definieren zu (2) (2) - Operator für die Beseitigung des Unterschieds suchen - Wenn keiner existiert, kann das Problem nicht gelöst werden - Wenn existiert, unter Anwendung einer Heuristik einen der gefundenen Operator auswählen zu (3) (3) - Analysiere Unterschiede zwischen dem aktuellen Zustand und den Anwendungsbedingungen des ausgewählten Operators - Wenn kein Unterschied vorhanden ist, Anwendung des Operator + zu (1) - Wenn Unterschied vorhanden, unter Anwendung einer Heuristik den „wichtigsten“ der gefundenen Unterschiede auswählen - Beseitigung dieses Unterschieds zum aktuellen Teilziel erklären zu (2) Welcher Unterschied ist der wichtigste? Berücksichtigung von problemspezif. heuristischem Wissen Vorteile der MZA: - heuristische Strategie Einbezug problemsspezifischen Wissens - multiple Ziele können verfolgt werden - einfache und ökonomische Zielverwaltung 6 Nachteile: - unflexible Zielverwaltung: - Reihenfolge ist vollständig und eindeutig festgelegt - Zurücknahme/Korrektur ist nicht möglich - Wissen über Abhängigkeiten zwischen Teilzielen kann nicht transparent berücksichtigt werden kann in Sackgasse enden - empirisch zeigt sich, dass Menschen anders Probleme lösen: oft Zielwechsel vor Erreichen des vorherigen Ziels, teilweise parallele Verarbeitung mehrer Aufgaben andere Problemlösestrategie nötig: Zugriff auf noch nicht verarbeitete Ziele, transparente Repräsentation von Relationen zwischen (Unter-) Zielen Weitere heuristische Problemlösemethoden: - Nutzung von Analogien: Suche der Lösung mit Hilfe eines bekannten analogen Problems Suchraumerweiterung/Suchraumwechsel Oft genutzte Methoden in Problemlöseforschung: - Methode des lauten Denkens (Ericsson & Simon) - Computermodellierung 4.2.2. Modellierung von Problemlöseprozessen: Wissensbasierte Systeme Problemlösen erfordert verschiedene Formen des Wissens: - Deklaratives Wissen („Wissen, was“; beschreibt Objekte, Situationen oder Ereignisse) - Prozedurales Wissen („Wissen, wie“; stellt Operationen zur Nutzung und zum Erwerb von Wissen bereit) - Kontrollwissen („Wissen, wann“; steuert das Zusammenspiel d. beiden Erstgenannten) In den Computer-Modellierungen sind die Wissensarten in spezielle Komponenten umgewandelt: - Deklaratives Wissen => Propositionale Strukturen (siehe 3.4.1) - Prozedurales Wissen => Bedingungen, unter denen es anwendbar ist, + resultierende Konsequenzen (wenn…, dann…) Regelartige Struktur kognitiver Architektur: Wenn [Bedingungen], dann [Aktionen] Beim Lösen von Problemen wirken deklarative Wissensanteile (= Problem, Ausgangssituation, Zielzustand, Komponenten des Problemraums) und prozedurale Wissensanteile im Sinne der rekursiven Lösungsstrategie zusammen (beim ToHProblem) Modellierung zweier Vorgehensweisen des Problemlösens (1) Vorwärtsverkettendes Problemlösen: Suche nach Infos, die den Bedingungsteil von Regeln erfüllen => Ausführung der Aktionen im Dann-Teil = datenorientierte Informationsverarbeitung (2) Rückwärtsverkettendes Problemlösen: Suche nach Möglichkeiten / Infos, um Ziel zu erreichen: Wenn ein Ziel im Dann-Teil steht => Überprüfung, ob Wenn-Teil der entsprechenden Regel erfüllt ist - wenn nicht: neue Unterziele (um diese zu erreichen, wird das rückwärtsverkettende Schließen erneut angewendet) = ziel- oder hypothesenorientierte Infoverarbeitung 7 Kognitive Architekturen Infoverarbeitungsvorgänge setzen ohne ausführendes System voraus, welches für die Ausführung zuständig ist Formulierung kognitiver Architekturen (ermöglichen Wahrnehmung, Speicherung, Repräsentation/Auswahl von Wissen, ...) - z.B. ACT (Anderson) und SOAR (Newell) ACT (Adaptive Character of Thought) 2 Annahmen: 1. Kognitive Fertigkeiten können durch Regeln oder Produktionen repräsentiert werden 2. Elementare Einheiten: - Deklaratives Gedächtnis: Einheiten des Arbeitsgedächtnisses (v.a. Chunks) - Prozedurales Gedächtnis: Produktionen Produktionen und Chunks sind mit Stärkeparametern versehen: Diese geben u.a. Auskunft über die Anwendungshäufigkeit, bestimmen, ob Produktionen / Chunks in einem bestimmten Verarbeitungsschritt angewendet werden u.Ä.) Lernen wird im ACT insbesondere auf 2 Arten modelliert: - Anpassung der Stärkeparameter aufgrund von Erfahrung - Bildung neuer Produktionen (durch Analogie) Vorteil von Architekturvorstellungen: - theoretisch begründbare Einschränkungen der Freiheitsgrade bei Modellbildung - ein einheitlicher und technischer Rahmen wird geboten Vergleichbarkeit wird erleichtert - Mit Computersoftware simulierbar Kognition kann als Zusammenspiel unterschiedlicher Wissensbestände beschrieben und analysiert werden! ABER: Einschränkung durch Fokussierung auf vorwissensarme und gut-definierte Probleme und durch Fokussierung auf individuelles Problemlösen. 4.2.3 Problemlösen und Lernen: Der Selbsterklärungseffekt Problemlösen ist eng mit dem Wissenserwerb verknüpft; die Flexibilität menschlichen Problemlösens kann nur auf dem Hintergrund der Lernmechanismen verstanden werden, die zum Erwerb von Wissen führen. Prozesse des Wissenserwerbs: Phasentheorie (im Rahmen seiner ACT-Theorie; Anderson,´93): (1) Phase der Verwendung deklarativen Wissens - Neue Info zuerst in deklarativer Form - Keine unmittelbare Umsetzung von Wissen im Verhalten - „Interpretation“ mit Hilfe allgemeiner, bereichsunspezifischer Problemlöse- prozeduren (Menschen haben Repertoire an PLP, z.B. Mittel-Ziel-Analyse) (2) Phase der Wissenskompilierung o Bildung von Problemlöseregeln des jeweiligen Bereichs o Deklaratives Wissen wird in prozedurales Wissen umgewandelt o Größere kogn. Effizienz (Zugewinn an Schnelligkeit, Reduktion d. Gedächtnisbelastung) (3) Phase der Wissensoptimierung - Feinabstimmung des prozeduralen Wissens durch 3 Lernmechanismen: o Generalisation o Diskrimination 8 o Verstärkung Durch die Phasentheorie können bekannte Problemlösephänomene, wie der Einstellungseffekt, rekonstruiert werden; sie vernachlässigt allerdings die Kodierung deklarativen Wissens und die Rolle von Vorwissen Lernende erwerben oft schon aufgrund eines Beispiels bzw. weniger Beispiele neues Wissen. Dabei nutzen sie in vielfältiger Weise ihr Vorwissen, um die Beispiele zu elaborieren und Analogiebildungen vorzunehmen! Studie: „Selbsterklärungseffekt“(CHI et al.; 1989) (1) Wissenserwerbphase: Schüler mussten sich Physikwissen über ein Lehrbuch aneignen, sowie Kapitel zur Mechanik, das v.a. ausgearbeitete Musterlösungen thematisierte (s. Abb. 4.6; S.216) (Musterlösung = schrittweise Ableitung der Lösung, aber Erklärungen sind oft unterspezifiziert und unvollständig) (2) Problemlösephase: Bearbeitung von Physikaufgaben In beiden Phasen wurden Protokolle lauten Denkens erfasst Danach wurden die Schüler in gute und schlechte Problemlöser aufgeteilt: Unterschiede zwischen guten und schlechten Problemlösern: - gute PL verbalisierten in der ersten Phase mehr Äußerungen, die auf Konzepte/Gesetze bezogen waren - während der 2. Phase verbalisierten gute PL angemessenere Äußerungen der Selbstüberwachung, auch Monitoring-Aussagen wurden öfter getroffen - gute PL nahmen seltener aber gezielter Bezug auf die Musterlösungen Welches sind die Prozesse, die effektives Lernen aus Beispielen unterstützen – Erklärungen für das Ausmaß des unterschiedlichen Wissenserwerbs Simulationsmodell „Cascade“ Effektives Lernen aus Beispielen beruht auf zwei grundlegenden kognitiven Leistungen: Verstehen von Musterlösungen: - Cascade geht davon aus, dass gute und schlechte PL Musterlösungen unterschiedlich gut nutzen: - gute PL versuchen jede Zeile zu erklären (anhand des zuvor gelesenen), schlechte nicht - fehlendes Wissen wird in „Cascade“ konstruiert durch entweder Analogie-Abduktion oder erklärungsbasiertes Lernen korrekter Lösungsschritte (ELBC) - ELBC – nutzt 3 Arten des Vorwissens: Allgemeinwissen, naives physikalisches Wissen, Heuristiken für Verbindung von naivem und physikalischem Wissen, sonst... - Analogie-Abduktion: Schließen von Konsequenzen einer bereichsspezifischen Regel auf die Gültigkeit ihrer Voraussetzung Bedingungen einer Regel als Erklärung für Konsequenzen wird künftig in analogen Sit. angewandt Lösen von Problemen: - Ableitung durch eine rückwärtsverkettende Suche (in der Menge physikal. Gleichungen) - Sackgasse Es wird versucht, diese mit der EBLC-Methode zu überbrücken: - Erfolg neues, problemspezifisches Wissen erworben - Misserfolg Problemlösung scheitert - Die Methode der Analogie-Abduktion kann beim Problemlösen nicht eingesetzt werden, da keine Lösungsschritte vorgegeben sind 9 - - Aus der Menge von möglichen Regeln sucht „Cascade“ bRegeln durch eine analogiebasierte Suchkontrolle aus Diejenigen Regeln werden bevorzugt, die sich in analogen Situationen bewährt haben Gute Problemlöser haben viele neue Regeln gebildet, auf die sie zurückgreifen können Schlechte Problemlöser greifen stattdessen auf frühere Beispiele zurück, in denen die aktuell gesuchte Größe vorkommt oberflächliche Analogie Zentrales: - viele vorwissensintensive Probleme, die früher als besonders schwierig angesehen wurden, können heute mit Computern modelliert werden - einige Aspekte menschlichen Problemlösens sind dennoch nicht rekonstruierbar - Computermodellierung simuliert menschliche Info-Verarbeitung nicht korrekt (z.B. Annahmen zur Speicherkapazität) 4.2.4 Problemlösen aus neurowissenschaftlicher Sicht - Der präfrontale Kortex spielt im Zusammenhang mit exekutiven Funktionen (Steuerungs-, Entscheidungs- und Planungsprozesse) eine wichtige Rolle Eine fMRI-Studie hat gezeigt, dass beim Lösen des ToH-Problems das frontoparietale System beteiligt ist Läsionen im präfrontalen Kortex führen zu spezifischen Planungs- und Problemlösedefizite (am gravierensten links- bzw. beidseitige Schädigung) 4.3 Problemlösen mit Sachkenntnis: Expertiseforschung Hier geht es um Aufgaben, die wie so viele im alltäglichen Leben, nur mit viel Vorwissen bewältigt werden können (Mediziner, Programmierer, Schachspieler, ...) Experten mit Expertise Experte: - Hat auf bestimmtem Gebiet herausragende Fähigkeiten und großes Wissen erworben. Er löst Probleme auf diesem Gebiet effizient, erreicht meistens gute Arbeitsergebnisse und kennt dabei seine Stärken und Grenzen. Expertise: - Erwerb erfordert viel Zeit Frage: Was zeichnet Experten aus psychologischer Sicht aus? Methoden: - oft Experten vs. Novizen - selten Längsschnittstudien zur Verfolgung von Sachkenntnis 4.3.1 Schach Schachspieler haben gegenüber Novizen deutlich besser organisierteres und umfangreicheres Wissen zeigt sich auch in Gedächtnisleistungen für Schachstellungen Studien: DEGROOT (1965), CHASE & SIMON (1973): o Überlegenheit von Schachprofis bei schachbezogenen Gedächtnisleistungen über Laien (Darbietung von Schachkonfigurationen für jeweils 5 sek.) 10 CHI (1978): - Kinder mit Schachkenntnissen sind besser in schachbezogenen Gedächtnisaufgaben als Erwachsenen ohne Schachkenntnisse OPWIS et al. (1990): - Darbietung von sinnvollen und sinnfreien Schachstellungen. Die Probanden waren entweder Experten oder Novizen - Die Experten waren den Novizen in der Erinnerungsleistung deutlich überlegen, sowohl bei sinnvollen als auch bei sinnfreien Stellungen (bei ersterer Stellung war die Leistung deutlich gesteigert) Wie kommt es zu besseren Gedächtnisleistungen? Einprägen durch Chunks: Chase & Simon (1973): - sie gingen davon aus, dass Schachexperten größere Chunks (mehrere Figuren) bildeten und deswegen bei gleicher Anzahl von Chunks im AG bessere Leistungen zeigten - Überprüfung u.a. durch Nachbauenlassen von Stellungen - die Anzahl der Figuren / Blick zur Vorlage war bei Experten größer Schablonen über Schachzüge: Gobet & Simon (1996): - sie vermuteten, dass Schachexperten viele „Schablonen“ über Schachstellungen inklusive zielführender Züge im LZG haben template theory - Schablonen aus ca. 12 fixen Positionen und Infos über variabel positionierbare Figuren Zusammenfassung von Wissen über ähnliche Stellungen Überprüfung: - Vergleich der Spielstärke bei einem und mehreren simultanen Gegnern: kaum Differenz, jedoch ist Durchdenken beim simultanen Spiel ausgeschlossen, da wenig Zeit vorhanden war. Beleg für Schablonen (?) Unvertraute Stellungen: - bei Holding & Reynolds (1982) zeigte sich auch hier deutlicher Vorteil der Schachexperten strategische Fähigkeiten scheinen bei Experten ebenfalls höher zu sein Fazit: - Schachexperten haben breites Wissen über Stellungen und relevante Züge (langjährige Erfahrung) Routinierte Lösungen aber auch flexible Reaktionen sind möglich - Gedächtnisleistung ist aufgrund größerer Sinneinheiten besser ABER: Sie durchdenken nicht mehr Züge! 4.3.2 Schulphysik Wie lösen Novizen und wie Experten bestimmte Physikaufgaben? Experten: - wählen zumeist vorwärtsverkettende Problemstrategie: - Ausgangspunkt sind gegebene Größen – diese werden genutzt um sukzessive neue Infos abzuleiten 11 basiert auf gutem Domänenwissen, da wissensbasierte Entscheidungen getroffen werden müssen - Experten haben Problemlöseschemata (nach Van Lehn, 1989): - sie enthalten Infos über Problemklassen, auf die es anwendbar ist und über Lösungsprozeduren Reduktion des „Suchaufwands“ 3 Schritte zum Problemlösen: Auswahl des passenden Lösungsschemas Anpassung an vorliegendes Problem Ausführung der Lösungsprozedur Novizen: - nutzen eher rückwärtsverkettende Problemlösestrategien: - Ausgangspunkt sind gesuchte Größen Versuch Formeln anzuwenden - Problem: - Überblick geht verloren, Teilziele werden vergessen, ... viele Möglichkeiten falsche Wege zu gehen; Gefahr der Überlastung des Gedächtnisses Problemraumperspektive: - Experten grenzen Suchraum auf wenige aussichtsreiche Ausschnitte ein - Novizen durchsuchen große, oft nicht zielführende Abschnitte Strategiewechsel - Experten handeln flexibler Strategiewechsel je nach Voraussetzung o oft Wechsel zwischen vorwärts- und rückwärtsverkettender Suche Klassifikation von Problemen - hierbei helfen Lösungsschemata - in einer Studie sortierten Experten Physikprobleme nach physikalischen Prinzipien, Novizen nutzten fast nur Oberflächenmerkmale Experten repräsentierten Probleme so, dass Lösungswege erkennbar und anwendbar wurden Art der Problemrepräsentation Experten - nutzen oft zwei unterschiedliche Problemrepräsentationen: eine qualitativkonzeptuelle und eine quantitativ-numerische - qualitativ-konzeptuell: enthält z.B. Infos über einwirkende Kräfte Eingrenzung d. Problemraums - quantitativ-numerisch: wird durch erstere begünstigt; z.B. in Form von Gleichungen, Gesetzen, ... beide Klassen ermöglichen Ableitung d. gesuchten Größe in vorwärts verkettender Strategie Novizen: - meist keine korrekte qualitative Repräsentation wegen unvollständigen Wissens rein quantitativer Ansatz: z.B. Lösungsversuch durch Manipulation von Gleichungen (oft vergebens) Außerdem: - Novizen haben oft naive qualitative Alltagsvorstellungen, die in zentralen Aspekten vom wissenschaftlichen Standpunkt abweichen zusätzliche Erschwerung 12 Erwerb von Physik-Expertise (Spada & Plötzner, 1998, ...) 1) naiv qualitatives Alltagswissen: nützlich im Alltag, daher relativ robust; in Kindheit erworben 2) qualitativ-konzeptuelles und quantitativ-numerisches Wissen (Idealfall) – wissenschaftlich korrektes Wissen sollte in Schule erworben werden; allerdings häufig nur quantitativ-numerisches Problem, denn oft wird 3.Phase mit konsolidiertem qualitativen und quantitativen Wissen, was gut für Problemlösung wäre, nicht erreicht Computermodell von Plötzner (1995) Simulation empirisch beobachtbarer Unterschiede von Schülern in 2. und 3. Phase des Expertiseerwerbs in klass. Mechanik - bei quantitativen „Aspekten“: Problemlösen wie bei Novizen Scheitern bei komplexeren Problemen - bei qualitat. und quant. Aspekten: Simulation einer für Experten typischen Strategie 4.3.3. Medizin Entwicklung medizinischer Expertise in Studium und Beruf (3 Expertisestufen): Anfänger: - Einprägung vieler Fakten (erste Studienjahre) - Aufbau eines weit verzweigten, zuerst nur lose verknüpften Wissensnetzwerks (Grundlagen-, Faktenwissen): Beantwortung von Fragen braucht viel Zeit und es werden viele Fehler gemacht Übergangsstadium: - Wissen wird sicherer: Wissenselemente werden enger verknüpft, rascher Abrufbar und auf Anwendung ausgerichtet - Zwischenschritte von Erklärungen (z.B.: biolog. Erklärung eines Begriffs) werden ausgeblendet = (Wissens-)Einkapselung (Konzeptbildung, die größere Einheiten betrifft) Experte: - Wissen ist bezogen auf Fälle und klinische Anwendung - Krankheitsschemata vorhanden (typ. Krankheiten mit Ursachen und Symptomen) - Diagnose und Behandlung von Krankheiten wird routiniert - Fallbezogene Interpretation von Infos / Wissen (Symptome aktivieren Krankheitsschemata) 4.3.4 Zusammenfassung: Experten vs. Novizen - Überlegenheit des Experten beruht auf seinem umfangreichen Wissen und nicht auf generell hohen kognitiven Fähigkeiten; zudem ist sein Wissen auch besser organisiert, so dass schnellerer Zugriff möglich ist und mehr Informationen simultan repräsentiert und verarbeitet werden können bessere Gedächtnis- und Problemlöseleistung in der entsprechenden Domäne Siehe hierzu die Phasentheorie von ANDERSON (4.2.3): Wissenskompilierung von deklarativem zu prozeduralem Wissen z.B. in Medizin: Aufbau deklarativen Wissens (Netzwerk) irgendwann: Krankheitsschemata (hier ist proz. Wissen wichtig) Prozedurales Wissen erleichtert u.a. auch für Nutzung von Textverarbeitungsprogrammen: Welcher Schritt kommt als nächstes? 13 Chunking von Prozeduren als Lernmechanismus (Newell, 1990) routiniertes aber unreflektiertes Verhalten - Experten sind fähig, Lösungsstrategien zu wechseln (d.h. zwischen vorwärts- und rückwärtsverkettendem Problemlösen zu wechseln) - Experten verfügen über Sachkenntnis: s. Einschub: „conceptual change“ von VOSNIADOU Sachkenntnis kann sich in qualitativen Sprüngen (aber nicht von heute auf morgen) durch Veränderung zentraler Konzepte herausbilden (Bsp.: Weltbild bei Kindern) Negativ am Expertiseerwerb: - Einzelne Teilschritte werden bewusster Kontrolle entzogen sind schwer verbalisier- und hinterfragbar Experten sind oft nicht in der Lage, ihre Kompetenzen an Andere weiterzugeben z.B. „over the top“ stage bei Managern (Weggeman, 2000) 4.4. Deduktives Denken Definition: Aus als gültig vorausgesetzten Prämissen werden Schlussfolgerungen gezogen, die – falls logisch korrekt abgeleitet – zwingend gültig sind. (vgl. induktives Denken: kein zwingend gültiges, also zweifelsfrei wahrheitserhaltendes Schlussfolgern / Denken) Anwendung deduktiven Denkens: - Mathematik, um einzelne Formeln zu beweisen - Wissenschaft, um Hypothesen aus Theorien abzuleiten - Alltägliche Argumentation Forschungsfragen: - Inwieweit besitzen auch nicht speziell vorgebildete Personen Kompetenzen, um logische Schlüsse vorzunehmen? - Gibt es systematische Fehler (biases)? - Welche mentalen Repräsentationen der Aufgaben und welche Schlussmechanismen liegen richtigen und falschen Schlüsse zugrunde? - Forschung zu deduktivem Denken gibt Auskunft über menschliche Rationalität (?) Methode: - Sprachliche Argumente sollen auf ihre log. Gültigkeit geprüft werden oder aus Prämissen sollen Schlussfolgerungen abgeleitet werden (Prämisse: als wahr vorausgesetzte Aussage) 4.4.1. Logische Kalküle Definition: System von Regeln, mit denen sich Ausdrücke (Aussagen, Formeln) formulieren, sowie daraus neue Ausdrücke ableiten lassen. Ziel: - Wissen zu formalisieren und Regeln bereits zu stellen, um gültige Folgerungen aus diesem Wissen bestimmen zu können. 14 Achtung: - Ein Kalkül transportiert die Gültigkeit von Prämissen auf die Folgerung (Konklusion), garantiert aber nicht die Richtigkeit der Prämissen. Historie: - Erfinder der formalen Logik ist Aristoteles, der Syllogismen (= allgemeingültige - Schlussschemata) formulierte - Bekanntester logischer Kalkül ist die Prädikatenlogik von Gottlob Frege (1879) Aussagenlogik als Beispiel für ein solches logisches Regelsystem: - besitzt eine bestimmte Syntax: Regel zur Verknüpfung und Zusammensetzung der einzelnen sprachlichen Elemente; bestimmt, was mit einem Sprachsystem gesagt werden kann Sprachliche Elemente der Aussagenlogik: - Atomare Aussagen: Kleinste mögliche Wissenseinheit (dargestellt mit A, B, C; z.B. Petra ist in Paris) - Wahrheitswert (der atomaren Aussagen): Eine atomare Aussage kann wahr oder falsch sein Operatoren: Sind zwei atomaren Aussagen „A“ und „B“ syntaktisch korrekt, lassen sie sich mit Hilfe der Operatoren (Verknüpfungswerkzeuge) zu komplexen Aussagen verbinden Beispiele für Operatoren (alle 6 sind syntaktisch mögliche Aussagen) Negation: Konjunktion: Disjunktion: Exklusive Disjunktion: Konditional: Bikonditional: nicht A A und B A oder B oder beides entweder A oder B Wenn A, dann B Wenn A, dann und nur dann B Sind alle syntaktisch möglichen Ausdrücke auch gültig, d.h. konsistent mit der Bedeutung der Kalküle? => Gültigkeitsbestimmung über zwei Methoden 1) Die modelltheoretische Methode - Bedeutung der logischen Operatoren wird über sog. Wahrheitstafeln definiert (siehe Tabelle - 4.2, S. 229), die festlegen, in welchen Fällen eine Aussage wahr bzw. falsch ist - In Wahrheitstafeln sind alle möglichen Kombinationen der Wahrheitswerte der atomaren - Aussagen aufgeführt. Der Wahrheitswert einer komplexen Aussage wird auf den - Wahrheitswert ihrer atomaren Aussagen zurückgeführt => Bsp.: „P“ „Q“ Negation („ P“) Konditional („PQ“) wahr wahr falsch wahr - Zum Lesen der Tabelle (S. 229 unten): o Spalte 1 und 2: Alle möglichen Kombinationen der Wahrheitswerte zweier atomarer Aussagen o Oberste Zeile: Alle möglichen, d.h. formulierbaren Prämissen o Restliche Felder: Wahrheitswerte der logischen Operatoren; zeigen an, ob bei einer bestimmten Kombination der Wahrheitswerte von P und Q die jeweilige Prämisse gültig ist oder nicht (Bsp. auf S. 19) o „ P“ (negierte Aussage) ist wahr, wenn die (pos.) Aussage „P“ falsch ist 15 o Die Konjunktion „P^ Q“ ist wahr, wenn d. Teilaussagen „P“ und „Q“ wahr sind o Konditional „PQ“ ist nur falsch, wenn „P“ (der Antezedenz = Vorausgehend wahr, aber die Konsequenz „Q“ falsch ist Mit der Wahrheitstabelle kann geprüft werden, ob - zwei Aussagen logisch äquivalent sind (den gleichen Wahrheitswert haben) - eine logische Schlussfolgerung zwingend folgt (d.h. das Gegenteil ist unmöglich) - eine Menge von Aussagen widerspruchsfrei ist (mind. eine Kombination möglich, bei der die Konjunktion aller Aussagen wahr ist) Beispiel: - Theorie T sagt Phänomen D voraus, D tritt auf - Ist dadurch die Theorie T zweifelsfrei bestätigt? Zwei Prämissen: 1. Wenn Theorie T zutrifft (P), dann kann Phänomen D beobachtet werden 2. Das Phänomen D kann beobachtet werden (Q) - (PQ)^ Q ist eine Übersetzung der Prämissen; da beide Prämissen gültig sein müssen, werden sie konjunktiv verknüpft - Was folgt daraus für P? (siehe S. 229 Tabelle) - Wenn Q wahr ist, kann P immer noch falsch oder wahr sein, es kann also nicht entschieden werden, ob Theorie T wahr oder falsch ist ABER: Wenn Q nicht wahr ist, obwohl P gegeben ist, kann zweifelsfrei behauptet werden, dass nicht gilt PQ! 2) Die Methode der natürlichen Deduktion (GENTZEN, 1935) - Analogon zu den Überlegungen eines Detektivs: Es wird ein Satz logischer Regeln definiert, mit denen man eine Schlussfolgerung, die man aus bestimmten Prämissen gezogen hat, beweisen kann (beweistheoretische Methode) - Für jeden Operator gibt es eine oder mehrere Schlussregeln; eine Schlussregel besteht aus einer / mehreren gegebenen Aussagen sowie einer Folgerung (Tab. 4.4, S. 230) Aus den Regeln sollen Beweise schrittweise konstruiert werden können - Es können aber auch Annahmen gemacht werden, die später verworfen werden können Zwei Arten von Schlussregeln: Einführungsregel: - Regel, die eine Aussage mit dem Operator als bewiesen einführt – z.B. „Wenndann-Einführung: Wenn aus Annahme P folgt, dass Q gilt, dann ist „Wenn P dann Q“ bewiesen. Eliminationsregel: - Regel, um aus einer Aussage mit dem Operator eine Aussage ohne ihn abzuleiten - Ein Operator stellt eine Verknüpfung zwischen zwei atomaren Aussagen dar - Wenn man also auf eine bestimmte Gegebenheit (z.B. „P“) diese Verknüpfung richtig anwendet („Wenn P, dann Q“), kann ich aus der Verknüpfung eine einzelne (atomare) Aussage ableiten, aus welcher die Verknüpfung sozusagen eliminiert ist: „Q“. - Bsp.: Wenn-dann-Elimination: aus „PQ“ und „P“ folgt „Q“ => Modus Ponens - Bsp. für „Anwendung“: Modus Barbara; S. 231 16 Zusatz: Reductio-ad-absurdum-Regel (Beweis durch Widerspruch): - Wenn aus der Annahme „P“ ein Widerspruch folgt, dann ist die Annahme falsch, d.h. es gilt ihr Gegenteil „Nicht P“ Nachweis der Gültigkeit eines Arguments: Kombination verschiedener Bsp.: Beweis, dass Modus Ponens-Schlüsse transitiv sind: Aus „AB“ und „BC“ folgt „AC“ (wird Modus Barbara genannt) 1. „AB“ Prämisse 1 2. „BC“ Prämisse 2 3. +„A“ Nehme vorübergehend „A“ als gegeben an 4. „B“ Folgerung aus 1) und 3); Wenn-dann-Elimination (Operator eliminiert) 5. „C“ Folgerung aus 2) und 4); Wenn-dann-Elimination 6. Beweis „AC“ Folgerung aus 3) und 5); Wenn-dann-Einführung (Operator eingeführt) Aus den Prämissen folgt zwingend „AC“ Vorgehen beim aussagelogischen Schlussfolgern: 1) Form der Prämissen und atomare Aussagen werden identifiziert / definiert 2) Abstrahieren von konkreten Inhalten der atomaren Aussagen (P, Q, R etc. werden verwendet) 3) Beweis- oder modelltheoretisches Vorgehen 4) Ziehen logischer Schlussfolgerungen, die von den logischen Operatoren der Prämissen abhängen Psychologische Frage: Wie ziehen Personen logische Schlüsse? 1) Wie verstehen und nutzen Personen die logischen Operatoren? Zur Untersuchung der Verwendung log. Operatoren werden abstrakte Aufgaben verwendet, wobei der Inhalt der atomaren Aussagen möglichst neutral gehalten wird 2) Spielt der Inhalt der atomaren Aussagen eine Rolle, oder gehen Personen immer formal vor? Untersuchung mit inhaltlichen Aufgaben (Prämissen mit denselben logischen Operatoren, wobei der Inhalt der Prämissen variiert wird , um Inhaltseffekte ausfindig zu machen) 4.4.2. Logisches Schließen - mit mentalen Modellen oder mentalen Regeln Konditionales Schließen Logisch korrekt: Modus Ponens (MP): aus „Wenn P, dann Q“ und „P“ dann schließe „Q“ Modus Tollens (MT): aus „Wenn P, dann Q“ und „nicht-Q“ dann schließe „nicht-P“ Logisch falsch: Negation des Antezedens (NA): aus „Wenn P, dann Q“ und „nicht-P“ dann schließe „nicht-Q“ Affirmation der Konsequenz (AK): aus „Wenn P, dann Q“ und „Q“ dann schließe „P“ 17 Wie oft ziehen Personen solche Schlüsse? - MP: fast alle - MT: ca. 70% - NA und AK allerdings auch häufig obwohl logisch falsch; AK dabei häufiger als NA Mögliche Gründe: - Personen interpretieren „Wenn P, dann Q“ bikonditional, statt konditional alle 4 Antworten sind logisch gerechtfertigt insgesamt nicht haltbar (Erstellen keine passende Wahrheitstafel) Interessanter Befund: - Negation in Prämissen haben einen Effekt, obwohl es aussagenlogisch keinen Unterschied machen sollte: z.B. führt Negation im Konditional dazu, dass seltener der falsche NA gefolgert wird, der in diesem Fall affirmativ wäre (Wenn A, dann nicht B NA: Wenn nicht A, dann B jeweilige Konklusion wird seltener gezogen, wenn sie affirmativ ist, als wenn sie negiert ist negative conclusion bias (gilt nicht für MP) Fazit: Diese Ergebnisse sind Hinweis für die logischen Kompetenzen des Menschen, aber auch Hinweis auf systematische Abweichungen von der Logik Zwei Erklärungsansätze (Theorien) zur Erklärung von Abweichungen von der Logik: 1. Die Theorie der mentalen Modelle 2. Die Theorie mentaler Regeln Logisches Schließen mit mentalen Modellen Kernidee: Personen lösen logische Aufgaben nicht rein aussagenlogisch - auf Grundlage der syntaktischen Form der Prämissen und der Anwendung von Beweisregeln- sondern sie repräsentieren die Bedeutung der Prämissen in einem mentalen Modell und daraus ihre Schlussfolgerungen ab. Mentale Modelle: - Ein mentales Modell ist eine Repräsentation der möglichen Situationen, die durch Prämissen - beschrieben werden. - Personen geben an, sich z.B. Objekte „vor ihrem inneren Auge bildlich in ihrer Anordnung - vorzustellen“ ( Vorstellung der Situation mit mentalen Modellen) 3 Schritte beim Schließen mit mentalen Modellen: 1) Modellbildung: Initiales Modell wird gebildet, wobei Infos aus Prämissen integriert werden: Vorstellen einer Situation, die den Prämissen entspricht 2) Antwortgenerierung: Ableiten einer vorläufigen Antwort aus dem Modell 3) Validierung: Antwort wird auf Allgemeingültigkeit geprüft, indem alle weiteren möglichen Modelle auf Gegenbeispiele untersucht werden, die der Antwort widersprechen könnten Eine Antwort ist nur dann logisch zwingend, wenn sie in allen Modellen gilt! [Bsp. für mentale Modelle: Tabelle 4.6, S. 233] 18 Welche mentalen Modelle bilden Personen wenn sie aussagenlogisch schlussfolgern? - Mentale Modelle sind mit dem modelltheoretischem Ansatz der Aussagenlogik verwandt, - sind aber in bestimmten Aspekten auch modifiziert: 1. Prinzip der Wahrheit: Es werden nur die Modelle aufgestellt, die mit der Gültigkeit der Prämissen vereinbar sind 2. Unterscheidung zwischen initialen und vollständigen Modellen: Modellbildung geschieht sequentiell, nicht parallel sparsame Repräsentation Entlastung des AG ABER: Fehlerquelle, da evtl. nicht alle Modelle gebildet werden; passiert umso eher, je mehr Modelle möglich sind 3. Theorie formuliert Mechanismus, wie Personen Aufgaben lösen: Dreischritt: 1. Modellbildung, 2. Antwortgenerierung, 3. Validierung Wie erklärt die Theorie die berichteten Befunde zu konditionalem Schließen? Anwendung auf die einzelnen Fälle: Modus Ponens: - einfach, weil aus beiden Prämissen (Konditional „Wenn P dann Q“- und Faktenprämisse „und P“) nur ein Modell resultiert, aus dem der korrekte Schluss direkt ablesbar ist. ([P] [Q]) Affirmation der K.: - ebenfalls „einfach“ (aber leider falsch…), da gleiches Prozedere: Modell der Faktenprämisse [Q] ist direkt in das initiale Modell integrierbar, so dass keine weiteren Modelle gebildet werden - Beim Modus Tollens und d. Negation des Antezedens ist das Modell der Faktenprämisse nicht in das intitiale Modell der Konditionalprämisse (Wenn P, dann Q) integrierbar, beide Schlüsse erfordern Bildung eines dritten Modells [nicht P] [nicht Q], was sowohl schwieriger als auch aufwendiger ist! Erklärung für Phänomen, dass Personen meinen aus den letzten beiden könne man nichts folgern Negative Conclusion Bias in mentalen Modellen: Evans: - MP und AK werden kaum beeinflusst, da beide aus initialem Modell des Konditionals folgen. - MT und NA benötigen neues Modell bei pos. Formulierung des Antezedens (wenn a dann 7) ist drittes Modell eher einfach (nicht a, nicht 7) Schluss von „keine 7 auf kein a“ relativ leicht (direkt ablesbar) bei neg. Formulierung d. Ant. (wenn nicht a, dann 7) wäre nun doppelte Negierung nötig fällt schwerer Fazit: Mentale Modell erklären Abweichungen von der logischen Norm durch Präferenzen und Auslassungen bei der Modellbildung. (konnte sogar auf andere Bereiche erweitert werden) 19 Folgendes Phänomen konnte ebenfalls dadurch vorhergesagt werden: Szenario: In einer Skatrunde sagt einer: „Für meine Karten gilt entweder, - Wenn ich einen König habe, dann habe ich ein Ass – oder – Wenn ich keinen König habe, dann habe ich ein Ass -. Ich habe eine König, Was meinen Sie: Habe ich ein Ass? Die meisten sagen ja, ABER es muss nicht so sein illusionäre Inferenz! Logisches Schließen mit mentalen Regeln Personen ziehen logische Schlüsse mit Hilfe allgemeiner Regeln (analog der natürlichen Deduktion) RIPS (1994): “The psychology of proof” - Beschreibung einer Theorie mentaler Regeln im Detail (mit PSYCOP) - Ähnlich wie bei GENTZEN enthält dieses Programm Einführungs- und Eliminationsregeln, jedoch viel mehr Regeln sowie zwei Beweisstrategien, die Personen beim Schlussfolgern verfolgen: 1. Vorwärts-Schließen: Aus gegebenen Aussagen werden logische Implikationen bestimmt 2. Rückwärts-Schließen: Beweisziele werden definiert Von gegebenen Aussagen vorwärts, von zu beweisenden Aussagen rückwärts Das Programm von Psycop beginnt mit Vorwärtsregeln und wechselt dann systematisch. Manche Schlussregeln gibt es doppelt Grundsätzlich gilt: Ein Beweis ist umso schwieriger, je mehr Regeln angewandt werden müssen z.B. MP-Regel: Vorwärts: - „Wenn P, dann Q“ und „P“ dann schließe „Q“ Rückwärts: - Hat man das Ziel „Q“ zu beweisen, und hat man konditional „Wenn P, dann Q“, so setze man sich als nächstes Ziel „P“ zu beweisen; schafft man das, folgt auch „Q“ Wie lassen sich die empirischen Befunde zum konditionnalen Schließen mit dieser Theorie erklären? Modus Ponens: - ist deshalb so einfach / wird von fast allen gezogen, weil es eine direkte Regel dafür gibt (Wenn-dann-Elimination) Modus Tollens: - hat keine eigene Regel, sondern erfordert eine Kombination von Modus Ponens und reductio ad absurdum, was schwieriger ist. NA und AK: - Die Theorie besagt, dass Probanden das Konditional PQ zu QP umkehren (bikonditionale Interpretation), - AK MP und NA MT entsprechend werden NA-Inferenzen seltener gezogen als AK-Inferenzen Negative Conclusion Bias bei mentalen Regeln - bei MP-Schlüssen keine Auswirkung - Bei MT-Schlüssen bei affirmativer Antwort ist ein weiterer Deduktionsschritt erforderlich (Auflösung der doppelten Verneinung) niedrigere Häufigkeit affirmativen MTs und Nas (s.o.) 20 Empirische Belege: - in vielen Studien konnte logisches Schließen gut mit mentalen Regeln erklärt werden - Rips: Nicht- Einführung bzw. –Elimination wurden selten verwendet reductio ad absurdum ist indirekt und komplex - ebenfalls wurde Oder-Einführung selten durchgeführt intuitiv schwer einsehbar, warum aus der Aussage „es schneit“ die Disjunkttion „es schneit oder regnet“, was genauso richtig wäre, gemacht werden sollte Verlust an Präzision durch Alternative Welches Modell ist angemessener? – Mentale Theorien vs. mentale Regeln Mentale Modelle und mentale Regeln im Vergleich - die Frage spaltet bis heute die Forschung in 2 Lager Gegen mentale Modelle: - z.B. mit Aufgaben, die bei Lösung über Modelle sehr zeitaufwendig wären (z.B. wenn A oder B oder C oder D oder ... dann Y und „B“ – Was folgt „Y“) konterkariert die Annahme, je mehr Modelle desto schwieriger Gegen mentale Regeln: - mentale Regeln seien rein syntaktisch, menschliches Schließen aber ein semantischer, auch vom Inhalt abhängiger Prozess, der nur durch Modelle erfasst werden könne - (z.B. Wenn Susi Hausarbeiten macht, sitzt sie aufm Klo; Wenn kein anderer aufm Klo sitzt, sitzt sie aufm Klo; Susi macht Hausarbeiten eigentlich aufm Klo, aber würden weniger Leute sagen! (am anderen Beispiel unter 40%) spricht gegen rein syntaktische Anwendung der MP-Regel. Wichtigere Frage: Bei welchen Aufgaben wird eher in Modellen und bei welchen eher anhand von Regeln gedacht? (aufgabenabhängige Repräsentationen) 4.4.3. Inhaltliches Schließen – mit evolutionären Modulen oder logisch mit erworbenen Wissen Auftreten von Inhaltseffekten beim logischen Schlussfolgern - Inhalteseffekte sind seit geraumer Zeit bekannt und untersucht für (1) das Schlussfolgern mit Quantoren als belief bias und für (2) das konditionale Schließen Frage: Sollen Theorien das deduktiven Denkens abstrakt und bereichsübergreifend konzipiert sein oder muss man inhalts- bzw. bereichsspezifische Mechanismen annehmen? Wenn ja, sind diese Mechanismen evolutionär oder kulturell vermittelt? WASON (1966): Wahlaufgabe - 4 Karten (vorn: Buchstabe; hinten: Zahl): A, K, 5, 8 - Regel: Wenn auf der einen Seite ein A ist, dann ist auf der anderen Seite eine 5. => Die Frage, welch Karten umgedreht werden müssen, um die Regel zu verifizieren oder zu falsifizieren, wird von weniger als 10% der Personen korrekt beantwortet. Nach der Aussagenlogik ist das Konditional „Wenn P, dann Q“ nur falsch, wenn „P und nicht-Q“, also müssen die Karten umgedreht werden, die „P“ und „nicht-Q“ entsprechen – also A und 8. (Karten: P, nicht-P, Q, nicht-Q) => Entdeckung von ersten Inhaltseffekten (diese Aufgabe): 70er Jahre Aufgabenvariante mit verschiedenen Arten sozialer Regeln (z.B. Wenn Zuschuss erhalten wird, dann wird die Heizung modernisiert) Unterscheidung von der ursprüngl. Aufgabe: 21 - Kein willkürlicher Zusammenhang zwischen Buchstaben und Zahlen Andere Instruktion: Gültigkeit wird vorausgesetzt; man muss Einzelfälle auf Regelverletzungen untersuchen Beiden Aufgaben gemeinsam: - konditional: Wenn P, dann Q - Im Fall „P, nicht-Q“ verletzt - Lösung: „P, nicht-Q“ 50 % der VPen lösen dieselbe Aufgabe richtig bei stark normativen Regeln sogar über 70 % - Verwendung der Regelverletzungs-Instruktion + Bekanntheit der Regel => keine Verbesserung für abstrakte Aufgabe Evolutionäre Module als Erklärungen für Inhaltseffekte Bereichsspezifische Kompetenzen gehören zum evolutionären Erbe des Menschen. Inhaltlich spezifische Problemstellungen, mit denen Menschen (oder eine andere Spezies) in ihrer Evolution konfrontiert waren, haben das Design von Denk- und Problemlösemechanismen kausal beeinflusst. Analogie: Schweizer Taschenmesser, ausgestattet mit einer Vielzahl bereichsspezifischer Module für die Lösung ganz bestimmter Aufgaben Algorithmus zur Betrügerentdeckung Zuschuss-Aufgabe: In der häufigeren Lösung zeigt sich nicht allgemeines logisches Denkvermögen, sondern bereichsspezifische Kompetenz, nämlich die Identifikation von Betrügern. Generell gilt, dass immer, wenn ein bereichsspezifisches Modul zur Verfügung steht, es unspezifischen Mechanismen (in diesem Fall des logischen Denkens) vorgezogen wird. Perspektivenbefund – Anpassungsaufgabe aus Evolution: Entwicklung von Kooperation Theorie der sozialen Verträge: Mensch müssen Kosten und Nutzen von Handlungen repräsentieren und effizient Betrüger entlarven können. Betrug: Partei nimmt Nutzen von Anderen in Anspruch, ohne die eigenen Kosten zu tragen => Anwendung eines Algorithmus zur Betrügerentdeckung statt logischer Regel => Zum Beweis: leicht modifizierte Zuschuss-Aufgabe - Änderung der Perspektive: „Stellen Sie sich vor, Sie seien Hausbesitzer in einer Gemeinde… Welche Karte müsste man dann umdrehen, um zu sehen, ob die Gemeinde, die Regel verletzt hat? „Wenn die Gemeinde einen Zuschuss bezahlt, dann modernisiert der Hausbesitzer die Heizung“: Hier geht es darum, das Prinzip der Kooperation und je nachdem, aus welcher Perspektive (der der Gemeinde oder der des Hausbesitzers) man überprüft, ob dieses Kooperationsprinzip verletzt ist, wählen VPen zu ein und derselben Konditionalprämisse unterschiedliche „Karten“ (vgl. WASON) zur Überprüfung der Regel aus. Vorteile der evolutionspsychologischen Sichtweise: - Wichtige Impulse für die Identifikation von Inhaltsbereichen - lenkt Blick auf Passung zwischen Denkstruktur und Struktur in der Umwelt - lenkt Blick auf Umstand: mit begrenzten kogn. Ressourcen müssen oft schnelle Entscheidungen getroffen werden Schwächen: - Inhaltseffekte zeigen nur, wie bereichsspezifisches Denken über bereichsunabhängige Schlussmechanismen dominiert, können aber den evolutionären Ursprung der Kompetenzen nicht belegen. 22 - Bereichsspezifische Module werden nicht immer unspezifischen Strategien vorgezogen Der Perspektivenbefund wurde empirisch durch weitere Belege abgeschwächt. Zwei-Quellen-Ansatz als Erklärung für Inhaltseffekte BELLER & SPADA (2003): Dieser Ansatz berücksichtigt sowohl bereichsspezifische als auch bereichsunspezifische, syntaktische Aspekte, indem er davon ausgeht, dass es zwei Quellen für logische Schlüsse gibt (Bsp.: „Wenn Petra in Paris ist, dann ist sie im Louvre.“ „Petra ist nicht in Paris…“) - die syntaktische Form eines Arguments ( Es kann keine Aussage gemacht werden) sowie - den Inhalt der Aussagen („Petra ist nicht im Louvre“) Inhaltskompetenz Korrekter Umgang mit (d.h. auch korrektes Schlussfolgern aus) inhaltlichem Wissen (kann streng aussagenlogischer Ableitung gegenüberstehen) Inhaltseffekt: Der Inhalt eines Arguments kann die formal korrekte Antwort erleichtern oder erschweren, je nach dem, ob die Schlussfolgerungen aus beiden Quellen zusammen- oder auseinanderfallen. Formkompetenz Adäquater Bezug der syntaktischen Form einer Aussage auf bereichsspezifisches Wissen; Probanden können beurteilen, ob ihr in ein bestimmtes Konditional überführtes Wissen Allgemeingültigkeit besitzt oder nicht. Erklärung des Perspektivenbefunds Wechselt bei der Zuschussregel die Perspektive zum Hausbesitzer, so wählen Probanden gerade die zwei Karten aus, mit denen man rein aussagenlogisch die Gültigkeit der Regel nicht überprüfen kann. Bei dieser Zuschussregel geht es um das Konzept des konditionalen Versprechens (inhaltliches Wissen): „Wenn Du (Adressat) Handlung P tust, dann werde ich Dir Belohnung Q geben“ Handlung in typischer Reihenfolge: 1. Adressat entscheidet, ob er sich auf Versprechen einlassen möchte, 2. Adressat führt P aus 3. Sprecher ist verpflichtet Q zu geben Versprechen = einseitiger Sprechakt (nur Sprecher kann es brechen) - R1: „Wenn die Gemeinde einen Zuschuss zahlt (P), dann modernisiert der Hausbesitzer die Heizung (Q)“ Gemeinde kann nicht gegen R1 verstoßen - R2: „Wenn der Hausbesitzer die Heizung modernisiert (P), dann bezahlt die Gemeinde einen Zuschuss (Q)“ Gemeinde kann gegen R2 verstoßen Um zu überprüfen, ob die Gemeinde die Regel bzw. das Versprechen verletzen kann, wird das gegebene Konditional (R1) umkehrbar interpretiert (=> R2 => „Q“, „nicht-R2“) = Inhaltseffekt. Dennoch wissen die Probanden genau, welche Partei welche Regelformulierung verletzen kann, d.h. sie können die konditionale Form korrekt auf das inhaltliche Konzept eines Versprechens anwenden (Formkompetenz) Der Perspektivenbefund ist kein eindeutiger Beleg für evolutionäre Module. Die Kompetenz zur Interpretation von Versprechen könnte auch anerzogen sein (Lerngeschichte). Zwei-Quellen-Ansatz: prinzipielle Überlegung, die von jeder Theorie des deduktiven Denkens berücksichtigt werden sollte. 23 Überlegungen des Zwei-Quellen-Ansatzes im Kontext mentaler Modelle & mentaler Regeln: Mentale Modelle:Der Inhalt der Prämissen regt die Bildung bereichsspezifischer Modelle an. Mentale Regeln:Es werden zusätzliche Deduktionsregeln ergänzt, die bereichsspezifisches Wissen nutzen. Der Zwei-Quellen-Ansatz stellt keine eigene Theorie dar, sondern basiert auf diesen grundlegenden Annahmen. Die Unterscheidung zwischen abstraktem und inhaltlichem Schließen wurde durch neuropsychologische Befunde bekräftigt: z.B. werden unterschiedliche Hirnareale bei inhaltlichen/inhaltsneutralen Schlüssen aktiviert Abschließende Bemerkungen zum Deduktiven Denken: - Denken ist (1) nicht in dem Sinne rational, dass Schlussfolgerungen immer logisch folgen => unsystematische Abweichungen (Aufmerksamkeitsschwankungen) => systematische Abweichungen (Sprachverständnis, Grenzen der Infoverarbeitung) (2) nicht irrational in dem Sinne von zufällig und chaotisch => Logik => inhaltliche Konzepte - Der Mensch besitzt eine begrenzte Rationalität (= bounced rationality) - Die Logik kann die Gültigkeit einer Schlussfolgerung zwingend beweisen, nicht jedoch die Korrektheit der Prämissen! 4.5 Induktives Denken Definition: Induktive Schlüsse sind unsichere Schlüsse, deren Gehalt über den der Prämissen hinausgeht, aber durch diese unterstützt wird. Gültigkeit von induktiven Schlüssen - Eine induktiv begründete Hypothese (Konzepthypothese) hat nur so lange Bestand, wie kein Gegenbeispiel auftaucht. - Solange man nicht alle möglichen Beispiele erschöpfend betrachtet hat, ist ein induktiver Schluss auf ein Konzept immer mit Unsicherheit verbunden (1 schwarzer Schwan reicht) Arten von induktiven Schlüssen - Allgemeine Induktion: Generalisieren von Einzelereignissen zu allgemeinen Regeln - Abduktion: Suche nach der plausibelsten Erklärung für ein Ereignis - Analogie: Übertragung von Prinzipien aus einem Bereich auf einen ähnlichen Bereich - Probabilistisches Schließen: Schlussfolgern unter Unsicherheit, meist aufgrund von Wahrscheinlichkeiten 4.5.1 Von Einzelereignissen auf allgemeine Regeln schließen - Man beobachtet die Objekte a, b, c,…n eines bestimmten Typs und stellt fest, dass sie alle die Eigenschaft E haben: E(a), E(b), E(c) usw. GENERALISIERUNG der Eigenschaft E über die Objekte oder Ereignisse 24 - Stellt man fest, dass die aufgestellte Regel zu allgemein ist, muss man eine SPEZIALISIERUNG der Regel vornehmen (leichte Modifikation bzw. Einschränkung) Wann ist induktive Verallgemeinerung von Einzelfällen gerechtfertigt? - Je größer der Anteil beobachteter positiver Fälle ist - Je größer die Validität (Güte) der Beobachtung ist - Je größer ihre Variabilität hinsichtlich anderer Merkmale ist (Diversitätsprinzip) - Eine Vorhersage für einen neuen Fall ist umso plausibler, je ähnlicher der neue Fall dem bekannten Fall ist. Wie sollte man bei der Suche nach angemessen Generalisierungen vorgehen? - Konfirmatorische (bestärkende) Strategie (affirmativ): positive Fälle zur Stützung der Regel/Hypothese zusammentragen => positive Teststrategie - Eliminative Strategie: gezielt negative Fälle ausschließen => negative Teststrategie Welches Vorgehen im konkreten Fall ratsam ist, hängt von der formulierten Hypothese ab: Hypothese zu allgemein Hypothese zu speziell => => positive Teststrategie (spezialisieren) negative Teststrategie (generalisieren) Experiment zu Zahlenreihen von WASON (1960): Welche Strategien verfolgen Personen bei der Bildung und Prüfung von Hypothesen? - Die VPen mussten aus vorgegebener Dreierzahlenreihe (z.B. 2, 4, 6) eine Regel ableiten, selbst eine Zahlenreihe generieren und anhand der Rückmeldung des Versuchsleiters schließen, ob ihre Regel mit der tatsächlichen Regel (der des VL), welcher die Zahlenreihen zugrunde liegen, übereinstimmt. 20% der VPen verfolgten eine negative Teststrategie: Sie formulierten auf Anhieb die richtige Regel, hatten durchschnittlich 8 eigene Zahlenreihen formuliert, darunter auch viele, die nicht der eigenen Regel (formulierten Hypothese) entsprachen 80% verfolgten eine positive Teststrategie: Sie formulierten zunächst eine falsche Regel, da sie meist zu spezielle Regeln generiert hatten; sie hatten durchschnittlich 3,7 Zahlenreihen gebildet, die alle positive Fälle für die eigene Regel darstellten, was sie daran hinderte zu erkennen, dass ihre Regel zu speziell formuliert war. - Wenn man die Versuchspersonen durch eine Instruktion veranlasste, nicht nur positive, sondern ebenfalls negative Fälle zu suchen, verdreifachte sich die Zahl der VPen, die auf Anhieb die richtige Lösung fanden. Sie wandten auch das Diversitätsprinzip an, indem sie erkannten, dass unähnliche Evidenzen für weitere Generalisierungen besser geeignet sind als ähnliche. 4.5.2 Bekannte Prinzipien per Analogie auf neue Bereiche übertragen Tumor-General-Analogie von GICK & HOLYOAK (1980), nach DUNCKER (1945) siehe S. 245 Eine Analogiebildung vollzieht sich in 4 Phasen (HOLYOAK & THAGARD, 1995): (1) Zielsituation (target) - Repräsentation der aktuellen Ausgangssituation bzw. Zielsituation (2) Mentale Repräsentation der Quellsituation – Erinnerung an ähnliche Situation (Analogiequelle) (3) Korrespondenz zwischen Zielsituation und Quellsituation herausarbeiten – Welche Merkmale zwischen Quell- und Zielsituation korrespondieren? (4) Lösung – Übertragen der Lösungsstrategie der Quellsituation auf die Zielsituation 25 Nutzen einer ähnlichen Situation zur Lösung eines Problems Zwei Ähnlichkeitstypen (Ähnlichkeiten zw. Ziel- und Quellsituation): - Auf der Ebene der konkreten Bestandteile (Aussehen, Benennung etc.) => Oberflächliche Ähnlichkeit - Auf der Ebene der zugrunde liegenden relationalen Struktur => Strukturelle Ähnlichkeit Gute, tragfähige Analogien benötigen v.a. strukturelle Merkmale; empirisch zeigte sich bei den Versuchspersonen aber eher eine Tendenz für oberflächliche Ähnlichkeit! HOLYOAK & KOH (1987): Präsentation der Tumoraufgabe und einer Analogiequelle, wobei strukturelle und oberflächliche Ähnlichkeiten systematisch variiert wurden (Erweiterung des Tumor-Bsp.s) - Während des Lösens der Aufgabe wurde ein Hinweis auf die Quellsituation gegeben, die davor gelesen wurde Vor dem Hinweis, dass der Text als Analogiequelle benutzt werden könne: Sowohl strukturelle als auch oberflächliche Ähnlichkeit erleichtert die Analogiebildung in etwa gleich. Am Besten: hohe strukturelle + hohe oberflächliche Ähnlichkeit Nach dem Hinweis brachte nur noch der Quelltext mit struktureller Ähnlichkeit Vorteile für die Analogiebildung (beim Vergleich zwischen den Gruppen die 4 Gruppen verbesserten sich alle). Der Hauptvorteil oberflächlicher Ähnlichkeit (das Erinnern an die Quelle und Identifikation als Analogiequelle) wurde durch expliziten Hinweis nivelliert. Funktionen der beiden Ähnlichkeitstypen - Strukturelle Ähnlichkeit: erleichtert es, Korrespondenzen zu bilden und Lösungsprinzipien zu übertragen - Oberflächliche Ähnlichkeit: hilft, sich an ein früheres Beispiel zu erinnern und es als potentielle Analogiequelle in Betracht zu ziehen DUNBAR (2001): In Versuchssituationen werden oberflächliche Merkmale berücksichtigt, im Alltag basieren Analogien eher auf strukturellen Merkmalen. Grund: Es geht um Repräsentation der Information einerseits und Abrufbedingungen andererseits: - Um strukturelle Analogien bilden zu können, müssen Personen die Analogiequelle auch nach strukturellen Merkmalen repräsentiert haben, was in Experimenten oft nicht ausreichend der Fall ist. - Hier müssen sie die VPs erst mal an die Geschichte erinnern, was durch oberflächliche Ähnlichkeiten erleichtert wird - Im Alltag dagegen ist es meist die direkte Absicht, Analogien zu bilden, so dass man auf strukturelle Merkmale achten muss Hauptaugenmerk auf strukturellen Merkmalen! (Beide Faktoren wirken zusammen!) Analogien im Alltag - Gibt viele, z.B. bilden Schüler Analogien, wenn sie Hausaufgaben auf der Grundlage von Aufgaben aus dem Unterricht machen - Kurt Cobain ist der Jimi Hendrix der 90er Jahre Hinweis, dass zwischen den beiden Begriffen in manchen Aspekten große Ähnlichkeit besteht 26 - Fähigkeit, analoge Beziehungen zw. Begriffen zu erkennen, in IQ-Test getestet (z.B. IS-T 2000: Bsp.: Wald : Bäume = Wiese : ??? a) Gräser, b) Heu, c) Futter, d) Grün, e) Weide) => Quelle der Analogie bereits vorgegeben (Aufg.: Relation zw. ersten beiden auf letzten beiden Begriffe übertragen) Analogien in der Wissenschaft - Bei der Präsentation komplexer Ergebnisse oder bei der Bildung neuer Hypothesen - Bsp.: Wie Friedrich Kekulé auf die chem. Struktur von Benzol (C6H6) kam: Träumte von einer Schlange, die sich in den eigenen Schwanz biss und so einen Kreis bildete Molekül muss ringförmig sein (visuelle Analogie trug zu einer wissenschaftl. Entdeckung bei) Analogien bei Erklärungen - Bsp.: Wie bekommt der Körper aus der Nahrung was er braucht? Analogie zu Gebäude aus Legosteinen, aus dem man etwas anderes bauen kann 5 Regeln zur Analogiebildung (HOLYOAK & THAGARD, 1995): (1) Bekannte Quellen verwenden (2) Korrespondenzen verdeutlichen (3) Auch Aspekte beschreiben, die nicht übereinstimmen (Grenzen v. Analogien deutlich machen Vermeidung von Fehlschüssen) (4) Gegebenenfalls mehrere Analogien verwenden (Ergänzung) (5) Tiefe (strukturelle, systematische, kausale Merkmale enthaltende) Analogien verwenden Fazit: Deduktive Schlüsse: Man bestimmt Implikationen aus gegebenen Wissen und kommt damit nicht über deren Wissen hinaus. Induktive Schlüsse: Wissenserweiternd, jedoch oft nicht genauso gut gegründet wie deduktive Schlüsse und müssen manchmal auch wieder revidiert werden – Aber sie ermöglichen neue Erkenntnisse, weswegen sie genauso wichtig sind. 4.6 Entscheiden Psychologische Entscheidungsforschung: Beschreibung, Analyse und Erklärung menschlichen Entscheidungsverhaltens 4.6.1 Die klassische Entscheidungstheorie des erwarteten Nutzens In der klassischen Entscheidungsforschung (NEUMANN & MORGENSTERN, 1944) geht man davon aus, dass Personen rationale Entscheidungen treffen, d.h. sie sollten in einer Entscheidungssituation diejenige Option wählen, die den erwarteten Nutzen maximiert. 2 Faktoren bei Entscheidungen: 1. Erwünschtheit mögl. Ereignisse = Wert 2. Wahrscheinlichkeit des Eintretens mögl. Ereignisse Erwarteter Wert = [Wahrscheinlichkeit eines Ereignisses X Wert eines Ereignisses] 27 Empirisch zeigt sich jedoch, dass Personen sich nicht so verhalten, wie die Theorie es vorschreibt bzw. vorhersagt, daher wird bezüglich der Entscheidungstheorie zwischen normativ-präskriptiven und empirisch-deskriptiven Modellen unterschieden. Normativ-präskriptive Modelle: schreiben vor, wie Personen sich verhalten sollten (=> homo oeconomicus: Rationale Entscheidungen bei unbegrenzt vorhandenem Wissen, Zeit und rechnerischer Kapazität) Empirisch-deskriptive Modelle: beschreiben, wie Personen sich wirklich verhalten => Normative und empirische Entscheidungsmuster stimmen bereits bei einfachen Situationen nicht unbedingt überein! Probleme normativ-präskriptiver Modellvorstellungen: - Empirische Validität ist nicht überzeugend; - Personen entscheiden sich in vielen Situationen einfach, eindeutig und mit hoher interindividueller Übereinstimmung, aber nicht so, wie es normative Modelle vorhersagen. Bsp. für ein deskriptives Modell: Modell des erwarteten Nutzens (EDWARDS, 1954) (Subjectively Expected Utility) Das Modell entspricht der Berechnungsformel der klassischen Entscheidungstheorie, allerdings sind erwarteter Nutzen, die Wahrscheinlichkeit und der Wert eines Ereignisses keine objektiven, allgemeingültigen Variablen, sondern sie werden subjektiv von demjenigen, der sich entscheiden muss, definiert und mit konkreten Werten gefüllt. Zusammenhang zwischen objektivem Wert und subjektivem Nutzen – wie kommt es zu subjektiven Wahrscheinlichkeitseinschätzungen? 4.6.2 Rahmungseffekte und die Prospect-Theorie Prospect-Theory (KAHNEMAN & TVERSKY, 1979): Erklärt tatsächliches Entscheidungsverhalten über spezifische Annahmen zur subjektivmentalen Repräsentation und Verarbeitung des Nutzens und der erwarteten Wahrscheinlichkeit einer Option. Zwei grundlegende Annahmen sind: (1) Die Konsequenzen einer Option werden nicht absolut, sondern relativ zu einem Referenzpunkt bewertet, dem die Person zugrunde liegt. (2) Es macht für Personen einen großen Unterschied, ob sie über mögliche Ereignisse als Gewinne (pos. Nutzen einer Option) oder als Verluste (neg. Nutzen) nachdenken. Wertefunktion der Prospect-Theorie beliebte Prüfungsfragen… - Objektiver Gewinn und subjektiver Nutzen stehen nicht in linearer Beziehung zueinander! Der gleiche Betrag an Gewinnzuwachs (z.B. 1000 €) bringt umso weniger an subjektivem Nutzen, je höher der Referenzpunkt an bereits vorhandenem Gewinn (z.B. 1 € vs. 10.000 €) ist (d.h. je weiter rechts sich die Person schon auf der x-Achse befindet) => bei 1 € vorherigem Gewinn als höher empfunden - Analoge Beziehung zu Verlust und subjektivem Nutzen Verlust von 2000 € nicht doppelt so schmerzhaft wie 1000 € aber die Kurve verläuft steiler! Der subjektive Nutzen ist durch Verluste stärker beeinträchtigt als er durch Gewinne hinzugewinnt. Menschen leiden unter Verlusten stärker als sie sich über Gewinne freuen 28 Subjektiver Nutzen Verlust Gewinn Unterschiedliche Entscheidungstendenzen laut Prospect-Theory: Im Gewinnbereich: - Tendenz zur Risikovermeidung (risk aversion) - Flacher Kurvenverlauf: Gewinnzuwachs geringer als mögliche Gewinnabnahme im Verlustbereich: - Tendenz zur Risikosuche (risk seeking) Bsp.: 1.000 € gewonnen, jetzt 50 %-Chance noch mal 1.000 € zu gewinnen oder die gewonnenen 1.000 € wieder zu verlieren => Man scheut das Risiko! Umgekehrt: 1.000 € verloren, jetzt 50 %-Chance die 1.000 € wieder zu gewinnen oder noch mal 1.000 € zu verlieren => Man geht das Risiko ein! Oder z.B. bei einem Spiel, das besagt man gewinnt 8€ bei 5 oder 6 oder man gewinnt 3€ bei größer als 1: Wenn 8€ z.B. subjektiv nur doppelt so hoch bewertet werden wie 3€ (abflachende Kurve), dann wird man sich eher für Spiel 2 entscheiden Fazit der Prospect-Theorie: Personen interpretieren Entscheidungsoptionen nicht absolut, sondern relativ in Abhängigkeit eines Referenzpunktes auf der Wertefunktion. Die Entscheidungen basieren letztlich auf einer subjektiven Repräsentation der Situation und basieren auf einer Interpretation der Situation (Entscheidungsrahmen) Entscheidungsrahmen (decision frame): Mentale Repräsentation der relevanten Komponenten des spezifischen Entscheidungsproblems. SHAFIR, SIMONSON & TVERSKY (1993) Der Rahmungseffekt tritt nicht nur bei Gewinn-/Verlust-Darstellung der Konsequenzen auf, sondern auch bei einer Zusammenstellung möglicher Alternativen! (In der Studie waren es Kaufalternativen bei CD-Playern, siehe dazu S. 253f) SHAFIR (1993) Viele Entscheidungen werden weniger auf der Grundlage von Kosten-Nutzen-Betrachtungen als vielmehr auf der Grundlage von Argumenten und Rechtfertigungsmöglichkeiten getroffen! => Das Sorgerechtsproblem: Aufg. d. VPen: Entscheidung, welchem Elternteil das Sorgerecht zugesprochen wird 1. Bed.: „Zusprechen“ Wer bekommt das Sorgerecht zugesprochen? 29 2. Bed.: „Absprechen“ Wem wird das Sorgerecht abgesprochen? Info über beide Elternteile in beiden Bedingungen gleich: - Elternteil A: Person mit unauffälligen Eigenschaften - Elternteil B: Sowohl pos. als auch neg. Eigenschaften Ergebnis: Elternteil A Elternteil B Zusprechen 36 % 64 % Absprechen 45 % 55 % [ < 100 %] [ > 100 %] Erklärung: Die extremen Eigenschaften von Elternteil B machen eine Entscheidung für als auch gegen ihn besser begründbar (Fokussierung im pos. Fall auf pos. Eigenschaften, im neg. auf neg. => unterschiedl. Argumente herangezogen) Entscheidungen sind keine reine Kosten-Nutzen-Abwägung, wie von der klassischen Entscheidungstheorie postuliert! Wie gehen Personen mit sehr seltenen Ereignissen um? In vielen Alltagssituationen basieren Urteile / Entscheidungen nicht auf vollständigen Beschreibungen (wie im obigen Bsp.), sondern auf unvollständigen Erfahrungen Unterschiedliche Meinungen: - Kahnemann & Tversky: Seltene Ereignisse werden überschätzt=> Seltene aber riskante Entscheidungen werden vermieden - Hertwig et al.: - Entscheidungen fallen anders aus, je nachdem, ob die Situation als vollständige Beschreibung gegeben ist oder ob die Entscheidungssituation persönlich erfahren wird - Seltene Ereignisse werden unterschätzt => Riskante Entscheidungen werden getroffen 4.6.3 Urteilen unter Unsicherheit Ingenieur-Rechtsanwalt-Problem (KAHNEMAN & TVERSKY, 1973): Zwei Arten von Infos wurden vorgegeben: 1. Basisrate: Von den 100 interviewten Personen sind 30 Ingeneure u. 70 Rechtsanwälte (= Gruppe 1; Gruppe 2 andersrum) a priori-Wahrscheinlichkeit dafür, dass eine Person ein Ingenieur (Rechtsanwalt) ist, beträgt 30 % (70 %) 2. Spezielle Fallbeschreibung (Jack oder Dick) - Die Versuchspersonen sollten eine zufällig gezogene Personenbeschreibung einer der beiden Berufsgruppen zuordnen. - Normativ-präskriptive Argumentation: Bei der Beurteilung des Einzelfalls müssen auch die Basisraten berücksichtigt werden. Ergebnis: - Keine Unterschiede in den Einschätzungen der beiden Gruppen, trotz unterschiedlicher Basisraten - Die VPen ignorierten völlig die Basisrate: Sie trafen ihre Entscheidung allein auf der Grundlage der inhaltlichen Infos (der Personenbeschreibung) => Negation der Basisrate 30 Weiteres Beispiel: Medizinische Diagnose – Wahrscheinlichkeit v. Brustkrebs (EDDY, 1982) Fallbeschreibung für Brustkrebsuntersuchung, 2 Gesichtspunkte: 1. Angabe der a priori-Wahrscheinlichkeiten bzw. Basisraten für Brustkrebs und 2. Berücksichtigung der eingeschränkten Zuverlässigkeit der Tests (kein deterministischer Zusammenhang zwischen Testergebnis und Gültigkeit der Hypothese, sondern probabilistischer Zshg.) Grundlage: Bayes Theorem => Berechnung der a posteriori-Wahrscheinlichkeit (Patientin lässt sich testen und hat tatsächlich Brustkrebs (Brustkrebs / positiver Test)) dafür, dass eine best. Hypothese zutrifft, wenn die a priori Gültigkeit dieser Hypothese und die bedingte Wahrscheinlichkeit für den Grad an Evidenz bekannt sind (siehe S. 256/257) Ergebnis: Kaum eine VP wendet das BAYES-Theorem an, nicht einmal Personen mit entsprechendem Vorwissen (hier: Ärzte)! Zudem werden – wie bei Kahneman & Tversky – die Basisraten vernachlässigt. => Erklärung Kahneman & Tversky: Menschen verwenden wegen der Beschränkungen ihrer Kapazität der Infoverarbeitung einfache Entscheidungsregeln = Heuristiken Heuristiken (KAHNEMAN & TVERSKY, 1974): Ähnlichkeitsheuristik: - Repräsentativitätsheuristik; subj. Wahrscheinlichkeit für ein Ereignis ist umso größer, je repräsentativer das Ereignis für die Population ist, aus der es stammt - Typische Fehler sind hierbei die Vernachlässigung der Basisrate zugunsten von inhaltlich vermittelten stereotypen Informationen, die Vernachlässigung der Stichprobengröße, falsche Vorstellungen von Zufallsmerkmalen, die Außerachtlassung der Regression zur Mitte und die Überschätzung der Wahrscheinlichkeiten von Konjunktionen Verfügbarkeitsheuristik: - Subj. Wahrscheinlichkeit für ein Ereignis ist umso größer, je verfügbarer das Ereignis für die Population ist, aus der es kommt, d.h. je leichter / schneller man in der Lage ist, sich ein Beispiel für das Ereignis vorzustellen oder in Erinnerung zu rufen - Typischer Fehler: Beeinflussung durch Lebhaftigkeit der Darstellung / Leichtigkeit der Erinnerung an das Bsp. - Kann ebenfalls Neigung zur Vernachlässigung der Basisrate begünstigen; die Informationen (etwa einzelne Beispiele), die am leichtesten erinnert werden können, werden in der Entscheidungssituation „bevorzugt“ 4.6.4. Eingeschränkte und ökologische Rationalität SIMON (1956, 1990): Bounded Rationality (Konzept der eingeschränkten Rationalität) Die menschliche Kognition besitzt viele „Handicaps“: - begrenzte Aufmerksamkeit - begrenztes Gedächtnis - unvollständiges Wissen - einfache Verarbeitungsstrategien - teilweise serielle Verarbeitung Daher muss das menschliche Infoverarbeitungssystem, also die Kognition, seine Entscheidungen den eigenen Einschränkungen und Anforderungen anpassen. Die Herausforderung für den Menschen besteht in einem ressourcen- und situationsadäquatem, nicht in optimalem Verhalten. 31 GIGERENZER et al.: Menschliches Urteilen / Entscheiden unter Unsicherheit ist weniger durch allgemeine Heuristiken beeinflusst, sondern durch spezifische Einflüsse, wie die Art der Aufgabenstellung und Inhalt derselben. GIGERENZER & HOFFRAGE (1995): Nachweis, dass das Repräsentationsformat einen entscheidenden Einfluss auf die Leistung der Person hat. Das Medizindiagnose-Problem (Krebswahrscheinlichkeit) ist wesentlich leichter zu lösen, wenn die Aufgabenstellung anstatt Wahrscheinlichkeiten absolute Häufigkeiten beschreibt (S.259). Wahrscheinlichkeiten stellen für Personen abstrakte, künstliche und schwer verständliche Informationen dar, während absolute Häufigkeiten vielmehr der natürlichen und vertrauten Art der Problem- und Informationsrepräsentation entsprechen. Werden Informationen umweltgerecht dargeboten, haben Personen oft Strategien zur Hand, um die Info korrekt und einfach zu verarbeiten. Frugale (einfache) Strategien: - Kommen mit minimaler Information aus, arbeiten schnell, einfach und (in passenden Situationen) akkurat - Sind wenig aufwendig, aber effektiv => ökologisch sinnvoll Wiedererkennungsheuristik (Rekognitionsheuristik) - „Welche Stadt hat mehr Einwohner: San Diego oder San Antonio? San Diego richtig (amerikan. Studierende: 62 %, dt. Studierende: fast 100%, obwohl sie weniger über die Städte wussten) Erklärung: Wenn von 2 Objekten eines wieder erkannt wird und das andere nicht, dann könnte das bedeuten, dass das erkannte Objekt den höheren Wert hat / bedeutsamer ist Verwende-den-besten-Prädiktor (Take-the-best)-Heuristik - 2 Objekte sollen verglichen werden und für beide sind mehrere Indikatoren bekannt, die für den Vergleich nützlich sein können - Indikatoren werden sukzessiv angewandt, beginnend mit dem vermeintlich „besten“ Prädiktor - Sobald ein Indikator zwischen den beiden Objekten diskriminiert, wird die Verarbeitung abgebrochen und das entsprechende Urteil getroffen - Bsp.: „Welche dt. Stadt hat mehr Einwohner: Hamburg oder Köln?“ - Bester Prädiktor für die Größe einer Stadt: Flughafen Beide Städte haben einen Flughafen - Nächst bester Prädiktor: Status als Hauptstadt Beide keine Hauptstadt Dtlds., aber Hamburg ist Hauptstadt eines Bundeslandes Frugale Strategien stützen sich auf drei Regeln: o Suchregeln: legen fest, in welcher Reihenfolge Info eingeholt wird o Abbruchregeln: legen fest, wann Infosuche abgebrochen wird o Entscheidungsregeln: legen fest, wie auf Grundlage der Info eine bestimmte Entscheidung getroffen wird Fazit zu Heuristiken: Falls der Aufgabenkontext (Anforderungen) und die jeweilige Heuristik zusammenpassen, sind Heuristiken robust, wenig fehleranfällig und sehr leistungsfähig! 32 4.7. Wissenschaftliches Denken und Problemlösen = Untersuchung der Denkleistungen, die bei Hypothesengenerierung, Experimenten, Interpretation und Evaluation eine Rolle spielen. Drei Forschungsansätze: (1) Historische Fallstudien Versuch, über Aufzeichnungen, Tagebücher u.Ä. von bedeutenden Wissenschaftlern, große Entdeckungen und die zugrunde liegenden motivationalen und kognitiven Prozesse, sowie Wissensinhalte etc. nachzuvollziehen. Bsp.: Bell-Erfindung des Telefons (MURDOCK et al., 1998) Probleme: o Geringe Generalisierbarkeit, große interpretative Freiheitsgrade o Geringe Reliabilität (retrospektive Aufzeichnungen / Interviews) o Geringe Introspektions- / Auskunftsfähigkeit der Wissenschaftler (2) In-vivo-Untersuchungen (Feldbeobachtung) Beobachtung v. Wissenschaftlern im Forschungsalltag (sozialer Kontext berücksichtigt) Ziele: - Repräsentation und Nutzen bereichsspezifischen Wissens belegen - Rolle von Analogien analysieren - Heuristiken offen legen (=> Planung und Durchführung von Experimenten) - Einfluss des sozialen Kontexts bestimmen - Determinanten „erfolgreichen“ wissenschaftlicher Forschung zu diagnostizieren Vor- und Nachteile: o Hoher Auflösungsgrad o Berücksichtigung des sozialen Kontext o Nicht unbedingt gewährleistet, dass im Beobachtungszeitraum tatsächlich bahnbrechende Erkenntnisse gelingen o Sehr aufwendige Methode (3) In-vitro-Untersuchungen (experimentelle Laboruntersuchungen) - Systematische und kontrollierte Untersuchung von Entdeckungsprozessen mit: - Künstlichen Mirkowelten - Realitätsnahen virtuellen Experimentallabors - und immer durch Verwendung von Protokollen lauten Denkens - Oft computergestützte Szenarien eingesetzt / simulierte Experimente Vor- und Nachteile: - Hohe zeitliche Auflösung - Kontrolle möglicher Störeinflüsse - Ausblendung des sozialen Kontexts - Im Mittelpunkt stehen nicht singulären Entdeckungen, sondern allgemeine kognitive Prozesse, die dem wissenschaftlichen Denken generell zugrunde liegen. Allgemein: Egal welchen Forschungsansatz man verfolgt, wissenschaftliche Arbeit wird nicht unbedingt durch Hypothesen vorangetrieben, sondern durch Überraschungen und Anomalien, die es zu erklären gilt (KLAHR & SIMON, 1999). 33 4.7.1 Mikrowelten Ausgangpunkt von Untersuchungen zum wissenschaftlichen Denken mit künstlichen Mikrowelten: Studie von KLAHR & DUNBAR (1988): Big Trak - Probanden sollten durch Experimentieren eine unbekannte Steuerfunktion eines Fahrzeugs (Big Trak) erkunden (näheres weiter unten) Scientific Discovery as Dual Search (SDDS) – Theorie: Wissenschaftliches Entdecken vollzieht sich als koordinierte Suche in zwei verschiedenen Problemräumen, dem Hypothesenraum (gemeinsamer Raum aller Hypothesen) und dem Experimentalraum (Struktur des Raums möglicher Programme) Big Trak: Den VPen wurde die Steuerung erklärt, dann sollten sie die Funktionsweise einer unbekannten Steuerungstaste herausfinden, indem sie Hypothesen formulierten und diese dann mit entsprechenden Experimenten überprüften. Bei der Überprüfung der Hypothesen zeigten die VPen ein „Experimentalverhalten“, das deutlich von der Logik wissenschaftlicher Forschung abwich (in über 50 % der Fälle wurde die nicht-bestätigte Hypothese beibehalten, in 25 % der Fälle wurde eine bestätigte Hypothese nicht beibehalten). Für den Erfolg wissenschaftlicher Forschung ist die Koordination der Suche im Hypothesen- und im Experimentalraum von entscheidender Bedeutung! Offen bleibt die Frage der externen Validität, also inwieweit die Studie für wissenschaftl. Problemlösen angemessen ist. 4.7.2 Simulierte Experimentallabore DUNBAR (1993): Simuliertes molekulargenetisches Labor (SMG) (realitätsnahes Szenario) - Durchführung von Experimenten zu verschiedenen Wirkungsweisen von Genen am Beispiel von Escherichia coli (= vorwissensintensives Szenario) DUNBAR konnte die zentrale Bedeutung der Ziele, die Probanden haben, für o die oben genannte koordinierte Suche im Hypothesen- und Experimentalraum und o für den Wissensabruf bei der Experimentalplanung nachweisen! Versuchsablauf gliederte sich in zwei Phasen: 1. Phase (Lernphase): Bewältigung einer einfachen Entdeckungsaufgabe 2. Phase (eigentliche Aufgabe): - Strukturell ähnliche, aber komplexere Aufgabe Gute vs. schlechte Problemlöser konnten anhand d. anfänglichen Zielsetzung erkannt werden: - Schlechte Problemlöser hatten mehrheitlich das Ziel, die Aktivierungshypothese aus der ersten Phase zu bestätigen - Gute Problemlöser formulierten das Ziel, die Ursache für eine in der zweiten Experimentalphase auftretende Anomalie (unerwartete Glukoseproduktion der untersuchten Zellen) zu finden Die Ursache für die Blockade der Problemlösestrategie war vermutlich eine Art Einstellungseffekt (hartnäckiges Festhalten an der ersten, aber falschen Aktivierungshypothese) 34 6.3. Kooperation und Expertise Kritik an den vitro-Studien (s.o.): Vernachlässigung des sozialen Kontextes Untersuchungen zum kooperativen Problemlösen - In vorwissensarmen Problemstellungen (Bsp.: 2-4-6-Aufgabe, BIGTRAK-Szenario): Leistungsüberlegenheit von Dyaden OKADA & SIMON (1997): Verwendeten SMG von DUNBAR Teams (Dyaden) vs. Einzelpersonen: - Teams sind erfolgreicher bei der Bearbeitung wissenschaftlicher Probleme - Teams formulieren mehr Hypothesen, explorieren Alternativhypothesen eingehender und begründen ihre Ablehnung unter Nutzung bereichsspezifischen Wissens besser - Teams begründen die eigenen Hypothesen besser (Zugriff auf vorhandenes Wissen, detaillierte Erklärungen) Gründe dafür (z.B. MIYAKE; 1986): - Die Präsenz von Partnern regt Probanden zu erklärenden Verbalisierungen an => Hilft, die vorhandene Information zu integrieren - Monitoring und Hinterfragen von Theorien sowie ihre Stützung durch Kooperationspartner resultiert in begründenden Erklärungen => Verstärkter Lerneffekt Diese Aussagen werden durch Untersuchungen zum Selbsterklärungseffekt unterstützt: => Personen, die sich intensiv mit vorgegebenen Musterlösungen auseinandersetzen, diese aktiv elaborieren und sich selbst ausführlich erklären, erreichen eine deutliche Steigerung der Problemlöseleistung. Kritik an der Studie von Dunbar: Die VPen waren Studierende, keine Wissenschaftler (Experten), weshalb die externe Validität eingeschränkt war. SCHUNN & ANDERSON (1999): Virtuelles psychologisches Labor (SPL) - Berücksichtigten den Expertisegrad der Versuchspersonen (systematisch variiert) - Die VPen mussten sich zwischen zwei Theorien, die bestimmte Phänomene erklärten, mittels simulierter Experimente entscheiden. Probanden: - Bereichsexperten: Hohe Werte für allgemeine und spezifische Fertigkeiten - Aufgabenexperten: Defizite in inhaltsspezifischen Fertigkeiten, gute allgemeine Fertigkeiten - Studenten: Ebenso Defizite in spezifischen Fertigkeiten, in allgemeinen Fertigkeiten schlechter als die Aufgabenexperten Allgemeine methodisch-wissenschaftliche Fertigkeiten und spezifisch-inhaltliche Fertigkeiten korrelieren danach nicht mit mathematisch-rechnerischen Fähigkeiten. Studierende können sich durch die Arbeit in Mikrowelten und PC-basierten Experimentallabors im Bereich zentraler Fertigkeiten wissenschaftlichen Argumentierens verbessern; besonders förderlich sind dabei kooperative Lernsituationen. Beim kooperativen Problemlösen konzentrieren sich Studierende auf die Überprüfung der vorgegebenen Theorie und sind gründlicher bei der Interpretation von Daten hinsichtlich deren Aussagekraft Bei „echten“ Wissenschaftlern ist das Zusammenwirken von allgemein-methodischen und spezifisch-inhaltlichen Kompetenzen besonders wichtig. 35