Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Thinking and Reasoning Ed. By Keith J. Holyoak and Robert G. Morrison Chapter 1: A Reader’s Guide Ich denke, also bin ich. (Descartes) Denken macht unsere Identität aus, definiert uns also noch mehr als unsere Sprache: Wenn jemand die Fähigkeit zu Sprechen verliert, ist er bloß Stumm – verliert er aber durch eine Läsion die Fähigkeit zu Denken, so hat dies tief greifende Persönlichkeitsveränderungen zur Folge. Was ist Denken? Im alltäglichen Sprachgebrauch hat „Denken“ viele verschiedene Bedeutungen. Im Englischen wären das beliefs, foresight, judgment etc. Also ähnlich wie im Deutschen. Denken kann in Kinds-Orderings unterteilt werden oder in Part Orderings – part-ofs systematisiert werden. Somit hätten wir als mentale Aktivitäten eine Hierarchie von unten nach oben bei den Kinds und von oben nach unten bei den parts orderings, in welche sich die folgenden Begriffe einordnen: Thinking Conceptualizing Remembering-Reasoning-Reading (alternativ: bei part oderings ist rememb. Übergeordnet) Deciding Planning Schlussfolgern (Reasoning) basiert auf dem Ziehen von Schlüssen (conclusions) aus initialen Informationen (Premises). Man kann induktiv oder deduktiv schlussfolgern. Urteilen und Entscheiden bezieht sich auf Werte und Wahrscheinlichkeiten sowie Alternativen. Problemlösen bedeutet, eine Aktion zu konstruieren um ein bestimmtes Ziel zu erreichen. Def.: Denken ist eine systematische Transformation mentaler Repräsentationen von Wissen um aktuelle oder mögliche Zustände der Welt zu Charakterisieren. Dies dient oft Zielen. Das klingt jetzt ziemlich kompliziert und wird daher erstmal erläutert bzw. auf gebräuchliches Deutsch übersetzt: Denken ist eine Umformung, die bestimmten Regeln unterliegt (system. Trans) Dabei werden innere Beschreibungen umgeformt. (mentale Repräsentationen) Diese inneren Beschreibungen beziehen sich auf das was in der Welt ist, oder sein könnte (aktuelle oder mögliche Zustände der Welt) Solche Umformungen dieser Beschreibungen machen wir meistens nicht einfach so (schließlich sind wir nicht alle Philosophen) sondern sie haben ein Ziel: Kurzum, wir Denken, weil wir Denken müssen um zu einem sinnvollen Resultat zu kommen. Da steht vieles drinnen, aber es fehlt auch vieles. Z.B. steht nicht drinnen, dass nur Menschen denken können. Auch Tiere denken! Oder man denke an die künstliche 1 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Intelligenz… Und was noch nicht drin steht, ist das Denken rational, optimal, wünschenswert und klug sein müsste. Wir können also ganz schön blöd denken, es ist aber trotzdem „Denken“. Ein Stück Geschichte Denken und Schlussfolgern war und ist eines der Lieblingsthemen von Philosophen. Kant, Hume, Hobbes u.a. beschäftigten sich mit „unserer Materie“, bis später die Gestaltpsychologen das Ruder an sich rissen (Duncker, Wertheimer, Köhler). Sogar Freud beschäftigte sich mit kalten kognitionen und heißen Emotionen. Piaget, Vygotsky usw. beschrieben die Entwicklung des Denkens. In Russland brachte der Neurologe Luria die Thematik auf eine biologische Ebene. In den US wurde die Thematik von Simon auf die Wirtschaft angewandt und er erhielt sogar einen Nobelpreis. In GB beschäftigte man sich ab 1943 mit Modellen. Die moderne Forschung entspringt der computationalen Analyse des Denkens aus den 70ern. Rosch (stützte sich auf Bruner) fragte nun nach dem Warum der Kategorisierung in unserem Denken und fand die natürlichen Kategorien mit ihren „fuzzy boundaries“ mit zentralen Tendenzen und Prototypen. Tversky und Kahneman identifizierten kognitive Strategien (Heuristiken) für schnelle, sichere Entscheidungen. Marr löste mit seinem technisch-orientierten Buch Vision eine computationale Implementation psychischer Repräsentationen aus: Repräsentationen und Algorithmen waren nun eine Input-Output Relation in einen cash-Register. Dann folgten neurale Netzmodelle, kognitive Neurowissenschaften usw. Chapter 3: Concepts and Categories: memory, Meaning, and Metaphysics Einführung Konzepte sind allgemeinhin als mentale Repräsentationen akzeptiert, die sich auf eine bestimmte Kategorie von Objekten (Entitäten) bezieht. Was alles in diese Kategorie gehört wird durch Regeln definiert. Die grundsätzlichen Funktionen von Konzepten sind die Kategorisierung und die Kommunikation. Das Wissen über ein Konzept führt zu Verständnis und so zur Möglichkeit, Vorhersagen zu treffen. So kann anhand neuer Einheiten das KonzeptRepertoire einer Person erweitert werden: Kategorisierung erleichtert das lernen. Auch können Planungen von Handlungen zur Erreichung von Zielen anhand von Konzepten erleichtert werden. All diese Auswirkungen von Konzepten betreffen das Gedächtnis und die Gedächtnisorganisation, da Konzepte letztendlich nichts anderes als mentale Repräsentationen im Gedächtnis sind. Geschichte Die zwei zentralen Fragen der Forschung waren: 1. Werden Konzepte durch graduelle Zunahmen der Assoziativen Stärke gelernt oder lernen wir nach einem „alles oder nichts“-Prinzip? 2. Welche Art von Regeln oder Konzepten werden am einfachsten gelernt? Die erste Forschung basierte dabei v.a. auf künstlichen Konzepten. In diesem Sinne war Kategorielernen ein Herausfinden der Definition der Zugehörigkeit zu einer Kategorie. Ein erster Wendepunkt erfolgte im Zuge der Modelle zur Gedächtnisorganisation, wo Quillian (1967) das hierarchische Modell für semantische Information anhand eines Computerprogramms darstellte. Es gibt dabei generelle Regeln die ökonomisch für 2 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] jede übergeordnete Kategorie gelten, aber nicht zwingend gelten müssen, da die Merkmale für untergeordnete Entitäten oder Kategorien auch Ausnahmen erlauben. Anhand des hierarchischen Zugriffes auf Informationen (z.B. Merkmalsinformation aus der übergeordneten Kategorieregel vs. Aus der über-übergeordneten Kategorieregel) wurden Vorhersagen zu Reaktionszeiten getroffen, die so auch bestätigt wurden. Andere Belege lieferten die Experimente des lexikalischen Primings, wo Wortbedeutungen leichter aufgefunden wurden, wenn zuvor ein semantisch-verwandtes Wort geprimed wurde. Der zweite Wendepunkt widersprach dem Modell der globalen Gedächtnisorganisation in Quillians Semanitschem Gedächtnis. Dieser findet sich in Eleanor Roschs (frühe 70er) „family resemblance“: Die Ähnlichkeiten eines Objektes zu den anderen Objekten einer Kategorie bestimmt die Stärke der Zugehörigkeit. Dies ließ sich in Typikalitäts-Beurteilungs-Experimenten nachweisen. Die Hierarchische Struktur behielt Rosch et. Al bei, indem sie „basic-level categories“ vorschlug, die sich wieder in der Realität bestätigen ließen: Überlappende Informationen von Kategorisierungen bestimmte die Reaktionszeit (ein Spatz ist ein Vogel vs. Ein Pinguin ist ein Vogel). Diese Ähnlichkeit zueinander, in einer Kategorie, nennt sich Typikalität. Semantik ist mehr als nur eine Bedeutungsbestimmung eines Wortes. Ein einzelnes Wort hat in verschiedenen Sätzen unterschiedliche Bedeutungen, sodass die Prototyp-Bedeutung des Wortes alleine vielschichtig einsetzbar ist. Die Fuzzy set theory von Zadeh, 1965 thematisiert genau diese unvorhersagbare Abweichung einer Bedeutung in einem Satz von der Prototyp-Bedeutung eines Wortes. Das Problem der Bedeutung neuer Sätze bleibt damit aber dennoch ungeklärt. Funktionen und Befunde Wie Roschs Family resemblance-Hypothese, so schlägt auch die Prototype-View vor, dass Menschen die Charakteristiken einer Kategorie lernen um diese zu Repräsentieren. Posner und Keele belegten den Vorschlag einer PrototypAbstraktion indem sie Evidenz für eine Abnahme korrekter Kategorisierung bei Zunahme der Abweichung von Prototypen verzeichneten. Es zeigte sich auch, dass das Gedächtnis für gelernte Muster schneller verfiel als jenes für gelernte Prototypen. Trotzdem werden gelernte Beispiele in der „exemplar view“ als Facilitatoren zum Erwerb neuer Kategorisierungen gesehen. Beispiele sind auch hilfreicher zur Kategorisierung anhand von within-category-Beziehungen. Neuere Modelle betreffen Rationelle Zugänge, Entscheidungsbezogene Modelle und Neurale-Netzwerkmodelle: Anderson (1990) beschrieb Kognition und Kategorisierung als (rationale) Analyse der verfügbaren Information in der relevanten Situation um abstrakt zu bestimmen was die effizienteste, wenn nicht gar optimale Strategie wäre. Entscheidungsbeozogene Modelle proklamieren dass Kategorielernen in der Entwicklung von Entscheidungsgrenzen einer Kategorie besteht. Je näher ein Item an der Entscheidungsgrenze liegt, desto schwieriger sei es zu kategorisieren. Neurale Netzwerkmodelle konzeptualisieren Konnektionistische Modelle, wo versteckte Einheiten, Aufmerksamkeitsprozesse, Rücklauf etc. eine Rolle spielen. Dabei ist v.a. wichtig, dass within-category-Beziehungen durch bottom-up Strukturen besser erklärbar werden. Die Modelle können anhand von mixed models ineinander überführt werden: Regeln, Beispiele und Entscheidungsgrenzen sowie Prototypen werden so miteinander kombiniert. Z.B. das Multiple Gedächtnissystem von Knowlton und Squire setzt eine Dissoziation zwischen Kategorisierung und Erkennung voraus: Explizites Gedächtnis wäre dabei für Beispiele zuständig und das Implizite System bezöge sich eher auf die 3 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Prototyp-Abstraktion. Amnesiepatienten hätten dann das explizite System verloren aber könnten wegen intaktem Gedächtnis ohne weiteres Klassifikationen vornehmen. Es gab aber auch Belege gegen diesen Zugang. Ein weiterer Zugang beschäftigte sich mit dem Inferenz-Lernen, welches auf dem Nutzen der Kategorisierung basiert, der in den anderen Modellen nicht beachtet wurde. Dabei wird auch vorgeschlagen, dass eine Kohäsive Kategoriestruktur für das Inferenzlernen wichtiger ist als für die Klassifikation. Die Regeln für Kategorisierung beziehen sich auf oberflächliche Merkmale und sind nicht relevant für die Kontexte multipler Funktionen oder Bedeutungen. Das Merkmalslernen setzte bislang voraus, dass diese Merkmale unveränderlich bleiben, was heute aber flexibler gesehen wird. Merkmalslernen ist auch für die Bedeutung von Ähnlichkeit bei Kategorisierung wichtig, da diese Ähnlichkeit dann unter dem Gesichtspunkt der Merkmale nur ein Nebenprodukt von Kategorielernen ist. Schlussfolgern wird durch between-category-Beziehungen geleitet. Sprachliche Funktionen werden auch durch Konzepte moduliert, da das Verständnis und diskursive Denken über Dinge auf Konzepten beruht. Konzepte können auch als Positionen in Gedächtnisstrukturen gesehen werden. Dazu stellt sich die Frage, inwiefern die Netzwerke verschiedener Personen übereinstimmen müssen, um dieselbe Bedeutung für ein und denselben Begriff zu finden. Goldstone und Rogosky (2002) testen die Verschiedenartigkeit in Form von „noise“ in der Distanz zwischen Begriffen und finden einen Zusammenhang zwischen Korrektheit der Kategorisierung und der Menge an Noise. Konzeptkombinationen produzieren eine breitere Einheit an linguistischer Bedeutung. In der Sprache heißen solche Kombinationen Komponenten, wobei man zwischen dem head-noun und dessen modifier (adjektiv) unterscheidet. Wie hängt die Typicalität in diesen Kombinationen von der Typikalität der einzelnen Komponenten ab? Man kann diese Abhängigkeit getrennt oder als gemeinsames gesamt-neues Konzept betrachten. Die Komplexität verschiedener Modelle variiert dabei. Z.B. hat Smith (1988) die adjectiv-Nomen Kombinationen anhand von Wertänderungen erklärt: Das Adjektiv ändert den Wert des Nomens (intersektion). Kompliziertere Modelle hingegen (noninsertective) sprechen von einer Beziehung die den Modifizierer und den Kopf verbindet, oder von einem Wert der dem Modifizierer entnommen und dem Kopf zugeschrieben wird. Eigenschaften können aber die Typicalität beeinflussen und somit ergibt sich die Typicalität aus Kombinationen nicht aus einer Funktion der Typicalität ihrer Komponenten. Rips (1995) nannte dies das „no peeking principle“, nämlich dass man nicht auf die einzelnen Bezüge der Komponenten zeigen darf. Manche Kombinationen sind erschwerend noch „compounds“ bzw. lexikalisierte Phrasen. Die Schwierigkeit bei deren Kategorisierung besteht in der über die einzel-Repräsentation hinausgehenden Bedeutung der Komponenten (z.B. geräucherte Äpfel: Geräuchertes schmeckt gut, Äpfel schmecken gut, aber geräucherte Äpfel…?). Inferentielle und Problemlösungs-Fähigkeiten sind komplexe Prozesse. Daher ist es kaum möglich, sie für die Geschwindigkeit beim Sprechen und Verstehen verantwortlich zu machen. Andere Modelle sind Atomistische Annahmen. Modelle über Latente semantische Analysen nehmen die Häufigkeit eines Wortes in spezifischen Kontexten und setzen sie aufgrund dessen in die Nähe der Kontexte. Dabei entsteht ein 300-Dimensionaler Raum wo in diesem Riesen-Daten-Körper die indirekten Verbindungen zwischen Wörtern über deren Bedeutung informieren. Dadurch bleibt aber der Erwerb neuer Sätze sowie der Satzstruktur ungeklärt. Beziehungen zwischen Semantiken sind asymmetrisch (vater=verwandter aber 4 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] verwandter=?vater). Das Online-Satz-Verständnis erfolgt schnell und reliabel. Vielleicht sollte man zwischen der Interpretation und dem Verständnis solcher Phrasen unterscheiden. Verständnis wäre dann eine Wortbasierte Erkennung der Bedeutung neuer Phrasen. Interpretation hingegen beruht auf dem Ergebnis des Verständnisses plus Inferenz und Wissen. Man könnte Wortbedeutungen als mentale Einheiten repräsentieren, deren semantischer Wert von der kausalen Beziehung der Referenzen stammt. Generikum-Nomen-Phrasen haben einen normativen Inhalt (Vögel können Fliegen.). Diese Normativität wird akzeptiert, obwohl offensichtlich ist, dass es zahlreiche Ausnahmen gibt. Diese Sätze sind auch ein beliebtes Instruktionsmittel in der Erziehung. Sie werden nämlich bereits von 4jährigen von den Allquantor-Sätzen unterschieden. Polyseme Wörter haben mehrere gekoppelte Bedeutungen, im Gegensatz zu Homonyme, die haben viele ungekoppelte Bedeutungen, oder Kontextvariationen, das ist eine andere Benützung derselben Bedeutung. Die Beziehungen der Bedeutungen von Polysemen Wörtern hat dabei eine eigene Typikalität. Forscher beschäftigten sich mit der Frage, ob jede einzelne Bedeutung abgespeichert wird oder nur die Kernbedeutung. Diese Forschung stößt sich aber an der Irregularität, wie verschiedene Bedeutungen zustande kommen. Theorien, Module und Psychometaphysics Generelles Wissen über eine Kategorie ist bei der Nützung von Hintergrundwissen bei der Interpretation von Kombinationsphrasen relevant. Aber nicht nur dort: Hintergrundwissen wird auch aktiviert, wenn es einfache Entscheidungsregeln gäbe. Natürliche Kategorien implizieren meist kausale Information, da Physikalische Gründe die Kategorie bestimmen. Bei Artifacts ist die relevante Information die Absicht der Person, die dieses Objekt produziert hat. Die Psychometaphysics ist der Glaube der Personen über den Locus der Kausalen Kräfte. Dieser Glaube könnte sich auf eine Kausalität oder eine ganze menge solcher Kausalen Kräfte beziehen. Sie könnten modular (isoliert), angeboren, universal und in spezifischen Hirnregionen lokalisiert sein. Sie könnten aber auch frei fließend, gelernt, kulturspezifisch und im Kortex verteilt sein. Psychologischer Essentialismus bezieht sich auf die internale Eigenschaft – Essenz eines Objektes, das die Existenz, Kategorie, Merkmale usw. ausmacht. Dabei geht es aber nicht um die Natur sondern um den Glauben der Menschen über diese Objekte. Außerdem haben Menschen keine voll ausgearbeitete Erklärung dessen, was eine Essenz ist. Sie haben einen Glauben darüber, dass es da etwas geben muss, das relevant für dessen Essenz ist, auch wenn man das nicht beschreiben kann. Essenzen lassen Annahmen zu und motivieren zur genaueren Untersuchung von Charakteristika. Evidenz dafür ist aber nur indirekt nachweisbar - z.B: Tiefere Ursachen (die selbst wenig Ursachen und viele Effekte haben) spielen in der Kategorisierung bei Erwachsenen eine größere Rolle. Strevens minimalistische Alternative ist, dass Menschen für jede typische Eigenschaft eine Ursache besteht und dass es auch ein bisschen von verschiedenen Eigenschaften abweichen kann. Lernen Menschen Künstliche familiäre Ähnlichkeitskategorien, so glauben sie, dass jede Kategorie eine eigene definierende Eigenschaft besitzt. Also hat Essenzialismus nichts mit natürlichen Arten zu tun? Sortalismus geht nicht von der Essenz als Identität eines Objektes aus sondern von der Unterscheidung dieses Objektes von anderen. Die kritische identitäts-verleihende Kategorie beantwortet die Frage „Was ist es?“. Diese Identitäsbedingungen sind mit lediglich einer Kategorie für jedes Objekt verbunden und nennen sich dann Sortals. 5 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Sortalismus. Es gibt Evidenz aus Studien, dass kleinen Kindern diese Fähigkeit fehlt, Objekte über temporäre Brücken wieder zu erkennen – man führte dieses auf die fehlenden Konzepte zurück. Ein Widerspruch in dieser Theorie findet sich in der Unmöglichkeit, Existenz und Essenz zu vereinbaren. Mitglieder von sortalen Kategorien können ihre Essenz nicht verlieren, ohne ihre Existenz zu verlieren. Entsprechend können wir auch nicht Widerspruchsfrei glaub en, dass basic-level Kategorien Sortals sind und dass Objekte von einer zur anderen basic-level Kategorie springen können. Sortalismus beschreibt Identität also unzureichend. Domänenspezifität Lernen in gegebenen Domänen ist durch Prinzipien, Implikationen und möglicherweise angeborene Annahmen über die Welt geleitet. 2 Domänen können unterschieden werden wenn sie ontologisch verschiedene Einheiten und Phänomene repräsentieren und in verschiedene kausal-explanatorische Rahmen gefasst sind. Eine dieser Domäne ist die naive- oder Volks-Biologie und die dazugehörigen Universalitäten. Die Art-Spezien (generic species) stimmen oft mit den wissenschaftlichen Spezies überein. Kulturen organisieren die Biologie in eine Hierarchie, die in den verschiedenen Kulturen wenig variiert. Bei dieser Taxonomie geht es aber nicht um Nützlichkeit. Die Hierarchie schlägt sich auch im Schlussfolgern nieder (induktive Inferenz) indem unter Vorschülern von einer weißen Eiche auf alle weißen Eichen eher geschlossen wird, als von einem Baum auf weiße Eichen. Das widerspricht Roschs basic-level-Studien. Dabei spielt aber offensichtlich statt Wissen eher die Erwartung über eine Benennung eine Rolle, sodass dieser Widerspruch vorsichtig interpretiert werden muss. Differenzen zwischen Domänen wurden ausführlichst anhand der Unterscheidung Psychologie vs. Biologie untersucht. V.a. an Kindern zeigt sich eine eher biologische Sichtweise von Erblichkeit u.a., also eher ein eigenes biologisches Konzept. Die relevanten Hirnregionen für die Domänen werden evident, wenn man sich verschiedene Läsionsstudien vor Augen hält. Das könnte man aber auch interpretieren, indem man unterschiedliche Informationen (Wahrnehmung für Lebende Objekte, funktionale Information für Künstliche Objekte) für die Domänen annimmt. Ist etwa auch die Gedächtnisorganisation domänenspezifisch? Wir können auch mit Informationen arbeiten, die schlecht organisiert sind. Einerseits wurde semantisches Gedächtnis zunächst als hierarchisches Netzwerk thematisiert. Andererseits unterteilen Modularität und Domänenspezifität den Gedächtnisraum in getrennte theoretische Domänen. Dadurch werden aber nicht Kategorien taxonomiert, sondern Annahmen. So überlappen sich Kategorien, indem sie in mehrere Domänen passen. Dann müsste LTM Konzepte in jeder Bezugsdomäne speichern: Gedächtnismodule speichern ein und dasselbe Konzept in einem Individuum unterschiedlich ab. Das würde die Theorien zur Ähnlichkeit, zur Aussprache und Beziehungen zwischen den Begriffen ablösen – was genauso wenig Sinn machen würde. Gedächtnis steht bestimmt für bedeutungsvolle Beziehungen zwischen Konzepten, wobei es dabei um die Wortbedeutung an sich gehen könnte. Generelles Wissen (auch semantisches Gedächtnis oder generic memory genannt) steht der persönlichen Erfahrung gegenüber. Die Semantische Ebene muss aber nicht lexikalisch organisiert sein. Es könnte auch sein, dass auf einer subkonzeptuellen Ebene (Eigenschaften und versteckte Einheiten) doch eine rein semantische Dimension des Gedächtnisses vorhanden ist. Schlussfolgerungen und Ausblick 6 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Forscher fokussieren zunehmend Interaktionen zwischen Funktionen, d.h. werden sensitiv auf multiple Funktionen. Empirische Generalisierung und Computationale Modelle werden vor allem in der kognitiven Neurowissenschaft anhand multipler Kategorisierung und Gedächtnissysteme angewandt. Es stimmt nicht, dass Konzepte für unser online-Satzverständnis nicht mit den Konzepten zusammenhängen, die wir fürs Schlussfolgern und Kategorisieren verwenden. Es liegt also auch im Zukünftigen Interesse, eine Schnittstelle zwischen diesen Funktionen zu finden: Mehr Interaktion zwischen Arbeiten zu Konzepten und psycholinguistischer Forschung ist also in Aussicht. Es bleibt auch zu erwarten, dass in Zukunft die Versuchspersonen anderswo rekrutiert werden, als nur unter Studenten. Auch Studien mit mehreren Sprachen könnten fragen zu Linguistik und Konzeptentwicklung beantworten. Psychometaphysische Zugänge sind genauer als zunächst kritisiert und werden daher auch relevant bleiben. Kombinationen in Fragmentarischen Forschungen zu Konzepten in Konzepten werden notwendig sein, um die Beziehungen zwischen ihnen zu untersuchen. Chapter 14: Problem Solving Einführung Duncker 1945 definiert Problemlösen so: Ein Problem tritt auf wenn eine lebende Kreatur ein Ziel hat, aber nicht weiß, wie sie dieses Ziel erreichen kann. Wenn man nicht durch eine einfache Handlung von einer gegebenen Situation zu einer erwünschten Situation gelangt, so wird darüber nachgedacht. (recourse of thinking) Ein Problem bezieht sich auch immer auf die individuellen Möglichkeiten und das Hintergrundwissen einer Person. Daher muss man Denken verstehen, indem man die Repräsentation des Problems vom Lösungsweg (Schritte) des Problemlösers unterscheidet. Das Modell, das die Problemrepräsentation darstellt, enthält idealerweise Information über das Ziel, die Objekte und deren Interrelationen, die Operationen die angewandt werden können und Bedingungen zur Lösung des Problems. Für manche Probleme ist es am wichtigsten, die beste Repräsentation zu finden. Bei anderen hingegen muss der beste Lösungsweg vom Anfangsstatus zum Zielstatus gefunden werden. Beispiele sind Posner’s Züge und Vogel – Problem oder der Tower of Hanoi. Wenn Forscher also Problemlösen untersuchen, so stellen sie Personen vor eine Anzahl von Problemen für welche diese Personen keine Lösung gespeichert haben, sodass die Forscher Regelmäßigkeiten in dem resultierenden Problemlöseverhalten untersuchen können. Dabei untersuchen sie die Problemrepräsentation oder die Operationen im Lösungsweg. Geschichte Duncker und Wertheimer brachten im Rahmen der Gestaltpsychologie erste Forschungsansätze zum Problemlösen. Auch Mathematiker interessierten sich für diesen Zweig. Nach dem Untergang der Gestaltpsychologie beschäftigten sich erst wieder Newell und Simon 1972 mit dem menschlichen Problemlösen, allerdings nun als Schritt-für-Schritt-Prozess um generelle Eigenheiten zu finden. Daraus entwickelte sich der Computerorientierte (AI) Zugang mit dem Programm „General Problem Solver“. Die Kognitive Psychologie berücksichtigte dann zunehmend Hintergrundwissen. GPS hatte das Problem dass ihm Domänenspezifisches Wissen fehlte. Dieser Zugang über das Hintergrundwissen spielt auch eine Rolle in der 7 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] Annäherung der 2 Forschungstraditionen zu einerseits Problemrepräsentation und andererseits Operationen im Lösungsweg. Generierung von Problemlösungen Die Untersuchung von Operationen im Lösungsweg brachte die Unterscheidung zwischen algorithmischen und heuristischen Strategien. Algorithmisches Problemlösen basiert auf einer Prozedur, die eine Lösung garantiert, z.B. eine mathematische Formel. Ein anderer Algorithmus ist die exhaustive Suche, die aber sehr schnell unpraktikabel oder gar unmöglich werden kann. Heuristiken garantieren zwar keine Lösung, aber versprechen mit hoher Wahrscheinlichkeit Erfolg. Es geht dabei meist um Puzzle-ähnliche Probleme, wo es darum geht, Lösungswege wie viele Astgabelungen zu generieren. Betrachtet man das Problemlösen als eine Suche durch einen Problemraum, so teilt man Newell und Simons Meinung. Die Autoren beschrieben den Problemraum als ein Set von Wissenszuständen (Beginn-, Intermediater-, Aktueller- und ZielZustand). Die Ergebnisse ihrer Forschung zeigte, dass sich diese Suche auf eine kleine Anzahl von Heuristiken stützt. Diese wurden über Laut-Denk-Protokolle (welche von Duncker übernommen wurden, nachdem sie von den Behavioristen für lange Zeit verachtet worden waren) oder Computersimulationen analysiert. Hill climbing (Bergsteigen?) ist eine Heuristik, wo in jedem Lösungsschritt der Operator angewandt wird, der einen neuen Zustand hervorruft, der am besten zum Zielzustand passt. Dazu zeigte sich, dass Probanden bei Problemen tatsächlich die größten Schwierigkeiten hatten, wenn in einem Schritt eine Entfernung zum Ziel gemacht werden musste, um dann tatsächlich zum Ziel zu kommen. Means-ends analysis ist eine Heuristik, die darin besteht 1) die Differenz zwischen dem aktuellen Zustand und dem Ziel (oder Subziel) zu identifizieren, 2) einen Operator zu finden, der diese Differenz beseitigt oder reduziert, 3a) diesen Operator anwenden, sofern dies geht, oder 3b) wenn er nicht direkt angewandt werden kann ein Subziel setzen um das Hindernis zu beseitigen das die Durchführung des gewünschten Operators behindert. 4) Die Schritte 1-3 wiederholen, bis das Problem gelöst ist. Der Unterschied zwischen hill-climbing und means-ends-analysis besteht in der online-Generierung von Subzielen in der MEA. Über Subziele können auch unvernünftige Schritte erklärt werden und die Verästelung der Lösungswege im Lösungsraum verzweigt sich weiter. MEA wurde auch mit GPS untersucht. Anscheinend ist MEA auch die von den meisten Personen präferierte Lösungsmethode für neue Probleme. Sobald aber ein Problem besonders partikulär wird, werden auch spezialisiertere Strategien herangezogen: Solche domänenspezifische Methoden beruhen auf dem Domänen-Hintergrundwissen. Problemrepräsentation In realen Problemstellungen muss der Problemlöser viele Problemkomponenten selbst definieren. In Schlecht-definierten Problemen ist weder das Ziel klar definiert, noch ist bekannt, wie man die Zielerreichung angehen soll. Die Problemrepräsentation beeinflusst nämlich die Generierung der Problemlösung. Eine Repräsentation hat 4 Komponenten: 1) eine repräsentierte Welt – in diesem Fall die Beschreibung des zu lösenden Problems 8 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] 2) eine repräsentierende Welt – die Elemente, welche die Objekte und Beziehungen in der Repräsentierten Welt ausmachen 3) ein Regelwerk das die Elemente der repräsentierten Welt zu Elementen der repräsentierenden Welt zuordnet 4) ein Prozess der die Information der repräsentierenden Welt benutzt – in diesem Fall um das Problem zu lösen. Die Repräsentation, die zur Problemlösung benutzt wird kann entweder internal (WM) oder external (auf Papier) sein. Der Kontext eines Problemes ist relevant für die Repräsentation. Eine Größe im Kontext ist die Wahrgenommene Form des Problems, z.B. visuell. Z.B. das 9-PunkteProblem ist ein klassisches Einsichts-Problem (mit Aha-Effekt). Objektbasierte Inferenzen beziehen sich auf die Einheiten in einem Problem, z.B. die funktionelle Fixiertheit (Duncker): Wenn ein Objekt für einen Zweck benutzt wurde, darauf habituiert wurde, dann ist es schwierig zu sehen, dass es auch Eigenschaften hat, die für einen ganz andern Zweck nützlich sein können. Der Inhalt der Geschichte beeinflusst ebenfalls die Repräsentation des Problems. Je nachdem, wie die Einheiten des Problems repräsentiert werden, wird ein anderer Lösungsweg gesucht. Das Wissen zur Problemlösung ist, wie bereits erwähnt, von besonderer Bedeutung. So ist die Erfahrung mit strukturell ähnlichen oder analogen Problemen hilfreich, indem solche Erfahrungen als Beispiel für das neue Problem verwendet werden können. Die Problemstruktur muss dabei ähnlich sein, nicht die Geschichte! Man denke dabei an die Textaufgaben in der Schule. Analogität wurde z.B. von Gick und Holyoak untersucht, indem sie ein Radiationsproblem stellten. Einmal ging es um die Operation eines Tumors durch Konvergenz vieler Strahlen auf einem Punkt und einmal um einen Krieg, wo eine Armee auf dieselbe Weise zusammengeführt werden sollte. Das Lösungsbeispiel konnte in den Ergebnissen nur genutzt werden, wenn die Autoren die Probanden darauf hinwiesen, dass ein vergangenes Problem ähnlich gelöst worden war. Ein wichtiger Prädiktor für den Lösungserfolg ist dabei das Verstehen des gelernten Beispieles. Generelle Schemen im Gedächtnis enthalten abstrakte Information zur Problemlösung, sodass sie auf die spezifische idiosynkratische Information eines bestimmten Problems variabel anwendbar sind. Abstrakte Repräsentationen von Schemen sind hilfreicher als spezifische relevante Beispiele um die Struktur neuer Probleme zu verstehen, da sie keine spezifischen Informationen enthalten, der dann ignoriert werden müsste um das neue Problem zu lösen. Expertentum kann auch untersucht werden, indem man verschiedene Personen in verschiedenen Domänen untersucht: Experten repräsentieren Lösungsrelevante strukturelle Eigenschaften während Unerfahrene auch Lösungsirrelevante oberflächliche Merkmale repräsentieren. Experten fokussieren dabei schon die Aufmerksamkeit gezielter. Beispiele dafür finden sich im Schach oder in der Sortierung von Problemen anhand ihrer Lösungsart in Physik, ähnlich in Biologie, Mathematik, Geometrie… Der Zusammenhang zwischen Repräsentation und Lösung Die Repräsentation beeinflusst wie eine Lösung generiert wird, das hat schon Wertheimer gezeigt. Das Verständnis der Struktur erleichtert die Einsicht in die Ähnlichkeit zwischen Problemen die nur äußerlich unterschiedlich sind. Mathematisches Problemlösen ist ein willkommener Bereich für die Problemlöseforschung. Dabei ist Domänenwissen nicht nur für das schon vorher genannte Expertentum relevant, sondern auch schon für die Repräsentation und in der Folge für die Lösung eines Problems. Entsprechend sind oberflächliche Repräsentationen von Unerfahrenen störend beim Problemlösungsprozess. Ein 9 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] falsch gelerntes Beispiel o. Strategie kann sogar öfter falsch auf ein anderes Problem angewandt werden. Unterziele können als Komponenten der Aufgabenstruktur gelehrt werden. So wird das Problem in konzeptuell distinkte, bedeutungsvolle Teile aufgeteilt. Damit steigt die Wahrscheinlichkeit den richtige Lösungsweg einzuschlagen. Objekt basierte Inferenzen aus dem Inhalt der Geschichte wurden schon bei der Repräsentation von Problemen besprochen. Sie beeinflussen also das Situationsmodel und auch die Lösung z.B. ein Mathematisches Modell das ausgewählt oder konstruiert wird. Studien hierzu zeigten, dass Personen, welche ein Situationsmodell mit bestimmten Veränderungen anwandten, die entsprechende Summen-Strategie zur Lösung anwandten. Auch mathematische Aufgaben, die semantisch dargeboten werden, werden von Probanden entsprechend der semantischen Struktur gelöst, anstatt eine eigene mathematische Repräsentation zu bilden (semantic alignment). Das geht so weit, dass die semantische Struktur sogar die Schwierigkeit des Problems determiniert. Diese Effekte zeigen sich auch in den ERPs von EEG Studien, wo Additionen von Objekten ungleicher Kategorien (Tulpen und Vasen) eine negativere Response berichten als für gleiche Kategorien. Insight-Problemlösen Revisited Insight-Problemlösen ist charakterisiert durch ein anfängliches Nichtstun, eine plötzliche Restrukturierung der Problemrepräsentation und durch eine plötzliche Lösung. Also hat so eine Lösung nichts mit einer Schritt-für-Schritt Lösung zu tun? Die Schwierigkeit solcher Probleme beruht auf Wahrnehmungsfaktoren, Hintergrundwissen und/oder Prozessfaktoren. Ein neuer Problemraum mit alternativen Operatoren muss also geschaffen werden, wo dann die Lösung gefunden wird. Die Lösungen werden auch Pop-out-Solutions genannt. Es geht dabei aber entgegen Gestaltpsychologischer Meinungen nicht um eine „full-blown“ Rekapitualtion: Die Einsichtspaare sind zunächst unähnlich, dann leicht ähnlich und dann sehr ähnlich – also gibt es einen Problemlöseprozess gradueller Accumulation partieller Information. Das Impasse ist das anfängliche Nichtstun bei solchen Problemen. Es wird dann ganz plötzlich (pop-out) durchbrochen. Ein Scheitern verursacht das Impasse: unangemessene Annahmen oder Versuche. Die Revision der Problemrepräsentation in einer „Contraint relaxation“ involviert die Deaktivation von Wissen, sodass neue Operatoren angewandt werden können. Oder aber eine „Chunk decomposition“ unterbricht die Beziehungen der Komponenten untereinander. Dieses Modell konnte durch Reaktionszeiten und Augenfixationen gestützt werden. Schlussfolgerungen und Ausblick Die Interaktion zwischen Repräsentation und Löseprozess wurde bislang noch zu wenig erforscht, ist aber eigentlich Kern der Sache. In der Zukunft sollte sich Forschung in Richtung anwendbarer Ergebnisse bewegen: In der Schule bzw. Pädagogik allgemein könnte ein besseres Verständnis zum Problemlösen das Lernen erleichtern. Sind die Faktoren bekannt, welche die Repräsentation einer Problemstruktur bestimmen, so können Probleme auch besser modelliert werden. Außerdem werden komplexere, Wissensintensive Probleme weiter untersucht werden. Dazu wie vor allem auf die Schlecht-Definierten Probleme hingewiesen. Letztendlich ist Problemlösen nach Duncker viel breiter konzeptualisiert, als es bisher untersucht wurde: 10 Summary: Thinking and Reasoning ©Kiwi Disclaimer: [email protected] 1) Objekte in Kategorien fassen und Inferenzen aufgrund Kategoriezugehörigkeit tätigen 2) Induktives Interferieren von multiplen Instanzen 3) Schlussfolgern aufgrund Analogien 4) Identifizieren der Gründe von Ereignissen 5) Deduktion lokaler Implikationen gegebener Information 6) Legales Urteilen 7) Diagnostik medizinischer Bedingungen von historischen und Labor-Daten Die Forschung zum Problemlösen sollte also allgemein in die Denkforschung integriert werden. 11