Die Künstliche Intelligenz Projektarbeit im Rahmen meines Praktikums in der Fachhochschule Merseburg Unter der Betreuung von Professor Karsten Hartmann und Professor Michael Schenke Praktikant: Tino Apelt Dauer: 3 Monate 1. Einleitung ................................................................................................................ 4 2. Geschichtliche Entwicklung .................................................................................... 5 2.1 Quellenangaben ................................................................................................ 9 3. Intelligenz ............................................................................................................. 10 3.1 Quellenangaben .............................................................................................. 15 4. Embodiment ......................................................................................................... 16 4.1 Allgemeines .................................................................................................... 16 4.1.1 Quellenangaben ....................................................................................... 21 4.2 ICUB ............................................................................................................... 22 4.2.1 Quellenangaben ....................................................................................... 23 5. Psychologie .......................................................................................................... 24 5.1 Definition ......................................................................................................... 24 5.2 kurzer geschichtlicher Überblick...................................................................... 24 5.2.1 Quellenangaben ....................................................................................... 26 5.3 Kognitivismus / Kognitionspsychologie ........................................................... 26 5.3.1 Kognition .................................................................................................. 26 5.3.1.1 Quellenangaben ................................................................................. 26 5.3.2 Überblick über das Forschungsgebiet ...................................................... 27 5.3.2.1 Quellenangaben ................................................................................. 27 5.3.3 Kognitivismus ........................................................................................... 28 5.3.3.1 Quellenangaben ................................................................................. 29 5.4 Behaviorismus ................................................................................................ 30 5.4.1 Quellenangaben ....................................................................................... 30 5.4.2 Methodologische Behaviorismus .............................................................. 31 5.4.2.1 Quellenangaben ................................................................................. 31 5.4.3 Klassischer Behaviorismus ....................................................................... 31 5.4.3.1 Quellenangaben ................................................................................. 32 5.4.4 Neobehaviorismus .................................................................................... 32 5.4.4.1 Quellenangaben ................................................................................. 32 5.4.5 Radikaler Behaviorismus .......................................................................... 32 5.4.5.1 Quellenangaben ................................................................................. 34 6. Maschinelles Lernen (ML) .................................................................................... 35 6.1 Quellenangaben .............................................................................................. 37 7. Wissensbasierte Systeme (WBS) ......................................................................... 38 7.1 Quellenangaben .............................................................................................. 40 7.2 Expertensysteme (XPS) .................................................................................. 41 7.2.1 Quellenangaben ....................................................................................... 43 8. Intelligente Tutorielle Systeme (ITS) ..................................................................... 44 8.1 Quellenangaben .............................................................................................. 46 9. Linguistik in der KI ................................................................................................ 47 9.1 Kurzer Überblick über die Linguistik ................................................................ 47 9.1.1 Quellenangaben ....................................................................................... 48 9.2 Sprachverarbeitung ......................................................................................... 48 9.2.1 Quellenangaben ....................................................................................... 52 9.2.2 Morphologie .............................................................................................. 53 9.2.2.1 Quellenangaben ................................................................................. 55 9.2.3 Parsing und Parser ................................................................................... 56 9.2.3.1 Quellenangaben ................................................................................. 57 9.2.4 Computerlinguistik (CL) ............................................................................ 57 9.2.4.1 Quellenangaben ................................................................................. 59 9.2.5 Semantik .................................................................................................. 59 9.2.5.1 Quellenangaben ................................................................................. 60 9.2.5.2 Semantikformalismen / Formale Semantik......................................... 60 9.2.5.2.1 Quellenangaben .......................................................................... 63 9.2.5.3 Lexikalische Semantik ....................................................................... 63 9.2.5.3.1 Quellenangaben .......................................................................... 66 9.3 Anmerkungen zum Thema Linguistik .............................................................. 66 10. Interessante Materialien ..................................................................................... 68 10.1 Links.............................................................................................................. 68 10.2 MP3............................................................................................................... 69 11. Überblick über KI-Forschungsinstitute und deren Mitarbeiter, sowie wichtige Personen .................................................................................................................. 70 11.1 Deutschland .................................................................................................. 70 11.2 Schweiz ......................................................................................................... 72 11.3 Österreich ..................................................................................................... 72 11.4 Australien ...................................................................................................... 73 11.5 Japan ............................................................................................................ 73 11.6 USA............................................................................................................... 73 11.7 Großbritannien .............................................................................................. 75 11.8 Slowenien ..................................................................................................... 76 11.9 ESA ............................................................................................................... 76 11.9.1 Quellenangaben ..................................................................................... 76 11.10 Italien .......................................................................................................... 77 11.11 Personen ..................................................................................................... 77 11.11.1 Maschinelles Lernen ............................................................................. 77 12. KI in Spielen ....................................................................................................... 79 12.1 Quellenangaben ............................................................................................ 86 13. Abschließende Worte ......................................................................................... 87 14. Hinweis ............................................................................................................... 87 14. Hinweis ............................................................................................................... 88 1. Einleitung Die künstliche Intelligenz (KI) ist eine Querschnittswissenschaft. Der Anteil der Informatik ist nur gering. Es befassen sich unter anderem Philosophen, Linguisten und Psychologen mit diesem Thema. Der Teil der Informatik, welcher sich mit KI beschäftigt, arbeitet an der Automatisierung intelligenten Verhaltens. Der Begriff künstliche Intelligenz ist schwierig, da es keine genaue Definition für Intelligenz gibt. Trotzdem wird er in Forschung und Entwicklung verwendet. Die KI-Forschung unterteilt sich in Vertreter der starken und schwachen KI: Die Vertreter der starken KI sehen den Menschen als Vorbild und wollen ihm gleiche Maschine bauen. Sie soll wie er kreativ sein, ein Bewusstsein und Emotionen haben. Dies ist bislang visionär. Die schwache KI will konkrete Anwendungsprobleme lösen. Man versucht mit Mitteln der Informatik und Mathematik intelligentes Verhalten zu simulieren. Auf diesem Gebiet wurden entscheidende Fortschritte erzielt. Außer Ergebnisse der Informatik sind Forschungsergebnisse der Psychologie/Neurologie, Mathematik/Logik, Kommunikationswissenschaft, Philosophie/Linguistik eingeflossen. Ich versuche in meiner Projektarbeit die verschiedenen Gebiete der Künstlichen Intelligenz kurz zu beleuchten und auf aktuelle Strömungen einzugehen. Dies umfasst die Beschäftigung mit der geschichtlichen Entwicklung, mit unterschiedlichen Intelligenztheorien, dem Kognitivismus, dem Behaviorismus, der Linguistik, KI in Spielen und dem modernen Denkansatz des Embodiment. Abschließen werde ich mit einer Übersicht über Institute, welche sich mit KI auseinander setzen und einem Ausblick in die Zukunft. http://www2.hu-berlin.de/humboldt-forum/kabinette/large/robodog.jpg 2. Geschichtliche Entwicklung Es geht eine besondere Faszination von Androiden, Cyborgs und Robotern aus, die dem Menschen ähnlich sind. Als Kind erschafft man sich bereits Fantasiewesen und vielleicht entsteht daher der Wunsch ihnen im erwachsenen Alter Leben einzuhauchen. Dies inspiriert Schriftsteller, Filmemacher und Forscher. Der Wunsch künstliche Wesen zu erschaffen, ist so alt wie die Menschheit. Im alten Ägypten soll es Götterstatuen gegeben haben, die ausgeklügelte Mechanismen enthielten und sich somit bewegen und angeblich auch sprechen konnten. Sie sollen den Gläubigen geantwortet und prophezeit haben. Man hielt sie für göttlich inspiriert und nahm an, dass sie eine Seele besitzen. In der griechischen Antike schuf Hephaistos (Gott des Feuers und der Schmiedekunst) Talos einen Riesen aus Bronze, der die Insel Kreta bewachen sollte. Der erster „Riesenroboter“ der Weltgeschichte kam durch Ray Harryhausen im Film „Jason und die Argonauten“ auf die Leinwand. Dem Mathematiker und Philosoph Archytas von Tarent (428-350 v. Chr.), ein Zeitgenosse Platons, gilt als Begründer der mathematischen Mechanik. Man schreibt ihm die Erfindung der Schraube und des Flaschenzuges zu. Er ist der Konstrukteur der berühmten Taube von Archytas, welche fliegen konnte. Aus dieser Zeit sind auch die ersten Automaten überliefert, die Heron von Alexandrien (ungefähr zwischen 250 und 150 v. Chr.) erfand. Für das katroptische Theater baute er Maschinen die Spezialeffekte wie Bühnenblitze und -donner, selbstständig öffnende und schließende Türen, automatische Musik auf Zimbeln und Trommeln Ausfluss von Wein oder Milch aus dem Becher einer Figur, sich selbst entzündende Opferfeuer und tanzende Figuren realisierten. Später wimmelte es nur so von Behauptungen, irgendwer habe eine Maschine gebaut, die selbstständig handelte. Angeblich wurden teilweise sogar lebendige Wesen geschaffen, wie der Joseph Golem (um 1580), der die jüdische Gemeinde in Prag beschützen sollte. Im „Discours de la Méthode“ behauptete René Descartes (1596 – 1650), dass der Mensch mit Ausnahme der Seele und des Verstandes eine zwar wundervolle, aber letztlich doch mechanische Maschine sei. Bald gab es auch kunstvolle Spielzeuge. Besonders zu erwähnen wäre die mechanische Ente, die im Jahre 1738 von Jacques de Vaucanson gebaut wurde. Sie konnte mit den Flügeln schlagen, essen, trinken und über ein kompliziertes Röhrensystem verdauen und ausscheiden. Es wurden viele mechanische Puppen und andere Figuren gebaut, die die Menschen damaliger Zeit begeisterten. Der französische Arzt und Philosoph La Mettrie (1709 – 1751) behauptete in seinem Buch „L´homme machine“ (Der Maschinenmensch) sogar, alles am Menschen wäre maschinell, einschließlich der Seele und der Denkprozesse. Der Mensch war damit zur göttlich konstruierten mechanischen Maschine geworden, ein hochkomplexes mechanisches Uhrwerk. Diese Aussage machte La Mettrie mehr und mehr zur Unperson seiner Zeit. Mit dem englischen Mathematiker Charles Babbage (1792 – 1871) begann das Zeitalter der Computer. Zwar gab es vorher schon einfache mechanische Rechner von Schickard, Pascal und Leibniz, jedoch die von Babbage enthielt alle wesentlichen Funktionen heutiger Rechner. Dieser dient als Vorbild für die Computerarchitekturen des 20. Jahrhunderts. Seine Maschine war aufgeteilt in Speicher- und Rechenwerk. Sie enthielt einen Satz Grundoperationen und konnte mit Lochkarten programmiert werden. Babbage konstruierte zuerst die Differenz-Maschine. Das Modul der difference engine bestand aus 25000 Einzelteilen. In fertig gebautem Zustand wäre sie mehrere Meter groß und viele Tonnen schwer gewesen. Es wurden aus Kostengründen jedoch nur 2000 Teile montiert. Danach wurde das Projekt eingestellt. Die Maschine wurde von dem Feinmechaniker Joseph Clement gebaut. Sie existiert heute noch und ist voll funktionsfähig. Babbage hatte die Maschine konstruiert, um damit mathematische und astronomische Tabellen zu berechnen. Die Gräfin Ada Lovelace (1815 – 1852) war von der Maschine begeistert. Sie entwickelte im Rahmen einer Arbeit die ersten Computerprogramme und somit die erste Software der Welt. Georg Boole (1815 – 1864) beschrieb in seinem Werk „Gesetze des Denkens“ 1854 die „symbolische Logik“. Damit wollte er die mathematischen Grundlagen des menschlichen Denkens schaffen und somit die Algebra des menschlichen Intellekts. Die Prinzipien des logischen Denkens wurden als Folge von Ja/Nein Antworten dargestellt und in Binärzahlen ausgedrückt. Der erste Schritt zu intelligenten Computerprogrammen waren 0 und 1. Der Begriff „Maschinenmensch“ und die Erfindung des Computers sind das Fundament für die klassische KI-Forschung und Robotik des 20. Jahrhunderts. Das Wort „Roboter“ tauchte erstmals 1921 in dem Theaterstück „Rossum’s Universal Robots“ von Karel Čapek auf. In slawischen Sprachen bedeutet „rabota“ Arbeit. Die Geburtsstunde des Forschungsgebietes der künstlichen Intelligenz war der 01.07.1956. Es wurde eine Konferenz am Dartmouth College in New Hampshire (USA) durchgeführt, an der Computerwissenschaftler, Psychologen, Linguisten, und Philosophen teilnahmen. Sie sprachen darüber, wie man Maschinen mit intelligentem Verhalten entwickeln könnte. Shannon Rochester Minsky McCarthy Sie wurde von John McCarthy, Marvin Minsky, Nathan Rochester und Claude Shannon organisiert. Als anerkanntes Kriterium für Intelligenz galt damals der Turing-Test. Dieser beinhaltet folgende Aussage: Man erklärte das Verhalten eines Computers für intelligent, wenn es von der entsprechenden Leistung eines Menschen nicht mehr zu unterscheiden war. Turing Allen Newell (1927 – 1992) und Herbert Simon (1916 – 2001) von der Universität Carnegie Mellon in Pittsburgh formulierten die Physical Symbol System Hypothesis, nach der Denken Informationsverarbeitung, Informationsverarbeitung ein Rechenvorgang, also Symbolmanipulation ist. Nach ihrer Hypothese kommt es somit beim Denken auf das Gehirn nicht an. „Intelligence is mind implemented by any patternable kind of matter“, d. h. die Intelligenz ist unabhängig von der Trägersubstanz. Diese These wird von den Vertretern der starken KI geteilt, z. B. von Marvin Minsky (geb. 1927) von der Massachusetts Institute of Technology (MIT), der in der künstlichen Intelligenz die Überwindung des Todes sieht oder dem Roboterspezialisten Hans Moravec (geb. 1948) von der Carnegie Mellon University, der in dem Buch „Mind Children“ (Kinder des Geistes) das Szenario des postbiologischen Lebens beschreibt. Seine Vorstellung geht dahin, dass ein Roboter das gespeicherte menschliche Wissen auf einen Computer überträgt. Damit wird die Biomasse des Gehirns überflüssig. Dies ist der Beginn des posthumanen Zeitalters. Das gespeicherte Wissen bleibt beliebig lange verfügbar. Die Anfangsphase der KI war geprägt von fast grenzenloser Erwartungshaltung im Hinblick auf Computer. Simon prognostizierte 1957, dass in den nächsten zehn Jahren ein Computer Schachweltmeister sei und einen mathematischen Satz entdecken und beweisen würde. Das traf nicht ein. Simon wiederholte dies 1990 ohne eine zeitliche Festlegung. 1997 schlägt der Schachcomputer „Deep Blue“ den Schachweltmeister Garry Kasparov in sechs Partien. Simon und Newell entwickelten in den 60-er Jahren den „General Problem Solver“, ein Programm, dass mit einfachen Methoden beliebige Probleme lösen sollte. Das Projekt wurde nach zehn Jahren eingestellt. McCarthy schlug 1958 vor das gesamte menschliche Wissen in homogene formale Darstellungsform, Prädikatenlogik 1. Stufe zu bringen. Die Idee war es, einen Theorem-Beweiser zu konstruieren, um die symbolischen Ausdrücke zusammen zu setzen, um das Wissen der Welt zu diskutieren. Joseph Weizenbaum (1923 – 2008) vom MIT entwickelte das Programm ELIZA. Es simuliert den Dialog zwischen Psychiater und Patient. Er stellte es 1965 vor. Die Öffentlichkeit war geradezu verblüfft. ELIZA leitet syntaktische Symbolismen in der Programmiersprache LISP ab und reagiert auf bestimmte Schlüsselwörter und Satzmuster mit Umstellungen und Einsetzungen. So entstand der Anschein beim Benutzer, ELIZA sei intelligent und einfühlsam. Die KI erzielte auf den folgenden Gebieten große Erfolge: - Strategiespiele (Schach, Dame Dameweltmeister ist Computerprogramm Chinook seit 1994, usw.) - mathematische Symbolverarbeitung - Simulation von Robotern - beim Beweisen von logischen und mathematischen Sätzen - bei Bild- und Spracherkennung - bei Expertensystemen. 2.1 Quellenangaben http://www.takimo.de/index.html Kapitel „Künstliche Intelligenz 1 und 2 http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz http://www.wissenschaft.de/wissenschaft/hintergrund/280768.html http://de.wikipedia.org/wiki/George_Boole http://de.wikipedia.org/wiki/Charles_Babbage http://de.encarta.msn.com/sidebar_81506269/Spektrum_der_Wissenschaft_Die_Diff erenzmaschine_von_Charles_Babbage.html http://www.pc-zub-museum.de/index.html http://209.85.229.132/search?q=cache:oqaOOrK4CTYJ:www.doepel.de/doepel/Vorle sungen/Scripte/geschichte_der_ki.pdf+erfolge+der+ki&cd=3&hl=de&ct=clnk&gl=de&l r=lang_de 3. Intelligenz Die Intelligenz ist ein Phänomen, welches durch seine Komplexität so unbegreiflich ist, dass der Mensch ihr noch nicht alle Geheimnisse abringen konnte. Es machen sich die unterschiedlichsten Wissenschaften Gedanken darüber, was Intelligenz ist, wie sie entsteht und letztendlich auch darüber, ob man intelligente Maschinen bauen kann und sollte. Ich habe ein paar Aussagen in den folgenden Abschnitten aufgelistet. Man kann davon ausgehen, dass dies keine umfassende Erklärung ist und nur bruchstückhaft beschreibt, was Intelligenz ist. Allgemein könnte man Intelligenz so beschreiben. Es sind alle kognitiven und psychischen Fähigkeiten eines Menschen. Dazu zählt man unter anderem Konzentration, Vorstellung, Gedächtnis, denken, lernen, Sprache und die Fähigkeit mit Zahlen und Symbolen umgehen zu können. 1905 befanden Binet und Simon: „Die Art der Bewältigung einer aktuellen Situation: gut urteilen, gut verstehen, gut denken, das sind die wesentlichen Bereiche der Intelligenz.“ Guthke definierte 1996 Intelligenz so: „Intelligenz ist der Oberbegriff für die hierarchisch strukturierte Gesamtheit jener allgemeinen geistigen Fähigkeiten, die das Niveau und die Qualität der Denkprozesse einer Persönlichkeit bestimmen und mit deren Hilfe die für das Handeln wesentlichen Eigenschaften einer Problemsituation in ihrer Zusammensetzung erkannt und die Situation gemäß dieser Einsicht entsprechend bestimmter Zielsetzungen verändert werden kann.“ Spearman entwickelte die Zwei-Faktoren-Theorie. Nach dieser gibt es einen g-Faktor (g = general), welcher die allgemeine Intelligenz beschreibt und deren Ausprägung u. a. die Verarbeitungsgeschwindigkeit, die geistige Kapazität und die intellektuelle Leistung – bestimmt. Etwas salopp könnte man sagen, ob eine Person eher ein simpler Charakter oder ein Genie ist. Neben dem g-Faktor gibt es seiner Meinung nach spezifische dem g-Faktor untergeordnete und durch ihn beeinflusste Faktoren, die so genannten s-Faktoren (s = spezifisch). Sie beeinflussen die Leistung eines Menschen in bestimmten Bereichen, so z. B. bei mathematischen Aufgaben, bei verbalen oder räumlichen Problemstellungen. Cattell legte sich ebenfalls auf zwei Faktoren fest. Er nannte sie fluide und kristalline Intelligenz, wobei die fluide sich auf die angeborene bzw. vererbte Intelligenz bezieht, die nicht durch die Umwelt verändert werden kann und z. B. die geistige Kapazität, die Auffassungsgabe und das generelle Verarbeitungsniveau umfasst. Die kristalline Intelligenz hingegen bezieht sich auf alle im Laufe des Lebens durch die Umwelt beeinflussten und gelernten Fähigkeiten. Die kristalline Intelligenz wird von der fluiden bestimmt. Sie umfasst explizites Wissen, wie z. B. Faktenwissen und auch implizites, wie beispielsweise Fahrrad fahren und Rechnen. Guilford entwickelte das „tetraedische Modell“. Es besteht aus drei Dimensionen. Die erste Dimension sind die Denkinhalte. Er unterscheidet hier vier Einteilungen, z. B. abstrakte und figurale Denkinhalte. Die zweite Dimension ist die der Denkoperationen. Es gibt fünf Abstufungen. Hierzu zählen beispielsweise Konvergenz- und Divergenzvorgehen. Die dritte Dimension schließt die Denkresultate ein. Guilford unterteilt sie in sechs Kategorien, z. B. das Finden einer neuen, einzigartigen Lösung zu einem Problem, das Finden von Kategorien und Klassen oder das Übertragen einer Lösung von einer auf eine andere Situation. „Diese drei Dimensionen spannen also, bildlich dargestellt, ein dreidimensionales Koordinatenkreuz auf. In dieses kann man sich nun einen Quader denken, auf dessen drei sichtbaren Flächen in kleinen Rechtecken alle möglichen Kombinationen der drei Dimensionen dargestellt sind (darum tetraedisches Modell, da diese drei Flächen des Quaders bedeutend sind). Die 4 × 5 × 6 = 120 Kombinationen stellen nach Guilford jeweils einzelne Intelligenzbereiche dar.“ (als Zitat von Wikipedia übernommen, um die Aussage nicht zu verfälschen) Die Vertreter dieses Modells konnten bis heute rund einhundert Aufgaben zu den Bereichen finden, so dass noch ca. zwanzig ausstehen. Die folgende Abbildung zeigt eine grafische Darstellung des Modells von Guilford. Der Berliner Jäger entwickelte das Berliner Intelligenzstrukturmodell Dazu führte er Experimente mit Oberstufenschülern durch. Es entstand ein Modell, das hierarchisch und bimodal strukturiert ist. Er extrahierte sieben hochgradig generelle Hauptkomponenten, die in die beiden Modalitäten Operationen und Inhalte gegliedert werden. Die sieben Komponenten sind: - B: Bearbeitungsgeschwindigkeit (Arbeitstempo, Auffassungsleichtigkeit, - Konzentrationskraft bei leichten Aufgaben) - M: Merkfähigkeit (aktives Einprägen und kurz- oder mittelfristiges Wiedererkennen oder Reproduzieren von verbalen, numerischen und figuralen- bildhaften Material) - E: Einfallsreichtum (flüssige, flexible und auch originelle Ideenproduktion, die an Verfügbarkeit vielfältiger Informationen, Reichtum an Vorstellungen und das Sehen vieler verschiedener Seiten, Varianten, Gründen für Möglichkeiten von Gegenständen und Problemen vorausgesetzt, wobei es um problemorientierte Lösungen geht, nicht um ungesteuertes Luxurieren der Fantasie) - K: Verarbeitungskapazität (Verarbeitung komplexer Informationen bei Aufgaben, vielfältiges Beziehungsstiften, formallogisch exaktes Denken und sachgerechtes Beurteilen von Informationen erfordern) Die Modalitäten bestehen aus: - V: Sprachgebundenes Denken (verbal; Fähigkeitsbündel entspricht dem Grad seiner Aneignung und Verfügbarkeit und scheint bei allen sprachgebundenen Operationen mitbestimmend zu sein) - N: Zahlengebundenes Denken (numerisch; Fähigkeitsbündel entspricht dem Grad seiner Aneignung und Verfügbarkeit und scheint bei allen zahlengebundenen Operationen beteiligt zu sein) - F: Anschauungsgebundenen Denken (Figural-bildhaft) Jäger sieht sein Modell nicht als endgültig an, sondern eher als Modellkern, welcher offen ist für Erweiterungen. Die folgende Abbildung zeigt Jägers Modell. Nach Lehrl basiert Intelligenz auf Informationsverarbeitungsgeschwindigkeit und Gedächtnisspanne. Im Präfrontalhirn sei der Arbeitsspeicher lokalisiert. Er entwarf den Kurztest für allgemeine Basisgrößen der Informationsverarbeitung. Sternberg vertritt den Informationsverarbeitungsansatz. Sein triachisches Modell beinhaltet drei Theorien. Die erste Theorie ist die Kontexttheorie, was bedeutet, dass jeder Mensch über eine kultur- bzw. umweltspezifische Intelligenz verfügt. Die zweite heißt Zwei-Facetten-Theorie, d. h. zur Untersuchung der Intelligenz ist es nicht nur nötig, die zugrunde liegenden Lösungsprozesse, die Durchführung und Ergebnisse zu erfassen. Weiterhin ist es wichtig die Routine bzw. Automatisierung der Prozesse zu erkennen, da dies einen primären Einfluss auf Akkuratesse und Ergebnis einer Lösungsstrategie hat. Die letzte und damit dritte Theorie splittet sich in fünf Komponenten und wird daher Komponententheorie genannt. - Performanzkomponenten (bereichsspezifische Fähigkeiten bzw. Lösungsstrategien) - Metakomponente (entspricht weitestgehend einer übergeordneten exekutiven Kontrolle) - Akquisitionskomponente (Bezug auf speichern und enkodieren von Informationen) - Retentionskomponente (bezieht sich auf Behalten und Abrufen von Informationen aus dem Gedächtnis) - Transfer-Komponente (Übertragung von Wissen oder Fertigkeiten auf andere Problemstellungen und Situationen) Er definiert Intelligenz als das Lernen aus Erfahrung, abstraktes Schlussfolgern, die Fähigkeit, sich einer ständig ändernden Umwelt anzupassen und über die Motivation zu verfügen, sich immer neues Wissen anzueignen. Nach Thurstone beruht Intelligenz auf den Faktoren räumliches Vorstellungsvermögen, Rechenfertigkeit, Sprachverständnis, Wortflüssigkeit, Gedächtnis, Wahrnehmungsgeschwindigkeit und logischem Denken, Seine Theorie wird als Multiple-FaktorenTheorie bezeichnet. Intelligenz ist also nicht gleich Wissen und Klugheit, sondern eher die Befähigung mit Wissen und Bildung etwas anfangen zu können. Intelligenz ist nicht gleich zu setzen mit Lebenserfolg. Daraus lässt sich ableiten, dass die eben genannten Faktoren nicht ausreichend sind. In den letzten Jahren stellte man sich die Frage, ob es überhaupt eine allgemeingültige Definition für Intelligenz geben kann oder ob es verschiedene Intelligenzen für unterschiedliche Lebensbereiche gibt. Man spricht daher von emotionaler und sozialer Intelligenz, von Bewegungsintelligenz bei Tänzern und Sportlern sowie von temporaler Intelligenz, die die Fähigkeit zur Organisation zeitlicher Abläufe beschreibt. Man sieht, wenn man all diese Erklärungsansätze studiert, wie Komplex die Intelligenz ist. Ich vermute, sich auf einen Erklärungsansatz zu versteifen, kann einem die Intelligenz nicht vollständig aufschlüsseln. Ich denke, dass noch viel Forschung nötig ist, um eine halbwegs umfassende Beschreibung zu ermöglichen. Was ich bei allen Theorien bedauerlich finde ist, dass sie sich nur auf den Menschen beziehen und andere Lebewesen dieses Planeten, Tiere, Pflanzen, nicht in diese Modelle passen. Würde man versuchen beispielsweise die Intelligenz eines Hundes mit einem der Modelle zu messen, würde er an verschiedenen Faktoren scheitern und wäre somit nicht intelligent. Meiner Meinung nach brauchen wir ein Intelligenzmodell, welches alles Leben einbezieht. 3.1 Quellenangaben http://www.freenet.de/freenet/fit_und_gesund/gesundheit/gehirn_psyche/iq/index.htm l http://www.stangl-taller.at/TESTEXPERIMENT/testintelligenzmodelle.html http://209.85.129.132/search?q=cache:YUgmg5H8w1MJ:www.staff.unimainz.de/hock/pers/intelligenz1.pdf+definition+intelligenz&cd=7&hl=de&ct=clnk&gl=d e http://de.wikipedia.org/wiki/Intelligenztheorie http://www.psychologie.uni-mannheim.de/psycho2/proj/wmc/BIS_beschreibung.html http://psydok.sulb.uni-saarland.de/volltexte/2005/502/html/www.uniwuerzburg.de/sopaed1/breitenbach/intelligenz/morpho.htm Guilfords tetraedisches Modell http://www.profilingportal.de/intelligenz_iq_test/intelligenz.htm http://www.medizinfo.de/kopfundseele/alzheimer/intelligenz_definition.shtml http://www.wort-und-wissen.de/index2.php?artikel=disk/d03/4/d03-4.html Bonusmaterial http://www.capurro.de/ http://www.capurro.de/ki.html Bonusmaterial http://www.phf.uni-rostock.de/fkw/iph/thies/KI.html Bonusmaterial http://www.uni-protokolle.de/Lexikon/K%FCnstliche_Intelligenz.html Bonusmaterial 4. Embodiment 4.1 Allgemeines Der Begriff Embodiment kommt aus der Kognitionswissenschaft und bedeutet „Verkörperung“ oder „Inkarnation“. Das bedeutet, Intelligenz benötigt einen Körper und setzt eine physikalische Interaktion voraus. Dies steht dem Verständnis der klassischen Interpretation von Intelligenz diametral entgegen. Das Intelligenzverständnis des Embodiment wird von der KI-Forschung als „Complete agent“ bezeichnet. Seit der Wende zum 21. Jahrhundert findet ein Umdenken statt. Die Vertreter der Embodiment-These sprechen von „verkörperten“ oder „leibhaftigen“ Geist. Alles Geistige ist nur zu verstehen, wenn man es als Produkt einer Wechselbeziehung zwischen Körper und Umwelt sieht, sagt Shaun Galagher, Philosoph an der University of Central Florida und Vordenker der Embodimentidee. Er begründet das so: „Die Gestalt unseres Körpers determiniert die Erfahrungen, die wir mit ihm überhaupt machen können. Wenn Sie einen anderen Körper hätten, würden Sie die Welt auch ganz anders wahrnehmen. Machen Sie doch einmal folgendes Gedankenexperiment: was würde passieren, wenn man die so genannte „menschliche Seele“ aus dem menschlichen Körper herausnehmen und einem Frosch einpflanzen würde? Hätten Sie dann wohl noch die gleiche Sicht der Welt? Ich würde sagen: natürlich nicht! Denn das Auge oder das Gehirn des Frosches sind so anders gebaut und so spezifisch an die Umwelt dieses Tieres angepasst, dass sich die Welt des Frosches und des Menschen gravierend voneinander unterscheiden. Intelligenz, Bewusstsein und Denken leiten sich aus dem Handeln des Menschen in seiner Umwelt ab. Einem Handeln, das eben grundlegend auf körperlichen Wechselbeziehungen mit dieser Umwelt beruht.“ Wie weit kommt man mit diesem Ansatz und kann man ihn experimentell untermauern? Der Kognitionswissenschaftler Peter König und sein Team von der Universität Osnabrück schnallen 5 Probanten einen Gürtel mit 13 Vibratoren um, welcher einen elektronischen Kompass enthält, der auf den magnetischen Nordpol geeicht ist. Somit ist immer der Vibrator aktiv, der Norden am nächsten ist. Das Forscherteam geht der Frage nach: Kann der Mensch den Himmel spüren? Gelingt es dem Menschen, eine neue Form sinnlicher Wahrnehmung zu entwickeln, wenn sein Körper in besonderer Weise mit der Umwelt interagiert? Man weiß von einigen Tierarten (Tauben, Seeschildkröten, Haien), dass sie magnetische Informationen zur Orientierung nutzen. Können auch Menschen für magnetische Informationen empfänglich werden? Die Probanten durchliefen eine mehrwöchige Trainingsphase, in der sie sich aktiv in ihrer Umwelt bewegten. Nachdem sie sich an den Gürtel gewöhnt hatten, folgten verschiedene Tests. Ein Test war beispielsweise, dass die Probanten mit Augenklappen durch ein Labyrinth mussten. Sie waren durchschnittlich schneller durch als Kontrollpersonen ohne Gürtel. Ein Proband berichtete: „Also wenn wir jetzt zum Beispiel die Tür aufmachen, habe ich im Moment so ein Gefühl, okay, der Gang geht nach rechts und nach links, dann gibt's diese T-Kreuzung, dann kann ich ein Stück geradeaus gehen und ich habe so ein Gefühl dafür, wie die Räume hier ringsum angeordnet sind, Und wenn sie mit dem Gürtel herumlaufen, ist dieser Bereich zehn mal so groß. Sie haben ein ganz anderes Verständnis für die räumliche Anordnung in ihrer Umgebung. Sie erlaufen sich eine Stadt auch mehr. Weil wenn Sie um einige Ecken gehen, behalten Sie die Orientierung, das heißt, Sie haben ein Gefühl für die räumliche Relation, wo ich wohne, wo meine Arbeitsstelle ist, wo der Bahnhof ist, wo die Einkaufspassage ist – wie aus der Vogelperspektive sind die räumlichen Beziehungen ganz klar.“ Bei vier von fünf Probanten war das Experiment erfolgreich, jedoch verloren sie ihre neue Fähigkeit schnell nachdem sie den Gürtel abgegeben hatten. Dies ist aber auch nicht verwunderlich, da sie durch die Evolution nicht im Gehirn verdrahtet wurde. König sagt zu dem Experiment, bei dem der menschliche Geist mit einem neuen Körpersinn angereichert werden sollte: „Wir wissen im Endeffekt nicht, warum die einen Versuchspersonen es berichten und die anderen nicht. Ich kann ihnen nur sagen: es kann klappen!“ Die Forscher wollen noch weitere Versuchspersonen mit dem Gürtel durch die Welt schicken und wollen dann auch schauen, welche Effekte der neue Sinn im Gehirn auslöst. Shaun Galagher meint, der Geist entsteht aus den Bewegungen des Körpers in der Umwelt. „Für mich ist der Geist keine Substanz, die man an einem bestimmten Ort festmachen könnte. Der Geist ist vielmehr so etwas wie die Summe der Erfahrungen meiner Körperbewegungen. Er entwickelt seine Gestalt aus meinen Bewegungen in der Welt heraus.“ Vom Zusammenhang von Geist und Bewegung sind fast alle Anhänger des Embodiment-Konzepts fasziniert. Einige halten ihn sogar für den Schlüssel, um den Geist künstlich nachbauen zu können. Wir befinden uns im Labor für Künstliche Intelligenz an der Universität Zürich. Ein Hund hoppelt herum, weicht Hindernissen aus, läuft mal langsamer und mal schneller. Er besteht aus Metallstangen, Gewichten, hat einen Motor dran und Drucksensoren an den Pfoten. Eine Figur, die aussieht wie aus einem Comic, weder Mensch noch Tier läuft hier auch herum. Deren Kern besteht aus einem elastisch federnden Metallteil. Die Füße sind ebenfalls aus Metall und mit Sensoren versehen. Es gleitet und hüpft über den Boden. Beide besitzen keine zentrale Steuereinheit, die die Bewegungen reguliert. Allein die Drucksensoren, die Gewichte, der Motor und die elastischen Schwingungen der Konstruktion sorgen für Bewegung. Der Motor steuert nicht direkt die Beine, sondern setzt nur die Teile der Konstruktion gegeneinander in Bewegung. Die der jeweiligen Geschwindigkeit angemessene Gehbewegung findet die Konstruktion ganz allein. Sie beherrscht 20 verschiedene Gangarten je nach Motoreinstellung. Durch das Labor hoppeln, wippen, laufen und schwimmen noch viele andere solcher Gestalten. Rolf Pfeifer, der Leiter des Labors, versuchte früher auf klassische Weise KI zu erschaffen. Er schrieb Software um Robotern und Expertensystemen Intelligenz einzuhauchen. Da er auf diesem Gebiet nicht weiter kam, wurde er zu einem Vordenker der Embodied Artificial Intelligence, die die Grundhypothese vertritt, dass Intelligenz verkörperte Intelligenz ist. Daher untersuchen die Forscher nun die Fortbewegung. Pfeifer sagt dazu: „Da ist es eben so - Intelligenz, überhaupt intelligentes Verhalten - dass wir verstehen müssen, wie diese Fortbewegung überhaupt zustande kommt, wenn wir letztlich verstehen wollen, wie daraus Intelligenz entstanden ist. Und ich denke, wir müssen eine solche Entwicklungsperspektive einnehmen, nicht, also das Baby entwickelt sich ja auch so, und ich denke für das Verständnis bringt das viel mehr als wenn ich schon das allerkomplexeste System nehme und da versuche, das zu reproduzieren, weil dann werde ich viel zu viel von meinen eigenen Vorstellungen da hineinproduzieren.“ „Fange bei einfachen Problemen an und versuche, sie so einfach wie möglich zu lösen.“, ist das Prinzip von Rolf Pfeifer. „Intelligenz liegt zunächst in der Morphologie, in der Gestalt des Körpers selbst“, sagt Rolf Pfeifer, „oder in der Konstruktion einzelner Körperteile. Wenn ich einen Arm nehme, der da schwingt, so lose schwingt. Der macht eine komplizierte Bewegung. Aber die neuronale Steuerung für diesen Arm, die ist extrem einfach, weil einerseits die Schwerkraft die Arbeit übernimmt und andererseits die entsprechende Morphologie und die Materialeigenschaften des Körpers - also wir würden dann vielleicht Anatomie und Gewebeeigenschaften sagen beim Menschen – die übernehmen gewissermaßen diese Tätigkeit. Das heißt das neuronale System „weiß“ in Anführungszeichen, dass es fast nichts tun muss, weil diese Funktion vom Körper übernommen wird. Das Informationsverarbeitende Gehirn muss oft nur grob die Bahn der Gelenke oder die Elastizität der Muskeln steuern, alles andere macht die körpereigene Intelligenz von selbst, wenn wir gehen oder etwas greifen.“ Dieses Zusammenspiel von körpereigener Intelligenz und der des Gehirns wollen die Forscher verstehen und nachbauen. In diesem Zusammenhang werden auch natürliche Materialien getestet. Die Forscher haben z. B. ein Rattenhaar über ein Mikro geklebt und es über verschiedene Materialien bewegt und dabei die Schwingungen gemessen. Das Resultat ist, dass das Haar viel subtiler reagiert als jedes künstliche Material. Rolf Pfeifer fordert, dass für intelligente Roboter gegebenenfalls auch natürliche Materialien verwendet werden, um der Intelligenz des Körpers nahe zu kommen. Er schlug dies auch für das europäische Großprojekt „ICUB“ (siehe auch 4.2 ICUB) vor. Die Forscher wollten einen Roboter bauen, der die körperliche Intelligenz eines Zweieinhalbjährigen hat. Er sollte krabbeln und greifen können. Dafür ist nach der Meinung von Pfeifer menschenähnliches Muskelmaterial notwendig. Er äußert sich dazu folgendermaßen: „Das haben wir eigentlich von Anfang an ins Auge gefasst und ich bin da gewissermaßen etwas das morphologische Gewissen in diesem Projekt. Dann hat man aber entschieden, das kennt man weniger gut. Muskeln, das sind hochgradig nichtlineare Gebilde, da weiß man nicht so richtig, wie man die steuern soll und das weiß man halt bei klassischen Elektromotoren sehr viel besser. Und da hat man gesagt, damit man jetzt einfach mal anfangen kann und wirklich etwas mal zu Stande bringt, das funktioniert, geht man eher klassisch vor, ist sich aber bewusst, dass eigentlich die nächste Generation anders aussehen müsste.“ Die Thematik wirft dann natürlich die Frage auf, führen natürliche Materialien und die damit verbundene körperliche Intelligenz auch zu abstrakten geistigen Fähigkeiten, wie Sprechen oder Denken? Rolf Pfeifer hierzu: „Nehmen wir ein mathematisches Konzept - also viel abstrakter als mathematisch können sie ja nicht werden nehmen wir das Konzept der Transitivität. Transitivität heißt, dass wenn A größer ist als B und B größer ist als C, dann ist A auch größer als C. Das ist ein abstraktes mathematisches Konzept.“ Dazu hat die Entwicklungspsychologin Linda Smith ein Experiment mit Kindern gemacht und gesagt: „…das ist ja gar nicht so wahnsinnig schwierig, dieses abstrakte Konzept: ich habe hier einen Behälter oder einen Sack und dann habe ich da einen kleineren Behälter, da kann ich den da rein tun, und dann kann ich den anderen, noch einen kleineren, den kann ich da auch rein tun. Und da sehen die Kinder sofort: aha, der kleinste ist ja auch im größten drin. Dann haben sie bereits so wirklich "fully embodied" dieses abstrakte Konzept der Transitivität an diesem einfachen Beispiel erfahren. Also so ein riesiger Schritt ist gar nicht von diesem Embodiment bis zu diesen abstrakten Konzepten, man tut immer so, wie wenn das so wäre, aber ich habe das Gefühl, da ist eine viel direktere Relation da.“ Durch das Spielen und Ineinanderschachteln von verschieden großen Behältnissen erwerben Kinder rein körperlich die Grundlage, um das mathematische Prinzip der Transitivität zu begreifen. Rolf Pfeifer träumt davon, dass Roboter durch diese Art Interaktion mit der Umwelt, wie sie mit den Experiment mit den Kindern beschrieben wurde, höhere geistige Fähigkeiten erlangen und denkt, dass das Embodiment-Konzept dazu führt, dass sich das Menschen- und Weltbild verändern wird. Viele KI-Forscher bezweifeln das Konzept und halten Menschenbilddiskussionen für überflüssig. Auch unter Verfechtern des Konzepts gibt es verschiedene Ansichten. Wie weit sollte man gehen? Ist der Geist wirklich nur ein Resultat aus der Interaktion mit der Umwelt? Shaun Galagher vertritt die These, dass alles Geistige letztendlich verkörpert ist. Er erklärt es so: „Für mich gibt es nichts, was nicht verkörpert ist, noch nicht einmal Theorien schließe ich aus. Erzählungen werden natürlich sprachlich verfasst. Aber wenn Sie mich fragen: was ist Sprache? In einem gewissen Sinne ist Sprache eine motorische Vervollkommnung des Körpers. Es gibt Lautsprache, Signale mit den Händen, Gesten, das sind zunächst Körperbewegungen. Die voll entwickelte Sprache hebt das zwar auf ein höheres Niveau, aber die sprachlichen Äußerungen, die daraus entstehen, haben ihre Wurzeln in den körperlichen Erfahrungen und ich bin davon überzeugt, dass man sich nie völlig davon löst.“ Der bochumer Philosoph Albert Newen sieht es etwas anders: „Embodiment sollte jene Phänomene umfassen, die in einer unabdingbaren Weise verkörperlicht sind. Und das sollte man unterscheiden von einer trivialen Verkörperung, Unser Gesichtsausdruck ist zum Beispiel eine ganz wesentliche Form der Verkörperung, dadurch nämlich, dass das, was ein Gesichtsausdruck zum Ausdruck bringt in dieser Fülle und Differenziertheit nur durch den Gesichtsausdruck und nicht durch eine Beschreibung übermittelt werden kann. Wenn wir Sprache verwenden, gehen wir über ein wesentliches Embodiment hinaus, wir entwickeln dann Repräsentationen, die wir vollständig unabhängig von einem Wahrnehmungsinput verwenden können und zwar - Idealerweise können wir uns aufs Sofa legen und reflektieren, was wir morgen tun wollen, einen Plan machen und dieser Plan kann dann auch am nächsten Tag handlungsleitend sein. Alles dies ist nur möglich, weil wir kontext- und situationsunabhängige Repräsentationen zur Verfügung haben. Das zeichnet uns Menschen ganz wesentlich aus und scheint auch unsere enormen Handlungsmöglichkeiten erst bereit zu stellen. Abschließend äußere ich mich zu diesem Thema. Ich denke, dass der bochumer Philosoph der Sache recht nahe kommt. Nicht alles ist im Endeffekt verkörpert. Die Embodiment -Forschung ist sicherlich wichtig, um den Menschen besser zu verstehen, um Therapiemöglchkeiten für verschiedene Krankheiten zu finden, beispielsweise in der Psychologie, aber ich finde, man sollte es mit diesem Ansatz nicht zu weit treiben. Roboter sind eine interessante Sache und sie können vielleicht mittelfristig dem Menschen gute Dienste erweisen, aber ich persönlich spreche mich gegen die Verwendung natürlicher Materialien aus, da dann die ethisch moralische Frage aufkommt, zumindest in mir, woher diese genommen werden sollen. Ich denke, eine Maschine sollte eine Maschine bleiben und nicht halb Maschine, halb „Lebewesen“ sein. Jedoch kann ich diese Forschung nicht beeinflussen und es gibt ja auch genügend Kritiker und somit sollten wir abwarten, wie sich die Sache entwickelt und welche Erkenntnisse sich heraus kristallisieren. 4.1.1 Quellenangaben http://de.wikipedia.org/wiki/Embodiment http://www.dradio.de/dlf/sendungen/wib/722397/ http://209.85.229.132/search?q=cache:ecMCSgJ9rSgJ:www.ifi.uzh.ch/ailab/people/lu nga/Download/Seminar2001/seminar20_04_2001_b.pdf+embodiment+erl%C3%A4ut erung&cd=5&hl=de&ct=clnk&gl=de&lr=lang_de Abhandlung über Konstruktivismus und Nativismus (ist in Ausarbeitung nicht enthalten – Bonusmaterial) http://www.bildungbrauchtbewegung.ch/neu/fachtagung/thema/thema.htm Tagung über Embodiment http://images.google.de/imgres?imgurl=http://upload.wikimedia.org/wikipedia/commo ns/thumb/2/26/ShaunGallagher.jpg/180pxShaunGallagher.jpg&imgrefurl=http://en.wikipedia.org/wiki/Shaun_Gallagher_(philoso pher)&usg=__YGijPn2AwNVrxJ93FxrnzeNAslI=&h=253&w=180&sz=9&hl=de&start= 13&tbnid=jJPspUjhphSPwM:&tbnh=111&tbnw=79&prev=/images%3Fq%3DShaun% 2BGalagher%26gbv%3D2%26hl%3Dde%26sa%3DG http://images.google.de/imgres?imgurl=http://www.cogsci.uniosnabrueck.de/NBP/Portraits/PKhome_2006.jpg&imgrefurl=http://www.cogsci.uniosnabrueck.de/NBP/peterhome.html&usg=__XEIoshPKaKjJJZVlxE3h4v6yey0=&h=1 46&w=130&sz=4&hl=de&start=2&um=1&tbnid=ma4kIp50Av8TM:&tbnh=95&tbnw=85&prev=/images%3Fq%3DPeter%2Bk%25C3%25B6 nig%2BKognitionswissenschaftler%26hl%3Dde%26sa%3DN%26um%3D1 http://www.indiana.edu/~cogdev/aboutus/lbs.html http://www.ruhr-uni-bochum.de/philosophy/staff/newen/ 4.2 ICUB ICUB ist ein europäisches Großprojekt, welches auf fünf Jahre angelegt ist und von der EU mit 7,5 Millionen Euro finanziert wird. ICUB ist ein humanoider Roboter, der mental und körperlich einem zwei- bis dreijährigen Kind gleichen soll. Er ist ca. einen Meter groß, wiegt 23 Kilogramm und ist sehr gelenkig. Wie bei einem Baby, dass mit bestimmten Fähigkeiten geboren wird, wurden ICUB einige Fähigkeiten einprogrammiert, andere sollen gelernt und perfektioniert werden. Dies betrifft nicht nur die Bewegung und die Wahrnehmung, ICUB kann z. B. krabbeln, sondern ganz besonders die Interaktion mit Menschen. Das Roboterkleinkind reagiert auf Töne, Bewegung und menschliche Gesichter und Blicke. Im März 2009 kam iCub an die University of Plymouth. Das europäische Forscherteam bekommt sechs Millionen Euro für vier Jahre. In dieser Zeit soll ICUB sprechen lernen wie ein Kleinkind es von seinen Eltern lernt. Das Projekt trägt den Namen ITALK-Projekt (Integration and Transfer of Action and Language Knowledge in Robots). Das Lernen soll über Interaktionsexperimente erfolgen. ICUB soll dabei Formen in Löcher stecken und seine Handlung sprachlich wiedergeben. Die Forscher wollen untersuchen, was notwendig ist, um "komplexes Verhalten-, Denk- und Kommunikationsweisen durch individuelles und soziales Lernen zu erwerben. Angelo Cangelosi, Professor für KI an der University of Plymouth sagt, dass dies sehr hochgesteckte Ziele sind, aber dass man es versuchen kann. Zum Schluss bleibt nur die Frage offen, ob der Roboter auch wie ein Mensch aussehen und sich bewegen sollte. Eine der Ziele des ICUB-Projektes ist es die menschliche Kognition besser zu verstehen. Diese Forschung kann zukünftig auch künstlichen Intelligenzen zugute kommen. Natürlich kommen die Erkenntnisse auch in anderen Systemen zum Tragen, so z. B. in intelligenten Fabriksystemen, die vielseitiger einsetzbar sind als heutzutage. Abschließend ein Satz, der meine Situation ein wenig tangiert. Es ist auch langfristig geplant Roboter zu bauen, die selbstständig erkennen, wenn ein Mensch Hilfe benötigt, beispielsweise beim heben von Lasten oder wenn jemand Hilfe im Haushalt braucht. 4.2.1 Quellenangaben http://www.heise.de/tp/blogs/3/104313 http://archiv.unipublic.uzh.ch/magazin/umwelt/2006/2275.html http://www.iconocast.com/B000000000000155_German/T3/News6.htm http://www.innovationsreport.de/html/berichte/interdisziplinaere_forschung/menschliche_kognition_per_robo ter_erforscht_130532.html http://pressetext.de/news/090404003/menschliche-kognition-wird-per-robotererforscht/ http://www.bild.de/BILD/news/2009/04/03/roboter-baby-icub/soll-sprechenlernen.html http://www.tecchannel.de/test_technik/news/1750166/roboter_wie_kinder_erziehen/ Videos bei Youtube http://www.youtube.com/watch?v=5jFfgJDbwxQ http://www.youtube.com/watch?v=jOi37NikdpM http://www.youtube.com/watch?v=CskK7BGOsZ4 5. Psychologie 5.1 Definition „Psychologie (aus griech. ψυχολογία, psychología „die Seelenkunde“) ist die Wissenschaft vom Erleben und Verhalten des Menschen, also seinem Selbsterleben - alltagspsychologisch: seinem Innenleben - und dem damit in Zusammenhang stehenden Tun und Reagieren. Die Psychologie ist eine bereichsübergreifende Wissenschaft. Sie lässt sich nicht allein den Geisteswissenschaften, Sozialwissenschaften oder den Naturwissenschaften zuordnen. Im Lauf der historischen Entwicklung der Psychologie gab es Schwankungen in der Betonung dieser Bereiche.“ [Enzyklopädie: Psychologie. DB Sonderband: Wikipedia 2005/2006, S. 654198] 5.2 kurzer geschichtlicher Überblick Die Psychologie ist eine relativ junge Wissenschaft. In ihr kam es oft zu Paradigmenwechseln und es wurden oft neue Schulen gegründet. Die Psychologie entwickelte sich aus der Philosophie und die ersten „Psychologen“ waren Philosophen. Am Ende des 19. und dem beginnenden 20. Jahrhundert gab es zwei Richtungen in der Psychologie. Eine war geisteswissenschaftlich und die andere eher naturwissenschaftlich orientiert. Durch Wilhelm Wundt wurde das Experiment zur Erkenntnisfindung in die Psychologie eingeführt, mit der Untersuchungsmethode der Introspektion (Reflexion des Geistes über sich selbst). Man sprach von Bewusstseinspsychologie. In den ersten zwei Jahrzehnten des 20. Jahrhunderts bildete sich in den USA der Behaviorismus heraus. Der Begründer war John B. Watson von der Johns Hopkins Universität aus Chicago. Er erklärte, dass der Behaviorist die Psychologie als einen vollkommen objektiven, experimentellen Zweig der Naturwissenschaft sieht. Das theoretische Ziel besteht aus der Vorhersage und Kontrolle von Verhalten. Die Methode der Introspektion spielt keine Rolle. Watson und Lashley, Mary Cover Jones, Holt, Hunter und Weiss veränderten durch ihre Arbeiten die ganze Psychologie. Die Psychologie als Wissenschaft vom Verhalten wurde neu definiert. Pawlow führte Tierexperimente durch und prägte damit die klassische Konditionierung. In Deutschland spielt der Behaviorismus anfangs keine Rolle, da die ganzheitliche orientierte psychologische Strömung der Gestaltpsychologie großen Einfluss hat. Zu den Vertretern zählen Köhler, Wertheimer, Lewin und Bühler. Die Entwicklung wurde durch den Nationalsozialismus behindert, da viele Vertreter in die USA emigrierten. Die Begeisterung für den Behaviorismus legte sich Anfang der 30-iger Jahre. Eine neue Blütezeit erlebt der Behaviorismus durch die Arbeiten von Clark L. Hull (Yale University) und Burrhus F. Skinner (später Harvard University). Durch die desolate Nachkriegssituation hat sich der Behaviorismus in den 50-iger Jahren auch im westlich geprägten Europa verbreitet. In den 50-iger Jahren vollzog sich eine Veränderung. Es entwickelte sich das Paradigma des Kognitivismus. Verantwortlich dafür waren die Arbeiten von Shannon über Informationstheorie, Wiener über Kybernetik und Neumann, Simon, Newell über Datenverarbeitung. Durch die technische Revolution des Digitalcomputers wurde neu über geistige Prozesse, wie Wissen, Denken, Erkennen und Wahrnehmung, nachgedacht. Diese Periode wird auch als kognitive Wende bezeichnet. Der Digitalcomputer bot die Möglichkeiten, die der alten Bewusstseinspsychologie verwehrt geblieben waren. Mit dem Computer wurden Simulationen kognitiver Prozesse realisierbar. Die Methodik der Behavioristen wurde zwar beibehalten, aber das Bewusstsein wurde nun auch wieder Gegenstand der Untersuchungen und die Psychologie somit redefiniert. Der Kognitivismus ist zum dominierenden Paradigma aufgestiegen. Dies vollzog sich in den USA seit den 60er, in Deutschland seit den 70er Jahren. In den letzten zehn Jahren kam ein weiterer Denkansatz hinzu, welcher auf dem Konstruktivismus von Foerster, von Glasersfeld, Maturana und Varela aufbaut. Er ist ganzheitlich orientiert und hat seine Wurzeln u. a. auch in der Gestaltpsychologie. Dabei werden nach konstruktivistischen Vorstellungen Wissensinhalte im aktiven Austausch mit der Umwelt und der sozialen Gruppe konstruiert. Wissen ist somit weniger eine Repräsentation objektiver Gegebenheiten wie im Kognitivismus, sondern eher eine aktive und interaktive Konstruktion. Sie stellt somit subjektive Inhalte dar und kann mit den Kriterien der Viabilität bewertet werden, d. h. ob der jenige, der dieses subjektive Wissen konstruiert hat, sich damit in seiner Umwelt erfolgreich zurecht findet. In der Pädagogischen Psychologie hat der Konstruktivismus einen großen Einfluss. Weitere Einflüsse findet man in der Psychotherapie (systemische Therapie) und in der Arbeits- und Organisationspsychologie (z.B. Theorien des Geführtwerdens). Neben dem Konstruktivismus nimmt in den letzten zehn Jahren die Bedeutung der Evolutionspsychologie immer mehr zu. Es entsteht ein neues Paradigma. Es ist auf Fortschritte in der Biologie, Verhaltensbiologie (Ethologie [Lorenz, Tinbergen, EiblEibesfeldt] und Soziobiologie [Wilson, Krebs, Davies, Maynard Smith, Voland]) zurück zu führen. Bis auf die alte Bewusstseinspsychologie existieren heute alle Paradigmen nebeneinander. Man sieht das Einflüsse aus verschiedenen Nachbardisziplinen (u. a. Philosophie, Biologie, Physiologie, Computerwissenschaft) eine große Rolle spielen. Da die soziale Interaktion des Menschen mit seiner Umwelt zu dessen Verhalten gehört und dies in den einzelnen Strömungen auch untersucht wird, ist die Psychologie auch eine Sozialwissenschaft (Sozialpsychologie), In der Psychologie wird selbstverständlich auch abnormes Verhalten studiert, wobei medizinische (psychiatrische, psychopathologische) und psychotherapeutische (tiefenpsychologische, humanistische) Einflüsse in die Psychologie hineinkommen. Diese Einflüsse strahlen auf Teildisziplinen, z. B. tiefenpsychologische Einflüsse auf die Persönlichkeitspsychologie, humanistische Einflüsse auf die Arbeits- und Organisationspsychologie, aus. 5.2.1 Quellenangaben http://www.verhaltenswissenschaft.de/Psychologie/Geschichte_der_Psychologie/ges chichte_der_psychologie.htm 5.3 Kognitivismus / Kognitionspsychologie 5.3.1 Kognition Maturana beschreibt Kognition mit den Worten „to live is to know“. Auf Deutsch kann man es als Lebensbewältigung oder überlebensverträgliches Handeln beschreiben. Kognition beschreibt die Gesamtheit der Prozesse, die mit der Aufnahme von Information, ihrer Verarbeitung und Speicherung im Gedächtnis sowie ihrer Nutzung und Anwendung verbunden ist. 5.3.1.1 Quellenangaben http://www.persoenliches-wissensmanagement.com/content/definition-kognition http://server02.is.uni-sb.de/trex/index.php?id=1.4.1. http://images.google.de/imgres?imgurl=http://www.constructivistpsych.org/images/ph oto_Maturana_may_2001.jpg&imgrefurl=http://www.constructivistpsych.org/archives. htm&usg=__d0WSkYsuqALWAyPVV3mSjH3kOI=&h=399&w=436&sz=27&hl=de&start=1&um=1&tbnid= ye1PI_kzVR8r4M:&tbnh=115&tbnw=126&prev=/images%3Fq%3DMaturana%26hl% 3Dde%26sa%3DN%26um%3D1 Bild Maturana 5.3.2 Überblick über das Forschungsgebiet Das Gebiet der Kognitionspsychologie beschäftigt sich mit den Strukturen des Gehirns und der Informationsverarbeitung, d. h. mit der Reizaufnahme und dem anschließenden Verhalten und Erleben. Die Kognition wird als Gegenbegriff zur Emotion gesehen. Zu ihr gehören: - menschliche Wahrnehmung - Informationsverarbeitung - Geist - Denken - Emotion und Handeln - Intelligenz - Sprache - Kreativität - Verstehen - Urteilen - Bewerten - Vorstellungen - Lernen - Gedächtnis Die Kognitionswissenschaften sind zumeist interdisziplinär. Zum Verständnis kognitionspsychologischer Zusammenhänge ist ein umfangreiches Wissen über die Neurologie erforderlich. Die Neurologie untersucht die biologischen Kommunikationsprinzipien des Zentralen Nervensystems (ZNS). In den 50-iger Jahren des 20. Jahrhunderts entwickelte sich die Kognitionspsychologie aus dem Fachgebiet der allgemeinen Psychologie. Stark beeinflusst wurde sie dabei durch die Informationstheorie. Diese Theorie geht auf Claude Shannon zurück. Sie befasst sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung und ähnlichen Themen. Häufig werden Kognitionspsychologie und Kognitionswissenschaft verwechselt. Erstere ist zwar ein Teil dieser Wissenschaft, aber mittlerweile ein eigenständiges Forschungsgebiet der Psychologie. Die kognitive Psychologie bezieht Lösungen und Ergebnisse anderer Wissenschaften in ihre Forschung mit ein. Dazu zählen unter anderem die Informatik/KI sowie der Neurowissenschaften (Neuropsychologie, Neuroanatomie, Neurobiologie und die Neurophysiologie). Es wird an einer zunehmend integrativen Theoriebildung der Funktionsweise des menschlichen Geistes gearbeitet. Dabei werden auch Anomalien wie Hochbegabung und klinische Störungsbilder und Alterseffekte mit einbezogen. 5.3.2.1 Quellenangaben http://de.wikipedia.org/wiki/Kognitionspsychologie http://de.wikipedia.org/wiki/Informationstheorie http://www.lexikon-psychologie.de/Kognitionspsychologie/ https://www.psychologie.hu-berlin.de/prof/kog 5.3.3 Kognitivismus Ich habe bei meinen Recherchen über Kognitionspsychologie nach den drei Begriffen „kognitive Psychologie“, „Kognitionspsychologie“ und „Kognitivismus“ gesucht. Leider hat keine Internetseite alle drei Begriffe miteinander vereint und da alles ein und dasselbe ist, werde ich in diesem Kapitel das voran gegangene nur ergänzen, da ich noch Vervollständigungsbedarf sehe. Kognition ist vom lateinischen Wort „cognito“ abgeleitet. Übersetzt bedeutet es soviel wie Erkenntnis, Erkennen bzw. die Erkenntnis betreffend. Mit kognitiven Prozessen sind Wahrnehmung, Urteilen, Aufmerksamkeit, Verstehen, Problemlösen, Erkennen, Schließen und Lernen gemeint. Im Kognitivismus wird ein Individuum als informationsverarbeitendes Wesen angesehen. „Während behavioristische Lerntheorien schwerpunktmäßig die äußeren Bedingungen des Lernens (Auslösung von Reaktionen durch Reize bzw. Belohnung oder Bestrafung des Verhaltens durch nachfolgende Konsequenzen) beschreiben, rückt bei den kognitiven Lerntheorien die innere Repräsentation der Umwelt in dem Mittelpunkt des Interesses.“ Edelmann (1996, 8) Im Kognitivismus ist man bestrebt, die Blackbox des Behaviorismus offen zu legen. In die Forschung werden innerseelische Prozesse einbezogen, wie Wünsche, Ideen, Glaubensvorstellungen, fühlen, usw. Das Datenverarbeitungsprinzip „EVA“ (Eingabe, Verarbeitung und Ausgabe) aus der EDV trifft laut Lehre des Kognitivismus auch auf den Menschen zu. Der Forschungsgegenstand des Kognitivismus ist somit die Informationsverarbeitung. Es werden vor allem die psychischen Phänomene untersucht, die mit dem Erkenntnisprozess zusammen hängen, Lernen, Denken, Wahrnehmung, Sprache. Der Erkenntnisprozess wird als konstruktive Auseinandersetzung mit der Umwelt und der Interpretation dieser gesehen. Das Verhalten des Menschen ist von Verstehen und Einsicht geleitet. Für kognitive Leistungen werden neuronale Netze verwendet. Zitate: „Kognitivismus befasst sich primär mit der Erklärung jener höheren geistigen Prozesse, die nicht einfach durch ein S-R-Paradigma zu erklären sind. Kognitive Psychologen haben sich primär für Gebiete der Wahrnehmung, Informationsverarbeitung, Entscheidungsprozesse und Wissen interessiert.“ Lefrancois (1994, 120) „Im kognitiven Modell wird angenommen, dass es die Prozesse der Informationsverarbeitung sind, die festlegen, wie ein Individuum sich verhalten wird.“ Zimbardo (1992, 9) „Kognitionspsychologie ist die Wissenschaft, die sich mit der menschlichen Informationsverarbeitung befasst. Ihr Gegenstand, oft als Kognition bezeichnet, betrifft die Arten von Informationen, die wir in unserem Gedächtnis haben, und die Vorgänge, die sich auf die Aufnahme, das Behalten und Verwenden solcher Informationen beziehen.“ Wessels (1998, 14) Vertreter: - Jean Piaget (1896 – 1980) - David Ausubel (geb. 1918) - Robert M. Gagné (1887 – 1967) kein Bild gefunden - Jerome S. Bruner (geb. 1915) 5.3.3.1 Quellenangaben http://www.edit.uni-essen.de/lp/kognitiv/kognitiv.htm http://de.wikipedia.org/wiki/Kognitivismus http://arbeitsblaetter.stangl-taller.at/LERNEN/LerntheorienKognitive.shtml http://projekte.vhs.at/lerntheorie/kognitivismus http://dsor-fs.upb.de/~blumstengel/Kognitivismus.html Bonusmaterial 5.4 Behaviorismus Behaviorismus ist vom englischen behavior = Verhalten abgeleitet. Der Behaviorismus versteht sich als Verhaltenswissenschaft. Den Startschuss des Behaviorismus gab John B. Watson 1913 mit seinem Werk „Psychology as the Behaviorist views it“. Er zerlegte alles in Reiz und Reaktion (englisch: stimulus– response). Ein zweiter Wegbereiter des Behaviorismus war Edward Lee Thorndike mit seinem Gesetz der Wirkung: Bestrafung und Belohnung. Das Gesetz besagt, dass Verhalten, welches belohnt wird, Tendenz zur Wiederholung zeigt und welches bestraft wird, eliminiert wird. Er machte Experimente mit Katzen, die er in Labyrinthe einsperrte und stellte fest, dass sie erst nach Versuch und Irrtum vorging. Danach wurde die Katze immer schneller, um ihren Irrgarten zu entkommen, wenn sie Futter bekam. Er schlussfolgerte, dass die Katze das Fressen mit dem richtigen Verhalten verband. Das Tier verliert ihr Verhalten, wenn sie bestraft wird. Die klassischen Behavioristen betrachten den Organismus als „Blackbox“. Sie konzentrieren sich nur auf die Prozesse, die zwischen Körper und Umwelt ablaufen. Dabei sind die physiologischen Vorgänge uninteressant. Der Behaviorismus war vor allem in den USA weit verbreitet und erlebte seine Blütezeit nach dem zweiten Weltkrieg bis hinein in die 60-iger Jahre. Er wird wissenschaftstheoretisch grob in zwei Gruppen unterteilt: - Methodologischer Behaviorismus - Radikaler Behaviorismus. Er lässt sich in drei Zeitabschnitte gliedern: - 1913 - 1930 Klassischer Behaviorismus - 1930 - 1950 Neobehaviorismus - ab 1950 Radikaler Behaviorismus. 5.4.1 Quellenangaben http://de.wikipedia.org/wiki/Behaviourismus http://www.verhaltenswissenschaft.de/index.htm http://ki.informatik.uniwuerzburg.de/forschung/publikationen/studienarbeiten/faulhaber/kap2-2-2-3-1.html http://www.uni-konstanz.de/agmoral/lernen/01_lernen/lerntheorien_Behaviourismus.htm Bonusmaterial 5.4.2 Methodologische Behaviorismus Der Methodologische Behaviorismus kennt zwei Typen von Ereignissen: - öffentliche, beobachtbare Ereignisse, - private, unbeobachtbare Ereignisse. Bei Untersuchungen geht man nach folgendem Schema vor: - Es existiert eine Theorie mit theoretischen Konzepten. Diese soll das Verhalten unter bestimmten Bedingungen vorher sagen. - Die Theorie soll durch ein Experiment überprüft werden. - Nach dem Experiment werden di Daten ausgewertet. Bei Fehlern wird der Versuchsaufbau und die Theorie überprüft und ggf. geändert. Bei einem positiven Ergebnis gilt die Theorie als bestätigt. Diese Forschungsmethodik wird heute noch verwendet. 5.4.2.1 Quellenangaben http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologische r_Behaviourismus/methodologischer_Behaviourismus.htm 5.4.3 Klassischer Behaviorismus Der Klassische Behaviorismus kann zeitlich genau eingegrenzt werden, da 1913 das behavioristische Manifest von John B. Watson, der den Behaviorismus prägte, erschien und 1930 seine zweite Auflage des Buches „Behaviorismus“. Die Grundpositionen des Klassischen Behaviorismus sind: - Psychologie sollte sich mit von außen beobachtbaren Verhalten beschäftigen (motorische Reaktionen und was Menschen sagen) - Verhalten besteht aus Reflexen - Reize sind Objekte außerhalb des Körpers und Veränderungen im Körper - Jeder Reaktion kann man einen Reiz zuordnen, der sie auslöst - Reize und Reaktionen werden über Pawlowsches Konditionieren assoziiert. - Gefühle und Gedanken sind nicht von außen beobachtbar und daher nicht Gegenstand wissenschaftlicher Psychologie Vertreter des Klassischen Behaviorismus: - John B. Watson (1878-1958) - Edward R. Guthrie (1886-1959) - E. Holt (1873-1946) - W. Hunter (1889-1954) - Mary C. Jones (1896-1987) - Karl Lashley (1890-1958) - M. Meyer (1873-1967) - Weiss (1879-1931) 5.4.3.1 Quellenangaben http://www..de/Psychologie/Behaviourismus/Methodologischer_Behaviourismus/Klas sischer_Behaviourismus/klassischer_Behaviourismus.htm 5.4.4 Neobehaviorismus Ende der 20-iger und Anfang der 30-iger Jahre verlor der Klassische Behaviorismus an Bedeutung, da seine Antworten auf Forschungsfragen zu simpel waren. Clark L. Hull von der Yale-Universität entwickelte einen Behaviorismus in welchem hypothetische Konstrukte die Lücken in der Erklärung des Verhaltens schließen sollten, die der Klassische Behaviorismus offen ließ. Für Hull war Verhalten eine passive Abfolge von Reiz-Reaktions-Verbindungen. Seine Theorie wird als S-RTheorie (S: stimulus, R: response) bezeichnet. Sie wird auch systematische Verhaltenstheorie genannt, da sie eine in der Psychologie einmalige Systematik aufweist. Edward C. Tolman entwickelte einen weiteren neobehavioristischen Ansatz. Für ihn war Verhalten nicht einfach nur eine Abfolge von Reiz-Reaktions-Verbindungen, die ein Lebewesen passiv über Verstärker gelernt hatte, sondern auf eine zielgerichtete Funktion organismusinterner Faktoren wie Bedürfnissen, Überzeugungen, Werten und Wahrnehmungsbereitschaften. Räumliche Reiz-Reiz-Verbindungen sah er als in kognitiven Landkarten zusammen gefasst an. Für Tolman waren Reiz-ReizVerbindungen ein wichtiger Ansatz, daher spricht man auch von der S-S-Theorie. Da Tolmans Konzept den kognitiven Theorien nahe steht, nennt man es auch „Kognitiver Behaviorismus“. 5.4.4.1 Quellenangaben http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologische r_Behaviourismus/NeoBehaviourismus/neoBehaviourismus.htm 5.4.5 Radikaler Behaviorismus „Die Gewohnheit, in das Innere eines Lebewesens zu blicken, um Verhalten zu erklären, führte dazu, die Variablen zu verdecken, die unmittelbar für eine wissenschaftliche Analyse zur Verfügung stehen. Diese Variablen liegen außerhalb des Organismus in seiner unmittelbaren Umwelt und in seiner Geschichte. Sie haben einen physikalischen Status, auf den die gewöhnlichen wissenschaftlichen Methoden angewendet werden können, und sie machen es möglich, Verhalten so zu erklären, wie andere Forschungsgegenstände in der Wissenschaft erklärt werden. Diese unabhängigen Variablen (Ursachen) sind sehr unterschiedlich und ihre Beziehungen zum Verhalten sind oft subtil und komplex, aber wir können nicht hoffen, einen angemessen Erklärungsansatz des Verhalten zu geben, ohne sie zu analysieren.“ B. F. Skinner (1953). Science and Human Behaviour, S. 31 Skinner ist der Begründer des Radikalen Behaviorismus. Nach ihm ist der Behaviorismus die Philosophie einer bestimmten Verhaltenswissenschaft, der experimentellen Verhaltensanalyse. (Experimental Analysis of Behavior). Skinner plädiert für eine Erforschung des Verhaltens “in its own right” und lehnt die Einflüsse anderer Wissenschaften wie der Physiologie ab, da sie seiner Meinung nach auf einer anderen Ebene sind und in einer Verhaltenswissenschaft nichts zu suchen haben. Die Unterscheidung in beobachtbare (öffentliche) und unbeobachtbare (private) Ereignisse wie im Methodologischen Behaviorismus wird zwar ebenfalls vorgenommen, doch wird ein Ausschluss unbeobachtbarer Ereignisse oder die Verwendung theoretischer Konzepte zur Erklärung beobachtbarer Ereignisse abgelehnt. Für Radikalbehavioristen ist Verhalten von äußeren Variablen abhängig und es muss alles auf sie zurückgeführt werden. Alles was Organismen tun, also auch sprechen, denken, fühlen, sehen, usw., wird als Verhalten bezeichnet. Nach Skinner sind dies verdeckte (covert) Verhaltensweisen, im Gegensatz zu offen (overt). Es handelt sich um einen umfassenden Behaviorismus, der alles was Organismen tun, als Verhalten versteht und daher nichts als durch ihn nicht erklärbar ausschließt. Man nimmt an, dass zwischen offenen und verdeckten Verhaltensweisen ein kontinuierlicher Übergang besteht. Einige verdeckte unbeobachtbare Verhaltensweisen werden nicht als mental gewertet. Es wird angenommen, dass verdeckte Verhaltensweisen von den gleichen Umweltvariablen abhängen wie offene. Für Radikalbehavioristen wird Verhalten durch Operante Konditionierung geformt und hängt von Verstärkern ab. Angeborene und klassisch konditionierte Verhaltensweisen werden nicht geleugnet. Ein Verstärker ist ein Reiz der auf eine Reaktion folgt und die Auftretenswahrscheinlichkeit der Klasse von Reaktionen, zu denen die vorangegangene Reaktion gehört, verändert. Die Klassifikation von Reizen und Reaktionen wird durch die Beziehung zwischen ihnen bestimmt. Sie ist deshalb funktional und nicht strukturell oder topographisch, d.h. dass nicht die physikalischen Eigenschaften die Grundlage der Klassifikation bilden. Der radikale Behaviorist bezieht auch evolutionsbiologische Überlegungen, v.a. auf das Konzept der Adaptation ein. Das Verhalten wird durch drei Punkte selektiert: - die natürliche Selektion - den Prozess der Operanten Konditionierung - die kulturelle und soziale Umwelt. Die ethische Position des Radikalen Behaviorismus ist pragmatisch und auf Effizienz ausgerichtet. Der Pragmatismus bedeutet, dass Wahrheit und Werte durch die Interaktion mit der Umwelt konstruiert werden. Man kann daraus nicht schließen, dass das ziel Unterdrückung und Ausbeutung ist, da Lebewesen gegen solche aufbegehren. Vertreter des Radikalen Behaviorismus: 1. Generation - Burrhus F. Skinner (1904 - 1990) - Fred S. Keller 2. Generation - Nate Azrin - William K. Estes - Charles Catania - Charles B. Ferster (1922-1981) - Richard J. Herrnstein (1930-1994) - William H. Morse - George S. Reynolds 3. Generation - William M. Baum - Edmund Fantino - Gene M. Heyman - Philipp Hineline - Peter R. Killeen - James E. Mazur - Frank McSweeney - Albert Neuringer - Howard C. Rachlin (“Teleologischer Behaviorismus”) - John E. R. Staddon (“Theoretischer Behaviorismus”) - William Vaughan - Peter de Villiers - Ben A. Williams, G. Zuriff 5.4.5.1 Quellenangaben http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Radikaler_Behav iourismus/radikaler_Behaviourismus.htm 6. Maschinelles Lernen (ML) Zuerst stellt sich natürlich die Frage: „Was ist Lernen?“. Hierfür gibt es mehrere Erklärungsansätze und Definitionen. „Lernen ist jede Veränderung eines Systems, die es ihm erlaubt, beim nächsten Mal dieselbe Aufgabe oder eine Aufgabe derselben Art effizienter oder effektiver (besser) zu lösen.“ (Herbert Simon, 1983) „Lernen ist ein Prozess, bei dem ein System eine abrufbare Repräsentation von vergangenen Interaktionen mit seiner Umwelt aufbaut oder Lernen ist die Organisation der Erfahrung...“ (Scott, 1983) „Lernen ist das Konstruieren oder Verändern von Repräsentationen von Erfahrungen.“ (Ryszard Michalski, 1986) Alle diese Versuche „Lernen“ zu definieren sind nicht umfassend und man findet Kritikpunkte an ihnen, auf die ich nicht näher eingehen will. Mitte der 50-iger Jahre begann man die ersten Systeme zu entwickeln. Das schlug leider in den meisten Fällen fehl. Erst Mitte der 70-iger Jahre mit dem Nötigwerden von Expertensystemen stieg die Motivation sich mit dem ML tief greifend zu beschäftigen. Es entstanden viele funktionierende Systeme. Das ML wurde zum Modethema. Von 1986 bis heute gab es zahlreiche Entwicklungen wie neuronale Netze, die Kombination verschiedener Verfahren, die Komplexität stieg enorm an, Robotik, usw. Beim ML wird Wissen künstlich generiert. Ein System lernt an Hand von Beispielen und kann nach Beendigung der Lernphase verallgemeinern, d. h. es prägt sich nicht nur die Beispiele ein und gibt sie stupide aus, sondern es erkennt Gesetzmäßigkeiten in den Daten und kann auf diese Weise auch unbekannte Daten beurteilen. Das Lernen anhand von Beispielen nennt man Induktion. Dieses Verfahren steht beim ML im Vordergrund. Einige Anwendungsbereiche sind: - automatisierte Diagnoseverfahren - Erkennung von Kreditkartenbetrug - Aktienmarktanalysen - Klassifikation von DNA-Sequenzen - Spiele - Robotik - Expertensysteme - Sprach- und Schrifterkennung und - autonome Systeme. Die Art und Mächtigkeit der Wissensrepräsentation spielt eine wichtige Rolle. Man unterscheidet symbolische und subsymbolische Systeme. Bei den symbolischen Systemen sind Beispiele und induzierte Regeln explizit repräsentiert. Bei den subsymbolischen ist das Wissen implizit repräsentiert und erlaubt keinen Einblick in die Lösungswege. Ein Beispiel für subsymbolische Systeme sind neuronale Netze. Die praktische Umsetzung geschieht durch Algorithmen. Eine grobe Übersicht über verwendete Algorithmen: - Überwachtes Lernen (engl. supervised learning): der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den korrekten Funktionswert zu einer Eingabe bereit. Ein Teilgebiet des überwachten Lernens ist die automatische Klassifizierung. Anwendungsbeispiel: Handschrifterkennung. - Unüberwachtes Lernen (engl. unsupervised learning): der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen, die sich durch charakteristische Muster voneinander unterscheiden. Ein wichtiger Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien ausmachen. Eine Anwendung des EMAlgorithmus findet sich beispielsweise in den Hidden Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B. Hauptkomponentenanalyse verzichten auf die Kategorisierung. Sie zielen darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt. - Bestärkendes Lernen: der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren. Beispiele von Software: - GNU R ist eine auf vielen Plattformen verfügbare, freie Statistik-Software mit Erweiterungen zum maschinellen Lernen (z. B. rpart, randomForest) und Data-Mining. - RapidMiner (früher YALE) ist ein einfach zu bedienendes und frei erhältliches Tool für maschinelles Lernen und Data-Mining. - Shogun ist eine Open-Source-Toolbox für Kernel-Methoden. Wichtige Persönlichkeiten auf diesem Gebiet sind Tom M. Mitchell, Ivan Bratko und Donald Michie. 6.1 Quellenangaben http://de.wikipedia.org/wiki/Maschinelles_Lernen http://www-user.tu-chemnitz.de/~stj/lehre/masch.pdf http://209.85.129.132/search?q=cache:jc1nZR-xl9oJ:www.informatik.unikonstanz.de/fileadmin/Redakteur_Dateien/Studieren_Angebot/master_profil_schema .pdf+maschinelles+lernen+entwickler&cd=1&hl=de&ct=clnk&gl=de Bonusmaterial http://www.kbs.uni-hannover.de/~schneide/lernen.html Bonusmaterial http://ml.cs.tu-berlin.de/de/index.html TU Berlin – Bonusmaterial http://www.itwm.fraunhofer.de/de/as__asprojects__lip/lip/ Frauenhofer Institut – Bonusmaterial http://idw-online.de/pages/de/news1462 TU Chemnitz – 10. europäische Tagung im Maschinellen Lernen http://www.scinexx.de/wissen-aktuell-10009-2009-06-05.html Flipperautomat über Gedanken steuern – Bonusmaterial http://www.inf.ethz.ch/news/focus/edu_focus/buhmann/index_DE Interview mit Prof. Joachim Buhmann – Bonusmaterial http://vasarely.wiwi.hu-berlin.de/Home/lehre/ki-ha.html Buchtipps 7. Wissensbasierte Systeme (WBS) Wir sollten zuerst auf den Begriff „Wissen“ eingehen. Es gibt verschiedene Definitionen. „Wissen, Ergebnis eines Erkenntnisprozesses, in dem subjektive und objektive Fakten und Schlussfolgerungen zu Überzeugungen über Ereignisse, Gegenstände und Beziehungen zwischen Gegenständen verarbeitet werden.“ (Faktum Lexikoninstitut, Hrsg., Lexikon der Psychologie, Gütersloh/München 1995, S.524) „Wissen bezeichnet eine bedeutungsvolle Vernetzung von Informationen.“ ( Prof. Peter Reimann, Katja Müller, Phillip Starkloff Kognitiv kompatibel? Wissensmanagement: Brückenschlag zwischen Technik und Psyche, ct 4/2000, S.275) „Wissen bezeichnet das Netz aus Kenntnissen, Fähigkeiten und Fertigkeiten, die jemand zum Lösen einer Aufgabe einsetzt.“ (Dieter Herbst, Erfolgsfaktor Wissensmanagement, Cornelsen Verlag, Berlin 2000, S.9) Wissen ist mehr als die Ansammlung von Daten oder Informationen. Erst durch die individuelle Interpretation und Verwendung wird aus den Daten und Informationen Wissen. Wissen entsteht durch die Kombination vorhandenen Wissens und die Vernetzung von Entscheidungen. Der Wert des Wissens besteht in dessen Zweck orientierten Einsatz. Ein WBS ist ein intelligentes Informationssystem. Wie soll mit dem Wissen im WBS verfahren werden? Das Wissen soll repräsentiert werden und zwar mit den folgenden Methoden: - Bereitstellung von Formalismen zur symbolischen Darstellung von Wissen. - Bereitstellung von Inferenzmechanismen zur automatischen Ableitung von Wissen. Wie funktioniert die Domänenmodellierung? - Auswahl eines geeigneten Repräsentationsformalismus. - Adäquate Beschreibung der Domäne in diesem Formalismus. - Bestimmung der Domäne Akquisition des Domänenwissens Es gibt verschiedene Darstellungsformen: - Deklarative Darstellung: - Logische Formeln - Semantische Netze - Objektorientierte Darstellungen - Prozedurale Darstellung: - Programme - Produktionsregeln WBS ist der Oberbegriff für Expertensysteme. Er wird aber auch für alle anderen auf Wissen basierenden Systeme gebraucht. Man zählt dazu: - Regelbasierte Systeme - Expertensysteme - Software-Agenten WBS sind vorteilhaft, da man eine große Menge von Wissen in diese Systeme einarbeiten kann und durch das System schnelle kompetente Antworten auf ein bestehendes Problem erhält. Die Vorteile solcher Systeme sind weiterhin, dass das Wissen in einzelne überschaubare Wissenseinheiten gegliedert und somit bei neuen Erkenntnissen schnell zu aktualisieren oder bei Fehlern zu korrigieren ist. Ein WBS hat mehrere Kernkomponenten. Als Erstes wäre dazu nennen, die Wissensbasis. Das Wissen umfasst Fakten und Regeln und ist deklarativ abgelegt. Die zweite Komponente ist die Inferenzkomponente. In ihr wird das Wissen verarbeitet und neue Fakten und Regeln abgeleitet. Die Letzte ist die Benutzerschnittstelle (User Interface) – Schnittstelle). Sie dient der Kommunikation mit dem Nutzer. Damit aber nun aus unserem WBS ein Expertensystem wird, werden noch zwei weitere Komponenten benötigt, die Wissenserwerbskomponente, die automatisch oder manuell funktioniert und die Erklärungskomponente, die dem User die Lösungsfindung aufzeigt. Aufbau eines Expertensystems (Gottlob 1990): Eine grafische Darstellung eines WBS: Einsatzgebiete für WBS sind: - Dateninterpretation - Überwachung - Diagnose - Therapie - Planung - Entwurf und - Prognose. 7.1 Quellenangaben Wissen http://de.wikipedia.org/wiki/Wissen http://www.genia-berlin.de/sites/wiss_transfer/wt_einf_wissen.htm WBS http://de.wikipedia.org/wiki/Wissensbasiertes_System http://209.85.129.132/search?q=cache:KjaYZdVhSpUJ:www.informatik.uniulm.de/ki/Edu/Vorlesungen/GdKI/WS0304/skript/11-WissensbasierteSysteme.pdf+11-Wissensbasierte-Systeme.pdf&cd=1&hl=de&ct=clnk&gl=de PDF Datei liest mein Screen Reader nicht und ist Passwort geschützt, kann sie somit nicht ins Word importieren Ordner WBS medinfgrund_09.pdf Bonusmaterial 7.2 Expertensysteme (XPS) Definition: „ Expertensysteme sind Programme, mit denen das Spezialwissen und die Schlussfolgerungsfähigkeit qualifizierter Fachleute auf eng begrenzten Aufgabengebieten nachgebildet werden soll.“ (Puppe 1991) Ein XPS ist ein Softwaresystem, dass Expertenwissen zu einem bestimmten Gebiet enthält und bei der Lösung oder Beurteilung einer Problemstellung hilft. XPS unterstützen den Menschen beispielsweise in der Medizin bei Diagnosestellungen oder der Auswertung wissenschaftlicher Daten. Die ersten Arbeiten an XPS gehen in die 60-iger Jahre des vorigen Jahrhunderts zurück. Seit den 80-iger Jahren werden sie auch kommerziell genutzt. Als die Versuche fehl schlugen so genannte General Problem Solver zu entwickeln, d. h. Systeme zu realisieren, die zu jeder Aufgabenstellung eine Antwort geben konnten, kamen die Expertensysteme auf, die nur das Wissen eines speziellen Wissensgebietes enthielten. Die Güte eines XPS bestimmt man damit, wie fehlerfrei es arbeitet und in welchem Umfang es Schlussfolgerungen ziehen kann. Es gibt unterschiedliche Zielsetzungen ein XPS zu entwickeln (Gottlob 1990): - die Bereitstellung neuer Serviceleistungen, besonders im Dienstleistungsbereich; - die Entwicklung eines neuen Produktes, entweder als eigenständiges Softwaresystem oder durch Integration eines Expertensystems in ein Analyseoder Diagnosegerät; - die Verbesserung von Qualität, Sicherheit, Produktivität und Arbeitsbedingungen - Hauptziele im Rahmen der industriellen Produktion; und - die Verringerung von Fehleranzahl, Ausschuss und Ressourcenbedarf, d.h. der Versuch, den Produktionsprozess besser in den Griff zu bekommen. Die Entwicklung kann aus produktbezogener oder Expertensicht erfolgen. Aus der Sicht des Experten gibt es folgende Gründe (Gottlob 1990): - Der Experte ist mit Aufgaben überlastet, die für ihn Routine sind. Diese Routineaufgaben sollten ihm von einem Expertensystem abgenommen werden, damit er sich den schwierigen Problemen widmen kann; - Der Experte kann nicht vor Ort sein, etwa bei mangelndem Servicepersonal, oder bei Weltraum- und militärischen Projekten. - Es gibt nur einen Experten, der in der Zentrale sitzt. Man möchte jedoch sein Wissen auch in den Filialen verfügbar machen. - Die Anzahl und/oder die Komplexität der Probleme hat so zugenommen, dass der Experte überfordert ist. - Der Experte geht bald in Pension oder wechselt die Firma, man möchte aber sein Wissen nicht mit seinem Ausscheiden verlieren. Aus der Sicht des zu entwickelnden Produktes (Gottlob 1990): - Um die Qualität eines Produktes zu erhöhen, liefert man das zugehörige Expertenwissen mit. - Die Problemstellung hat eine Komplexität, die intelligente Unterstützung bei der Problemlösung erfordert. - Die Sicherheit in kritischen Situationen wird erhöht. es werden Leistungen an bisher nicht erreichten Orten und/oder Tageszeiten (z.B. nachts oder am Wochenende) ermöglicht. Zur Realisierung der gesteckten Ziele, dass das System Wissen repräsentieren und schlussfolgern kann, werden verschiedne Modelle benutzt. Fallbasierte Systeme Das System versucht in seiner Datenbasis zu dem gegebenen Problem einen ähnlichen Fall zu finden und ihn auf den aktuellen Fall zu übertragen. Gerade in der Schlussfolgerung der Ähnlichkeit stellt sich das Schlüsselproblem solcher Systeme dar. Ein typischer Fall für ein solches System ist die Diagnose von Krankheiten und die sich daraus ergebende Therapie. Das System versucht an Hand von Krankheitssymptomen eine Lösung zu finden. Regelbasierte Systeme bzw. Business Rule Management Systeme (BRMS) Im Gegensatz zu Fallbasierten Systemen sind hier keine Fallbeispiele hinterlegt sondern Regeln, wie wenn A dann B. Aus den vorgegebenen Regeln leitet das System seine Lösung ab. Die Regeln stellen eher allgemeine Gesetzmäßigkeiten dar. Systeme mit Entscheidungsbäumen Diese Systeme werden vor allem bei Klassifizierungsproblemen eingesetzt. Bei diesen Systemen handelt es sich um eine Form des induktiven Lernens. In dem System werden Daten in einer Beispielmenge hinterlegt. Ein Beispiel kann etwa aus einer Reihe von Attributen (eines Objektes, z. B. eines Patienten) und deren konkreten Ausprägungen bestehen. Bei der Verarbeitung solcher Beispiele durchläuft das System einen Pfad (Suchbaum): Die einzelnen Attribute sind dabei Knoten, die von ihnen ausgehenden möglichen Ausprägungen Kanten. Das System folgt der Kante, die im Beispiel vorliegt und setzt dies Attribut für Attribut fort, bis es zu einem Endknotenblatt gelangt und gibt schlussendlich die Klasse aus, die zu dem beschriebenen Objekt gehört. Das Ziel ist, mit möglichst kleinen Entscheidungsbäumen zu guten Ergebnissen zu kommen. Dabei spielt die Auswahl der Attribute eine entscheidende Rolle. XPS werden überall da benötigt, wo ein Experte fehlt, oder durch die Komplexität des Wissens, ein menschlicher Experte überfordert ist. Hier einige Anwendungsgebiete und realisierte XPS. - Dateninterpretation Analyse von Daten mit dem Ziel einer Zuordnung zu Objekten oder Erscheinungen, insbesondere Signalverstehen. Beispiele: Erkennung akustischer Sprache (HEARSAY), Identifizierung chemischer Strukturen anhand von Massenspektrometerdaten (DENDRAL), geologische Erkundung (PROSPECTOR), Proteinstrukturbestimmung aus Röntgendaten, Erdölbohrung, militärische Aufklärung, U-Boot-Ortung (SEPS, STAMMER). - Überwachung Interpretation von Daten mit Aktionsauslösung in Abhängigkeit vom Ergebnis. Beispiele: Produktionssicherung, Überwachung von Patienten in der "eisernen Lunge" (VM), Überwachung eines Kernreaktors (REACTOR). - - - - - Diagnose Interpretation von Daten mit starker Erklärungskomponente. Beispiele: vielfältig in der Medizin, zum Beispiel bei bakteriellen Infektionen (MYCIN), Rheumatologie, innere Medizin (INTERNIST), Pflanzenkrankheiten; außerdem zur Bestimmung und Lokalisation von Fehlern in technischen Systemen. Therapie Aktionen zur Korrektur fehlerhafter Systemzustände und Beseitigung der Ursachen (oftmals mit Diagnose gekoppelt). Beispiele: siehe Diagnose, Fehlerdiagnose im Autogetriebe (DEX), Fehlerortung und Wartung bei Telefonnetzen (ACE), automatische Entwöhnung von Beatmungspatienten in der Intensivmedizin (SmartCare/PS), Arzneimitteltherapiesicherheit (CPOE, CDS). Planung Erzeugen und Bewerten von Aktionsfolgen zur Erreichung von Zielzuständen: Beispiele: Versuchsplanung molekulargenetischer Experimente (MOLGEN), chemische Synthese (SECS), Finanzplanung (ROME), Produktionsplanung (ISIS), Steuerung des Flugbetriebs auf Flugzeugträgern (CAT), Handlungen autonomer Roboter (NOAH), beispielsweise Marsroboter. Entwurf Beschreibung von Strukturen, die vorgegebenen Anforderungen genügen. Beispiele: unter anderem für Schaltkreisentwurf (SYN, DAA), Computerkonfiguration (R1/XCON), chemische Verbindungen (SYNCHEM), Konfiguration von Betriebssystemen bei Siemensrechnern (SICONFEX). Prognose Vorhersage und Bewertung erreichbarer Zustände zeitvarianter Systeme. Beispiele: Beurteilung von Erdbebenauswirkungen (SPERIL), Erdbebenvorhersage, Hochwasservoraussage, Umweltentwicklung (ORBI). Nun klingt das doch alles sehr positiv und man könnte denken, wenn ein System nur gut genug programmiert ist und mit allen Daten gefüttert wurde, habe ich ein perfektes System. Ganz so einfach ist es nicht. Man muss das System natürlich ständig auf den neusten Stand bringen, wozu ich einen Experten brauche, damit das System den gegebenen Anforderungen gerecht wird. Ein weiteres Problem bei XPS besteht darin, dass das System seine eigenen Grenzen nicht kennt und bei unvorhergesehnen Ereignissen, wie fachfremden Daten, falsche Ergebnisse liefert. 7.2.1 Quellenangaben http://de.wikipedia.org/wiki/Expertensystem http://de.wikipedia.org/wiki/Mycin_(Expertensystem) Bonusmaterial http://www.iicm.tugraz.at/Teaching/theses/2000/_idb9e_/greif/node8.html 8. Intelligente Tutorielle Systeme (ITS) In den 80-iger Jahren machte man die ersten Versuche mit ITS. Leider haben die Systeme bis heute keine großen Fortschritte gemacht, da sie sehr komplex und kompliziert sind. ITS wurden erst durch die Entwicklung des Kognitivismus möglich. Man versuchte die Erkenntnisse über das menschliche Lernen in solchen Systemen umzusetzen. In traditionellen Tutoriellen Systemen läuft ein Lernprogramm nach einem vorgegebenen Schema ab, ohne zu hinterfragen, welche Entwicklung der Tutoriant bereits gemacht hat. Es reagiert nur auf richtige und falsche Antworten. Ein ITS hingegen versucht sich ein Bild vom Tutorianten zu erstellen und eine individuelle Lernstrategie zu ermöglichen, d. h. das System versucht zu erkennen wie gut das Wissen des Anwenders ausgeprägt ist und passt den Lernstoff dem entsprechend an. Hat ein Anwender z. B. Probleme mit den Grundzügen einer Materie, vermittelt das ITS weiter Grundlagen, bis der Tutoriant bereit für schwerere Inhalte ist. Der Lernende soll einen flexiblen Dialog mit dem System führen können. Man könnte es vielleicht in einem Satz zusammenfassen und sagen, ein ITS versucht einen menschlichen Lehrer zu simulieren. Definition: „Intelligente Tutorielle Systeme (ITS) sind adaptive Mediensysteme, die sich ähnlich einem menschlichen Tutor an die kognitiven Prozesse des Lernenden anpassen sollen, indem sie die Lernfortschritte und -defizite analysieren und dementsprechend das Lernangebot generativ modifizieren sollen.“ [Issing, Klima 1997, 555] Ein ITS besteht aus vier Komponenten: - dem Wissens-modell, - dem Lernermodell, - dem Tutorenmodell und - der Benutzerschnittstelle. Ein ITS besitzt drei Hauptmerkmale: - Adaptivität - Flexibilität und - Diagnosefähigkeit. Unter Adaptivität versteht man die selbstständige Anpassung an den jeweiligen Benutzer durch Auswertung einer Kombination von Informationen über Fach-inhalte, pädagogischen Strategien und den Lernenden. Die Idee, die dahinter steckt, ist wieder die Situation Lehrer / Schüler. Ein leerer bereitet sich zwar auf den Unterricht vor und versucht das Wissen zu vermitteln, was er sich vorgenommen hat, doch passt er sich auch flexibel an die Unterrichtssituation, wie Aufnahmefähigkeit und Motivation des Schülers an. Flexibilität ist die Fähigkeit zur Änderung der Darstellung der Lerninhalte. Sie wird durch die getrennte Implementierung der Wissensbasis und der tutoriellen Komponente gewährleistet. • Die Diagnose dient dazu, um Rückschlüsse über die Kompetenz des Lernenden ziehen zu können. Ein ITS ist benutzergesteuert und verfügt nicht über Kontrollstrukturen. Die Wissensbasis für ein ITS ist meistens ein XPS. Die Softwaretechniken sind regeloder fallbasierte Expertensysteme, objektorientierte Wissensbasen oder Programmiersprachen (z.B. Lisp) (vgl. [Schulmeister 1997, 197-203]). ITS eignen sich immer dann wenn klare und eindeutige Musterlösungen vorhanden sind. Zu den Anwendungsbereichen gehören: - Flugzeug- und Anlagensteuerung, - technische Reparaturdiagnostik, - medizinische oder - juristische Entscheidungsfindung, - mathematische Probleme oder - das Programmieren. Man sieht die beschränkten Einsatzmöglichkeiten. Eine Verwendung in geisteswissenschaftliche Richtung beispielsweise ist kaum denkbar. (vgl. [Euler 1987, 73 ff.]) Die grundsätzliche Funktionsweise könnte man wie folgt beschreiben. Der Lernende löst eine Aufgabe oder stellt eine Frage an das System. Durch die Benutzerschnittstelle wird die Eingabe an das Lernermodell weiter gegeben. Dieses vergleicht die Lösung mit der Musterlösung aus dem Wissensmodell und leitet daraus den Wissenstand des Tutorianten und dessen Verhaltensweisen ab. Die Informationen werden zum Tutorenmodell gesandt und aus den Ergebnissen werden die weiteren pädagogischen Strategien ermittelt und ein Feedback geliefert. Die einzelnen Modelle und deren Funktionsweise werde ich mir in den nachstehenden Abschnitten vornehmen. Beginnen wir mit dem Wissensmodell. In der Literatur findet man oft auch die Bezeichnung Expertenmodell oder Domainmodell. Das Wissensmodell enthält Kenntnisse, Erfahrungen, Methoden und Allgemeinwissen und stellt damit die Wissensbasis des Systems dar. In vielen Fällen wird es als XPS implementiert. Es gibt drei Arten von Wissen: - Deklaratives Wissen (Faktenwissen) - Prozedurales Wissen (praktisches Wissen Argumente, Regeln mit denen sich Verbindungen zwischen den Objekten herstellen und Probleme lösen lassen) - Heuristisches Wissen (Erfahrungs- Und Problemlösungswissen): Es handelt sich hierbei im Wesentlichen um Handlungsempfehlungen der Experten, wie sie Lernenden helfen können, die richtige Herangehensweise an ein Problem zu finden, z.B. Löse zuerst alle Klammern auf, Wende Beispiel an auf … , Identifiziere alle Objekte in …, Finde alle Unbekannten in…(vgl. [Schulmeister1997, 182 ff.]). Es gibt zwei Arten von Modellen der Repräsentation: das „black-box“ und das „glassbox“ Modell. Beim ersten kann man den Lösungsweg nicht einsehen, im zweiten Fall ist dies möglich und man kann jederzeit Fragen an das System stellen. Das „glassbox“ Modell ist nicht immer umsetzbar und effektiv. Meistens werden daher die beiden Modelle kombiniert. Das Wissen im Wissensmodell ist in Form von Listen, Wissensstrukturdiagrammen oder Regeln organisiert und wird meist in Form von semantischen Netzen modelliert: Informationseinheiten bilden die Knoten, Verweise und Verknüpfungen die Kanten (vgl. [Peters 2002, 5 ff.]). Für das Lernermodell findet man auch die Bezeichnungen student model oder Diagnosemodell. Es enthält zu jeder Zeit den aktuellen Wissensstand des Lernenden. Es weiß weiterhin über die Fähigkeiten des Lernenden Bescheid und merkt sich, was der Student bereits alles gemacht hat (Historie). Das Lernermodell beobachtet und interpretiert das Verhalten des Lernenden. Es erkennt Lernfortschritte und –defizite. Fehler werden in Form von Fehlerbibliotheken dargestellt. Es ist aber sehr schwierig zu korrekten Annahmen zu kommen, da das System nicht weiß, wie ist die Motivation, ist eine Antwort ein Glückstreffer oder hat der Student etwas tatsächlich nicht oder wirklich richtig verstanden. Das Tutorenmodell ist die pädagogische Komponente, die entscheidet wann und in welcher Form Wissen vermittelt wird. Wie ein menschlicher Lehrer gestaltet es den Unterricht. Es steuert die Kommunikation, legt Pausen fest oder entscheidet wann eine Hilfestellung sinnvoll ist. Die letzte der Hauptkomponenten ist die Benutzerschnittstelle und ist für die Kommunikation zuständig. Sie sollte so gestaltet werden, dass es leicht ist, sie zu erlernen. 8.1 Quellenangaben http://de.wikipedia.org/wiki/Intelligentes_Tutoren-System http://www.math.unisb.de/ag/wittstock/alambert/MedienDesign/5_2_2Intelligente_Tutoriell.html http://209.85.129.132/search?q=cache:QUrQmm0cbAJ:www.medien.ifi.lmu.de/lehre/ws0304/hs/C_Eisendle_Txt.pdf+tutorielle+s ysteme&cd=5&hl=de&ct=clnk&gl=de 9. Linguistik in der KI 9.1 Kurzer Überblick über die Linguistik Definition Linguistik bedeutet Sprachwissenschaft und umschreibt alle Wissenschaften, die sich mit Sprache beschäftigen. In ihr wird die Entstehung, die Funktion und die innere Struktur von Sprache untersucht. Sie wird in die Gruppe der Strukturwissenschaften eingeordnet. Zu den Wissenschaften die sich mit Sprache befassen gehören: - Allgemeine Sprachwissenschaft - Angewandte Sprachwissenschaft - Theoretische Sprachwissenschaft - Historische Sprachwissenschaft (komparative Linguistik) - Einzelsprachliche Sprachwissenschaft (z. B. Germanistische Linguistik) - Kommunikationswissenschaft (Informationstheorie, Nachrichtentechnik) - Soziologie (Soziolekt, Sprachkonflikt, Sprachpolitik) - Psychologie (Spracherwerb, Sprachverlust, Mehrsprachigkeit) - Philosophie (Logik, Grammatik, Semiotik, Rhetorik) Wichtige Linguisten weltweit: - Leonard Bloomfield, wichtigster Vertreter des amerikanischen Strukturalismus in der Zeit zwischen den beiden Weltkriegen - Karl Brugmann Mitbegründer der Indogermanistik, einer der führenden Vertreter der Junggrammatiker - Franz Bopp Mitbegründer der Indogermanistik - Karl Bühler entwickelte das weithin bekannte Organon-Modell der Sprachfunktionen - Noam Chomsky begründete die Generative Grammatik - Joseph Greenberg (führte umfangreiche Untersuchungen zu Sprachtypologie und Universalien von Sprache aus, begründete die heutige Grobklassifikation der afrikanischen Sprachen und postulierte die Makro-Sprachfamilien Amerind und Eurasiatisch) - Jacob Grimm und Wilhelm Grimm sind die Begründer der Deutschen Philologie - Zellig S. Harris, Hauptautor des amerikanischen Deskriptivismus - Louis Hjelmslev, Hauptvertreter der Kopenhagener Schule, Glossematik - Wilhelm von Humboldt begründete die Vergleichende Sprachwissenschaft - William Labov ist einer der wichtigsten Forscherpersönlichkeiten in der Soziolinguistik - George Lakoff ist ein wichtiger Vertreter der Kognitiven Linguistik - Roman Jakobson Mitglied der Prager Schule, bahnbrechende Untersuchung zum Spracherwerb - Antoine Meillet beschäftigte sich mit den indogermanischen Sprachen, behandelte Ökonomie als Triebkraft des Sprachwandels - Hermann Osthoff Mitbegründer der Indogermanistik, einer der führenden Vertreter der Junggrammatiker - - Hermann Paul war ein wichtiger Sprachtheoretiker, einer der führenden Vertreter der Junggrammatiker Edward Sapir, Namensgeber der Sapir-Whorf-Hypothese und wichtiger Forscher bes. für die Sprachtypologie Ferdinand de Saussure, Hauptvertreter der Genfer Schule, gilt als Begründer der modernen synchronen Linguistik und prägte den zweiseitigen Zeichenbegriff August Schleicher gilt als Begründer der Stammbaumtheorie in der vergleichenden Sprachforschung Johannes Schmidt gilt als Begründer der Wellentheorie Nikolai Sergejewitsch Trubetzkoy, führender Vertreter der Prager Schule, Begründer der Phonologie George Kingsley Zipf ist mit den Zipfschen Gesetzen bahnbrechender Forscher für die Quantitative Linguistik Harm Pinkster ist der führende lateinische Linguist weltweit In den Materialien, welche ich zum Thema Linguistik gefunden habe, wird die Sprachwissenschaft sehr detailliert aufgeschlüsselt. Ich werde an dieser Stelle jedoch nicht näher darauf eingehen und mich langsam Richtung KI bewegen. 9.1.1 Quellenangaben http://de.wikipedia.org/wiki/Sprachwissenschaft http://www.fask.uni-mainz.de/inst/iaspk/Linguistik/Welcome.html http://www.linguistik.net/cgi-bin/linguistik.pl/main http://www.linse.uni-due.de/linkolon/schrift/schriftstart.html Bonusmaterial 9.2 Sprachverarbeitung In unserer Zeit nimmt die Informationsflut, z. B. digitalisierte Texte, beispielsweise im Internet, immer mehr zu, daher werden mechanisierte Werkzeuge zur Unterstützung des Menschen immer wichtiger. Um dieser Anforderung gerecht zu werden, entwickelt man „natürlich sprachliche KI-Systeme“. Eine weitere Bezeichnung ist natürlich sprachliche Systeme (NSS oder NLS). Definition: Natürlich sprachliche Systeme (NLS) sind Systeme, die natürliche Sprache analysieren und/oder generieren, wobei sie Wissen über Sprache verwenden. Anwendungsgebiete für NLS sind: - Dialogsysteme, die natürlichsprachlichen Zugang etwa zu Datenbanksystemen, Expertensystemen, Bildverarbeitungssystemen ermöglichen - das Spektrum reicht von Frage-Antwort-Systemen bis hinzu Beratungssystemen, - Dialogkomponenten in multimodalen/multimedialen Systemen, Text verstehende Systeme und automatische Übersetzungssysteme oder Übersetzungshilfen. Nun stellt sich aber auch die Frage, was Sprache ist bzw. wie man sie definieren könnte. Es ist nicht möglich Sprache eindeutig zu definieren. Man kann aber sagen, sie ist unter anderem - ein Zeichensystem, - ein Kommunikationsmittel und - ein Handlungssystem. Es gibt verschiedene Ebenen in der Sprache. Definition: Syntax betrifft die Beziehung der Zeichen untereinander. Bei der natürlichen Sprache wird die Fügung von Buchstaben oder Lauten zu Wörtern und vor allem die Fügung von Wörtern zu Sätzen untersucht. Definition: Semantik betrifft die Beziehung von Zeichen zu Gegenständen und Sachverhalten. Dabei wird sowohl betrachtet, unter welchen Bedingungen Aussagen wahr sind, als auch worauf die Aussagen sich beziehen. Definition: Pragmatik betrifft ursprünglich die Beziehung von Zeichen zu ihren Verwendern, bei der natürlichen Sprache zu Sprecher/Hörer. Heute wird meist die Beziehung der Zeichen zu ihrem Gebrauchskontext (Sprecher, Hörer, Raum, Zeit, Vorwissen und Überzeugungen von Sprecher/Hörer) untersucht. Dabei wird betrachtet, unter welchen Bedingungen eine Äußerung angemessen ist und gelingen kann. In der natürlichen Sprache gibt es auf allen Ebenen Ambiguitäten, also Mehrdeutigkeiten, die für ein NSSS sehr schwierig zu verstehen sind, für den Menschen jedoch nicht. Der versteht, dass es eine Mehrdeutigkeit ist und hinterfragt sie. Beim linguistic engineering geht es auch nicht darum, natürliche Sprache in ihrer Gesamtheit adäquat zu beschreiben, sondern viel mehr besteht das Ziel in einer natürlich sprachlichen Benutzerschnittstelle, die situationsangemessen ist und somit nur einen Sprachausschnitt darstellt. Hierzu muss festgestellt werden - welche Kommunikationssituation bei der Anwendung vorliegt (zeitlichräumliches Verhältnis, anzunehmende Intentionen der Benutzer, anzunehmendes Vorwissen der Benutzer, anzunehmendes Systembild der Benutzer, Sachbereich, über den kommuniziert wird, gesprochene/geschriebene Sprache,...), - was für Sätze in der Anwendung vorkommen können, - welche formalen Kategorien zu ihrer Beschreibung notwendig sind, - in welche Repräsentationssprache natürlichsprachliche Äußerungen letztlich übertragen werden sollen und - wie diese Repräsentation vom System ausgewertet werden soll. Dieser grobe Entwurf dient als Vorlage und muss noch verfeinert werden. Nach dem Entwickeln der einzelnen Komponenten, muss das System getestet werden. Im Ordner Linguistik finden Sie ein PDF „morik_95b.pdf“, in der auf Seite elf eine Abbildung ist, die den Aufbau eines NLS zeigt. Ein NLS hat folgende Architektur: - nl Eingabe - Morphologie - Wörter mit Merkmalen - Syntax - Strukturbeschreibung - Semantik - sem. Repräsentation - Lexikon - Grammatik - Dialoggedächtnis - Auswertung - Sachbereichswissen - Ausgabe - Morphologie - Strukturbeschreibung - Syntax - sem. Repräsentation - Semantik - Antwortplan Ich werde die einzelnen Komponenten noch näher betrachten. Da ich mich an die Reihenfolge meiner Quelle halten will, schwenke ich kurz ab. Zur Erstellung eines NLS ist Prolog eine sehr geeignete Programmiersprache. Prolog enthält einen Formalismus DCG (definite clause grammar), der speziell für Grammatik und Lexikon entwickelt wurde, d. h. sie enthält bereits eine eingebaute syntaktische Analysekomponente. Ein weiterer Vorteil von Prolog ist, dass es sich leicht erlernen lässt. In meiner Quelle wird in den nachfolgenden Abschnitten viel auf Prolog eingegangen. Ich habe drauf verzichtet, da es den Rahmen sprengen würde. Die Syntax untersucht die Struktur von Sätzen. Eine Grammatik legt dabei fest, welche Sätze wohl geformt sind und welche nicht. Da es unendlich viele Sätze gibt, muss sie rekursiv sein, weil wir sie in endlich vielen Regeln schreiben wollen. Um eine Grammatik schreiben zu können brauchen wir: - ein Vokabular (Alphabet), mit dem wir Kategorien (Klassen von Wörtern und umfangreicheren Satzteilen) bezeichnen können, - Regeln, die uns angeben, wie Kategorien in Unterkategorien unterteilt werden (immediate dominance) - Regeln, die uns angeben, in welcher Reihenfolge Kategorien auftreten können (linear precedence), wobei die letzten beiden Punkte mit denselben Regeln dargestellt werden können. Wenden wir uns nun dem „Lexikon“ zu. Definition: Ein Lexikon ist eine Liste von Wörtern, die jedem Wort bestimmte Eigenschaften zuordnet. Die Aufgaben des Lexikons umfassen je nach Anwendung: Definition aller möglichen Wörter, Zuordnung von Eingabezeichen zu Wörtern und/oder Bereitstellung der notwendigen Information für Syntax (und Semantik). Definition: Ein Lexikon, das alle Wortformen enthält, wird als Vollformenlexikon bezeichnet. Es ordnet den Wortformen direkt alle Merkmale zu. Ein durchschnittliches Wörterbuch enthält rund 100.000 Wörter. Dabei sind noch keine flektierten Wörter enthalten. Werden diese dazu genommen, erhöht sich natürlich die Anzahl der Wörter im Wörterbuch. Diese Wörter werden in ihre kleinsten bedeutungstragenden Einheiten zerlegt. Definition: Morpheme sind die kleinsten bedeutungstragenden Einheiten eines Wortes. Definition: Morphologische Analyse heißt der Prozess, der Wörter in ihre Morpheme zerlegt. Im weiteren Sinne bezeichnet die morphologische Analyse die Zerlegung von Wörtern in Bestandteile. Während die Flexionsmorpheme selbst keine selbständige Einheit darstellen, sind den Wortstämmen spezielle, über die Grammatik hinausgehende Bedeutungen zugeordnet. Definition: Ein Lexem ist eine selbständige lexikalische Einheit. Hier sind vor allem die Stämme eines Wortes gemeint. Sehr schwierig und zugleich interessant zu behandeln sind im deutschen zusammen gesetzte Wörter, wie ausspielen oder Schweineschnitzel. Die Schwierigkeit besteht darin, den Morphemen die richtigen Merkmale zu zuordnen, damit bei der Zusammensetzung das richtige Wort heraus kommt. Wenden wir uns der Semantik zu. Bis jetzt betrachteten wir nur die Struktur eines Satzes. Wichtig und deshalb Untersuchungsgegenstand ist auch die Bedeutung von Sätzen. Eine semantische Beschreibung wird durch das Lexikon und der Strukturbeschreibung der Eingabekette durch geführt. Die Eingabe kann Mehrdeutigkeiten enthalten. Diese müssen aufgelöst werden (Disambiguierung). Hierfür wird der sprachliche Kontext sowie die Äußerungssituation hinzugezogen. Um die semantische Beschreibung zu ergänzen, wird das begriffliche Wissen verwendet. Zuletzt wird die semantische Beschreibung ausgewertet, indem sie auf das aktuelle Weltwissen bezogen wird. Bei der Generierung wird mit Hilfe der Äußerungssituation und des Weltwissens, die semantische Beschreibung in eine Strukturbeschreibung überführt. Der Mensch hat sich schon seit Ewigkeiten mit der Logik der Sprache beschäftigt. Gottlob Frege hat den Unterschied zwischen Sinn und Bedeutung eingeführt. Definition: Die Bedeutung eines Ausdrucks ist seine Interpretation. Die Interpretation bildet - eine Konstante auf ein Element aus dem Universum (universe of discourse), - ein Prädikat auf ein Tupel, gebildet aus Elementen des Universums, - eine Formel auf einen Wahrheitswert ab. Definition: Der Sinn einer Äußerung ist das, wovon sie tatsächlich handelt. Ein Beispiel soll das verdeutlichen. Nehmen wir den Satz: „Hoffentlich regnet es morgen nicht.“. Der Satz ergibt durchaus einen Sinn, aber wenn wir ihm keinen Wahrheitswert zuordnen können, hat er keine Bedeutung. Wir brauchen einen Formalismus für die semantische Beschreibung. Dieser Formalismus wird als semantische Repräsentationssprache bezeichnet. Definition: Eine semantische Repräsentationssprache (SRS) ist ein Formalismus, in dem die Bedeutung natürlich sprachlicher Sätze (oder Texte) dargestellt wird. Eine Beschreibung in SRS soll• bei der Analyse aus syntaktischen Beschreibungen und Lexikoneinträgen (sowie möglicherweise anderen Quellen) konstruiert werden können, - bei der Generierung die Konstruktion einer Strukturbeschreibung erlauben, - in Hinblick auf konkrete Sachverhalte ausgewertet werden können. Die SRS muss in der Lage sein, Schlussfolgerungen zu ziehen und muss Aussagen interpretieren können, aus dem Sachbereich übe den gesprochen wird. Das war eine grobe Beschreibung eines NLS. In den nächsten Kapiteln werde ich unter anderem auf Morphologie, Computerlinguistik, Semantik und andere Bereiche der Linguistik eingehen. 9.2.1 Quellenangaben http://209.85.135.132/search?q=cache:1enPOrpB2i0J:www-ai.cs.unidortmund.de/DOKUMENTE/morik_95b.pdf+nat%C3%BCrlich+sprachliche+systeme& cd=6&hl=de&ct=clnk&gl=de http://www.ifi.uzh.ch/arvo/cl/carstens/Materialien/vorlesungnats.html PDF-Dateien im Ordner Linguistik http://scholar.google.de/scholar?q=linguistik+und+KI&hl=de&um=1&ie=UTF8&oi=scholart http://209.85.135.132/search?q=cache:dxeR8JPjdAgJ:www.dfki.de/~wahlster/Publica tions/Zur_Rolle_der_Linguistic_bei_der_Entwicklung_natuerlichsprachlicher_KISysteme.pdf+linguistik+und+KI&cd=1&hl=de&ct=clnk&gl=de http://66.102.1.104/scholar?hl=de&lr=&q=cache:abkqdYYdgugJ:www.dfki.unisb.de/~wahlster/Publications/Natuerlichsprachliche_KISysteme_Entwicklungsstand_und_Forschungsperspektive.pdf+linguistik+und+KI http://www.ims.uni-stuttgart.de/ims-home.html.de Uni Stuttgart http://www.asv.informatik.uni-leipzig.de/ Uni Leipzig http://www.cis.uni-muenchen.de/ Uni München http://209.85.135.132/search?q=cache:I00UFyyTfAIJ:rosuda.org/lehre/WS0708/Beric hteStatimWeb/WorthaeufigkeitenCarmenHeinz.pdf+http://de.wikipedia.org/wiki/Sprac hverarbeitung&cd=5&hl=de&ct=clnk&gl=de Bonusmaterial 9.2.2 Morphologie Morphologie kommt aus dem Griechischen (μορφή, morphé = Gestalt, Form). Sie ist somit die Lehre von den Formen und ist den verschiedensten Wissenschaftszweigen vertreten. Eine kleine Übersicht: - Morphologie (Astronomie), die Form ausgedehnter astronomischer Objekte, z. B. einer Galaxie oder eines Nebels. - Morphologie (Sprache) - Morphologie (Biologie) - Morphologische Analyse/Morphologische Methode/Morphologischer Kasten nach Fritz Zwicky, u. a. als Methode der Zukunftsforschung - Geomorphologie - Hydromorphologie - Kristallmorphologie - Kulturmorphologie in der Ethnologie - Mathematische Morphologie (Mathematik/Bildverarbeitung) - Psychologische Morphologie - Stadtmorphologie Wir nehmen uns die Morphologie der Sprache vor. Es gibt weitere Bezeichnungen: Morphematik, Morphemik und Pleremik. Die Morphologie ist ein Teilbereich der Linguistik und widmet sich der Erforschung der kleinsten bedeutungs- oder funktionstragenden Bestandteile der Sprache, die so genannten Morpheme. Sie werden in verschiedenen Formen Allomorphen verwendet. Morpheme setzen sich aus Phonemen zusammen und bilden damit Wörter. Zur Morphologie gehören auch die Prinzipien bzw. Regularitäten der inneren Struktur von Wörtern. Definition: Ein Morphem ist die kleinste bedeutungstragende Einheit einer Sprache, die nicht weiter in kleinere bedeutungstragende Einheiten zerlegt werden kann, ohne dass die Bedeutung dieser Einheit zerstört wird. Das Morphem ist eine Klasse äquivalenter Morphe. Definition: Morphe sind Phonem- (oder Graphem-) Sequenzen, die ein Morphem in bestimmten Umgebungen repräsentieren. Die Varianten von Morphemen, z. B. des Pluralmorphems werden als Morphemvarianten oder Allomorphe bezeichnet. Definition: Allomorphe sind alternative Realisierungen eines Morphems in bestimmten Umgebungen. Im Deutschen und Englischen können viele Morpheme selbstständig als Wörter vorkommen. Diese Morpheme werden als Freie Morpheme bezeichnet. Beispiele hierfür sind Haus, Hund, Wiese, boy oder book. Im Gegensatz zu Freien Morphemen gibt es die Gebundenen Morpheme. Das sind Morpheme, die nicht als selbstständige Wörter vorkommen können. Die Morphologie lässt sich in zwei Teilbereiche untergliedern. Einer ist die Flexionsmorphologie, der andere die Derivationsmorphologie. Der erste Bereich untersucht die formalen Beziehungen zwischen den Wörtern innerhalb eines Paradigmas, der zweite die Wortzusammensetzung, bei denen durch Anhängen von Morphemen an ein Wort neue Wörter entstehen. Definition: Die verschiedenen Wörter eines bestimmten Lexems bilden ein morphologisches Paradigma. Flexion wird wie folgt definiert. Definition: Der Terminus Flexion bezieht sich auf die Prozesse, welche die verschiedenen Formen desselben Lexems erklären. Es ist ein Oberbegriff für Deklination, Konjugation und Komparation. Zwei Beispiele: - singen: {singe, singst, singt, singen, sang, sangst, gesungen} - Sänger: {Sänger, Sängers, Sängern} Definition: Die lexikalische Morphologie untersucht die formalen Beziehungen zwischen verschiedenen Lexemen. Es gibt mehrere Lexemklassen. Die Hauptklassen sind Verb, Nomen, Adjektiv, Adverb, Präposition, Determinator und Interjektion. Die Lexemklassen werden nicht nur in der Morphologie untersucht, sondern auch in der Grammatik allgemein. Die Lexemklassen lassen sich in zwei Teilbereiche einteilen, die offene und die geschlossene. Zur offenen Klasse zählt man das Verb, das Nomen, das Adjektiv und das Adverb, zur geschlossenen die Präposition, den Determinator und die Konjunktion. Für die Bildung neuer Wörter stehen im Wesentlichen drei Verfahren zur Verfügung: - Derivation, - Konversion und - Komposition. Definition Den Prozess der Affigierung oder Modifikation zur Bildung neuer Lexeme nennt man Derivation (Ableitung). Als Beispiele könnte man anführen: - geschmack + los = geschmacklos, - schön + heit = Schönheit. Definition Konversion ist ein besonderer Ableitungsprozess, wobei ein Lexem in eine neue Lexemklasse überführt wird, ohne dass ein Affix angefügt wird. Einige Beispiele sollen dis verdeutlichen, Verb Nomen: - schau-en Schau, - bau-en Bau und - fall-en Fall. Definition Komposition ist der morphologische Prozess, durch den neue zusammengesetzte Lexeme durch die Kombination zweier oder mehrerer freier Formen gebildet werden. Definition Ein durch Komposition gebildetes Wort heißt Kompositum (engl. compound). Hier zwei Beispiele: - Haus + Tür = Haustür und - groß + Stadt = Großstadt, Das war eine kleine Übersicht über das Gebiet der Morphologie. In den Quellenangaben finden Sie dazu noch umfangreichere Informationen. 9.2.2.1 Quellenangaben http://de.wikipedia.org/wiki/Morphologie http://de.wikipedia.org/wiki/Morphologie_(Sprache) http://www.coli.uni-saarland.de/~hansu/Verarbeitung.html wird auch beim Parsing verwendet http://coral.lili.unibielefeld.de/Classes/Summer98/Grundkurs98/Vorlesung/grundkursvorlesung/node8. html http://www.fb10.uni-bremen.de/khwagner/Grundkurs1/linguistik6.htm 9.2.3 Parsing und Parser Parsing kommt von parse. Pars ist lateinisch und bedeutet „Teil“ (im Deutschen gelegentlich auch Zerteiler). In der Sprachforschung ist parsing das analysieren der Struktur der Sprache. Dabei wird In der Grammatik, z. B., der Satz in seine grammatikalischen Bestandteile (Syntax) zerlegt. Definition: Die syntaktische Analyse des Satzes in seine relevanten Bestandteile wird als Parsing bezeichnet. Parsing dient zwei Zwecken: - der Bestimmung der Struktur eines Ausdrucks - ist Voraussetzung für das Erkennen der Bedeutung von komplexen Ausdrücken Die Anwendungsgebiete für Parsing sind: - Programmiersprachen (Compilier), - natürliche Sprachen (maschinelle Sprachverarbeitung) und - Psycholinguistik (Sprachverstehen beim Menschen). Ich werde nun mal noch kurz auf Parser eingehen. Ein Parser ist ein Computerprogramm, welches für die Zerlegung und Umwandlung der Eingabe in ein brauchbares Format zuständig ist. Er ist für die Erschließung der Semantik verantwortlich. Der Parser zerlegt einen text in eien Syntaxbaum, der eine Hierarchie der Elemente ausdrückt. Es gibt Parser für die unterschiedlichsten Dateitypen:: - HTML-Parser - RSS-Parser - XML-Parser - URI-Parser (lösen z. B. URL´s auf) - Parser für LOG-Dateien - Suchmaschinen (bereiten die Daten für das Durchsuchen auf) - Text-Parser (dient der Kommunikation bei Adventure-Spielen zwischen Computer und Spieler) - Parser für höhere Programmiersprachen (stellen dem Compiler die benötigten Daten zur Vefügung) Nun noch kurz einige Worte zur Funktionsweise. Ein Parser verwendet einen lexikalischen Scanner zum analysieren des Textes. Dieser zerlegt den Text in Token (Eingabesymbole bzw. Wörter), die der Parser versteht. Die Zerlegung in Token folgt einer regulären Grammatik. Eine reguläre Grammatik wird auch als formale Grammatik vom Typ drei der Chomsky-Hierarchie bezeichnet. Eine reguläre Grammatik erzeugt eine reguläre Sprache. Eine reguläre Sprache zählt zu den formalen Sprachen. Das ist eine Sprache, die strengen Einschränkungen unterliegt. Der eigentliche Parser erstellt aus den analysierten Eingangsdaten einen Ableitungsbaum, welcher dann, z. B., einem Compiler zur Verfügung gestellt wird. Abschließend nenne ich noch einige Parsertypen: - Parser für kontextfreie Grammatiken Top-Down-Parser LF-Parser LL-Parser - Parser für kontextsensitive Grammatiken Packrat Parser (Parsing Expression Grammars) Ich bin mit dem Kapitel nicht ganz glücklich. Auch nach intensiver Suche, habe ich kein Material gefunden, was mir 100%-ig zu sagt. Aus diesem Grund werde ich dieses Kapitel etwas unvollständig hier beenden. 9.2.3.1 Quellenangaben http://de.wikipedia.org/wiki/Parsing http://de.wikipedia.org/wiki/Regul%C3%A4re_Grammatik http://de.wikipedia.org/wiki/Regul%C3%A4re_Sprache http://209.85.129.132/search?q=cache:_NiTy9AhI5sJ:www.snlp.de/prescher/teaching /2007/Parsing/bib/2002phdpages82to88.prescher.pdf+parsingverfahren&cd=3&hl=de &ct=clnk&gl=de Bonusmaterial http://coral.lili.unibielefeld.de/Classes/Summer98/Grundkurs98/Vorlesung/grundkursvorlesung/node10 .html Bonusmaterial http://kontext.fraunhofer.de/haenelt/kurs/SpeechParse/folien.html http://www.phil.uni-passau.de/linguistik/lehre/parsingformalismen/ http://209.85.129.132/search?q=cache:UdXsI9AcaUgJ:www.informatik.unihamburg.de/WSV/teaching/vorlesungen/FGI1SoSe07/Sprachen_3.pdf+parsingverfah ren+nat%C3%BCrliche+sprache&cd=4&hl=de&ct=clnk&gl=de 9.2.4 Computerlinguistik (CL) Die Computerlinguistik ist die Schnittstelle zwischen Informatik und Sprachwissenschaft. Sie untersucht, wie man durch Algorithmen mit dem Computer natürliche Sprache verarbeiten kann. Zwei Hauptmotivationen gibt es: - Unterstützung der Sprachforschung durch Computer und die Überprüfung von Theorien - Entwicklung von Systemen zur automatischen Textzusammenfassung, maschinellen Übersetzung, Extraktion von Informationen aus Texten oder natürlich sprachliche Interaktion mit Maschinen Die Anwendungsgebiete kurz zusammen gefasst: - Die Unterstützung des Computerbenutzers bei der Textverarbeitung, beispielsweise Korrektur von Tipp- und Rechtschreibfehlern, Prüfung auf grammatische Richtigkeit, Umwandlung in Bedeutungszeichen in Japanisch oder Chinesisch. - Die automatische Suche nach Textstellen, und zwar nicht nur ihrer Form, sondern ihrer Bedeutung nach (Information Retrieval und Suchmaschinen). - Die Unterstützung beim Übersetzen von Texten in eine andere Sprache (CAT, Computer Aided Translation) oder auch die vollständige automatische Übersetzung. - Die Verarbeitung von gesprochener Sprache (Spracherkennung und Sprachsynthese), zum Beispiel bei telefonischen Auskunftsdiensten oder Lesegeräten für Blinde. - Die Auffindung von Information in großem Stil, von Literaturangaben bis hin zu direkter Beantwortung von Fragen auf der Basis großer Datenbanken (Information Retrieval, Data-Mining, Informationsextraktion). - Die Aufbereitung von sprachlich vorliegenden Daten, beispielsweise die Verschlagwortung von Literatur, die Anfertigung von Registern und Inhaltsverzeichnissen, die Herstellung von Zusammenfassungen und Abstracts. - Die Unterstützung von Autoren beim Verfassen von Texten, zum Beispiel das Finden des treffenden Ausdrucks oder der richtigen Terminologie. - Die Interaktion des Benutzers mit dem Computer in natürlicher Sprache, so dass Computer auch Personen zugänglich sind, die sich mit den speziellen Befehlen nicht auskennen. Doch welche Probleme verbinden sich mit der Sprachverarbeitung durch Computer? Der Computer muss die Semantik bestimmen, d. h. ein Wort kann mehrere Bedeutungen haben und die situationsangemessene muss heraus gefiltert werden. Doch nicht nur Wörter können mehrdeutig sein, sondern auch Sätze. Hierzu muss die Syntax analysiert werden. Ein zweideutiger Satz ist beispielsweise: „Peter sah Maria mit dem Fernglas.“. Es ist nicht klar, ob Peter Maria sah, wie sie ein Fernglas in der Hand hielt oder ob Peter Maria mit Hilfe eines Fernglas sehen konnte. Weiterhin ist die sprachliche Absicht (Pragmatik) entscheidend. Nicht alle Sätze sind wörtlich gemeint. Der Satz: „Können Sie mir bitte das Salz reichen?“ bedeutet nicht, dass man nach der Fähigkeit des Reichens fragt, außer man hat vielleicht gerade mit körperbehinderten Menschen zutun, nein es ist eher die Frage nach dem Salz und man erwartet keine Antwort, sondern dass man es gereicht bekommt. Außerdem ist das Problem, dass das System für jede Sprache speziell angepasst werden muss, da im Englischen andere Regeln gelten als im Deutschen. Die CL wendet methodisch formale Regeln an, um die menschliche Sprache besser zu verstehen und das Wissen darüber zu vertiefen. Es stellen sich philosophische und psychologische Fragen. Ist der Mensch nur eine Symbol verarbeitende Maschine und wie weit kann man es mit dem Computer treiben? Wird er eines Tages Sprache verstehen wie ein Mensch? Welchen Stellenwert räumen wir dem Computer in der Gesellschaft ein? 9.2.4.1 Quellenangaben http://de.wikipedia.org/wiki/Computerlinguistik http://www.uni-due.de/computerlinguistik/c_und_l.shtml http://tcl.sfs.uni-tuebingen.de/~kepser/compling.html http://www.cornelia.siteware.ch/cl/index.html 9.2.5 Semantik Definition: Die Semantik (Bedeutungslehre) ist das Teilgebiet der Sprachwissenschaft (Linguistik), das sich mit Sinn und Bedeutung von Sprache bzw. sprachlichen Zeichen befasst. (Wikipedia 2001) Hausser (2000) unterscheidet drei Typen von Sprache. Der erste ist die Logistiksprache. Sie drückt aus, ob eine bestimmte Aussage in einem bestimmten Modell richtig oder falsch ist. Der zweite Typ ist die Programmiersprache. Sie ist die Ausführung einer Sprache auf einer realen oder abstrakten Maschine. Der letzte Typ ist die natürliche Sprache. „Die Semantik von natürlichen Sprachen wird durch die Einigung der Sprachgemeinschaft auf die Bedeutung eines bestimmten Wortes festgelegt (Konvention).“ Die Semantik unterteilt sich in zwei Vorgehensweisen, die Semasiologie und die Onomasiologie. Die Semasiologie geht von der Bezeichnung (Wörtern, Metaphern, Symbole, usw.) aus und untersucht, was damit bezeichnet wird. Die Onomasiologie (Bezeichnungslehre) geht von den Sachen und Sachverhalten aus und untersucht, wie sie bezeichnet werden (also welche Wörter, Bilder, Symbole, usw. dafür verwendet werden). Die Semantik ist der Oberbegriff für die Beziehung zwischen Bedeutung und Zeichen. Man kann auch sagen, dass die Semantik im zeichentheoretischen (semiotischen) Sinn, die Lehre der Bedeutung der Zeichen ist (Zeichenbedeutung). Je nachdem wie der Begriff Bedeutung definiert wird, ändert sich die Perspektive der Semantik. Was sind aber Zeichen? Die sprachlichen Zeichen schließen alle Ausdrücke, die eine lautliche, schriftliche oder andere Form mit einer Bedeutung haben ein. Die kleinsten Zeichen sind die Morpheme. Die nächst größeren sind die Wörter, bzw. Lexeme. Die darauf folgende nächst größere Einheit ist das Satzglied, gefolgt vom Teilsatz, Satz und Text. Die Semantik der Sprache hat verschiedene Strömungen. In den nächsten Kapiteln werde ich näher auf die formale und lexikalische Semantik eingehen. Einige Beispiele weiterer Richtungen werde ich nur kurz erwähnen, z. B. linguistische Semantik, historische Semantik, interkulturelle Semantik, allgemeine Semantik, modelltheoretische Semantik oder generative Semantik. Semantik spielt nicht nur in der natürlichen Sprache eine Rolle. Sie ist auch Untersuchungsgegenstand in formalen Sprachen (logischen Sprachen, Semantik in der Informatik) In anderen Bereichen ist Semantik ebenfalls von Bedeutung, Informationstheorie, Systemtheorie und Sprachphilosophie (philosophische Semantik): 9.2.5.1 Quellenangaben http://de.wikipedia.org/wiki/Semantik http://209.85.135.132/search?q=cache:jmajZf2AT50J:www.dailabor.de/fileadmin/files/publications/DALarsEhrler.pdf+Semantik+Formalismen&cd=7 &hl=de&ct=clnk&gl=de liegt auch als PDF im Ordner Semantik; wird auch als Quelle für Semantikformalismen verwendet 9.2.5.2 Semantikformalismen / Formale Semantik Die formale Semantik beschäftigt sich mit der exakten Bedeutung von natürlichen und künstlichen Sprachen. Die formale Semantik grenzt sich zur allgemeinen Semantik aus Philosophie und Linguistik dadurch ab, dass sie mit rein formalen, logisch-mathematischen Methoden arbeitet. Anwendungsbereiche für die formale Semantik sind: - Logik, - Theoretische Informatik und - Linguistik. Man kann die Teilgebiete jedoch nicht völlig von einander losgelöst betrachten, da sie in einander greifen und Ergebnisse unter einander ausgetauscht werden. Die moderne formale Semantik hat ihren Ursprung in Arbeiten von Alfred Tarski, Richard Montague, Alonzo Church und anderen. In der Linguistik wird die Bedeutung von Sätzen durch eine formale Metasprache erfasst. Gottlob Frege entwickelte das Kompositionalitätsprinzip. Aufbauend auf diesem Prinzip wird erforscht, was die einzelnen Teile eines Satzes zu dessen Gesamtbedeutung beitragen. Die formale Sprache wird durch Montaguegrammatiken formalisiert und damit erreicht, dass man das Zusammenwirken der einzelnen Satzbestandteile untersuchen kann. Die formale Semantik in der Informatik beschäftigt sich damit die Bedeutung von Computerprogrammen und Spezifikationen zu formalisieren. Dies wird zur Überprüfung der Korrektheit von Computerprogrammen benötigt (Verifikation). Sie ist verwandt mit der Berechenbarkeitstheorie, die sich damit auseinander setzt, welche Probleme sich überhaupt mit Computerprogrammen lösen lassen. Es gibt vier Ansätze, der denotationelle, axiomatische, operationelle und der hybride Ansatz. Erklärungsansätze: Der denotationelle Ansatz ordnet einem Programm als Semantik ein mathematisches Objekt zu. Damit kann genau berechnet werden, was ein Programm der definierten Sprache bewirkt (Berghammer 2001). Die klassische Variante denotationeller Semantik ist die Semantik nach Scott und Strachey (Tennent 1976). Sie definiert Datentypen durch Gleichungen und darauf aufbauende semantische „Funktionen“, die Denotationen. Die Elemente der Datentypen werden durch die typisierte Notation beschrieben. Weitere bekannte denotationelle Beschreibungen sind die „Vienna Development Method“ (Bjørner u. Jones 1978) oder die „predicate transformation semantics“ (Dijkstra 1975). Im axiomatischen Ansatz wird die Bedeutung eines Programms durch Regeln definiert, die es erlauben, von Eigenschaften der Programm-Eingabe auf Eigenschaften der Programm-Ausgabe zu schließen (oder umgekehrt). Dies wird insbesondere genutzt, um zu testen, ob ein Programm das tut, was der Programmierer beabsichtigt hat (die Verifikation des Programms) (Berghammer 2001). Die wichtigste axiomatische Semantikdefinition ist die „Hoare-Logik“ (Hoare 1969). Sie basiert auf Prädikatenlogik und gibt Regeln für die Variablenbelegung vor und nach Ausführung eines Sprachkonstruktes an. In en 80-iger/90-iger Jahren des letzten Jahrhunderts wurde der zeitliche Einfluss der Programmausführung in die Beschreibungs-Formalismen mit eingearbeitet. Dadurch entstand der operationelle Ansatz. Hier wird eine abstrakte Maschine genutzt und das Programm als Operationen auf dieser abstrakten Maschine definiert. Dies kann man sich auch als Ausführungsprotokoll von Zustandsübergängen vorstellen. Die Anwendung dieser Semantik besteht vor allem in der Sicherstellung einer korrekten Implementation einer Sprache. Beispiele dieses Ansatzes sind „Structural Operational Semantics“ (SOS) (Plotkin 1983) oder „Abstract State Machines“(ASM) (Gurevich 1991) In der weiteren Forschung wurden verschiedene Formalismen entwickelt, die die oben genannten grundsätzlichen Ansätze weiter verfeinerten und verbesserten. Dazu gehört zum Beispiel die Modularisierung von semantischen Beschreibungen, die Widerverwendbarkeit oder die Erweiterbarkeit. Beispiele dafür sind die „modular monadic action semantics“ (MMAS) (Wansbrough 1997, zitiert von Zhang u. Xu (2004)) oder die „game semantics“ (Blass 1992, zitiert von Zhang u. Xu (2004)). Möglich sind auch Kombinationen der verschiedenen Formalismen. Diese werden hybrider Ansatz (Mosses 2001, zitiert von Zhang u. Xu (2004)) genannt. Schauen wir uns die Eigenschaften und Anwendungsgebiete für Formalismen an. Nach Zhang u. Xu (2004) sollte eine Programmiersprache folgende Eigenschaften aufweisen: - - - - "Lesbarkeit": Die Spezifikation muss für Sprachentwickler, Sprachimplementierer und Programmierer gleichermaßen lesbar sein. "Modularität": Durch einen modularen Aufbau großer Semantikbeschreibungen aus kleineren Komponenten kann die Widerverwendbarkeit und Modifizierbarkeit erhöht werden. "Abstraktheit": Die Konzentration auf wichtige Sprachgestaltungsprobleme anstelle von Implementationsdetails wird durch eine abstrakte Beschreibung erleichtert. "Vergleichbarkeit": Eine Semantik sollte den Vergleich von Programmiersprachen erlauben. "Auswertbarkeit": Die Möglichkeit, über in der Sprache geschriebene Programme zu schlussfolgern, sollte gegeben sein. "Anwendbarkeit": Ein Spezifikationsformalismus sollte auf möglichst viele Sprachkonzepte wie Zustände, Ein- und Ausgabe, oder Ausnahmefehler angewandt werden können. "Werkzeugunterstützung": Die Unterstützung durch Werkzeuge zur Erstellung, Überprüfung und Implementierung von semantischen Beschreibungen ist nötig für eine weite Verbreitung des Formalismusses. Ich schließe dieses Kapitel mit einigen bekannten Formalismen ab. Ich gehe dabei auf die Arbeiten von Clarke u. Wing (1996); van Lamsweerde (2000) und Zhang u. Xu (2004) ein. Rushby (1996) führt aus, dass viele Werkzeuge sehr eng auf ihr Anwendungsgebiet zu geschnitten sind und daher für jedes neue Problem ein neues bereit gestellt werden muss. Ausgewählte Formalismen: Prädikatenlogik: Sie wird auch als Quantorenlogik bezeichnet. Sie ist eine Erweiterung der Aussagenlogik. Die einfachen Aussagen der Aussagenlogik werden auf Ihre Struktur hin untersucht und daraus komplexere Aussagen gebildet. Die Semantiken der Prädikatenlogik wurden unter anderem zur Definition von Agentenkommunikationssprachen benutzt. Beschreibungslogik: Sie ist eine formale Sprache und findet ihre Anwendung bei Wissensrepräsentation und Wissensverarbeitung. Sie wird in BWS, aber auch in Softwaretechnik, medizinischer Informatik und Web basierten System benutzt. Abstract State Machines (ASM): Zhang u. Xu (2004) haben ASM als ideales Rahmenwerkzeug für Semantikformalismen benannt. ASM werden zu den operationalen Semantik-Formalismen gezählt. ASM definieren Zustandsänderungen über den Abstrakten Syntaxbaum der zu definierenden Sprache. Deshalb werden sie auch „Entwickelnde Algebren“ genannt. Zustände in ASM enthalten Kontrollflussgraphen, die das gesamte Programm enthalten. Laut Zhang u. Xu (2004) wurden ASM als Formalismen für die Spezifikationen für Prolog, VHDL und SDL genutzt. Modular Monadic Action Semantics (MMAS): MMAS wurden von Zhang u. Xu (2004) neben ASM als idealer Semantikformalismus benannt. MMAS sind eine hybride Semantik, da verschiedene Formalismen vereint werden. Man könnte es so kurz zusammenfassen, eine operationelle Semantik, deren Aktionen eine modulare, denotationelle Definition erhalten haben. 9.2.5.2.1 Quellenangaben http://de.wikipedia.org/wiki/Formale_Semantik http://www.st.uni-trier.de/~diehl/diss/summary_ger.html Bonusmaterial http://www.uni-protokolle.de/Lexikon/Formale_Semantik.html Bonusmaterial 9.2.5.3 Lexikalische Semantik Die lexikalische Semantik wird auch als Wortsemantik bezeichnet. Sie ist ein Teilbereich der Linguistik. Sie untersucht die einzelnen lexikalischen Elemente auf ihre Bedeutung hin (Wörter, Morpheme, Lexeme). Die lexikalische Semantik sucht Antworten auf Fragen wie: - Was weiß der/die Sprecher/-in einer Sprache, wenn er/sie die Bedeutung eines Wortes kennt? - Was ist eine Wortbedeutung? - Wie werden Wörter und Wortbedeutungen im Gedächtnis der Sprecher gespeichert? - Wie ist es möglich dass im Umgang mit der Sprache, beim lesen oder Sprechen die Wörter mit ihrer Bedeutung blitzschnell aus dem Gedächtnis abgerufen werden? - Wie verhält es sich mit lexikalischen Ambiguitäten (Mehrdeutigkeiten)? Man unterscheidet Inhalts- und Funktionswörter. Inhaltswörter sind die meisten Verben (sitzen, haben), Substantive (Hund, Wald, Freundschaft), Adjektive (kalt, grün) und viele Adverbien (gestern, geradeaus). Inhaltswörter tragen eine begriffliche Bedeutung. Sie beziehen sich also auf einen Gegenstand, ein Lebewesen, ein Ereignis oder eine Eigenschaft. Funktionswörter haben keine begriffliche Bedeutung. Sie haben eine grammatische oder kommunikative Funktion. Beispiele dafür sind: ein, der, alle (Determinative), unter, für (Präpositionen), haben und sein (Hilfsverben) und müssen, sollen (Modalverben). In der lexikalischen Semantik befasst man sich mit den Inhaltswörtern. Die Funktionswörter sind Untersuchungsgegenstand der Satzsemantik und Pragmatik. Da das Wort Bedeutung im Alltag keine genaue Definition hat, obliegt es der lexikalischen Semantik es zu präzisieren. Zwei Versuche einer Definition. Definition 1: Die Denotation ist jener Teil der Wortbedeutung, der bestimmt, was für Gegenstände, Eigenschaften und Ereignisse durch das Wort bezeichnet werden. Denotation ist in diesem Sinne eine Beziehung zwischen einem sprachlichen Objekt (dem Wort) und etwas Außersprachlichem (dem so genannten Denotat). Das Denotat des Wortes Hund ist z.B. das vierbeinige Lebewesen, das bellt usw. und Hund heißt. Definition 2: Die Konnotation ist jener Teil der Wortbedeutung, der alle sonstigen Informationen umfasst, die das Wort ausdrückt. Dazu gehören: - Der emotionale Gehalt des Wortes. Das Wort Mieze hat z.B. dieselbe Denotation wie das Wort Katze, aber trägt einen zusätzlichen positiven emotionalen Gehalt, nämlich dass man die Katze, von der die Rede ist, mag. Umgekehrt hat Köter die gleiche Denotation wie Hund, aber eine negative emotionale Konnotation. - Status des Wortes in der Gegenwartssprache. Eheweib hat dieselbe Denotation wie Ehefrau, seine Konnotation ist aber, dass es veraltet ist. Wenn ein solches altertümliches Wort in einem Gespräch heute verwendet wird, hat es immer eine besondere stilistische Funktion: es wirkt meistens scherzhaft, seltener besonders gehoben. - Zugehörigkeit zu einer Fachsprache, z.B. Tau für ’Seil’ in der Seefahrt - Zugehörigkeit zu einer Gruppensprache, z.B. Muhkuh für ’Kuh’ in der Kindersprache - Zugehörigkeit zu einem Dialekt, z.B. Kipferl für ’Hörnchen’ im Bayrischen und Österreichischen - Zugehörigkeit zu einer Stilebene, z.B. ankotzen für ’als widerlich empfinden’ gilt als derb Es gibt einen wichtigen Unterschied zwischen Denotation und Konnotation. Denotation hat etwas mit dem Wahrheitsgehalt einer Äußerung zutun. Konnotation hingegen mit den Gebrauchsbedingungen einer Äußerung. Zwei Beispiele sollen den Unterschied erläutern. Der Hund ist auf der Straße. Der Köter ist auf der Straße. Die Denotationen beider Wörter Hund und Köter sind gleich. Beide Sätze handeln somit von der gleichen Situation und sie können beide entweder war oder falsch sein. Allerdings sind die Konnotationen verschieden. Den zweiten Satz würde man nur verwenden, wenn die Beziehung zu dem negativ sind. Die Denotation gliedert sich noch einmal in zwei Unterbegriffe. - Der Bedeutungsumfang ist die Menge der Gegenstände, Lebewesen, Eigenschaften, Ereignisse usw. in der Welt, die durch das Wort bezeichnet werden. Z.B.: Der Bedeutungsumfang des Wortes Hund umfasst alle Hunde auf dieser Welt. - Der Bedeutungsinhalt ist die Aufzählung der Eigenschaften der Dinge, die zum Bedeutungsumfang des Wortes gehören. Z.B.: Bei Hund wären das Eigenschaften wie „ist ein Säugetier“, „ist ein Fleischfresser“, „bellt“, „wird als Haustier gehalten“, „sieht so und so aus“ usw. Je spezifischer, je umfangreicher der Bedeutungsinhalt eines Wortes ist, desto kleiner ist sein Bedeutungsumfang. Vgl. Schäferhund (sehr spezifischer Bed.inhalt, recht kleine Menge) – Hund – Tier (relativ wenig Bed.inhalt, sehr großer Bed.umfang). Die lexikalische Semantik beschäftigt sich weiterhin mit der Beziehung von Wortbedeutungen. Wörter die ähnliche Bedeutungen haben, werden zu Gruppen, so genannten Wortfeldern zusammen gefasst. Ein Beispiel hierfür ist das Wortfeld der Adjektive für die intellektuellen Fähigkeiten eines Lebewesens: klug, schlau, intelligent, genial, weise, listig, pfiffig, begabt, gescheit, gewitzt, erfahren, gerissen, gewieft, raffiniert usw. Andere Bedeutungsbeziehungen sind Wortpaare, auch Synonymie genannt. Das sind Wörter bei denen die Denotation gleich ist oder stark überlappt, aber deren Form verschieden ist. Bei Denotationen die gleich ist spricht man von echter Synonymie, wie Katze – Mieze oder Vater – Vati. Bei naher Synonymie überlappt der Bedeutungsumfang, ist aber nicht identisch, wie bei klug – schlau – intelligent. Eine weitere Bedeutungsbeziehung ist die Hyponymie. Von ihr spricht man wenn der Bedeutungsumfang eines Wortes im Bedeutungsumfang eines anderen Wortes enthalten ist. Die beiden Wortbedeutungen stehen damit in einer Hierarchie zu einander. Das Wort mit dem kleineren Bedeutungsumfang in dieser Beziehung wird ein Hyponym des anderen Wortes genannt, während das Wort mit dem größeren Bedeutungsumfang Hyperonym heißt. So ergibt sich folgende Logik, Pferd ist ein Hyponym von Tier, Tier ist ein Hyperonym von Pferd. Die letzte Beziehung ist die Antonymie. Antonymie beschreibt die Gegensatzbeziehung von Wörtern, wie warm – kalt oder groß – klein. Man unterscheidet mehrere Arten von Antonymie: - Konträre Beziehung: Die beiden Wörter bezeichnen die beiden Endpunkte oder Endbereiche einer Skala, z.B. dick – dünn; kurz – lang; schwer – leicht; gut – böse; klug – dumm. Die Skala hat einen mittleren Bereich, der von den beiden Antonymen nicht abgedeckt wird, und der oft keine eigenständige Bezeichnung hat, sondern etwa durchschnittlich genannt wird, aber: mittelgroß (weder groß noch klein), lauwarm (weder warm noch kalt). - Kontradiktorische Beziehung: Ein begrifflicher Bereich wird von zwei Antonymen vollständig abgedeckt. Z.B.: Bei Säugetieren stehen männlich und weiblich in einer kontradiktorischen Beziehung zueinander (alle Säugetiere sind entweder männlich oder weiblich). Weitere Beispiele: offen – geschlossen, lebendig – tot. - Konverse Beziehung: Zwei Wörter, die jeweils eine Relation ausdrücken, stehen in einer konversen Beziehung zueinander, falls das eine Wort die Relation zwischen A und B und das andere Wort die umgekehrte Relation zwischen B und A bezeichnet. Z.B. Ehemann – Ehefrau: Wenn A der Ehemann von B ist, ist B die Ehefrau von A. In einer konversen Beziehung stehen auch regelmäßig die Komparativformen der - konträren Antonyme zueinander, z.B. kälter – wärmer: A ist kälter als B = B ist wärmer als A usw. Synonymie kommt in allen Wortarten häufig vor. Dagegen spricht man von Hyponymie meistens im Zusammenhang mit Substantiven. Von Antonymie spricht man zumeist bei Adjektiven. Als letzter wichtiger Komplex in der lexikalischen Semantik ist die Mehrdeutigkeit zu erwähnen. Sie teilt sich in die Homonymie und Polysemie. Homonymie ist die Bezeichnung für Wörter die unabhängig von einander sind, aber zufällig übereinstimmen, d. h. wenn eine Wortform mehrdeutig ist und die Wörter nichts mit einander zutun haben. Beispiele dafür sind Mast, Pfahl und füttern von Tieren oder Bulle, wobei es sich einmal um ein männliches Rind und zum anderen ein Siegel handelt. Mit Polysemie bezeichnet man Wörter die mehrdeutig sind, aber in einer mehr oder weniger regelmäßigen Beziehung zu einander stehen. Bein ist ein Beispiel für ein solches Lexem. Es kann zum einen ein Körperteil und zum anderen den Teil eines Stuhles bezeichnen. Man sieht an diesen Beispielen, wie verwirrend Sprache sein kann. Für einen Menschen erschließen sich sich viele Mehrdeutigkeiten aus dem Zusammenhang. Für eien Computer hingegen, ist die menschliche Sprache oft ein Rätsel. Es wird wohl noch sehr lange dauern, falls es überhaupt möglich ist, bis ein Computer oder Roboter die menschliche Sprache beherrscht wie wir. Mein Lieblingsbeispiel ist Data aus Star Trek. Trotz seiner hohen Intelligenz und das er dem Menschen in vielen Dingen überlegen ist, scheitert er oft an einfachen sprachlichen Äußerungen. Star Trek spielt im 24. Jahrhundert, aber wird es bis dahin wirklich gelingen, dem Computer Sprache mit der Perfektion bei zu bringen, wie wir sie tagtäglich benutzen? 9.2.5.3.1 Quellenangaben http://de.wikipedia.org/wiki/Lexikalische_Semantik http://lexikologie.perce.de/wb/?l=23BC242D89&v= PDF-Datei: Linguistik Semantik handout9.pdf Im Ordner Linguistik Semantik finden Sie weitere PDF-Dateien zu diesem Thema. 9.3 Anmerkungen zum Thema Linguistik Ich habe versucht, einen Überblick über die Linguistik zu schaffen und habe alle Bereiche angerissen, die der rote Faden vom Professor vorgab. Zum Thema Generierung sprachlicher Texte fand ich keine zufrieden stellenden Materialien. Ich liste die gefundenen Links trotzdem auf. Sie sind interessant, aber meiner Meinung nach nicht ganz das Richtige. Hätte ich noch etwas mehr Zeit gehabt und mich dadurch mit dem Professor vor seinem Urlaub noch ein wenig austauschen können, denke ich, wäre das Thema nicht zu kurz gekommen. Generierung sprachlicher Texte http://www.student-online.net/Publikationen/444/ http://www.informatik.uni-hamburg.de/WSV/SPP-sprachproduktion/organisation/sppprod.html http://www.is.informatik.uniwuerzburg.de/lehre/diplomarbeiten/offene_arbeiten/wbssw/ http://www.uni-koblenzlandau.de/koblenz/fb4/publications/dissertationen/diss_repo/diss_Woch http://www.unibw.de/inf1/personen/professoren/schmerl/sil Da ich schon die ganze Zeit darauf erpicht war, mal zu recherchieren, wie der Stand der KI bei Spielen ist, werde ich als abschließendes ausgearbeitetes Kapitel (Kapitel 12.), dieses Thema mal unter die Lupe nehmen. Es folgen jedoch zunächst die Kapitel über die „Interessanten Materialien“ und zu wichtigen „Institutionen und Personen“. 10. Interessante Materialien Da das Thema KI in meinen drei Monaten Praktikum unmöglich in allen Punkten anzureißen ist und mir während meiner Internetrecherchen Unmengen an interessanten Themen über den Weg liefen, habe ich diese Links gesammelt und unter einem eigenen Kapitel zusammengefasst. 10.1 Links Welt online http://www.welt.de/wissenschaft/article1669860/Roboter_sollen_ihre_eigene_Kultur_ entwickeln.html Erläuterungen zu MEXAR2 (siehe auch 11.9 ESA) http://209.85.129.132/search?q=cache:isDaJ-DRw-IJ:www.informatik.uniulm.de/ki/Edu/Proseminare/KI/SS08/Ausarbeitungen/02-ziegengeistpaper.pdf+mexar2&cd=3&hl=de&ct=clnk&gl=de KI Zeitung http://www.kuenstliche-intelligenz.de/ Private Seite rund um KI http://www-user.tu-chemnitz.de/~rimarc/cms/?KI-News CYC http://www.stud.fernuni-hagen.de/q1471341/nicole-m/Studium/1903/1903.html http://www.opencyc.org/ Roboter / Android http://pressetext.de/news/090319002/forscher-lehren-roboter-das-fuerchten/ http://pressetext.de/news/090225004/roboter-benutzt-menschliche-neuronen-zumlernen/ http://www.spiegel.de/wissenschaft/mensch/0,1518,582728,00.html gespeicherter Link funktioniert nicht siehe Datei Data.mht Weltraum http://www.rhombos.de/shop/a/show/story/?828 http://www.golem.de/0410/34056.html eine Seite auf der man Studentenarbeiten lesen kann http://www.diplom.de/Diplomarbeit1136/Anwendungsmoeglichkeiten_neuronaler_Netze_zur_Unterstuetzung_strategisc her_Entscheidungen.html Philosophie http://www.uni-koeln.de/phil-fak/thefife/ellrich/computerphilosophie.htm http://www2.tu-berlin.de/fb1/kogwiss/intention_und_kognition.html KI allgemein http://www.unimagdeburg.de/iew/web/studentische_projekte/ws04/berger/zentrum.htm http://www.berndvowinkel.de/44.html Technik für Behinderte http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/nano/bstuecke/6 7933/index.html http://rehatreff.wordpress.com/2008/08/12/intelligenter-rolli-soll-behinderte-mobilmachen/ http://www.scinexx.de/dossier-detail-42-16.html neuronale Netze http://www.blikk.it/angebote/modellmathe/ma0616.htm Roboter Lehrer Japan http://entertainment.excite.de/nachrichten/3400/Japan-Roboter-als-Lehrerin-imEinsatz http://www.welt.de/wissenschaft/roboter/article3332261/Japan-setzt-erstmalsRoboter-als-Lehrer-ein.html http://www.sueddeutsche.de/jobkarriere/801/461427/text/ http://www.bild.de/BILD/digital/technikwelt/2009/03/06/lehrer-roboter/computer-frauunterrichtet-in-japan.html http://www.spiegel.de/schulspiegel/ausland/0,1518,613777,00.html http://www.bankkaufmann.com/a-56744-Apple-Mitbegruender-Steve-Wozniak-siehtden-Lehrer-der-Zukunft-als-freundlichen-Roboter.html 10.2 MP3 Ich habe von Alexander Scholz aus der Redaktion der Hochschule zwei MP3s erhalten. Im Rahmen unseres Interviews haben wir uns auch über mein Praktikum unterhalten und daher hat er sie mir zukommen lassen. Danke! Sie finden die Dateien im Ordner MP3 meiner Projektarbeit. Sie befassen sich unter anderem mit Embodiment und sie hören den auch in meinen Recherchen vorkommenden Prof. Rolf Pfeifer. 11. Überblick über KI-Forschungsinstitute und deren Mitarbeiter, sowie wichtige Personen 11.1 Deutschland Deutsches Forschungszentrum für Künstliche Intelligenz – DFKI http://www.dfki.de/web - Leiter: Prof. Dr. Philipp Slusallek Die DFKI Forschungsbereiche: - Agenten und Simulierte Realität (Prof. Dr. Philipp Slusallek) - Bildverstehen und Mustererkennung (Prof. Dr. Thomas Breuel) - Erweiterte Realität (Prof. Dr. Didier Stricker) - Innovative Fabriksysteme (Prof. Dr. Ing. Detlef Zühlke) - Innovative Retail Laboratory (Prof. Dr. Antonio Krüger) - Intelligente Benutzerschnittstellen (Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster) - Institut für Wirtschaftsinformatik (Prof. Dr. Peter Loos) - Robotics Innovation Center (Prof. Dr. Frank Kirchner) - Sichere Kognitive Systeme (Prof. Dr. Bernd Krieg-Brückner) - Sprachtechnologie (Prof. Dr. Hans Uszkoreit) - Wissensmanagement (Prof. Dr. Andreas Dengel) Humboldt-Universität – Institut für Informatik http://www.ki.informatik.hu-berlin.de/zentren Interdisziplinäres Zentrum Ubiquitäre Information Beteiligte Forschungsgruppen des Instituts für Informatik: - Systemanalyse - Prof. Fischer - Datenbanken und Informationssysteme - Prof. Freytag - Wissensmanagement in der Bioinformatik - Prof. Leser - Rechnerorganisation und -kommunikation, Prof. Malek - Informationsintegration - Prof. Naumann - Systemarchitektur - Prof. Redlich - Theorie der Programmierung - Prof. Reisig - Computervision - Prof. Reulke - Wissensmanagement - Prof. Scheffer - Spezifikation, Verifikation und Testtheorie - Prof. Schlingloff Zentrum für Biophysik und Bioinformatik Beteiligte Forschungsgruppen des Instituts für Informatik: - Wissensmanagement in der Bioinformatik - Prof. Leser - Datenbanken und Informationssysteme - Prof. Freytag Georg-Simmel-Zentrum für Metropolenforschung Beteiligte Forschungsgruppen des Instituts für Informatik: - Signalverarbeitung und Mustererkennung - Prof. Meffert Hermann von Helmholtz-Zentrum für Kulturtechnik Beteiligte Forschungsgruppen des Instituts für Informatik: - Informatik in Bildung und Gesellschaft - Prof. Coy (Sprecher der DFG Forschergruppe "Bild-Schrift-Zahl“) Sprachliche Bedeutung Beteiligte Forschungsgruppen des Instituts für Informatik: - Wissensmanagement in der Bioinformatik - Prof. Leser - Wissensmanagement - Prof. Scheffer Konflikte in natürlichen und künstlichen kognitiven Systemen Beteiligte Forschungsgruppen des Instituts für Informatik: - Signalverarbeitung und Mustererkennung - Prof. Meffert - Künstliche Intelligenz - Prof. Burkhard Universität Stuttgart http://www.uni-stuttgart.de/ http://www.iis.uni-stuttgart.de/ http://www.vis.uni-stuttgart.de/~gh/ - Leiter: Prof. Dr. Gunther Heidemann Universität Freiburg http://www.uni-freiburg.de/ http://www.informatik.uni-freiburg.de/abteilungen - Grundlagen der Künstlichen Intelligenz | Prof. Dr. Bernhard Nebel - Autonome Intelligente Systeme | Prof. Dr. Wolfram Burgard - Maschinelles Lernen und Natürlichsprachliche Systeme | Prof. Dr. Martin Riedmiller - Humanoide Roboter | Prof. Dr. Maren Bennewitz (Juniorprofessorin) - Soziale Robotik und Mensch-Roboter Interaktion | Dr. Kai Arras Universität Hamburg http://www.uni-hamburg.de/ http://www.informatik.uni-hamburg.de/Info/zentren.shtml.de - Koordinator: Prof. Habel Übersicht über deutsche Institute http://onlinestreet.de/Wissenschaft/Informatik/K%C3%BCnstliche_Intelligenz/Fakult% C3%A4ten_und_Institute.html 11.2 Schweiz Universität Zürich – Labor für Künstliche Intelligenz http://www.ifi.uzh.ch/ - Leiter Prof. Rolf Pfeifer Schweizer Institut für Künstliche Intelligenz Lausanne http://liawww.epfl.ch/ Direktor: Prof. Boi Faltings 11.3 Österreich Österreichisches Institut für Künstliche Intelligenz – OFAI http://www.ofai.at/index.html - Leiter: Univ.-Prof., Ing., Dr. Robert Trappl http://www.ofai.at/people.html Liste der Mitarbeiter Universität Graz http://informatik.tugraz.at/cs/de/aboutus/institutes/ist/index.html Link Institute Link IST http://informatik.tugraz.at/cs/de/aboutus/institutes/ist/index.html - Leiter: Dipl. Ing. Dr. techn. Franz Wotawa 11.4 Australien Universität Sydney http://www.usyd.edu.au/ Leider habe ich keine Fakultät oder Labor zu KI-Forschung gefunden. Der nächste Link weist aber darauf hin, dass es etwas geben muss. http://www.wissenschaft-australien.de/australien000017.html Zentrum für autonome Systeme - Leiter: Prof. Hugh Durant-White Zentrum für optische Systeme ultrahoher Bandbreite. - Prof. Martijn de Sterke kommissarisch geleitet ihm stehen zur Seite - Professoren Ben Egleton und Ross McPhedran 11.5 Japan Universität Tokyo http://www.ailab.t.u-tokyo.ac.jp/index.html - Leiter: Prof. Koichi Hori 11.6 USA Massachusetts Institute of Technology – MIT http://mit.edu/research/category/robo.html#links http://www.csail.mit.edu/peoplesearch Liste der Mitarbeiter Stanford Universität http://ai.stanford.edu/ http://ai.stanford.edu/people.html Liste der Mitarbeiter US Navy http://www.nrl.navy.mil/aic/index.php Adaptive Systeme - David W. Aha Intelligente Systeme - Greg Trafton Für die anderen Sektionen waren keine Leiter angegeben. Universität Iowa http://www.cs.iastate.edu/~honavar/aigroup.html - Direktor: Dr. Vasant Honawar (Prof. Für Computerwissenschaften und Bioinformatik) NASA http://www-aig.jpl.nasa.gov/ http://ai.jpl.nasa.gov/public/people/ Liste der Mitarbeiter ausgewählte Personen: - Dr. Tony Barrett (Forscher) - Dr. Steve Chien (Chef der technischen Abteilung) - Dr. Brad Clement (Forscher) - Dr. Tara Estlin (Forscherin) - Dr. Daniel Gaines (Forscher) - Dr. Mark Johnston (Forschungsaufträge) Universität Arizona http://ai.arizona.edu/ - Direktor: Hsinchun Chen School of Computer Science, Carnegie Mellon http://www.cs.cmu.edu/ Mitarbeiter: Computer Science Department - Leiter: Peter Lee Human-Computer Interaction Inst http://www.hcii.cs.cmu.edu/people/faculty Institute for Software Research - Leiter: Prof. William Scherlis Language Technologies Institute - Leiter: Dr. Jaime Carbonell, Machine Learning Department Prof. Noah Smith and ECE Professor, Greg Ganger Robotics Institute http://www.ri.cmu.edu/ri_people.html?fcode=1&menu_id=251 Entertainment Technology Center 11.7 Großbritannien Universität Edinburgh http://www.inf.ed.ac.uk/ http://www.inf.ed.ac.uk/people/ Übersicht über Mitarbeiterbereiche http://www.inf.ed.ac.uk/people/Telephone.html Liste der Mitarbeiter (Bereich eins) 11.8 Slowenien Universität Ljubljana http://www.unilj.si/en/about_university_of_ljubljana.aspx http://www.ailab.si/ivan/novice.php - Prof. Ivan Bratko 11.9 ESA Bislang wurden die Daten des Mars-Orbiters „Mars Express“ mit einer vom Menschen gesteuerten Software herunter geladen. Dabei kam es gelegentlich auch zu Datenverlust. Nun vertraut die ESA auf ein Tool der Künstlichen Intelligenz „MEXAR2 (siehe auch „Interessante Links)“. Es schafft es, fast ohne Datenverlust, die Daten herunter zu laden. Seit 2005 wurde am italienischen Institute for Cognitive Science and Technology an MEXAR2 geforscht und es konnte sich schon in der Praxis beweisen. Nicht nur das der Datenverlust enorm zurück gegangen ist, es hat sich auch die Zeit, die zur Erstellung der Downloadpläne benötigt wurde um 50% reduziert. Es gibt noch wenige KI-Tools in der Raumfahrt und MEXAR2 ist ein Wegbereiter dafür. KI-Tools könnten für mehr Kosteneffizienz in der Raumfahrt sorgen. 11.9.1 Quellenangaben http://www.esa.int/esaCP/Germany.html http://pressetext.de/news/080502002/mars-mission-vertraut-auf-kuenstlicheintelligenz/ http://www.zdnet.de/news/wirtschaft_investition_software_mars_mission_vertraut_au f_kuenstliche_intelligenz_story-39001022-39190396-1.htm 11.10 Italien Institute for Cognitive Science and Technology http://www.istc.cnr.it/ 11.11 Personen 11.11.1 Maschinelles Lernen Tom M. Mitchell http://www.cs.cmu.edu/~tom/ Homepage http://www.cs.cmu.edu/~tom/mlbook.html Erwähnung eines Buches http://w1.siemens.com/innovation/de/publikationen/zeitschrif ten_pictures_of_the_future/pof_fruehjahr_2008/digitale_assi stenten/interview_mitchell.htm#content-zone Interview Donald Michie http://de.wikipedia.org/wiki/Donald_Michie Katharina Morik http://netzspannung.org/cat/servlet/CatServlet?cmd=document &subCommand=show&forward=/biography/output/biography.x ml&biographyId=140734&lang=de http://www.cs.unidortmund.de/nps/de/Home/Personen/M/Morik__Katharina.html 11.11.2 Linguistik Joan Bresnan Mary Dalrymple http://de.wikipedia.org/wiki/Joan_Bresnan http://www.stanford.edu/~bresnan/ http://users.ox.ac.uk/~cpgl0015/ Peter Sells http://www.soas.ac.uk/staff/staff36921.php Hermann Helbig http://pi7.fernuni hagen.de/helbig /index.html Noam Chomsky http://de.wikipedia.org/wiki/Noam_Chomsky http://www.chomsky.info/ http://web.mit.edu/linguistics/people/faculty/chomsky/index.html 12. KI in Spielen Spiele sollen die Menschen unterhalten und ihn dabei in eine virtuelle Welt entführen. Der Spieler will heraus gefordert werden und einem scheinbar intelligenten Gegner gegenüber treten, der auf seine Aktionen reagieren kann, denn das Spiel soll ja nicht langweilig werden, weil der Spieler eine bestimmte Taktik heraus gefunden hat, die immer zum Sieg führt. Hier schließt sich die Frage an: „Wie weit ist die KI in Spielen fortgeschritten, wo sind die Grenzen oder was hindert die KI daran, sich weiter zu entwickeln?“. Die Grafik beispielsweise ist bereits sehr realistisch und in den letzten Jahren schnell voran geschritten, was wir der Entwicklung der Grafikkarten zu verdanken haben. Sie verfügen über eigene Prozessoren und eigenen Arbeitsspeicher und verlagern damit die Grafikverarbeitung aus und geben Ressourcen in der CPU und im RAM frei. Bislang konnte man mit der Grafik beim Käufer punkten, doch es wird nicht mehr lange dauern, bis der Spieler mehr erwartet. Dafür bietet sich die KI an. Sie ist noch relativ wenig in Spielen umgesetzt, hat aber enormes Potential und durch kreative Ideen wird es möglich den Spieler länger an ein Spiel zu binden, sowie mit neuen Ideen der erste auf dem Markt zu sein. Und was ist bei der Integration von KI in Spielen zu beachten?: - Der Spieler möchte keinen unbesiegbaren Gegner haben. - Der Spieler will keine Regeln entdecken, die ihn regelmäßig zum Sieg führen. - Der Spieler erwartet realistisches Verhalten des Spiels und seiner Elemente. Beleuchten wir nun die Möglichkeiten, welche zur Verfügung stehen, um intelligentes Verhalten zu simulieren. imperativer/prozeduraler Ansatz: Dieser Ansatz wird auch regelbasierte Vorgehensweise genannt. Eine Regel besteht aus einer Bedingung und einer Aktion. Ist die Bedingung erfüllt, wird die dazu gehörige Aktion ausgelöst. Dieser Ansatz basiert auf der Aussagenlogik. Die Aussagenlogik ist eine formale Sprache. Sie formuliert Aussagen über eine virtuelle Welt und ihre Objekte. Beispiel: „Wenn kein Geld mehr auf dem Konto von Goethe ist, muss er arbeiten gehen.“ IST-LEER(konto(GOETHE)) => MUSS-ARBEITEN(GOETHE) Der Folgerungspfeil steht für die Implikation. Der rechte Teil der Implikation beschreibt die Bedingung, die wahr sein muss, damit man weiß, dass auch der linke Teil den Wert wahr haben muss. Eine Umsetzung des imperativen Ansatzes ist der Endliche Automat. Die Funktionsweise eines Endlichen Automaten kann man sich so vorstellen. Er ist ein schwarzer Kasten, auf dessen einer Seite Eingaben herein kommmen und auf der anderen Seite verlassen ihn Ausgaben. Der Kasten hat einen inneren Zustand, der ebenfalls als Eingabe geseen werden kann. Der Automat besitzt interne Regeln, welche die Ausgabe bestimmen. Durch die Ausgabe wird der innere Zustand meistens geändert und auch gespeichert. Der Automat lässt sich erweitern, indem man ihn vergangene Zustände speichern lässt. Darstellungsmöglichkeiten des Verhaltens eines endlichen Automaten: - Zustandsdiagramm, Übergangsgraph: Dieses Diagramm besteht aus Kreisen und Pfeilen. Die Kreise sind die einzelnen Zustände. Die Pfeile sind die Übergänge zwischen den Zuständen. Die Beschriftung an jedem Pfeil sagt aus, unter welcher Bedingung der Übergang erfolgt. - als Sammlung von Befehlen (z.B. in einer prozeduralen Programmiersprache) - Hardware-Lösungen Diese Bausteine werden auch Schaltwerke genannt, sie setzen sich aus einem Schaltnetz (der programmierten Logik) und Speicher zusammen. Der Speicher wird mit FlipFlop-Bausteinen aufgebaut, das Schaltnetz wird meist in einem PAL/PLD (Programmable Array Logic / Programmable Logic Devices) realisiert. nicht-prozeduraler Ansatz – Prädikatenkalkül der 1. Stufe: Diese Logik kann nicht nur Aussagen zu bestimmten Objekten machen, sondern auch Gruppen von Objekten über Variablen definieren und sie unter einander verknüpfen. Man spricht nicht mehr von festen Objekten sondern von Variablen. Dadurch können sich die Eigenschaften der Objekte verändern. Es muss nun nicht mehr das Gedächtnis bemüht werden, um etwas über die Vergangenheit zu erfahren. Die Objekte enthalten den aktuellen Stand, da sie bei jedem erhaltenen Ereignis und jeder ausgeführten Aktion aktualisiert werden, d. h. es gibt eine Sammlung von Sätzen, welche sich auf den aktuellen Zustand der Objekte beziehen und dadurch Entscheidungen fällen können. Beispiel: „Alle Elefanten sind grau“ (A x) (IST-ELEFANT(x) => IST-GRAU(x)) X ist ein Objekt, dass für alle Objekte in der Welt stehen kann. Dies wird durch den All-Quantor, alle A, beschrieben. Sollte nun x ein Elefant sein, dann gilt, dass er grau ist. Wendet man den Satz auf alle Objekte in der Welt an, ist das Resultat, dass alle Objekte, die Elefanten sind, auch grau sind. Die Realisierung erfolgt durch eine Sprache wie Prolog oder Lisp. Dabei wird man sich einen Baum erstellen, dessen Knoten die Zustände und dessen Kanten die Aktionen sind. Die Wurzel ist der Anfangszustand. Das Programm muss sich an den Ästen entlang hangeln, um zu einer Lösung zu kommen. In unserem Falle benutzt man auch spezielle Programmiersprachen. Diese heißen CMLs (cognitive modeling language: erkennende Modellierungssprache). Diese Sprachen sind nicht so allgemein verwendbar wie Prolog, aber dafü einfacher zu erlernen und zu benutzen. Ein Beispiel ist die Kognitive Modellierungsumgebung Hank. Sie hilft Psychologen Szenarien durch rechnen zu lassen, ohne extra eine komplette Programmiersprache lernen zu müssen. Hank besteht aus einer Datenbank, die aus Aussagen un befehlen zusammen gesetzt ist und ein Modell beschreiben. Sie lässt sich mit der Maus zusammen klicken und verfügt übe eine Abfragemöglichkeit, die an Hand des Modells eine Problemlösung liefert. Ich werde nun auf die Vor- und Nachteile der zwei Ansätze eingehen. Die Vorteile beim prozeduralen Ansatz sind zum einen, dass das Konzept aus den gängigen Programmiersprachen bekannt ist und daher keine lange Einarbeitungszeit benötigt wird (Anwendung, wenn Team unter Zeitdruck) und zum anderen, dass die Regeln relativ überschaubar und problemlos zu testen (Regeln getrennt von Zuständen implementiert) sind. Nachteile bestehen zum einen darin, dass die überschaubaren Regeln auch vom Spieler leicht zu durchschauen sind und zum anderen darin, dass wen man tatsächlich intelligentes unvorhersagbares Verhalten simulieren will, die Anzahl der Regeln rassant anwächst. Der zweite Ansatz hat einen Vor- und Nachteil. Der Vorteil ist, dass die Lösungsfindung zu einem Problem dem System überlassen werden kann. Man definiert nur die Regeln, in denen auch die aktuelle Situation beachtet un verändert wird. Die Lösung muss also nicht auf der Befehlsebene einer prozeduralen Sprache programmiert werden. Der Nachteil ist, dass man eine gewisse Einarbeitungszeit braucht. KI kann in Spielen in unterschiedlicher Form Anwendung finden. Hier seien einige Beispiele aufgelistet.: - computergesteuerte Wesen oder Einheiten (Agenten): Der Computer steuert Mit- bzw. Gegenspieler. - Künstliches Leben: Es werden Abläufe aus der Natur in einer virtuellen Welt nach gebildet. - lernende Spiele: Das Spiel lernt ständig dazu und verändert sein Vorgehen. - Genetische Algorithmen: Hier werden stochastische Suchverfahren verwendet, um ausgehend von einigen bekannten Punkten sich einem Optimum der kompletten Lösung immer besser anzunähern. - Wegplanung: Sie wird verwendet um den besten Weg oder die beste Lösung zu einem Problem zu finden. Wollen wir einige der Anwendungen etwas genauer betrachten. Fangen wir mit dem Agenten an. Er wird auch als Assistent oder Akteur bezeichnet. Ein Agent ist das computergesteuerte Gegenüber und kann je nach Art des Spiels unterschiedliche rollen übernehmen.: - Feind (in Ballerspielen) - strategischer Gegner (in Strategiespielen) - Partner (Strategie) - Berater (in Strategiespielen) - eine Einheit (in Strategiespielen) - unterstützende Person (in Abenteuer- und Rollenspielen) - Geschichtenschreiber (in Abenteuerspielen) - Kommentator, Zuschauer (in Sportspielen) Agenten müssen also nicht grundsätzlich Gewalt in Spielen fördern, sondern können auch in Spielen mit sozialen Strukturen, wie die Sims, zum Einsatz kommen. Die gemeinsame Schnittmenge der verschiedenen Agenten ist, dass sie alle in das Spiel eingreifen können, wenn sie wollen oder müssen. Der Spieler wünscht sich natürlich, dass die Agenten möglichst intelligentes Verhalten an den Tag legen. Wie kann man sich den Aufbau und die Funktion eines Agenten vorstellen? Man kann ihn sich wie einen Roboter vorstellen, nur dass er sich in einer virtuellen Welt bewegt und ein Fehler nicht so schwer wiegende Folgen hat. Um sich in seiner Umgebung zurecht zu finden, besitzt der Agent Sensoren, um in sie einzugreifen Effektoren. Der Agent durchläuft ständig einen Entscheidungszyklus. Dieser kann auch mehrmals pro Bildrahmen durchlaufen wrden, damit der Agent pro Bild mehrere entscheidungen treffen kann. Dieser Entscheidungsvorgang besteht aus drei Teilen: 1. erkennen: aktuelle Situation im Spiel erkennen 2. überlegen: auswählen, welches Wissen wichtig ist, und Schlussfolgerungen für Aktionen ziehen 3. handeln: interne und externe Aktionen durchführen Zur ersten Phase sollte man erläuternd hinzufügen. Der Agent darf nur informationen verarbeiten, die auch der Spieler hat und nicht Informationen verwenden, die natürlich vorhanden sind, um den Spielablauf zu gewährleisten, um sich einen Vorteil zu verschaffen. Das Seh- und Hörvermögen sollte so sein, wie das des Spielers. Der Agent darf beispielsweise nicht durch Hindernisse durchschauen können. Ein oft gemachter Fehler beim Hörvermögen ist, dass gegnerische Einheiten Karten spielend im Raum sitzen, obwohl draußen schon seit einigen Minuten Getümmel ist und sie das hätten mitbekommen müssen. Weiterhin sollte der Agent über ein Gedächtnis verfügen und damit Schlussfolgerungen für die aktuelle Situation ziehen können, z. B. wenn der Spieler wieder mal in eine Sackgasse flüchtet, sollte der Agent sich daran erinnern und anstatt sich in Gefahr zu bringen, davor warten, da der Spieler gezwungenermaßen ja wieder heraus kommen muss. In der zweiten Phase ist die Anfordung, dass der Agent natürliches Verhalten zeigen muss. Der Spieler erwartet, dass der Agent sich so verhält, wie er sich auch verhalten würde. In der dritten Phase muss das umgesetzt werden, wofür sich der Agent in Phase zwei entschieden hat. An Hand der Regeln kann der Agent eine Aktion auswählen, basierend auf der Bewertung, welche er vorher vorgenommen hatte. Der Agent hat die Möglichkeit seinen eigenen Zustand zu verändern, indem er z. B. Energie auftankt ode auf seine Umwelt einwirkt, indem er beispielsweise etwas baut oder zerstört. Schauen wir uns nun die lernenden Architekturen näher an. Diese Architekturen werden überall dort verwendet, wo Aufgaben gelöst werden sollen, die zu komplex sind, um sie auf konventionelle Weise von Hand zu programmieren. Das Spiel soll das Verhalten des Spielers erkennen und darauf eingehen. Bei manchen Spielen, wie Prügelspielen, ist das leichter, bei anderen, wie Strategiespielen schwerer. Bei Prügelspielen ist die Anzahl der Attacken begrenzt, bei Strategiespielen hingegen, wie bei Command & Conquer ist die Taktik des Spielers schwieirger zu durch schauen. Will der Spieler eher den Ernter zerstören, um den Nachschub zu unterbrechen, oder mit einr großen armee angreifen, gegen die die Basis besonders geschützt werden muss? Das Speichern und Suchen der gewonnenen Erkenntnisse muss gut durchdacht sein. Beim Speichern muss dafür gesorgt werden, dass die Informationen später auch wieder schnell gefunden werden. Es können Informationen pro Einheit gespeichert werden, aber auch Verhältnisse zwischen Einheiten, so z. B. der Spieler baut mehr kleine Soldaten als große Panzer und greift somit eher die Ernter an als die Basis. Weiterhin ist zu beachten, dass das Spiel bereits beim Hersteller trainiert wird, damit der Spieler sofort ins Spiel einsteigen kann. Nur die Feinabstimmung sollte durch das Spielverhalten des Spielers gemacht werden. Eine andere Verwendungsmöglichkeit von Lernen in Spielen besteht darin, dass die Zeit zum Suchen verkürzt werden soll, in dem gefundene Lösungen wieder verwendet werden. Es gibt drei allgemeine Arten des Lernens für Software: - Erklärungsbasiertes Lernen - Lernen durch Fehlerkorrektur (der Ansatz bei neuronalen Netzen) - Simulation einer Entwicklung, mit genetischen Algorithmen Beim Erklärungsbasierten Lernen wird kein neues Wissen angeeignet, sondern nur das vorhandene Wissen effizienter genutzt, d. h. z. B. das ein gefundenes EinAusgabe Paar als eine neue Regel formuliert wird. Diese Regel wird dann nicht nur in genau der gleichen Situation sondern auch in ähnlichen Situationen verwendet. Die Neuronale Netze sollen die Nervennetze aus der Natur nachbilden. Sie sind modular aufgebaute Berechnungsmodelle, und ihre wichtigste Eigenschaft ist ihre Lernfähigkeit. Man kann sich solch ein Netz so vorstellen, dass viele einfache Neuronen als Knoten zu einem komplexen Netz verbunden werden. Neuronale Netze lernen auf zwei verschiedene Arten: - Beim konstruktiven Lernen wird die Netzstruktur verändert, d.h. die Verbindungen zwischen den Knoten werden gelöst und verknüpft. - Bei der Parameterschätzung werden die Gewichte der einzelnen Ausgänge angepasst. In der Entwicklung von Spielen werden selten neuronale Netze verwendet. Zum Einsatz kommen meistens regelbasierte Systeme, die sich nur geringfügig weiter entwickeln. In der KI-Forschung für Spiele ist noch sehr viel möglich, da wir erst am Anfang stehen, aber der Spielemarkt ist ein lukrativer Markt und es lohnt sich. Es ist nahezu sicher, dass sich die KI in Spielen ebenso wie die Grafik entwickelt. Es ist nicht sicher, ob die Konsolenhersteller schon hardwarebasierte KI-Bausteine einplanen, um den Geschwindigkeitsvorteil zu nutzen. Doch warum stagniert die KI in Spielen und gleichzeitig wird die Grafik immer realistischer? Ein sehr verpixelter Ernter aus Command & Conquer – Der Tiberium Konflikt, fährt auf der Suche nach Tiberium in die gegnerische Basis und zerplatzt in einer kleinen hässlichen Miniexplosion. Das war 1996. 2007 fährt der Ernter auf höchsten grafischen Niveau ebenfalls in die gegnerische Basis und wird von Läsern zerfetzt und sehr realistisch fliegen die Trümmer durch die Landschaft. Warum ist der Ernter noch so dumm, wie er es elf Jahre vorher auch schon war? Was ist miter KI los? Warum sind aber Schachprogramme so gut und schlagen seit den 90-iger Jahren selbst Schachweltmeister? Der Technische Direktor bei Related Designs und Chef-Programmierer des AufbauStrategiespiels Anno 1701 Thomas Stein erklärt es folgendermaßen: Beim Schach hat man 64x64 Felder und sechs unterschiedliche Figuren, bei Anno sind es 1000x1000 Felder und 100e gebäude, Warenketten und Personen. Kein Computer der Welt kann die sich daraus ergebenen unendlichen Möglichkeiten an Spielsituationen berechnen. Daher schummelt die KI um mit der Komplexität der Spiele zurecht zu kommen. In Anno z. B. baut der Computer seine Häuser und Wege nicht Stück für Stück, wie der menschliche Spieler, sondern verwendet vordefinierte Gebäudemuster. Die Kunt besteht darin, dass der Spiele die kleinen Schummeleien nicht mitbekommt. So gibt’s bei Anno mehrere Gebäudemuster für Werkstätten, die sich von Insle zu Inse unterscheiden. Der Spieler erwartet, dass die KI flexibel reagiert und ihn immer wieder mit neuen Varianten überrascht. Das wollen jedoch viele Programmierer nicht, zumindest nicht bei den Kampagnen, immer noch das Herzstück der meisten Spiele. „Bei einer Kampagne kann die KI häufig kontraproduktiv sein“, sagt etwa Dirk Steenpass. Er programmierte für Blue Byte die KI von Die Siedler: Aufstieg eines Königreichs. Dieser Teil von „Di Siedler“ musste viel Kritik einstecken, da der Gegener schon bei Beginn des Spiels über voll ausgebaute Festungen verfügte. Laut den Programmierern war dies eine bewusste Entscheidung, um nicht zu viel Kontrolle abzugeben, da dass Spiel sonst schwieriger nach ihren Plänen zu steuern ist. Um die KI in ein solches Korsett zu zwängen, verwenden sie sehr gerne Skripts, die sehr aufwendiges, aber fest vorgeschriebenes Verhalten von Computergegnern enthalten, die durch eine bestimmte Aktion des Spielers ausgelöst werden. Thomas Stein sagt dazu, dass durch die Skripte viel Interaktion verloren geht, da man durch das Spiel wie auf Schienen geleitet wird. Weiterhin kostet es viel Spielspaß, wenn die KI unflexibel reagiert. Ein weiteres Problem bei der KI ist, dass man zu wenige Programmierer beschäftigt und zu wenig Geld investiert. Dr. Andreas Gerber, dipl. Informatiker, der am DFKI promovierte und eine eigene Firma gründete, sagt, dass in den meisten Spielen 12 – 24 Mann-Monate Arbeit für die KI aufgewendet werden und es müsste mindestens das 5-fache sein (ein Mann-Monat = ein Angestellter arbeitet einen Monat). Thomas Stein sagt dazu, in Anno 1701 investierte man 36 Mann-Monate. Bei den Siedlern wurden schätzungsweise 40 Mann-Monate aufgewendet. Das liegt über dem Durchschnitt, aber dennoch weit unter der geforderten Zeit von Dr. Gerber. Welche Gründe gibt’s, dass die KI so stiefmütterlich behandelt wird? Knallhart gesagt, verkaufen sich Spiele nicht durch die KI, sondern durch spektakuläre Grafik, innovative Spielelemente und coole Charaktere. Das macht sich immer gut in der Werbung. Denn sicher hätten nicht mehr Käufer zu C&C 3 gegriffen, wenn der Ernter schlauer gewesen wäre. Die Priorität liegt also nicht auf der KI. Die KI könnte nur aus ihrem Schattendasein treten, wenn man sie zum zentralen Spielelement aufsteigen lässt. Doch die Programmierer scheuen sich davor. An jeder KI-Schraube an der sie drehen, hat Auswirkungen auf das gesamte Spiel. Würde z. b. unser Ernter aus C&C plötzlich hochintelligent und voll automatisch alle Tiberiumfelder abernten, geriete das gesamte Rohstoffmanagement ins Wanken und könnte zu anspruchslos werden. In einem Ego-Shooter wäre das komplette Missionsdesign für die Tonne, wenn auf einmal alle Gegner alle Deckungsmöglichkeiten benutzen würden und in der Massenschießerei der ersten Mission der Held keine Chance mehr hätte. „Wenn du eine KI komplett neu entwickeln musst, bedeutet das immer viel Improvisation. Das kostet Zeit und Nerven“, verdeutlicht Thomas Stein. Und Zeit ist bekanntlich Geld und das besonders in der Spielebranche. In ihr lassen sich die Finanzen sehr schwer planen und verschiebt sich ein Spiel nur um ein par monate, kann das für ein kleines Entwicklerteam schon das Aus bedeuten. So lassen die meisten di Finger von größeren KIInnovationen. Dr. Andreas Gerber meint dazu, dass die Grafik und die Physik weiter entwicket werden, doch die KI aus dem Vorgänger übernommen wird. Das ist vor allem bei Spieleserien mit hoher Ersheinungsfrequenz so. Das dürften auch die Spieler von Fifa oder Need for Speed schon bemerkt haben. Die Probleme liegen aber nicht nur beim Geld oder der Software sondern auch in der Hardware. NVIDIA und ATI veröffentlichen jedes Jahr eine neue Grafikkartengeneration mit doppelt so viel Leistung und neuen Spezialeffekten, die für die Grafikdesigner quasi auf Knopfdruck zur Verfügung stehen. Dr. Andreas Gerber stellt hierzu fest, dass die meisten KI-Entwickler der Meinung sind, dass KI nur 5% Rechenleistung in Anspruch nehmen darf, nötig wären jedoch mehr als das Doppelte. Die Hoffnung liegt nun in der Entwicklung von Mehrkernprozessoren. Um eine vernünftige KI zum Laufen zu kriegen, bräuchten wir 8-Kern-Prozessoren. Bis dahin dauert es noch eine Weile und ein Spiel muss ja auch bei den Mindestanforderungen gut laufen und nicht nur auf High-End-Maschinen. Erwähnenswert ist auch, dass Grafik- und Leveldesigner Programme für ihre Modellierungen haben, aber die KI-Entwickler unvorstellbarerweise heutzutage noch den ganzen Quellcode per Hand tippen müssen. Ein weiteres der zahlreichen Probleme besteht in der Ausbildung von KI-Experten für Spiele-KI. Die deutschen Unis vernachlässigen die Ausbildung dafür. Es gibt zwar viele brillante Programmierer, aber ihnen fehlt die Erfahrung im Bereich der KI, wozu Kenntnisse über Neuronale Netze und Planungssysteme gehören. Die Ursache liegt bei konservativen Professoren, die mit Computerspielen nichts zutun haben wollen. Doch langsam wird die Sache etwas aufgeweicht. Die Uni Saarland hat ein Labor für Multimedia und KI eingerichtet und Microsoft beliefert immer mehr Unis mit xBox-360-Entwicklerkits für Praxisseminare. Können wir uns somit auf eine „intelligente Zukunft“ freuen? Das wird wohl noch etwas dauern. Bis genügend Spiele-KI-Experten die Unis verlassen und den Weg zu den Spieleentwicklern finden. Man wird wohl in nächster Zeit weiter den bequemen Pfad beschreiten und sich mehr um Grafik und Physik kümmern. Doch auf Dauer wird der Spieler sich mit einer dummen KI nicht zufrieden geben und die die Firmen müssen mehr in die KI investieren. Grafik und Physik sind eben nicht alles … 12.1 Quellenangaben http://www.tecchannel.de/webtechnik/entwicklung/1744817/warum_kuenstliche_intelli genz_ki_in_spielen_stagniert/ http://209.85.129.132/search?q=cache:ubQw_JqccCsJ:download.pokorra.de/fh/kispi ele/ausarbeitung.pdf+ki+bei+spielen&cd=2&hl=de&ct=clnk&gl=de http://spiele.t-online.de/c/15/62/06/28/15620628.html Bonusmaterial http://www.golem.de/0506/38899.html Bonusmaterial http://www.golem.de/0208/21212.html Bonusmaterial http://www.golem.de/0507/39121.html Bonusmaterial http://gameai.mi.fu-berlin.de/ http://www.mi.fu-berlin.de/misc/langenacht/lndw2009/ag-spiele.html Bonusmaterial http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/neues/sendung en/magazin/99588/index.html Bonusmaterial http://www.plm.eecs.uni-kassel.de/plm/index.php?id=573 Bonusmaterial 13. Abschließende Worte Am Ende meiner Projektarbeit stelle ich fest, dass ich vom Thema „Künstliche Intelligenz“ sehr überrascht und überwältigt wurde. Ich war auch vom Fernsehen geblendet und „Data“ stand für mich für KI. In welche Bereiche KI überall hinein wirkt und gehört, was durch die KI-Forschung eigentlich alles erst möglich geworden ist, z. B. die alseits beliebten Computerspiele, war mir so deutlich nicht klar. Das die moderne Psychologie der Entwicklung der Computer und der KI-Forschung zu verdanken ist, hat mich ebenfalls beeindruckt. Natürlich kam ich auch ins Grübeln und hatte bedenken, was die stareke KI-Forschung betrifft. Einige Tendenzen sind tatsächlich bedenklich. Da sich aber auch Philosophen und Ethiker mit den Begriffen der Intelligenz und dem künstlichen Leben auseinander setzen, gibt es ja zu den Utopisten der starken KI und ihrer Unvorsichtigkeit einen Gegenpol. Schön ist auch, dass intelligente Computersysteme im Alltag immer mehr Einfluss nehmen werden. Dies wird behinderten und alten Menschen eine große Hilfe sein. Besonders gespannt bin ich, was die Textverarbeitung und die Spiele-KI in absehbarer Zeit leisten werden. Für mich war das Praktikum eine wertvolle Erfahrung. Ich habe mich mit einem Thema beschäftigt, von dem ich keine Ahnung hatte. Meine Entscheidung, ein Studium zu beginnen, ist gereift. Ich habe nette Menschen kennen gelernt. Rundum bin ich sehr zufrieden. Zum Schluss möchte ich mich bei Prof. Hartmann und Schenke für Ihre kompetente Unterstützung bedanken. Data Lore Lal 14. Hinweis Ich habe in der hier vorliegenden Arbeit Grafiken, Bilder und Logos der verschiedenen und in den Quellenangaben verzeichneten Webseiten eingefügt. Diese dienen der Veranschaulichung der benannten Personen und Institute sowie meiner Kommentare und sind in den meisten Fällen urheberrechtlich geschützt. Sie dürfen daher nur für private und nicht gewerbliche Zwecke benutzt werden.