Ausarbeitung - Prof. Dr. Ing. Karsten Hartmann

Werbung
Die Künstliche Intelligenz
Projektarbeit im Rahmen meines Praktikums in der
Fachhochschule Merseburg
Unter der Betreuung von
Professor Karsten Hartmann und
Professor Michael Schenke
Praktikant: Tino Apelt
Dauer: 3 Monate
1. Einleitung ................................................................................................................ 4
2. Geschichtliche Entwicklung .................................................................................... 5
2.1 Quellenangaben ................................................................................................ 9
3. Intelligenz ............................................................................................................. 10
3.1 Quellenangaben .............................................................................................. 15
4. Embodiment ......................................................................................................... 16
4.1 Allgemeines .................................................................................................... 16
4.1.1 Quellenangaben ....................................................................................... 21
4.2 ICUB ............................................................................................................... 22
4.2.1 Quellenangaben ....................................................................................... 23
5. Psychologie .......................................................................................................... 24
5.1 Definition ......................................................................................................... 24
5.2 kurzer geschichtlicher Überblick...................................................................... 24
5.2.1 Quellenangaben ....................................................................................... 26
5.3 Kognitivismus / Kognitionspsychologie ........................................................... 26
5.3.1 Kognition .................................................................................................. 26
5.3.1.1 Quellenangaben ................................................................................. 26
5.3.2 Überblick über das Forschungsgebiet ...................................................... 27
5.3.2.1 Quellenangaben ................................................................................. 27
5.3.3 Kognitivismus ........................................................................................... 28
5.3.3.1 Quellenangaben ................................................................................. 29
5.4 Behaviorismus ................................................................................................ 30
5.4.1 Quellenangaben ....................................................................................... 30
5.4.2 Methodologische Behaviorismus .............................................................. 31
5.4.2.1 Quellenangaben ................................................................................. 31
5.4.3 Klassischer Behaviorismus ....................................................................... 31
5.4.3.1 Quellenangaben ................................................................................. 32
5.4.4 Neobehaviorismus .................................................................................... 32
5.4.4.1 Quellenangaben ................................................................................. 32
5.4.5 Radikaler Behaviorismus .......................................................................... 32
5.4.5.1 Quellenangaben ................................................................................. 34
6. Maschinelles Lernen (ML) .................................................................................... 35
6.1 Quellenangaben .............................................................................................. 37
7. Wissensbasierte Systeme (WBS) ......................................................................... 38
7.1 Quellenangaben .............................................................................................. 40
7.2 Expertensysteme (XPS) .................................................................................. 41
7.2.1 Quellenangaben ....................................................................................... 43
8. Intelligente Tutorielle Systeme (ITS) ..................................................................... 44
8.1 Quellenangaben .............................................................................................. 46
9. Linguistik in der KI ................................................................................................ 47
9.1 Kurzer Überblick über die Linguistik ................................................................ 47
9.1.1 Quellenangaben ....................................................................................... 48
9.2 Sprachverarbeitung ......................................................................................... 48
9.2.1 Quellenangaben ....................................................................................... 52
9.2.2 Morphologie .............................................................................................. 53
9.2.2.1 Quellenangaben ................................................................................. 55
9.2.3 Parsing und Parser ................................................................................... 56
9.2.3.1 Quellenangaben ................................................................................. 57
9.2.4 Computerlinguistik (CL) ............................................................................ 57
9.2.4.1 Quellenangaben ................................................................................. 59
9.2.5 Semantik .................................................................................................. 59
9.2.5.1 Quellenangaben ................................................................................. 60
9.2.5.2 Semantikformalismen / Formale Semantik......................................... 60
9.2.5.2.1 Quellenangaben .......................................................................... 63
9.2.5.3 Lexikalische Semantik ....................................................................... 63
9.2.5.3.1 Quellenangaben .......................................................................... 66
9.3 Anmerkungen zum Thema Linguistik .............................................................. 66
10. Interessante Materialien ..................................................................................... 68
10.1 Links.............................................................................................................. 68
10.2 MP3............................................................................................................... 69
11. Überblick über KI-Forschungsinstitute und deren Mitarbeiter, sowie wichtige
Personen .................................................................................................................. 70
11.1 Deutschland .................................................................................................. 70
11.2 Schweiz ......................................................................................................... 72
11.3 Österreich ..................................................................................................... 72
11.4 Australien ...................................................................................................... 73
11.5 Japan ............................................................................................................ 73
11.6 USA............................................................................................................... 73
11.7 Großbritannien .............................................................................................. 75
11.8 Slowenien ..................................................................................................... 76
11.9 ESA ............................................................................................................... 76
11.9.1 Quellenangaben ..................................................................................... 76
11.10 Italien .......................................................................................................... 77
11.11 Personen ..................................................................................................... 77
11.11.1 Maschinelles Lernen ............................................................................. 77
12. KI in Spielen ....................................................................................................... 79
12.1 Quellenangaben ............................................................................................ 86
13. Abschließende Worte ......................................................................................... 87
14. Hinweis ............................................................................................................... 87
14. Hinweis ............................................................................................................... 88
1. Einleitung
Die künstliche Intelligenz (KI) ist eine Querschnittswissenschaft. Der Anteil der
Informatik ist nur gering. Es befassen sich unter anderem Philosophen, Linguisten
und Psychologen mit diesem Thema. Der Teil der Informatik, welcher sich mit KI
beschäftigt, arbeitet an der Automatisierung intelligenten Verhaltens. Der Begriff
künstliche Intelligenz ist schwierig, da es keine genaue Definition für Intelligenz gibt.
Trotzdem wird er in Forschung und Entwicklung verwendet. Die KI-Forschung
unterteilt sich in Vertreter der starken und schwachen KI: Die Vertreter der starken KI
sehen den Menschen als Vorbild und wollen ihm gleiche Maschine bauen. Sie soll
wie er kreativ sein, ein Bewusstsein und Emotionen haben. Dies ist bislang visionär.
Die schwache KI will konkrete Anwendungsprobleme lösen. Man versucht mit Mitteln
der Informatik und Mathematik intelligentes Verhalten zu simulieren. Auf diesem
Gebiet wurden entscheidende Fortschritte erzielt. Außer Ergebnisse der Informatik
sind Forschungsergebnisse der Psychologie/Neurologie, Mathematik/Logik,
Kommunikationswissenschaft, Philosophie/Linguistik eingeflossen.
Ich versuche in meiner Projektarbeit die verschiedenen Gebiete der Künstlichen
Intelligenz kurz zu beleuchten und auf aktuelle Strömungen einzugehen. Dies
umfasst die Beschäftigung mit der geschichtlichen Entwicklung, mit unterschiedlichen
Intelligenztheorien, dem Kognitivismus, dem Behaviorismus, der Linguistik, KI in
Spielen und dem modernen Denkansatz des Embodiment. Abschließen werde ich
mit einer Übersicht über Institute, welche sich mit KI auseinander setzen und einem
Ausblick in die Zukunft.
http://www2.hu-berlin.de/humboldt-forum/kabinette/large/robodog.jpg
2. Geschichtliche Entwicklung
Es geht eine besondere Faszination von Androiden, Cyborgs und Robotern aus, die
dem Menschen ähnlich sind. Als Kind erschafft man sich bereits Fantasiewesen und
vielleicht entsteht daher der Wunsch ihnen im erwachsenen Alter Leben
einzuhauchen. Dies inspiriert Schriftsteller, Filmemacher und Forscher.
Der Wunsch künstliche Wesen zu erschaffen, ist so alt wie die Menschheit. Im alten
Ägypten soll es Götterstatuen gegeben haben, die ausgeklügelte Mechanismen
enthielten und sich somit bewegen und angeblich auch sprechen konnten. Sie sollen
den Gläubigen geantwortet und prophezeit haben. Man hielt sie für göttlich inspiriert
und nahm an, dass sie eine Seele besitzen.
In der griechischen Antike schuf Hephaistos (Gott des Feuers und der
Schmiedekunst) Talos einen Riesen aus Bronze, der die Insel Kreta bewachen sollte.
Der erster „Riesenroboter“ der Weltgeschichte kam durch Ray Harryhausen im Film
„Jason und die Argonauten“ auf die Leinwand.
Dem Mathematiker und Philosoph Archytas von Tarent (428-350 v. Chr.), ein
Zeitgenosse Platons, gilt als Begründer der mathematischen Mechanik. Man schreibt
ihm die Erfindung der Schraube und des Flaschenzuges zu. Er ist der Konstrukteur
der berühmten Taube von Archytas, welche fliegen konnte.
Aus dieser Zeit sind auch die ersten Automaten überliefert, die Heron von
Alexandrien (ungefähr zwischen 250 und 150 v. Chr.) erfand. Für das katroptische
Theater baute er Maschinen die Spezialeffekte wie Bühnenblitze und -donner,
selbstständig öffnende und schließende Türen, automatische Musik auf Zimbeln und
Trommeln Ausfluss von Wein oder Milch aus dem Becher einer Figur, sich selbst
entzündende Opferfeuer und tanzende Figuren realisierten.
Später wimmelte es nur so von Behauptungen, irgendwer habe eine Maschine
gebaut, die selbstständig handelte. Angeblich wurden teilweise sogar lebendige
Wesen geschaffen, wie der Joseph Golem (um 1580), der die jüdische Gemeinde in
Prag beschützen sollte.
Im „Discours de la Méthode“ behauptete René Descartes
(1596 – 1650), dass der Mensch mit Ausnahme der Seele
und des Verstandes eine zwar wundervolle, aber letztlich
doch mechanische Maschine sei.
Bald gab es auch kunstvolle Spielzeuge. Besonders zu
erwähnen wäre die mechanische Ente, die im Jahre 1738
von Jacques de Vaucanson gebaut wurde. Sie konnte mit
den Flügeln schlagen, essen, trinken und über ein
kompliziertes Röhrensystem verdauen und ausscheiden. Es
wurden viele mechanische Puppen und andere Figuren
gebaut, die die Menschen damaliger Zeit begeisterten.
Der französische Arzt und Philosoph La Mettrie (1709 – 1751)
behauptete in seinem Buch „L´homme machine“ (Der
Maschinenmensch) sogar, alles am Menschen wäre
maschinell, einschließlich der Seele und der Denkprozesse.
Der Mensch war damit zur göttlich konstruierten
mechanischen Maschine geworden, ein hochkomplexes
mechanisches Uhrwerk. Diese Aussage machte La Mettrie
mehr und mehr zur Unperson seiner Zeit.
Mit dem englischen Mathematiker
Charles Babbage (1792 – 1871)
begann das Zeitalter der Computer.
Zwar gab es vorher schon einfache
mechanische
Rechner
von
Schickard, Pascal und Leibniz,
jedoch die von Babbage enthielt
alle
wesentlichen
Funktionen
heutiger Rechner. Dieser dient als
Vorbild
für
die
Computerarchitekturen des 20.
Jahrhunderts. Seine Maschine war
aufgeteilt in Speicher- und Rechenwerk. Sie enthielt einen
Satz Grundoperationen und konnte mit Lochkarten programmiert werden. Babbage
konstruierte zuerst die Differenz-Maschine. Das Modul der difference engine bestand
aus 25000 Einzelteilen. In fertig gebautem Zustand wäre sie mehrere Meter groß und
viele Tonnen schwer gewesen. Es wurden aus Kostengründen jedoch nur 2000 Teile
montiert. Danach wurde das Projekt eingestellt. Die Maschine wurde von dem
Feinmechaniker Joseph Clement gebaut. Sie existiert heute noch und ist voll
funktionsfähig. Babbage hatte die Maschine konstruiert, um damit mathematische
und astronomische Tabellen zu berechnen.
Die Gräfin Ada Lovelace (1815 – 1852) war von der Maschine
begeistert. Sie entwickelte im Rahmen einer Arbeit die ersten
Computerprogramme und somit die erste Software der Welt.
Georg Boole (1815 – 1864) beschrieb
in seinem Werk „Gesetze des Denkens“
1854 die „symbolische Logik“. Damit
wollte
er
die
mathematischen
Grundlagen
des
menschlichen
Denkens schaffen und somit die
Algebra des menschlichen Intellekts.
Die Prinzipien des logischen Denkens
wurden als Folge von Ja/Nein Antworten dargestellt und
in Binärzahlen ausgedrückt. Der erste Schritt zu
intelligenten Computerprogrammen waren 0 und 1.
Der Begriff „Maschinenmensch“ und die Erfindung des Computers sind das
Fundament für die klassische KI-Forschung und Robotik des 20. Jahrhunderts. Das
Wort „Roboter“ tauchte erstmals 1921 in dem Theaterstück „Rossum’s Universal
Robots“ von Karel Čapek auf. In slawischen Sprachen bedeutet „rabota“ Arbeit.
Die Geburtsstunde des Forschungsgebietes der künstlichen Intelligenz war der
01.07.1956. Es wurde eine Konferenz am Dartmouth College in New Hampshire
(USA) durchgeführt, an der Computerwissenschaftler, Psychologen, Linguisten, und
Philosophen teilnahmen. Sie sprachen darüber, wie man Maschinen mit intelligentem
Verhalten entwickeln könnte.
Shannon
Rochester
Minsky
McCarthy
Sie wurde von John McCarthy, Marvin Minsky, Nathan
Rochester und Claude Shannon organisiert. Als anerkanntes
Kriterium für Intelligenz galt damals der Turing-Test. Dieser
beinhaltet folgende Aussage: Man
erklärte das Verhalten eines
Computers für intelligent, wenn es
von der entsprechenden Leistung
eines Menschen nicht mehr zu
unterscheiden war.
Turing
Allen Newell (1927 – 1992) und Herbert
Simon (1916 – 2001) von der Universität
Carnegie Mellon in Pittsburgh formulierten
die Physical Symbol System Hypothesis,
nach der Denken Informationsverarbeitung,
Informationsverarbeitung
ein
Rechenvorgang, also Symbolmanipulation
ist. Nach ihrer Hypothese kommt es somit
beim Denken auf das Gehirn nicht an.
„Intelligence is mind implemented by any
patternable kind of matter“, d. h. die
Intelligenz ist unabhängig von der Trägersubstanz. Diese These wird von den
Vertretern der starken KI geteilt, z. B. von Marvin Minsky (geb. 1927) von der
Massachusetts Institute of Technology (MIT), der in der künstlichen Intelligenz die
Überwindung des Todes sieht oder dem Roboterspezialisten
Hans Moravec (geb. 1948) von der Carnegie Mellon University,
der in dem Buch „Mind Children“ (Kinder des Geistes) das
Szenario des postbiologischen Lebens beschreibt. Seine
Vorstellung geht dahin, dass ein Roboter das gespeicherte
menschliche Wissen auf einen Computer überträgt. Damit wird
die Biomasse des Gehirns überflüssig. Dies ist der Beginn des
posthumanen Zeitalters. Das gespeicherte Wissen bleibt
beliebig lange verfügbar.
Die Anfangsphase der KI war geprägt von fast grenzenloser
Erwartungshaltung im Hinblick auf Computer. Simon
prognostizierte 1957, dass in den nächsten zehn Jahren ein
Computer Schachweltmeister sei und einen mathematischen Satz entdecken und
beweisen würde. Das traf nicht ein. Simon wiederholte dies 1990 ohne eine zeitliche
Festlegung. 1997 schlägt der Schachcomputer „Deep Blue“ den Schachweltmeister
Garry Kasparov in sechs Partien.
Simon und Newell entwickelten in den 60-er Jahren den „General Problem Solver“,
ein Programm, dass mit einfachen Methoden beliebige Probleme lösen sollte. Das
Projekt wurde nach zehn Jahren eingestellt.
McCarthy schlug 1958 vor das gesamte menschliche Wissen in homogene formale
Darstellungsform, Prädikatenlogik 1. Stufe zu bringen. Die Idee war es, einen
Theorem-Beweiser zu konstruieren, um die symbolischen Ausdrücke zusammen zu
setzen, um das Wissen der Welt zu diskutieren.
Joseph Weizenbaum (1923 – 2008) vom MIT entwickelte
das Programm ELIZA. Es simuliert den Dialog zwischen
Psychiater und Patient. Er stellte es 1965 vor. Die
Öffentlichkeit war geradezu verblüfft. ELIZA leitet
syntaktische Symbolismen in der Programmiersprache
LISP ab und reagiert auf bestimmte Schlüsselwörter und
Satzmuster mit Umstellungen und Einsetzungen. So
entstand der Anschein beim Benutzer, ELIZA sei
intelligent und einfühlsam.
Die KI erzielte auf den folgenden Gebieten große Erfolge:
- Strategiespiele (Schach, Dame  Dameweltmeister ist Computerprogramm
Chinook seit 1994, usw.)
- mathematische Symbolverarbeitung
- Simulation von Robotern
- beim Beweisen von logischen und mathematischen Sätzen
- bei Bild- und Spracherkennung
- bei Expertensystemen.
2.1 Quellenangaben
http://www.takimo.de/index.html
 Kapitel „Künstliche Intelligenz 1 und 2
http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
http://www.wissenschaft.de/wissenschaft/hintergrund/280768.html
http://de.wikipedia.org/wiki/George_Boole
http://de.wikipedia.org/wiki/Charles_Babbage
http://de.encarta.msn.com/sidebar_81506269/Spektrum_der_Wissenschaft_Die_Diff
erenzmaschine_von_Charles_Babbage.html
http://www.pc-zub-museum.de/index.html
http://209.85.229.132/search?q=cache:oqaOOrK4CTYJ:www.doepel.de/doepel/Vorle
sungen/Scripte/geschichte_der_ki.pdf+erfolge+der+ki&cd=3&hl=de&ct=clnk&gl=de&l
r=lang_de
3. Intelligenz
Die Intelligenz ist ein Phänomen, welches durch seine Komplexität so unbegreiflich
ist, dass der Mensch ihr noch nicht alle Geheimnisse abringen konnte. Es machen
sich die unterschiedlichsten Wissenschaften Gedanken darüber, was Intelligenz ist,
wie sie entsteht und letztendlich auch darüber, ob man intelligente Maschinen bauen
kann und sollte. Ich habe ein paar Aussagen in den folgenden Abschnitten
aufgelistet. Man kann davon ausgehen, dass dies keine umfassende Erklärung ist
und nur bruchstückhaft beschreibt, was Intelligenz ist.
Allgemein könnte man Intelligenz so beschreiben. Es sind alle kognitiven und
psychischen Fähigkeiten eines Menschen. Dazu zählt man unter anderem
Konzentration, Vorstellung, Gedächtnis, denken, lernen, Sprache und die Fähigkeit
mit Zahlen und Symbolen umgehen zu können.
1905 befanden Binet und Simon:
„Die Art der Bewältigung einer aktuellen Situation: gut urteilen, gut verstehen, gut
denken, das sind die wesentlichen Bereiche der Intelligenz.“
Guthke definierte 1996 Intelligenz so:
„Intelligenz ist der Oberbegriff für die hierarchisch strukturierte
Gesamtheit jener allgemeinen geistigen Fähigkeiten, die das
Niveau und die Qualität der Denkprozesse einer Persönlichkeit
bestimmen und mit deren Hilfe die für das Handeln wesentlichen
Eigenschaften einer Problemsituation in ihrer Zusammensetzung
erkannt und die Situation gemäß dieser Einsicht entsprechend
bestimmter Zielsetzungen verändert werden kann.“
Spearman entwickelte die Zwei-Faktoren-Theorie. Nach
dieser gibt es einen g-Faktor (g = general), welcher die
allgemeine Intelligenz beschreibt und deren Ausprägung u.
a. die Verarbeitungsgeschwindigkeit, die geistige Kapazität
und die intellektuelle Leistung – bestimmt. Etwas salopp
könnte man sagen, ob eine Person eher ein simpler
Charakter oder ein Genie ist. Neben dem g-Faktor gibt es
seiner
Meinung
nach
spezifische
dem
g-Faktor
untergeordnete und durch ihn beeinflusste Faktoren, die so
genannten s-Faktoren (s = spezifisch). Sie beeinflussen die
Leistung eines Menschen in bestimmten Bereichen, so z. B.
bei mathematischen Aufgaben, bei verbalen oder räumlichen
Problemstellungen.
Cattell legte sich ebenfalls auf zwei Faktoren fest. Er nannte
sie fluide und kristalline Intelligenz, wobei die fluide sich auf
die angeborene bzw. vererbte Intelligenz bezieht, die nicht
durch die Umwelt verändert werden kann und z. B. die geistige
Kapazität, die Auffassungsgabe und das generelle
Verarbeitungsniveau umfasst. Die kristalline Intelligenz
hingegen bezieht sich auf alle im Laufe des Lebens durch die
Umwelt beeinflussten und gelernten Fähigkeiten. Die
kristalline Intelligenz wird von der fluiden bestimmt. Sie
umfasst explizites Wissen, wie z. B. Faktenwissen und auch
implizites, wie beispielsweise Fahrrad fahren und Rechnen.
Guilford entwickelte das „tetraedische Modell“. Es besteht
aus drei Dimensionen. Die erste Dimension sind die
Denkinhalte. Er unterscheidet hier vier Einteilungen, z. B.
abstrakte und figurale Denkinhalte. Die zweite Dimension ist
die der Denkoperationen. Es gibt fünf Abstufungen. Hierzu
zählen beispielsweise Konvergenz- und Divergenzvorgehen.
Die dritte Dimension schließt die Denkresultate ein. Guilford
unterteilt sie in sechs Kategorien, z. B. das Finden einer
neuen, einzigartigen Lösung zu einem Problem, das Finden
von Kategorien und Klassen oder das Übertragen einer
Lösung von einer auf eine andere Situation. „Diese drei
Dimensionen spannen also, bildlich dargestellt, ein dreidimensionales
Koordinatenkreuz auf. In dieses kann man sich nun einen Quader denken, auf
dessen drei sichtbaren Flächen in kleinen Rechtecken alle möglichen Kombinationen
der drei Dimensionen dargestellt sind (darum tetraedisches Modell, da diese drei
Flächen des Quaders bedeutend sind). Die 4 × 5 × 6 = 120 Kombinationen stellen
nach Guilford jeweils einzelne Intelligenzbereiche dar.“ (als Zitat von Wikipedia
übernommen, um die Aussage nicht zu verfälschen) Die Vertreter dieses Modells
konnten bis heute rund einhundert Aufgaben zu den Bereichen finden, so dass noch
ca. zwanzig ausstehen.
Die folgende Abbildung zeigt eine grafische Darstellung des Modells von Guilford.
Der Berliner Jäger entwickelte das Berliner Intelligenzstrukturmodell Dazu führte er
Experimente mit Oberstufenschülern durch. Es entstand ein Modell, das hierarchisch
und bimodal strukturiert ist. Er extrahierte sieben hochgradig generelle
Hauptkomponenten, die in die beiden Modalitäten Operationen und Inhalte gegliedert
werden. Die sieben Komponenten sind:
- B: Bearbeitungsgeschwindigkeit (Arbeitstempo, Auffassungsleichtigkeit,
- Konzentrationskraft bei leichten Aufgaben)
- M: Merkfähigkeit (aktives Einprägen und kurz- oder mittelfristiges
Wiedererkennen oder Reproduzieren von verbalen, numerischen und
figuralen- bildhaften Material)
- E: Einfallsreichtum (flüssige, flexible und auch originelle Ideenproduktion, die
an Verfügbarkeit vielfältiger Informationen, Reichtum an Vorstellungen und
das Sehen vieler verschiedener Seiten, Varianten, Gründen für Möglichkeiten
von Gegenständen und Problemen vorausgesetzt, wobei es um
problemorientierte Lösungen geht, nicht um ungesteuertes Luxurieren der
Fantasie)
- K: Verarbeitungskapazität (Verarbeitung komplexer Informationen bei
Aufgaben, vielfältiges Beziehungsstiften, formallogisch exaktes Denken und
sachgerechtes Beurteilen von Informationen erfordern)
Die Modalitäten bestehen aus:
- V: Sprachgebundenes Denken (verbal; Fähigkeitsbündel entspricht dem Grad
seiner Aneignung und Verfügbarkeit und scheint bei allen sprachgebundenen
Operationen mitbestimmend zu sein)
-
N: Zahlengebundenes Denken (numerisch; Fähigkeitsbündel entspricht dem
Grad seiner Aneignung und Verfügbarkeit und scheint bei allen
zahlengebundenen Operationen beteiligt zu sein)
- F: Anschauungsgebundenen Denken (Figural-bildhaft)
Jäger sieht sein Modell nicht als endgültig an, sondern eher als Modellkern, welcher
offen ist für Erweiterungen.
Die folgende Abbildung zeigt Jägers Modell.
Nach Lehrl basiert Intelligenz auf
Informationsverarbeitungsgeschwindigkeit und
Gedächtnisspanne. Im Präfrontalhirn sei der Arbeitsspeicher
lokalisiert. Er entwarf den Kurztest für allgemeine Basisgrößen
der Informationsverarbeitung.
Sternberg
vertritt
den
Informationsverarbeitungsansatz. Sein triachisches
Modell beinhaltet drei Theorien. Die erste Theorie ist
die Kontexttheorie, was bedeutet, dass jeder Mensch
über eine kultur- bzw. umweltspezifische Intelligenz
verfügt. Die zweite heißt Zwei-Facetten-Theorie, d. h.
zur Untersuchung der Intelligenz ist es nicht nur nötig,
die zugrunde liegenden Lösungsprozesse, die
Durchführung und Ergebnisse zu erfassen. Weiterhin
ist es wichtig die Routine bzw. Automatisierung der
Prozesse zu erkennen, da dies einen primären
Einfluss auf Akkuratesse und Ergebnis einer Lösungsstrategie hat. Die letzte und
damit dritte Theorie splittet sich in fünf Komponenten und wird daher
Komponententheorie genannt.
- Performanzkomponenten (bereichsspezifische Fähigkeiten bzw.
Lösungsstrategien)
- Metakomponente (entspricht weitestgehend einer übergeordneten exekutiven
Kontrolle)
- Akquisitionskomponente (Bezug auf speichern und enkodieren von
Informationen)
- Retentionskomponente (bezieht sich auf Behalten und Abrufen von
Informationen aus dem Gedächtnis)
- Transfer-Komponente (Übertragung von Wissen oder Fertigkeiten auf andere
Problemstellungen und Situationen)
Er definiert Intelligenz als das Lernen aus Erfahrung, abstraktes Schlussfolgern, die
Fähigkeit, sich einer ständig ändernden Umwelt anzupassen und über die Motivation
zu verfügen, sich immer neues Wissen anzueignen.
Nach Thurstone beruht Intelligenz auf den Faktoren räumliches
Vorstellungsvermögen, Rechenfertigkeit, Sprachverständnis,
Wortflüssigkeit, Gedächtnis, Wahrnehmungsgeschwindigkeit und
logischem Denken, Seine Theorie wird als Multiple-FaktorenTheorie bezeichnet. Intelligenz ist also nicht gleich Wissen und
Klugheit, sondern eher die Befähigung mit Wissen und Bildung
etwas anfangen zu können. Intelligenz ist nicht gleich zu setzen
mit Lebenserfolg. Daraus lässt sich ableiten, dass die eben
genannten Faktoren nicht ausreichend sind.
In den letzten Jahren stellte man sich die Frage, ob es überhaupt
eine allgemeingültige Definition für Intelligenz geben kann oder ob es verschiedene
Intelligenzen für unterschiedliche Lebensbereiche gibt. Man spricht daher von
emotionaler und sozialer Intelligenz, von Bewegungsintelligenz bei Tänzern und
Sportlern sowie von temporaler Intelligenz, die die Fähigkeit zur Organisation
zeitlicher Abläufe beschreibt.
Man sieht, wenn man all diese Erklärungsansätze studiert, wie Komplex die
Intelligenz ist. Ich vermute, sich auf einen Erklärungsansatz zu versteifen, kann
einem die Intelligenz nicht vollständig aufschlüsseln. Ich denke, dass noch viel
Forschung nötig ist, um eine halbwegs umfassende Beschreibung zu ermöglichen.
Was ich bei allen Theorien bedauerlich finde ist, dass sie sich nur auf den Menschen
beziehen und andere Lebewesen dieses Planeten, Tiere, Pflanzen, nicht in diese
Modelle passen. Würde man versuchen beispielsweise die Intelligenz eines Hundes
mit einem der Modelle zu messen, würde er an verschiedenen Faktoren scheitern
und wäre somit nicht intelligent. Meiner Meinung nach brauchen wir ein
Intelligenzmodell, welches alles Leben einbezieht.
3.1 Quellenangaben
http://www.freenet.de/freenet/fit_und_gesund/gesundheit/gehirn_psyche/iq/index.htm
l
http://www.stangl-taller.at/TESTEXPERIMENT/testintelligenzmodelle.html
http://209.85.129.132/search?q=cache:YUgmg5H8w1MJ:www.staff.unimainz.de/hock/pers/intelligenz1.pdf+definition+intelligenz&cd=7&hl=de&ct=clnk&gl=d
e
http://de.wikipedia.org/wiki/Intelligenztheorie
http://www.psychologie.uni-mannheim.de/psycho2/proj/wmc/BIS_beschreibung.html
http://psydok.sulb.uni-saarland.de/volltexte/2005/502/html/www.uniwuerzburg.de/sopaed1/breitenbach/intelligenz/morpho.htm
 Guilfords tetraedisches Modell
http://www.profilingportal.de/intelligenz_iq_test/intelligenz.htm
http://www.medizinfo.de/kopfundseele/alzheimer/intelligenz_definition.shtml
http://www.wort-und-wissen.de/index2.php?artikel=disk/d03/4/d03-4.html
 Bonusmaterial
http://www.capurro.de/
http://www.capurro.de/ki.html
 Bonusmaterial
http://www.phf.uni-rostock.de/fkw/iph/thies/KI.html
 Bonusmaterial
http://www.uni-protokolle.de/Lexikon/K%FCnstliche_Intelligenz.html
 Bonusmaterial
4. Embodiment
4.1 Allgemeines
Der Begriff Embodiment kommt aus der Kognitionswissenschaft und bedeutet
„Verkörperung“ oder „Inkarnation“. Das bedeutet, Intelligenz benötigt einen Körper
und setzt eine physikalische Interaktion voraus. Dies steht dem Verständnis der
klassischen Interpretation von Intelligenz diametral entgegen. Das
Intelligenzverständnis des Embodiment wird von der KI-Forschung als „Complete
agent“ bezeichnet.
Seit der Wende zum 21. Jahrhundert findet ein Umdenken statt. Die Vertreter der
Embodiment-These sprechen von „verkörperten“ oder
„leibhaftigen“ Geist. Alles Geistige ist nur zu verstehen, wenn
man es als Produkt einer Wechselbeziehung zwischen Körper
und Umwelt sieht, sagt Shaun Galagher, Philosoph an der
University of Central Florida und Vordenker der
Embodimentidee. Er begründet das so: „Die Gestalt unseres
Körpers determiniert die Erfahrungen, die wir mit ihm
überhaupt machen können. Wenn Sie einen anderen Körper
hätten, würden Sie die Welt auch ganz anders wahrnehmen.
Machen Sie doch einmal folgendes Gedankenexperiment: was
würde passieren, wenn man die so genannte „menschliche
Seele“ aus dem menschlichen Körper herausnehmen und
einem Frosch einpflanzen würde? Hätten Sie dann wohl noch die gleiche Sicht der
Welt? Ich würde sagen: natürlich nicht! Denn das Auge oder das Gehirn des
Frosches sind so anders gebaut und so spezifisch an die Umwelt dieses Tieres
angepasst, dass sich die Welt des Frosches und des Menschen gravierend
voneinander unterscheiden. Intelligenz, Bewusstsein und Denken leiten sich aus
dem Handeln des Menschen in seiner Umwelt ab. Einem Handeln, das eben
grundlegend auf körperlichen Wechselbeziehungen mit dieser Umwelt beruht.“
Wie weit kommt man mit diesem Ansatz und kann man ihn experimentell
untermauern?
Der Kognitionswissenschaftler Peter König und sein
Team von der Universität Osnabrück schnallen 5
Probanten einen Gürtel mit 13 Vibratoren um, welcher
einen elektronischen Kompass enthält, der auf den
magnetischen Nordpol geeicht ist. Somit ist immer der
Vibrator aktiv, der Norden am nächsten ist. Das
Forscherteam geht der Frage nach: Kann der Mensch
den Himmel spüren? Gelingt es dem Menschen, eine
neue Form sinnlicher Wahrnehmung zu entwickeln, wenn
sein Körper in besonderer Weise mit der Umwelt
interagiert? Man weiß von einigen Tierarten (Tauben,
Seeschildkröten, Haien), dass sie magnetische
Informationen zur Orientierung nutzen. Können auch Menschen für magnetische
Informationen empfänglich werden? Die Probanten durchliefen eine mehrwöchige
Trainingsphase, in der sie sich aktiv in ihrer Umwelt bewegten. Nachdem sie sich an
den Gürtel gewöhnt hatten, folgten verschiedene Tests.
Ein Test war beispielsweise, dass die Probanten mit Augenklappen durch ein
Labyrinth mussten. Sie waren durchschnittlich schneller durch als Kontrollpersonen
ohne Gürtel.
Ein Proband berichtete: „Also wenn wir jetzt zum Beispiel die Tür aufmachen, habe
ich im Moment so ein Gefühl, okay, der Gang geht nach rechts und nach links, dann
gibt's diese T-Kreuzung, dann kann ich ein Stück geradeaus gehen und ich habe so
ein Gefühl dafür, wie die Räume hier ringsum angeordnet sind, Und wenn sie mit
dem Gürtel herumlaufen, ist dieser Bereich zehn mal so groß. Sie haben ein ganz
anderes Verständnis für die räumliche Anordnung in ihrer Umgebung. Sie erlaufen
sich eine Stadt auch mehr. Weil wenn Sie um einige Ecken gehen, behalten Sie die
Orientierung, das heißt, Sie haben ein Gefühl für die räumliche Relation, wo ich
wohne, wo meine Arbeitsstelle ist, wo der Bahnhof ist, wo die Einkaufspassage ist –
wie aus der Vogelperspektive sind die räumlichen Beziehungen ganz klar.“
Bei vier von fünf Probanten war das Experiment erfolgreich, jedoch verloren sie ihre
neue Fähigkeit schnell nachdem sie den Gürtel abgegeben hatten. Dies ist aber auch
nicht verwunderlich, da sie durch die Evolution nicht im Gehirn verdrahtet wurde.
König sagt zu dem Experiment, bei dem der menschliche Geist mit einem neuen
Körpersinn angereichert werden sollte: „Wir wissen im Endeffekt nicht, warum die
einen Versuchspersonen es berichten und die anderen nicht. Ich kann ihnen nur
sagen: es kann klappen!“
Die Forscher wollen noch weitere Versuchspersonen mit dem Gürtel durch die Welt
schicken und wollen dann auch schauen, welche Effekte der neue Sinn im Gehirn
auslöst.
Shaun Galagher meint, der Geist entsteht aus den Bewegungen des Körpers in der
Umwelt. „Für mich ist der Geist keine Substanz, die man an einem bestimmten Ort
festmachen könnte. Der Geist ist vielmehr so etwas wie die Summe der Erfahrungen
meiner Körperbewegungen. Er entwickelt seine Gestalt aus meinen Bewegungen in
der Welt heraus.“
Vom Zusammenhang von Geist und Bewegung sind fast alle Anhänger des
Embodiment-Konzepts fasziniert. Einige halten ihn sogar für den Schlüssel, um den
Geist künstlich nachbauen zu können.
Wir befinden uns im Labor für Künstliche Intelligenz an der Universität Zürich. Ein
Hund hoppelt herum, weicht Hindernissen aus, läuft mal langsamer und mal
schneller. Er besteht aus Metallstangen, Gewichten, hat einen Motor dran und
Drucksensoren an den Pfoten. Eine Figur, die aussieht wie aus einem Comic, weder
Mensch noch Tier läuft hier auch herum. Deren Kern besteht aus einem elastisch
federnden Metallteil. Die Füße sind ebenfalls aus Metall und mit Sensoren versehen.
Es gleitet und hüpft über den Boden. Beide besitzen keine zentrale Steuereinheit, die
die Bewegungen reguliert. Allein die Drucksensoren, die Gewichte, der Motor und die
elastischen Schwingungen der Konstruktion sorgen für Bewegung. Der Motor steuert
nicht direkt die Beine, sondern setzt nur die Teile der Konstruktion gegeneinander in
Bewegung.
Die der jeweiligen Geschwindigkeit angemessene Gehbewegung findet die
Konstruktion ganz allein. Sie beherrscht 20 verschiedene Gangarten je nach
Motoreinstellung. Durch das Labor hoppeln, wippen, laufen und schwimmen noch
viele andere solcher Gestalten.
Rolf Pfeifer, der Leiter des Labors, versuchte
früher auf klassische Weise KI zu erschaffen. Er
schrieb Software um Robotern und
Expertensystemen Intelligenz einzuhauchen. Da
er auf diesem Gebiet nicht weiter kam, wurde er
zu einem Vordenker der Embodied Artificial
Intelligence, die die Grundhypothese vertritt,
dass Intelligenz verkörperte Intelligenz ist. Daher
untersuchen die Forscher nun die Fortbewegung.
Pfeifer sagt dazu: „Da ist es eben so - Intelligenz,
überhaupt intelligentes Verhalten - dass wir
verstehen müssen, wie diese Fortbewegung überhaupt zustande kommt, wenn wir
letztlich verstehen wollen, wie daraus Intelligenz entstanden ist. Und ich denke, wir
müssen eine solche Entwicklungsperspektive einnehmen, nicht, also das Baby
entwickelt sich ja auch so, und ich denke für das Verständnis bringt das viel mehr als
wenn ich schon das allerkomplexeste System nehme und da versuche, das zu
reproduzieren, weil dann werde ich viel zu viel von meinen eigenen Vorstellungen da
hineinproduzieren.“
„Fange bei einfachen Problemen an und versuche, sie so einfach wie möglich zu
lösen.“, ist das Prinzip von Rolf Pfeifer.
„Intelligenz liegt zunächst in der Morphologie, in der Gestalt des Körpers selbst“, sagt
Rolf Pfeifer, „oder in der Konstruktion einzelner Körperteile. Wenn ich einen Arm
nehme, der da schwingt, so lose schwingt. Der macht eine komplizierte Bewegung.
Aber die neuronale Steuerung für diesen Arm, die ist extrem einfach, weil einerseits
die Schwerkraft die Arbeit übernimmt und andererseits die entsprechende
Morphologie und die Materialeigenschaften des Körpers - also wir würden dann
vielleicht Anatomie und Gewebeeigenschaften sagen beim Menschen – die
übernehmen gewissermaßen diese Tätigkeit. Das heißt das neuronale System „weiß“
in Anführungszeichen, dass es fast nichts tun muss, weil diese Funktion vom Körper
übernommen wird. Das Informationsverarbeitende Gehirn muss oft nur grob die Bahn
der Gelenke oder die Elastizität der Muskeln steuern, alles andere macht die
körpereigene Intelligenz von selbst, wenn wir gehen oder etwas greifen.“
Dieses Zusammenspiel von körpereigener Intelligenz und der des Gehirns wollen die
Forscher verstehen und nachbauen. In diesem Zusammenhang werden auch
natürliche Materialien getestet. Die Forscher haben z. B. ein Rattenhaar über ein
Mikro geklebt und es über verschiedene Materialien bewegt und dabei die
Schwingungen gemessen. Das Resultat ist, dass das Haar viel subtiler reagiert als
jedes künstliche Material. Rolf Pfeifer fordert, dass für intelligente Roboter
gegebenenfalls auch natürliche Materialien verwendet werden, um der Intelligenz
des Körpers nahe zu kommen. Er schlug dies auch für das europäische Großprojekt
„ICUB“ (siehe auch 4.2 ICUB) vor. Die Forscher wollten einen Roboter bauen, der die
körperliche Intelligenz eines Zweieinhalbjährigen hat. Er sollte krabbeln und greifen
können.
Dafür ist nach der Meinung von Pfeifer menschenähnliches Muskelmaterial
notwendig. Er äußert sich dazu folgendermaßen: „Das haben wir eigentlich von
Anfang an ins Auge gefasst und ich bin da gewissermaßen etwas das
morphologische Gewissen in diesem Projekt. Dann hat man aber entschieden, das
kennt man weniger gut. Muskeln, das sind hochgradig nichtlineare Gebilde, da weiß
man nicht so richtig, wie man die steuern soll und das weiß man halt bei klassischen
Elektromotoren sehr viel besser. Und da hat man gesagt, damit man jetzt einfach mal
anfangen kann und wirklich etwas mal zu Stande bringt, das funktioniert, geht man
eher klassisch vor, ist sich aber bewusst, dass eigentlich die nächste Generation
anders aussehen müsste.“
Die Thematik wirft dann natürlich die Frage auf, führen natürliche Materialien und die
damit verbundene körperliche Intelligenz auch zu abstrakten geistigen Fähigkeiten,
wie Sprechen oder Denken?
Rolf Pfeifer hierzu: „Nehmen wir ein mathematisches Konzept - also viel
abstrakter als mathematisch können sie ja nicht werden nehmen wir das Konzept der Transitivität. Transitivität
heißt, dass wenn A größer ist als B und B größer ist als C,
dann ist A auch größer als C. Das ist ein abstraktes
mathematisches Konzept.“
Dazu hat die Entwicklungspsychologin Linda Smith
ein Experiment mit Kindern gemacht und gesagt:
„…das ist ja gar nicht so wahnsinnig schwierig,
dieses abstrakte Konzept: ich habe hier einen
Behälter oder einen Sack und dann habe ich da
einen kleineren Behälter, da kann ich den da rein
tun, und dann kann ich den anderen, noch einen
kleineren, den kann ich da auch rein tun. Und da
sehen die Kinder sofort: aha, der kleinste ist ja
auch im größten drin. Dann haben sie bereits so
wirklich "fully embodied" dieses abstrakte Konzept
der Transitivität an diesem einfachen Beispiel
erfahren. Also so ein riesiger Schritt ist gar nicht von diesem Embodiment bis zu
diesen abstrakten Konzepten, man tut immer so, wie wenn das so wäre, aber ich
habe das Gefühl, da ist eine viel direktere Relation da.“
Durch das Spielen und Ineinanderschachteln von verschieden großen Behältnissen
erwerben Kinder rein körperlich die Grundlage, um das mathematische Prinzip der
Transitivität zu begreifen.
Rolf Pfeifer träumt davon, dass Roboter durch diese Art Interaktion mit der Umwelt,
wie sie mit den Experiment mit den Kindern beschrieben wurde, höhere geistige
Fähigkeiten erlangen und denkt, dass das Embodiment-Konzept dazu führt, dass
sich das Menschen- und Weltbild verändern wird.
Viele KI-Forscher bezweifeln das Konzept und halten Menschenbilddiskussionen für
überflüssig. Auch unter Verfechtern des Konzepts gibt es verschiedene Ansichten.
Wie weit sollte man gehen? Ist der Geist wirklich nur ein Resultat aus der Interaktion
mit der Umwelt?
Shaun Galagher vertritt die These, dass alles Geistige letztendlich verkörpert ist. Er
erklärt es so: „Für mich gibt es nichts, was nicht verkörpert ist, noch
nicht einmal Theorien schließe ich aus. Erzählungen werden natürlich sprachlich
verfasst. Aber wenn Sie mich fragen: was ist Sprache? In einem gewissen Sinne ist
Sprache eine motorische Vervollkommnung des Körpers. Es gibt Lautsprache,
Signale mit den Händen, Gesten, das sind zunächst Körperbewegungen. Die voll
entwickelte Sprache hebt das zwar auf ein höheres Niveau, aber die
sprachlichen Äußerungen, die daraus entstehen, haben ihre Wurzeln in den
körperlichen Erfahrungen und ich bin davon überzeugt, dass man sich nie völlig
davon löst.“
Der bochumer Philosoph Albert Newen sieht es etwas anders:
„Embodiment sollte jene Phänomene umfassen, die in einer
unabdingbaren Weise verkörperlicht sind. Und das sollte man
unterscheiden von einer trivialen Verkörperung, Unser
Gesichtsausdruck ist zum Beispiel eine ganz wesentliche
Form der Verkörperung, dadurch nämlich, dass das, was ein
Gesichtsausdruck zum Ausdruck bringt in dieser Fülle und
Differenziertheit nur durch den Gesichtsausdruck und nicht
durch eine Beschreibung übermittelt werden kann. Wenn wir
Sprache verwenden, gehen wir über ein wesentliches
Embodiment hinaus, wir entwickeln dann Repräsentationen,
die wir vollständig unabhängig von einem Wahrnehmungsinput verwenden können
und zwar - Idealerweise können wir uns aufs Sofa legen und reflektieren, was wir
morgen tun wollen, einen Plan machen und dieser Plan kann dann auch am
nächsten Tag handlungsleitend sein. Alles dies ist nur möglich, weil wir kontext- und
situationsunabhängige Repräsentationen zur Verfügung haben. Das zeichnet uns
Menschen ganz wesentlich aus und scheint auch unsere enormen
Handlungsmöglichkeiten erst bereit zu stellen.
Abschließend äußere ich mich zu diesem Thema. Ich denke, dass der bochumer
Philosoph der Sache recht nahe kommt. Nicht alles ist im Endeffekt verkörpert. Die
Embodiment -Forschung ist sicherlich wichtig, um den Menschen besser zu
verstehen, um Therapiemöglchkeiten für verschiedene Krankheiten zu finden,
beispielsweise in der Psychologie, aber ich finde, man sollte es mit diesem Ansatz
nicht zu weit treiben. Roboter sind eine interessante Sache und sie können vielleicht
mittelfristig dem Menschen gute Dienste erweisen, aber ich persönlich spreche mich
gegen die Verwendung natürlicher Materialien aus, da dann die ethisch moralische
Frage aufkommt, zumindest in mir, woher diese genommen werden sollen. Ich
denke, eine Maschine sollte eine Maschine bleiben und nicht halb Maschine, halb
„Lebewesen“ sein. Jedoch kann ich diese Forschung nicht beeinflussen und es gibt
ja auch genügend Kritiker und somit sollten wir abwarten, wie sich die Sache
entwickelt und welche Erkenntnisse sich heraus kristallisieren.
4.1.1 Quellenangaben
http://de.wikipedia.org/wiki/Embodiment
http://www.dradio.de/dlf/sendungen/wib/722397/
http://209.85.229.132/search?q=cache:ecMCSgJ9rSgJ:www.ifi.uzh.ch/ailab/people/lu
nga/Download/Seminar2001/seminar20_04_2001_b.pdf+embodiment+erl%C3%A4ut
erung&cd=5&hl=de&ct=clnk&gl=de&lr=lang_de
 Abhandlung über Konstruktivismus und Nativismus (ist in Ausarbeitung nicht
enthalten – Bonusmaterial)
http://www.bildungbrauchtbewegung.ch/neu/fachtagung/thema/thema.htm
 Tagung über Embodiment
http://images.google.de/imgres?imgurl=http://upload.wikimedia.org/wikipedia/commo
ns/thumb/2/26/ShaunGallagher.jpg/180pxShaunGallagher.jpg&imgrefurl=http://en.wikipedia.org/wiki/Shaun_Gallagher_(philoso
pher)&usg=__YGijPn2AwNVrxJ93FxrnzeNAslI=&h=253&w=180&sz=9&hl=de&start=
13&tbnid=jJPspUjhphSPwM:&tbnh=111&tbnw=79&prev=/images%3Fq%3DShaun%
2BGalagher%26gbv%3D2%26hl%3Dde%26sa%3DG
http://images.google.de/imgres?imgurl=http://www.cogsci.uniosnabrueck.de/NBP/Portraits/PKhome_2006.jpg&imgrefurl=http://www.cogsci.uniosnabrueck.de/NBP/peterhome.html&usg=__XEIoshPKaKjJJZVlxE3h4v6yey0=&h=1
46&w=130&sz=4&hl=de&start=2&um=1&tbnid=ma4kIp50Av8TM:&tbnh=95&tbnw=85&prev=/images%3Fq%3DPeter%2Bk%25C3%25B6
nig%2BKognitionswissenschaftler%26hl%3Dde%26sa%3DN%26um%3D1
http://www.indiana.edu/~cogdev/aboutus/lbs.html
http://www.ruhr-uni-bochum.de/philosophy/staff/newen/
4.2 ICUB
ICUB ist ein europäisches Großprojekt, welches auf fünf Jahre
angelegt ist und von der EU mit 7,5 Millionen Euro finanziert wird.
ICUB ist ein humanoider Roboter, der mental und körperlich einem
zwei- bis dreijährigen Kind gleichen soll. Er ist ca. einen Meter
groß, wiegt 23 Kilogramm und ist sehr gelenkig. Wie bei einem
Baby, dass mit bestimmten Fähigkeiten geboren wird, wurden
ICUB einige Fähigkeiten einprogrammiert, andere sollen gelernt
und perfektioniert werden. Dies betrifft nicht nur die Bewegung und
die Wahrnehmung, ICUB kann z. B. krabbeln, sondern ganz
besonders die Interaktion mit Menschen. Das Roboterkleinkind
reagiert auf Töne, Bewegung und menschliche Gesichter und
Blicke.
Im März 2009 kam iCub an die University of Plymouth. Das europäische
Forscherteam bekommt sechs Millionen Euro für vier Jahre. In dieser Zeit soll ICUB
sprechen lernen wie ein Kleinkind es von seinen Eltern lernt. Das Projekt trägt den
Namen ITALK-Projekt (Integration and Transfer of Action and Language Knowledge
in Robots). Das Lernen soll über Interaktionsexperimente erfolgen. ICUB soll dabei
Formen in Löcher stecken und seine Handlung sprachlich wiedergeben. Die Forscher
wollen untersuchen, was notwendig ist,
um "komplexes Verhalten-, Denk- und
Kommunikationsweisen durch
individuelles und soziales Lernen zu
erwerben. Angelo Cangelosi, Professor
für KI an der University of Plymouth sagt,
dass dies sehr hochgesteckte Ziele sind,
aber dass man es versuchen kann. Zum
Schluss bleibt nur die Frage offen, ob
der Roboter auch wie ein Mensch
aussehen und sich bewegen sollte.
Eine der Ziele des ICUB-Projektes ist es die menschliche Kognition besser zu
verstehen. Diese Forschung kann zukünftig auch künstlichen Intelligenzen zugute
kommen. Natürlich kommen die Erkenntnisse auch in anderen Systemen zum
Tragen, so z. B. in intelligenten Fabriksystemen, die vielseitiger einsetzbar sind als
heutzutage. Abschließend ein Satz, der meine Situation ein wenig tangiert. Es ist
auch langfristig geplant Roboter zu bauen, die selbstständig erkennen, wenn ein
Mensch Hilfe benötigt, beispielsweise beim heben von Lasten oder wenn jemand
Hilfe im Haushalt braucht.
4.2.1 Quellenangaben
http://www.heise.de/tp/blogs/3/104313
http://archiv.unipublic.uzh.ch/magazin/umwelt/2006/2275.html
http://www.iconocast.com/B000000000000155_German/T3/News6.htm
http://www.innovationsreport.de/html/berichte/interdisziplinaere_forschung/menschliche_kognition_per_robo
ter_erforscht_130532.html
http://pressetext.de/news/090404003/menschliche-kognition-wird-per-robotererforscht/
http://www.bild.de/BILD/news/2009/04/03/roboter-baby-icub/soll-sprechenlernen.html
http://www.tecchannel.de/test_technik/news/1750166/roboter_wie_kinder_erziehen/
Videos bei Youtube
http://www.youtube.com/watch?v=5jFfgJDbwxQ
http://www.youtube.com/watch?v=jOi37NikdpM
http://www.youtube.com/watch?v=CskK7BGOsZ4
5. Psychologie
5.1 Definition
„Psychologie (aus griech. ψυχολογία, psychología „die Seelenkunde“) ist die
Wissenschaft vom Erleben und Verhalten des Menschen, also seinem Selbsterleben
- alltagspsychologisch: seinem Innenleben - und dem damit in Zusammenhang
stehenden Tun und Reagieren.
Die Psychologie ist eine bereichsübergreifende Wissenschaft. Sie lässt sich nicht
allein den Geisteswissenschaften, Sozialwissenschaften oder den
Naturwissenschaften zuordnen. Im Lauf der historischen Entwicklung der
Psychologie gab es Schwankungen in der Betonung dieser Bereiche.“
[Enzyklopädie: Psychologie. DB Sonderband: Wikipedia 2005/2006, S. 654198]
5.2 kurzer geschichtlicher Überblick
Die Psychologie ist eine relativ junge Wissenschaft. In ihr kam es oft zu
Paradigmenwechseln und es wurden oft neue Schulen gegründet. Die Psychologie
entwickelte sich aus der Philosophie und die ersten
„Psychologen“ waren Philosophen. Am Ende des 19. und
dem beginnenden 20. Jahrhundert gab es zwei Richtungen
in der Psychologie. Eine war geisteswissenschaftlich und
die andere eher naturwissenschaftlich orientiert. Durch
Wilhelm
Wundt
wurde
das
Experiment
zur
Erkenntnisfindung in die Psychologie eingeführt, mit der
Untersuchungsmethode der Introspektion (Reflexion des
Geistes
über
sich
selbst).
Man
sprach
von
Bewusstseinspsychologie. In den ersten zwei Jahrzehnten
des 20. Jahrhunderts bildete sich in den USA der
Behaviorismus heraus.
Der Begründer war John B. Watson von der Johns
Hopkins Universität aus Chicago. Er erklärte, dass der
Behaviorist die Psychologie als einen vollkommen
objektiven, experimentellen Zweig der
Naturwissenschaft sieht. Das theoretische Ziel besteht
aus der Vorhersage und Kontrolle von Verhalten. Die
Methode der Introspektion spielt keine Rolle. Watson
und Lashley, Mary Cover Jones, Holt, Hunter und
Weiss veränderten durch ihre Arbeiten die ganze
Psychologie. Die Psychologie als Wissenschaft vom
Verhalten wurde neu definiert.
Pawlow führte Tierexperimente durch und prägte damit die
klassische Konditionierung.
In Deutschland spielt der Behaviorismus anfangs keine Rolle,
da die ganzheitliche orientierte psychologische Strömung der
Gestaltpsychologie großen Einfluss hat. Zu den Vertretern
zählen Köhler, Wertheimer, Lewin und Bühler. Die Entwicklung
wurde durch den Nationalsozialismus behindert, da viele
Vertreter in die USA emigrierten.
Die Begeisterung für den Behaviorismus legte sich Anfang der
30-iger Jahre. Eine neue Blütezeit erlebt der Behaviorismus
durch die Arbeiten von Clark L. Hull (Yale University) und
Burrhus F. Skinner (später Harvard University). Durch die desolate
Nachkriegssituation hat sich der Behaviorismus in den 50-iger Jahren auch im
westlich geprägten Europa verbreitet.
In den 50-iger Jahren vollzog sich eine Veränderung. Es entwickelte sich das
Paradigma des Kognitivismus. Verantwortlich dafür waren die Arbeiten von Shannon
über Informationstheorie, Wiener über Kybernetik und Neumann, Simon, Newell über
Datenverarbeitung. Durch die technische Revolution des Digitalcomputers wurde neu
über geistige Prozesse, wie Wissen, Denken, Erkennen und Wahrnehmung,
nachgedacht. Diese Periode wird auch als kognitive Wende bezeichnet. Der
Digitalcomputer bot die Möglichkeiten, die der alten Bewusstseinspsychologie
verwehrt geblieben waren. Mit dem Computer wurden Simulationen kognitiver
Prozesse realisierbar. Die Methodik der Behavioristen wurde zwar beibehalten, aber
das Bewusstsein wurde nun auch wieder Gegenstand der Untersuchungen und die
Psychologie somit redefiniert. Der Kognitivismus ist zum dominierenden Paradigma
aufgestiegen. Dies vollzog sich in den USA seit den 60er, in Deutschland seit den
70er Jahren.
In den letzten zehn Jahren kam ein weiterer Denkansatz hinzu, welcher auf dem
Konstruktivismus von Foerster, von Glasersfeld, Maturana und Varela aufbaut. Er ist
ganzheitlich orientiert und hat seine Wurzeln u. a. auch in der Gestaltpsychologie.
Dabei werden nach konstruktivistischen Vorstellungen Wissensinhalte im aktiven
Austausch mit der Umwelt und der sozialen Gruppe konstruiert. Wissen ist somit
weniger eine Repräsentation objektiver Gegebenheiten wie im Kognitivismus,
sondern eher eine aktive und interaktive Konstruktion. Sie stellt somit subjektive
Inhalte dar und kann mit den Kriterien der Viabilität bewertet werden, d. h. ob der
jenige, der dieses subjektive Wissen konstruiert hat, sich damit in seiner Umwelt
erfolgreich zurecht findet. In der Pädagogischen Psychologie hat der
Konstruktivismus einen großen Einfluss. Weitere Einflüsse findet man in der
Psychotherapie (systemische Therapie) und in der Arbeits- und
Organisationspsychologie (z.B. Theorien des Geführtwerdens).
Neben dem Konstruktivismus nimmt in den letzten zehn Jahren die Bedeutung der
Evolutionspsychologie immer mehr zu. Es entsteht ein neues Paradigma. Es ist auf
Fortschritte in der Biologie, Verhaltensbiologie (Ethologie [Lorenz, Tinbergen, EiblEibesfeldt] und Soziobiologie [Wilson, Krebs, Davies, Maynard Smith, Voland])
zurück zu führen.
Bis auf die alte Bewusstseinspsychologie existieren heute alle Paradigmen
nebeneinander. Man sieht das Einflüsse aus verschiedenen Nachbardisziplinen (u. a.
Philosophie, Biologie, Physiologie, Computerwissenschaft) eine große Rolle spielen.
Da die soziale Interaktion des Menschen mit seiner Umwelt zu dessen Verhalten
gehört und dies in den einzelnen Strömungen auch untersucht wird, ist die
Psychologie auch eine Sozialwissenschaft (Sozialpsychologie), In der Psychologie
wird selbstverständlich auch abnormes Verhalten studiert, wobei medizinische
(psychiatrische, psychopathologische) und psychotherapeutische
(tiefenpsychologische, humanistische) Einflüsse in die Psychologie hineinkommen.
Diese Einflüsse strahlen auf Teildisziplinen, z. B. tiefenpsychologische Einflüsse auf
die Persönlichkeitspsychologie, humanistische Einflüsse auf die Arbeits- und
Organisationspsychologie, aus.
5.2.1 Quellenangaben
http://www.verhaltenswissenschaft.de/Psychologie/Geschichte_der_Psychologie/ges
chichte_der_psychologie.htm
5.3 Kognitivismus / Kognitionspsychologie
5.3.1 Kognition
Maturana beschreibt Kognition mit den Worten „to
live is to know“. Auf Deutsch kann man es als
Lebensbewältigung oder überlebensverträgliches
Handeln beschreiben.
Kognition beschreibt die Gesamtheit der Prozesse,
die mit der Aufnahme von Information, ihrer
Verarbeitung und Speicherung im Gedächtnis sowie
ihrer Nutzung und Anwendung verbunden ist.
5.3.1.1 Quellenangaben
http://www.persoenliches-wissensmanagement.com/content/definition-kognition
http://server02.is.uni-sb.de/trex/index.php?id=1.4.1.
http://images.google.de/imgres?imgurl=http://www.constructivistpsych.org/images/ph
oto_Maturana_may_2001.jpg&imgrefurl=http://www.constructivistpsych.org/archives.
htm&usg=__d0WSkYsuqALWAyPVV3mSjH3kOI=&h=399&w=436&sz=27&hl=de&start=1&um=1&tbnid=
ye1PI_kzVR8r4M:&tbnh=115&tbnw=126&prev=/images%3Fq%3DMaturana%26hl%
3Dde%26sa%3DN%26um%3D1
 Bild Maturana
5.3.2 Überblick über das Forschungsgebiet
Das Gebiet der Kognitionspsychologie beschäftigt sich mit den Strukturen des
Gehirns und der Informationsverarbeitung, d. h. mit der Reizaufnahme und dem
anschließenden Verhalten und Erleben.
Die Kognition wird als Gegenbegriff zur Emotion gesehen. Zu ihr gehören:
- menschliche Wahrnehmung
- Informationsverarbeitung
- Geist
- Denken
- Emotion und Handeln
- Intelligenz
- Sprache
- Kreativität
- Verstehen
- Urteilen
- Bewerten
- Vorstellungen
- Lernen
- Gedächtnis
Die Kognitionswissenschaften sind zumeist interdisziplinär. Zum Verständnis
kognitionspsychologischer Zusammenhänge ist ein umfangreiches Wissen über die
Neurologie erforderlich. Die Neurologie untersucht die biologischen
Kommunikationsprinzipien des Zentralen Nervensystems (ZNS). In den 50-iger
Jahren des 20. Jahrhunderts entwickelte sich die Kognitionspsychologie aus dem
Fachgebiet der allgemeinen Psychologie. Stark beeinflusst wurde sie dabei durch die
Informationstheorie. Diese Theorie geht auf Claude Shannon zurück. Sie befasst sich
mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression,
Kodierung und ähnlichen Themen. Häufig werden Kognitionspsychologie und
Kognitionswissenschaft verwechselt. Erstere ist zwar ein Teil dieser Wissenschaft,
aber mittlerweile ein eigenständiges Forschungsgebiet der Psychologie.
Die kognitive Psychologie bezieht Lösungen und Ergebnisse anderer
Wissenschaften in ihre Forschung mit ein. Dazu zählen unter anderem die
Informatik/KI sowie der Neurowissenschaften (Neuropsychologie, Neuroanatomie,
Neurobiologie und die Neurophysiologie). Es wird an einer zunehmend integrativen
Theoriebildung der Funktionsweise des menschlichen Geistes gearbeitet. Dabei
werden auch Anomalien wie Hochbegabung und klinische Störungsbilder und
Alterseffekte mit einbezogen.
5.3.2.1 Quellenangaben
http://de.wikipedia.org/wiki/Kognitionspsychologie
http://de.wikipedia.org/wiki/Informationstheorie
http://www.lexikon-psychologie.de/Kognitionspsychologie/
https://www.psychologie.hu-berlin.de/prof/kog
5.3.3 Kognitivismus
Ich habe bei meinen Recherchen über Kognitionspsychologie nach den drei
Begriffen „kognitive Psychologie“, „Kognitionspsychologie“ und „Kognitivismus“
gesucht. Leider hat keine Internetseite alle drei Begriffe miteinander vereint und da
alles ein und dasselbe ist, werde ich in diesem Kapitel das voran gegangene nur
ergänzen, da ich noch Vervollständigungsbedarf sehe.
Kognition ist vom lateinischen Wort „cognito“ abgeleitet. Übersetzt bedeutet es soviel
wie Erkenntnis, Erkennen bzw. die Erkenntnis betreffend. Mit kognitiven Prozessen
sind Wahrnehmung, Urteilen, Aufmerksamkeit, Verstehen, Problemlösen, Erkennen,
Schließen und Lernen gemeint. Im Kognitivismus wird ein Individuum als
informationsverarbeitendes Wesen angesehen.
„Während behavioristische Lerntheorien schwerpunktmäßig die äußeren
Bedingungen des Lernens (Auslösung von Reaktionen durch Reize bzw. Belohnung
oder Bestrafung des Verhaltens durch nachfolgende Konsequenzen) beschreiben,
rückt bei den kognitiven Lerntheorien die innere Repräsentation der Umwelt in dem
Mittelpunkt des Interesses.“
Edelmann (1996, 8)
Im Kognitivismus ist man bestrebt, die Blackbox des Behaviorismus offen zu legen.
In die Forschung werden innerseelische Prozesse einbezogen, wie Wünsche, Ideen,
Glaubensvorstellungen, fühlen, usw.
Das Datenverarbeitungsprinzip „EVA“ (Eingabe, Verarbeitung und Ausgabe) aus der
EDV trifft laut Lehre des Kognitivismus auch auf den Menschen zu. Der
Forschungsgegenstand des Kognitivismus ist somit die Informationsverarbeitung.
Es werden vor allem die psychischen Phänomene untersucht, die mit dem
Erkenntnisprozess zusammen hängen, Lernen, Denken, Wahrnehmung, Sprache.
Der Erkenntnisprozess wird als konstruktive Auseinandersetzung mit der Umwelt und
der Interpretation dieser gesehen. Das Verhalten des Menschen ist von Verstehen
und Einsicht geleitet. Für kognitive Leistungen werden neuronale Netze verwendet.
Zitate:
„Kognitivismus befasst sich primär mit der Erklärung jener höheren geistigen
Prozesse, die nicht einfach durch ein S-R-Paradigma zu erklären
sind. Kognitive Psychologen haben sich primär für Gebiete der Wahrnehmung,
Informationsverarbeitung, Entscheidungsprozesse und Wissen
interessiert.“
Lefrancois (1994, 120)
„Im kognitiven Modell wird angenommen, dass es die Prozesse der
Informationsverarbeitung sind, die festlegen, wie ein Individuum sich verhalten wird.“
Zimbardo (1992, 9)
„Kognitionspsychologie ist die Wissenschaft, die sich mit der menschlichen
Informationsverarbeitung befasst. Ihr Gegenstand, oft als Kognition
bezeichnet, betrifft die Arten von Informationen, die wir in unserem Gedächtnis
haben, und die Vorgänge, die sich auf die Aufnahme, das
Behalten und Verwenden solcher Informationen beziehen.“
Wessels (1998, 14)
Vertreter:
- Jean Piaget (1896 – 1980)
-
David Ausubel (geb. 1918)
- Robert M. Gagné (1887 – 1967)
kein Bild gefunden
- Jerome S. Bruner (geb. 1915)
5.3.3.1 Quellenangaben
http://www.edit.uni-essen.de/lp/kognitiv/kognitiv.htm
http://de.wikipedia.org/wiki/Kognitivismus
http://arbeitsblaetter.stangl-taller.at/LERNEN/LerntheorienKognitive.shtml
http://projekte.vhs.at/lerntheorie/kognitivismus
http://dsor-fs.upb.de/~blumstengel/Kognitivismus.html
 Bonusmaterial
5.4 Behaviorismus
Behaviorismus ist vom englischen behavior = Verhalten abgeleitet. Der
Behaviorismus versteht sich als Verhaltenswissenschaft. Den Startschuss des
Behaviorismus gab John B. Watson 1913 mit seinem Werk „Psychology as the
Behaviorist views it“. Er zerlegte alles in Reiz und Reaktion (englisch: stimulus–
response).
Ein zweiter Wegbereiter des Behaviorismus war Edward Lee
Thorndike mit seinem Gesetz der Wirkung: Bestrafung und
Belohnung. Das Gesetz besagt, dass Verhalten, welches
belohnt wird, Tendenz zur Wiederholung zeigt und welches
bestraft wird, eliminiert wird. Er machte Experimente mit
Katzen, die er in Labyrinthe einsperrte und stellte fest, dass
sie erst nach Versuch und Irrtum vorging. Danach wurde die
Katze immer schneller, um ihren Irrgarten zu entkommen,
wenn sie Futter bekam. Er schlussfolgerte, dass die Katze
das Fressen mit dem richtigen Verhalten verband. Das Tier
verliert ihr Verhalten, wenn sie bestraft wird. Die klassischen
Behavioristen betrachten den Organismus als „Blackbox“. Sie konzentrieren sich nur
auf die Prozesse, die zwischen Körper und Umwelt ablaufen. Dabei sind die
physiologischen Vorgänge uninteressant. Der Behaviorismus war vor allem in den
USA weit verbreitet und erlebte seine Blütezeit nach dem zweiten Weltkrieg bis
hinein in die 60-iger Jahre. Er wird wissenschaftstheoretisch grob in zwei Gruppen
unterteilt:
- Methodologischer Behaviorismus
- Radikaler Behaviorismus.
Er lässt sich in drei Zeitabschnitte gliedern:
- 1913 - 1930 Klassischer Behaviorismus
- 1930 - 1950 Neobehaviorismus
- ab 1950
Radikaler Behaviorismus.
5.4.1 Quellenangaben
http://de.wikipedia.org/wiki/Behaviourismus
http://www.verhaltenswissenschaft.de/index.htm
http://ki.informatik.uniwuerzburg.de/forschung/publikationen/studienarbeiten/faulhaber/kap2-2-2-3-1.html
http://www.uni-konstanz.de/agmoral/lernen/01_lernen/lerntheorien_Behaviourismus.htm
 Bonusmaterial
5.4.2 Methodologische Behaviorismus
Der Methodologische Behaviorismus kennt zwei Typen von Ereignissen:
- öffentliche, beobachtbare Ereignisse,
- private, unbeobachtbare Ereignisse.
Bei Untersuchungen geht man nach folgendem Schema vor:
- Es existiert eine Theorie mit theoretischen Konzepten. Diese soll das
Verhalten unter bestimmten Bedingungen vorher sagen.
- Die Theorie soll durch ein Experiment überprüft werden.
- Nach dem Experiment werden di Daten ausgewertet. Bei Fehlern wird der
Versuchsaufbau und die Theorie überprüft und ggf. geändert. Bei einem
positiven Ergebnis gilt die Theorie als bestätigt.
Diese Forschungsmethodik wird heute noch verwendet.
5.4.2.1 Quellenangaben
http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologische
r_Behaviourismus/methodologischer_Behaviourismus.htm
5.4.3 Klassischer Behaviorismus
Der Klassische Behaviorismus kann zeitlich genau eingegrenzt werden, da 1913 das
behavioristische Manifest von John B. Watson, der den Behaviorismus prägte,
erschien und 1930 seine zweite Auflage des Buches „Behaviorismus“.
Die Grundpositionen des Klassischen Behaviorismus sind:
- Psychologie sollte sich mit von außen beobachtbaren Verhalten beschäftigen
(motorische Reaktionen und was Menschen sagen)
- Verhalten besteht aus Reflexen
- Reize sind Objekte außerhalb des Körpers und Veränderungen im Körper
- Jeder Reaktion kann man einen Reiz zuordnen, der sie auslöst
- Reize und Reaktionen werden über Pawlowsches Konditionieren assoziiert.
- Gefühle und Gedanken sind nicht von außen beobachtbar und daher nicht
Gegenstand wissenschaftlicher Psychologie
Vertreter des Klassischen Behaviorismus:
- John B. Watson (1878-1958)
- Edward R. Guthrie (1886-1959)
- E. Holt (1873-1946)
- W. Hunter (1889-1954)
- Mary C. Jones (1896-1987)
- Karl Lashley (1890-1958)
- M. Meyer (1873-1967)
- Weiss (1879-1931)
5.4.3.1 Quellenangaben
http://www..de/Psychologie/Behaviourismus/Methodologischer_Behaviourismus/Klas
sischer_Behaviourismus/klassischer_Behaviourismus.htm
5.4.4 Neobehaviorismus
Ende der 20-iger und Anfang der 30-iger Jahre verlor der Klassische Behaviorismus
an Bedeutung, da seine Antworten auf Forschungsfragen zu simpel waren. Clark L.
Hull von der Yale-Universität entwickelte einen Behaviorismus in welchem
hypothetische Konstrukte die Lücken in der Erklärung des Verhaltens schließen
sollten, die der Klassische Behaviorismus offen ließ. Für Hull war Verhalten eine
passive Abfolge von Reiz-Reaktions-Verbindungen. Seine Theorie wird als S-RTheorie (S: stimulus, R: response) bezeichnet. Sie wird auch systematische
Verhaltenstheorie genannt, da sie eine in der Psychologie einmalige Systematik
aufweist.
Edward C. Tolman entwickelte einen weiteren neobehavioristischen Ansatz. Für ihn
war Verhalten nicht einfach nur eine Abfolge von Reiz-Reaktions-Verbindungen, die
ein Lebewesen passiv über Verstärker gelernt hatte, sondern auf eine zielgerichtete
Funktion organismusinterner Faktoren wie Bedürfnissen, Überzeugungen, Werten
und Wahrnehmungsbereitschaften. Räumliche Reiz-Reiz-Verbindungen sah er als in
kognitiven Landkarten zusammen gefasst an. Für Tolman waren Reiz-ReizVerbindungen ein wichtiger Ansatz, daher spricht man auch von der S-S-Theorie.
Da Tolmans Konzept den kognitiven Theorien nahe steht, nennt man es auch
„Kognitiver Behaviorismus“.
5.4.4.1 Quellenangaben
http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologische
r_Behaviourismus/NeoBehaviourismus/neoBehaviourismus.htm
5.4.5 Radikaler Behaviorismus
„Die Gewohnheit, in das Innere eines Lebewesens
zu blicken, um Verhalten zu erklären, führte dazu,
die Variablen zu verdecken, die unmittelbar für eine
wissenschaftliche Analyse zur Verfügung stehen.
Diese Variablen liegen außerhalb des Organismus
in seiner unmittelbaren Umwelt und in seiner
Geschichte. Sie haben einen physikalischen Status,
auf den die gewöhnlichen wissenschaftlichen
Methoden angewendet werden können, und sie
machen es möglich, Verhalten so zu erklären, wie
andere Forschungsgegenstände in der
Wissenschaft erklärt werden. Diese unabhängigen
Variablen (Ursachen) sind sehr unterschiedlich und ihre Beziehungen zum Verhalten
sind oft subtil und komplex, aber wir können nicht hoffen, einen angemessen
Erklärungsansatz des Verhalten zu geben, ohne sie zu analysieren.“
B. F. Skinner (1953). Science and Human Behaviour, S. 31
Skinner ist der Begründer des Radikalen Behaviorismus. Nach ihm ist der
Behaviorismus die Philosophie einer bestimmten Verhaltenswissenschaft, der
experimentellen Verhaltensanalyse. (Experimental Analysis of Behavior). Skinner
plädiert für eine Erforschung des Verhaltens “in its own right” und lehnt die Einflüsse
anderer Wissenschaften wie der Physiologie ab, da sie seiner Meinung nach auf
einer anderen Ebene sind und in einer Verhaltenswissenschaft nichts zu suchen
haben. Die Unterscheidung in beobachtbare (öffentliche) und unbeobachtbare
(private) Ereignisse wie im Methodologischen Behaviorismus wird zwar ebenfalls
vorgenommen, doch wird ein Ausschluss unbeobachtbarer Ereignisse oder die
Verwendung theoretischer Konzepte zur Erklärung beobachtbarer Ereignisse
abgelehnt.
Für Radikalbehavioristen ist Verhalten von äußeren Variablen abhängig und es muss
alles auf sie zurückgeführt werden. Alles was Organismen tun, also auch sprechen,
denken, fühlen, sehen, usw., wird als Verhalten bezeichnet. Nach Skinner sind dies
verdeckte (covert) Verhaltensweisen, im Gegensatz zu offen (overt). Es handelt sich
um einen umfassenden Behaviorismus, der alles was Organismen tun, als Verhalten
versteht und daher nichts als durch ihn nicht erklärbar ausschließt. Man nimmt an,
dass zwischen offenen und verdeckten Verhaltensweisen ein kontinuierlicher
Übergang besteht. Einige verdeckte unbeobachtbare Verhaltensweisen werden nicht
als mental gewertet. Es wird angenommen, dass verdeckte Verhaltensweisen von
den gleichen Umweltvariablen abhängen wie offene.
Für Radikalbehavioristen wird Verhalten durch Operante Konditionierung geformt und
hängt von Verstärkern ab. Angeborene und klassisch konditionierte
Verhaltensweisen werden nicht geleugnet. Ein Verstärker ist ein Reiz der auf eine
Reaktion folgt und die Auftretenswahrscheinlichkeit der Klasse von Reaktionen, zu
denen die vorangegangene Reaktion gehört, verändert. Die Klassifikation von Reizen
und Reaktionen wird durch die Beziehung zwischen ihnen bestimmt. Sie ist deshalb
funktional und nicht strukturell oder topographisch, d.h. dass nicht die physikalischen
Eigenschaften die Grundlage der Klassifikation bilden. Der radikale Behaviorist
bezieht auch evolutionsbiologische Überlegungen, v.a. auf das Konzept der
Adaptation ein.
Das Verhalten wird durch drei Punkte selektiert:
- die natürliche Selektion
- den Prozess der Operanten Konditionierung
- die kulturelle und soziale Umwelt.
Die ethische Position des Radikalen Behaviorismus ist pragmatisch und auf Effizienz
ausgerichtet. Der Pragmatismus bedeutet, dass Wahrheit und Werte durch die
Interaktion mit der Umwelt konstruiert werden. Man kann daraus nicht schließen,
dass das ziel Unterdrückung und Ausbeutung ist, da Lebewesen gegen solche
aufbegehren.
Vertreter des Radikalen Behaviorismus:
1. Generation
- Burrhus F. Skinner (1904 - 1990)
- Fred S. Keller
2. Generation
- Nate Azrin
- William K. Estes
- Charles Catania
- Charles B. Ferster (1922-1981)
- Richard J. Herrnstein (1930-1994)
- William H. Morse
- George S. Reynolds
3. Generation
- William M. Baum
- Edmund Fantino
- Gene M. Heyman
- Philipp Hineline
- Peter R. Killeen
- James E. Mazur
- Frank McSweeney
- Albert Neuringer
- Howard C. Rachlin (“Teleologischer Behaviorismus”)
- John E. R. Staddon (“Theoretischer Behaviorismus”)
- William Vaughan
- Peter de Villiers
- Ben A. Williams, G. Zuriff
5.4.5.1 Quellenangaben
http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Radikaler_Behav
iourismus/radikaler_Behaviourismus.htm
6. Maschinelles Lernen (ML)
Zuerst stellt sich natürlich die Frage: „Was ist Lernen?“. Hierfür gibt es mehrere
Erklärungsansätze und Definitionen.
„Lernen ist jede Veränderung eines Systems, die es ihm erlaubt, beim nächsten Mal
dieselbe Aufgabe oder eine Aufgabe derselben Art effizienter oder effektiver (besser)
zu lösen.“ (Herbert Simon, 1983)
„Lernen ist ein Prozess, bei dem ein System eine abrufbare Repräsentation von
vergangenen Interaktionen mit seiner Umwelt aufbaut oder Lernen ist die
Organisation der Erfahrung...“ (Scott, 1983)
„Lernen ist das Konstruieren oder Verändern von Repräsentationen von
Erfahrungen.“ (Ryszard Michalski, 1986)
Alle diese Versuche „Lernen“ zu definieren sind nicht umfassend und man findet
Kritikpunkte an ihnen, auf die ich nicht näher eingehen will.
Mitte der 50-iger Jahre begann man die ersten Systeme zu entwickeln. Das schlug
leider in den meisten Fällen fehl. Erst Mitte der 70-iger Jahre mit dem Nötigwerden
von Expertensystemen stieg die Motivation sich mit dem ML tief greifend zu
beschäftigen. Es entstanden viele funktionierende Systeme. Das ML wurde zum
Modethema. Von 1986 bis heute gab es zahlreiche Entwicklungen wie neuronale
Netze, die Kombination verschiedener Verfahren, die Komplexität stieg enorm an,
Robotik, usw.
Beim ML wird Wissen künstlich generiert. Ein System lernt an Hand von Beispielen
und kann nach Beendigung der Lernphase verallgemeinern, d. h. es prägt sich nicht
nur die Beispiele ein und gibt sie stupide aus, sondern es erkennt
Gesetzmäßigkeiten in den Daten und kann auf diese Weise auch unbekannte Daten
beurteilen.
Das Lernen anhand von Beispielen nennt man Induktion. Dieses Verfahren steht
beim ML im Vordergrund.
Einige Anwendungsbereiche sind:
- automatisierte Diagnoseverfahren
- Erkennung von Kreditkartenbetrug
- Aktienmarktanalysen
- Klassifikation von DNA-Sequenzen
- Spiele
- Robotik
- Expertensysteme
- Sprach- und Schrifterkennung und
- autonome Systeme.
Die Art und Mächtigkeit der Wissensrepräsentation spielt eine wichtige Rolle. Man
unterscheidet symbolische und subsymbolische Systeme. Bei den symbolischen
Systemen sind Beispiele und induzierte Regeln explizit repräsentiert. Bei den
subsymbolischen ist das Wissen implizit repräsentiert und erlaubt keinen Einblick in
die Lösungswege. Ein Beispiel für subsymbolische Systeme sind neuronale Netze.
Die praktische Umsetzung geschieht durch Algorithmen.
Eine grobe Übersicht über verwendete Algorithmen:
- Überwachtes Lernen (engl. supervised learning): der Algorithmus lernt eine
Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt
während des Lernens ein „Lehrer“ den korrekten Funktionswert zu einer
Eingabe bereit. Ein Teilgebiet des überwachten Lernens ist die automatische
Klassifizierung. Anwendungsbeispiel: Handschrifterkennung.
- Unüberwachtes Lernen (engl. unsupervised learning): der Algorithmus erzeugt
für eine gegebene Menge von Eingaben ein Modell, das die Eingaben
beschreibt und Vorhersagen ermöglicht. Dabei gibt es Clustering-Verfahren,
die die Daten in mehrere Kategorien einteilen, die sich durch charakteristische
Muster voneinander unterscheiden. Ein wichtiger Algorithmus in diesem
Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter eines
Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei
das Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt
abwechselnd die Zugehörigkeit der Daten zu einer der Kategorien und die
Parameter, die die Kategorien ausmachen. Eine Anwendung des EMAlgorithmus findet sich beispielsweise in den Hidden Markov Models (HMMs).
Andere Methoden des unüberwachten Lernens, z. B.
Hauptkomponentenanalyse verzichten auf die Kategorisierung. Sie zielen
darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu
übersetzen, die sie trotz drastisch reduzierter Information möglichst genau
wiedergibt.
- Bestärkendes Lernen: der Algorithmus lernt durch Belohnung und Bestrafung
eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den
Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört)
zu maximieren.
Beispiele von Software:
- GNU R ist eine auf vielen Plattformen verfügbare, freie Statistik-Software mit
Erweiterungen zum maschinellen Lernen (z. B. rpart, randomForest) und
Data-Mining.
- RapidMiner (früher YALE) ist ein einfach zu bedienendes und frei erhältliches
Tool für maschinelles Lernen und Data-Mining.
- Shogun ist eine Open-Source-Toolbox für Kernel-Methoden.
Wichtige Persönlichkeiten auf diesem Gebiet sind Tom M. Mitchell, Ivan Bratko und
Donald Michie.
6.1 Quellenangaben
http://de.wikipedia.org/wiki/Maschinelles_Lernen
http://www-user.tu-chemnitz.de/~stj/lehre/masch.pdf
http://209.85.129.132/search?q=cache:jc1nZR-xl9oJ:www.informatik.unikonstanz.de/fileadmin/Redakteur_Dateien/Studieren_Angebot/master_profil_schema
.pdf+maschinelles+lernen+entwickler&cd=1&hl=de&ct=clnk&gl=de
 Bonusmaterial
http://www.kbs.uni-hannover.de/~schneide/lernen.html
 Bonusmaterial
http://ml.cs.tu-berlin.de/de/index.html
 TU Berlin – Bonusmaterial
http://www.itwm.fraunhofer.de/de/as__asprojects__lip/lip/
 Frauenhofer Institut – Bonusmaterial
http://idw-online.de/pages/de/news1462
 TU Chemnitz – 10. europäische Tagung im Maschinellen Lernen
http://www.scinexx.de/wissen-aktuell-10009-2009-06-05.html
 Flipperautomat über Gedanken steuern – Bonusmaterial
http://www.inf.ethz.ch/news/focus/edu_focus/buhmann/index_DE
 Interview mit Prof. Joachim Buhmann – Bonusmaterial
http://vasarely.wiwi.hu-berlin.de/Home/lehre/ki-ha.html
 Buchtipps
7. Wissensbasierte Systeme (WBS)
Wir sollten zuerst auf den Begriff „Wissen“ eingehen. Es gibt verschiedene
Definitionen.
„Wissen, Ergebnis eines Erkenntnisprozesses, in dem subjektive und objektive
Fakten und Schlussfolgerungen zu Überzeugungen über Ereignisse, Gegenstände
und Beziehungen zwischen Gegenständen verarbeitet werden.“
(Faktum Lexikoninstitut, Hrsg., Lexikon der Psychologie, Gütersloh/München 1995,
S.524)
„Wissen bezeichnet eine bedeutungsvolle Vernetzung von Informationen.“
( Prof. Peter Reimann, Katja Müller, Phillip Starkloff Kognitiv kompatibel?
Wissensmanagement: Brückenschlag zwischen Technik und Psyche, ct 4/2000,
S.275)
„Wissen bezeichnet das Netz aus Kenntnissen, Fähigkeiten und Fertigkeiten, die
jemand zum Lösen einer Aufgabe einsetzt.“
(Dieter Herbst, Erfolgsfaktor Wissensmanagement, Cornelsen Verlag, Berlin 2000,
S.9)
Wissen ist mehr als die Ansammlung von Daten oder Informationen. Erst durch die
individuelle Interpretation und Verwendung wird aus den Daten und Informationen
Wissen. Wissen entsteht durch die Kombination vorhandenen Wissens und die
Vernetzung von Entscheidungen. Der Wert des Wissens besteht in dessen Zweck
orientierten Einsatz.
Ein WBS ist ein intelligentes Informationssystem. Wie soll mit dem Wissen im WBS
verfahren werden?
Das Wissen soll repräsentiert werden und zwar mit den folgenden Methoden:
- Bereitstellung von Formalismen zur symbolischen Darstellung von Wissen.
- Bereitstellung von Inferenzmechanismen zur automatischen Ableitung von
Wissen.
Wie funktioniert die Domänenmodellierung?
- Auswahl eines geeigneten Repräsentationsformalismus.
- Adäquate Beschreibung der Domäne in diesem Formalismus.
- Bestimmung der Domäne Akquisition des Domänenwissens
Es gibt verschiedene Darstellungsformen:
- Deklarative Darstellung:
- Logische Formeln
- Semantische Netze
- Objektorientierte Darstellungen
- Prozedurale Darstellung:
- Programme
- Produktionsregeln
WBS ist der Oberbegriff für Expertensysteme. Er wird aber auch für alle anderen auf
Wissen basierenden Systeme gebraucht.
Man zählt dazu:
- Regelbasierte Systeme
- Expertensysteme
- Software-Agenten
WBS sind vorteilhaft, da man eine große Menge von Wissen in diese Systeme
einarbeiten kann und durch das System schnelle kompetente Antworten auf ein
bestehendes Problem erhält. Die Vorteile solcher Systeme sind weiterhin, dass das
Wissen in einzelne überschaubare Wissenseinheiten gegliedert und somit bei neuen
Erkenntnissen schnell zu aktualisieren oder bei Fehlern zu korrigieren ist.
Ein WBS hat mehrere Kernkomponenten. Als Erstes wäre dazu nennen, die
Wissensbasis. Das Wissen umfasst Fakten und Regeln und ist deklarativ abgelegt.
Die zweite Komponente ist die Inferenzkomponente. In ihr wird das Wissen
verarbeitet und neue Fakten und Regeln abgeleitet. Die Letzte ist die
Benutzerschnittstelle (User Interface) – Schnittstelle). Sie dient der Kommunikation
mit dem Nutzer.
Damit aber nun aus unserem WBS ein Expertensystem wird, werden noch zwei
weitere Komponenten benötigt, die Wissenserwerbskomponente, die automatisch
oder manuell funktioniert und die Erklärungskomponente, die dem User die
Lösungsfindung aufzeigt.
Aufbau eines Expertensystems (Gottlob 1990):
Eine grafische Darstellung eines WBS:
Einsatzgebiete für WBS sind:
- Dateninterpretation
- Überwachung
- Diagnose
- Therapie
- Planung
- Entwurf und
- Prognose.
7.1 Quellenangaben
Wissen
http://de.wikipedia.org/wiki/Wissen
http://www.genia-berlin.de/sites/wiss_transfer/wt_einf_wissen.htm
WBS
http://de.wikipedia.org/wiki/Wissensbasiertes_System
http://209.85.129.132/search?q=cache:KjaYZdVhSpUJ:www.informatik.uniulm.de/ki/Edu/Vorlesungen/GdKI/WS0304/skript/11-WissensbasierteSysteme.pdf+11-Wissensbasierte-Systeme.pdf&cd=1&hl=de&ct=clnk&gl=de
PDF Datei  liest mein Screen Reader nicht und ist Passwort geschützt, kann sie
somit nicht ins Word importieren
 Ordner  WBS  medinfgrund_09.pdf  Bonusmaterial
7.2 Expertensysteme (XPS)
Definition:
„ Expertensysteme sind Programme, mit denen das Spezialwissen und die
Schlussfolgerungsfähigkeit qualifizierter Fachleute auf eng begrenzten
Aufgabengebieten nachgebildet werden soll.“ (Puppe 1991)
Ein XPS ist ein Softwaresystem, dass Expertenwissen zu einem bestimmten Gebiet
enthält und bei der Lösung oder Beurteilung einer Problemstellung hilft. XPS
unterstützen den Menschen beispielsweise in der Medizin bei Diagnosestellungen
oder der Auswertung wissenschaftlicher Daten. Die ersten Arbeiten an XPS gehen in
die 60-iger Jahre des vorigen Jahrhunderts zurück. Seit den 80-iger Jahren werden
sie auch kommerziell genutzt.
Als die Versuche fehl schlugen so genannte General Problem Solver zu entwickeln,
d. h. Systeme zu realisieren, die zu jeder Aufgabenstellung eine Antwort geben
konnten, kamen die Expertensysteme auf, die nur das Wissen eines speziellen
Wissensgebietes enthielten. Die Güte eines XPS bestimmt man damit, wie fehlerfrei
es arbeitet und in welchem Umfang es Schlussfolgerungen ziehen kann.
Es gibt unterschiedliche Zielsetzungen ein XPS zu entwickeln (Gottlob 1990):
- die Bereitstellung neuer Serviceleistungen, besonders im
Dienstleistungsbereich;
- die Entwicklung eines neuen Produktes, entweder als eigenständiges
Softwaresystem oder durch Integration eines Expertensystems in ein Analyseoder Diagnosegerät;
- die Verbesserung von Qualität, Sicherheit, Produktivität und
Arbeitsbedingungen - Hauptziele im Rahmen der industriellen Produktion; und
- die Verringerung von Fehleranzahl, Ausschuss und Ressourcenbedarf, d.h.
der Versuch, den Produktionsprozess besser in den Griff zu bekommen.
Die Entwicklung kann aus produktbezogener oder Expertensicht erfolgen.
Aus der Sicht des Experten gibt es folgende Gründe (Gottlob 1990):
- Der Experte ist mit Aufgaben überlastet, die für ihn Routine sind. Diese
Routineaufgaben sollten ihm von einem Expertensystem abgenommen
werden, damit er sich den schwierigen Problemen widmen kann;
- Der Experte kann nicht vor Ort sein, etwa bei mangelndem Servicepersonal,
oder bei Weltraum- und militärischen Projekten.
- Es gibt nur einen Experten, der in der Zentrale sitzt. Man möchte jedoch sein
Wissen auch in den Filialen verfügbar machen.
- Die Anzahl und/oder die Komplexität der Probleme hat so zugenommen, dass
der Experte überfordert ist.
- Der Experte geht bald in Pension oder wechselt die Firma, man möchte aber
sein Wissen nicht mit seinem Ausscheiden verlieren.
Aus der Sicht des zu entwickelnden Produktes (Gottlob 1990):
- Um die Qualität eines Produktes zu erhöhen, liefert man das zugehörige
Expertenwissen mit.
- Die Problemstellung hat eine Komplexität, die intelligente Unterstützung bei
der Problemlösung erfordert.
-
Die Sicherheit in kritischen Situationen wird erhöht.
es werden Leistungen an bisher nicht erreichten Orten und/oder Tageszeiten
(z.B. nachts oder am Wochenende) ermöglicht.
Zur Realisierung der gesteckten Ziele, dass das System Wissen repräsentieren und
schlussfolgern kann, werden verschiedne Modelle benutzt.
Fallbasierte Systeme
Das System versucht in seiner Datenbasis zu dem gegebenen Problem einen
ähnlichen Fall zu finden und ihn auf den aktuellen Fall zu übertragen. Gerade in der
Schlussfolgerung der Ähnlichkeit stellt sich das Schlüsselproblem solcher Systeme
dar. Ein typischer Fall für ein solches System ist die Diagnose von Krankheiten und
die sich daraus ergebende Therapie. Das System versucht an Hand von
Krankheitssymptomen eine Lösung zu finden.
Regelbasierte Systeme bzw. Business Rule Management Systeme (BRMS)
Im Gegensatz zu Fallbasierten Systemen sind hier keine Fallbeispiele hinterlegt
sondern Regeln, wie wenn A dann B. Aus den vorgegebenen Regeln leitet das
System seine Lösung ab. Die Regeln stellen eher allgemeine Gesetzmäßigkeiten
dar.
Systeme mit Entscheidungsbäumen
Diese Systeme werden vor allem bei Klassifizierungsproblemen eingesetzt. Bei
diesen Systemen handelt es sich um eine Form des induktiven Lernens. In dem
System werden Daten in einer Beispielmenge hinterlegt. Ein Beispiel kann etwa aus
einer Reihe von Attributen (eines Objektes, z. B. eines Patienten) und deren
konkreten Ausprägungen bestehen. Bei der Verarbeitung solcher Beispiele
durchläuft das System einen Pfad (Suchbaum): Die einzelnen Attribute sind dabei
Knoten, die von ihnen ausgehenden möglichen Ausprägungen Kanten. Das System
folgt der Kante, die im Beispiel vorliegt und setzt dies Attribut für Attribut fort, bis es
zu einem Endknotenblatt gelangt und gibt schlussendlich die Klasse aus, die zu dem
beschriebenen Objekt gehört. Das Ziel ist, mit möglichst kleinen
Entscheidungsbäumen zu guten Ergebnissen zu kommen. Dabei spielt die Auswahl
der Attribute eine entscheidende Rolle.
XPS werden überall da benötigt, wo ein Experte fehlt, oder durch die Komplexität des
Wissens, ein menschlicher Experte überfordert ist.
Hier einige Anwendungsgebiete und realisierte XPS.
- Dateninterpretation
Analyse von Daten mit dem Ziel einer Zuordnung zu Objekten oder
Erscheinungen, insbesondere Signalverstehen.
Beispiele: Erkennung akustischer Sprache (HEARSAY), Identifizierung
chemischer Strukturen anhand von Massenspektrometerdaten (DENDRAL),
geologische Erkundung (PROSPECTOR), Proteinstrukturbestimmung aus
Röntgendaten, Erdölbohrung, militärische Aufklärung, U-Boot-Ortung (SEPS,
STAMMER).
- Überwachung
Interpretation von Daten mit Aktionsauslösung in Abhängigkeit vom Ergebnis.
Beispiele: Produktionssicherung, Überwachung von Patienten in der "eisernen
Lunge" (VM), Überwachung eines Kernreaktors (REACTOR).
-
-
-
-
-
Diagnose
Interpretation von Daten mit starker Erklärungskomponente.
Beispiele: vielfältig in der Medizin, zum Beispiel bei bakteriellen Infektionen
(MYCIN), Rheumatologie, innere Medizin (INTERNIST), Pflanzenkrankheiten;
außerdem zur Bestimmung und Lokalisation von Fehlern in technischen
Systemen.
Therapie
Aktionen zur Korrektur fehlerhafter Systemzustände und Beseitigung der
Ursachen (oftmals mit Diagnose gekoppelt).
Beispiele: siehe Diagnose, Fehlerdiagnose im Autogetriebe (DEX),
Fehlerortung und Wartung bei Telefonnetzen (ACE), automatische
Entwöhnung von Beatmungspatienten in der Intensivmedizin (SmartCare/PS),
Arzneimitteltherapiesicherheit (CPOE, CDS).
Planung
Erzeugen und Bewerten von Aktionsfolgen zur Erreichung von Zielzuständen:
Beispiele: Versuchsplanung molekulargenetischer Experimente (MOLGEN),
chemische Synthese (SECS), Finanzplanung (ROME), Produktionsplanung
(ISIS), Steuerung des Flugbetriebs auf Flugzeugträgern (CAT), Handlungen
autonomer Roboter (NOAH), beispielsweise Marsroboter.
Entwurf
Beschreibung von Strukturen, die vorgegebenen Anforderungen genügen.
Beispiele: unter anderem für Schaltkreisentwurf (SYN, DAA),
Computerkonfiguration (R1/XCON), chemische Verbindungen (SYNCHEM),
Konfiguration von Betriebssystemen bei Siemensrechnern (SICONFEX).
Prognose
Vorhersage und Bewertung erreichbarer Zustände zeitvarianter Systeme.
Beispiele: Beurteilung von Erdbebenauswirkungen (SPERIL),
Erdbebenvorhersage, Hochwasservoraussage, Umweltentwicklung (ORBI).
Nun klingt das doch alles sehr positiv und man könnte denken, wenn ein System nur
gut genug programmiert ist und mit allen Daten gefüttert wurde, habe ich ein
perfektes System. Ganz so einfach ist es nicht. Man muss das System natürlich
ständig auf den neusten Stand bringen, wozu ich einen Experten brauche, damit das
System den gegebenen Anforderungen gerecht wird. Ein weiteres Problem bei XPS
besteht darin, dass das System seine eigenen Grenzen nicht kennt und bei
unvorhergesehnen Ereignissen, wie fachfremden Daten, falsche Ergebnisse liefert.
7.2.1 Quellenangaben
http://de.wikipedia.org/wiki/Expertensystem
http://de.wikipedia.org/wiki/Mycin_(Expertensystem)
 Bonusmaterial
http://www.iicm.tugraz.at/Teaching/theses/2000/_idb9e_/greif/node8.html
8. Intelligente Tutorielle Systeme (ITS)
In den 80-iger Jahren machte man die ersten Versuche mit ITS. Leider haben die
Systeme bis heute keine großen Fortschritte gemacht, da sie sehr komplex und
kompliziert sind.
ITS wurden erst durch die Entwicklung des Kognitivismus möglich. Man versuchte
die Erkenntnisse über das menschliche Lernen in solchen Systemen umzusetzen. In
traditionellen Tutoriellen Systemen läuft ein Lernprogramm nach einem
vorgegebenen Schema ab, ohne zu hinterfragen, welche Entwicklung der Tutoriant
bereits gemacht hat. Es reagiert nur auf richtige und falsche Antworten. Ein ITS
hingegen versucht sich ein Bild vom Tutorianten zu erstellen und eine individuelle
Lernstrategie zu ermöglichen, d. h. das System versucht zu erkennen wie gut das
Wissen des Anwenders ausgeprägt ist und passt den Lernstoff dem entsprechend
an. Hat ein Anwender z. B. Probleme mit den Grundzügen einer Materie, vermittelt
das ITS weiter Grundlagen, bis der Tutoriant bereit für schwerere Inhalte ist. Der
Lernende soll einen flexiblen Dialog mit dem System führen können. Man könnte es
vielleicht in einem Satz zusammenfassen und sagen, ein ITS versucht einen
menschlichen Lehrer zu simulieren.
Definition:
„Intelligente Tutorielle Systeme (ITS) sind adaptive Mediensysteme, die sich ähnlich
einem menschlichen Tutor an die kognitiven Prozesse des Lernenden anpassen
sollen, indem sie die Lernfortschritte und -defizite analysieren und dementsprechend
das Lernangebot generativ modifizieren sollen.“ [Issing, Klima 1997, 555]
Ein ITS besteht aus vier Komponenten:
- dem Wissens-modell,
- dem Lernermodell,
- dem Tutorenmodell und
- der Benutzerschnittstelle.
Ein ITS besitzt drei Hauptmerkmale:
- Adaptivität
- Flexibilität und
- Diagnosefähigkeit.
Unter Adaptivität versteht man die selbstständige Anpassung an den jeweiligen
Benutzer durch Auswertung einer Kombination von Informationen über Fach-inhalte,
pädagogischen Strategien und den Lernenden. Die Idee, die dahinter steckt, ist
wieder die Situation Lehrer / Schüler. Ein leerer bereitet sich zwar auf den Unterricht
vor und versucht das Wissen zu vermitteln, was er sich vorgenommen hat, doch
passt er sich auch flexibel an die Unterrichtssituation, wie Aufnahmefähigkeit und
Motivation des Schülers an.
Flexibilität ist die Fähigkeit zur Änderung der Darstellung der Lerninhalte. Sie wird
durch die getrennte Implementierung der Wissensbasis und der tutoriellen
Komponente gewährleistet. •
Die Diagnose dient dazu, um Rückschlüsse über die Kompetenz des Lernenden
ziehen zu können.
Ein ITS ist benutzergesteuert und verfügt nicht über Kontrollstrukturen. Die
Wissensbasis für ein ITS ist meistens ein XPS. Die Softwaretechniken sind regeloder fallbasierte Expertensysteme, objektorientierte Wissensbasen oder
Programmiersprachen (z.B. Lisp) (vgl. [Schulmeister 1997, 197-203]).
ITS eignen sich immer dann wenn klare und eindeutige Musterlösungen vorhanden
sind.
Zu den Anwendungsbereichen gehören:
- Flugzeug- und Anlagensteuerung,
- technische Reparaturdiagnostik,
- medizinische oder
- juristische Entscheidungsfindung,
- mathematische Probleme oder
- das Programmieren.
Man sieht die beschränkten Einsatzmöglichkeiten. Eine Verwendung in
geisteswissenschaftliche Richtung beispielsweise ist kaum denkbar. (vgl. [Euler
1987, 73 ff.])
Die grundsätzliche Funktionsweise könnte man wie folgt beschreiben. Der Lernende
löst eine Aufgabe oder stellt eine Frage an das System. Durch die
Benutzerschnittstelle wird die Eingabe an das Lernermodell weiter gegeben. Dieses
vergleicht die Lösung mit der Musterlösung aus dem Wissensmodell und leitet
daraus den Wissenstand des Tutorianten und dessen Verhaltensweisen ab. Die
Informationen werden zum Tutorenmodell gesandt und aus den Ergebnissen werden
die weiteren pädagogischen Strategien ermittelt und ein Feedback geliefert.
Die einzelnen Modelle und deren Funktionsweise werde ich mir in den
nachstehenden Abschnitten vornehmen.
Beginnen wir mit dem Wissensmodell. In der Literatur findet man oft auch die
Bezeichnung Expertenmodell oder Domainmodell. Das Wissensmodell enthält
Kenntnisse, Erfahrungen, Methoden und Allgemeinwissen und stellt damit die
Wissensbasis des Systems dar. In vielen Fällen wird es als XPS implementiert. Es
gibt drei Arten von Wissen:
- Deklaratives Wissen (Faktenwissen)
- Prozedurales Wissen (praktisches Wissen  Argumente, Regeln mit denen
sich Verbindungen zwischen den Objekten herstellen und Probleme lösen
lassen)
- Heuristisches Wissen (Erfahrungs- Und Problemlösungswissen): Es handelt
sich hierbei im Wesentlichen um Handlungsempfehlungen der Experten, wie
sie Lernenden helfen können, die richtige Herangehensweise an ein Problem
zu finden, z.B. Löse zuerst alle Klammern auf, Wende Beispiel an auf … ,
Identifiziere alle Objekte in …, Finde alle Unbekannten in…(vgl.
[Schulmeister1997, 182 ff.]).
Es gibt zwei Arten von Modellen der Repräsentation: das „black-box“ und das „glassbox“ Modell. Beim ersten kann man den Lösungsweg nicht einsehen, im zweiten Fall
ist dies möglich und man kann jederzeit Fragen an das System stellen. Das „glassbox“ Modell ist nicht immer umsetzbar und effektiv. Meistens werden daher die
beiden Modelle kombiniert. Das Wissen im Wissensmodell ist in Form von Listen,
Wissensstrukturdiagrammen oder Regeln organisiert und wird meist in Form von
semantischen Netzen modelliert: Informationseinheiten bilden die Knoten, Verweise
und Verknüpfungen die Kanten (vgl. [Peters 2002, 5 ff.]).
Für das Lernermodell findet man auch die Bezeichnungen student model oder
Diagnosemodell. Es enthält zu jeder Zeit den aktuellen Wissensstand des
Lernenden. Es weiß weiterhin über die Fähigkeiten des Lernenden Bescheid und
merkt sich, was der Student bereits alles gemacht hat (Historie). Das Lernermodell
beobachtet und interpretiert das Verhalten des Lernenden. Es erkennt
Lernfortschritte und –defizite. Fehler werden in Form von Fehlerbibliotheken
dargestellt. Es ist aber sehr schwierig zu korrekten Annahmen zu kommen, da das
System nicht weiß, wie ist die Motivation, ist eine Antwort ein Glückstreffer oder hat
der Student etwas tatsächlich nicht oder wirklich richtig verstanden.
Das Tutorenmodell ist die pädagogische Komponente, die entscheidet wann und in
welcher Form Wissen vermittelt wird. Wie ein menschlicher Lehrer gestaltet es den
Unterricht. Es steuert die Kommunikation, legt Pausen fest oder entscheidet wann
eine Hilfestellung sinnvoll ist.
Die letzte der Hauptkomponenten ist die Benutzerschnittstelle und ist für die
Kommunikation zuständig. Sie sollte so gestaltet werden, dass es leicht ist, sie zu
erlernen.
8.1 Quellenangaben
http://de.wikipedia.org/wiki/Intelligentes_Tutoren-System
http://www.math.unisb.de/ag/wittstock/alambert/MedienDesign/5_2_2Intelligente_Tutoriell.html
http://209.85.129.132/search?q=cache:QUrQmm0cbAJ:www.medien.ifi.lmu.de/lehre/ws0304/hs/C_Eisendle_Txt.pdf+tutorielle+s
ysteme&cd=5&hl=de&ct=clnk&gl=de
9. Linguistik in der KI
9.1 Kurzer Überblick über die Linguistik
Definition
Linguistik bedeutet Sprachwissenschaft und umschreibt alle Wissenschaften, die sich
mit Sprache beschäftigen. In ihr wird die Entstehung, die Funktion und die innere
Struktur von Sprache untersucht. Sie wird in die Gruppe der Strukturwissenschaften
eingeordnet.
Zu den Wissenschaften die sich mit Sprache befassen gehören:
- Allgemeine Sprachwissenschaft
- Angewandte Sprachwissenschaft
- Theoretische Sprachwissenschaft
- Historische Sprachwissenschaft (komparative Linguistik)
- Einzelsprachliche Sprachwissenschaft (z. B. Germanistische Linguistik)
- Kommunikationswissenschaft (Informationstheorie, Nachrichtentechnik)
- Soziologie (Soziolekt, Sprachkonflikt, Sprachpolitik)
- Psychologie (Spracherwerb, Sprachverlust, Mehrsprachigkeit)
- Philosophie (Logik, Grammatik, Semiotik, Rhetorik)
Wichtige Linguisten weltweit:
- Leonard Bloomfield, wichtigster Vertreter des amerikanischen Strukturalismus
in der Zeit zwischen den beiden Weltkriegen
- Karl Brugmann Mitbegründer der Indogermanistik, einer der führenden
Vertreter der Junggrammatiker
- Franz Bopp Mitbegründer der Indogermanistik
- Karl Bühler entwickelte das weithin bekannte Organon-Modell der
Sprachfunktionen
- Noam Chomsky begründete die Generative Grammatik
- Joseph Greenberg (führte umfangreiche Untersuchungen zu Sprachtypologie
und Universalien von Sprache aus, begründete die heutige Grobklassifikation
der afrikanischen Sprachen und postulierte die Makro-Sprachfamilien Amerind
und Eurasiatisch)
- Jacob Grimm und Wilhelm Grimm sind die Begründer der Deutschen
Philologie
- Zellig S. Harris, Hauptautor des amerikanischen Deskriptivismus
- Louis Hjelmslev, Hauptvertreter der Kopenhagener Schule, Glossematik
- Wilhelm von Humboldt begründete die Vergleichende Sprachwissenschaft
- William Labov ist einer der wichtigsten Forscherpersönlichkeiten in der
Soziolinguistik
- George Lakoff ist ein wichtiger Vertreter der Kognitiven Linguistik
- Roman Jakobson Mitglied der Prager Schule, bahnbrechende Untersuchung
zum Spracherwerb
- Antoine Meillet beschäftigte sich mit den indogermanischen Sprachen,
behandelte Ökonomie als Triebkraft des Sprachwandels
- Hermann Osthoff Mitbegründer der Indogermanistik, einer der führenden
Vertreter der Junggrammatiker
-
-
Hermann Paul war ein wichtiger Sprachtheoretiker, einer der führenden
Vertreter der Junggrammatiker
Edward Sapir, Namensgeber der Sapir-Whorf-Hypothese und wichtiger
Forscher bes. für die Sprachtypologie
Ferdinand de Saussure, Hauptvertreter der Genfer Schule, gilt als Begründer
der modernen synchronen Linguistik und prägte den zweiseitigen
Zeichenbegriff
August Schleicher gilt als Begründer der Stammbaumtheorie in der
vergleichenden Sprachforschung
Johannes Schmidt gilt als Begründer der Wellentheorie
Nikolai Sergejewitsch Trubetzkoy, führender Vertreter der Prager Schule,
Begründer der Phonologie
George Kingsley Zipf ist mit den Zipfschen Gesetzen bahnbrechender
Forscher für die Quantitative Linguistik
Harm Pinkster ist der führende lateinische Linguist weltweit
In den Materialien, welche ich zum Thema Linguistik gefunden habe, wird die
Sprachwissenschaft sehr detailliert aufgeschlüsselt. Ich werde an dieser Stelle
jedoch nicht näher darauf eingehen und mich langsam Richtung KI bewegen.
9.1.1 Quellenangaben
http://de.wikipedia.org/wiki/Sprachwissenschaft
http://www.fask.uni-mainz.de/inst/iaspk/Linguistik/Welcome.html
http://www.linguistik.net/cgi-bin/linguistik.pl/main
http://www.linse.uni-due.de/linkolon/schrift/schriftstart.html
 Bonusmaterial
9.2 Sprachverarbeitung
In unserer Zeit nimmt die Informationsflut, z. B. digitalisierte Texte, beispielsweise im
Internet, immer mehr zu, daher werden mechanisierte Werkzeuge zur Unterstützung
des Menschen immer wichtiger. Um dieser Anforderung gerecht zu werden,
entwickelt man „natürlich sprachliche KI-Systeme“. Eine weitere Bezeichnung ist
natürlich sprachliche Systeme (NSS oder NLS).
Definition:
Natürlich sprachliche Systeme (NLS) sind Systeme, die natürliche Sprache
analysieren und/oder generieren, wobei sie Wissen über Sprache verwenden.
Anwendungsgebiete für NLS sind:
- Dialogsysteme, die natürlichsprachlichen Zugang etwa zu
Datenbanksystemen, Expertensystemen, Bildverarbeitungssystemen
ermöglichen - das Spektrum reicht von Frage-Antwort-Systemen bis hinzu
Beratungssystemen,
-
Dialogkomponenten in multimodalen/multimedialen Systemen,
Text verstehende Systeme und
automatische Übersetzungssysteme oder Übersetzungshilfen.
Nun stellt sich aber auch die Frage, was Sprache ist bzw. wie man sie definieren
könnte. Es ist nicht möglich Sprache eindeutig zu definieren. Man kann aber sagen,
sie ist unter anderem
- ein Zeichensystem,
- ein Kommunikationsmittel und
- ein Handlungssystem.
Es gibt verschiedene Ebenen in der Sprache.
Definition:
Syntax betrifft die Beziehung der Zeichen untereinander. Bei der natürlichen Sprache
wird die Fügung von Buchstaben oder Lauten zu Wörtern und vor allem die Fügung
von Wörtern zu Sätzen untersucht.
Definition:
Semantik betrifft die Beziehung von Zeichen zu Gegenständen und Sachverhalten.
Dabei wird sowohl betrachtet, unter welchen Bedingungen Aussagen wahr sind, als
auch worauf die Aussagen sich beziehen.
Definition:
Pragmatik betrifft ursprünglich die Beziehung von Zeichen zu ihren Verwendern, bei
der natürlichen Sprache zu Sprecher/Hörer. Heute wird meist die Beziehung der
Zeichen zu ihrem Gebrauchskontext (Sprecher, Hörer, Raum, Zeit, Vorwissen und
Überzeugungen von Sprecher/Hörer) untersucht. Dabei wird betrachtet, unter
welchen Bedingungen eine Äußerung angemessen ist und gelingen kann.
In der natürlichen Sprache gibt es auf allen Ebenen Ambiguitäten, also
Mehrdeutigkeiten, die für ein NSSS sehr schwierig zu verstehen sind, für den
Menschen jedoch nicht. Der versteht, dass es eine Mehrdeutigkeit ist und hinterfragt
sie. Beim linguistic engineering geht es auch nicht darum, natürliche Sprache in ihrer
Gesamtheit adäquat zu beschreiben, sondern viel mehr besteht das Ziel in einer
natürlich sprachlichen Benutzerschnittstelle, die situationsangemessen ist und somit
nur einen Sprachausschnitt darstellt.
Hierzu muss festgestellt werden
- welche Kommunikationssituation bei der Anwendung vorliegt (zeitlichräumliches Verhältnis, anzunehmende Intentionen der Benutzer,
anzunehmendes Vorwissen der Benutzer, anzunehmendes Systembild der
Benutzer, Sachbereich, über den kommuniziert wird,
gesprochene/geschriebene Sprache,...),
- was für Sätze in der Anwendung vorkommen können,
- welche formalen Kategorien zu ihrer Beschreibung notwendig sind,
- in welche Repräsentationssprache natürlichsprachliche Äußerungen letztlich
übertragen werden sollen und
- wie diese Repräsentation vom System ausgewertet werden soll.
Dieser grobe Entwurf dient als Vorlage und muss noch verfeinert werden. Nach dem
Entwickeln der einzelnen Komponenten, muss das System getestet werden.
Im Ordner Linguistik finden Sie ein PDF „morik_95b.pdf“, in der auf Seite elf eine
Abbildung ist, die den Aufbau eines NLS zeigt.
Ein NLS hat folgende Architektur:
- nl Eingabe
- Morphologie
- Wörter mit Merkmalen
- Syntax
- Strukturbeschreibung
- Semantik
- sem. Repräsentation
- Lexikon
- Grammatik
- Dialoggedächtnis
- Auswertung
- Sachbereichswissen
- Ausgabe
- Morphologie
- Strukturbeschreibung
- Syntax
- sem. Repräsentation
- Semantik
- Antwortplan
Ich werde die einzelnen Komponenten noch näher betrachten. Da ich mich an die
Reihenfolge meiner Quelle halten will, schwenke ich kurz ab.
Zur Erstellung eines NLS ist Prolog eine sehr geeignete Programmiersprache. Prolog
enthält einen Formalismus DCG (definite clause grammar), der speziell für
Grammatik und Lexikon entwickelt wurde, d. h. sie enthält bereits eine eingebaute
syntaktische Analysekomponente. Ein weiterer Vorteil von Prolog ist, dass es sich
leicht erlernen lässt. In meiner Quelle wird in den nachfolgenden Abschnitten viel auf
Prolog eingegangen. Ich habe drauf verzichtet, da es den Rahmen sprengen würde.
Die Syntax untersucht die Struktur von Sätzen. Eine Grammatik legt dabei fest,
welche Sätze wohl geformt sind und welche nicht. Da es unendlich viele Sätze gibt,
muss sie rekursiv sein, weil wir sie in endlich vielen Regeln schreiben wollen.
Um eine Grammatik schreiben zu können brauchen wir:
- ein Vokabular (Alphabet), mit dem wir Kategorien (Klassen von Wörtern und
umfangreicheren Satzteilen) bezeichnen können,
- Regeln, die uns angeben, wie Kategorien in Unterkategorien unterteilt werden
(immediate dominance)
- Regeln, die uns angeben, in welcher Reihenfolge Kategorien auftreten können
(linear precedence),
wobei die letzten beiden Punkte mit denselben Regeln dargestellt werden
können.
Wenden wir uns nun dem „Lexikon“ zu.
Definition:
Ein Lexikon ist eine Liste von Wörtern, die jedem Wort bestimmte Eigenschaften
zuordnet. Die Aufgaben des Lexikons umfassen je nach Anwendung: Definition aller
möglichen Wörter, Zuordnung von Eingabezeichen zu Wörtern und/oder
Bereitstellung der notwendigen Information für Syntax (und Semantik).
Definition:
Ein Lexikon, das alle Wortformen enthält, wird als Vollformenlexikon bezeichnet. Es
ordnet den Wortformen direkt alle Merkmale zu.
Ein durchschnittliches Wörterbuch enthält rund 100.000 Wörter. Dabei sind noch
keine flektierten Wörter enthalten. Werden diese dazu genommen, erhöht sich
natürlich die Anzahl der Wörter im Wörterbuch. Diese Wörter werden in ihre kleinsten
bedeutungstragenden Einheiten zerlegt.
Definition:
Morpheme sind die kleinsten bedeutungstragenden Einheiten eines Wortes.
Definition:
Morphologische Analyse heißt der Prozess, der Wörter in ihre Morpheme zerlegt. Im
weiteren Sinne bezeichnet die morphologische Analyse die Zerlegung von Wörtern in
Bestandteile. Während die Flexionsmorpheme selbst keine selbständige Einheit
darstellen, sind den Wortstämmen spezielle, über die Grammatik hinausgehende
Bedeutungen zugeordnet.
Definition:
Ein Lexem ist eine selbständige lexikalische Einheit. Hier sind vor allem die Stämme
eines Wortes gemeint.
Sehr schwierig und zugleich interessant zu behandeln sind im deutschen zusammen
gesetzte Wörter, wie ausspielen oder Schweineschnitzel. Die Schwierigkeit besteht
darin, den Morphemen die richtigen Merkmale zu zuordnen, damit bei der
Zusammensetzung das richtige Wort heraus kommt.
Wenden wir uns der Semantik zu. Bis jetzt betrachteten wir nur die Struktur eines
Satzes. Wichtig und deshalb Untersuchungsgegenstand ist auch die Bedeutung von
Sätzen. Eine semantische Beschreibung wird durch das Lexikon und der
Strukturbeschreibung der Eingabekette durch geführt. Die Eingabe kann
Mehrdeutigkeiten enthalten. Diese müssen aufgelöst werden (Disambiguierung).
Hierfür wird der sprachliche Kontext sowie die Äußerungssituation hinzugezogen. Um
die semantische Beschreibung zu ergänzen, wird das begriffliche Wissen verwendet.
Zuletzt wird die semantische Beschreibung ausgewertet, indem sie auf das aktuelle
Weltwissen bezogen wird. Bei der Generierung wird mit Hilfe der Äußerungssituation
und des Weltwissens, die semantische Beschreibung in eine Strukturbeschreibung
überführt.
Der Mensch hat sich schon seit Ewigkeiten mit der Logik der Sprache beschäftigt.
Gottlob Frege hat den Unterschied zwischen Sinn und Bedeutung eingeführt.
Definition:
Die Bedeutung eines Ausdrucks ist seine Interpretation. Die Interpretation bildet
- eine Konstante auf ein Element aus dem Universum (universe of discourse),
- ein Prädikat auf ein Tupel, gebildet aus Elementen des Universums,
- eine Formel auf einen Wahrheitswert ab.
Definition:
Der Sinn einer Äußerung ist das, wovon sie tatsächlich handelt.
Ein Beispiel soll das verdeutlichen. Nehmen wir den Satz: „Hoffentlich regnet es
morgen nicht.“. Der Satz ergibt durchaus einen Sinn, aber wenn wir ihm keinen
Wahrheitswert zuordnen können, hat er keine Bedeutung.
Wir brauchen einen Formalismus für die semantische Beschreibung. Dieser
Formalismus wird als semantische Repräsentationssprache bezeichnet.
Definition:
Eine semantische Repräsentationssprache (SRS) ist ein Formalismus, in dem die
Bedeutung natürlich sprachlicher Sätze (oder Texte) dargestellt wird.
Eine Beschreibung in SRS soll• bei der Analyse aus syntaktischen Beschreibungen
und Lexikoneinträgen (sowie möglicherweise anderen Quellen) konstruiert werden
können,
- bei der Generierung die Konstruktion einer Strukturbeschreibung erlauben,
- in Hinblick auf konkrete Sachverhalte ausgewertet werden können.
Die SRS muss in der Lage sein, Schlussfolgerungen zu ziehen und muss Aussagen
interpretieren können, aus dem Sachbereich übe den gesprochen wird.
Das war eine grobe Beschreibung eines NLS. In den nächsten Kapiteln werde ich
unter anderem auf Morphologie, Computerlinguistik, Semantik und andere Bereiche
der Linguistik eingehen.
9.2.1 Quellenangaben
http://209.85.135.132/search?q=cache:1enPOrpB2i0J:www-ai.cs.unidortmund.de/DOKUMENTE/morik_95b.pdf+nat%C3%BCrlich+sprachliche+systeme&
cd=6&hl=de&ct=clnk&gl=de
http://www.ifi.uzh.ch/arvo/cl/carstens/Materialien/vorlesungnats.html
 PDF-Dateien im Ordner Linguistik
http://scholar.google.de/scholar?q=linguistik+und+KI&hl=de&um=1&ie=UTF8&oi=scholart
http://209.85.135.132/search?q=cache:dxeR8JPjdAgJ:www.dfki.de/~wahlster/Publica
tions/Zur_Rolle_der_Linguistic_bei_der_Entwicklung_natuerlichsprachlicher_KISysteme.pdf+linguistik+und+KI&cd=1&hl=de&ct=clnk&gl=de
http://66.102.1.104/scholar?hl=de&lr=&q=cache:abkqdYYdgugJ:www.dfki.unisb.de/~wahlster/Publications/Natuerlichsprachliche_KISysteme_Entwicklungsstand_und_Forschungsperspektive.pdf+linguistik+und+KI
http://www.ims.uni-stuttgart.de/ims-home.html.de
 Uni Stuttgart
http://www.asv.informatik.uni-leipzig.de/
 Uni Leipzig
http://www.cis.uni-muenchen.de/
 Uni München
http://209.85.135.132/search?q=cache:I00UFyyTfAIJ:rosuda.org/lehre/WS0708/Beric
hteStatimWeb/WorthaeufigkeitenCarmenHeinz.pdf+http://de.wikipedia.org/wiki/Sprac
hverarbeitung&cd=5&hl=de&ct=clnk&gl=de
 Bonusmaterial
9.2.2 Morphologie
Morphologie kommt aus dem Griechischen (μορφή, morphé = Gestalt, Form). Sie ist
somit die Lehre von den Formen und ist den verschiedensten Wissenschaftszweigen
vertreten.
Eine kleine Übersicht:
- Morphologie (Astronomie), die Form ausgedehnter astronomischer Objekte, z.
B. einer Galaxie oder eines Nebels.
- Morphologie (Sprache)
- Morphologie (Biologie)
- Morphologische Analyse/Morphologische Methode/Morphologischer Kasten
nach Fritz Zwicky, u. a. als Methode der Zukunftsforschung
- Geomorphologie
- Hydromorphologie
- Kristallmorphologie
- Kulturmorphologie in der Ethnologie
- Mathematische Morphologie (Mathematik/Bildverarbeitung)
- Psychologische Morphologie
- Stadtmorphologie
Wir nehmen uns die Morphologie der Sprache vor. Es gibt weitere Bezeichnungen:
Morphematik, Morphemik und Pleremik. Die Morphologie ist ein Teilbereich der
Linguistik und widmet sich der Erforschung der kleinsten bedeutungs- oder
funktionstragenden Bestandteile der Sprache, die so genannten Morpheme. Sie
werden in verschiedenen Formen Allomorphen verwendet. Morpheme setzen sich
aus Phonemen zusammen und bilden damit Wörter. Zur Morphologie gehören auch
die Prinzipien bzw. Regularitäten der inneren Struktur von Wörtern.
Definition:
Ein Morphem ist die kleinste bedeutungstragende Einheit einer Sprache, die nicht
weiter in kleinere bedeutungstragende Einheiten zerlegt werden kann, ohne dass die
Bedeutung dieser Einheit zerstört wird. Das Morphem ist eine Klasse äquivalenter
Morphe.
Definition:
Morphe sind Phonem- (oder Graphem-) Sequenzen, die ein Morphem in bestimmten
Umgebungen repräsentieren.
Die Varianten von Morphemen, z. B. des Pluralmorphems werden als
Morphemvarianten oder Allomorphe bezeichnet.
Definition:
Allomorphe sind alternative Realisierungen eines Morphems in bestimmten
Umgebungen.
Im Deutschen und Englischen können viele Morpheme selbstständig als Wörter
vorkommen. Diese Morpheme werden als Freie Morpheme bezeichnet. Beispiele
hierfür sind Haus, Hund, Wiese, boy oder book. Im Gegensatz zu Freien Morphemen
gibt es die Gebundenen Morpheme. Das sind Morpheme, die nicht als selbstständige
Wörter vorkommen können.
Die Morphologie lässt sich in zwei Teilbereiche untergliedern. Einer ist die
Flexionsmorphologie, der andere die Derivationsmorphologie. Der erste Bereich
untersucht die formalen Beziehungen zwischen den Wörtern innerhalb eines
Paradigmas, der zweite die Wortzusammensetzung, bei denen durch Anhängen von
Morphemen an ein Wort neue Wörter entstehen.
Definition:
Die verschiedenen Wörter eines bestimmten Lexems bilden ein morphologisches
Paradigma.
Flexion wird wie folgt definiert.
Definition:
Der Terminus Flexion bezieht sich auf die Prozesse, welche die verschiedenen
Formen desselben Lexems erklären. Es ist ein Oberbegriff für Deklination,
Konjugation und Komparation.
Zwei Beispiele:
- singen: {singe, singst, singt, singen, sang, sangst, gesungen}
- Sänger: {Sänger, Sängers, Sängern}
Definition:
Die lexikalische Morphologie untersucht die formalen Beziehungen zwischen
verschiedenen Lexemen.
Es gibt mehrere Lexemklassen. Die Hauptklassen sind Verb, Nomen, Adjektiv,
Adverb, Präposition, Determinator und Interjektion.
Die Lexemklassen werden nicht nur in der Morphologie untersucht, sondern auch in
der Grammatik allgemein. Die Lexemklassen lassen sich in zwei Teilbereiche
einteilen, die offene und die geschlossene. Zur offenen Klasse zählt man das Verb,
das Nomen, das Adjektiv und das Adverb, zur geschlossenen die Präposition, den
Determinator und die Konjunktion.
Für die Bildung neuer Wörter stehen im Wesentlichen drei Verfahren zur Verfügung:
- Derivation,
- Konversion und
- Komposition.
Definition
Den Prozess der Affigierung oder Modifikation zur Bildung neuer Lexeme nennt man
Derivation (Ableitung).
Als Beispiele könnte man anführen:
- geschmack + los = geschmacklos,
- schön + heit = Schönheit.
Definition
Konversion ist ein besonderer Ableitungsprozess, wobei ein Lexem in eine neue
Lexemklasse überführt wird, ohne dass ein Affix angefügt wird.
Einige Beispiele sollen dis verdeutlichen, Verb  Nomen:
- schau-en  Schau,
- bau-en  Bau und
- fall-en  Fall.
Definition
Komposition ist der morphologische Prozess, durch den neue zusammengesetzte
Lexeme durch die Kombination zweier oder mehrerer freier Formen gebildet werden.
Definition
Ein durch Komposition gebildetes Wort heißt Kompositum (engl. compound).
Hier zwei Beispiele:
- Haus + Tür = Haustür und
- groß + Stadt = Großstadt,
Das war eine kleine Übersicht über das Gebiet der Morphologie. In den
Quellenangaben finden Sie dazu noch umfangreichere Informationen.
9.2.2.1 Quellenangaben
http://de.wikipedia.org/wiki/Morphologie
http://de.wikipedia.org/wiki/Morphologie_(Sprache)
http://www.coli.uni-saarland.de/~hansu/Verarbeitung.html
 wird auch beim Parsing verwendet
http://coral.lili.unibielefeld.de/Classes/Summer98/Grundkurs98/Vorlesung/grundkursvorlesung/node8.
html
http://www.fb10.uni-bremen.de/khwagner/Grundkurs1/linguistik6.htm
9.2.3 Parsing und Parser
Parsing kommt von parse. Pars ist lateinisch und bedeutet „Teil“ (im Deutschen
gelegentlich auch Zerteiler). In der Sprachforschung ist parsing das analysieren der
Struktur der Sprache. Dabei wird In der Grammatik, z. B., der Satz in seine
grammatikalischen Bestandteile (Syntax) zerlegt.
Definition:
Die syntaktische Analyse des Satzes in seine relevanten Bestandteile wird als
Parsing bezeichnet.
Parsing dient zwei Zwecken:
- der Bestimmung der Struktur eines Ausdrucks
- ist Voraussetzung für das Erkennen der Bedeutung von komplexen
Ausdrücken
Die Anwendungsgebiete für Parsing sind:
- Programmiersprachen (Compilier),
- natürliche Sprachen (maschinelle Sprachverarbeitung) und
- Psycholinguistik (Sprachverstehen beim Menschen).
Ich werde nun mal noch kurz auf Parser eingehen. Ein Parser ist ein
Computerprogramm, welches für die Zerlegung und Umwandlung der Eingabe in ein
brauchbares Format zuständig ist. Er ist für die Erschließung der Semantik
verantwortlich. Der Parser zerlegt einen text in eien Syntaxbaum, der eine Hierarchie
der Elemente ausdrückt.
Es gibt Parser für die unterschiedlichsten Dateitypen::
- HTML-Parser
- RSS-Parser
- XML-Parser
- URI-Parser (lösen z. B. URL´s auf)
- Parser für LOG-Dateien
- Suchmaschinen (bereiten die Daten für das Durchsuchen auf)
- Text-Parser (dient der Kommunikation bei Adventure-Spielen zwischen
Computer und Spieler)
- Parser für höhere Programmiersprachen (stellen dem Compiler die benötigten
Daten zur Vefügung)
Nun noch kurz einige Worte zur Funktionsweise. Ein Parser verwendet einen
lexikalischen Scanner zum analysieren des Textes. Dieser zerlegt den Text in Token
(Eingabesymbole bzw. Wörter), die der Parser versteht. Die Zerlegung in Token folgt
einer regulären Grammatik. Eine reguläre Grammatik wird auch als formale
Grammatik vom Typ drei der Chomsky-Hierarchie bezeichnet. Eine reguläre
Grammatik erzeugt eine reguläre Sprache. Eine reguläre Sprache zählt zu den
formalen Sprachen. Das ist eine Sprache, die strengen Einschränkungen unterliegt.
Der eigentliche Parser erstellt aus den analysierten Eingangsdaten einen
Ableitungsbaum, welcher dann, z. B., einem Compiler zur Verfügung gestellt wird.
Abschließend nenne ich noch einige Parsertypen:
- Parser für kontextfreie Grammatiken
Top-Down-Parser
LF-Parser
LL-Parser
- Parser für kontextsensitive Grammatiken
Packrat Parser (Parsing Expression Grammars)
Ich bin mit dem Kapitel nicht ganz glücklich. Auch nach intensiver Suche, habe ich
kein Material gefunden, was mir 100%-ig zu sagt. Aus diesem Grund werde ich
dieses Kapitel etwas unvollständig hier beenden.
9.2.3.1 Quellenangaben
http://de.wikipedia.org/wiki/Parsing
http://de.wikipedia.org/wiki/Regul%C3%A4re_Grammatik
http://de.wikipedia.org/wiki/Regul%C3%A4re_Sprache
http://209.85.129.132/search?q=cache:_NiTy9AhI5sJ:www.snlp.de/prescher/teaching
/2007/Parsing/bib/2002phdpages82to88.prescher.pdf+parsingverfahren&cd=3&hl=de
&ct=clnk&gl=de
 Bonusmaterial
http://coral.lili.unibielefeld.de/Classes/Summer98/Grundkurs98/Vorlesung/grundkursvorlesung/node10
.html
 Bonusmaterial
http://kontext.fraunhofer.de/haenelt/kurs/SpeechParse/folien.html
http://www.phil.uni-passau.de/linguistik/lehre/parsingformalismen/
http://209.85.129.132/search?q=cache:UdXsI9AcaUgJ:www.informatik.unihamburg.de/WSV/teaching/vorlesungen/FGI1SoSe07/Sprachen_3.pdf+parsingverfah
ren+nat%C3%BCrliche+sprache&cd=4&hl=de&ct=clnk&gl=de
9.2.4 Computerlinguistik (CL)
Die Computerlinguistik ist die Schnittstelle zwischen Informatik und
Sprachwissenschaft. Sie untersucht, wie man durch Algorithmen mit dem Computer
natürliche Sprache verarbeiten kann.
Zwei Hauptmotivationen gibt es:
- Unterstützung der Sprachforschung durch Computer und die Überprüfung von
Theorien
- Entwicklung von Systemen zur automatischen Textzusammenfassung,
maschinellen Übersetzung, Extraktion von Informationen aus Texten oder
natürlich sprachliche Interaktion mit Maschinen
Die Anwendungsgebiete kurz zusammen gefasst:
- Die Unterstützung des Computerbenutzers bei der Textverarbeitung,
beispielsweise Korrektur von Tipp- und Rechtschreibfehlern, Prüfung auf
grammatische Richtigkeit, Umwandlung in Bedeutungszeichen in Japanisch
oder Chinesisch.
- Die automatische Suche nach Textstellen, und zwar nicht nur ihrer Form,
sondern ihrer Bedeutung nach (Information Retrieval und Suchmaschinen).
- Die Unterstützung beim Übersetzen von Texten in eine andere Sprache (CAT,
Computer Aided Translation) oder auch die vollständige automatische
Übersetzung.
- Die Verarbeitung von gesprochener Sprache (Spracherkennung und
Sprachsynthese), zum Beispiel bei telefonischen Auskunftsdiensten oder
Lesegeräten für Blinde.
- Die Auffindung von Information in großem Stil, von Literaturangaben bis hin zu
direkter Beantwortung von Fragen auf der Basis großer Datenbanken
(Information Retrieval, Data-Mining, Informationsextraktion).
- Die Aufbereitung von sprachlich vorliegenden Daten, beispielsweise die
Verschlagwortung von Literatur, die Anfertigung von Registern und
Inhaltsverzeichnissen, die Herstellung von Zusammenfassungen und
Abstracts.
- Die Unterstützung von Autoren beim Verfassen von Texten, zum Beispiel das
Finden des treffenden Ausdrucks oder der richtigen Terminologie.
- Die Interaktion des Benutzers mit dem Computer in natürlicher Sprache, so
dass Computer auch Personen zugänglich sind, die sich mit den speziellen
Befehlen nicht auskennen.
Doch welche Probleme verbinden sich mit der Sprachverarbeitung durch Computer?
Der Computer muss die Semantik bestimmen, d. h. ein Wort kann mehrere
Bedeutungen haben und die situationsangemessene muss heraus gefiltert werden.
Doch nicht nur Wörter können mehrdeutig sein, sondern auch Sätze. Hierzu muss
die Syntax analysiert werden. Ein zweideutiger Satz ist beispielsweise: „Peter sah
Maria mit dem Fernglas.“. Es ist nicht klar, ob Peter Maria sah, wie sie ein Fernglas
in der Hand hielt oder ob Peter Maria mit Hilfe eines Fernglas sehen konnte.
Weiterhin ist die sprachliche Absicht (Pragmatik) entscheidend. Nicht alle Sätze sind
wörtlich gemeint. Der Satz: „Können Sie mir bitte das Salz reichen?“ bedeutet nicht,
dass man nach der Fähigkeit des Reichens fragt, außer man hat vielleicht gerade mit
körperbehinderten Menschen zutun, nein es ist eher die Frage nach dem Salz und
man erwartet keine Antwort, sondern dass man es gereicht bekommt. Außerdem ist
das Problem, dass das System für jede Sprache speziell angepasst werden muss, da
im Englischen andere Regeln gelten als im Deutschen.
Die CL wendet methodisch formale Regeln an, um die menschliche Sprache besser
zu verstehen und das Wissen darüber zu vertiefen. Es stellen sich philosophische
und psychologische Fragen. Ist der Mensch nur eine Symbol verarbeitende Maschine
und wie weit kann man es mit dem Computer treiben? Wird er eines Tages Sprache
verstehen wie ein Mensch? Welchen Stellenwert räumen wir dem Computer in der
Gesellschaft ein?
9.2.4.1 Quellenangaben
http://de.wikipedia.org/wiki/Computerlinguistik
http://www.uni-due.de/computerlinguistik/c_und_l.shtml
http://tcl.sfs.uni-tuebingen.de/~kepser/compling.html
http://www.cornelia.siteware.ch/cl/index.html
9.2.5 Semantik
Definition:
Die Semantik (Bedeutungslehre) ist das Teilgebiet der Sprachwissenschaft
(Linguistik), das sich mit Sinn und Bedeutung von Sprache bzw. sprachlichen
Zeichen befasst. (Wikipedia 2001)
Hausser (2000) unterscheidet drei Typen von Sprache. Der erste ist die
Logistiksprache. Sie drückt aus, ob eine bestimmte Aussage in einem bestimmten
Modell richtig oder falsch ist. Der zweite Typ ist die Programmiersprache. Sie ist die
Ausführung einer Sprache auf einer realen oder abstrakten Maschine. Der letzte Typ
ist die natürliche Sprache. „Die Semantik von natürlichen Sprachen wird durch die
Einigung der Sprachgemeinschaft auf die Bedeutung eines bestimmten Wortes
festgelegt (Konvention).“
Die Semantik unterteilt sich in zwei Vorgehensweisen, die Semasiologie und die
Onomasiologie. Die Semasiologie geht von der Bezeichnung (Wörtern, Metaphern,
Symbole, usw.) aus und untersucht, was damit bezeichnet wird. Die Onomasiologie
(Bezeichnungslehre) geht von den Sachen und Sachverhalten aus und untersucht,
wie sie bezeichnet werden (also welche Wörter, Bilder, Symbole, usw. dafür
verwendet werden).
Die Semantik ist der Oberbegriff für die Beziehung zwischen Bedeutung und
Zeichen. Man kann auch sagen, dass die Semantik im zeichentheoretischen
(semiotischen) Sinn, die Lehre der Bedeutung der Zeichen ist (Zeichenbedeutung).
Je nachdem wie der Begriff Bedeutung definiert wird, ändert sich die Perspektive der
Semantik. Was sind aber Zeichen? Die sprachlichen Zeichen schließen alle
Ausdrücke, die eine lautliche, schriftliche oder andere Form mit einer Bedeutung
haben ein. Die kleinsten Zeichen sind die Morpheme. Die nächst größeren sind die
Wörter, bzw. Lexeme. Die darauf folgende nächst größere Einheit ist das Satzglied,
gefolgt vom Teilsatz, Satz und Text.
Die Semantik der Sprache hat verschiedene Strömungen. In den nächsten Kapiteln
werde ich näher auf die formale und lexikalische Semantik eingehen. Einige
Beispiele weiterer Richtungen werde ich nur kurz erwähnen, z. B. linguistische
Semantik, historische Semantik, interkulturelle Semantik, allgemeine Semantik,
modelltheoretische Semantik oder generative Semantik.
Semantik spielt nicht nur in der natürlichen Sprache eine Rolle. Sie ist auch
Untersuchungsgegenstand in formalen Sprachen (logischen Sprachen, Semantik in
der Informatik)
In anderen Bereichen ist Semantik ebenfalls von Bedeutung, Informationstheorie,
Systemtheorie und Sprachphilosophie (philosophische Semantik):
9.2.5.1 Quellenangaben
http://de.wikipedia.org/wiki/Semantik
http://209.85.135.132/search?q=cache:jmajZf2AT50J:www.dailabor.de/fileadmin/files/publications/DALarsEhrler.pdf+Semantik+Formalismen&cd=7
&hl=de&ct=clnk&gl=de
 liegt auch als PDF im Ordner Semantik; wird auch als Quelle für
Semantikformalismen verwendet
9.2.5.2 Semantikformalismen / Formale Semantik
Die formale Semantik beschäftigt sich mit der exakten Bedeutung von natürlichen
und künstlichen Sprachen. Die formale Semantik grenzt sich zur allgemeinen
Semantik aus Philosophie und Linguistik dadurch ab, dass sie mit rein formalen,
logisch-mathematischen Methoden arbeitet.
Anwendungsbereiche für die formale Semantik sind:
- Logik,
- Theoretische Informatik und
- Linguistik.
Man kann die Teilgebiete jedoch nicht völlig von einander losgelöst betrachten, da
sie in einander greifen und Ergebnisse unter einander ausgetauscht werden.
Die moderne formale Semantik hat ihren Ursprung in Arbeiten von Alfred Tarski,
Richard Montague, Alonzo Church und anderen.
In der Linguistik wird die Bedeutung von Sätzen durch eine formale Metasprache
erfasst. Gottlob Frege entwickelte das Kompositionalitätsprinzip. Aufbauend auf
diesem Prinzip wird erforscht, was die einzelnen Teile eines Satzes zu dessen
Gesamtbedeutung beitragen. Die formale Sprache wird durch Montaguegrammatiken
formalisiert und damit erreicht, dass man das Zusammenwirken der einzelnen
Satzbestandteile untersuchen kann.
Die formale Semantik in der Informatik beschäftigt sich damit die Bedeutung von
Computerprogrammen und Spezifikationen zu formalisieren. Dies wird zur
Überprüfung der Korrektheit von Computerprogrammen benötigt (Verifikation). Sie ist
verwandt mit der Berechenbarkeitstheorie, die sich damit auseinander setzt, welche
Probleme sich überhaupt mit Computerprogrammen lösen lassen.
Es gibt vier Ansätze, der denotationelle, axiomatische, operationelle und der hybride
Ansatz.
Erklärungsansätze:
Der denotationelle Ansatz ordnet einem Programm als Semantik ein mathematisches
Objekt zu. Damit kann genau berechnet werden, was ein Programm der definierten
Sprache bewirkt (Berghammer 2001). Die klassische Variante denotationeller
Semantik ist die Semantik nach Scott und Strachey (Tennent 1976). Sie definiert
Datentypen durch Gleichungen und darauf aufbauende semantische „Funktionen“,
die Denotationen. Die Elemente der Datentypen werden durch die typisierte Notation beschrieben. Weitere bekannte denotationelle Beschreibungen sind die
„Vienna Development Method“ (Bjørner u. Jones 1978) oder die „predicate
transformation semantics“ (Dijkstra 1975).
Im axiomatischen Ansatz wird die Bedeutung eines Programms durch Regeln
definiert, die es erlauben, von Eigenschaften der Programm-Eingabe auf
Eigenschaften der Programm-Ausgabe zu schließen (oder umgekehrt). Dies wird
insbesondere genutzt, um zu testen, ob ein Programm das tut, was der
Programmierer beabsichtigt hat (die Verifikation des Programms) (Berghammer
2001). Die wichtigste axiomatische Semantikdefinition ist die „Hoare-Logik“ (Hoare
1969). Sie basiert auf Prädikatenlogik und gibt
Regeln für die Variablenbelegung vor und nach Ausführung eines Sprachkonstruktes
an.
In en 80-iger/90-iger Jahren des letzten Jahrhunderts wurde der zeitliche Einfluss der
Programmausführung in die Beschreibungs-Formalismen mit eingearbeitet. Dadurch
entstand der operationelle Ansatz. Hier wird eine abstrakte Maschine genutzt und
das Programm als Operationen auf dieser abstrakten Maschine definiert. Dies kann
man sich auch als Ausführungsprotokoll von Zustandsübergängen vorstellen. Die
Anwendung dieser Semantik besteht vor allem in der Sicherstellung einer korrekten
Implementation einer Sprache. Beispiele dieses Ansatzes sind „Structural
Operational Semantics“ (SOS) (Plotkin 1983) oder
„Abstract State Machines“(ASM) (Gurevich 1991)
In der weiteren Forschung wurden verschiedene Formalismen entwickelt, die die
oben genannten grundsätzlichen Ansätze weiter verfeinerten und verbesserten.
Dazu gehört zum Beispiel die Modularisierung von semantischen Beschreibungen,
die Widerverwendbarkeit oder die Erweiterbarkeit. Beispiele dafür sind die „modular
monadic action semantics“ (MMAS) (Wansbrough 1997, zitiert von Zhang u. Xu
(2004)) oder die „game semantics“ (Blass 1992, zitiert von Zhang u. Xu (2004)).
Möglich sind auch Kombinationen der verschiedenen Formalismen. Diese werden
hybrider Ansatz (Mosses 2001, zitiert von Zhang u. Xu (2004)) genannt. Schauen wir
uns die Eigenschaften und Anwendungsgebiete für Formalismen an.
Nach Zhang u. Xu (2004) sollte eine Programmiersprache folgende Eigenschaften
aufweisen:
-
-
-
-
"Lesbarkeit": Die Spezifikation muss für Sprachentwickler,
Sprachimplementierer und Programmierer gleichermaßen lesbar sein.
"Modularität": Durch einen modularen Aufbau großer
Semantikbeschreibungen aus kleineren Komponenten kann die
Widerverwendbarkeit und Modifizierbarkeit erhöht werden.
"Abstraktheit": Die Konzentration auf wichtige Sprachgestaltungsprobleme
anstelle von Implementationsdetails wird durch eine abstrakte Beschreibung
erleichtert.
"Vergleichbarkeit": Eine Semantik sollte den Vergleich von
Programmiersprachen erlauben.
"Auswertbarkeit": Die Möglichkeit, über in der Sprache geschriebene
Programme zu schlussfolgern, sollte gegeben sein.
"Anwendbarkeit": Ein Spezifikationsformalismus sollte auf möglichst viele
Sprachkonzepte wie Zustände, Ein- und Ausgabe, oder Ausnahmefehler
angewandt werden können.
"Werkzeugunterstützung": Die Unterstützung durch Werkzeuge zur Erstellung,
Überprüfung und Implementierung von semantischen Beschreibungen ist nötig
für eine weite Verbreitung des Formalismusses.
Ich schließe dieses Kapitel mit einigen bekannten Formalismen ab. Ich gehe dabei
auf die Arbeiten von Clarke u. Wing (1996); van Lamsweerde (2000) und Zhang u.
Xu (2004) ein.
Rushby (1996) führt aus, dass viele Werkzeuge sehr eng auf ihr Anwendungsgebiet
zu geschnitten sind und daher für jedes neue Problem ein neues bereit gestellt
werden muss.
Ausgewählte Formalismen:
Prädikatenlogik: Sie wird auch als Quantorenlogik bezeichnet. Sie ist eine
Erweiterung der Aussagenlogik. Die einfachen Aussagen der Aussagenlogik werden
auf Ihre Struktur hin untersucht und daraus komplexere Aussagen gebildet. Die
Semantiken der Prädikatenlogik wurden unter anderem zur Definition von
Agentenkommunikationssprachen benutzt.
Beschreibungslogik: Sie ist eine formale Sprache und findet ihre Anwendung bei
Wissensrepräsentation und Wissensverarbeitung. Sie wird in BWS, aber auch in
Softwaretechnik, medizinischer Informatik und Web basierten System benutzt.
Abstract State Machines (ASM): Zhang u. Xu (2004) haben ASM als ideales
Rahmenwerkzeug für Semantikformalismen benannt. ASM werden zu den
operationalen Semantik-Formalismen gezählt. ASM definieren Zustandsänderungen
über den Abstrakten Syntaxbaum der zu definierenden Sprache. Deshalb werden sie
auch „Entwickelnde Algebren“ genannt. Zustände in ASM enthalten
Kontrollflussgraphen, die das gesamte Programm enthalten. Laut
Zhang u. Xu (2004) wurden ASM als Formalismen für die Spezifikationen für Prolog,
VHDL und SDL genutzt.
Modular Monadic Action Semantics (MMAS): MMAS wurden von Zhang u. Xu (2004)
neben ASM als idealer Semantikformalismus benannt. MMAS sind eine hybride
Semantik, da verschiedene Formalismen vereint werden. Man könnte es so kurz
zusammenfassen, eine operationelle Semantik, deren Aktionen eine modulare,
denotationelle Definition erhalten haben.
9.2.5.2.1 Quellenangaben
http://de.wikipedia.org/wiki/Formale_Semantik
http://www.st.uni-trier.de/~diehl/diss/summary_ger.html
 Bonusmaterial
http://www.uni-protokolle.de/Lexikon/Formale_Semantik.html
 Bonusmaterial
9.2.5.3 Lexikalische Semantik
Die lexikalische Semantik wird auch als Wortsemantik bezeichnet. Sie ist ein
Teilbereich der Linguistik. Sie untersucht die einzelnen lexikalischen Elemente auf
ihre Bedeutung hin (Wörter, Morpheme, Lexeme).
Die lexikalische Semantik sucht Antworten auf Fragen wie:
- Was weiß der/die Sprecher/-in einer Sprache, wenn er/sie die Bedeutung
eines Wortes kennt?
- Was ist eine Wortbedeutung?
- Wie werden Wörter und Wortbedeutungen im Gedächtnis der Sprecher
gespeichert?
- Wie ist es möglich dass im Umgang mit der Sprache, beim lesen oder
Sprechen die Wörter mit ihrer Bedeutung blitzschnell aus dem Gedächtnis
abgerufen werden?
- Wie verhält es sich mit lexikalischen Ambiguitäten (Mehrdeutigkeiten)?
Man unterscheidet Inhalts- und Funktionswörter. Inhaltswörter sind die meisten
Verben (sitzen, haben), Substantive (Hund, Wald, Freundschaft), Adjektive (kalt,
grün) und viele Adverbien (gestern, geradeaus). Inhaltswörter tragen eine begriffliche
Bedeutung. Sie beziehen sich also auf einen Gegenstand, ein Lebewesen, ein
Ereignis oder eine Eigenschaft. Funktionswörter haben keine begriffliche Bedeutung.
Sie haben eine grammatische oder kommunikative Funktion. Beispiele dafür sind:
ein, der, alle (Determinative), unter, für (Präpositionen), haben und sein (Hilfsverben)
und müssen, sollen (Modalverben).
In der lexikalischen Semantik befasst man sich mit den Inhaltswörtern. Die
Funktionswörter sind Untersuchungsgegenstand der Satzsemantik und Pragmatik.
Da das Wort Bedeutung im Alltag keine genaue Definition hat, obliegt es der
lexikalischen Semantik es zu präzisieren. Zwei Versuche einer Definition.
Definition 1:
Die Denotation ist jener Teil der Wortbedeutung, der bestimmt, was für Gegenstände,
Eigenschaften und Ereignisse durch das Wort bezeichnet werden. Denotation ist in
diesem Sinne eine Beziehung zwischen einem sprachlichen Objekt (dem Wort) und
etwas Außersprachlichem (dem so genannten Denotat). Das Denotat des Wortes
Hund ist z.B. das vierbeinige Lebewesen, das bellt usw. und Hund heißt.
Definition 2:
Die Konnotation ist jener Teil der Wortbedeutung, der alle sonstigen Informationen
umfasst, die das Wort ausdrückt. Dazu gehören:
- Der emotionale Gehalt des Wortes. Das Wort Mieze hat z.B. dieselbe
Denotation wie das Wort Katze, aber trägt einen zusätzlichen positiven
emotionalen Gehalt, nämlich dass man die Katze, von der die Rede ist, mag.
Umgekehrt hat Köter die gleiche Denotation wie Hund, aber eine negative
emotionale Konnotation.
- Status des Wortes in der Gegenwartssprache. Eheweib hat dieselbe
Denotation wie Ehefrau, seine Konnotation ist aber, dass es veraltet ist. Wenn
ein solches altertümliches Wort in einem Gespräch heute verwendet wird, hat
es immer eine besondere stilistische Funktion: es wirkt meistens scherzhaft,
seltener besonders gehoben.
- Zugehörigkeit zu einer Fachsprache, z.B. Tau für ’Seil’ in der Seefahrt
- Zugehörigkeit zu einer Gruppensprache, z.B. Muhkuh für ’Kuh’ in der
Kindersprache
- Zugehörigkeit zu einem Dialekt, z.B. Kipferl für ’Hörnchen’ im Bayrischen und
Österreichischen
- Zugehörigkeit zu einer Stilebene, z.B. ankotzen für ’als widerlich empfinden’
gilt als derb
Es gibt einen wichtigen Unterschied zwischen Denotation und Konnotation.
Denotation hat etwas mit dem Wahrheitsgehalt einer Äußerung zutun. Konnotation
hingegen mit den Gebrauchsbedingungen einer Äußerung. Zwei Beispiele sollen den
Unterschied erläutern.
Der Hund ist auf der Straße.
Der Köter ist auf der Straße.
Die Denotationen beider Wörter Hund und Köter sind gleich. Beide Sätze handeln
somit von der gleichen Situation und sie können beide entweder war oder falsch
sein. Allerdings sind die Konnotationen verschieden. Den zweiten Satz würde man
nur verwenden, wenn die Beziehung zu dem negativ sind.
Die Denotation gliedert sich noch einmal in zwei Unterbegriffe.
- Der Bedeutungsumfang ist die Menge der Gegenstände, Lebewesen,
Eigenschaften, Ereignisse usw. in der Welt, die durch das Wort bezeichnet
werden. Z.B.: Der Bedeutungsumfang des Wortes Hund umfasst alle Hunde
auf dieser Welt.
- Der Bedeutungsinhalt ist die Aufzählung der Eigenschaften der Dinge, die zum
Bedeutungsumfang des Wortes gehören. Z.B.: Bei Hund wären das
Eigenschaften wie „ist ein Säugetier“, „ist ein Fleischfresser“, „bellt“, „wird als
Haustier gehalten“, „sieht so und so aus“ usw. Je spezifischer, je
umfangreicher der Bedeutungsinhalt eines Wortes ist, desto kleiner ist sein
Bedeutungsumfang. Vgl. Schäferhund (sehr spezifischer Bed.inhalt, recht
kleine Menge) – Hund – Tier (relativ wenig Bed.inhalt, sehr großer
Bed.umfang).
Die lexikalische Semantik beschäftigt sich weiterhin mit der Beziehung von
Wortbedeutungen.
Wörter die ähnliche Bedeutungen haben, werden zu Gruppen, so genannten
Wortfeldern zusammen gefasst. Ein Beispiel hierfür ist das Wortfeld der Adjektive für
die intellektuellen Fähigkeiten eines Lebewesens: klug, schlau, intelligent, genial,
weise, listig, pfiffig, begabt, gescheit, gewitzt, erfahren, gerissen, gewieft, raffiniert
usw.
Andere Bedeutungsbeziehungen sind Wortpaare, auch Synonymie genannt. Das
sind Wörter bei denen die Denotation gleich ist oder stark überlappt, aber deren
Form verschieden ist. Bei Denotationen die gleich ist spricht man von echter
Synonymie, wie Katze – Mieze oder Vater – Vati. Bei naher Synonymie überlappt der
Bedeutungsumfang, ist aber nicht identisch, wie bei klug – schlau – intelligent.
Eine weitere Bedeutungsbeziehung ist die Hyponymie. Von ihr spricht man wenn der
Bedeutungsumfang eines Wortes im Bedeutungsumfang eines anderen Wortes
enthalten ist. Die beiden Wortbedeutungen stehen damit in einer Hierarchie zu
einander. Das Wort mit dem kleineren Bedeutungsumfang in dieser Beziehung wird
ein Hyponym des anderen Wortes genannt, während das Wort mit dem größeren
Bedeutungsumfang Hyperonym heißt. So ergibt sich folgende Logik, Pferd ist ein
Hyponym von Tier, Tier ist ein Hyperonym von Pferd.
Die letzte Beziehung ist die Antonymie. Antonymie beschreibt die
Gegensatzbeziehung von Wörtern, wie warm – kalt oder groß – klein.
Man unterscheidet mehrere Arten von Antonymie:
- Konträre Beziehung: Die beiden Wörter bezeichnen die beiden Endpunkte
oder Endbereiche einer Skala, z.B. dick – dünn; kurz – lang; schwer – leicht;
gut – böse; klug – dumm. Die Skala hat einen mittleren Bereich, der von den
beiden Antonymen nicht abgedeckt wird, und der oft keine eigenständige
Bezeichnung hat, sondern etwa durchschnittlich genannt wird, aber: mittelgroß
(weder groß noch klein), lauwarm (weder warm noch kalt).
- Kontradiktorische Beziehung: Ein begrifflicher Bereich wird von zwei
Antonymen vollständig abgedeckt. Z.B.: Bei Säugetieren stehen männlich und
weiblich in einer kontradiktorischen Beziehung zueinander (alle Säugetiere
sind entweder männlich oder weiblich). Weitere Beispiele: offen –
geschlossen, lebendig – tot.
- Konverse Beziehung: Zwei Wörter, die jeweils eine Relation ausdrücken,
stehen in einer konversen Beziehung zueinander, falls das eine Wort die
Relation zwischen A und B und das andere Wort die umgekehrte Relation
zwischen B und A bezeichnet. Z.B. Ehemann – Ehefrau: Wenn A der
Ehemann von B ist, ist B die Ehefrau von A. In einer konversen Beziehung
stehen auch regelmäßig die Komparativformen der
- konträren Antonyme zueinander, z.B. kälter – wärmer: A ist kälter als B = B ist
wärmer als A usw.
Synonymie kommt in allen Wortarten häufig vor. Dagegen spricht man von
Hyponymie meistens im Zusammenhang mit Substantiven. Von Antonymie spricht
man zumeist bei Adjektiven.
Als letzter wichtiger Komplex in der lexikalischen Semantik ist die Mehrdeutigkeit zu
erwähnen. Sie teilt sich in die Homonymie und Polysemie.
Homonymie ist die Bezeichnung für Wörter die unabhängig von einander sind, aber
zufällig übereinstimmen, d. h. wenn eine Wortform mehrdeutig ist und die Wörter
nichts mit einander zutun haben. Beispiele dafür sind Mast, Pfahl und füttern von
Tieren oder Bulle, wobei es sich einmal um ein männliches Rind und zum anderen
ein Siegel handelt.
Mit Polysemie bezeichnet man Wörter die mehrdeutig sind, aber in einer mehr oder
weniger regelmäßigen Beziehung zu einander stehen. Bein ist ein Beispiel für ein
solches Lexem. Es kann zum einen ein Körperteil und zum anderen den Teil eines
Stuhles bezeichnen.
Man sieht an diesen Beispielen, wie verwirrend Sprache sein kann. Für einen
Menschen erschließen sich sich viele Mehrdeutigkeiten aus dem Zusammenhang.
Für eien Computer hingegen, ist die menschliche Sprache oft ein Rätsel. Es wird
wohl noch sehr lange dauern, falls es überhaupt möglich ist, bis ein Computer oder
Roboter die menschliche Sprache beherrscht wie wir. Mein Lieblingsbeispiel ist Data
aus Star Trek. Trotz seiner hohen Intelligenz und das er dem Menschen in vielen
Dingen überlegen ist, scheitert er oft an einfachen sprachlichen Äußerungen. Star
Trek spielt im 24. Jahrhundert, aber wird es bis dahin wirklich gelingen, dem
Computer Sprache mit der Perfektion bei zu bringen, wie wir sie tagtäglich benutzen?
9.2.5.3.1 Quellenangaben
http://de.wikipedia.org/wiki/Lexikalische_Semantik
http://lexikologie.perce.de/wb/?l=23BC242D89&v=
PDF-Datei: Linguistik  Semantik  handout9.pdf
Im Ordner Linguistik  Semantik finden Sie weitere PDF-Dateien zu diesem Thema.
9.3 Anmerkungen zum Thema Linguistik
Ich habe versucht, einen Überblick über die Linguistik zu schaffen und habe alle
Bereiche angerissen, die der rote Faden vom Professor vorgab. Zum Thema
Generierung sprachlicher Texte fand ich keine zufrieden stellenden Materialien. Ich
liste die gefundenen Links trotzdem auf. Sie sind interessant, aber meiner Meinung
nach nicht ganz das Richtige. Hätte ich noch etwas mehr Zeit gehabt und mich
dadurch mit dem Professor vor seinem Urlaub noch ein wenig austauschen können,
denke ich, wäre das Thema nicht zu kurz gekommen.
Generierung sprachlicher Texte
http://www.student-online.net/Publikationen/444/
http://www.informatik.uni-hamburg.de/WSV/SPP-sprachproduktion/organisation/sppprod.html
http://www.is.informatik.uniwuerzburg.de/lehre/diplomarbeiten/offene_arbeiten/wbssw/
http://www.uni-koblenzlandau.de/koblenz/fb4/publications/dissertationen/diss_repo/diss_Woch
http://www.unibw.de/inf1/personen/professoren/schmerl/sil
Da ich schon die ganze Zeit darauf erpicht war, mal zu recherchieren, wie der Stand
der KI bei Spielen ist, werde ich als abschließendes ausgearbeitetes Kapitel (Kapitel
12.), dieses Thema mal unter die Lupe nehmen.
Es folgen jedoch zunächst die Kapitel über die „Interessanten Materialien“ und zu
wichtigen „Institutionen und Personen“.
10. Interessante Materialien
Da das Thema KI in meinen drei Monaten Praktikum unmöglich in allen Punkten
anzureißen ist und mir während meiner Internetrecherchen Unmengen an
interessanten Themen über den Weg liefen, habe ich diese Links gesammelt und
unter einem eigenen Kapitel zusammengefasst.
10.1 Links
Welt online
http://www.welt.de/wissenschaft/article1669860/Roboter_sollen_ihre_eigene_Kultur_
entwickeln.html
Erläuterungen zu MEXAR2 (siehe auch 11.9 ESA)
http://209.85.129.132/search?q=cache:isDaJ-DRw-IJ:www.informatik.uniulm.de/ki/Edu/Proseminare/KI/SS08/Ausarbeitungen/02-ziegengeistpaper.pdf+mexar2&cd=3&hl=de&ct=clnk&gl=de
KI Zeitung
http://www.kuenstliche-intelligenz.de/
Private Seite rund um KI
http://www-user.tu-chemnitz.de/~rimarc/cms/?KI-News
CYC
http://www.stud.fernuni-hagen.de/q1471341/nicole-m/Studium/1903/1903.html
http://www.opencyc.org/
Roboter / Android
http://pressetext.de/news/090319002/forscher-lehren-roboter-das-fuerchten/
http://pressetext.de/news/090225004/roboter-benutzt-menschliche-neuronen-zumlernen/
http://www.spiegel.de/wissenschaft/mensch/0,1518,582728,00.html
 gespeicherter Link funktioniert nicht  siehe Datei Data.mht
Weltraum
http://www.rhombos.de/shop/a/show/story/?828
http://www.golem.de/0410/34056.html
eine Seite auf der man Studentenarbeiten lesen kann
http://www.diplom.de/Diplomarbeit1136/Anwendungsmoeglichkeiten_neuronaler_Netze_zur_Unterstuetzung_strategisc
her_Entscheidungen.html
Philosophie
http://www.uni-koeln.de/phil-fak/thefife/ellrich/computerphilosophie.htm
http://www2.tu-berlin.de/fb1/kogwiss/intention_und_kognition.html
KI allgemein
http://www.unimagdeburg.de/iew/web/studentische_projekte/ws04/berger/zentrum.htm
http://www.berndvowinkel.de/44.html
Technik für Behinderte
http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/nano/bstuecke/6
7933/index.html
http://rehatreff.wordpress.com/2008/08/12/intelligenter-rolli-soll-behinderte-mobilmachen/
http://www.scinexx.de/dossier-detail-42-16.html
neuronale Netze
http://www.blikk.it/angebote/modellmathe/ma0616.htm
Roboter Lehrer Japan
http://entertainment.excite.de/nachrichten/3400/Japan-Roboter-als-Lehrerin-imEinsatz
http://www.welt.de/wissenschaft/roboter/article3332261/Japan-setzt-erstmalsRoboter-als-Lehrer-ein.html
http://www.sueddeutsche.de/jobkarriere/801/461427/text/
http://www.bild.de/BILD/digital/technikwelt/2009/03/06/lehrer-roboter/computer-frauunterrichtet-in-japan.html
http://www.spiegel.de/schulspiegel/ausland/0,1518,613777,00.html
http://www.bankkaufmann.com/a-56744-Apple-Mitbegruender-Steve-Wozniak-siehtden-Lehrer-der-Zukunft-als-freundlichen-Roboter.html
10.2 MP3
Ich habe von Alexander Scholz aus der Redaktion der Hochschule zwei MP3s
erhalten. Im Rahmen unseres Interviews haben wir uns auch über mein Praktikum
unterhalten und daher hat er sie mir zukommen lassen. Danke!
Sie finden die Dateien im Ordner MP3 meiner Projektarbeit. Sie befassen sich unter
anderem mit Embodiment und sie hören den auch in meinen Recherchen
vorkommenden Prof. Rolf Pfeifer.
11. Überblick
über KI-Forschungsinstitute und deren
Mitarbeiter, sowie wichtige Personen
11.1 Deutschland
Deutsches Forschungszentrum für Künstliche Intelligenz – DFKI
http://www.dfki.de/web
- Leiter: Prof. Dr. Philipp Slusallek
Die DFKI Forschungsbereiche:
- Agenten und Simulierte Realität (Prof. Dr. Philipp Slusallek)
- Bildverstehen und Mustererkennung (Prof. Dr. Thomas Breuel)
- Erweiterte Realität (Prof. Dr. Didier Stricker)
- Innovative Fabriksysteme (Prof. Dr. Ing. Detlef Zühlke)
- Innovative Retail Laboratory (Prof. Dr. Antonio Krüger)
- Intelligente Benutzerschnittstellen (Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster)
- Institut für Wirtschaftsinformatik (Prof. Dr. Peter Loos)
- Robotics Innovation Center (Prof. Dr. Frank Kirchner)
- Sichere Kognitive Systeme (Prof. Dr. Bernd Krieg-Brückner)
- Sprachtechnologie (Prof. Dr. Hans Uszkoreit)
- Wissensmanagement (Prof. Dr. Andreas Dengel)
Humboldt-Universität – Institut für Informatik
http://www.ki.informatik.hu-berlin.de/zentren
Interdisziplinäres Zentrum Ubiquitäre Information
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Systemanalyse - Prof. Fischer
- Datenbanken und Informationssysteme - Prof. Freytag
- Wissensmanagement in der Bioinformatik - Prof. Leser
- Rechnerorganisation und -kommunikation, Prof. Malek
- Informationsintegration - Prof. Naumann
- Systemarchitektur - Prof. Redlich
- Theorie der Programmierung - Prof. Reisig
- Computervision - Prof. Reulke
- Wissensmanagement - Prof. Scheffer
- Spezifikation, Verifikation und Testtheorie - Prof. Schlingloff
Zentrum für Biophysik und Bioinformatik
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Wissensmanagement in der Bioinformatik - Prof. Leser
- Datenbanken und Informationssysteme - Prof. Freytag
Georg-Simmel-Zentrum für Metropolenforschung
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Signalverarbeitung und Mustererkennung - Prof. Meffert
Hermann von Helmholtz-Zentrum für Kulturtechnik
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Informatik in Bildung und Gesellschaft - Prof. Coy (Sprecher der DFG
Forschergruppe "Bild-Schrift-Zahl“)
Sprachliche Bedeutung
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Wissensmanagement in der Bioinformatik - Prof. Leser
- Wissensmanagement - Prof. Scheffer
Konflikte in natürlichen und künstlichen kognitiven Systemen
Beteiligte Forschungsgruppen des Instituts für Informatik:
- Signalverarbeitung und Mustererkennung - Prof. Meffert
- Künstliche Intelligenz - Prof. Burkhard
Universität Stuttgart
http://www.uni-stuttgart.de/
http://www.iis.uni-stuttgart.de/
http://www.vis.uni-stuttgart.de/~gh/
- Leiter: Prof. Dr. Gunther Heidemann
Universität Freiburg
http://www.uni-freiburg.de/
http://www.informatik.uni-freiburg.de/abteilungen
- Grundlagen der Künstlichen Intelligenz | Prof. Dr. Bernhard Nebel
- Autonome Intelligente Systeme | Prof. Dr. Wolfram Burgard
- Maschinelles Lernen und Natürlichsprachliche Systeme | Prof. Dr. Martin
Riedmiller
- Humanoide Roboter | Prof. Dr. Maren Bennewitz (Juniorprofessorin)
- Soziale Robotik und Mensch-Roboter Interaktion | Dr. Kai Arras
Universität Hamburg
http://www.uni-hamburg.de/
http://www.informatik.uni-hamburg.de/Info/zentren.shtml.de
- Koordinator: Prof. Habel
Übersicht über deutsche Institute
http://onlinestreet.de/Wissenschaft/Informatik/K%C3%BCnstliche_Intelligenz/Fakult%
C3%A4ten_und_Institute.html
11.2 Schweiz
Universität Zürich – Labor für Künstliche Intelligenz
http://www.ifi.uzh.ch/
- Leiter Prof. Rolf Pfeifer
Schweizer Institut für Künstliche Intelligenz Lausanne
http://liawww.epfl.ch/
Direktor: Prof. Boi Faltings
11.3 Österreich
Österreichisches Institut für Künstliche Intelligenz – OFAI
http://www.ofai.at/index.html
- Leiter: Univ.-Prof., Ing., Dr. Robert Trappl
http://www.ofai.at/people.html
 Liste der Mitarbeiter
Universität Graz
http://informatik.tugraz.at/cs/de/aboutus/institutes/ist/index.html
 Link Institute  Link IST 
http://informatik.tugraz.at/cs/de/aboutus/institutes/ist/index.html
- Leiter: Dipl. Ing. Dr. techn. Franz Wotawa
11.4 Australien
Universität Sydney
http://www.usyd.edu.au/
Leider habe ich keine Fakultät oder Labor zu KI-Forschung gefunden. Der nächste
Link weist aber darauf hin, dass es etwas geben muss.
http://www.wissenschaft-australien.de/australien000017.html
Zentrum für autonome Systeme
- Leiter: Prof. Hugh Durant-White
Zentrum für optische Systeme ultrahoher Bandbreite.
- Prof. Martijn de Sterke kommissarisch geleitet
ihm stehen zur Seite
- Professoren Ben Egleton und Ross McPhedran
11.5 Japan
Universität Tokyo
http://www.ailab.t.u-tokyo.ac.jp/index.html
- Leiter: Prof. Koichi Hori
11.6 USA
Massachusetts Institute of Technology – MIT
http://mit.edu/research/category/robo.html#links
http://www.csail.mit.edu/peoplesearch
 Liste der Mitarbeiter
Stanford Universität
http://ai.stanford.edu/
http://ai.stanford.edu/people.html
 Liste der Mitarbeiter
US Navy
http://www.nrl.navy.mil/aic/index.php
Adaptive Systeme
- David W. Aha
Intelligente Systeme
- Greg Trafton
Für die anderen Sektionen waren keine Leiter angegeben.
Universität Iowa
http://www.cs.iastate.edu/~honavar/aigroup.html
- Direktor: Dr. Vasant Honawar (Prof. Für Computerwissenschaften und
Bioinformatik)
NASA
http://www-aig.jpl.nasa.gov/
http://ai.jpl.nasa.gov/public/people/
 Liste der Mitarbeiter
 ausgewählte Personen:
- Dr. Tony Barrett (Forscher)
- Dr. Steve Chien (Chef der technischen Abteilung)
- Dr. Brad Clement (Forscher)
- Dr. Tara Estlin (Forscherin)
- Dr. Daniel Gaines (Forscher)
- Dr. Mark Johnston (Forschungsaufträge)
Universität Arizona
http://ai.arizona.edu/
- Direktor: Hsinchun Chen
School of Computer Science, Carnegie Mellon
http://www.cs.cmu.edu/
Mitarbeiter:
Computer Science Department
- Leiter: Peter Lee
Human-Computer Interaction Inst
http://www.hcii.cs.cmu.edu/people/faculty
Institute for Software Research
- Leiter: Prof. William Scherlis
Language Technologies Institute
- Leiter: Dr. Jaime Carbonell,
Machine Learning Department
Prof. Noah Smith and ECE Professor, Greg Ganger
Robotics Institute
http://www.ri.cmu.edu/ri_people.html?fcode=1&menu_id=251
Entertainment Technology Center
11.7 Großbritannien
Universität Edinburgh
http://www.inf.ed.ac.uk/
http://www.inf.ed.ac.uk/people/
 Übersicht über Mitarbeiterbereiche
http://www.inf.ed.ac.uk/people/Telephone.html
 Liste der Mitarbeiter (Bereich eins)
11.8 Slowenien
Universität Ljubljana
http://www.unilj.si/en/about_university_of_ljubljana.aspx
http://www.ailab.si/ivan/novice.php
- Prof. Ivan Bratko
11.9 ESA
Bislang wurden die Daten des Mars-Orbiters „Mars Express“ mit einer vom
Menschen gesteuerten Software herunter geladen. Dabei kam es gelegentlich auch
zu Datenverlust. Nun vertraut die ESA auf ein Tool der Künstlichen Intelligenz
„MEXAR2 (siehe auch „Interessante Links)“. Es schafft es, fast ohne Datenverlust,
die Daten herunter zu laden. Seit 2005 wurde am italienischen Institute for Cognitive
Science and Technology an MEXAR2 geforscht und es konnte sich schon in der
Praxis beweisen. Nicht nur das der Datenverlust enorm zurück gegangen ist, es hat
sich auch die Zeit, die zur Erstellung der Downloadpläne benötigt wurde um 50%
reduziert.
Es gibt noch wenige KI-Tools in der Raumfahrt und MEXAR2 ist ein Wegbereiter
dafür. KI-Tools könnten für mehr Kosteneffizienz in der Raumfahrt sorgen.
11.9.1 Quellenangaben
http://www.esa.int/esaCP/Germany.html
http://pressetext.de/news/080502002/mars-mission-vertraut-auf-kuenstlicheintelligenz/
http://www.zdnet.de/news/wirtschaft_investition_software_mars_mission_vertraut_au
f_kuenstliche_intelligenz_story-39001022-39190396-1.htm
11.10 Italien
Institute for Cognitive Science and Technology
http://www.istc.cnr.it/
11.11 Personen
11.11.1 Maschinelles Lernen
Tom M. Mitchell
http://www.cs.cmu.edu/~tom/
 Homepage
http://www.cs.cmu.edu/~tom/mlbook.html
 Erwähnung eines Buches
http://w1.siemens.com/innovation/de/publikationen/zeitschrif
ten_pictures_of_the_future/pof_fruehjahr_2008/digitale_assi
stenten/interview_mitchell.htm#content-zone
 Interview
Donald Michie
http://de.wikipedia.org/wiki/Donald_Michie
Katharina Morik
http://netzspannung.org/cat/servlet/CatServlet?cmd=document
&subCommand=show&forward=/biography/output/biography.x
ml&biographyId=140734&lang=de
http://www.cs.unidortmund.de/nps/de/Home/Personen/M/Morik__Katharina.html
11.11.2 Linguistik
Joan Bresnan
Mary Dalrymple
http://de.wikipedia.org/wiki/Joan_Bresnan
http://www.stanford.edu/~bresnan/
http://users.ox.ac.uk/~cpgl0015/
Peter Sells
http://www.soas.ac.uk/staff/staff36921.php
Hermann
Helbig
http://pi7.fernuni
hagen.de/helbig
/index.html
Noam Chomsky
http://de.wikipedia.org/wiki/Noam_Chomsky
http://www.chomsky.info/
http://web.mit.edu/linguistics/people/faculty/chomsky/index.html
12. KI in Spielen
Spiele sollen die Menschen unterhalten und ihn dabei in eine virtuelle Welt entführen.
Der Spieler will heraus gefordert werden und einem scheinbar intelligenten Gegner
gegenüber treten, der auf seine Aktionen reagieren kann, denn das Spiel soll ja nicht
langweilig werden, weil der Spieler eine bestimmte Taktik heraus gefunden hat, die
immer zum Sieg führt. Hier schließt sich die Frage an: „Wie weit ist die KI in Spielen
fortgeschritten, wo sind die Grenzen oder was hindert die KI daran, sich weiter zu
entwickeln?“.
Die Grafik beispielsweise ist bereits sehr realistisch und in den letzten Jahren schnell
voran geschritten, was wir der Entwicklung der Grafikkarten zu verdanken haben. Sie
verfügen über eigene Prozessoren und eigenen Arbeitsspeicher und verlagern damit
die Grafikverarbeitung aus und geben Ressourcen in der CPU und im RAM frei.
Bislang konnte man mit der Grafik beim Käufer punkten, doch es wird nicht mehr
lange dauern, bis der Spieler mehr erwartet. Dafür bietet sich die KI an. Sie ist noch
relativ wenig in Spielen umgesetzt, hat aber enormes Potential und durch kreative
Ideen wird es möglich den Spieler länger an ein Spiel zu binden, sowie mit neuen
Ideen der erste auf dem Markt zu sein.
Und was ist bei der Integration von KI in Spielen zu beachten?:
- Der Spieler möchte keinen unbesiegbaren Gegner haben.
- Der Spieler will keine Regeln entdecken, die ihn regelmäßig zum Sieg führen.
- Der Spieler erwartet realistisches Verhalten des Spiels und seiner Elemente.
Beleuchten wir nun die Möglichkeiten, welche zur Verfügung stehen, um intelligentes
Verhalten zu simulieren.
imperativer/prozeduraler Ansatz:
Dieser Ansatz wird auch regelbasierte Vorgehensweise genannt. Eine Regel besteht
aus einer Bedingung und einer Aktion. Ist die Bedingung erfüllt, wird die dazu
gehörige Aktion ausgelöst.
Dieser Ansatz basiert auf der Aussagenlogik. Die Aussagenlogik ist eine formale
Sprache. Sie formuliert Aussagen über eine virtuelle Welt und ihre Objekte.
Beispiel:
„Wenn kein Geld mehr auf dem Konto von Goethe ist, muss er arbeiten gehen.“
IST-LEER(konto(GOETHE)) => MUSS-ARBEITEN(GOETHE)
Der Folgerungspfeil steht für die Implikation. Der rechte Teil der Implikation
beschreibt die Bedingung, die wahr sein muss, damit man weiß, dass auch der linke
Teil den Wert wahr haben muss.
Eine Umsetzung des imperativen Ansatzes ist der Endliche Automat. Die
Funktionsweise eines Endlichen Automaten kann man sich so vorstellen. Er ist ein
schwarzer Kasten, auf dessen einer Seite Eingaben herein kommmen und auf der
anderen Seite verlassen ihn Ausgaben. Der Kasten hat einen inneren Zustand, der
ebenfalls als Eingabe geseen werden kann. Der Automat besitzt interne Regeln,
welche die Ausgabe bestimmen. Durch die Ausgabe wird der innere Zustand
meistens geändert und auch gespeichert. Der Automat lässt sich erweitern, indem
man ihn vergangene Zustände speichern lässt.
Darstellungsmöglichkeiten des Verhaltens eines endlichen Automaten:
- Zustandsdiagramm, Übergangsgraph: Dieses Diagramm besteht aus Kreisen
und Pfeilen. Die Kreise sind die einzelnen Zustände. Die Pfeile sind die
Übergänge zwischen den Zuständen. Die Beschriftung an jedem Pfeil sagt
aus, unter welcher Bedingung der Übergang erfolgt.
- als Sammlung von Befehlen (z.B. in einer prozeduralen Programmiersprache)
- Hardware-Lösungen Diese Bausteine werden auch Schaltwerke genannt, sie
setzen sich aus einem Schaltnetz (der programmierten Logik) und Speicher
zusammen. Der Speicher wird mit FlipFlop-Bausteinen aufgebaut, das
Schaltnetz wird meist in einem PAL/PLD (Programmable Array Logic /
Programmable Logic Devices) realisiert.
nicht-prozeduraler Ansatz – Prädikatenkalkül der 1. Stufe:
Diese Logik kann nicht nur Aussagen zu bestimmten Objekten machen, sondern
auch Gruppen von Objekten über Variablen definieren und sie unter einander
verknüpfen. Man spricht nicht mehr von festen Objekten sondern von Variablen.
Dadurch können sich die Eigenschaften der Objekte verändern. Es muss nun nicht
mehr das Gedächtnis bemüht werden, um etwas über die Vergangenheit zu erfahren.
Die Objekte enthalten den aktuellen Stand, da sie bei jedem erhaltenen Ereignis und
jeder ausgeführten Aktion aktualisiert werden, d. h. es gibt eine Sammlung von
Sätzen, welche sich auf den aktuellen Zustand der Objekte beziehen und dadurch
Entscheidungen fällen können.
Beispiel:
„Alle Elefanten sind grau“
(A x) (IST-ELEFANT(x) => IST-GRAU(x))
X ist ein Objekt, dass für alle Objekte in der Welt stehen kann. Dies wird durch den
All-Quantor, alle A, beschrieben. Sollte nun x ein Elefant sein, dann gilt, dass er grau
ist. Wendet man den Satz auf alle Objekte in der Welt an, ist das Resultat, dass alle
Objekte, die Elefanten sind, auch grau sind.
Die Realisierung erfolgt durch eine Sprache wie Prolog oder Lisp. Dabei wird man
sich einen Baum erstellen, dessen Knoten die Zustände und dessen Kanten die
Aktionen sind. Die Wurzel ist der Anfangszustand. Das Programm muss sich an den
Ästen entlang hangeln, um zu einer Lösung zu kommen.
In unserem Falle benutzt man auch spezielle Programmiersprachen. Diese heißen
CMLs (cognitive modeling language: erkennende Modellierungssprache). Diese
Sprachen sind nicht so allgemein verwendbar wie Prolog, aber dafü einfacher zu
erlernen und zu benutzen. Ein Beispiel ist die Kognitive Modellierungsumgebung
Hank. Sie hilft Psychologen Szenarien durch rechnen zu lassen, ohne extra eine
komplette Programmiersprache lernen zu müssen. Hank besteht aus einer
Datenbank, die aus Aussagen un befehlen zusammen gesetzt ist und ein Modell
beschreiben. Sie lässt sich mit der Maus zusammen klicken und verfügt übe eine
Abfragemöglichkeit, die an Hand des Modells eine Problemlösung liefert.
Ich werde nun auf die Vor- und Nachteile der zwei Ansätze eingehen. Die Vorteile
beim prozeduralen Ansatz sind zum einen, dass das Konzept aus den gängigen
Programmiersprachen bekannt ist und daher keine lange Einarbeitungszeit benötigt
wird (Anwendung, wenn Team unter Zeitdruck) und zum anderen, dass die Regeln
relativ überschaubar und problemlos zu testen (Regeln getrennt von Zuständen
implementiert) sind. Nachteile bestehen zum einen darin, dass die überschaubaren
Regeln auch vom Spieler leicht zu durchschauen sind und zum anderen darin, dass
wen man tatsächlich intelligentes unvorhersagbares Verhalten simulieren will, die
Anzahl der Regeln rassant anwächst. Der zweite Ansatz hat einen Vor- und
Nachteil. Der Vorteil ist, dass die Lösungsfindung zu einem Problem dem System
überlassen werden kann. Man definiert nur die Regeln, in denen auch die aktuelle
Situation beachtet un verändert wird. Die Lösung muss also nicht auf der
Befehlsebene einer prozeduralen Sprache programmiert werden. Der Nachteil ist,
dass man eine gewisse Einarbeitungszeit braucht.
KI kann in Spielen in unterschiedlicher Form Anwendung finden. Hier seien einige
Beispiele aufgelistet.:
- computergesteuerte Wesen oder Einheiten (Agenten): Der Computer steuert
Mit- bzw. Gegenspieler.
- Künstliches Leben: Es werden Abläufe aus der Natur in einer virtuellen Welt
nach gebildet.
- lernende Spiele: Das Spiel lernt ständig dazu und verändert sein Vorgehen.
- Genetische Algorithmen: Hier werden stochastische Suchverfahren
verwendet, um ausgehend von einigen bekannten Punkten sich einem
Optimum der kompletten Lösung immer besser anzunähern.
- Wegplanung: Sie wird verwendet um den besten Weg oder die beste Lösung
zu einem Problem zu finden.
Wollen wir einige der Anwendungen etwas genauer betrachten. Fangen wir mit dem
Agenten an. Er wird auch als Assistent oder Akteur bezeichnet. Ein Agent ist das
computergesteuerte Gegenüber und kann je nach Art des Spiels unterschiedliche
rollen übernehmen.:
- Feind (in Ballerspielen)
- strategischer Gegner (in Strategiespielen)
- Partner (Strategie)
- Berater (in Strategiespielen)
- eine Einheit (in Strategiespielen)
- unterstützende Person (in Abenteuer- und Rollenspielen)
- Geschichtenschreiber (in Abenteuerspielen)
- Kommentator, Zuschauer (in Sportspielen)
Agenten müssen also nicht grundsätzlich Gewalt in Spielen fördern, sondern können
auch in Spielen mit sozialen Strukturen, wie die Sims, zum Einsatz kommen. Die
gemeinsame Schnittmenge der verschiedenen Agenten ist, dass sie alle in das Spiel
eingreifen können, wenn sie wollen oder müssen. Der Spieler wünscht sich natürlich,
dass die Agenten möglichst intelligentes Verhalten an den Tag legen.
Wie kann man sich den Aufbau und die Funktion eines Agenten vorstellen? Man
kann ihn sich wie einen Roboter vorstellen, nur dass er sich in einer virtuellen Welt
bewegt und ein Fehler nicht so schwer wiegende Folgen hat. Um sich in seiner
Umgebung zurecht zu finden, besitzt der Agent Sensoren, um in sie einzugreifen
Effektoren. Der Agent durchläuft ständig einen Entscheidungszyklus. Dieser kann
auch mehrmals pro Bildrahmen durchlaufen wrden, damit der Agent pro Bild mehrere
entscheidungen treffen kann.
Dieser Entscheidungsvorgang besteht aus drei Teilen:
1. erkennen: aktuelle Situation im Spiel erkennen
2. überlegen: auswählen, welches Wissen wichtig ist, und Schlussfolgerungen für
Aktionen ziehen
3. handeln: interne und externe Aktionen durchführen
Zur ersten Phase sollte man erläuternd hinzufügen. Der Agent darf nur informationen
verarbeiten, die auch der Spieler hat und nicht Informationen verwenden, die
natürlich vorhanden sind, um den Spielablauf zu gewährleisten, um sich einen Vorteil
zu verschaffen. Das Seh- und Hörvermögen sollte so sein, wie das des Spielers. Der
Agent darf beispielsweise nicht durch Hindernisse durchschauen können. Ein oft
gemachter Fehler beim Hörvermögen ist, dass gegnerische Einheiten Karten
spielend im Raum sitzen, obwohl draußen schon seit einigen Minuten Getümmel ist
und sie das hätten mitbekommen müssen. Weiterhin sollte der Agent über ein
Gedächtnis verfügen und damit Schlussfolgerungen für die aktuelle Situation ziehen
können, z. B. wenn der Spieler wieder mal in eine Sackgasse flüchtet, sollte der
Agent sich daran erinnern und anstatt sich in Gefahr zu bringen, davor warten, da
der Spieler gezwungenermaßen ja wieder heraus kommen muss.
In der zweiten Phase ist die Anfordung, dass der Agent natürliches Verhalten zeigen
muss. Der Spieler erwartet, dass der Agent sich so verhält, wie er sich auch
verhalten würde.
In der dritten Phase muss das umgesetzt werden, wofür sich der Agent in Phase
zwei entschieden hat. An Hand der Regeln kann der Agent eine Aktion auswählen,
basierend auf der Bewertung, welche er vorher vorgenommen hatte. Der Agent hat
die Möglichkeit seinen eigenen Zustand zu verändern, indem er z. B. Energie
auftankt ode auf seine Umwelt einwirkt, indem er beispielsweise etwas baut oder
zerstört.
Schauen wir uns nun die lernenden Architekturen näher an. Diese Architekturen
werden überall dort verwendet, wo Aufgaben gelöst werden sollen, die zu komplex
sind, um sie auf konventionelle Weise von Hand zu programmieren.
Das Spiel soll das Verhalten des Spielers erkennen und darauf eingehen. Bei
manchen Spielen, wie Prügelspielen, ist das leichter, bei anderen, wie
Strategiespielen schwerer. Bei Prügelspielen ist die Anzahl der Attacken begrenzt,
bei Strategiespielen hingegen, wie bei Command & Conquer ist die Taktik des
Spielers schwieirger zu durch schauen. Will der Spieler eher den Ernter zerstören,
um den Nachschub zu unterbrechen, oder mit einr großen armee angreifen, gegen
die die Basis besonders geschützt werden muss? Das Speichern und Suchen der
gewonnenen Erkenntnisse muss gut durchdacht sein. Beim Speichern muss dafür
gesorgt werden, dass die Informationen später auch wieder schnell gefunden
werden. Es können Informationen pro Einheit gespeichert werden, aber auch
Verhältnisse zwischen Einheiten, so z. B. der Spieler baut mehr kleine Soldaten als
große Panzer und greift somit eher die Ernter an als die Basis. Weiterhin ist zu
beachten, dass das Spiel bereits beim Hersteller trainiert wird, damit der Spieler
sofort ins Spiel einsteigen kann. Nur die Feinabstimmung sollte durch das
Spielverhalten des Spielers gemacht werden.
Eine andere Verwendungsmöglichkeit von Lernen in Spielen besteht darin, dass die
Zeit zum Suchen verkürzt werden soll, in dem gefundene Lösungen wieder
verwendet werden.
Es gibt drei allgemeine Arten des Lernens für Software:
- Erklärungsbasiertes Lernen
- Lernen durch Fehlerkorrektur (der Ansatz bei neuronalen Netzen)
- Simulation einer Entwicklung, mit genetischen Algorithmen
Beim Erklärungsbasierten Lernen wird kein neues Wissen angeeignet, sondern nur
das vorhandene Wissen effizienter genutzt, d. h. z. B. das ein gefundenes EinAusgabe Paar als eine neue Regel formuliert wird. Diese Regel wird dann nicht nur in
genau der gleichen Situation sondern auch in ähnlichen Situationen verwendet.
Die Neuronale Netze sollen die Nervennetze aus der Natur nachbilden. Sie sind
modular aufgebaute Berechnungsmodelle, und ihre wichtigste Eigenschaft ist ihre
Lernfähigkeit. Man kann sich solch ein Netz so vorstellen, dass viele einfache
Neuronen als Knoten zu einem komplexen Netz verbunden werden.
Neuronale Netze lernen auf zwei verschiedene Arten:
- Beim konstruktiven Lernen wird die Netzstruktur verändert, d.h. die
Verbindungen zwischen den Knoten werden gelöst und verknüpft.
- Bei der Parameterschätzung werden die Gewichte der einzelnen Ausgänge
angepasst.
In der Entwicklung von Spielen werden selten neuronale Netze verwendet. Zum
Einsatz kommen meistens regelbasierte Systeme, die sich nur geringfügig weiter
entwickeln.
In der KI-Forschung für Spiele ist noch sehr viel möglich, da wir erst am Anfang
stehen, aber der Spielemarkt ist ein lukrativer Markt und es lohnt sich. Es ist nahezu
sicher, dass sich die KI in Spielen ebenso wie die Grafik entwickelt. Es ist nicht
sicher, ob die Konsolenhersteller schon hardwarebasierte KI-Bausteine einplanen,
um den Geschwindigkeitsvorteil zu nutzen.
Doch warum stagniert die KI in Spielen und gleichzeitig wird die Grafik immer
realistischer?
Ein sehr verpixelter Ernter aus Command & Conquer – Der Tiberium Konflikt, fährt
auf der Suche nach Tiberium in die gegnerische Basis und zerplatzt in einer kleinen
hässlichen Miniexplosion. Das war 1996. 2007 fährt der Ernter auf höchsten
grafischen Niveau ebenfalls in die gegnerische Basis und wird von Läsern zerfetzt
und sehr realistisch fliegen die Trümmer durch die Landschaft. Warum ist der Ernter
noch so dumm, wie er es elf Jahre vorher auch schon war? Was ist miter KI los?
Warum sind aber Schachprogramme so gut und schlagen seit den 90-iger Jahren
selbst Schachweltmeister?
Der Technische Direktor bei Related Designs und Chef-Programmierer des AufbauStrategiespiels Anno 1701 Thomas Stein erklärt es folgendermaßen: Beim Schach
hat man 64x64 Felder und sechs unterschiedliche Figuren, bei Anno sind es
1000x1000 Felder und 100e gebäude, Warenketten und Personen. Kein Computer
der Welt kann die sich daraus ergebenen unendlichen Möglichkeiten an
Spielsituationen berechnen. Daher schummelt die KI um mit der Komplexität der
Spiele zurecht zu kommen. In Anno z. B. baut der Computer seine Häuser und Wege
nicht Stück für Stück, wie der menschliche Spieler, sondern verwendet vordefinierte
Gebäudemuster. Die Kunt besteht darin, dass der Spiele die kleinen Schummeleien
nicht mitbekommt. So gibt’s bei Anno mehrere Gebäudemuster für Werkstätten, die
sich von Insle zu Inse unterscheiden.
Der Spieler erwartet, dass die KI flexibel reagiert und ihn immer wieder mit neuen
Varianten überrascht. Das wollen jedoch viele Programmierer nicht, zumindest nicht
bei den Kampagnen, immer noch das Herzstück der meisten Spiele. „Bei einer
Kampagne kann die KI häufig kontraproduktiv sein“, sagt etwa Dirk Steenpass. Er
programmierte für Blue Byte die KI von Die Siedler: Aufstieg eines Königreichs.
Dieser Teil von „Di Siedler“ musste viel Kritik einstecken, da der Gegener schon bei
Beginn des Spiels über voll ausgebaute Festungen verfügte. Laut den
Programmierern war dies eine bewusste Entscheidung, um nicht zu viel Kontrolle
abzugeben, da dass Spiel sonst schwieriger nach ihren Plänen zu steuern ist. Um die
KI in ein solches Korsett zu zwängen, verwenden sie sehr gerne Skripts, die sehr
aufwendiges, aber fest vorgeschriebenes Verhalten von Computergegnern enthalten,
die durch eine bestimmte Aktion des Spielers ausgelöst werden. Thomas Stein sagt
dazu, dass durch die Skripte viel Interaktion verloren geht, da man durch das Spiel
wie auf Schienen geleitet wird. Weiterhin kostet es viel Spielspaß, wenn die KI
unflexibel reagiert.
Ein weiteres Problem bei der KI ist, dass man
zu wenige Programmierer beschäftigt und zu
wenig Geld investiert. Dr. Andreas Gerber,
dipl. Informatiker, der am DFKI promovierte
und eine eigene Firma gründete, sagt, dass in
den meisten Spielen 12 – 24 Mann-Monate
Arbeit für die KI aufgewendet werden und es
müsste mindestens das 5-fache sein (ein
Mann-Monat = ein Angestellter arbeitet einen
Monat). Thomas Stein sagt dazu, in Anno
1701 investierte man 36 Mann-Monate. Bei
den Siedlern wurden schätzungsweise 40 Mann-Monate aufgewendet. Das liegt über
dem Durchschnitt, aber dennoch weit unter der geforderten Zeit von Dr. Gerber.
Welche Gründe gibt’s, dass die KI so stiefmütterlich behandelt wird? Knallhart
gesagt, verkaufen sich Spiele nicht durch die KI, sondern durch spektakuläre Grafik,
innovative Spielelemente und coole Charaktere. Das macht sich immer gut in der
Werbung. Denn sicher hätten nicht mehr Käufer zu C&C 3 gegriffen, wenn der Ernter
schlauer gewesen wäre. Die Priorität liegt also nicht auf der KI. Die KI könnte nur aus
ihrem Schattendasein treten, wenn man sie zum zentralen Spielelement aufsteigen
lässt. Doch die Programmierer scheuen sich davor. An jeder KI-Schraube an der sie
drehen, hat Auswirkungen auf das gesamte Spiel. Würde z. b. unser Ernter aus C&C
plötzlich hochintelligent und voll automatisch alle Tiberiumfelder abernten, geriete
das gesamte Rohstoffmanagement ins Wanken und könnte zu anspruchslos werden.
In einem Ego-Shooter wäre das komplette Missionsdesign für die Tonne, wenn auf
einmal alle Gegner alle Deckungsmöglichkeiten benutzen würden und in der
Massenschießerei der ersten Mission der Held keine Chance mehr hätte. „Wenn du
eine KI komplett neu entwickeln musst, bedeutet das immer viel Improvisation.
Das kostet Zeit und Nerven“, verdeutlicht
Thomas Stein. Und Zeit ist bekanntlich Geld
und das besonders in der Spielebranche. In
ihr lassen sich die Finanzen sehr schwer
planen und verschiebt sich ein Spiel nur um
ein par monate, kann das für ein kleines
Entwicklerteam schon das Aus bedeuten. So
lassen die meisten di Finger von größeren KIInnovationen. Dr. Andreas Gerber meint dazu,
dass die Grafik und die Physik weiter
entwicket werden, doch die KI aus dem
Vorgänger übernommen wird. Das ist vor
allem bei Spieleserien mit hoher Ersheinungsfrequenz so. Das dürften auch die
Spieler von Fifa oder Need for Speed schon bemerkt haben.
Die Probleme liegen aber nicht nur beim Geld oder der Software sondern auch in der
Hardware. NVIDIA und ATI veröffentlichen jedes Jahr eine neue
Grafikkartengeneration mit doppelt so viel Leistung und neuen Spezialeffekten, die
für die Grafikdesigner quasi auf Knopfdruck zur Verfügung stehen. Dr. Andreas
Gerber stellt hierzu fest, dass die meisten KI-Entwickler der Meinung sind, dass KI
nur 5% Rechenleistung in Anspruch nehmen darf, nötig wären jedoch mehr als das
Doppelte. Die Hoffnung liegt nun in der Entwicklung von Mehrkernprozessoren. Um
eine vernünftige KI zum Laufen zu kriegen, bräuchten wir 8-Kern-Prozessoren. Bis
dahin dauert es noch eine Weile und ein Spiel muss ja auch bei den
Mindestanforderungen gut laufen und nicht nur auf High-End-Maschinen.
Erwähnenswert ist auch, dass Grafik- und Leveldesigner Programme für ihre
Modellierungen haben, aber die KI-Entwickler unvorstellbarerweise heutzutage noch
den ganzen Quellcode per Hand tippen müssen.
Ein weiteres der zahlreichen Probleme besteht in der Ausbildung von KI-Experten für
Spiele-KI. Die deutschen Unis vernachlässigen die Ausbildung dafür. Es gibt zwar
viele brillante Programmierer, aber ihnen fehlt die Erfahrung im Bereich der KI, wozu
Kenntnisse über Neuronale Netze und Planungssysteme gehören.
Die Ursache liegt bei konservativen Professoren, die mit Computerspielen nichts
zutun haben wollen. Doch langsam wird die Sache etwas aufgeweicht. Die Uni
Saarland hat ein Labor für Multimedia und KI eingerichtet und Microsoft beliefert
immer mehr Unis mit xBox-360-Entwicklerkits für Praxisseminare.
Können wir uns somit auf eine „intelligente Zukunft“ freuen? Das wird wohl noch
etwas dauern. Bis genügend Spiele-KI-Experten die Unis verlassen und den Weg zu
den Spieleentwicklern finden. Man wird wohl in nächster Zeit weiter den bequemen
Pfad beschreiten und sich mehr um Grafik und Physik kümmern. Doch auf Dauer
wird der Spieler sich mit einer dummen KI nicht zufrieden geben und die die Firmen
müssen mehr in die KI investieren. Grafik und Physik sind eben nicht alles …
12.1 Quellenangaben
http://www.tecchannel.de/webtechnik/entwicklung/1744817/warum_kuenstliche_intelli
genz_ki_in_spielen_stagniert/
http://209.85.129.132/search?q=cache:ubQw_JqccCsJ:download.pokorra.de/fh/kispi
ele/ausarbeitung.pdf+ki+bei+spielen&cd=2&hl=de&ct=clnk&gl=de
http://spiele.t-online.de/c/15/62/06/28/15620628.html
 Bonusmaterial
http://www.golem.de/0506/38899.html
 Bonusmaterial
http://www.golem.de/0208/21212.html
 Bonusmaterial
http://www.golem.de/0507/39121.html
 Bonusmaterial
http://gameai.mi.fu-berlin.de/
http://www.mi.fu-berlin.de/misc/langenacht/lndw2009/ag-spiele.html
 Bonusmaterial
http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/neues/sendung
en/magazin/99588/index.html
 Bonusmaterial
http://www.plm.eecs.uni-kassel.de/plm/index.php?id=573
 Bonusmaterial
13. Abschließende Worte
Am Ende meiner Projektarbeit stelle ich fest, dass ich vom Thema „Künstliche
Intelligenz“ sehr überrascht und überwältigt wurde. Ich war auch vom Fernsehen
geblendet und „Data“ stand für mich für KI. In welche Bereiche KI überall hinein wirkt
und gehört, was durch die KI-Forschung eigentlich alles erst möglich geworden ist, z.
B. die alseits beliebten Computerspiele, war mir so deutlich nicht klar. Das die
moderne Psychologie der Entwicklung der Computer und der KI-Forschung zu
verdanken ist, hat mich ebenfalls beeindruckt. Natürlich kam ich auch ins Grübeln
und hatte bedenken, was die stareke KI-Forschung betrifft. Einige Tendenzen sind
tatsächlich bedenklich. Da sich aber auch Philosophen und Ethiker mit den Begriffen
der Intelligenz und dem künstlichen Leben auseinander setzen, gibt es ja zu den
Utopisten der starken KI und ihrer Unvorsichtigkeit einen Gegenpol.
Schön ist auch, dass intelligente Computersysteme im Alltag immer mehr Einfluss
nehmen werden. Dies wird behinderten und alten Menschen eine große Hilfe sein.
Besonders gespannt bin ich, was die Textverarbeitung und die Spiele-KI in
absehbarer Zeit leisten werden.
Für mich war das Praktikum eine wertvolle Erfahrung. Ich habe mich mit einem
Thema beschäftigt, von dem ich keine Ahnung hatte. Meine Entscheidung, ein
Studium zu beginnen, ist gereift. Ich habe nette Menschen kennen gelernt. Rundum
bin ich sehr zufrieden.
Zum Schluss möchte ich mich bei Prof. Hartmann und Schenke für Ihre kompetente
Unterstützung bedanken.
Data
Lore
Lal
14. Hinweis
Ich habe in der hier vorliegenden Arbeit Grafiken, Bilder und Logos der
verschiedenen und in den Quellenangaben verzeichneten Webseiten eingefügt.
Diese dienen der Veranschaulichung der benannten Personen und Institute sowie
meiner Kommentare und sind in den meisten Fällen urheberrechtlich geschützt. Sie
dürfen daher nur für private und nicht gewerbliche Zwecke benutzt werden.
Herunterladen