Künstliche Intelligenz - Elisabeth Gymnasium Halle

Werbung
Elisabeth Gymnasium Halle/Saale
Fach Informatik
Herr H. Krause
Künstliche Intelligenz
Das neue EVA-Prinzip
Eingabe – Verstehen – Ausgabe
Alexander Möhwald
Klasse 11c
Schillerstr. 7
06258 Schkopau
E-Mail: [email protected]
1
Inhaltsverzeichnis
1. Einleitung
3
2. Programmierte künstliche Intelligenz
5
2.1 PROLOG
6
2.2 Expertensysteme
7
2.3 Kritik am Turing-Test
8
3. (Künstliche) Neuronale Netze
10
3.1 Neuronenmodelle
10
3.1.1 Biologische Neuronen
10
3.1.2 Typische Neuronen
11
3.1.3 Single Spike-Modelle
11
3.2 Typische Netzwerkstruktur
12
4. Zwischenbilanz: Intelligenz?
13
5. Der Cortex
14
5.1 Invarianz
14
5.2 Lernen und Verstehen
15
6. Fazit
16
7. Selbstständigkeitserklärung
17
8. Literatur- und Quellenverzeichnis
18
2
1. Einleitung
Im Jahr 2006 wurde ein Buch von Dieter Nuhr veröffentlich, in dem es um die Frage
geht, ob es intelligentes Leben gäbe.
Das Fazit dieses Buches lautet: „Jein“, da Intelligenz ein kaum definierbarer Begriff
und relativ ist: So ist es zum Beispiel sehr intelligent, wenn es ein Bakterium schafft,
durch bloße, natürlich unbewuss te, Befolgung von Naturgesetzen, ihre Spezies nicht
aussterben zu lassen, doch ist es aus Sicht des Menschen sehr viel intelligenter
etwas wie Einsteins Relativitätstheorie zustande zu bringen.
(Deswegen an dieser Stelle: In dieser Arbeit soll es nicht um die Intelligenz im
„menschlichen Sinn“ gehen, sondern um die allgemeine kognitive Intelligenz.
Der Unterschied besteht letztlich nur in der Komplexität und der Art der eingehenden
Muster der neuronalen Strukturen.)
In der Informatik sind die Ansätze künstliche Intelligenz zu schaffen, nicht weniger
konträr. Während das eine große Lager versucht, mithilfe von Software und jeder
Menge logischer Operatoren intelligentes Verhalten zu erzeugen, versucht es das
andere mit biologischen Vorbildern und teilweise sogar mit komplett neuen
Mechanismen. Diese gehen dann schon fast in Richtung „positronisches Gehirn“ á la
Star Trek. Wie die intelligenten Masc hinen letztlich genau arbeiten, ist noch nicht
absehbar, dennoch möchte ich in dieser Arbeit die zwei großen Ansätze vorstellen
und abwägen, ob, und falls ja, welcher intelligente Maschinen hervorbringen kann.
Doch bevor ich mich den KI Konzepten zuwende, stelle ich noch dar, weshalb es
sinnvoll ist künstliche Intelligenzen zu entwickeln.
Spontan würde ich persönlich auf die Frage nach dem Sinn antworten: „um das
Leben leichter zu machen“. Das ist jedoch sehr allgemein und auch nur ein Teil.
Deswegen werde ich dies nun mehr spezifizieren:
KI soll die allgemeine, natürliche Intelligenz der Menschen unterstützen und auch
erweitern. Die Unterstützung erfolgt schon z.B. durch sogenannte Fuzzy-Systeme
oder durch Neuronale Netze, die aber noch auf zu niedrigem Niveau arbeiten, um
eine wirkliche Erweiterung der Intelligenz darzustellen. Heutzutage sind viele
Erleichterungen im Alltag schon auf KI- Technologien aufgebaut: z.B.
Verkehrsleitsysteme, die „Staus aus dem Nichts“ verhindern, Routenplaner, die den
kürzesten Weg suchen oder auch die Vorhersage von Aktienkursen mit eben diesen
3
Neuronalen Netzen.
Ein weiteres Teilgebiet der KI-Forschung ist die Robotik. In diesem Bereich geht es
um die Entwicklung von Robotern mit guten kognitiven und motorischen
Eigenschaften, damit diese für Menschen zu gefährliche, langwierige oder sogar
unmögliche Aufgaben lösen können. So werden zum Beispiel neue Raumso nden,
die zum Jupiter oder weiter fliegen, mit künstlicher Intelligenz ausgestattet, da die
Datenübertragung zu lange braucht, um rechtzeitige und korrekte Reaktionen auf ein
Ereignis zu ermöglichen.
4
2. Programmierte künstliche Intelligenz
Dieser Ansatz ist der erste, den ich vorstellen möchte, und der erste den es gab.
Seinen Anfang nahm der Ansatz der KI Forschung mit dem Aufkommen der
Digitalcomputer, als Alan Turing den ersten universell einsetzbaren Computer
theoretisch entwickelte: Die Turing-Maschine. Eine Maschine, die mit nur einer
Steuereinheit, einem Schreib-/ Lesekopf, einem unendlich langen Speicherband
sowie einem Regelwerk, dem Programm, jede mögliche Aufgabe lösen kann. Nach
dieser wichtigen Entwicklung wandte er sich der Frage zu, ob es intelligente
Maschinen geben könne. Er kam zu dem Schluss, dass laut seiner eigenen,
mathematisch bewiesenen Theorie dies möglich sein muss, da die Turing-Masc hine
alle erdenklichen Operationen durchführen kann und das Gehirn „auch nur“ jede
Menge logischer Operationen durchführt. Deshalb ersann er ein Kriterium, an dem zu
messen sei, ob eine Maschine intelligent ist, den sogenannten Turing-Test: Wenn ein
Rechner so auf Aussagen oder Fragen eines Menschen reagiert, dass dieser glaubt,
eine reale Person würde antworten, dann sei die Maschine intelligent. Zu diesem
Test, besonders zu Turings Irrtum, später mehr.
Dieser Versuch, intelligente Systeme zu schaffen, basiert zum großen Teil auf
Turings Theorie, die Turing-Masc hine - und so mit auch der Digitalcomputer - könne
unter den richtigen Bedingungen sämtliche Operationen durchführen. Ein weiteres
Argument für dieses Konzept stammt aus einem wisse nsc haftlichen Artikel von
Warren McC ulloch (Neurophysiologe) und Walter Pitts (Mathematiker), in dem sie die
These aufstellen, dass Neuronen letztendlich logische Gatter sind, da sie entweder
feuern, wenn bestimmte Bedingungen erfüllt sind, oder nicht, an oder aus, 1 oder 0
und somit auf den gleichen Grundbausteinen basieren wie Rechner, die auch aus
verknüpften logischen Gattern bestehen. Dies spricht nochmals dafür, dass
Intelligenz mit einem „normalen“ Rechner umgesetzt werden kann. Somit kann man
die biologischen Mechanismen vernachlässigen und eigene, viel effizientere,
intelligente Programme entwerfen.
5
2.1 PROLOG
Ein wichtiges Hilfsmittel hierzu sind Programmiersprachen wie zum Beispiel
PROLOG (PROgrammation en LOGique), sogenannte Sprachen der 5. Generation.
Bei diesen Programmiersprachen handelt es sich nicht um imperative Sprachen, wie
zum Beispiel Delphi, Visual Basic oder Java, sondern um funktionale Sprachen, d.h.
diese Sprachen basieren nicht auf Befehlen wie „if.. then” oder „while.. do“, so ndern
auf Funktionen und logischen Operatoren wie UND, ODER oder NICHT. Ein
Spezialfall der funktionalen sind die deskriptiven Sprachen zu denen auch PROLOG
gehört. Bei ihnen wird nicht der Lösungsweg, sondern das zu lösende Problem
implementiert, sodass der Interpreter und somit das System selbst das Problem löst.
Da diese Problembeschreibung eine bestimmte Form erfordert, ist PROLOG am
besten für Aufgaben geeignet, die sich prädikatenlogisch formulieren lassen.
Prädikatenlogik ist eine Erweiterung der Aussagenlogik, wobei Prädikate Aussagen
mit Parametern, den sogenannten Individuen, sind, die nur dann wahr werden, wenn
die Kombination von Individuen korrekt ist. Einem Prädikat können n Individuen
zugewiesen werden.
Bsp. Quartalsarbeit(alexander, möhwald, Np, Abgabedatum)
Quartalsarbeit ist somit ein 4-stelliges Prädikat. Dabei sind die klein geschriebenen
Individuen Konstanten und die großgeschriebenen Variablen. Variable ist in dieser
Sprache jedoch als mathematischer Begriff zusehen. Deswegen gibt es in PROLOG
auch keine Wertzuweisungen wie X = X +1. PROLOG würde dies als Aussage
anse hen und versuchen diese zu wahr werden zu lassen, was natürlich unmöglich
ist.
Neben diesen Fakten gibt es in PROLOG noch Regeln. Diese sind immer in der
Form
a → b (bzw. in PROLOG b :- a )
“b gilt, wenn a gilt”
dargestellt. Dies ist im weiteren Sinne mit „if.. then .. := true“ vergleichbar. Neben den
Fakten und Regeln gibt es auch einige wenige Befehle wie z.B. „write“, falls
Ergebnisse einer Berechnung o.ä., die nicht wahr oder falsch sein können,
ausgegeben werden sollen. PROLOG kann jedoch nicht nur wahr oder falsch bzw.
6
Ergebnisse von Berechnungen ausgeben, sondern auch Individuen bzw. deren
Werte, für die die Prädikate wahr werden.
2.2 Expertensysteme
Expertensysteme sind das wichtigste Anwendungsgebiet von PROLOG und anderen
deskriptiven Sprachen. Sie bestehen im Wesentlichen aus einer Wissensbasis in
Form von Datenbanken (Listen von Fakten und Regeln), einer
Wissensveränderungskomponente, die das Editieren der Wissensbasis ermöglicht
und einer Inferenzmaschine, die oft Teil der benutzten Programmiersprache ist und
entweder gegebene Theorien mithilfe der Wissensbasis überprüft oder aber auch
eigene Schlussfolgerungen aus der Wissensbasis und eventuellen Eingaben ziehen
kann. Hinzu kommt seit einigen Jahren eine Dialogkomponente, also eine
benutzerfreundlichere Oberfläche als die des Interpreters und eine Trace- oder auch
Erklärungskomponente, die dem Benutzer bei Bedarf einen Verlauf der
Schlussfolgerung als Verifikation des gefundenen Ergebnisses liefert. Weil das
Sammeln von Regeln und Fakten und das Umformen in aussagen- und
prädikatenlogische Klauseln jedoch sehr umständlich ist, und weil die Anwendungen
noch immer programmiert werden müssen, finden Expertensysteme inzwischen
allgemein weniger Beachtung als Neuronale Netze, die lernfähig sind, also nur
trainiert, nicht programmiert werden. Außerdem sind Expertensysteme nur für die
eine spezielle Sache nützlich, für die sie programmiert wurden und nicht für Anderes
einfach übertragbar.
7
2.3 Kritik am Turing Test
Ende der 1940er fragte sich Alan Turing ob es intelligente Maschinen geben könne
und welches Kriterium geeignet wäre zu erkennen, ob diese intelligent ist. Die
Antwort darauf ist in dem sogenannten Turing-Test formuliert: Eine Masc hine ist
dann intelligent, wenn ihr Verhalten sich nicht von dem eines Menschen
unterscheiden lässt. Doch dieser Beweis für Intelligenz erwies sich bald als inkorrekt.
Der Irrtum, der Turing unterlief ist, dass er „intelligentes“ Verhalten mit wahrer oder
echter Intelligenz verwechselt.
Ein Beispiel für ein, zwar clever programmiertes, doch nicht intelligentes Programm
ist „Eliza“ von Joseph Weizenbaum. Dieses Programm nutzte grammatische Regeln
um eingegebene Sätze so umzuformen, dass es wie eine intelligente Antwort
erschien, z.B. Testperson: „Meine Frau und ich reden nicht mehr miteinander.“ Eliza:
„Warum, denken Sie, reden Sie und ihre Frau nicht mehr miteinander?“ Manche
Probanden versicherten selbst nachdem sie erfahren hatten, dass dies keine Person
mit psychologischen Fähigkeiten ist, dass der Rechner sie verstanden habe.
Dieses Programm befindet sich in perfekter Analogie zu dem Gleichnis vom
Chinesischen Zimmer von Searle. Dieses verdeutlicht sehr deutlich den Unterschied
von Intelligenz, also Verstehen und Verhalten.
Ein nichtchinesisch sprechender Mensc h sitzt in einem Zimmer mit unbegrenzt vielen
Zetteln und Stiften und einem dicken, aber verständlichen Regelbuch, das den
Umgang mit chinesischen Schriftzeichen beschreibt, ohne jedoch deren Bedeutung
zu nennen. Ein Chinesisc h-sprechender schiebt unter dem Türschlitz eine
Geschichte und Fragen zu dieser, beides auf Chinesisch, hindurch. Der Mensc h in
dem Zimmer beginnt zu arbeiten, schreibt sich verschiedene Zeichen auf, verschiebt
die Zeichen, löscht manche und fügt weitere hinzu, je nachdem, was laut Regelbuch
verlangt ist. Nachdem ihm das Regelbuch sagt, er sei fertig, schiebt er die Antworten
auf die gestellten Fragen wieder durch den Türschlitz und der Chinese wird erstaunt
sein, da alle Fragen richtig, und teilweise sogar mit Witz, beantwortet sind. Und er
wird vermuten, dass die Person im Zimmer chinesisch kann und die Geschichte
verstanden hat.
Doch da liegt er falsch, denn weder die Person im Zimmer (= CPU) noch das
Regelbuch (= Software) hat die Geschichte verstanden. An keiner Stelle wurde etwas
8
verstanden. Doch Verstehen ist essentiell für intelligente Maschinen (lat.
intelligentia= Verstand). Zwar ist es den Programmen dieses Ansa tzes gelungen,
Verknüpfungen zwischen verschiedenen Fakten zu erstellen, zu schlussfolgern und
auch leichte kognitive Aufgaben zu bewältigen, doch komplexe Aufgaben, wie das
Beschreiben einer Szene oder das Abstrahieren, autonomes Lernen oder das
Vorhersagen mithilfe von Erfahrungen sc heinen mit diesem Konzept unlösbar.
9
3. (Künstliche) Neuronale Netze
Künstliche Neuronale Netze (KNN) unterscheiden sich in Aufbau und Funktionalität
grundlegend von anderen Anwendungen wie zum Beispiel Expertensystemen. Zum
einen werden KNN mithilfe verschiedenster Lernverfahren trainiert, nicht
programmiert, wodurch die Fähigkeit zu abstrahieren entstehen kann, zum anderen
hat das NN an sich keine zentrale Recheneinheit, ist also nicht nach der VonNeumann-Architektur konzipiert, sondern jedes einzelne Neuron reagiert je nach
Aufbau auf gegebene Inputs, wodurch eine enorme Parallelität erzielt wird.
Desweiteren basiert es, wenn teilweise auch nur sc hematisch, auf biologischen
Mechanismen im Gehirn, also dem Sitz der echten Intelligenz. NN haben bei
Erfüllung verschiedener Bedingungen (z.B. darf das Netz nicht über-trainiert sein)
noch weitere Vorteile gegenüber der programmierten KI, wie zum Beispiel adaptives
Verhalten, Fehlertoleranz und die Fähigkeit zu Generalisieren, doch das ist stark von
den verwendeten Netztopologien und Neuronenmodellen abhängig.
3.1 Neuronenmodelle
3.1.1 Neuronen im Gehirn
Der Zellkörper des biologischen Vorbilds besitzt
viele Verästelungen, von denen höchstens eine das
Axon bildet. Durch das Axon werden die
Ausgabesignale eines Neurons an weitere
weitergegeben. Ein Neuron hat also immer
höchstens einen Ausgabewert. Diese Signale
kommen zustande, wenn die von den Dendriten
aufgenommene Spannung einen bestimmten Wert
überschreitet. Die Nervenzelle „feuert“. Ein
biologisches Neuron kann höchstens 200mal in der
Sekunde feuern. Je nach Anzahl der Rezeptoren an
Abb. 1: Neuron im Gehirn - Schema
den Synapsen sind die Dendriten verschieden
gewichtet. Durch die Änderung der Gewichte und das Aufbauen neuer Verbindungen
kann ein Neuronales Netz lernen.
10
3.1.2 Typische Neuronen
Die typischen künstlichen Neuronen haben wie die biologischen Vorbilder eine
bestimmte Menge von Eingängen (Dendriten), einen „Zellkörper“(Soma) und einen
Ausgang (Axon). Die Feuerrate wird bei diesen Modellen durch einen Eingangswert
(e
) dargestellt, welcher sich bei der
sogenannten Feuerraten Codierung im
Intervall [-1|+1] befindet, da alle Spikes
sehr ähnlich sind und weil es eine
maximale Feuerrate gibt. Das
Vorzeichen gibt in diesem Fall an, ob
der präsynaptische Impuls aktivierend
(+) oder inhibierend (-) ist. Bei
biologischen Neuronen wird dies durch
Abb. 3: Typisches Modell eines künstlichen Neurons
die Lage der Synapsen bestimmt
(Dendrit → + / Soma → - ). Durch die Gewichtung (w
) wird der Durchlasswert
der Synapse simuliert. Das KNN kann durch die Änderung der Gewichte lernen
(s. 5.2). Der Ausgangswert a des Neurons wird, abhängig von der Art desselben,
entweder im Intervall (0|1) [Pyramidenzelle(„Standardzelle“)] oder auch im Intervall
(-1|+1) ausgegeben.
3.1.3 Single-Spike-Modelle
Diese Modelle beschreiben eine der
neusten Klassen und kommen den
Neuronen im Gehirn am Nächsten, da
hier einzelne Spikes simuliert werden.
Spikes sind die Impulse, die durch die
Kanal- vermittelte Diffusion der Na+
Ionen ins Zellinnere entstehen. Sie
zeichnen sich außerdem dadurch aus,
Abb. 2: Form eines Spikes
dass sie Laufzeiten in Dendriten
simulieren, somit die zeitliche Verzögerung implementieren (s. typische Netzwerkstruktur -> assoziativer Speicher) und dass die Zunahme der Aktivität, unter
Beachtung der leichten Abnahme durch die Depolarisierung, während eines längeren
Zeitraums beachtet wird. Anso nsten sind sie wie die typisc hen künstlichen Neuronen
aufgebaut und arbeiten wie diese.
11
3.2 Typische Netzwerkstruktur
Alle KNN bestehen im Grunde aus drei Schichten, den sogenannten Layern: Das
erste ist das Input-Layer, an ihm treffen Muster auf das NN. Diese aufgenommenen
Muster werden an das Hidden-Layer weitergegeben,
wo die Muster oder auch Musterfolgen verarbeitet,
umgewandelt und eventuell gespeichert werden. Die
umgewandelten Muster aus der „versteckten Schicht“
werden nun an den Output-Layer gereicht, wo das NN
ein bestimmtes Verhalten zeigt.
Abb. 4: Schichten eines NN
Bei den KNN unterscheidet man desweiteren
zwischen Feed-Forward-Netzwerken, bei denen alle
Verbindungen von der Eingabe-Schicht in Richtung des Output-Layers führen, und
den rekurrenten Netzwerken, bei denen die Neuronen direkte Verbindungen oder
Verbindungen über andere Neuronen (indirekt) zu sich selbst aufweisen. Dieses
Feedback kann einen sehr interessanten und wichtigen Effekt erzielen: den
sogenannten autoassoziativen Speicher. Legt man auf das Netz ein bestimmtes
Aktivitätsmuster, so wird dieses gespeichert, indem das Muster mit sich selbst
assoziiert wird. Ein entscheidender Vorteil gegenüber dem herkömmlichen Speicher
ist, dass der assoziative Speicher inhalts- und nicht adressbezogen ist. Es wird
später das ganze Feld von Neuronen aktiviert, selbst wenn nur ein Teil oder ein
fehlerhaftes Muster auf den Speicher trifft. Die autoassoziativen Speicher haben
noch eine Eigenschaft: wird die Rückkopplung zeitlich verzögert, so ist das Netz in
der Lage, Folgen von Mustern zu speichern. Die Neuronen feuern dann in einem
bestimmten Rhythmus.
Diese Arten von künstlichen Neuronen und Netzwerken werden in Rechnern
simuliert. Obwohl man mit diesen Modellen sehr komplexe und interessante Effekte
erzielen kann, geht man nun dazu über, die Neuronen physisch, nicht virtuell
herzustellen. Ein Grund dafür ist die enorme Rechenleistung, die vonnöten ist, um
annähernd Intelligenz zu erzeugen. So hat es 2007 den Supercomputer Blue Gene
von IBM mit 1 TB Arbeitsspeicher an seine Grenzen gebracht, ein Neuronales Netz
zu simulieren, das einer Hemisphäre einer Maus gleichkommt. Doch hat dieses Netz
mit einem zehntel der Geschwindigkeit gerechnet, wie es eine Mäusegehirn-Hälfte
getan hätte. Außerdem nimmt die Simulation von Neuronalen Netzen denselben
12
einen großen Vorteil: Die massive Parallelität. Es ist beinahe so, als würde man mit
einem Supercomputer einen 500 Mhz Prozessor mit all seinen physikalischen
Eigenschaften generieren, der „TETRIS“ ausführt.
4. Zwischenbilanz: Intelligenz?
Nachdem ich mich sehr intensiv mit diesen Konzepten befasst habe (auch wenn ich
nicht alles in dieser Arbeit festgehalten habe), habe ich festgestellt, dass keiner
dieser Ansätze in der jetzigen Form intelligente Maschinen hervorbringen kann, da
die meisten Verfechter beider Konzepte dem Trugschluss unterliegen, dass
Intelligenz sich durch intelligentes Verhalten äußert. Dies ist jedoch nur ein kleiner
Teil des eigentlichen Intelligenzbegriffes. Intelligentes Verhalten kann auch mit
anderen nicht- intelligenten Mitteln simuliert werden. Doch das Verstehen von
Objekten oder Abstrakten, wie zum Beispiel Wörtern, kann nicht simuliert werden.
Ich glaube aber nicht, dass Intelligenz an den menschlichen Körper gebunden ist.
Vielmehr vermute ich, dass das Denkorgan der intelligenten Maschinen dieselbe
Struktur aufweisen muss, wie das Gehirn, genauer gesagt, wie der Neocortex von
Sägern. An seinen Aufbau ist die höhere Intelligenz gebunden. Daraus folgt, dass
das Konzept der KNN reformbedürftig, aber zukunftsfähig ist. Doch muss die jetzige
dreischichtige Form, durch die je sechsschichtige, vielfach hierarchisch unterteilte
Struktur der Großhirnrinde ersetzt werden. Ich denke, dass das Gehirn, entgegen
den Ansichten einiger KI-Forscher, mit der Ausnahme von einigen evolutionär
bedingten „eingefrorene[n] Unfälle[n]“(Die Zukunft der Intelligenz, S.50, Z.34) , die
effizienteste, universellste und fehlertoleranteste „Problemlösungsmaschine“ ist, die
der Mensch nutzen und nachvollziehen kann und dass es das Ziel der KI Forschung
sein sollte dieses Wunderwerk der Natur zu entsc hlüsse ln und letztendlich auf
Siliziumbasis (oder ...?) umzusetzen, damit wir es mit komplett neuen Sinnen zu
unserem Vorteil ausstatten können.
13
5. Der Cortex
Der Grund für diese Annahme liegt wiederum in der Gestalt des Gehirns, These n
rund um diese und die Annahme, dass es möglich ist, mit relativ konservativen
Mitteln Neuronen nachzubilden. Die Arbeit des Neurowisse nsc haftlers Vernon
Mountcastle stellt den Anfang dieser Kette von Thesen dar. Mountcastle schloss aus
den Ergebnissen seiner Untersuchungen, welche aufzeigen, dass alle kortikalen
Areale gleich aussehen, dass der Cortex einen universellen Algorithmus nutzt.
Dieser universelle Algorithmus folgt einigen, an sich einfachen Prinzipien, von denen
hier einige erläutert werden sollen.
5.1 Invarianz
Invarianz ist das Fundament aller kognitiven Aufgaben und beinhaltet sowohl das
Konvergieren visueller Inputs zu einem Objekt (konkret) als auch die Zuordnung
eines Wortes zu einem Überbegriff (abstrakt).Es ist noch nicht exakt bekannt, wie
Invarianz zustande kommt, doch sind die grundlegenden Prinzipien bekannt. Diese
sollen hier anhand des visuellen Bereichs erläutert werden, da dieser gut untersucht
ist und, laut Mountcastle, dies analog auf alle anderen Bereiche des Cortexes
übertragbar ist. Visueller Input von der Retina ist derart gestaltet, dass eine Gruppe
von Zellen in V1, dem primären visuellen Areal feuert. Verschiedene Säulen in
diesem Bereich sind aktiv, sodass in einer hierarchisch höheren Schicht eine weitere
Säule feuert. Durch diese Konvergenz von Inputs verschiedener Stellen der Retina
werden Details zu einem etwas allgemeineren „Namen“ in Form von einer Gruppe
feuernder Neuronen zusammengefasst. So wird zum Beispiel eine Summe von
Kanten in stecknadelkopf-großen Sichtbereichen, den rezeptiven Feldern zu einer
langen zusammengefasst. In der nächsthöheren Region konvergieren Informationen
von dieser und weiteren Kanten sowie weiteren Eigenschaften des Objekts, dass in
der wiederhöheren Region ein „rotes, viereckiges Objekt mit drei weißen Punkten“
entsteht und sich das rezeptive Feld pro Neuron im Vergleich zu V1 erheblich
vergrößert. Zusammen mit anderen Informationen kommen Sie schließlich zu dem
Gedanken:“Ah, ich habe eine „drei“ gewürfelt. “ Dieser Gedanke kann nun
verschiedene Aktivitäten hervorrufen: Erstens:
keine. Dies würde bei einem Brettspiel mit
Freunden jedoch sehr seltsam wirken.
Zweitens könnten Sie sagen: „Ja, die habe ich
gebraucht“ oder sie bewegen, drittens, ihre
Spielfigur um drei Felder nach vorn. Es ist nicht
nötig, die Information „‘Drei‘ auf dem Würfel“ für
jede Aktivität einzeln zu speichern, es ist sogar
unmöglich, da die Liste der möglichen
Reaktionen auf ein Ereignis potentiell unendlich
ist. Deshalb ist der Weg die Hierarchie hinunter
nicht so direkt, wie der hinauf, da Informationen
für die wiederherzustellenden Details fehlen.
Abb. 5: Schichten einer Säule im Cortex;
Nach unten gerichtet er Informations fluss
Diese werden durch Aktionspotentiale aus den
14
verschiedensten kortikalen Arealen ergänzt, da die Schicht 1-Neuronen einer jeden
Säule über eine Vielzahl von Dendriten verfügen, die sowohl in die nähere
Umgebung, als auch durch das halbe Gehirn reichen. Durch diese zusätzlichen
Informationen ist es möglich, zu entscheiden über welche Neuronen das Signal
laufen muss . So teilt sich der nach unten gerichtete Informationsfluss bei dem
Beispiel des Brettspiels erst in den motorischen Arealen, sodass der Impuls
entweder zu Zunge und Stimmbändern oder zu Muskeln in Arm, Fingern und
ähnlichem geleitet wird.
5.2 Lernen und Verstehen
Im Bereich der KI Forschung sind Lernen und Verstehen noch immer unvereinbar
getrennt. Orientiert man sich jedoch an der Struktur des Gehirns, so ist Verstehen
eine fast unmittelbare Folge des Lernens. Wie bereits erwähnt, speichert ein Bereich
des Cortexes Musterfolgen, indem er durch Feedback autoassoziiert. Eine weitere
Form des Lernens, die auch in künstlichen NN zum Beispiel bei Backpropagation in
nahezu trivialer Form angewandt wird, ist das Lernen durch Änderung der Gewichte,
was bei dem biologischen Vorbild durch Ausprägung oder Reduktion von
Ionenka nälen in den Synapsen oder Bildung neuer Verbindungen erzielt wird (In
Hopfield-Netzen: Setzung der Gewichte von 0 auf≠0
x ) .
Durch häufiges Auftreten eines Musters werden die Durchlasswerte einer Summe
von Synapsen so verändert, dass ein Neuron bzw. eine Säule ihre Aktivität
vorausse hen ka nn, d.h. die Schicht 2- Neuronen feuern, bevor sie den eigentlichen
aktivierenden Reiz aus hierarchisch niedrigeren Schichten bekommt. Das wiederum
ist dadurch möglich, dass Zellen dieser Schicht über Verbindungen zu Neuronen in
Schicht 6 der hierarchisch höheren Region, zu Neuronen in der Umgebung und zu
Schicht 5-Zellen der umgebenden Säulen verfügt. Durch die Verbindung zur höheren
Region „weiß“ die Säule zu welchem größeren Objekt das Detail gehört, das sie
repräsentiert, da die Neuronen des höheren Areals ständig feuern und somit einen
„Namen“ wiederspiegeln. Die Verbindungen zu Säulen der nahen und weiter
entfernten Arealen bewirkt die „Kenntnis“ über Vorgänge in anderen Teilen des
Denkorgans und durch die Dendriten zu den Schicht 5-Zellen der umgebenden
Regionen kann das Neuron auf primitivster Ebene aus soeben geschehenem folgern,
ob sie feuern muss. Das NN hat erfolgreich gelernt, wenn es durch die Verknüpfung
von verschiedenen Bereichen und die richtigen Gewichte aus Gelerntem die
nächsten Inputs vorherse hen ka nn. Dann versteht der Bereich einen Sachverhalt. Da
dieses Verfahren zusammen mit einigen teils noch ungeklärten, teils komplexen,
eigenständig buchfüllenden Lernalgorithmen auf alle Bereiche des Gehirns
übertragbar ist, kann man dieses Verhalten vom kognitiven Bereich auf den der
Abstrakte übertragen. Ein Sachverhalt ist wahr, wenn aus Gelerntem zu
schlussfolgern ist, dass dieser Fall eintritt.
15
Mit dieser Struktur besitzt der Cortex außerdem eine sehr effiziente Weise Neues
von Bekanntem zu unterscheiden. Wenn ein Bereich einen bestimmten Input
erwartet. Dieser jedoch nicht eintrifft, so werden die Details dieses Inputs
weitergegeben, nicht nur eine „Zusammenfassung“. Dieses Signal ist in seiner
Summe stärker als das normale und damit wird die Aufmerksamkeit auf die neue,
ungewohnte Situation gerichtet.
Durch das Gedächtnis-Vorhersage-Modell ist auf diese Weise auch eine neue
Definition von „Verstehen“ geliefert:
Ein denkendes Wesen versteht etwas, wenn es zukünftige Aktivitäten eines Objekts
(oder Abstraktes) vorhersagen kann.
Dies ist auch das Gegenargument für Erwiderungen aus dem Lager der klassischen
KI, welche behaupten, dass das Neuron als solches das Objekt, wie auch die CPU,
nicht versteht, sondern nur in der Gesamtheit aller Neuronen ein Sachverhalt
verstanden wird, wie es laut der klassischen KI Forscher auch bei der Einheit von
Hard- und Software der Fall ist. Doch kann ein KI-Programm nur insofern Aktivitäten
oder Eigenschaften eines Abstrakts oder Objekts vorhersagen oder abstrahieren, wie
es vom Entwickler eingeplant ist. Das heißt, ein Programm ist letztlich nur so
intelligent, wie der Programmierer.
Ein neuronales Netz mit entsprechender Komplexität ist hingegen in der Lage auf
neue Situationen logisch zu reagieren, die vom Entwickler nicht einkalkuliert wurden.
Eventuell sind die „echten KI der ersten Generation“ in der Lage, effizientere KI als
sie selbst mit einer neuen Technologie zu entwickeln. Doch der Mensch sollte sich
erst einmal mit dem Ergebnis der Milliarden von Jahren währenden Evolution
„zufrieden geben“.
6. Fazit
Der Mensch wird innerhalb der nächsten fünfzig Jahre in der Lage sein, (wirklich)
intelligente Maschinen zu bauen. Deren Recheneinheit wird ähnlich wie das
menschliche Gehirn strukturiert sein und wird dementsprechend keine CPU und
keinen zentralen Speicher besitzen. Da eine Simulation eines solch komplexen
Netzes dem System des NN den großen Vorteil der massiven Parallelität nehmen
würde, wird das Denkorgan der Maschinen hardwareimplementiert sein. Weiterhin
denke ich, dass ab einem bestimmten Zeitpunkt konventionelle mikroelektronische
Schaltkreise durch Q-Bits ersetzt werden, da diese, im Gegensatz zu
transistorbasierten Neuronen, unendlich viele Zwischenzustände speichern können.
Doch zuvor wird es in der Konnektivität Neuerungen durch Mikromechanik, die ein
dynamisches System ermöglicht, geben, Dennoch vermute ich, dass die
verschiedenen Technologien (Turing-Maschine und Zeitlich-Hierarchisches
Gedächtnis) kombiniert werden, sodass ein z.B. Forschungshelfer eine Art Rechner
16
integriert hat, mit dem er „mental“ kommunizieren kann.
Ich denke auch, dass Masc hinen-Intelligenz die des Menschen einholen kann, da
mikroelektronische Elemente um den Faktor 1000 schneller sind als biologische
Neuronen. Ob dies in jedem Fall erstrebenswert ist, bezweifle ich, doch in Bereichen
der Forschung und Voraussage von Wetter und Naturkatastrophen (Erdbeben,
Vulka nausbrüche, etc.) ist sie es auf jeden Fall. Ob die Intelligenz der Maschinen
dazu genutzt werden sollte, intelligentere Maschinen zu schaffen, ist fraglich
(Selbstreplikation). Doch da Maschinen nur dann über Emotionen verfügen(ich denke
dabei das Gefühl der Unterdrückung und Gier und an die große Angst der
Menschen, dass intelligente Maschinen die Herrschaft über die Welt an sich reißen
wollen), wenn der Mensch sie mit den entsprechenden Arealen ausstattet, si nd
Intelligente Maschinen die wohl intelligenteste und hilfreichste Erfindung, die die
Menschheit je machen wird.
7. Selbstständigkeitserklärung
Ich erkläre, dass ich die Facharbeit ohne fremde Hilfe angefertigt und nur die im
Literaturverzeichnis aufgelisteten Quellen und Hilfsmittel verwendet habe.
Schkopau, den 23. 2. 2009
_____________________________
17
8.Literaturverzeichnis
Literatur
Zöller-Greer, Peter:
Künstliche Intelligenz Grundlagen und Anwendungen
Composia Verlag 2007
1. Auflage
Hawkins, Je ff :
Die Zukunft der Intelligenz
Rowohlt Taschenbuch Verlag 2006
Deutsc he Erstausgabe
Nuhr, Dieter:
Gibt es intelligentes Leben?
Rowohlt Taschenbuch Verlag 2006
22. Auflage
Rigoll, Gerhard:
Neuronale Netze: Eine Einführung für Ingenieure, Informatiker und
Naturwissenschaftler
Expert Verlag 1994
18
Internet
http://www.phillex.de/tu-test.htm (13.2., 15.00)
http://f.voegelivoegeli.ch/snm/seminare/maschinendenken/ThesenpapierMcCulloch.
pdf (13.2. 15.45)
http://www.zvb.tu-bs.de/newsletter/files/newsletter_1166710797.pdf (13.2.,17.00)
teacher.schule.at/laner/Aussagenlogik.ppt (13.2.,16.00)
http://lexikon.meyers.de/wissen/Expertensystem+(Sachartikel) (14.2. 10:55)
http://www.zait.uni-bremen.de/~mn/old/glossar/g/node7.html (14.2. - 20.2.)
http://www.elg-halle.de/allgemein/facharbeiten/Quantencomputer.pdf (21.2.,10.00)
http://www.jacobs-university.de/news/media/pressreleases/09812/print.html
(14.2.,17.00)
http://www.uni-bremen.de/campus/campuspress/unipress/06-173x.php3
(14.2.,18.00)
http://singularityu.org/academics/tracks/ (15.2.,16.30)
http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/wwwnnscript/prin.html
(14.2.,20.00)
http://www.golem.de/0811/63729.html (15.2.,19:30)
http://www.theregister.co.uk/2007/11/01/ibm_supercomputer_argonne/comments/
(16.2.,21.00)
http://books.google.de/books?id=iItfya8d6tEC&pg=PA267&lpg=PA267&dq=intelligent
ia+verstand&source=web&ots=hVl4DxGGJJ&sig=Mefes25npfl3nQn_nuLZZCvbHs&hl=de&ei=mGyRSfWdGY_S0AWGyPGFCw&sa=X&oi=book_r
esult&resnum=6&ct=result (18.2.,18.00)
http://www.heise.de/tr/Neue-Theorien-ueber-das-mensc hliche-Gehirn--/artikel/65175
(20.2.,21:00)
19
http://www.numenta.com/for-developers/education/DileepThesis.pdf (18.2.,17:30)
http://wwwuser.gwdg.de/~mherrma/v0/node59.html (16.2. - 20.2.)
http://wwwmath.uni-muenster.de/SoftComputing/lehre/seminar/ss96/wi_nn_1.ps.gz
(19.2.,19.30)
http://www.informatik.uni-frankfurt.de/asa/PSemWS04/HassanAusarbeitung.pdf
(20.2.,15.00)
http://ces.univkarlsruhe.de/teaching/Seminars_w0506/GNN/Grudnitsky_Ausarbeitung.pdf
(20.2.,20:30)
Abbildungen:
Abb.1: http://bidok.uibk.ac.at/library/raidel-analyse-dipl18.png
Abb.2: http://www.zait.unibremen.de/~mn/old/glossar/g/node16.html#GlossItemAktionspotential
Abb.3: Nach: Zöller-Greer: Künstliche Intelligenz, S. 104
Abb.4: http://1.bp.blogspot.com/_KRG734syqxQ/STCe0jsIxI/AAAAAAAAAaA/I55zB7kRnyo/s400/400pxArtificial_neural_network.svg.png
Abb.5: Hawkins: Die Zukunft der Intelligenz, S. 175
20
Herunterladen