Elisabeth Gymnasium Halle/Saale Fach Informatik Herr H. Krause Künstliche Intelligenz Das neue EVA-Prinzip Eingabe – Verstehen – Ausgabe Alexander Möhwald Klasse 11c Schillerstr. 7 06258 Schkopau E-Mail: [email protected] 1 Inhaltsverzeichnis 1. Einleitung 3 2. Programmierte künstliche Intelligenz 5 2.1 PROLOG 6 2.2 Expertensysteme 7 2.3 Kritik am Turing-Test 8 3. (Künstliche) Neuronale Netze 10 3.1 Neuronenmodelle 10 3.1.1 Biologische Neuronen 10 3.1.2 Typische Neuronen 11 3.1.3 Single Spike-Modelle 11 3.2 Typische Netzwerkstruktur 12 4. Zwischenbilanz: Intelligenz? 13 5. Der Cortex 14 5.1 Invarianz 14 5.2 Lernen und Verstehen 15 6. Fazit 16 7. Selbstständigkeitserklärung 17 8. Literatur- und Quellenverzeichnis 18 2 1. Einleitung Im Jahr 2006 wurde ein Buch von Dieter Nuhr veröffentlich, in dem es um die Frage geht, ob es intelligentes Leben gäbe. Das Fazit dieses Buches lautet: „Jein“, da Intelligenz ein kaum definierbarer Begriff und relativ ist: So ist es zum Beispiel sehr intelligent, wenn es ein Bakterium schafft, durch bloße, natürlich unbewuss te, Befolgung von Naturgesetzen, ihre Spezies nicht aussterben zu lassen, doch ist es aus Sicht des Menschen sehr viel intelligenter etwas wie Einsteins Relativitätstheorie zustande zu bringen. (Deswegen an dieser Stelle: In dieser Arbeit soll es nicht um die Intelligenz im „menschlichen Sinn“ gehen, sondern um die allgemeine kognitive Intelligenz. Der Unterschied besteht letztlich nur in der Komplexität und der Art der eingehenden Muster der neuronalen Strukturen.) In der Informatik sind die Ansätze künstliche Intelligenz zu schaffen, nicht weniger konträr. Während das eine große Lager versucht, mithilfe von Software und jeder Menge logischer Operatoren intelligentes Verhalten zu erzeugen, versucht es das andere mit biologischen Vorbildern und teilweise sogar mit komplett neuen Mechanismen. Diese gehen dann schon fast in Richtung „positronisches Gehirn“ á la Star Trek. Wie die intelligenten Masc hinen letztlich genau arbeiten, ist noch nicht absehbar, dennoch möchte ich in dieser Arbeit die zwei großen Ansätze vorstellen und abwägen, ob, und falls ja, welcher intelligente Maschinen hervorbringen kann. Doch bevor ich mich den KI Konzepten zuwende, stelle ich noch dar, weshalb es sinnvoll ist künstliche Intelligenzen zu entwickeln. Spontan würde ich persönlich auf die Frage nach dem Sinn antworten: „um das Leben leichter zu machen“. Das ist jedoch sehr allgemein und auch nur ein Teil. Deswegen werde ich dies nun mehr spezifizieren: KI soll die allgemeine, natürliche Intelligenz der Menschen unterstützen und auch erweitern. Die Unterstützung erfolgt schon z.B. durch sogenannte Fuzzy-Systeme oder durch Neuronale Netze, die aber noch auf zu niedrigem Niveau arbeiten, um eine wirkliche Erweiterung der Intelligenz darzustellen. Heutzutage sind viele Erleichterungen im Alltag schon auf KI- Technologien aufgebaut: z.B. Verkehrsleitsysteme, die „Staus aus dem Nichts“ verhindern, Routenplaner, die den kürzesten Weg suchen oder auch die Vorhersage von Aktienkursen mit eben diesen 3 Neuronalen Netzen. Ein weiteres Teilgebiet der KI-Forschung ist die Robotik. In diesem Bereich geht es um die Entwicklung von Robotern mit guten kognitiven und motorischen Eigenschaften, damit diese für Menschen zu gefährliche, langwierige oder sogar unmögliche Aufgaben lösen können. So werden zum Beispiel neue Raumso nden, die zum Jupiter oder weiter fliegen, mit künstlicher Intelligenz ausgestattet, da die Datenübertragung zu lange braucht, um rechtzeitige und korrekte Reaktionen auf ein Ereignis zu ermöglichen. 4 2. Programmierte künstliche Intelligenz Dieser Ansatz ist der erste, den ich vorstellen möchte, und der erste den es gab. Seinen Anfang nahm der Ansatz der KI Forschung mit dem Aufkommen der Digitalcomputer, als Alan Turing den ersten universell einsetzbaren Computer theoretisch entwickelte: Die Turing-Maschine. Eine Maschine, die mit nur einer Steuereinheit, einem Schreib-/ Lesekopf, einem unendlich langen Speicherband sowie einem Regelwerk, dem Programm, jede mögliche Aufgabe lösen kann. Nach dieser wichtigen Entwicklung wandte er sich der Frage zu, ob es intelligente Maschinen geben könne. Er kam zu dem Schluss, dass laut seiner eigenen, mathematisch bewiesenen Theorie dies möglich sein muss, da die Turing-Masc hine alle erdenklichen Operationen durchführen kann und das Gehirn „auch nur“ jede Menge logischer Operationen durchführt. Deshalb ersann er ein Kriterium, an dem zu messen sei, ob eine Maschine intelligent ist, den sogenannten Turing-Test: Wenn ein Rechner so auf Aussagen oder Fragen eines Menschen reagiert, dass dieser glaubt, eine reale Person würde antworten, dann sei die Maschine intelligent. Zu diesem Test, besonders zu Turings Irrtum, später mehr. Dieser Versuch, intelligente Systeme zu schaffen, basiert zum großen Teil auf Turings Theorie, die Turing-Masc hine - und so mit auch der Digitalcomputer - könne unter den richtigen Bedingungen sämtliche Operationen durchführen. Ein weiteres Argument für dieses Konzept stammt aus einem wisse nsc haftlichen Artikel von Warren McC ulloch (Neurophysiologe) und Walter Pitts (Mathematiker), in dem sie die These aufstellen, dass Neuronen letztendlich logische Gatter sind, da sie entweder feuern, wenn bestimmte Bedingungen erfüllt sind, oder nicht, an oder aus, 1 oder 0 und somit auf den gleichen Grundbausteinen basieren wie Rechner, die auch aus verknüpften logischen Gattern bestehen. Dies spricht nochmals dafür, dass Intelligenz mit einem „normalen“ Rechner umgesetzt werden kann. Somit kann man die biologischen Mechanismen vernachlässigen und eigene, viel effizientere, intelligente Programme entwerfen. 5 2.1 PROLOG Ein wichtiges Hilfsmittel hierzu sind Programmiersprachen wie zum Beispiel PROLOG (PROgrammation en LOGique), sogenannte Sprachen der 5. Generation. Bei diesen Programmiersprachen handelt es sich nicht um imperative Sprachen, wie zum Beispiel Delphi, Visual Basic oder Java, sondern um funktionale Sprachen, d.h. diese Sprachen basieren nicht auf Befehlen wie „if.. then” oder „while.. do“, so ndern auf Funktionen und logischen Operatoren wie UND, ODER oder NICHT. Ein Spezialfall der funktionalen sind die deskriptiven Sprachen zu denen auch PROLOG gehört. Bei ihnen wird nicht der Lösungsweg, sondern das zu lösende Problem implementiert, sodass der Interpreter und somit das System selbst das Problem löst. Da diese Problembeschreibung eine bestimmte Form erfordert, ist PROLOG am besten für Aufgaben geeignet, die sich prädikatenlogisch formulieren lassen. Prädikatenlogik ist eine Erweiterung der Aussagenlogik, wobei Prädikate Aussagen mit Parametern, den sogenannten Individuen, sind, die nur dann wahr werden, wenn die Kombination von Individuen korrekt ist. Einem Prädikat können n Individuen zugewiesen werden. Bsp. Quartalsarbeit(alexander, möhwald, Np, Abgabedatum) Quartalsarbeit ist somit ein 4-stelliges Prädikat. Dabei sind die klein geschriebenen Individuen Konstanten und die großgeschriebenen Variablen. Variable ist in dieser Sprache jedoch als mathematischer Begriff zusehen. Deswegen gibt es in PROLOG auch keine Wertzuweisungen wie X = X +1. PROLOG würde dies als Aussage anse hen und versuchen diese zu wahr werden zu lassen, was natürlich unmöglich ist. Neben diesen Fakten gibt es in PROLOG noch Regeln. Diese sind immer in der Form a → b (bzw. in PROLOG b :- a ) “b gilt, wenn a gilt” dargestellt. Dies ist im weiteren Sinne mit „if.. then .. := true“ vergleichbar. Neben den Fakten und Regeln gibt es auch einige wenige Befehle wie z.B. „write“, falls Ergebnisse einer Berechnung o.ä., die nicht wahr oder falsch sein können, ausgegeben werden sollen. PROLOG kann jedoch nicht nur wahr oder falsch bzw. 6 Ergebnisse von Berechnungen ausgeben, sondern auch Individuen bzw. deren Werte, für die die Prädikate wahr werden. 2.2 Expertensysteme Expertensysteme sind das wichtigste Anwendungsgebiet von PROLOG und anderen deskriptiven Sprachen. Sie bestehen im Wesentlichen aus einer Wissensbasis in Form von Datenbanken (Listen von Fakten und Regeln), einer Wissensveränderungskomponente, die das Editieren der Wissensbasis ermöglicht und einer Inferenzmaschine, die oft Teil der benutzten Programmiersprache ist und entweder gegebene Theorien mithilfe der Wissensbasis überprüft oder aber auch eigene Schlussfolgerungen aus der Wissensbasis und eventuellen Eingaben ziehen kann. Hinzu kommt seit einigen Jahren eine Dialogkomponente, also eine benutzerfreundlichere Oberfläche als die des Interpreters und eine Trace- oder auch Erklärungskomponente, die dem Benutzer bei Bedarf einen Verlauf der Schlussfolgerung als Verifikation des gefundenen Ergebnisses liefert. Weil das Sammeln von Regeln und Fakten und das Umformen in aussagen- und prädikatenlogische Klauseln jedoch sehr umständlich ist, und weil die Anwendungen noch immer programmiert werden müssen, finden Expertensysteme inzwischen allgemein weniger Beachtung als Neuronale Netze, die lernfähig sind, also nur trainiert, nicht programmiert werden. Außerdem sind Expertensysteme nur für die eine spezielle Sache nützlich, für die sie programmiert wurden und nicht für Anderes einfach übertragbar. 7 2.3 Kritik am Turing Test Ende der 1940er fragte sich Alan Turing ob es intelligente Maschinen geben könne und welches Kriterium geeignet wäre zu erkennen, ob diese intelligent ist. Die Antwort darauf ist in dem sogenannten Turing-Test formuliert: Eine Masc hine ist dann intelligent, wenn ihr Verhalten sich nicht von dem eines Menschen unterscheiden lässt. Doch dieser Beweis für Intelligenz erwies sich bald als inkorrekt. Der Irrtum, der Turing unterlief ist, dass er „intelligentes“ Verhalten mit wahrer oder echter Intelligenz verwechselt. Ein Beispiel für ein, zwar clever programmiertes, doch nicht intelligentes Programm ist „Eliza“ von Joseph Weizenbaum. Dieses Programm nutzte grammatische Regeln um eingegebene Sätze so umzuformen, dass es wie eine intelligente Antwort erschien, z.B. Testperson: „Meine Frau und ich reden nicht mehr miteinander.“ Eliza: „Warum, denken Sie, reden Sie und ihre Frau nicht mehr miteinander?“ Manche Probanden versicherten selbst nachdem sie erfahren hatten, dass dies keine Person mit psychologischen Fähigkeiten ist, dass der Rechner sie verstanden habe. Dieses Programm befindet sich in perfekter Analogie zu dem Gleichnis vom Chinesischen Zimmer von Searle. Dieses verdeutlicht sehr deutlich den Unterschied von Intelligenz, also Verstehen und Verhalten. Ein nichtchinesisch sprechender Mensc h sitzt in einem Zimmer mit unbegrenzt vielen Zetteln und Stiften und einem dicken, aber verständlichen Regelbuch, das den Umgang mit chinesischen Schriftzeichen beschreibt, ohne jedoch deren Bedeutung zu nennen. Ein Chinesisc h-sprechender schiebt unter dem Türschlitz eine Geschichte und Fragen zu dieser, beides auf Chinesisch, hindurch. Der Mensc h in dem Zimmer beginnt zu arbeiten, schreibt sich verschiedene Zeichen auf, verschiebt die Zeichen, löscht manche und fügt weitere hinzu, je nachdem, was laut Regelbuch verlangt ist. Nachdem ihm das Regelbuch sagt, er sei fertig, schiebt er die Antworten auf die gestellten Fragen wieder durch den Türschlitz und der Chinese wird erstaunt sein, da alle Fragen richtig, und teilweise sogar mit Witz, beantwortet sind. Und er wird vermuten, dass die Person im Zimmer chinesisch kann und die Geschichte verstanden hat. Doch da liegt er falsch, denn weder die Person im Zimmer (= CPU) noch das Regelbuch (= Software) hat die Geschichte verstanden. An keiner Stelle wurde etwas 8 verstanden. Doch Verstehen ist essentiell für intelligente Maschinen (lat. intelligentia= Verstand). Zwar ist es den Programmen dieses Ansa tzes gelungen, Verknüpfungen zwischen verschiedenen Fakten zu erstellen, zu schlussfolgern und auch leichte kognitive Aufgaben zu bewältigen, doch komplexe Aufgaben, wie das Beschreiben einer Szene oder das Abstrahieren, autonomes Lernen oder das Vorhersagen mithilfe von Erfahrungen sc heinen mit diesem Konzept unlösbar. 9 3. (Künstliche) Neuronale Netze Künstliche Neuronale Netze (KNN) unterscheiden sich in Aufbau und Funktionalität grundlegend von anderen Anwendungen wie zum Beispiel Expertensystemen. Zum einen werden KNN mithilfe verschiedenster Lernverfahren trainiert, nicht programmiert, wodurch die Fähigkeit zu abstrahieren entstehen kann, zum anderen hat das NN an sich keine zentrale Recheneinheit, ist also nicht nach der VonNeumann-Architektur konzipiert, sondern jedes einzelne Neuron reagiert je nach Aufbau auf gegebene Inputs, wodurch eine enorme Parallelität erzielt wird. Desweiteren basiert es, wenn teilweise auch nur sc hematisch, auf biologischen Mechanismen im Gehirn, also dem Sitz der echten Intelligenz. NN haben bei Erfüllung verschiedener Bedingungen (z.B. darf das Netz nicht über-trainiert sein) noch weitere Vorteile gegenüber der programmierten KI, wie zum Beispiel adaptives Verhalten, Fehlertoleranz und die Fähigkeit zu Generalisieren, doch das ist stark von den verwendeten Netztopologien und Neuronenmodellen abhängig. 3.1 Neuronenmodelle 3.1.1 Neuronen im Gehirn Der Zellkörper des biologischen Vorbilds besitzt viele Verästelungen, von denen höchstens eine das Axon bildet. Durch das Axon werden die Ausgabesignale eines Neurons an weitere weitergegeben. Ein Neuron hat also immer höchstens einen Ausgabewert. Diese Signale kommen zustande, wenn die von den Dendriten aufgenommene Spannung einen bestimmten Wert überschreitet. Die Nervenzelle „feuert“. Ein biologisches Neuron kann höchstens 200mal in der Sekunde feuern. Je nach Anzahl der Rezeptoren an Abb. 1: Neuron im Gehirn - Schema den Synapsen sind die Dendriten verschieden gewichtet. Durch die Änderung der Gewichte und das Aufbauen neuer Verbindungen kann ein Neuronales Netz lernen. 10 3.1.2 Typische Neuronen Die typischen künstlichen Neuronen haben wie die biologischen Vorbilder eine bestimmte Menge von Eingängen (Dendriten), einen „Zellkörper“(Soma) und einen Ausgang (Axon). Die Feuerrate wird bei diesen Modellen durch einen Eingangswert (e ) dargestellt, welcher sich bei der sogenannten Feuerraten Codierung im Intervall [-1|+1] befindet, da alle Spikes sehr ähnlich sind und weil es eine maximale Feuerrate gibt. Das Vorzeichen gibt in diesem Fall an, ob der präsynaptische Impuls aktivierend (+) oder inhibierend (-) ist. Bei biologischen Neuronen wird dies durch Abb. 3: Typisches Modell eines künstlichen Neurons die Lage der Synapsen bestimmt (Dendrit → + / Soma → - ). Durch die Gewichtung (w ) wird der Durchlasswert der Synapse simuliert. Das KNN kann durch die Änderung der Gewichte lernen (s. 5.2). Der Ausgangswert a des Neurons wird, abhängig von der Art desselben, entweder im Intervall (0|1) [Pyramidenzelle(„Standardzelle“)] oder auch im Intervall (-1|+1) ausgegeben. 3.1.3 Single-Spike-Modelle Diese Modelle beschreiben eine der neusten Klassen und kommen den Neuronen im Gehirn am Nächsten, da hier einzelne Spikes simuliert werden. Spikes sind die Impulse, die durch die Kanal- vermittelte Diffusion der Na+ Ionen ins Zellinnere entstehen. Sie zeichnen sich außerdem dadurch aus, Abb. 2: Form eines Spikes dass sie Laufzeiten in Dendriten simulieren, somit die zeitliche Verzögerung implementieren (s. typische Netzwerkstruktur -> assoziativer Speicher) und dass die Zunahme der Aktivität, unter Beachtung der leichten Abnahme durch die Depolarisierung, während eines längeren Zeitraums beachtet wird. Anso nsten sind sie wie die typisc hen künstlichen Neuronen aufgebaut und arbeiten wie diese. 11 3.2 Typische Netzwerkstruktur Alle KNN bestehen im Grunde aus drei Schichten, den sogenannten Layern: Das erste ist das Input-Layer, an ihm treffen Muster auf das NN. Diese aufgenommenen Muster werden an das Hidden-Layer weitergegeben, wo die Muster oder auch Musterfolgen verarbeitet, umgewandelt und eventuell gespeichert werden. Die umgewandelten Muster aus der „versteckten Schicht“ werden nun an den Output-Layer gereicht, wo das NN ein bestimmtes Verhalten zeigt. Abb. 4: Schichten eines NN Bei den KNN unterscheidet man desweiteren zwischen Feed-Forward-Netzwerken, bei denen alle Verbindungen von der Eingabe-Schicht in Richtung des Output-Layers führen, und den rekurrenten Netzwerken, bei denen die Neuronen direkte Verbindungen oder Verbindungen über andere Neuronen (indirekt) zu sich selbst aufweisen. Dieses Feedback kann einen sehr interessanten und wichtigen Effekt erzielen: den sogenannten autoassoziativen Speicher. Legt man auf das Netz ein bestimmtes Aktivitätsmuster, so wird dieses gespeichert, indem das Muster mit sich selbst assoziiert wird. Ein entscheidender Vorteil gegenüber dem herkömmlichen Speicher ist, dass der assoziative Speicher inhalts- und nicht adressbezogen ist. Es wird später das ganze Feld von Neuronen aktiviert, selbst wenn nur ein Teil oder ein fehlerhaftes Muster auf den Speicher trifft. Die autoassoziativen Speicher haben noch eine Eigenschaft: wird die Rückkopplung zeitlich verzögert, so ist das Netz in der Lage, Folgen von Mustern zu speichern. Die Neuronen feuern dann in einem bestimmten Rhythmus. Diese Arten von künstlichen Neuronen und Netzwerken werden in Rechnern simuliert. Obwohl man mit diesen Modellen sehr komplexe und interessante Effekte erzielen kann, geht man nun dazu über, die Neuronen physisch, nicht virtuell herzustellen. Ein Grund dafür ist die enorme Rechenleistung, die vonnöten ist, um annähernd Intelligenz zu erzeugen. So hat es 2007 den Supercomputer Blue Gene von IBM mit 1 TB Arbeitsspeicher an seine Grenzen gebracht, ein Neuronales Netz zu simulieren, das einer Hemisphäre einer Maus gleichkommt. Doch hat dieses Netz mit einem zehntel der Geschwindigkeit gerechnet, wie es eine Mäusegehirn-Hälfte getan hätte. Außerdem nimmt die Simulation von Neuronalen Netzen denselben 12 einen großen Vorteil: Die massive Parallelität. Es ist beinahe so, als würde man mit einem Supercomputer einen 500 Mhz Prozessor mit all seinen physikalischen Eigenschaften generieren, der „TETRIS“ ausführt. 4. Zwischenbilanz: Intelligenz? Nachdem ich mich sehr intensiv mit diesen Konzepten befasst habe (auch wenn ich nicht alles in dieser Arbeit festgehalten habe), habe ich festgestellt, dass keiner dieser Ansätze in der jetzigen Form intelligente Maschinen hervorbringen kann, da die meisten Verfechter beider Konzepte dem Trugschluss unterliegen, dass Intelligenz sich durch intelligentes Verhalten äußert. Dies ist jedoch nur ein kleiner Teil des eigentlichen Intelligenzbegriffes. Intelligentes Verhalten kann auch mit anderen nicht- intelligenten Mitteln simuliert werden. Doch das Verstehen von Objekten oder Abstrakten, wie zum Beispiel Wörtern, kann nicht simuliert werden. Ich glaube aber nicht, dass Intelligenz an den menschlichen Körper gebunden ist. Vielmehr vermute ich, dass das Denkorgan der intelligenten Maschinen dieselbe Struktur aufweisen muss, wie das Gehirn, genauer gesagt, wie der Neocortex von Sägern. An seinen Aufbau ist die höhere Intelligenz gebunden. Daraus folgt, dass das Konzept der KNN reformbedürftig, aber zukunftsfähig ist. Doch muss die jetzige dreischichtige Form, durch die je sechsschichtige, vielfach hierarchisch unterteilte Struktur der Großhirnrinde ersetzt werden. Ich denke, dass das Gehirn, entgegen den Ansichten einiger KI-Forscher, mit der Ausnahme von einigen evolutionär bedingten „eingefrorene[n] Unfälle[n]“(Die Zukunft der Intelligenz, S.50, Z.34) , die effizienteste, universellste und fehlertoleranteste „Problemlösungsmaschine“ ist, die der Mensch nutzen und nachvollziehen kann und dass es das Ziel der KI Forschung sein sollte dieses Wunderwerk der Natur zu entsc hlüsse ln und letztendlich auf Siliziumbasis (oder ...?) umzusetzen, damit wir es mit komplett neuen Sinnen zu unserem Vorteil ausstatten können. 13 5. Der Cortex Der Grund für diese Annahme liegt wiederum in der Gestalt des Gehirns, These n rund um diese und die Annahme, dass es möglich ist, mit relativ konservativen Mitteln Neuronen nachzubilden. Die Arbeit des Neurowisse nsc haftlers Vernon Mountcastle stellt den Anfang dieser Kette von Thesen dar. Mountcastle schloss aus den Ergebnissen seiner Untersuchungen, welche aufzeigen, dass alle kortikalen Areale gleich aussehen, dass der Cortex einen universellen Algorithmus nutzt. Dieser universelle Algorithmus folgt einigen, an sich einfachen Prinzipien, von denen hier einige erläutert werden sollen. 5.1 Invarianz Invarianz ist das Fundament aller kognitiven Aufgaben und beinhaltet sowohl das Konvergieren visueller Inputs zu einem Objekt (konkret) als auch die Zuordnung eines Wortes zu einem Überbegriff (abstrakt).Es ist noch nicht exakt bekannt, wie Invarianz zustande kommt, doch sind die grundlegenden Prinzipien bekannt. Diese sollen hier anhand des visuellen Bereichs erläutert werden, da dieser gut untersucht ist und, laut Mountcastle, dies analog auf alle anderen Bereiche des Cortexes übertragbar ist. Visueller Input von der Retina ist derart gestaltet, dass eine Gruppe von Zellen in V1, dem primären visuellen Areal feuert. Verschiedene Säulen in diesem Bereich sind aktiv, sodass in einer hierarchisch höheren Schicht eine weitere Säule feuert. Durch diese Konvergenz von Inputs verschiedener Stellen der Retina werden Details zu einem etwas allgemeineren „Namen“ in Form von einer Gruppe feuernder Neuronen zusammengefasst. So wird zum Beispiel eine Summe von Kanten in stecknadelkopf-großen Sichtbereichen, den rezeptiven Feldern zu einer langen zusammengefasst. In der nächsthöheren Region konvergieren Informationen von dieser und weiteren Kanten sowie weiteren Eigenschaften des Objekts, dass in der wiederhöheren Region ein „rotes, viereckiges Objekt mit drei weißen Punkten“ entsteht und sich das rezeptive Feld pro Neuron im Vergleich zu V1 erheblich vergrößert. Zusammen mit anderen Informationen kommen Sie schließlich zu dem Gedanken:“Ah, ich habe eine „drei“ gewürfelt. “ Dieser Gedanke kann nun verschiedene Aktivitäten hervorrufen: Erstens: keine. Dies würde bei einem Brettspiel mit Freunden jedoch sehr seltsam wirken. Zweitens könnten Sie sagen: „Ja, die habe ich gebraucht“ oder sie bewegen, drittens, ihre Spielfigur um drei Felder nach vorn. Es ist nicht nötig, die Information „‘Drei‘ auf dem Würfel“ für jede Aktivität einzeln zu speichern, es ist sogar unmöglich, da die Liste der möglichen Reaktionen auf ein Ereignis potentiell unendlich ist. Deshalb ist der Weg die Hierarchie hinunter nicht so direkt, wie der hinauf, da Informationen für die wiederherzustellenden Details fehlen. Abb. 5: Schichten einer Säule im Cortex; Nach unten gerichtet er Informations fluss Diese werden durch Aktionspotentiale aus den 14 verschiedensten kortikalen Arealen ergänzt, da die Schicht 1-Neuronen einer jeden Säule über eine Vielzahl von Dendriten verfügen, die sowohl in die nähere Umgebung, als auch durch das halbe Gehirn reichen. Durch diese zusätzlichen Informationen ist es möglich, zu entscheiden über welche Neuronen das Signal laufen muss . So teilt sich der nach unten gerichtete Informationsfluss bei dem Beispiel des Brettspiels erst in den motorischen Arealen, sodass der Impuls entweder zu Zunge und Stimmbändern oder zu Muskeln in Arm, Fingern und ähnlichem geleitet wird. 5.2 Lernen und Verstehen Im Bereich der KI Forschung sind Lernen und Verstehen noch immer unvereinbar getrennt. Orientiert man sich jedoch an der Struktur des Gehirns, so ist Verstehen eine fast unmittelbare Folge des Lernens. Wie bereits erwähnt, speichert ein Bereich des Cortexes Musterfolgen, indem er durch Feedback autoassoziiert. Eine weitere Form des Lernens, die auch in künstlichen NN zum Beispiel bei Backpropagation in nahezu trivialer Form angewandt wird, ist das Lernen durch Änderung der Gewichte, was bei dem biologischen Vorbild durch Ausprägung oder Reduktion von Ionenka nälen in den Synapsen oder Bildung neuer Verbindungen erzielt wird (In Hopfield-Netzen: Setzung der Gewichte von 0 auf≠0 x ) . Durch häufiges Auftreten eines Musters werden die Durchlasswerte einer Summe von Synapsen so verändert, dass ein Neuron bzw. eine Säule ihre Aktivität vorausse hen ka nn, d.h. die Schicht 2- Neuronen feuern, bevor sie den eigentlichen aktivierenden Reiz aus hierarchisch niedrigeren Schichten bekommt. Das wiederum ist dadurch möglich, dass Zellen dieser Schicht über Verbindungen zu Neuronen in Schicht 6 der hierarchisch höheren Region, zu Neuronen in der Umgebung und zu Schicht 5-Zellen der umgebenden Säulen verfügt. Durch die Verbindung zur höheren Region „weiß“ die Säule zu welchem größeren Objekt das Detail gehört, das sie repräsentiert, da die Neuronen des höheren Areals ständig feuern und somit einen „Namen“ wiederspiegeln. Die Verbindungen zu Säulen der nahen und weiter entfernten Arealen bewirkt die „Kenntnis“ über Vorgänge in anderen Teilen des Denkorgans und durch die Dendriten zu den Schicht 5-Zellen der umgebenden Regionen kann das Neuron auf primitivster Ebene aus soeben geschehenem folgern, ob sie feuern muss. Das NN hat erfolgreich gelernt, wenn es durch die Verknüpfung von verschiedenen Bereichen und die richtigen Gewichte aus Gelerntem die nächsten Inputs vorherse hen ka nn. Dann versteht der Bereich einen Sachverhalt. Da dieses Verfahren zusammen mit einigen teils noch ungeklärten, teils komplexen, eigenständig buchfüllenden Lernalgorithmen auf alle Bereiche des Gehirns übertragbar ist, kann man dieses Verhalten vom kognitiven Bereich auf den der Abstrakte übertragen. Ein Sachverhalt ist wahr, wenn aus Gelerntem zu schlussfolgern ist, dass dieser Fall eintritt. 15 Mit dieser Struktur besitzt der Cortex außerdem eine sehr effiziente Weise Neues von Bekanntem zu unterscheiden. Wenn ein Bereich einen bestimmten Input erwartet. Dieser jedoch nicht eintrifft, so werden die Details dieses Inputs weitergegeben, nicht nur eine „Zusammenfassung“. Dieses Signal ist in seiner Summe stärker als das normale und damit wird die Aufmerksamkeit auf die neue, ungewohnte Situation gerichtet. Durch das Gedächtnis-Vorhersage-Modell ist auf diese Weise auch eine neue Definition von „Verstehen“ geliefert: Ein denkendes Wesen versteht etwas, wenn es zukünftige Aktivitäten eines Objekts (oder Abstraktes) vorhersagen kann. Dies ist auch das Gegenargument für Erwiderungen aus dem Lager der klassischen KI, welche behaupten, dass das Neuron als solches das Objekt, wie auch die CPU, nicht versteht, sondern nur in der Gesamtheit aller Neuronen ein Sachverhalt verstanden wird, wie es laut der klassischen KI Forscher auch bei der Einheit von Hard- und Software der Fall ist. Doch kann ein KI-Programm nur insofern Aktivitäten oder Eigenschaften eines Abstrakts oder Objekts vorhersagen oder abstrahieren, wie es vom Entwickler eingeplant ist. Das heißt, ein Programm ist letztlich nur so intelligent, wie der Programmierer. Ein neuronales Netz mit entsprechender Komplexität ist hingegen in der Lage auf neue Situationen logisch zu reagieren, die vom Entwickler nicht einkalkuliert wurden. Eventuell sind die „echten KI der ersten Generation“ in der Lage, effizientere KI als sie selbst mit einer neuen Technologie zu entwickeln. Doch der Mensch sollte sich erst einmal mit dem Ergebnis der Milliarden von Jahren währenden Evolution „zufrieden geben“. 6. Fazit Der Mensch wird innerhalb der nächsten fünfzig Jahre in der Lage sein, (wirklich) intelligente Maschinen zu bauen. Deren Recheneinheit wird ähnlich wie das menschliche Gehirn strukturiert sein und wird dementsprechend keine CPU und keinen zentralen Speicher besitzen. Da eine Simulation eines solch komplexen Netzes dem System des NN den großen Vorteil der massiven Parallelität nehmen würde, wird das Denkorgan der Maschinen hardwareimplementiert sein. Weiterhin denke ich, dass ab einem bestimmten Zeitpunkt konventionelle mikroelektronische Schaltkreise durch Q-Bits ersetzt werden, da diese, im Gegensatz zu transistorbasierten Neuronen, unendlich viele Zwischenzustände speichern können. Doch zuvor wird es in der Konnektivität Neuerungen durch Mikromechanik, die ein dynamisches System ermöglicht, geben, Dennoch vermute ich, dass die verschiedenen Technologien (Turing-Maschine und Zeitlich-Hierarchisches Gedächtnis) kombiniert werden, sodass ein z.B. Forschungshelfer eine Art Rechner 16 integriert hat, mit dem er „mental“ kommunizieren kann. Ich denke auch, dass Masc hinen-Intelligenz die des Menschen einholen kann, da mikroelektronische Elemente um den Faktor 1000 schneller sind als biologische Neuronen. Ob dies in jedem Fall erstrebenswert ist, bezweifle ich, doch in Bereichen der Forschung und Voraussage von Wetter und Naturkatastrophen (Erdbeben, Vulka nausbrüche, etc.) ist sie es auf jeden Fall. Ob die Intelligenz der Maschinen dazu genutzt werden sollte, intelligentere Maschinen zu schaffen, ist fraglich (Selbstreplikation). Doch da Maschinen nur dann über Emotionen verfügen(ich denke dabei das Gefühl der Unterdrückung und Gier und an die große Angst der Menschen, dass intelligente Maschinen die Herrschaft über die Welt an sich reißen wollen), wenn der Mensch sie mit den entsprechenden Arealen ausstattet, si nd Intelligente Maschinen die wohl intelligenteste und hilfreichste Erfindung, die die Menschheit je machen wird. 7. Selbstständigkeitserklärung Ich erkläre, dass ich die Facharbeit ohne fremde Hilfe angefertigt und nur die im Literaturverzeichnis aufgelisteten Quellen und Hilfsmittel verwendet habe. Schkopau, den 23. 2. 2009 _____________________________ 17 8.Literaturverzeichnis Literatur Zöller-Greer, Peter: Künstliche Intelligenz Grundlagen und Anwendungen Composia Verlag 2007 1. Auflage Hawkins, Je ff : Die Zukunft der Intelligenz Rowohlt Taschenbuch Verlag 2006 Deutsc he Erstausgabe Nuhr, Dieter: Gibt es intelligentes Leben? Rowohlt Taschenbuch Verlag 2006 22. Auflage Rigoll, Gerhard: Neuronale Netze: Eine Einführung für Ingenieure, Informatiker und Naturwissenschaftler Expert Verlag 1994 18 Internet http://www.phillex.de/tu-test.htm (13.2., 15.00) http://f.voegelivoegeli.ch/snm/seminare/maschinendenken/ThesenpapierMcCulloch. pdf (13.2. 15.45) http://www.zvb.tu-bs.de/newsletter/files/newsletter_1166710797.pdf (13.2.,17.00) teacher.schule.at/laner/Aussagenlogik.ppt (13.2.,16.00) http://lexikon.meyers.de/wissen/Expertensystem+(Sachartikel) (14.2. 10:55) http://www.zait.uni-bremen.de/~mn/old/glossar/g/node7.html (14.2. - 20.2.) http://www.elg-halle.de/allgemein/facharbeiten/Quantencomputer.pdf (21.2.,10.00) http://www.jacobs-university.de/news/media/pressreleases/09812/print.html (14.2.,17.00) http://www.uni-bremen.de/campus/campuspress/unipress/06-173x.php3 (14.2.,18.00) http://singularityu.org/academics/tracks/ (15.2.,16.30) http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/wwwnnscript/prin.html (14.2.,20.00) http://www.golem.de/0811/63729.html (15.2.,19:30) http://www.theregister.co.uk/2007/11/01/ibm_supercomputer_argonne/comments/ (16.2.,21.00) http://books.google.de/books?id=iItfya8d6tEC&pg=PA267&lpg=PA267&dq=intelligent ia+verstand&source=web&ots=hVl4DxGGJJ&sig=Mefes25npfl3nQn_nuLZZCvbHs&hl=de&ei=mGyRSfWdGY_S0AWGyPGFCw&sa=X&oi=book_r esult&resnum=6&ct=result (18.2.,18.00) http://www.heise.de/tr/Neue-Theorien-ueber-das-mensc hliche-Gehirn--/artikel/65175 (20.2.,21:00) 19 http://www.numenta.com/for-developers/education/DileepThesis.pdf (18.2.,17:30) http://wwwuser.gwdg.de/~mherrma/v0/node59.html (16.2. - 20.2.) http://wwwmath.uni-muenster.de/SoftComputing/lehre/seminar/ss96/wi_nn_1.ps.gz (19.2.,19.30) http://www.informatik.uni-frankfurt.de/asa/PSemWS04/HassanAusarbeitung.pdf (20.2.,15.00) http://ces.univkarlsruhe.de/teaching/Seminars_w0506/GNN/Grudnitsky_Ausarbeitung.pdf (20.2.,20:30) Abbildungen: Abb.1: http://bidok.uibk.ac.at/library/raidel-analyse-dipl18.png Abb.2: http://www.zait.unibremen.de/~mn/old/glossar/g/node16.html#GlossItemAktionspotential Abb.3: Nach: Zöller-Greer: Künstliche Intelligenz, S. 104 Abb.4: http://1.bp.blogspot.com/_KRG734syqxQ/STCe0jsIxI/AAAAAAAAAaA/I55zB7kRnyo/s400/400pxArtificial_neural_network.svg.png Abb.5: Hawkins: Die Zukunft der Intelligenz, S. 175 20