Systemmodellierung mit Netzen Wolfgang Meyer Arbeitsbereich für Prozessautomatisierungstechnik Technische Universität Hamburg-Harburg Schwarzenbergstraße 95, D - 21073 Hamburg Tel: +49 40 42878-3050 Fax: +49 42878-2493 Email: [email protected] 1. Technische Systemmodellierung Der Beitrag ist aus der Sicht eines Automatisierungstechnikers geschrieben. Der Begriff Automatisierungstechnik ersetzt heute die klassische Mess-, Steuer- und Regelungstechnik (MSR-Technik). Ziel der Automatisierungstechnik ist es, die Autonomität technischer Systeme zu erhöhen, insbesondere diskreter Systeme. Agentensysteme sind diskrete technische Systeme. Insofern weist die etwas reißerische Thematik ‚Autonome Agentensysteme außer Kontrolle?’ auf eine dem Systemdesigner wohlbekannte Paradoxie hin: Systeme werden erst durch eine systemeigene Steuerung autonom, und wenn sie es dann sind, entziehen sie sich der Kontrolle. Und zwar der Kontrolle durch den Nutzer, was jedem PC-Bediener bekannt sein dürfte, der als externer PC-Controller mit dem internen Controller, dem Betriebssystem, kooperieren muss oder in Konflikt gerät. Der PC und sein User bilden ein soziotechnisches System, dessen zwei Komponenten (lose oder strukturell) miteinander verkoppelt sind; was lose oder strukturelle Kopplung technisch bedeutet, ist allerdings schwer zu erfassen. Es geht jedoch um Benutzung, um sachgerechte Nutzung, um den zweckvollen Einsatz der technischen Mittel Computer und Internet, und wenn die Anwendungssoftware in Agententechnologie implementiert, also verteilt und intelligent ist, um die Nutzung paralleler, asynchroner, kommunizierender Prozesse auf Netzen. Die soziologische Frage nach der Kontrollierbarkeit solch technischer Systeme wird in der Automatisierungstechnik als Problem der Steuerbarkeit und Beobachtbarkeit formuliert, ein Problem, das sich für bestimmte System-Modelle lösen lässt. D. h., die Beantwortung der Frage ist eng mit den Eigenschaften der Modellierungssprache verknüpft, genauer gesagt mit ihrer Modellierungsmächtigkeit bezüglich SystemKomplexität und –Unsicherheit. Die Anwendungen, die wir betrachten, sind: Technologische Netzwerke, biologische Netzwerke, Informationsnetze, soziale Netze. Die Strukturen, die diese Netze aufweisen, sind zyklisch (z. B.: www) oder azyklisch (z. B.: citation network). Es gibt einige sehr rudimentäre Ansätze, die Topologie dieser Netze durch statische Größen wie Wahrscheinlichkeitsverteilung der Knotenabstände und –verbindungen, Clusterkoeffizient, Korrelationskoeffizient von Knotenverbindungen, Konnektivität zu erfassen (für die oben genannten Beispiele z. B. in [ 1 ]). Diese Art der Strukturanalyse ist jedoch nur anwendbar auf Netze, deren Knoten und Kanten von jeweils gleicher Art sind, also z. B. nicht auf semantische Netze. Insbesondere sind diese Netze, wie sie z. B. in [ 2 ] umfassend referiert sind, nicht in der Lage, die Individualität einzelner Knoten und komplexe Wechselwirkungen zwischen 2 Knoten auszudrücken, z. B. die differenzierte Kommunikationsbeziehung zwischen teilautonomen Agenten, wie sie in der Verteilten Künstlichen Intelligenz untersucht werden. Der Ausgangspunkt der VKI ist der individuelle Problemlöser im Gegensatz zu den oben genannten stochastischen Netzen. Die Anzahl der Agenten, also der Grad der Verteiltheit, damit die Parallelität des Problemlösers ist bei weitem geringer als die Zahl der Knoten z. B. in einem biologischen Netzwerk. 2 Die Modelle der technisch-mathematischen Systemtheorie, insbesondere der Theorie ereignisdiskreter Systeme, nehmen eine Mittelstellung ein zwischen Netzmodellen und Agentenmodellen bezüglich • der Modellgranularität, d. h. der Anzahl der Systemkomponenten • der Funktionen oder Attribute, durch die das Verhalten der Komponenten bestimmt wird, und • der unterschiedlichen Wechselwirkungen zwischen den Komponenten, Relationen genannt. In technischen Anwendungen genügen die folgenden 7 Relationentypen zur Modellierung des Systems: Generalisierung, Aggregation, Klassifikation; kausale, temporale und räumliche Beziehungen, sowie Kommunikation oder Signalaustausch auf unterschiedlichsten Ebenen der Systemhierarchie. Hierarchisierung (verschiedener Funktionsebenen) und Modularisierung (innerhalb einer Hierarchieebene) sind die grundlegenden strukturbildenden Operationen der Systemmodellierung; sie werden auf alle Relationentypen angewandt, d. h. wir sprechen von kausalen, temporalen, ..., auch Kommunikationshierarchien. Die Beziehungen zwischen den Hierarchieebenen, und die Wechselwirkungen zwischen den durch den Relationstyp charakterisierten Teilnetzen sind maßgebend für die dynamische Komplexität des Modells; die Strukturkomplexität wird durch die Anzahl der Systemkomponenten bestimmt sowie die Art ihrer Verkopplung. Die Systemkomponenten sind materieller Natur, z. B. Computer oder Nachrichtenkabel; mit wachsendem Abstand von der Feldebene werden diese durch ihre Funktionen charakterisiert bzw. die dynamischen Operationen oder Prozesse, wie z. B. Rechenprozesse oder Übertragungsvorgänge. Viel stärker als in Luhmanns Denken, der die Kommunikationsprozesse gänzlich loslöst von den Knoten des materiellen Netzwerks nämlich den Bewusstseinsträgern (den Menschen), ist die Systemtechnik der materiellen Struktur zugewandt und den Funktionen, die diese ermöglicht: Der Ingenieur synthetisiert Strukturen, um gewünschte Funktionen zu realisieren, oder auch: Technik schafft Mittel für Zwecke. Demgegenüber ist Luhmann ein reiner Naturwissenschaftler, ein Analytiker. Diskrete technische Systeme, zu denen auch der Computer gehört, werden meistens durch InputOutput-Komponenten modelliert, die gerichtet untereinander verbunden werden, und zwar in 4 Grundschaltungen: seriell, parallel, positiv rückgekoppelt und negativ rückgekoppelt. Die elektrische Netztheorie ist ein Beispiel dafür, wie mit diesen 4 Grundschaltungen, wenigen Systemkomponenten und nur 2 Zustandsgrößen (Strom und Spannung) ungezählte dynamische Muster, stationäre oder nichtstationäre, darunter auch Selbstorganisationsvorgänge wie Oszillationen und raum-zeitliche Ausbreitungsvorgänge, modelliert werden können. Die moderne Systemtheorie ist nun eine Theorie der diskreten Prozesse/Operationen, und zwar der ereignisdiskreten Prozesse. Grundbausteine aller diskreten Prozessmodelle sind Zustand und Ereignis. Zustände sind zeitlich ausgedehnt, Ereignisse haben die Zeitdauer Null. Ereignisse sind beobachtbar oder nicht, und kontrollierbar (steuerbar) oder nicht. Ereignisse bewirken Zustandsänderungen; die Folge: Ereignis1, Zustand1, Ereignis2, Zustand2, ... beschreibt die Prozessdynamik. Diese kann als Struktur mit Knoten und Kanten dargestellt werden, dem Automatengraphen. Wir unterscheiden deterministische und nichtdeterministische Automaten, letztere modellieren Unsicherheit mit der Notwendigkeit, eine der möglichen Prozesstrajektorien auszuwählen, zu selektieren. Kontrolle meint in diesem Zusammenhang die Selektion gewünschter Systemzustände, und dieses ist nur möglich von bestimmten Systemzuständen aus nach Maßgabe der Beobachtbarkeit und Steuerbarkeit der relevanten Ereignisse. Grundlegende Betrachtungen zur Steuerbarkeit und Beobachtbarkeit diskreter Systeme finden sich in [ 3 ], zur Automatentheorie in [ 4 ]; zu Petrinetzen und der auf der Theorie formaler Sprachen beruhenden SCT (Supervisory Control Theory) in [ 5 ]. Die meines Wissens abstrakteste, d. h. weitestgehende allgemeingültige Formulierung einer Prozesstheorie im deutschen Sprachraum ist die von G. Wunsch [ 6 ]. Der Autor verknüpft Struktur und Verhalten dynami- 3 scher und nicht notwendig reversibler Prozesse mithilfe des mathematischen Begriffs der (Transformations-)Halbgruppe und des verallgemeinerten Markov-Prozesses. Der Autor leitet alle bekannten physikalisch-technischen zeitlichen Erscheinungen wie magnetische Felder, Quantenmechanik, Automaten aus einer einheitlichen Systemtheorie ab, die auch störungssensible Prozesse (determiniertes Chaos) umfasst. Laut eigener Aussage legt G. Wunsch eine grundlegende „mathematische Modellierung von Veränderung und des Wandels beliebiger Phänomene vor – soweit sie sich durch das Trajektorienkonzept beschreiben lassen“. Auf unsere Frage: Sind Agentengesellschaften kontrollierbar? liefert die technische Systemtheorie eine wichtige Aussage über die Existenz eines Controllers: Eine Steuerung (für technische Systeme, also auch für Agentengesellschaften) ist nur dann verifizierbar, wenn die Strecke (also das Internet mit den darauf operierenden Agenten) mit einer regulären Sprache modelliert wird, d. h. durch Automaten oder bestimmt Petrinetzklassen repräsentiert werden kann. Da dies in der VKI wohl kaum der Fall sein dürfte, ist das Problem aus der Sicht des Automatisierungstechnikers erledigt, nämlich nicht lösbar. 2. Luhmann’s Systemtheorie [ 7 ] Von einer Theorie erwartet man Anleitungen zum Verständnis von Wirklichkeit und zum Umgang mit ihr. Luhmann wird oft nutzlos-abstrakte Wirklichkeitsferne vorgeworfen, ein „Flug über den Wolken, und nur selten reißt die Wolkendecke auf, um Durchblicke auf die höllisch labyrinthische Erde freizugeben“ [ 8 ]. Darum geht es aber meines Erachtens gar nicht. Luhmann liefert eine Theorie zum Beobachten der Wirklichkeit, nicht eine Theorie der Wirklichkeit selbst. Seine Theorie (und vielleicht andere soziologische Theorien ebenfalls) beschreibt den Modellbildungsprozess, und nicht das Modell. Insofern ordne ich seine Arbeiten zur Systemtheorie den Metawissenschaften zu, der Wissenschaftstheorie etwa oder der Erkenntnistheorie. Benutzerfreundlichkeit kann von einer Metawissenschaft nicht erwartet werden. Zudem ist Luhmanns Theorie in einer Sprache formuliert, die nicht im entferntesten einer regulären Sprache oder überhaupt einer Computersprache ähnelt. Es dürfte also wohl sinnlos sein, seine Theorie auf die Automatentheorie abzubilden. Seine Überlegungen zu Systembeziehungen als Kopplungen, ihre Systematisierung in operative, transformative und äquivalente Relationen, überhaupt die Ansätze zu einer digitalisierten statt analogisierten Beschreibung von System-UmweltVerhältnissen [ 8 ], dann die Theorie der Beobachtung, und der extreme Ausgangspunkt seiner Theorie überhaupt (aller Sinn liegt in den Beziehungen) – bieten jedoch viele Ansätze, den begrenzten technischen Ansatz des fundamentalen Rückkopplungsprinzips zu erweitern. Bei allen Rückprojektionen der Luhmann’schen auf die technische Systemtheorie sehe ich aber ein methodisches Problem, vielleicht eine grundsätzliche Schwierigkeit der Sozionik: Gemäß dem Nicolai’schen Schichtenmodell baut sich die Natur aus mindestens 4 Schichten von unten nach oben auf: anorganischen (technischen) Systemen, biologischen (lebenden) Systemen, psychischen (bewussten) Systemen, und soziologischen (kommunizierenden) Systemen. Jede Schicht ist durch eine neue Seinsqualität von der darunter liegenden abgegrenzt; diese neue Qualität (z. B. Leben, oder Bewusstsein (Seele)) lässt sich nicht aus den Komponenten der darunter liegenden erklären. Als Folge haben sich Wissenschaftsdisziplinen herausgebildet, zunächst klar abgegrenzt, dann manchmal die Grenzen überschreitend. Die Soziologie und die Psychologie haben biologische Konzepte, z. B. die Evolutionstheorie, mit Gewinn übernehmen können. Die Technik hat, im Umkehrschluss, von der Bionik profitieren können. Ob aber die Technik, über alle 4 Schichten hinweg, von soziologischen Problemlösungen lernen könnte, so sie denn existieren, ist für mich nicht so offensichtlich, aber weiterer Untersuchungen wert. 3. Forschungsansätze Die Frage nach der Kontrollierbarkeit von Agentengesellschaften scheint mir nicht gewinnbringend, die Modellierung von Prozessen auf Netzen aber sehr wohl. Aufbau von Netzen, Aus- 4 tauschprozesse, Ausbreitungsprozesse (Seuchen, Epidemien), Suchprozesse, Netzwerknavigation, Phasenübergänge, zelluläre Automaten sind nur einige, wenngleich die wichtigsten netzbezogenen Forschungsfelder im Moment [ 2 ]. Um die Evolution, vielleicht auch Fulgurationen von Agentengesellschaften mathematisch zu beschreiben, scheint mir die Theorie der autokatalytischen Netze fruchtbar zu sein, wie sie ursprünglich von M. Eigen entwickelt wurde, um den Übergang von anorganischer zu lebender Materie zu modellieren (hypercycle), und wie sie heute im Hinblick auf dynamische Graphen und Interaktionsgraphen weiterentwickelt wird [ 9 ]. Diese Theorie z. B. auf Suchprozesse im www anzuwenden, erscheint mir sehr vielversprechend. 4. Literaturverzeichnis [1] Dorogovtsev, S. N. & Mendes, J. F. F. (2003) Evolution of Networks, S. 34-52, Oxford Univ. Press, Oxford [2] Newman, M. E. J. (2003) The structure and function of complex networks, SIAM Review, 45, No 2, S. 167-256 [3] Lunze, J. (2003) Automatisierungstechnik. Oldenbourg Verlag, München [4] Hopcroft, J. E., Motwani, R. & Ullmann, J. D. (2002) Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Addison-Wesley, München [5] Cassandras, C. G. & Lafortune, S. (1999) Introduction to Discrete Event Systems. Kluwer Acad. Publ., London [6] Wunsch, G. (2000) Grundlagen der Prozesstheorie. B. G. Teubner, Stuttgart [7] Luhmann, N. (2002) Einführung in die Systemtheorie. Die Vorlesungen aus den Jahren 1991/92. Carl Auer Systeme Verlag, Heidelberg [8] Krause, D. (2001) Luhmann-Lexikon. UTB 2184, Wilhelm Fink Verlag, München [9] Jain, S. & Krishna, S. (2003) Graph theory and the evolution of autocatalytic networks, in: Handbook of Graphs and Networks, Eds. Bornhold, S., Schuster, H. G., Wiley-VCH, Weinheim