Systemmodellierung mit Netzen

Werbung
Systemmodellierung mit Netzen
Wolfgang Meyer
Arbeitsbereich für Prozessautomatisierungstechnik
Technische Universität Hamburg-Harburg
Schwarzenbergstraße 95, D - 21073 Hamburg
Tel: +49 40 42878-3050
Fax: +49 42878-2493
Email: [email protected]
1. Technische Systemmodellierung
Der Beitrag ist aus der Sicht eines Automatisierungstechnikers geschrieben. Der Begriff Automatisierungstechnik ersetzt heute die klassische Mess-, Steuer- und Regelungstechnik
(MSR-Technik). Ziel der Automatisierungstechnik ist es, die Autonomität technischer Systeme zu erhöhen, insbesondere diskreter Systeme. Agentensysteme sind diskrete technische
Systeme. Insofern weist die etwas reißerische Thematik ‚Autonome Agentensysteme außer
Kontrolle?’ auf eine dem Systemdesigner wohlbekannte Paradoxie hin: Systeme werden erst
durch eine systemeigene Steuerung autonom, und wenn sie es dann sind, entziehen sie sich
der Kontrolle. Und zwar der Kontrolle durch den Nutzer, was jedem PC-Bediener bekannt
sein dürfte, der als externer PC-Controller mit dem internen Controller, dem Betriebssystem,
kooperieren muss oder in Konflikt gerät. Der PC und sein User bilden ein soziotechnisches
System, dessen zwei Komponenten (lose oder strukturell) miteinander verkoppelt sind; was
lose oder strukturelle Kopplung technisch bedeutet, ist allerdings schwer zu erfassen. Es geht
jedoch um Benutzung, um sachgerechte Nutzung, um den zweckvollen Einsatz der technischen Mittel Computer und Internet, und wenn die Anwendungssoftware in Agententechnologie implementiert, also verteilt und intelligent ist, um die Nutzung paralleler, asynchroner,
kommunizierender Prozesse auf Netzen. Die soziologische Frage nach der Kontrollierbarkeit
solch technischer Systeme wird in der Automatisierungstechnik als Problem der Steuerbarkeit
und Beobachtbarkeit formuliert, ein Problem, das sich für bestimmte System-Modelle lösen
lässt. D. h., die Beantwortung der Frage ist eng mit den Eigenschaften der Modellierungssprache verknüpft, genauer gesagt mit ihrer Modellierungsmächtigkeit bezüglich SystemKomplexität und –Unsicherheit.
Die Anwendungen, die wir betrachten, sind: Technologische Netzwerke, biologische Netzwerke, Informationsnetze, soziale Netze. Die Strukturen, die diese Netze aufweisen, sind zyklisch
(z. B.: www) oder azyklisch (z. B.: citation network). Es gibt einige sehr rudimentäre Ansätze,
die Topologie dieser Netze durch statische Größen wie Wahrscheinlichkeitsverteilung der
Knotenabstände und –verbindungen, Clusterkoeffizient, Korrelationskoeffizient von Knotenverbindungen, Konnektivität zu erfassen (für die oben genannten Beispiele z. B. in [ 1 ]). Diese
Art der Strukturanalyse ist jedoch nur anwendbar auf Netze, deren Knoten und Kanten von
jeweils gleicher Art sind, also z. B. nicht auf semantische Netze.
Insbesondere sind diese Netze, wie sie z. B. in [ 2 ] umfassend referiert sind, nicht in der Lage,
die Individualität einzelner Knoten und komplexe Wechselwirkungen zwischen 2 Knoten auszudrücken, z. B. die differenzierte Kommunikationsbeziehung zwischen teilautonomen Agenten, wie sie in der Verteilten Künstlichen Intelligenz untersucht werden. Der Ausgangspunkt
der VKI ist der individuelle Problemlöser im Gegensatz zu den oben genannten stochastischen
Netzen. Die Anzahl der Agenten, also der Grad der Verteiltheit, damit die Parallelität des Problemlösers ist bei weitem geringer als die Zahl der Knoten z. B. in einem biologischen Netzwerk.
2
Die Modelle der technisch-mathematischen Systemtheorie, insbesondere der Theorie ereignisdiskreter Systeme, nehmen eine Mittelstellung ein zwischen Netzmodellen und Agentenmodellen bezüglich
•
der Modellgranularität, d. h. der Anzahl der Systemkomponenten
•
der Funktionen oder Attribute, durch die das Verhalten der Komponenten bestimmt wird,
und
•
der unterschiedlichen Wechselwirkungen zwischen den Komponenten, Relationen genannt.
In technischen Anwendungen genügen die folgenden 7 Relationentypen zur Modellierung des
Systems: Generalisierung, Aggregation, Klassifikation; kausale, temporale und räumliche Beziehungen, sowie Kommunikation oder Signalaustausch auf unterschiedlichsten Ebenen der Systemhierarchie. Hierarchisierung (verschiedener Funktionsebenen) und Modularisierung (innerhalb einer Hierarchieebene) sind die grundlegenden strukturbildenden Operationen der Systemmodellierung; sie werden auf alle Relationentypen angewandt, d. h. wir sprechen von kausalen,
temporalen, ..., auch Kommunikationshierarchien. Die Beziehungen zwischen den Hierarchieebenen, und die Wechselwirkungen zwischen den durch den Relationstyp charakterisierten Teilnetzen sind maßgebend für die dynamische Komplexität des Modells; die Strukturkomplexität
wird durch die Anzahl der Systemkomponenten bestimmt sowie die Art ihrer Verkopplung. Die
Systemkomponenten sind materieller Natur, z. B. Computer oder Nachrichtenkabel; mit wachsendem Abstand von der Feldebene werden diese durch ihre Funktionen charakterisiert bzw. die
dynamischen Operationen oder Prozesse, wie z. B. Rechenprozesse oder Übertragungsvorgänge.
Viel stärker als in Luhmanns Denken, der die Kommunikationsprozesse gänzlich loslöst von den
Knoten des materiellen Netzwerks nämlich den Bewusstseinsträgern (den Menschen), ist die
Systemtechnik der materiellen Struktur zugewandt und den Funktionen, die diese ermöglicht:
Der Ingenieur synthetisiert Strukturen, um gewünschte Funktionen zu realisieren, oder auch:
Technik schafft Mittel für Zwecke. Demgegenüber ist Luhmann ein reiner Naturwissenschaftler,
ein Analytiker.
Diskrete technische Systeme, zu denen auch der Computer gehört, werden meistens durch InputOutput-Komponenten modelliert, die gerichtet untereinander verbunden werden, und zwar in 4
Grundschaltungen: seriell, parallel, positiv rückgekoppelt und negativ rückgekoppelt. Die elektrische Netztheorie ist ein Beispiel dafür, wie mit diesen 4 Grundschaltungen, wenigen Systemkomponenten und nur 2 Zustandsgrößen (Strom und Spannung) ungezählte dynamische Muster,
stationäre oder nichtstationäre, darunter auch Selbstorganisationsvorgänge wie Oszillationen
und raum-zeitliche Ausbreitungsvorgänge, modelliert werden können.
Die moderne Systemtheorie ist nun eine Theorie der diskreten Prozesse/Operationen, und zwar
der ereignisdiskreten Prozesse. Grundbausteine aller diskreten Prozessmodelle sind Zustand und
Ereignis. Zustände sind zeitlich ausgedehnt, Ereignisse haben die Zeitdauer Null. Ereignisse
sind beobachtbar oder nicht, und kontrollierbar (steuerbar) oder nicht. Ereignisse bewirken Zustandsänderungen; die Folge: Ereignis1, Zustand1, Ereignis2, Zustand2, ... beschreibt die Prozessdynamik. Diese kann als Struktur mit Knoten und Kanten dargestellt werden, dem Automatengraphen. Wir unterscheiden deterministische und nichtdeterministische Automaten, letztere
modellieren Unsicherheit mit der Notwendigkeit, eine der möglichen Prozesstrajektorien auszuwählen, zu selektieren. Kontrolle meint in diesem Zusammenhang die Selektion gewünschter
Systemzustände, und dieses ist nur möglich von bestimmten Systemzuständen aus nach Maßgabe der Beobachtbarkeit und Steuerbarkeit der relevanten Ereignisse.
Grundlegende Betrachtungen zur Steuerbarkeit und Beobachtbarkeit diskreter Systeme finden
sich in [ 3 ], zur Automatentheorie in [ 4 ]; zu Petrinetzen und der auf der Theorie formaler
Sprachen beruhenden SCT (Supervisory Control Theory) in [ 5 ]. Die meines Wissens abstrakteste, d. h. weitestgehende allgemeingültige Formulierung einer Prozesstheorie im deutschen
Sprachraum ist die von G. Wunsch [ 6 ]. Der Autor verknüpft Struktur und Verhalten dynami-
3
scher und nicht notwendig reversibler Prozesse mithilfe des mathematischen Begriffs der
(Transformations-)Halbgruppe und des verallgemeinerten Markov-Prozesses. Der Autor leitet
alle bekannten physikalisch-technischen zeitlichen Erscheinungen wie magnetische Felder,
Quantenmechanik, Automaten aus einer einheitlichen Systemtheorie ab, die auch störungssensible Prozesse (determiniertes Chaos) umfasst. Laut eigener Aussage legt G. Wunsch eine grundlegende „mathematische Modellierung von Veränderung und des Wandels beliebiger Phänomene vor – soweit sie sich durch das Trajektorienkonzept beschreiben lassen“.
Auf unsere Frage: Sind Agentengesellschaften kontrollierbar? liefert die technische Systemtheorie eine wichtige Aussage über die Existenz eines Controllers: Eine Steuerung (für technische
Systeme, also auch für Agentengesellschaften) ist nur dann verifizierbar, wenn die Strecke (also
das Internet mit den darauf operierenden Agenten) mit einer regulären Sprache modelliert wird,
d. h. durch Automaten oder bestimmt Petrinetzklassen repräsentiert werden kann. Da dies in der
VKI wohl kaum der Fall sein dürfte, ist das Problem aus der Sicht des Automatisierungstechnikers erledigt, nämlich nicht lösbar.
2. Luhmann’s Systemtheorie [ 7 ]
Von einer Theorie erwartet man Anleitungen zum Verständnis von Wirklichkeit und zum Umgang mit ihr. Luhmann wird oft nutzlos-abstrakte Wirklichkeitsferne vorgeworfen, ein „Flug
über den Wolken, und nur selten reißt die Wolkendecke auf, um Durchblicke auf die höllisch
labyrinthische Erde freizugeben“ [ 8 ]. Darum geht es aber meines Erachtens gar nicht. Luhmann
liefert eine Theorie zum Beobachten der Wirklichkeit, nicht eine Theorie der Wirklichkeit selbst.
Seine Theorie (und vielleicht andere soziologische Theorien ebenfalls) beschreibt den Modellbildungsprozess, und nicht das Modell. Insofern ordne ich seine Arbeiten zur Systemtheorie den
Metawissenschaften zu, der Wissenschaftstheorie etwa oder der Erkenntnistheorie.
Benutzerfreundlichkeit kann von einer Metawissenschaft nicht erwartet werden. Zudem ist Luhmanns Theorie in einer Sprache formuliert, die nicht im entferntesten einer regulären Sprache
oder überhaupt einer Computersprache ähnelt. Es dürfte also wohl sinnlos sein, seine Theorie auf
die Automatentheorie abzubilden. Seine Überlegungen zu Systembeziehungen als Kopplungen,
ihre Systematisierung in operative, transformative und äquivalente Relationen, überhaupt die
Ansätze zu einer digitalisierten statt analogisierten Beschreibung von System-UmweltVerhältnissen [ 8 ], dann die Theorie der Beobachtung, und der extreme Ausgangspunkt seiner
Theorie überhaupt (aller Sinn liegt in den Beziehungen) – bieten jedoch viele Ansätze, den begrenzten technischen Ansatz des fundamentalen Rückkopplungsprinzips zu erweitern.
Bei allen Rückprojektionen der Luhmann’schen auf die technische Systemtheorie sehe ich aber
ein methodisches Problem, vielleicht eine grundsätzliche Schwierigkeit der Sozionik: Gemäß
dem Nicolai’schen Schichtenmodell baut sich die Natur aus mindestens 4 Schichten von unten
nach oben auf: anorganischen (technischen) Systemen, biologischen (lebenden) Systemen, psychischen (bewussten) Systemen, und soziologischen (kommunizierenden) Systemen. Jede
Schicht ist durch eine neue Seinsqualität von der darunter liegenden abgegrenzt; diese neue Qualität (z. B. Leben, oder Bewusstsein (Seele)) lässt sich nicht aus den Komponenten der darunter
liegenden erklären. Als Folge haben sich Wissenschaftsdisziplinen herausgebildet, zunächst klar
abgegrenzt, dann manchmal die Grenzen überschreitend. Die Soziologie und die Psychologie
haben biologische Konzepte, z. B. die Evolutionstheorie, mit Gewinn übernehmen können. Die
Technik hat, im Umkehrschluss, von der Bionik profitieren können. Ob aber die Technik, über
alle 4 Schichten hinweg, von soziologischen Problemlösungen lernen könnte, so sie denn existieren, ist für mich nicht so offensichtlich, aber weiterer Untersuchungen wert.
3. Forschungsansätze
Die Frage nach der Kontrollierbarkeit von Agentengesellschaften scheint mir nicht gewinnbringend, die Modellierung von Prozessen auf Netzen aber sehr wohl. Aufbau von Netzen, Aus-
4
tauschprozesse, Ausbreitungsprozesse (Seuchen, Epidemien), Suchprozesse, Netzwerknavigation, Phasenübergänge, zelluläre Automaten sind nur einige, wenngleich die wichtigsten netzbezogenen Forschungsfelder im Moment [ 2 ]. Um die Evolution, vielleicht auch Fulgurationen
von Agentengesellschaften mathematisch zu beschreiben, scheint mir die Theorie der autokatalytischen Netze fruchtbar zu sein, wie sie ursprünglich von M. Eigen entwickelt wurde, um den
Übergang von anorganischer zu lebender Materie zu modellieren (hypercycle), und wie sie heute
im Hinblick auf dynamische Graphen und Interaktionsgraphen weiterentwickelt wird [ 9 ]. Diese
Theorie z. B. auf Suchprozesse im www anzuwenden, erscheint mir sehr vielversprechend.
4. Literaturverzeichnis
[1]
Dorogovtsev, S. N. & Mendes, J. F. F. (2003) Evolution of Networks, S. 34-52, Oxford
Univ. Press, Oxford
[2]
Newman, M. E. J. (2003) The structure and function of complex networks, SIAM
Review, 45, No 2, S. 167-256
[3]
Lunze, J. (2003) Automatisierungstechnik. Oldenbourg Verlag, München
[4]
Hopcroft, J. E., Motwani, R. & Ullmann, J. D. (2002) Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Addison-Wesley, München
[5]
Cassandras, C. G. & Lafortune, S. (1999) Introduction to Discrete Event Systems. Kluwer
Acad. Publ., London
[6]
Wunsch, G. (2000) Grundlagen der Prozesstheorie. B. G. Teubner, Stuttgart
[7]
Luhmann, N. (2002) Einführung in die Systemtheorie. Die Vorlesungen aus den Jahren
1991/92. Carl Auer Systeme Verlag, Heidelberg
[8]
Krause, D. (2001) Luhmann-Lexikon. UTB 2184, Wilhelm Fink Verlag, München
[9]
Jain, S. & Krishna, S. (2003) Graph theory and the evolution of autocatalytic networks,
in: Handbook of Graphs and Networks, Eds. Bornhold, S., Schuster, H. G., Wiley-VCH,
Weinheim
Herunterladen