Skript zur Vorlesung (Un-)sicherheiten bei der

Werbung
Skript zur Vorlesung
(Un-)sicherheiten bei der Ökosystemmodellierung
Dr. Karsten Schulz
Institut für Geoökologie
TU Braunschweig
Braunschweig, Januar 2002
Inhaltsverzeichnis
Inhaltsverzeichnis
I
1 Grundlagen
1
1.1
1.2
Mathematische Methoden zum Umgang mit Unsicherheiten . . . . . . . . .
1
1.1.1
Intervallarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.2
Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . .
4
1.1.3
Fuzzy–Set–Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Fuzzy–Set–Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1
Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2
Interpretation und Akquisition unscharfer Zahlen . . . . . . . . . . 25
1.2.3
Vergleich: Fuzzy-Set-Theorie – Stochastische Methoden . . . . . . . 31
1.2.4
Integration von unscharfen und stochastischen Konzepten . . . . . . 35
2 Methodenentwicklung
41
2.1
Problembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2
Lösungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3
Realisierung und numerische Umsetzung . . . . . . . . . . . . . . . . . . . 45
Notationen
49
Literaturverzeichnis
51
I
Kapitel 1
Grundlagen
1.1
Mathematische Methoden zum Umgang mit Unsicherheiten
1.1.1
Intervallarithmetik
Die Intervallarithmetik ist ein nicht stochastisches Werkzeug, um mit Parameterwerten
zu arbeiten und zu rechnen, die innerhalb gewisser Bandbreiten bzw. innerhalb geschlossener Intervalle vorliegen. Ein Beispiel für solche Größen sind z. B. physikalische Konstanten, die oft nur “ungenau” angegeben werden können. So beträgt die Erdbeschleunigung
im Schwarzwald zwischen minimal gF eldberg = 9.8045 m/s2 am Feldberg und maximal
gF reiburg = 9.8082 m/s2 in Freiburg, so daß eine realistische Beschreibung dieser Größe
für das Gebiet lauten würde:
g ∈ [9.8045, 9.8082] m/s2
Weitere Möglichkeiten für Unsicherheiten dieser Art sind z. B. Rundungsfehler oder
Zahlen, die nur mit einer endlichen Anzahl von Dezimalstellen dargestellt werden können.
Innerhalb der Intervallarithmetik wird generell die Frage beantwortet: “Welche Bandbreite bzw. Struktur an Funktionswerten bzw. Modellergebnissen erhalte ich, wenn die Eingangsgrößen innerhalb vorgegebener Intervalle liegen?”. In Kapitel 1.2 wird gezeigt, daß
Intervalle als Sonderfälle von unscharfen Zahlen angesehen werden können und, daß mathematische Operationen mit unscharfen Zahlen auf entsprechende Operationen innerhalb
2
KAPITEL 2. GRUNDLAGEN
der Intervallarithmetik zurückgeführt werden können. Das bedeutet, daß die Intervallarithmetik und die Fuzzy–Set–Theorie sehr eng miteinander verknüpft sind. Im folgenden
werden sehr kurz wichtige Definitionen und Eigenschaften der Intervallarithmetik eingeführt und behandelt.
Definition 1 Seien x, x ∈ IR mit x ≤ x. Dann bezeichnet man x̆ := [x, x] als abgeschlossenes Intervall innerhalb der Menge der reellen Zahlen IR und setzt:
[x, x] := {x ∈ IR | x ≤ x ≤ x}
˘ bezeichnet die Menge aller abgeschlosFür x = x besteht [x, x] nur aus einem Punkt. IR
sener Intervalle auf IR.
˘ so heißt 2s̆ die abgeschlossene Hülle von s̆ mit:
Definition 2 Ist s̆ ∈ IR,
2s̆ := [ inf(s̆), sup(s̆) ]
Sei also z. B. s̆ := { 1s , s ≥ 1}, dann gilt 2s̆ = [0, 1] und bezeichnet damit das “engste”
abgeschlossene Intervall, das s̆ einschließt. Inf bzw. sup bezeichnen die größte untere
bzw. kleinste obere Schranke von s̆.
˘ die Menge aller abgeschlossenen Intervalle innerhalb IR. Dann beDefinition 3 Sei IR
˘ × . . . × IR
˘ deren Kartesisches Produkt und elementare Operationen ◦ ∈ Ω :=
zeichnet IR
{+, −, ∗, /} lassen sich wie folgt definieren:
x̆ ◦ y̆ := 2{x ◦ y | x ∈ x̆, y ∈ y̆}
˘ wobei x ◦ y für alle x ∈ x̆ und y ∈ y̆ definiert sein muß.
für alle x̆, y̆ ∈ IR,
Damit wird z. B. die Division x̆/y̆ zweier Intervalle beschränkt auf Intervalle y̆, für die
gilt 0 6∈ y̆. Konkret ergeben sich für die elementaren Operationen folgende Berechnungsvorschriften:
˘ mit x̆ := [x, x] und y̆ := [y, y] gilt:
Satz 1 Für zwei Intervalle x̆, y̆ ∈ IR
x̆ + y̆ = [x + y, x + y] ,
x̆ − y̆ = [x − y, x − y]
x̆ · y̆ = [min(x · y, x · y, x · y, x · y), max(x · y, x · y, x · y, x · y)]
"
1 1
x̆/y̆ = [x, x] · ,
y y
#
2.1. METHODEN ZUM UMGANG MIT UNSICHERHEITEN
3
Für die arithmethischen Operationen mit Intervallen gelten folgende Eigenschaften.
˘ dann gelten:
Satz 2 Sind x̆, y̆, z̆ ∈ IR,
Assoziativität:
x̆ + (y̆ + z̆) = (x̆ + y̆) + z̆
und
x̆ · (y̆ · z̆) = (x̆ · y̆) · z̆
und Kommutativität:
x̆ + y̆ = y̆ + x̆
und
x̆ · y̆ = y̆ · x̆
während die Distributivität nur bedingt Gültigkeit hat und durch die sogenannte Subdistributivität ersetzt wird:
x̆ · (y̆ + z̆) ⊆ x̆ · y̆ + x̆ · z̆
Für Beweise dieser beiden Sätze sei auf Neumaier (1990) verwiesen. Beliebige, auf einem
abgeschlossenen Intervall stetige Funktionen φ können gemäß Definiton 4 “erweitert”
werden, so daß sie mit Intervallen operieren können.
Definition 4 (Erweiterung von Funktionen) Sei φ : IRn → IR eine stetige Funktion.
˘ und x̆1 × . . . × x̆n deren Kartesisches Produkt, so kann φ zu
Seien weiter x̆1 , . . . , x̆n ∈ IR
˘ erweitert werden, um mit den Intervallen x̆1 , . . . , x̆n
einer Abbildung φ̆ : x̆1 ×. . .× x̆n → IR
zu operieren, indem
φ̆(x̆1 , . . . , x̆n ) := 2{φ(x1 , . . . , xn ) | xi ∈ x̆i , i = 1, . . . , n}
gesetzt wird, falls φ(x1 , . . . , xn ) für alle xi ∈ x̆i definiert ist.
Mit Hilfe dieser Definition können eine Vielzahl von Funktionen, wie z. B. sin, cos, exp etc.
zum mathematischen Operieren mit Intervallen definiert werden. Auf eine Problematik
bei der Anwendung der arithmetischen Operationen aus Satz 1 sei anhand eines kleinen
Beispiels hingewiesen.
Beispiel Die Funktion f (x) =
x
,
x+1
(x 6= −1) soll erweitert und auf das Intervall x̆ := [1, 2]
˘ × IR
˘ → IR,
˘ {x̆1 , x̆2 } 7→
angewendet werden. Faßt man f als eine Funktion auf mit f : IR
f˘(x̆1 , x̆2 ) mit x̆1 = x̆2 := [1, 2] und f˘(x̆1 , x̆2 ) = x̆1 , so ergeben die Rechenvorschriften für
x̆2 +1
4
KAPITEL 2. GRUNDLAGEN
die arithmetischen Operationen aus Satz 1 das Intervall [ 13 , 1] als Ergebnis. Dabei wird
allerdings davon ausgegangen, daß die Variablen x unabhängig voneinander Werte aus den
Intervallen [1, 2] annehmen können. Faßt man f jedoch (richtigerweise) als eine Funktion
˘ → IR,
˘ x̆ 7→ f˘(x̆), x̆ := [1, 2] sowie f˘(x̆) = x̆ und wendet Definition 4
auf mit f : IR
x̆+1
zur Erweiterung der Funktion an, so erhält man das korrekte Ergebnis [ 21 , 23 ]. Erstgenannter “Lösungsweg” liefert damit nur eine “Obermenge” der tatsächlichen Lösung (d. h.
[ 12 , 23 ] ⊆ [ 13 , 1]). Verfahren dieser Art werden jedoch häufig angewandt, da nur einfach
durchzuführende arithmetische Operationen notwendig sind und die Anwendung aufwendiger nichtlinearer Optimierungsverfahren vermieden werden kann. Nachteilig ist jedoch
die Tatsache, daß die Breite des resultierenden Intervalls auf diese Weise stark überschätzt
werden kann (Dou et al., 1995). Unterschiede dieser Art treten immer dann auf, wenn in
einem Funktionsausdruck einer zu erweiternden Abbbildung eine Variable mehr als einmal
auftritt.
Für eine umfassende Darstellung der Intervallarithmetik, vor allem hinsichtlich der
Lösung von nichtlinearen Intervallgleichungssystemen, sei auf das Buch von Neumaier
(1990) verwiesen.
1.1.2
Wahrscheinlichkeitstheorie
Eine andere Möglichkeit, Unsicherheiten der Modelleingangsgrößen mathematisch zu fassen, ist die Anwendung stochastischer Konzepte und Verfahren. Anstatt Größen als exakt
bestimmt und genau bekannt anzusehen, werden sie hier als Zufallsvariablen aufgefaßt,
die durch ihre (gemeinsamen) Verteilungen bzw. deren Momente (Erwartungswerte, Varianzen) und Kovarianzen charakterisiert sind1 . Die Verteilungsfunktionen der einzelnen
Zufallsvariablen bzw. die gemeinsame Verteilungsfunktion mehrerer Zufallsvariablen geben an, mit welcher Wahrscheinlichkeit bestimmte Parameterwerte bzw. Kombinationen
von Parameterwerten auftreten werden. Unsicherheiten diesbezüglich können sich aufgrund der stochastischen Natur des Meßprozesses selbst ergeben oder, sie resultieren z. B.
1
Für eine genaue Definitionen dieser Begriffe sowie eine grundlegende Einführung in die Wahrschein-
lichkeitstheorie sei der Leser auf Standardwerke bzw. -literatur verwiesen (z. B. Krengel, 1991). Selbst
eine nur sehr kurze Zusammenfassung der wesentlichen Inhalte würde den Rahmen dieser Arbeit erheblich
überschreiten.
2.1. METHODEN ZUM UMGANG MIT UNSICHERHEITEN
5
aus einer räumlichen und zeitlichen Variabilität der einzelnen Größen.
Bei der direkten Messung von Modelleingangsgrößen können im Falle wiederholter Bestimmungen im Rahmen der Stochastik statistische Kenngrößen (Mittelwert, Standardfehler oder auch Konfidenzintervalle) geschätzt und zugrundeliegende Verteilungsannahmen
(z. B. Normalverteilung) überprüft werden.
Die räumliche Verteilung z. B. der bodenhydraulischen Eigenschaften im Freiland
wird im Rahmen der Geostatistik (Matheron, 1971; Journel and Huijbregts, 1978) mit
dem Konzept der “Regionalisierten Variablen” behandelt und als Realisierung eines Zufallsprozesses betrachtet, der über Erwartungswert und Kovarianzfunktion beschrieben
ist. Kriging–Verfahren ermöglichen im Rahmen dieses Konzeptes die Ermittlung von Mittelwerten und Schätzvarianzen von (Boden–)Parametern an Punkten, für die im Gelände
keine Meßwerte vorliegen.
Maximum–Likelihood, Bayes’sche oder (gewichtete) Least–Squares Schätzverfahren
sind Beispiele für Techniken, die zur Bestimmung von Systemparametern anhand gemessener Daten herangezogen werden können und ebenfalls Informationen über deren Unsicherheit in Form von stochastischen Verteilungen bzw. deren Kenngrößen liefern (einen
Überblick hierzu gibt Beck, 1987).
Ein wesentliches Problem bei der Bestimmung von Verteilungsfunktionen für Systemparameter und andere Modelleingangsgrößen ergibt sich oftmals durch die Tatsache, daß
die Datengrundlage für deren Festlegung unzureichend ist. Es müssen a priori Annahmen
über bestimmte Aspekte des funktionalen Zusammenhangs der Verteilungsfunktionen getroffen werden (wie z. B. die Annahme einer log–Normalverteilung für die gesättigte
hydraulische Leitfähigkeit im Gelände oder des exponentiellen Verlaufs der Kovarianzfunktion zur Beschreibung des räumlichen Zusammenhangs dieser Größen), so daß nur
noch die entsprechenden Kenngrößen der Verteilungsfunktionen (z. B. Erwartungswert,
Varianz oder Korrelationslängen) abgeschätzt werden müssen.
Das Problem der Bestimmung von Wahrscheinlichkeitsverteilungen anhand unzureichender Datenmengen wird z. B. bei Tiwari and Hobbie (1976a) diskutiert und resultiert
in der Anwendung sogenannter “Maximum–Entropie Verteilungen” zur Beschreibung der
Daten (siehe auch Tribus, 1961; Tribus, 1969). Bardossy et al. (1988) und Bardossy, Bogardi and Duckstein (1990) weisen ebenfalls auf das Problem zu geringer Datenmengen bei
6
KAPITEL 2. GRUNDLAGEN
der Regressionsanalyse und der geostatistischen Auswertung hydrologischer Kenngrößen
hin. Sie schlagen jedoch die Anwendung von ihnen entwickelter “fuzzy regression” und
“fuzzy kriging” (Bardossy, Bogardi and Kelly, 1990a) Methoden vor. Ich werde auf diese
in Abschnitt 1.2.2 noch einmal zu sprechen kommen.
In Abbildung 1.1 sind zwei Beispiele für mögliche Verteilungsfunktionen von Modellparametern dargestellt. Die linke Abbildung zeigt die eindimensionale Standardnormalverteilung einer Größe x, die rechte Abbildung die gemeinsame Verteilung zweier Zufallsgrößen. Dabei kann das Integral dieser Funktionen über einem bestimmten Intervall
(bzw. Bereich im zweidimensionalen Fall) als ein Maß dafür angesehen werden, mit welcher Häufigkeit Werte aus diesem Intervall (Bereich) bei wiederholter Realisierung des
zugrundeliegenden Zufallprozesses auftreten würden.
0.2
0.4
f(x,y)
0.15
f(x)
0.3
0.1
0.2
0.05
0.1
0
0
-4
-2
0
2
4
3
2
1
y
0
-1
-2
-3
-4
-4
-3
-2
-1
0
2
1
3
4
x
x
Abbildung 1.1: Ein- und zweidimensionale Standardnormalverteilung als Beispiele für (gemeinsame) Verteilungsfunktionen.
Ein Problem im Rahmen der stochastischen Beschreibung von Unsicherheiten stellt
die Zuweisung “subjektiver” Wahrscheinlichkeiten dar, wenn die Informationen nur in
“weicher” Form z. B. in linguistischer Form als Expertenaussagen vorliegen. Morgan and
Henrion (1990) diskutieren dieses Problem ausführlich und geben Verfahren an, wie diese
aus gegebenen Informationen abgeleitet werden können. “Soft Kriging” (Journel, 1986)
und “Bayes Kriging” (Omre, 1987) sind Beispiele dafür, wie Informationen dieser Art
subjektive Wahrscheinlichkeiten zugewiesen werden und sie im Rahmen geostatistischer
2.1. METHODEN ZUM UMGANG MIT UNSICHERHEITEN
7
Schätzverfahren genutzt werden können. In vielen Fällen ist jedoch die Angabe einer
Verteilungsfunktion für solche Größen eher gewagt und mit größeren Unsicherheiten verbunden. Bardossy et al. (1988) argumentieren, daß unscharfe Methoden im Rahmen der
Fuzzy–Set–Theorie oftmals eine wesentlich angemessenere, intuitivere und leichter umsetzbare Möglichkeit darstellen, diese zu beschreiben. Kapitel 1.2 wird weitere Aspekte
hierzu liefern.
Unabhängig von der Art und Weise der Ableitung und Bestimmung der Verteilungsfunktionen hat die stochastische Beschreibung der Modelleingangsgrößen zur Folge, daß
die Modelle bzw. Gleichungen, in denen sie verwendeten werden, stochastischer Natur
sind. Die resultierenden Größen weisen ebenfalls Unsicherheiten auf, die wiederum durch
Verteilungsfunktionen charakterisiert sind. Im folgenden sollen kurz einige Verfahren vorgestellt werden, mit denen es möglich ist, diese resultierenden Verteilungen bzw. deren
parametrische Charakterisierung abzuschätzen.
Gauß’sche Fehlerfortpflanzung
Eine vor allem in der Physik sehr häufig angewendete Methode, um zu untersuchen, wie
sich Unsicherheiten bzw. Fehler in den Eingangsgrößen auf die berechneten Zielgrößen
auswirken und “fortpflanzen”, ist die Anwendung des sogenannten “Gauß’schen Fehlerfortpflanzungsgesetzes”.
Nehmen wir an, die unabhängigen (Zufalls-) Größen x1 , . . . , xn seien über den funktionalen Zusammenhang ψ := f (x1 , . . . , xn ) miteinander verknüpft. Sind E(X1 ), . . . , E(Xn )
die Erwartungswerte und V ar(X1 ), . . . , V ar(Xn ) die Varianzen der entsprechenden Zufallsvariablen X1 , . . . , Xn , so wird bei diesem Verfahren als Schätzung für den Erwartungswert der Verteilung von ψ die Größe
E(ψ) = f (E(X1 ), . . . , E(Xn ))
verwendet. Für die Varianz von ψ ergibt sich folgende Schätzung:
Ã
V ar(ψ) =
∂f
∂x1
!2
Ã
∂f
· V ar(X1 ) + . . . +
∂xn
!2
· V ar(Xn )
wobei die partiellen Ableitungen an der Stelle (E(X1 ), . . . , E(Xn )) zu wählen sind.
(1.1)
8
KAPITEL 2. GRUNDLAGEN
Gleichung 1.1 stellt eine lokale Approximation des zu erwartenden Fehlers dar und
besitzt im Prinzip nur für lineare funktionale Zusammenhänge und Unabhängigkeit der
Größen Gültigkeit. Im nichtlinearen Fall kann dieses Verfahren nur für sehr kleine Varianzen oder für nur “moderat” nichtlineare Funktionen sinnvoll angewendet werden. Eine
mathematische Herleitung des Verfahrens und eine ausführliche Diskussion der Anwendbarkeit sind z. B. bei Brandt (1992) beschrieben.
Stochastische Simulation — Monte-Carlo Methode
Im allgemeinen Fall existieren, z. B. zur Lösung nichtlinearer stochastischer (Differential) Gleichungen, eine Reihe weiterer Verfahren. Perturbations- (Störungs-) Techniken sind
sowohl im Grundwasserbereich (Gelhar and Axness, 1983; Tang and Pinder, 1979) als
auch bei der Modellierung des Wassertransportes in der ungesättigten Bodenzone (Andersson and Shapiro, 1983; Mantoglou and Gelhar, 1987b; Yeh et al., 1985a) für heterogene Grundwasserleiter bzw. Böden entwickelt und angewendet worden. Sie beschränken
sich im wesentlichen auf die Beschreibung des Einflusses heterogener bodenhydraulischer
Eigenschaften auf die resultierenden Wassergehalte, Tensionen und (Stoff–)Flüsse. Die
generelle Vorgehensweise ist die, daß die betrachteten Zufallsgrößen als Zerlegungen in
zwei Anteile betrachtet werden: in einen Term, der den Erwartungswert beschreibt, und
einen sogenannten Perturbationsterm, der die Abweichungen vom Erwartungswert repräsentiert. Die eingehenden bodenhydraulischen Eigenschaften werden dabei als Realisierungen eines stationären, räumlich stochastischen Prozesses betrachtet, der über seine
Kovarianzfunktionen festgelegt ist und z. B. mit Hilfe spektraler Verfahren verwirklicht
wird. Andersson and Shapiro (1983) skizzieren diese Methode leicht verständlich anhand
eines einfachen stationären Fließprozesses und der Annahme, daß einzig die gesättigte
hydraulische Leitfähigkeit räumlich abhängigen Variationen unterworfen ist.
Allgemeine Aussagen über die Auswirkungen der Unsicherheiten bodenhydraulischer
Eigenschaften auf die Verteilung der Zielgrößen (z. B. in Form “effektiver” bodenhydraulischer Funktionen) lassen sich nur im Grundwasserbereich treffen (Gutjahr et al.,
1978; Gelhar and Axness, 1983; Dagan, 1982). In der ungesättigten Bodenzone bleiben solche Aussagen auf die Annahme bestimmter Fließbedingungen, bestimmter Beschreibungen funktionaler Zusammenhänge berücksichtigter Größen und/oder bestimmter Rand-
2.1. METHODEN ZUM UMGANG MIT UNSICHERHEITEN
9
und Anfangsbedingungen beschränkt (Bresler and Dagan, 1983; Yeh et al., 1985b; Yeh
et al., 1985c; Mantoglou and Gelhar, 1987a).
Aufgrund dieser Einschränkungen bieten sich für generelle Untersuchungen zur Lösung
stochastischer (partieller Differential-) Gleichungen sogenannte Monte–Carlo Verfahren
an. Wiederum sind die Modelleingangsgrößen durch (gemeinsame) Verteilungen charakterisiert. Mit Hilfe stochastischer Simulationsverfahren werden zunächst eine Vielzahl an
Realisierungen dieser Verteilungen generiert. Jede Realisierung wird dann sukzessive für
eine Auswertung des Modells bzw. der Funktion genutzt, und aus den resultierenden
Werten werden die Verteilungen der abhängigen Größen ermittelt (Rubinstein, 1981).
Je nach Struktur der Modelleingangsgrößen sind unterschiedliche Verfahren für das
Generieren von Realisierungen der Wahrscheinlichkeitsverteilungen nötig. Sind die einzelnen Parameter unabhängig voneinander, müssen nur Berechnungsvorschriften für das
Erzeugen von z. B. Normal-, Gleich-, Exponential- oder Weibullverteilungen umgesetzt
werden. In der Regel erfordert dies die Bereitstellung gleichverteilter Zufallszahlen auf
dem Einheitsintervall [0, 1] (Prozeduren hierzu werden von jeder Programmiersprache
bzw. Compiler zur Verfügung gestellt), die dann mit geeigneten Verfahren transformiert
werden. Morgan and Henrion (1990) geben hierzu einen Überblick.
Gemeinsame Verteilungen mehrerer Zufallsvariablen werden in der Regel als
“Gauß’sche Prozesse” betrachtet, die dadurch charakterisiert sind, daß jeweils endlich
viele dieser Zufallsgrößen multivariat normalverteilt sind und über ihre Erwartungswertund Kovarianzfunktion eindeutig bestimmt sind (vgl. z. B. Abbildung 1.1 rechts). Zu deren
stochastischer Simulation existieren eine ganze Reihe an Verfahren, die man grundsätzlich
in nichtbedingte und bedingte Verfahren unterteilen kann. Zu den bekanntesten Verfahren der nichtbedingten Simulation zählt das “turning bands” Verfahren (Mantoglou and
Wilson, 1982). Weitere gebräuchliche Techniken sind die “matrix decomposition” Methode (Davis, 1987) und die “random coins” Methode (Alfaro Sironvalle, 1980). Bedingte
Verfahren zeichnen sich dadurch aus, daß die simulierten Realisationen an gegebenen
Meßpunkten mit den Meßwerten übereinstimmen. Beispiele sind das “conditioning kriging” (de Fouquet, 1994) oder das “simulated annealing” (Deutsch and Cockerham, 1994).
Einen Überblick und eine nähere Beschreibung dieser Verfahren geben z. B. Koltermann
and Gorelick (1996). Numerische Algorithmen und FORTRAN–Programmroutinen hierzu
10
KAPITEL 2. GRUNDLAGEN
werden z. B. von Deutsch and Journel (1992) zur Verfügung gestellt. Für eine Einführung
in die Theorie stochastischer Prozesse innerhalb der Geowissenschaften sei auf das Buch
von Bras and Rodriguez-Iturbe (1993) verwiesen.
Beispiele für die Anwendung von Monte–Carlo Verfahren zur Abschätzung des Einflusses von Unsicherheiten der Eingangsparameter auf die resultierenden Größen sind in
den Geowissenschaften vielfältig. Tiwari and Hobbie (1976b) modellierten z. B. das Algenwachstum in einem einfachen aquatischen System und untersuchten den Einfluß unsicherer
Wachstumsparameter und Nährstoffgehalte. Beschreibt die Funktion F (P1 , . . . , Pn ) das
Systemverhalten, wobei P1 , . . . , Pn die Eingangsparameter als Zufallsvariablen darstellen,
so können die Autoren klar herausstellen, daß sich aufgrund der Nichtlinearitäten des
Systems der Erwartungswert der Zielgröße, also E (F (P1 , . . . , Pn )), deutlich vom Funktionswert der Erwartungswerte der eingehenden Zufallsvariablen F (E(P1 ), . . . , E(Pn ))
unterscheidet. Zu gleichen Schlußfolgerungen kommen Huwe and Totsche (1995) bei der
stochastischen Modellierung der Stickstoffdynamik in Agrarsystemen. Eine der wenigen
Arbeiten, die sich mit den Auswirkungen von Unsicherheiten bei gleichgewichtschemischen Berechnungen beschäftigt, nutzt ebenfalls Monte–Carlo Verfahren, um die Auswirkung von Meßfehlern auf berechnete Stoffkonzentrationen abzuschätzen (Schecher and
Driscoll, 1988).
Für eine umfassende Beschreibung des Monte–Carlo Verfahrens sowie dessen weitere
Anwendungsmöglichkeiten sei auf das Buch von Rubinstein (1981) verwiesen. Hier werden
ebenfalls Fragen zur notwendigen Anzahl an Simulationen in Abhängigkeit von der Anzahl
unsicherer Eingangsgrößen diskutiert und Abschätzungsmöglichkeiten für die Genauigkeit
der resultierenden Verteilungen gegeben.
1.1.3
Fuzzy–Set–Theorie
Die Fuzzy–Set–Theorie stellt als relativ junger mathematischer Bereich eine ganz neue
Möglichkeit dar, Unsicherheiten bezüglich Daten, Parametern, aber auch in Modellkonzepten mathematisch zu fassen. Sie wurde erstmals von Zadeh (1965) vorgestellt und
fand in den letzten Jahren einen rasanten Einzug in die Ingenieurwissenschaften, insbesondere in die Gebiete Entscheidungsfindung (decision making) sowie die Steuerungs- und
2.1. METHODEN ZUM UMGANG MIT UNSICHERHEITEN
11
Regelungstechnik (Zimmermann and Kleeblatt, 1992).
Grundsätzlich stellt die Fuzzy–Set–Theorie eine Erweiterung der klassischen binären
Logik dar. Statt der beiden Zustände ja/nein, wahr/falsch bzw. 0/1 bietet sie die Möglichkeit, Mengen mit unscharfen Grenzen, d. h. Mengen, deren Elemente nur zu einem gewissen Grad zu ihr gehören, mathematisch zu behandeln. Ein Beispiel hierfür ist z. B.
“die Menge der schnellen Autos”. In der binären Logik muß für eine solche Menge ein
Grenz- bzw. Schwellenwert festgelegt werden; liegt der Wert eines gegebenen Elementes
darüber (bzw. darunter) gehört es vollständig zu dieser Menge, im entgegengesetzten Fall
ist es nicht darin enthalten. Ist dieser Wert z. B. für die “Menge der schnellen Autos” mit
120 km/h angegeben, so müßte man ein Auto, das maximal 120.1 km/h fährt, als schnell
bezeichnen, während ein Auto, welches nur 119.9 km/h erreicht, nicht zur “Menge der
schnellen Autos” zählt, und das, obwohl sich beide Autos hinsichtlich der beschriebenen
Eigenschaft kaum unterscheiden. Im Rahmen der Fuzzy–Set–Theorie sind hingegen Teilzugehörigkeiten eines Elementes zu einer Menge erlaubt, die es ermöglichen, Unschärfen
bzw. Unsicherheiten hinsichtlich eines Sachverhaltes auszudrücken. Der sogenannte Zugehörigkeitsgrad eines Elementes, der Werte zwischen 0 und 1 annehmen kann, gibt an,
zu welchem Grad ein Element zu einer Menge gehört. Je näher er bei 1 liegt, desto mehr
gehört das Element zur Menge, je näher er bei 0 liegt, desto weniger gehört es dazu.
Alternativ kann der Zugehörigkeitsgrad eines Elementes auch als “Möglichkeit” für das
Eintreten eines Ereignisses interpretiert werden. Der nächste Abschnitt wird sich sehr
ausführlich dieser Thematik widmen.
Neben der Beschreibung von Unsicherheiten im nicht stochastischen Sinne bietet die
Fuzzy–Set–Theorie auch die Möglichkeit, über sogenannte Fuzzy–Regelsysteme nichtlineare funktionale Zusammenhänge auf anschauliche und interpretierbare Weise zu approximieren. Diese Verfahren werden vor allem in der Steuerungs– und Regelungstechnik sehr
erfolgreich angewendet, da sie es ermöglichen, vorhandenes “regelbasiertes Expertenwissen” effektiv zu nutzen und umzusetzen. Eine ausführliche Beschreibung dieser Verfahren
hinsichtlich geophysikalischer und biologischer Anwendungen wird in dem Buch von Bardossy and Duckstein (1995) gegeben. Für eine generelle und ausführliche Abhandlung
theoretischer Aspekte der Fuzzy–Set–Theorie sei auf die Standardwerke von Kruse et al.
(1993), Kaufmann and Gupta (1991) oder Dubois and Prade (1980) verwiesen.
12
KAPITEL 2. GRUNDLAGEN
Als alternative Beschreibung von Unsicherheiten wurde die Fuzzy–Set–Theorie bislang
vor allem im Bereich der Datenanalyse (Tanaka et al., 1982; Bardossy et al., 1988; Bardossy, Bogardi and Kelly, 1990b; Bardossy, Bogardi and Kelly, 1990a; Bardossy, Bogardi
and Duckstein, 1990) und der Entscheidungsfindung bzw. Risikoanalyse (Bardossy and
Duckstein, 1992; Li, 1992; Lee, 1992; Lee et al., 1994) angewendet. Einige wenige weitere Anwendungen im Bereich der Geowissenschaften beschränken sich auf den Bereich
der Grundwasserhydrologie (Dou et al., 1995). Die hier vorliegende Arbeit stellt meines
Wissens den ersten Beitrag dar, der Möglichkeiten aufzeigt und Verfahren entwickelt, um
“vage”, “unscharfe” und “unpräzise” Aussagen bzw. Informationen mit Hilfe der Fuzzy–
Set–Theorie in die Modellierung und Vorhersage bodenphysikalischer und hydrochemischer Prozesse zu integrieren.
Zu diesem Zweck ist es zunächst erforderlich, einige theoretische Aspekte der Fuzzy–
Set–Theorie ausführlicher zu behandeln.
2.2. FUZZY–SET–THEORIE
1.2
13
Fuzzy–Set–Theorie
In ersten Teil dieses Abschnittes werden alle im Rahmen dieser Arbeit notwendigen Definitionen aus dem Bereich der Fuzzy–Set–Theorie aufgeführt und näher erläutert. Hierzu
gehören die Begriffe “unscharfe Menge”, “unscharfen Zahl” und “linguistische Variable”.
Ferner werden grundlegende Prinzipien und Rechenvorschriften vorgestellt, um mathematische Operationen mit unscharfe Zahlen durchführen zu können. Diese werden anhand
einfacher Beispiele illustriert. Der zweite Teil beschäftigt sich mit der Interpretation unscharfer Zahlen und stellt Verfahren vor, mit denen sie aus gegebenen Informationen
abgeleitet werden können. Im dritten Teil werden ausführlich die Unterschiede zwischen
stochastischen Verfahren und Methoden der Fuzzy–Set–Theorie zum Umgang mit Unsicherheiten aufgezeigt und diskutiert. Schließlich wird sich der vierte Teil mit der Möglichkeit beschäftigen, stochastische und fuzzy–Konzepte integrierend zu behandeln. Hierzu
werden Verfahren erläutert, mit denen aus (stochastischen) Verteilungen einzelner Größen
unscharfe Zahlen abgeleitet werden können und es erlauben, beide Arten unsicherer Information gemeinsam zu behandeln.
1.2.1
Grundlegende Definitionen
Unscharfe Menge
Wie bereis angedeutet, stellt die Fuzzy–Set–Theorie grundsätzlich eine Möglichkeit dar,
Unschärfen, d. h. Mengen mit unscharfen Grenzen bzw. Teilzugehörigkeiten eines Elementes zu einer Menge, darzustellen. Die Zugehörigkeit wird durch den sogenannten Zugehörigkeitsgrad ausgedrückt, der Werte zwischen 0 und 1 annehmen kann. Formal ist
eine “unscharfe Menge” (fuzzy set) folgendermaßen definiert:
Definition 5 Sei X eine beliebige Menge von Elementen. X heißt unscharfe Menge (fuzzy
set) von X, genau dann, wenn X eine Menge geordneter Paare der Form ist, so daß gilt:
X = { (x, µX (x)) | x ∈ X, µX (x) ∈ [0, 1] }
(1.2)
wobei µX (x) den Zugehörigkeitsgrad von x in X bezeichnet. Im Falle nicht diskreter Mengen nennt man µX (x) auch “Zugehörigkeitsfunktion” (membership function) von X . X ?
bezeichnet die Menge aller unscharfen Mengen von X.
14
KAPITEL 2. GRUNDLAGEN
Je näher der Wert µX (x) bei 1 liegt, umso mehr gehört x zur unscharfen Menge X ; je
näher er bei 0 liegt, umso weniger gehört x zu X . Abbildung 1.2 (durchgezogene Linie)
zeigt eine mögliche Zugehörigkeitsfunktion für die “Menge der gut drainenden Böden”.
Im Vergleich hierzu, dargestellt durch die gestrichelte Linie, die entsprechende Menge im
Rahmen der binären Logik, wo nur die beiden Werte 0 oder 1 als Zugehörigkeitsgrade
erlaubt sind, wenn 120 cm/d als Schwellenwert für Ks –Werte “gut drainender Böden”
gewählt ist.
"gut drainender Boden"
1
(x)
0.75
0.5
0.25
0
60
80
100
120
140
Ks [cm/d]
Abbildung 1.2: Ein Beispiel für eine mögliche Zugehörigkeitsfunktion für die “Menge der
gut drainenden Böden” (durchgezogene Linie). Im Vergleich hierzu (gestrichelte Linie) die
entsprechende Menge im Rahmen der binären Logik, mit einem Schwellenwert für den
Ks –Wert von 120 cm/d.
Unscharfe Zahlen
Spezielle Formen unscharfer Mengen sind sogenannte “unscharfe Zahlen” (fuzzy numbers).
Es handelt sich hierbei um Mengen geordneter Paare (x, µ(x)), wobei x ∈ IR ist. Sie sind
charakterisiert durch folgende weitere Eigenschaften bzw. Definitionen:
Definition 6 Eine unscharfe Menge A := {(x, µA (x)) | x ∈ X ⊆ IR, µA (x) ∈ [0, 1]} heißt
“normal”, wenn wenigstens ein Element x existiert, für das gilt: µA (x) = 1.
2.2. FUZZY–SET–THEORIE
15
Definition 7 Eine unscharfe Menge A := {(x, µA (x)) | x ∈ X ⊆ IR, µA (x) ∈ [0, 1]} heißt
“konvex” wenn für alle x, y, z ∈ X mit x ≤ z ≤ y gilt:
µA (z) ≥ min[µA (x), µA (y)]
(1.3)
Definition 8 Eine unscharfe Menge A := {(x, µA (x)) | x ∈ X ⊆ IR, µA (x) ∈ [0, 1]}
heißt unscharfe Zahl (fuzzy number), falls sie “normal” und “konvex” ist. A? bezeichnet
die Menge aller unscharfen Zahlen von X ⊆ IR.
Abbildung 1.3 zeigt vier Beispiele für unscharfe Menge: Die Graphen (1) und (2) repräsentieren unscharfe Zahlen mit verschieden geformten Zugehörigkeitsfunktionen; Graph (3)
zeigt eine “konvexe”, jedoch nicht “normale” unscharfe Menge, Graph (4) hingegen stellt
eine “normale” unscharfe Menge dar, die allerdings das Konvexitätskriterium verletzt.
1
(1)
(2)
(x)
0.5
0
1
0.5
(3)
(4)
0
x
Abbildung 1.3: Vier Beispiele für unscharfe Mengen: (1) und (2) zeigen unscharfe Zahlen
mit verschiedenen Verläufen ihrer Zugehörigkeitsfunktionen, (3) zeigt eine “konvexe”, aber
nicht “normale” unscharfe Menge, (4) stellt eine “normale” unscharfe Menge dar, die
jedoch das Konvexitätskriterium verletzt.
Sehr häufig wird bei Anwendungen auf sehr einfache Formen von Zugehörigkeitsfunktionen
zurückgegriffen. Die meistverwendeten sind sogenannte “dreieckige” und “trapezförmige”
16
KAPITEL 2. GRUNDLAGEN
unscharfe Zahlen. Sie sind dadurch gekennzeichnet, daß sie über die Angabe von nur drei
bzw. vier Punkten bestimmt sind.
Definition 9 Eine unscharfe Zahl A := (a1 , a2 , a3 )dr mit a1 ≤ a2 ≤ a3 heißt “dreieckige”
unscharfe Zahl, wenn sie in folgender Form geschrieben werden kann:
µA (x) =



0





 x−a1
a2 −a1
a3 −x
a3 −a2







 0
falls x ≤ a1
falls a1 < x ≤ a2
falls a2 < x ≤ a3
(1.4)
falls a3 < x
Abbildung 1.4 (1) zeigt eine “dreieckige” unscharfe Zahl mit den entsprechenden Kenngrößen. Ein Sonderfall “dreieckiger” unscharfer Zahlen ist in Abbildung 1.2 dargestellt und
hat folgendes Aussehen: {a1 , a2 , +∞}dr . Für den Fall a1 = a2 = a3 erhält man sogenannte
“scharfe Zahlen” (crisp value), die die reellen Zahlen im Rahmen der Fuzzy–Set–Theorie
repräsentieren (Abbildung 1.4 (2)).
Definition 10 Eine unscharfe Zahl A := (a1 , a2 , a3 , a4 )tr mit a1 ≤ a2 ≤ a3 ≤ a4 heißt
“trapezförmige” unscharfe Zahl, wenn sie in der Form geschrieben werden kann:
µA (x) =



0





x−a1



 a2 −a1
1




a4 −x



a4 −a3




0
falls x ≤ a1
falls a1 < x ≤ a2
falls a2 < x ≤ a3
(1.5)
falls a3 < x ≤ a4
falls a4 < x
In Abbildung 1.4 (3) ist eine solche “trapezförmige” unscharfe Zahl dargestellt. Ein Sonderfall innerhalb dieser Klasse unscharfer Zahlen ist in Abbildung 1.4 (4) gezeigt, wenn
gilt a1 = a2 und a3 = a4 . Unscharfe Zahlen dieser Art können als gewöhnliche Intervalle
(siehe Kapitel 1.1.1) aufgefaßt werden.
Ein weiterer sehr wichtiger Typ von unscharfen Zahlen sind die sogenannten “Links–
Rechts” oder L-R unscharfen Zahlen (Dubois and Prade, 1980):
2.2. FUZZY–SET–THEORIE
17
1
(1)
(2)
0.5
0
a2
a3
a1=a2=a3
(x)
a1
1
(3)
(4)
0.5
0
a1
a2
a3
a4
a1=a2
a3=a4
x
Abbildung 1.4: Zwei Beispiele für “dreieckige” unscharfe Zahlen (1+2) und zwei Beispiele
für “trapezförmige” unscharfe Zahlen (3+4).
Definition 11 Eine unscharfe Zahl A := (a1 , a2 , a3 )LR mit a1 ≤ a2 ≤ a3 heißt L–R
unscharfe Zahl, wenn der Zugehörigkeitsgrad µA (x) berechnet werden kann als:
µA (x) =
´
 ³
a2 −x

L



³a2 −a1 ´




R
0
x−a2
a3 −a2
falls a1 ≤ x ≤ a2
falls a2 < x ≤ a3
(1.6)
sonst
L und R sind hier auf dem Intervall [0, 1] definierte, strikt monoton fallende Funktionen
mit Werten in [0, 1], die folgenden Bedingungen genügen:
L(η) = R(η) = 1 , falls η = 0 und L(η) = R(η) = 0 , falls η = 1
“Dreieckige” unscharfe Zahlen sind demnach Sonderfälle von L–R unscharfen Zahlen mit
L(η) = R(η) = 1−η , wobei η ∈ [0, 1]. L–R unscharfe Zahlen wurden entwickelt, um stetig
differenzierbare Zugehörigkeitsfunktionen zu erhalten. L(η) = R(η) = 0.5 · (cos(πη) + 1),
mit η ∈ [0, 1] ist ein Beispiel dafür und wird in Abbildung 1.5 dargestellt.
18
KAPITEL 2. GRUNDLAGEN
(x)
1
0.5
0
0
0.5
1
1.5
2
2.5
3
x
Abbildung 1.5: Zugehörigkeitsfunktion der L–R unscharfen Zahl (0.5, 1.5, 2.5)LR mit
L(η) = R(η) = 0.5 · (cos(πη) + 1) und η ∈ [0, 1].
“Trapezförmige” unscharfe Zahlen können ebenfalls unter dem L–R Konzept generalisiert
werden. Sie spielen eine wichtige Rolle bei der Ableitung von Zugehörigkeitsfunktionen
für unscharfe Zahlen aus statistischen Daten bzw. Wahrscheinlichkeitsdichten (siehe Abschnitt 1.2.4):
Definition 12 Eine unscharfe Zahl A := (a1 , a2 , a3 a4 )LR mit a1 ≤ a2 ≤ a3 ≤ a4 heißt
“trapezförmige” L–R unscharfe Zahl, wenn der Zugehörigkeitsgrad µA (x) berechnet werden
kann als:
 ³
´
a2 −x


L

a2 −a1




 1
µA (x) =  ³ x−a ´

R a3 −a22





 0
falls a1 ≤ x ≤ a2
falls a2 < x ≤ a3
falls a3 < x ≤ a4
(1.7)
sonst
L und R sind hier wiederum auf dem Intervall [0, 1] definierte, strikt monoton fallende
Funktionen, die die in Definition 11 genannten Bedingungen erfüllen.
α–Schnitt
Ein wichtiger Begriff in Hinblick auf mathematische Operationen mit unscharfen Zahlen
ist der “α–Schnitt” (α–level cut) einer unscharfen Zahl. Er beschreibt die Menge der
2.2. FUZZY–SET–THEORIE
19
Elemente, die mindestens einen Zugehörigkeitsgrad von α ∈ [0, 1] haben.
Definition 13 Der α–Schnitt einer unscharfen Zahl A ist die Menge, für die gilt:
Aα = {x ∈ X, µA (x) ≥ α}
(1.8)
Wird in dieser Definition der “ ≥” Operator durch “ >” ersetzt, so spricht man von einem
striktem α–Schnitt, der mit Aα gekennzeichnet wird2
Aufgrund der Konvexität (Definition 7) resultieren die α–Schnitte unscharfer Zahlen in
Intervallen auf den reellen Zahlen. Waren sie bislang nur durch ihre Zugehörigkeitsfunktion charakterisiert (man spricht auch von ihrer vertikalen Repräsentation), können sie
mit Hilfe der α–Schnitte auch in einer horizontalen Betrachtungsweise eindeutig bestimmt
werden. Abbildung 1.6 zeigt einen α–Schnitt sowie das resultierende Intervall einer “dreieckigen” unscharfen Zahl.
(x)
1
0.5 - Schnitt
0.5
0
10
12
14
[
16
[12.5, 17.5]
18
]
20
x
Abbildung 1.6: α–Schnitt einer “dreieckigen” unscharfen Zahl.
2
Der 0–Schnitt einer unscharfen Zahl bezeichnet demnach die ganze Menge X ⊆ IR, auf der sie definiert
ist. Wenn im folgenden von 0–Schnitt gesprochen wird, ist in der Regel der strikte 0–Schnitt gemeint.
Für alle anderen α–Niveaus werden die beiden Schnitte sprachlich differenziert.
20
KAPITEL 2. GRUNDLAGEN
Linguistische Variable
Ein Großteil unseres Wissens und unserer Erfahrungen liegt in linguistischer Form vor –
viele Phänomene werden mit Wörtern oder Sätzen beschrieben, die jedoch nicht geeignet sind, mathematisch oder mit Hilfe des Computers weiter verarbeitet zu werden. Ein
Beispiel hierfür wäre die Aussage: “ Die gesättigte hydraulische Leitfähigkeit an diesem
Standort ist sehr hoch oder die eines sandigen Lehms”. Eine “linguistische Variable” ist
eine Variable, deren Werte Wörter oder Sätze sind, und kann im Rahmen der Fuzzy–Set–
Theorie wie folgt definiert werden:
Definition 14 Eine linguistische Variable L ist ein 4–tuple ( T, G, A• , M ), wobei T eine Menge sprachlicher Begriffe oder Ausdrücke ist. A• := (A1 , . . . , An ) ist eine Menge unscharfer Mengen, die mit den linguistischen Bergriffen korrespondieren, G ist eine
(kontextfreie) Grammatik, um die Elemente aus T zu formulieren, und M beschreibt eine
Abbildung von T auf die unscharfen Zahlen mit M : T → A• .
Abbildung 1.7 zeigt ein Beispiel für eine linguistische Variable, die man mit ”gesättigte hydraulische Leitfähigkeit” bezeichnen könnte. Sie ist über das 4–tuple (T, G, A• , M )
definiert, wobei T = {”sehr niedrig”, ”gering”, ”mittelmäßig”, ”hoch” } gilt, G ist die
Grammatik der deutschen Sprache, A• := (A1 , A2 , A3 , A4 ) sind die zu den vier linguistischen Begriffen korrespondierenden unscharfen Zahlen und M definiert die Abbildung
von T auf A• .
Extensionsprinzip
Eine notwendige Voraussetzung, um mehrdimensionale mathematische Operationen mit
unscharfen Mengen bzw. Zahlen zu definieren, ist die Erweiterung des Begriffs ”Kartesisches Produkt” auf die unscharfen Mengen:
Definition 15 Seien X1 , . . . , Xn beliebige Mengen und A1 , . . . , An entsprechende unscharfe Mengen bzw. Zahlen. Bezeichnet X1 × . . . × Xn das Kartesische Produkt der Mengen X1 , . . . , Xn , dann ist das Kartesische Produkt A1 × . . . × An der unscharfen Mengen
A1 , . . . , An folgendermaßen definiert:
A1 × . . . × An = {((x1 , . . . , xn ) , µA1 ×...×An (x1 , . . . , xn ) )}
2.2. FUZZY–SET–THEORIE
21
(x)
1
0.5
"sehr
niedrig"
"mittel
ma ig"
"gering"
"hoch"
0
100
101
102
Ks [cm/d]
Abbildung 1.7: Beispiel einer linguistischen Variable.
wobei (x1 , . . . , xn ) ∈ X1 × . . . × Xn und der Zugehörigkeitsgrad µA1 ×...×An (x1 , . . . , xn )
definiert ist durch
µA1 ×...×An (x1 , . . . , xn ) = min [µA1 (x1 ), . . . , µAn (xn )]
(1.9)
Neben den grundlegenden mengentheoretischen Verknüpfungen wie Durchschnitt, Vereinigung und Komplement von unscharfen Mengen, auf die ich hier nicht weiter eingehen
möchte (siehe hierzu z. B. Kruse et al., 1993), stellt das “Extensionsprinzip” das wichtigste
Instrumentarium dar, um Abbildungen dahingehend zu “erweitern”, um mit unscharfen
Mengen operieren zu können.
Definition 16 Seien X1 , . . . , Xn , Y beliebige Mengen und φ eine Abbildung von X1 ×
. . . × Xn → Y . Sind weiter A1 , . . . , An unscharfe Mengen bzw. Zahlen von X1 , . . . , Xn
und A1 × . . . × An deren in Definition 15 gegebenes Kartesische Produkt sowie B ? die
Menge aller unscharfen Mengen bzw. Zahlen von Y . Dann kann φ zu einer Abbildung
φ̂ : A1 × . . . × An → B ? erweitert werden, indem für B ⊆ B ? mit B := {(y, µB (y))} =
φ̂(A1 , . . . , An ) der Zugehörigkeitsgrad µB (y) wie folgt definiert ist:

 sup {min {µ (x ), . . . , µ (x )} ; y = φ(x , . . . , x ) | (x , . . . , x ) ∈ X × . . . × X }
1
n
1
n
1
n
A1 1
An n
µB (y) :=
 0, falls kein (x , . . . , x ) ∈ X × . . . × X , so daß y = φ(x , . . . , x )
1
n
1
n
1
n
(1.10)
22
KAPITEL 2. GRUNDLAGEN
Beispiel Die Anwendung dieses Prinzips soll nun anhand eines einfachen Beispiels
erläutert werden. Sei A := {(x, µA (x)) | x ∈ IR} eine unscharfe Zahl mit folgender Zugehörigkeitsfunktion:
µA (x) =


x − 1,



falls 1 < x ≤ 2
3 − x,
falls 2 < x ≤ 3
0,
sonst




Die Erweiterung der Abbildung φ : IR → IR, x 7→ x2 zu φ̂ : A → B ? , A 7→ φ̂(A) und die
Anwendung auf die oben definierte unscharfe Zahl A ergibt eine unscharfe Zahl B ∈ B ?
mit B = φ̂(A) und
B := {(y, µB (y)) | y ∈ IR}
wobei
µB (y) = sup{µ(x) | x ∈ IR ∧ x2 = y}
so daß:
µB (y) =
 √

y − 1,







3−
√
falls 1 < y ≤ 4
y,
falls 4 < x ≤ 9
0,
sonst
1
(A)
A(x)
0.5
0
0
2
4
6
8
10
x
Abbildung 1.8: Graphische Darstellung der Erweiterung der Funktion φ(x) = x2 .
Auf diese Weise lassen sich alle arithmetischen und viele weitere mathematische Operationen mit den unscharfen Zahlen definieren. So gelten z. B. für die Addition ⊕ und
2.2. FUZZY–SET–THEORIE
23
Multiplikation ¯ der unscharfen Zahlen A und B mit den Zugehörigkeitsfunktionen µA (a)
und µB (b):
A ⊕ B := {(t , µA⊕B (t) ) | t ∈ IR }
und A ¯ B := {(t , µA¯B (t) ) | t ∈ IR }
wobei
µA⊕B (t) = sup {min{µA (a), µB (b)} | a, b ∈ IR ∧ a + b = t }
µA¯B (t) = sup {min{µA (a), µB (b)} | a, b ∈ IR ∧ a · b = t }
Die Anwendung des Extensionsprinzips erweist sich jedoch für allgemeine Funktionen als
sehr kompliziertes Verfahren. Um Operationen bzw. Erweiterungen von Funktionen auf
unscharfe Zahlen effizient durchführen zu können, ist es sinnvoll, das Extensionsprinzip
für stetige Abbildungen auf den reellen Zahlen in einer anderen Formulierung anzuwenden
(ein Beweis dieses Satzes ist z. B. bei Kruse et al. (1993) nachzulesen).
Satz 3 Seien A1 , . . . , An jeweils unscharfe Zahlen aus A? und bezeichne IRn := IR ×
. . . × IR das Kartesiche Produkt von IR. Ist φ : IRn → IR eine stetige Abbildung, φ̆ die
Erweiterung dieser Abbildung im Rahmen der Intervallarithmetik (Definition 4) und φ̂
die Erweiterung im Rahmen der Fuzzy–Set–Theorie (Definition 16). Aiα bezeichnet den
α–Schnitt (Definition 13) der unscharfen Zahl Ai , und es gilt für alle α ∈ ] 0, 1] :
h
i
φ̂ (A1 , . . . , An )
α
= φ̆ (A1α , . . . , Anα )
(1.11)
= {y | y = φ(x1 , . . . , xn ); x1 ∈ A1α ∧ . . . ∧ xn ∈ Anα }
Das heißt, mathematische Operationen mit unscharfen Zahlen lassen sich sehr einfach für
jeden α–Schnitt auf entsprechende Operationen innerhalb der Intervallarithmetik (siehe
Kapitel 1.1.1) zurückführen. In der Praxis wird man sich bei einer Anwendung dieses
Verfahrens auf nur endlich viele α–Schnitte beschränken, um auf diese Weise mit vertretbarem Aufwand die gesuchte (resultierende) unscharfe Zahl zu approximieren. Bildhaft
formuliert bedeutet die Anwendung von Satz 3 zur Konstruktion der Zugehörigkeitsfunktion der resultierenden unscharfen Zahl, daß für jeden α–Schnitt ein minimal und maximal
möglicher Funktionswert, also
min / max {φ (a1 , . . . , an ) | ai ∈ Aiα , i = 1, . . . , n}
(1.12)
24
KAPITEL 2. GRUNDLAGEN
gefunden werden muß (siehe auch Abbildung 1.6). Es wird sich zeigen, daß dieses Verfahren
für einige Operationen zu sehr einfachen Berechnungsvorschriften führt, bei komplexeren
Funktionen jedoch die Anwendung von nichtlinearen Optimierungsverfahren notwendig
macht. In Kapitel 2 wird die Umsetzung dieser Problemstellung noch einmal aufgegriffen
und ausführlich erläutert.
Die Erweiterungen “⊕”, “ª”, “¯” und “®” der grundlegenden arithmetischen Operationen “+”,”−”, · und “÷” lassen sich mit Satz 3 durch Anwendung der Gleichungen
aus Satz 1 (Intervallarithmetik) leicht realisieren.
Beispiel Hieraus ergeben sich z. B. für “dreieckige” unscharfe Zahlen Adr := (a1 , a2 , a3 )dr
und Bdr := (b1 , b2 , b3 )dr folgende Operationen:
Adr ⊕ Bdr = (a1 , a2 , a3 )dr ⊕ (b1 , b2 , b3 )dr = (a1 + b1 , a2 + b2 , a3 + b3 )dr
und
Adr ª Bdr = (a1 , a2 , a3 )dr ª (b1 , b2 , b3 )dr = (a1 − b3 , a2 − b2 , a3 − b1 )dr
Für die Operationen ¯ und ® lassen sich keine so einfachen Vorschriften finden, und in
der Regel resultieren diese nicht wieder in “dreieckigen” unscharfen Zahlen (siehe obiges
Beispiel f (x) = x2 ). Allgemein gelten für Addition und Muliplikation unscharfer Zahlen
folgende Gesetzmäßigkeiten:
Satz 4 Für unscharfe Zahlen A, B und C, die auf IR definiert sind, gelten:
Kommutativgesetz
A⊕B =B⊕A
und
A¯B =B¯A
und Assoziativgesetz
A ⊕ (B ⊕ C) = (A ⊕ B) ⊕ C
und
A ¯ (B ¯ C) = (A ¯ B) ¯ C
während das Distributivgesetz nicht in jedem Falle gilt, sondern nur gezeigt werden kann,
daß gilt:
A ¯ (B ⊕ C) ⊆ (A ¯ B) ⊕ (A ¯ C)
Es sollte schließlich noch angemerkt werden, daß die Menge der unscharfen Zahlen auf
IR bezüglich der Addition und Multiplikation keine Gruppe bildet, da zwar jeweils das
Nullelement, jedoch im allgemeinen kein Inverses existiert.
2.2. FUZZY–SET–THEORIE
1.2.2
25
Interpretation und Akquisition unscharfer Zahlen
Interpretation und Semantik unscharfer Zahlen
Eine unscharfe Menge wird gemäß Definition 5 eindeutig über eine Zugehörigkeitsfunktion, die über einer beliebigen Teilmenge einer Referenzmenge X definiert ist, charakterisiert. Wie bereits angedeutet, bestand Zadehs Idee darin, die charakteristische Funktion
einer gewöhnlichen Menge dahingehend zu erweitern, nicht nur zwischen Zugehörigkeit
und Nicht–Zugehörigkeit der Elemente zu einer interessierenden Untermenge zu unterscheiden, sondern auch graduelle Unterschiede mit einzubeziehen. Eine Motivation hierzu
ergab sich aus der Notwendigkeit, mit “Vagheit” behaftete Aussagen, wie sie im täglichen
Leben gebräuchlich sind und daher auch als unscharfe Expertenaussagen und -meinungen
im Bereich der Datenerhebung auftreten, innerhalb eines formalen (mathematischen) Rahmens quantitativ repräsentieren und behandeln zu müssen.
So ist z. B. die Mitteilung einer Person “der Boden ist gut drainend ” eine Aussage, in
der ein Objekt (nämlich das Drainvermögen eines Bodens) mit Hilfe eines vagen Konzepts
(gut) in Bezug auf eine den Boden charakterisierende Eigenschaft (gesättigte hydraulische
Leitfähigkeit) beschrieben wird. Diese Aussage spiegelt sehr gut ein im Alltag häufiges und
auch sinnvolles Verhalten wider, Informationen auf das für die Situation Wesentliche zu
reduzieren und damit die Kommunikation zu vereinfachen. In diesem Sinne ist es oft nützlicher, das vage Konzept “gut drainend” zu verwenden, als von einer sicherlich präziseren
gesättigten hydraulischen Leitfähigkeit von Ks = 98.85 cm/d zu sprechen, zumal dieser
Wert auch nicht ohne größeren technischen Aufwand so genau bestimmt werden kann.
Oftmals sind auch nur “weiche” Informationen wie die “Bodenart” oder die “Geologie
des Untergrundes” bezüglich der Fragestellung verfügbar. Faßt man “gut drainend” als
eine linguistische Beschreibung eines vagen Konzepts auf, das über eine unscharfe Menge beschrieben wird, so könnte Abbildung 1.9 mit der Zugehörigkeitsfunktion µgut eine
mögliche Charakterisierung dieses Konzeptes darstellen.
Die Zugehörigkeitsfunktion µgut : X → [0, 1] mit der Referenzmenge X = IR+ kann
als unscharfe Menge der als “gut drainend” zu bezeichnenden gesättigten hydraulischen
Leitfähigkeiten interpretiert werden und der Wert µgut (x) als derjenige Zugehörigkeitsgrad, mit dem x ∈ X dem vagen Konzept “gut drainend” zuzuordnen ist, d. h. als
26
KAPITEL 2. GRUNDLAGEN
"gut drainender Boden"
1
(x)
0.75
0.5
0.25
0
60
80
100
120
140
Ks [cm/d]
Abbildung 1.9: Graphische Darstellung des vagen Konzepts “gut drainend” als unscharfe Zahl
mit der Zugehörigkeitsfunktion µgut .
derjenige Grad, mit dem ein Ks –Wert aufgrund der gewählten Funktion µgut als “gut
drainend” zu bezeichnen ist. Man spricht in diesem Fall von der “konzeptorientierten
Interpretation” der durch µgut charakterisierten unscharfen Zahl.
Für den Fall jedoch, daß wir für einen bestimmten Standort die konkret vorliegende gesättigte hydraulische Leitfähigkeit spezifizieren wollen, ist dieses Konzept weniger
hilfreich. Es interessiert hier weniger, was man konzeptionell unter dem vagen Konzept
“gut drainend” zu verstehen hat, sondern hier dient “gut drainend” eher als linguistische
Beschreibung eines vagen Datums. Wir setzen jetzt voraus, daß eine bestimmte gesättigte hydraulische Leitfähigkeit x0 ∈ IR+ existiert, die wir jedoch aufgrund mangelnder
Infomation nur mit Hilfe des vagen Datums “gut drainend” beschreiben wollen. Dies
ist die sogenannte “epistemische Interpretation”3 der Zugehörigkeitsfunktion µgut , in der
µgut (x) als “Möglichkeitsgrad” angesehen wird, mit dem x ∈ X der real vorhandenen, aber
unzugänglichen gesättigten hydraulische Leitfähigkeit x0 entspricht. Statt von Möglichkeitsgrad spricht man auch vom Glaubwürdigkeitsgrad, oder es werden die englischsprachigen Begriffe “likeliness”, “possibility” oder “credibility” zur Beschreibung verwendet.
Ein Wert µgut (x) = 0 bedeutet, daß x = x0 unmöglich bzw. absolut unglaubwürdig erscheint, µgut (x) = 1 hingegen, daß x = x0 ohne jede Einschränkung als möglich bzw.
absolut glaubwürdig erachtet wird, und µgut (x) ∈]0, 1[ schließlich, daß x = x0 zu dem
3
Epistemologie: die Lehre vom Wissen, Erkenntnislehre (Brockhaus).
2.2. FUZZY–SET–THEORIE
27
durch µgut (x) spezifizierten Grad aufgrund des vorliegenden vagen Datums als möglich
bzw. glaubwürdig anzusehen ist. Im Rahmen dieser epistemischen Interpretationsweise der
charakteristischen Funktion µgut wird diese auch mit dem Begriff Possibilitätsverteilung
bezeichnet, welcher in Anlehnung an den aus der Wahrscheinlichkeitstheorie bekannten
Begriff der Wahrscheinlichkeitsverteilung gewählt worden ist und zur sogenannten Possibilitätstheorie führt. Diese stellt eine Möglichkeit dar, die Fuzzy–Set–Theorie in ein der
Wahrscheinlichkeitstheorie ähnliches axiomatisches Konzept einzubetten. Ich werde hierauf im nächsten Abschnitt (1.2.3) näher zu sprechen kommen. Grundsätzlich lassen sich
jedoch beide Interpretationsweisen ohne Probleme ineinander überführen. Wird nämlich
µgut epistemisch als unscharfe Charakterisierung einer real existierenden gesättigten hydraulischen Leitfähigkeit x0 angesehen, so läßt sich dies auch so interpretieren, daß x0
grundsätzlich das vage Konzept “gut drainend” erfüllt und µgut (x) für beliebige x ∈ IR+
folglich nicht nur den Grad angibt, mit dem x dem vagen Konzept entspricht, sondern
auch den Möglichkeitsgrad, mit dem x = x0 gilt, x also der gesuchte Originalwert für die
gesättigte hydraulische Leitfähigkeit ist.
Einen etwas anderen Weg bei der Einführung in die Fuzzy–Set–Theorie beschreiten
die Autoren Kaufmann and Gupta (1991). Statt von oben beschriebenen vertikalen Betrachtungsweisen unscharfer Zahlen auszugehen, entwickeln sie die fuzzy–Arithmetik als
eine Erweiterung bzw. Verallgemeinerung der in Kapitel 1.1.1 beschriebenen Intervallarithmetik. Sie bezeichnen die verwendeten Intervalle als “intervals of confidence”, die
jedoch nicht mit dem in der Statistik gebräuchlichen Begriff der Konfidenzintervalle zu
verwechseln sind. Das Konzept der “intervals of confidence” wird mit einem zweitem, dem
Konzept unterschiedlicher “levels of presumption4 ” in Beziehung gebracht. Nehmen wir
z. B. von einer bestimmter Größe, sagen wir der Geschwindigkeit eines beobachteten Autos, an, daß sie auf jeden Fall größer als 50 km/h und niedriger als 100 km/h war, wir aber
sehr sicher sind, daß sie zwischen 70 und 80 km/h betrug, so erhalten wir zwei Intervalle
([50, 100] bzw. [70, 80] km/h), denen wir aufgrund unserer (subjektiven) Einschätzung unterschiedliche “Mindestgrade” zuweisen möchten, mit denen wir vermuten, daß die Werte
4
“presumption” kann übersetzt werden mit den Begriffen “Annahme”,”Vermutung” oder auch “Mut-
maßung”. Der Ausdruck “level of presumtion” sollte hier als “Mindestgrad”verstanden werden, mit dem
man glaubt, daß die Werte aus dem Intervall eine mögliche Beschreibung des Sachverhaltes darstellen.
28
KAPITEL 2. GRUNDLAGEN
[
]
= 1.0
(x)
1
[
]
[
= 0.8
]
= 0.6
0.5
[
]
]
[
0
= 0.2
]
[
50
= 0.4
60
70
80
90
= 0.
100
v [km/h]
Abbildung 1.10: Horizontale Betrachtungsweise einer unscharfen Zahl über “intervals of
confidence” bei verschiedenen α–Niveaus.
in dem Intervall die gesuchte Geschwindigkeit beschreiben. In diesem Fall ist es naheligend
dem Intervall [70, 80] km/h einen “Mindestgrad” von 1 zuzuordnen, da wir relativ sicher
sind, daß die gesuchte Geschwindigkeit in dem Intervall [70, 80] km/h liegt. Das Intervall
[50, 100] km/h erhält in diesem Fall ein α–Niveau von 0 (was hier bedeutet “Mindestgrad” α > 0), da wir nicht ausschliessen wollen, daß Geschwindigkeiten innerhalb dieses
Bereiches der tatsächlich Geschwindigkeit entsprechen. Da kein Grund besteht, sich auf
die beiden Werte 0 und 1 zu beschränken, wird dieses Konzept dahingehend erweitert,
mehreren Niveaus α ∈] 0, 1] entsprechende Intervalle zuzuordnen, und zwar derart, daß
für alle α1 , α2 ∈] 0, 1] gilt:
α1 > α2 =⇒ [xα1 , xα1 ] ⊆ [xα2 , xα2 ]
wobei xαi und xαi die linke bzw. rechte Intervallgrenze des “intervals of confidence” für
das Niveau αi ∈] 0, 1] darstellen.
Diese Vorgehensweise führt zur Definition unscharfer Zahlen aus einer horizontalen
Betrachtungsweise heraus und ist in Abbildung 1.10 schematisch dargestellt.
2.2. FUZZY–SET–THEORIE
29
Akquisition unscharfer Zahlen
Die horizontale Betrachtungsweise unsicherer Informationen kommt dem menschlichen
Denken und Einschätzungsvermögen sehr nahe (Kaufmann and Gupta, 1991) und hat
damit bezüglich der Akquisition von Zugehörigkeitsfunktionen unscharfer Zahlen einige Vorteile. Kaufmann and Gupta (1991) geben als ein mögliches und sehr einfaches
Verfahren zur subjektiven Konstruktion einer Zugehörigkeitsfunktion die Beantwortung
folgender Fragen bezüglich eines gegebenen Sachverhaltes an:
“Welches ist der kleinste Wert (a1 ), den Sie einem unsicheren Parameter
zuweisen würden, welches ist der größte Wert (a3 )? Wenn Sie unter den gegebenen Umständen einen und zwar genau einen Wert (a2 ) angeben sollten,
welcher wäre das?”
Offensichtlich entsteht auf diese recht einfache Art und Weise eine “dreieckige” unscharfe
Zahl (a1 , a2 , a3 )dr .
Ein etwas komplexeres Verfahren wird von Zadeh (1972) vorgestellt und mit “Exemplification” bezeichnet. Grundsätzlich wird hierbei die Zugehörigkeitsfunktion einer unscharfen Menge über Teilinformationen bezüglich ihres Verlaufs konstruiert. Hierzu wird eine
Person über einen unscharfen Sachverhalt (z. B. “groß” hinsichtlich der Körpergröße einer
Person) befragt und muß bestimmten Elementen aus einer entsprechenden Referenzmenge (hier vorgegebenen Körpergrößen H) Wahrheitswerte zuordnen, die in linguistischer
Form vorliegen (z. B. “wahr”, “mehr oder weniger wahr”, “mittel”, “mehr oder weniger
falsch”, “falsch”). Werden den linguistischen Begriffen numerische Werte wie: 1, 0.75, 0.5,
0.25 und 0 zugeordnet, kann bei wiederholter Anwendung der Befragung für verschiedene
Größen H eine (diskrete) Zugehörigkeitsfunktion abgeleitet werden.
Einige weitere Verfahren sind bei Dubois and Prade (1980) zusammengestellt und beschrieben. Auf Methoden zur Ableitung von Zugehörigkeitsfunktionen aus stochastischen
Informationen werde ich in Abschnitt 1.2.4 noch näher eingehen.
Unscharfe Zahlen ergeben sich auch als Ergebnisse bzw. “Outputs” sogenannter fuzzy–
Methoden im Rahmen der (geo-)statistischen Auswertung von Meßdaten. “Fuzzy regression” (Bardossy, Bogardi and Duckstein, 1990) wurde als ein Verfahren entwickelt, um
Abhängigkeiten einer Größe y von einem Parameter x auch dann zu untersuchen, wenn
30
KAPITEL 2. GRUNDLAGEN
eine zu geringe Anzahl an Datenpunkten eine klassische statistische Regressionsanalyse eigentlich verbietet. Als Resultat werden alle Regressionsparameter und damit auch
die abhängigen Größen als unscharfe Zahlen charakterisiert. Der Einführung des “fuzzy
krigings” (Bardossy, Bogardi and Kelly, 1990b; Bardossy, Bogardi and Kelly, 1990a) auf
Basis unscharfer Variogramme (Bardossy et al., 1988) lag die Notwendigkeit zugrunde,
ein robustes und effektives Verfahren bereitzustellen, um anhand weniger Meßdaten, gegebenenfalls verknüpft mit dem Vorhandensein von zusätzlicher “weicher” Information,
geostatistische Analysen durchführen zu können. Die Parameter experimenteller Variogramme werden im Rahmen dieses Verfahrens als unscharfe Zahlen ausgedrückt und in
den Kriging Prozeß eingebunden. Als Ergebnis erhält man Schätzungen für Parameterwerte an nicht gemessenen Standorten, die wiederum in Form unscharfer Zahlen vorliegen.
2.2. FUZZY–SET–THEORIE
1.2.3
31
Vergleich: Fuzzy-Set-Theorie – Stochastische Methoden
Dieser Abschnitt soll Gemeinsamkeiten, vor allem aber die wesentlichen Unterschiede zwischen der Fuzzy–Set–Theorie und der Wahrscheinlichkeitstheorie aufzeigen. Ähnlichkeiten
ergeben sich vor allem durch die Tatsache, daß beide Konzepte eine Möglichkeit darstellen, Unsicherheiten zu beschreiben. Desweiteren sind gewisse formale Gemeinsamkeiten
festzustellen, wenn die graphischen Darstellungen von Zugehörigkeitsfunktionen unscharfer Mengen mit denen von Wahrscheinlichkeitsverteilungen verglichen werden (siehe z. B.
Abbildungen 1.1 und 1.3).
Wesentliche Unterschiede sind jedoch bei der genaueren Analyse ihrer zugrundeliegenden Definitionen und mathematischen Strukturen festzustellen. Gemäß Zadeh (1965)
ist eine unscharfe Menge X einer beliebigen Menge X durch ihre Zugehörigkeitsfunktion
µX : X → [0, 1] charakterisiert, wobei µX (x) den Zugehörigkeitsgrad des Elementes x
zur unscharfen Menge X angibt (siehe Definition 5). Beschränkt man sich (zur einfacheren Darstellung) auf endliche5 Mengen X und bezeichnet 2X die Menge aller Teilmengen von X, so stellt im Gegensatz hierzu ein Wahrscheinlichkeitsmaß P eine Abbildung
P : 2X → [0, 1] dar, die jeder Menge A ⊆ X eine Zahl P (A) ∈ [0, 1] zuordnet und die
Kolmogorov’schen Axiome erfüllt (z. B. Krengel, 1991).
Für alle A1 , A2 ⊆ X gilt:
(1) P (A1 ) ≥ 0,
P (X) = 1,
P (∅) = 0 und
(2) A1 ∩ A2 = ∅ =⇒ P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) für alle A1 , A2 ⊆ X.
P (A) gibt die Wahrscheinlichkeit an, daß der unbekannte Wert einer Variablen x in der
exakt definierten Teilmenge A liegt. Ein erstes Mißverständnis besteht darin, P (A) mit
einem Zugehörigkeitsgrad zu verwechseln. Betrachten man hingegen die Zugehörigkeitsfunktion µA (x), so ist hier das Element x festgelegt und genau bekannt, jedoch ist die
Menge selbst nur “vage” beschrieben.
5
Im Falle nichtendlicher Mengen X ist es notwendig, einen sogenannten meßbaren Raum, bestehend
aus einer Menge X und einer σ–Algebra ℘ von Teilmengen von X, zu definieren. Bedingung (2) wird
dann zur Forderung, daß das Wahrscheinlichkeitsmaß P , welches auf ℘ definiert ist, σ–additiv ist, d. h. es
Sn
Pn
gilt für disjunkte Mengen A1 , A2 , . . . ∈ ℘: P ( i=1 Ai ) = i=1 P (Ai ).
32
KAPITEL 2. GRUNDLAGEN
Sehr eng verknüpft mit der Fuzzy–Set–Theorie ist die Possibilitätstheorie. Sie stellt
eine Möglichkeit dar, die Fuzzy–Set–Theorie in eine der Wahrscheinlichkeitstheorie ähnliche, axiomatische Struktur einzubetten. Sie wurde von Zadeh (1978) eingeführt und ist
sehr ausführlich bei Dubois and Prade (1988) beschrieben. Ein Possibilitätsmaß
Q
auf
einer endlichen6 Menge X ist in Anlehnung an das Wahrscheinlichkeitsmaß als eine Abbildung
Q
: 2X → [0, 1] definiert, die jeder Teilmenge A aus X eine Zahl
Q
(A) ∈ [0, 1]
mit den folgenden Eigenschaften zuordnet.
(1)
Q
(∅) = 0,
Q
(X) = 1
∃A ⊆ X mit:
Q
(A) = 1
und für alle A1 , A2 ⊆ X gilt:
(2)
Q
Q
Q
(A1 ∪ A2 ) = max ( (A1 ), (A2 )).
Nutzt man diese Definition, so kann für jede Menge A die Possibilität (Möglichkeit) berechnet werden als:
Q
Q
(A) = max { ({x}) , x ∈ A}
und über die Zuordnung:
Q
({x}) := µA (x)
werden unscharfe Mengen und Possibilitätsmaße miteinander in Beziehung gebracht. Dieser Zusammenhang ist ähnlich dem zwischen Wahrscheinlichkeitsmaß und Wahrscheinlichkeitsdichte.
Unterschiede zwischen den Theorien ergeben sich primär durch die Bedingung (2)
in beiden Definitionen. Das sogenannte “Additionsprinzip” für Wahrscheinlichkeitsmaße
wird bei den Possibilitätsmaßen durch die schwächere “Maximumbedingung” ersetzt. Das
bedeutet bei der Betrachtung einer Menge A und ihres Komplementes A mit A ∪ A = X,
daß im Rahmen der Wahrscheinlichkeitstheorie sich die Maße für beide Mengen zu 1
addieren, d. h. es gilt: P (A) + P (A) = 1. Wird das Wahrscheinlichkeitsmaß im Falle nichtendlicher Mengen X über eine Wahrscheinlichkeitsdichte p(x) bestimmt, so gilt:
R∞
−∞
p(x) dx = 1.
Die Possibilitätsmaße sind hingegen über ihren Maximalwert normiert (1). Die Maximumbedingung (2) ergibt, daß die Possibilitäten der Teilmengen A und A sich nicht
zwingend zu 1 addieren müssen. Stattdessen gilt:
6
Q
(A) +
Q
(A) ≥ 1, d. h.
Q
(A ∪ A) 6=
Für nichtendliche Mengen X gelten hier dieselben Anmerkungen wie bei der Definition des WahrQ Sn
Q
scheinlichkeitsmaßes. Bedingung (2) wird dann zur Forderung ( i=1 Ai ) = supi ( (Ai )).
2.2. FUZZY–SET–THEORIE
33
pX1(x)
0.1
pX2(x)
0.05
0
0
5
x
10
15
0
5
x
10
15
25
30
pX1+X2(x)
0.1
0.05
0
0
5
10
15
x
20
Abbildung 1.11: Addition zweier gleichverteilter Zufallsvariablen.
Q
(A) +
Q
(A).
Der bedeutendste Unterschied zwischen der Wahrscheinlichkeitstheorie und der Fuzzy–
Set–Theorie liegt allerdings in ihren mathematischen Operationen begründet. Die Wahrscheinlichkeitsdichte für die Summe aus zwei Zufallsvariablen wird über ein sogenanntes
Faltungsintegral7 berechnet. Die Summe zweier unscharfer Zahlen wird hingegen mit dem
Extensionsprinzip ermittelt. Verdeutlicht wird dieser Sachverhalt in den Abbildungen 1.11
und 1.12.
Abbildung 1.11 zeigt die Addition zweier über dem Intervall [2, 12] gleichverteilter
Zufallsvariablen. Die resultierende Wahrscheinlichkeitsdichte der Summe dieser beiden
Zufallsvariablen ist jedoch nicht mehr gleichverteilt, sondern hat eine “dreieckige Form”.
Deutlich wird hier der “frequentistische Charakter”, der der Wahrscheinlichkeitstheorie
zugrundeliegt. Interpretiert man die beiden Zufallsvariablen, z. B. mit dem Prozeß der Erzeugung von Zufallszahlen auf dem Intervall [2, 12], so gibt die Wahrscheinlichkeitsdichte
der Summe der beiden Zufallsvariablen an, mit welcher Häufigkeit (bei theoretisch un7
pX1 +X2 (x) =
R∞
−∞
pX1 (x − η) · pX2 (η) dη.
34
KAPITEL 2. GRUNDLAGEN
A1(x)
1
A2(x)
0.5
0
0
5
x
10
15
0
5
x
10
15
25
30
A1(+)A2(x)
1
0.5
0
0
5
10
15
x
20
Abbildung 1.12: Addition zweier unscharfer Zahlen mit konstanter Zugehörigkeitsfunktion.
endlicher Wiederholung dieser Prozedur) Werte aus dem Intervall [4, 24] resultieren, wenn
jeweils zwei erzeugte Zufallszahlen addiert werden. Die “dreieckige Form” der resultierenden Wahrscheinlichkeitsdichte zeigt an, daß wesentlich häufiger Werte aus dem “mittleren
Bereich” der Verteilung (z. B. dem Intervall [12, 16]) resultieren als aus “Randbereichen”
der gleichen Breite (z. B. dem Intervall [4, 8]). Werden mehr als zwei gleichverteilte Zufallsgrößen addiert, so nähert sich die Form der resultierenden Wahrscheinlichkeitsdichte
aufgrund des “Zentralen Grenzwertsatzes” immer mehr der einer “Gauß’schen Funktion”.
Dem gegenüber steht die Addition zweier unscharfer Zahlen mit konstanter Zugehörigkeitsfunktion, wie sie in Abbildung 1.12 dargestellt sind. Für beide unscharfe Zahlen wird
allen Werten aus dem Intervall [2, 12] ein Zugehörigkeitsgrad µ(x) = 1 zugeordnet, für
alle anderen Werte gilt µ(x) = 0. Sind im Rahmen der Wahrscheinlichkeitstheorie alle
Werte aus dem Intervall [2, 12] “gleich wahrscheinlich”, so müssen die beiden unscharfen Zahlen mit ihren Zugehörigkeitsfunktionen im Rahmen der Fuzzy–Set–Theorie (bzw.
Possibilitätstheorie) dahingehend interpretiert werden, daß jedem Wert aus dem Intervall [2, 12] die gleiche “Möglichkeit” bzw. “Glaubwürdigkeit” zugewiesen ist. Die Addi-
2.2. FUZZY–SET–THEORIE
35
tion der beiden unscharfen Zahlen erfolgt über das Extensionsprinzip und resultiert in
einer unscharfen Zahl mit wiederum konstanter Zugehörigkeitsfunktion, d. h. als Resultat wird allen Werten aus dem Intervall [4, 24] der gleiche Zugehörigkeitsgrad µ(x) = 1
bzw. die gleiche Möglichkeit zugeordnet. Betrachtet man für beide unscharfen Zahlen
den 1.0–Schnitt, also das Intervall [2, 12], und faßt diese als Gleichverteilungen im Sinne der Wahrscheinlichkeitstheorie auf, so würde sich als Resultat die in Abbildung 1.11
dargestellte Wahrscheinlichkeitsdichte mit “dreieckiger” Form ergeben. Der resultierende
1.0–Schnitt (das Intervall [4, 24]) gibt nur den Bereich an, für den dieses Wahrscheinlichkeitsmaß größer als 0 ist; Informationen über die “Häufigkeit” des Erscheinens einzelner
Werte, wie sie sich aus der resultierenden (dreieckigen) Wahrscheinlichkeitsdichte ergeben,
bleiben jedoch unberücksichtigt.
Gerade diese Unterschiede bezüglich der mathematischen Operationen bedeuten, daß
hinsichtlich der Beschreibung von Unsicherheiten eines Parameters die Angabe einer
Wahrscheinlichkeitsverteilung für diese Größe eine “schärfere” Information darstellt, als
dies die Angabe einer Zugehörigkeitsfunktion bedeutet. In Fällen, wo die Angabe einer
Verteilungsfunktion nur auf sehr wenigen Daten basiert oder sie aus anderen Informationen abgeleitet ist, stellt damit die Nutzung der Fuzzy–Set–Theorie das wesentlich “angemessenere” Konzept dar.
Weitere Aspekte zu den Unterschieden zwischen Fuzzy–Set–Theorie und Wahrscheinlichkeitstheorie bieten Dubois and Prade (1988), Dubois and Prade (1993), Klir (1994)
oder Kosko (1994).
1.2.4
Integration von unscharfen und stochastischen Konzepten
Wie bereits in Kapitel ?? angedeutet, treten bei der Betrachtung realer Probleme oft verschiedene Arten von Unsicherheiten gleichzeitig auf. Einige davon können gut im Rahmen
der Wahrscheinlichkeitstheorie erfaßt und über Wahrscheinlichkeitsverteilungen charakterisiert werden, andere erfordern die Konzepte aus der Fuzzy–Set–Theorie bzw. Possibilitätstheorie und werden über Zugehörigkeitsgrade beschrieben. Ihr gleichzeitiges Auftreten erfordert die Kombination beider Konzepte. Möglichkeiten und Ansätze hierzu sollen
im folgenden kurz beschrieben werden.
Das von Zadeh (1978) formulierte “Consistency Principle” stellt zunächst einen
36
KAPITEL 2. GRUNDLAGEN
formalen Zusammenhang zwischen Wahrscheinlichkeitstheorie und Fuzzy–Set–Theorie
bzw. Possibilitätstheorie her. Es besagt (umgangssprachlich ausgedrückt), “daß es ganz
natürlich ist, anzunehmen, daß Ereignisse, die möglich sind, nicht unbedingt wahrscheinlich sein müssen und umgekehrt, daß Ereignisse, die wahrscheinlich sind, auch möglich
sein sollten bzw. was unwahrscheinlich ist, durchaus möglich sein kann”. Diese Aussage
kann mathematisch übersetzt werden als Forderung, daß für ein Ereignis A das Possibilitätsmaß
Q
(A) größer oder mindestens gleich seinem Wahrscheinlichkeitsmaß P (A) sein
sollte, also gelten sollte:
Q
(A) ≥ P (A).
Dieses Prinzip wird von einer Reihe Autoren angewendet, um aus stochastischen Informationen einzelner Parameter Zugehörigkeitsfunktionen abzuleiten. Auf diese Weise
wird eine Nutzung der stochastischen Informationen im Rahmen der Fuzzy–Set–Theorie
ermöglicht. Turksen (1991) und Dubois and Prade (1980) geben eine Übersicht zu diesen
Verfahren. Ich werde an dieser Stelle etwas ausführlicher auf die von Civanlar and Trussell
(1986) und Bardossy and Duckstein (1995) vorgestellten Verfahren eingehen.
Ausgangspunkt der Überlegungen von Civanlar and Trussell (1986) zur Ableitung einer
“optimalen Zugehörigkeitsfunktion” µ(x) aus der gegebenen Wahrscheinlichkeitsdichte
p(x) eines unsicheren Parameters sind folgende Bedingungen:
(1) E{µ(x)|x ist entsprechend p(x) verteilt} ≥ C, wobei C < 1 ein Konfidenzkriterium beschreibt, welches nahe bei 1 liegen sollte. Anders formuliert sollte also
R∞
−∞
µ(x) ·
p(x) dx ≥ C gelten, was anschaulich bedeutet , daß µ(x) umso mehr von 1 abweichen
kann, je kleiner die entsprechenden Werte für p(x) sind.
(2) Das Integral
R∞
−∞
µ2 (x) dx sollte minimal werden, so daß die gesuchte Zugehörigkeits-
funktion möglichst selektiv, sprich die Fläche unter ihrem Funktionsverlauf möglichst klein
ist.
Als Resultat wird von den Autoren gezeigt, daß bei vorgegebener Wahrscheinlichkeitsdichte p(x) für die entsprechende optimale Zugehörigkeitsfunktion µ(x) gilt:

 λ · p(x)
µ(x) =
 1
falls λ · p(x) < 1
falls λ · p(x) ≥ 1
(1.13)
Die Konstante λ muß hierzu mit Hilfe numerischer Verfahren aus folgender Beziehung
berechnet werden:
2.2. FUZZY–SET–THEORIE
37
Z
λ·
Beispiel
Z
2
λp(x)<1
p (η) dη +
λp(x)≥1
p(η) dη − C = 0
(1.14)
Für eine vorgegebene exponentielle Verteilung p(x) mit
p(x) = κ · e−κx ,
x ≥ 0, κ > 0
ist eine korrespondierende “optimale Zugehörigkeitsfunktion”, wie in Abbildung 1.13 dargestellt, über einen Parameter a bestimmt. Dieser ist vom gewählten Konfidenzkriterium
C abhängig und es gilt:
½
¾
1
a(C) = max 0, − ln(2 − 2C)
κ
Sie erfüllt zudem das “Consistency Principle”, wenn der Wert des Konfidenzkriteriums
(x), p(x)
C ≥ 0.5 liegt (Civanlar and Trussell, 1986).
1
(x)
p(x)
0.5
0
0
0.5
1
a(c)
x
1.5
2
x
Abbildung 1.13: Eine “optimale Zugehörigkeitsfunktion”, die aus einer exponentiellen
Wahrscheinlichkeitsdichte abgeleitet wurde. In diesem Beispiel sind C = 0.80 und κ = 1.3
gewählt, so daß sich a(C) = 0.71 ergibt.
Da dieses Verfahren numerisch sehr aufwendig ist, schlagen Bardossy and Duckstein
38
KAPITEL 2. GRUNDLAGEN
(1995) ein wesentlich einfacheres ad hoc Verfahren vor, um eine vorgegebene Wahrscheinlichkeitsdichte p(x) in eine entsprechende Zugehörigkeitsfunktion zu transformieren.
Seien EX der Erwartungswert, MX der Modus und σX die Standardabweichung einer Wahrscheinlichkeitsverteilung, die über die Wahrscheinlichkeitsdichte p(x) bestimmt
ist. Seien weiter dL und dR zwei Dispersionsmaße dieser Verteilung, die folgendermaßen
definiert werden:
– für MX ≥ EX gilt:
dL = σX + MX − EX und dR := σX
– im Falle MX ≤ EX sei:
dL = σX und dR := σX − MX + EX
Die aus diesen Größen abgeleitete Zugehörigkeitsfunktion ergibt sich gemäß Abbildung
1.14. Der 1.0–Schnitt der Zugehörigkeitsfunktion ergibt sich für beide Fälle zum Intervall
[a2 , a3 ] = [MX − dL , MX + dR ], und der fehlenden linke und rechte “Ast” der Zugehörigkeitsfunktion resultiert aus einer affinen8 Abbildung des linken und rechten “Astes” der
Wahrscheinlichkeitsdichte über denselben Bereichen. Das Verfahren ergibt somit eine “trapezförmige”L-R unscharfe Zahl, wie sie in Definition 12 beschrieben ist.
dL
dR
1.5
(x)
p(x)
1
0.5
X
X
0
a1
a2
MX
EX
x
a3
x
a4
Abbildung 1.14: Transformation einer Wahrscheinlichkeitsdichte p(x) in eine unscharfe
Zahl mit der Zugehörigkeitsfunktion µ(x) für den Fall EX < MX . EX ist der Mittelwert,
MX der Modus und σX die Standardabweichung von p(x).
8
Affin bedeutet in diesem Zusammenhang, daß der gesuchte Verlauf der Zugehörigkeitsfunktion µ(x)
sich aus der Multiplikation von p(x) mit einer reellen Zahl λ ∈ IR ergibt.
2.2. FUZZY–SET–THEORIE
39
In jedem Fall ist bei der Ableitung von Zugehörigkeitsfunktionen aus statistischen
Kenngrößen mit einem Verlust an “Information” (Kaufmann and Gupta, 1991) zu rechnen
(siehe auch Abschnitt 1.2.3). Um diesem zu entgegnen, wurden in jüngster Zeit sogenannte
“hybride Konzepte” entwickelt, die es erlauben, beide Arten an Information, Wahrscheinlichkeitsverteilungen und unscharfe Zahlen, parallel zu bearbeiten und mit sogenannten
“hybriden Zahlen” (Paare, bestehend aus einer unscharfen Zahl und einer Wahrscheinlichkeitsdichte) mathematisch zu operieren. Eine Einführung in diese Konzepte geben
Kaufmann and Gupta (1991).
Kapitel 2
Methodenentwicklung
2.1
Problembeschreibung
Das in Kapitel 1.2, Definition 16 beschriebene Extensionsprinzip stellt die Grundlage dar,
um funktionale Zusammenhänge, die üblicherweise auf den reellen Zahlen (IR) oder ihrem kartesischen Produkt (IRn ) definiert sind, dahingehend zu erweitern, auch unscharfe
Zahlen (bzw. deren kartesisches Produkt) abbilden zu können. Satz 3 ermöglicht die effiziente Anwendung dieses Prinzips für stetige Funktionen f : IRn → IR, indem sie auf
entsprechende mathematische Operationen mit den α–Schnitten der unscharfen Zahlen
im Rahmen der Intervallarithmetik zurückgeführt werden. Dabei beschränkt man sich
in der Regel auf eine kleine Anzahl von α–Schnitten zur Repräsentation der unscharfen
Variablen, um den Arbeitsaufwand möglichst gering zu halten.
Abbildung 2.1 veranschaulicht dieses Verfahren für eine stetige, streng monoton steigende Funktion f : IR → IR, x 7→ f (x). Die unscharfe Eingangsgöße x̃1 (und damit auch
die unscharfe abhängige Größe ỹ) wird dabei über fünf α–Schnitte (1., 0.75, 0.5, 0.25, 0.),
d. h. fünf abgeschlossene Intervalle repräsentiert. Für jedes dieser Intervalle (x̃α ) müssen
die aufgrund des funktionalen Zusammenhangs möglichen Bildmengen (Funktionswerte)
gefunden werden. Wegen der Stetigkeit der Funktion f und der Konvexität (Definition
7) unscharfer Zahlen sind diese wiederum abgeschlossene Intervalle. Das bedeutet, daß
zur Bestimmung der resultierenden Intervalle der maximal und minimal mögliche Funk1
Unscharfe Eingangsgrößen werden von mir ab sofort mit einer “Schlange” gekennzeichnet.
41
KAPITEL 2. METHODENENTWICKLUNG
y
42
-- 0.25-Schnitt
-- 0.5-Schnitt
-- 0.75-Schnitt
[
[
[
[
[
[
-- 1.0-Schnitt
y=f(x)
[
[
~
~
y = ^f(x)
[
]
x
[
]
[
]
[
]
-- 0.25-Schnitt
-- 0.5-Schnitt
-- 0.75-Schnitt
~
x
-- 1.0-Schnitt
Abbildung 2.1: Graphische Veranschaulichung der effizienten Anwendung des Extensionsprinzips gemäß Satz 3 im Falle einer stetigen, streng monotonen Funktion f . Die Intervallgrenzen der α–Schnitte von ỹ ergeben sich hier als Funktionswerte der jeweiligen
Intervallgrenzen der α–Schnitte von x̃.
tionswert gefunden werden muß, unter der Nebenbedingung, daß die Eingangsparameter
nur Werte aus dem Intervall des jeweiligen α–Schnittes annehmen dürfen. Mathematisch
formuliert heißt das:
Sei f : IRn → IR, (x1 , . . . , xn ) 7→ f (x1 , . . . , xn ) eine stetige Abbildung. Für jedes gewählte
α–Niveau mit 0 < α ≤ 1 finde:
min f (xα1 , . . . , xαn )
und
max f (xα1 , . . . , xαn ),
(2.1)
so daß folgende Nebenbedingungen erfüllt sind:
xα1 ≤ xα1 ≤ xα1 ,
...
, xαn ≤ xαn ≤ xαn
wobei xαi die linken (unteren) und xαi die rechten (oberen) Intervallgrenzen der jeweiligen
2.2. LÖSUNGSVERFAHREN
43
α–Schnitte der unscharfen Eingangsparameter x̃i (mit i = 1, . . . , n) darstellen.
Aus den resultierenden Intervallen für jedes α–Niveau kann die Zugehörigkeitsfunktion
der abhängigen unscharfen Größe konstruiert werden.
Das Verfahren zur Erweiterung von Abbildungen beschränkt sich jedoch nicht nur
auf Funktionen im Sinne geschlossener mathematischer Audrücke, sondern kann auf sehr
allgemeine Abbildungen bzw. Operatoren, die auf dem kartesischen Produkt der reellen
Zahlen (bzw. Teilmengen davon) definiert sind, angewendet werden. Hierzu gehören z. B.
lineare Gleichungssysteme, (partielle) Differentialgleichungen oder auch sehr komplexe Simulationsmodelle z. B. zur Berechnung chemischer Gleichgewichte (siehe Abschnitt ??),
die im Prinzip einem n–tupel von Eingangsgrößen (wie Meßdaten und Modellparametern) eine (zum Teil beträchtliche) Anzahl von Ausgangsgrößen zuweisen. Für jede der
Ausgangsgrößen ist dann das oben beschriebene Verfahren anzuwenden2 . Ich werde im
Kapitel ?? zwei Beispiele hierzu vorstellen.
2.2
Lösungsverfahren
Die Lösung der in Gleichung (2.1) beschriebenen Problemstellung erweist sich für stetige
Funktionen (bzw. Abbildungen), die hinsichtlich ihrer Eingangsparameter über dem entsprechenden Definitionsbereich monoton steigende oder fallende Eigenschaften aufweisen,
als sehr einfach. Abbildung 2.1 skizziert das Verfahren anhand einer stetigen, streng monoton steigenden Funktion f : IR → IR. Die gesuchten Intervallgrenzen der α–Schnitte von
ỹ ergeben sich sehr einfach über Auswertungen der Funktion f für die Intervallgrenzen des
entsprechenden α–Schnittes der Eingangsgröße x̃, also: ỹα = [y α , y α ] = [f (xα ), f (xα )].
Im allgemeinen Fall, wie er z. B. in Abbildung 2.2 dargestellt ist, müssen numerische Optimierverfahren zum Auffinden der Extrema der Abbildung f auf den jeweiligen
Intervallen angewendet werden. Generell existieren eine ganze Reihe von Verfahren zur
2
Es sei festgestellt, daß aufgrund der hier beschriebenen Vorgehensweise jede Zielgröße jeweils un-
abhängig von den anderen Zielgrössen betrachtet wird. Das bedeutet, daß die “Struktur des Lösungsraums” unberücksichtigt bleibt. Man erhält auf diese Weise einen Vektor von unscharfen Zahlen, deren
Kartesisches Produkt gemäß Gleichung (15) definiert ist.
KAPITEL 2. METHODENENTWICKLUNG
]
] --0.25-Schnitt
] --0.75-Schnitt
] --0.5-Schnitt
y=f(x)
[
[
~y = ^f(x)
~
[
[
--1.0-Schnitt
y
44
[
]
x
] -- 0.25-Schnitt
[
] -- 0.5-Schnitt
[
[
~
x
] -- 0.75-Schnitt
-- 1.0-Schnitt
Abbildung 2.2: Graphische Veranschaulichung der effizienten Anwendung des Extensionsprinzips gemäß Satz 3 im Falle einer stetigen, jedoch auf den betrachteten Intervallen
nicht monotonen Funktion f . Die Intervallgrenzen der α–Schnitte von ỹ ergeben sich durch
nichtlineare Optimierung.
Lösung des Minimierungsproblems min f (x), x = (x1 , . . . , xn ) ∈ IRn 3 , die aufgrund der
allgemeinen Nichtlinearität von f allesamt iterative Verfahren darstellen. Ein wesentlicher
Unterschied zwischen ihnen besteht darin, daß sie entweder nur Funktionswerte evaluieren wie bei den sogenannten Suchverfahren oder zusätzlich noch auf partielle Ableitungen
erster Ordnung (Gradienten–Verfahren) oder erster und zweiter Ordnung der Zielfunktion f (x) zurückgreifen (Newton–Verfahren). Eine ausführliche Charakterisierung und
Beschreibung dieser Verfahren wird z. B. bei Scales (1985) oder Dennis jr. and B. (1983)
gegeben. Für die Anwendung bei inversen Problemem in der Grundwasserhydrologie diskutiert Kuhlmann (1992) Vor- und Nachteile einzelner Methoden.
3
Zur Bestimmung des Maximums gilt: max f (x) = min(−f (x)).
2.3. REALISIERUNG UND NUMERISCHE UMSETZUNG
45
Bei der von mir verwendeten Programmroutine NLPQL (Schittkowski, 1986) zur
Lösung des oben genannten Problems handelt es sich um ein FORTRAN–Unterprogamm,
das in der Lage ist, nichtlineare Minimierungsprobleme unter Nebenbedingungen der folgenden Art zu lösen:
Finde für Funktionen f, g1 , . . . , gm : IRn → IR:
unter den Nebenbedingungen:
und
xl ≤ x ≤ xu ,
min f (x), x ∈ IRn
gj (x) = 0, j = 1, me ;
gj (x) ≥ 0, j = me + 1, m
xl , xu ∈ IRn .
wobei xl den Vektor der unteren Grenzen, xu den Vektor der oberen Grenzen für x
angibt.
Die wesentlichen theoretischen Aspekte zu diesem Algorithmus sind ausführlich bei Schittkowski (1986) beschrieben. Generell wird, ausgehend von einer Anfangsschätzung x0 mit
jeder Iteration eine verbesserte Näherung für den Lösungsvektor xmin berechnet. Dabei werden die Gradienten der Funktionen f und gi und eine immer wieder aktualisierte
Approximation ihrer Hesse Matrix (Matrix der zweiten Ableitungen) verwendet. Das Verfahren bricht nach einer Iteration ν ab, falls ein notwendiges Konvergenzkriterium erfüllt
ist und xν wird als Approximation der wahren Lösung xmin angegeben.
Da Nebenbedingungen der Art gi (x) = 0, gi (x) ≥ 0 bei dem Problem der Erweiterung
von Abbildungen zur Operation mit unscharfen Zahlen (Gleichung 2.1) nicht auftreten,
muß der Benutzer des Programms neben einer Anfangsschätzung x0 die unteren bzw.
oberen Grenzen xl und xu sowie Berechnungsvorschriften für die Funktion f und deren
Gradienten in Form von Unterprogrammen bereitstellen. Alle anderen Parameter, wie
z. B. die maximale Anzahl an Iterationen und Funktionsaufrufen, wurden auf die vom
Autor vorgeschlagenen Größen festgelegt. Das Programm ist gut dokumentiert und erwies
sich als relativ schnell und einfach zu implementieren.
2.3
Realisierung und numerische Umsetzung
Grundsätzlich ergeben sich damit bei der numerischen Umsetzung der Erweiterung von
Funktionen bzw. Abbildungen zur Anwendung auf unscharfe Zahlen folgende Aufgabenstellungen, die von mir zunächst als Einzelmodule in FORTRAN–77 programmtechnisch
realisiert und dann zu einem Gesamtmodell integriert wurden :
46
KAPITEL 2. METHODENENTWICKLUNG
1. Zunächst muß die zu erweiternde Funktion bzw. Abbildung in Form einer numerischen Realisierung vorliegen. Für die in Kapitel ?? vorgestellten Anwendungen sind
dies: a) die geschlossene Lösung eines stationären Fließproblems in der ungesättigten
Zone homogener Böden, b) die numerische Lösung einer Differentialgleichung zur
Beschreibung eines stationären Fließprozesses in inhomogenen Böden mit Hilfe einer
Finite–Differenzen Approximation und c) die Lösung eines Systems nichtlinearer algebraischer Gleichungen zur Lösung chemischer Gleichgewichte in Bodenlösungen
bzw. aquatischen Systemen. Ich werde auf die theoretischen Aspekte und mathematischen Methoden für die direkten Problemlösungen jeweils zu Beginn der einzelnen
Abschnitte ausführlich eingehen.
2. Alle notwendigen Eingangsparameter müssen über ein Eingabemodul dem Gesamtprogramm zur Verfügung gestellt werden. Dabei wird in Eingangsgrößen differenziert, die exakt bekannt sind oder als solche angenommen werden, und in solche,
die in Form unscharfer Zahlen vorliegen. Unscharfe Größen können dabei mit drei
bzw. vier Werten als “dreieckige” bzw. “viereckige” unscharfe Zahlen angegeben
werden, für die für eine frei wählbare Anzahl von α–Niveaus programmintern die
Intervallgrenzen der entsprechenden α–Schnitte berechnet werden. Diese Intervallgrenzen entsprechen den unteren und oberen Beschränkungen xl und xu des Parameterraums, über dem die Zielfunktion f (x) minimiert wird. Wahlweise können die
Intervallgrenzen der α–Schnitte auch direkt eingegeben werden, so daß im Prinzip
alle Typen bzw. Formen unscharfer Zahlen behandelt werden können.
3. Die Durchführung des Optimieralgorithmus erfordert die Bereitstellung des Gradienten der Zielfunktion. In einigen wenigen Fällen (z. B. bei geschlossenen Funktionsausdrücken) kann dieser direkt durch Differenzierung erhalten werden. Im allgemeinen Fall, wenn die direkte Differenzierung nicht möglich ist, kann er durch
Finite Differenzen approximiert werden. Dabei werden die partiellen Ableitungen
der Zielfunktion durch Perturbationen der jeweiligen Eingangsgröße xi erhalten:
f (x + ∆xi ) − f (x)
∂f
≈
∂xi
∆xi
(2.2)
wobei ∆xi eine kleine Abweichung von der Größe xi darstellt. Diese Methode erfordert das n–malige (n=Anzahl der unscharfen Parameter) zusätzliche Auswerten
2.3. REALISIERUNG UND NUMERISCHE UMSETZUNG
47
der Funktion f , was jedoch keinen großen programmtechnischen Aufwand bedeutet.
Carrera (1988) weist darauf hin, daß die numerische Ungenauigkeit dieser Methode
das allgemeine Konvergenzverhalten eines Minimierungsalgorithmus entscheidend
verschlechtern kann. Bei Nichtlinearitäten in f enstehen große Fehler, wenn ∆xi
groß ist. Andererseits verfälschen Rundungsfehler die Resultate bei kleinem ∆xi .
Im Rahmen dieser Arbeit habe ich die Werte für ∆xi immer als 1/100 der Differenz
xui − xli (der Breite des jeweiligen 0–Schnittes) festgelegt. Variationen dieser Grösse
brachten keine wesentlichen Ergebnisveränderungen, so daß ich davon ausgehe, daß
diesbezüglich keine sehr großen Fehler entstanden sind.
4. Schließlich erfordert der Optimieralgorithmus noch eine Anfangsschätzung x0 =
(x01 , . . . , x0n ) für das gesuchte Minimum. Schlechte Anfangswerte können dazu führen,
daß sich das Verfahren vor allem bei höherdimensionalen Funktionen in nicht
gewünschten lokalen Extrema “aufhängt” und das globale Minimum nicht “erreicht”
wird (Stoer, 1989). Von mir wurden als Anfangsschätzungen für α = 1.0 die Intervallmitten der 1.0–Schnittes x0i = xli + 21 (xui − xli ) gewählt, für kleinere α–Werte
wurde die (approximierte) Lösung xmin
des jeweils darüberliegenden α–Niveaus vori
gegeben. Variationen dieses Vorgehens führten bei allen Anwendungen ebenfalls zu
keinen wesentlichen Ergebnisverschiebungen, so daß ich auch hier mit keinem sonderlichen Fehlerbeitrag rechne. Diesen Sachverhalt gilt es jedoch für jede neue Aufgabenstellung wieder neu zu überprüfen!
5. Der Optimieralgorithmus wird für alle α–Niveaus und für alle Zielgößen zur Bestimmung derer Minima und Maxima auf die Funktionen f und −f angewendet.
Abschließend werden die resultierenden Intervallgrenzen der α–Schnitte der abhängigen (unscharfen) Größen in geeigneten ASCII–Formaten abgespeichert und für eine
graphische Weiterverarbeitung zur Verfügung gestellt.
Vor allem die unter den Punkten 3. und 4. beschriebenen Variationen der Approximation der partiellen Ableitungen und der Anfangsschätzungen des gesuchten Parametervektors stellen sehr wichtige Aspekte hinsichtlich Zuverlässigkeit und Güte der Methode
dar. Diesen sollte in jedem Fall bei der Übertragung auf andere Fragestellung ausreichend
Zeit gewidmet werden.
48
KAPITEL 2. METHODENENTWICKLUNG
Der grundsätzliche Programmablauf zur Erweiterung von Funktionen und Abbildun-
gen, um mit unscharfen Zahlen operieren zu können, ist noch einmal schematisch in Abbildung 2.3 dargestellt. Zuerst werden die zum Teil unscharfen Eingangsgrößen im Modul
INPUT eingelesen und die notwendigen Intervallgrenzen der α–Schnitte ermittelt. Das
Modul OPTIM berechnet die jeweiligen Anfangsschätzungen für den gesuchten Parametervektor x sowie die Differenzen ∆xi und gibt sie mit den unteren und oberen Schranken
an den Optimieralgorithmus NLPQL weiter. Dieser ruft je nach Bedarf die Module FUNC
zur Auswertung der Zielgröße und GRAD zur Berechnung der Gradienten auf und gibt
die gefundenen Extrema wieder an das Hauptprogramm zurück. Dies wiederholt sich für
alle Zielgrössen und jeden α–Schnitt. Das Modul OUTPUT sorgt schließlich für eine Bereitstellung der Resultate.
INPUT
OPTIM
N
L
P
Q
L
FUNC
GRAD
OUTPUT
Abbildung 2.3: Schematische Darstellung des modularen Aufbaus und des Programmablaufs
des entwickelten Modellsystems zur Erweiterung von Funktionen und Operatoren, um mit
unscharfen Zahlen operieren zu können.
Notationen
ai
Aktivitätskoeffizient einer i–fach geladenen Spezies
[-]
emprischer Faktor zur Beschreibung von K(ψ)
[L−1 ]
Konzentration einer Spezies i
[ML−3 ]
g
Erdbeschleunigung
[LT−2 ]
h
hydraulisches Potential
[L]
I
Ionenstärke
[ML−3 ]
Massenwirkungskonstante der Reaktion i
[...]
gesättigte, ungesättigte hydraulische Leitfähigkeit
[LT−1 ]
Massenbilanzen der Komponenten i
[ML−3 ]
volumetrische (Wasser–)Flußdichte
[LT−1 ]
qrand
Wasserfluß am oberen Rand
[LT−1 ]
qmax
maximal mögliche Evaporationsrate
[LT−1 ]
z
Höhe über einem Referenzniveau
[L]
∆xi
kleine Abweichung einer Größe xi
c
Ci
Ki
Ks , K(ψ)
Mi
~q
µA
ψ
Q
(Ai )
σXi
Zugehörigkeitsfunktion einer unscharfen Zahl A
Matrixpotential
Möglichkeitsmaß von Ai
Standardabweichung einer Zufallsvariablen Xi
∇
Nabla–Operator
∇·
Divergenz–Operator
A
unscharfe Zahl von A ⊆ IR
A?
Menge aller unscharfen Zahlen von A ⊆ IR
Aα
α–Schnitt einer unscharfen Zahl A
[L]
50
NOTATIONEN
Aα
strikter α–Schnitt einer unscharfen Zahl A
L
linguistische Variable
X
unscharfe Menge einer beliebigen Menge X
X?
L(η), R(η)
E(Xi )
IN
P (Xi )
pXi
IR
IR+
˘
IR
IR × . . . × IR
V ar(Xi )
2X
x̆
c̃, K̃s , ...
fˆ(c̃, ...)
f˘(x̆, ...)
Menge aller unscharfen Mengen von X
Funktionen zur Beschreibung einer L–R unscharfen Zahl
Erwartungswert einer Zufallssvariablen Xi
Menge der natürlichen Zahlen
Wahrscheinlichkeitsmaß von Xi
Wahrscheinlichkeitsdichte einer Zufallsvariablen Xi
Menge der reellen Zahlen
Menge der positiven reellen Zahlen
Menge aller abgeschlossenen Intervalle in IR
Kartesische Produkt von IR
Varianz einer Zufalssvariablen Xi
Menge aller Teilmengen einer endlichen Menge X
abgeschlossenes Intervall in IR
unscharfe Zahlen
Extension einer Funktion f im Rahmen der Fuzzy–Set–Theorie
Extension einer Funktion f im Rahmen der Intervallarithmetik
cα , ...
obere (rechte) Intervallgrenze eines α–Schnittes von c̃, ...
cα , ...
untere (linke) Intervallgrenze eines α–Schnittes von c̃, ...
x, ...
obere (rechte) Intervallgrenze eines abgeschlossenen Intervalls x̆
x, ...
untere (linke) Intervallgrenze eines abgeschlossenen Intervalls x̆
∂f
∂xi
⊕ ª ¯®
partielle Ableitung einer Funktion f nach xi
Addition, Subtraktion, Multiplikation und Division unscharfer Zahlen
Literaturverzeichnis
Alfaro Sironvalle, M.: 1980, The random coin method: Solution of the problem of the
simulation of a random function in the plane, Math. Geology 12(1), 25–32.
Andersson, J. and Shapiro, A. M.: 1983, Stochastic analysis of one–dimensional steady
state unsaturated flow: A comparison of Monte Carlo and perturbation methods,
Water Resour. Res. 19(1), 121–133.
Bardossy, A., Bogardi, I. and Duckstein, L.: 1990, Fuzzy regression in hydrology, Water
Resour. Res. 26(7), 1497–1508.
Bardossy, A., Bogardi, I. and Kelly, W. E.: 1988, Imprecise (fuzzy) information in geostatistics, Math. Geology 20(4), 287–311.
Bardossy, A., Bogardi, I. and Kelly, W. E.: 1990a, Kriging with imprecise (fuzzy) variograms. II: Application, Math. Geology 22(1), 81–94.
Bardossy, A., Bogardi, I. and Kelly, W. E.: 1990b, Kriging with imprecise (fuzzy) variograms. I: Theory, Math. Geology 22(1), 63–79.
Bardossy, A. and Duckstein, L.: 1992, Analysis of a karstic aquifer management problem
by fuzzy composite programming., Water Resources Bulletin 28(1), 63–74.
Bardossy, A. and Duckstein, L.: 1995, Fuzzy Rule-Based Modeling with Application to
Geophysical, Economic, Biological and Engineering Systems, CRC–Press, London.
Beck, M. B.: 1987, Water quality modeling: A review of the analysis of uncertainty, Water
Resour. Res. 23(8), 1393–1442.
51
52
LITERATURVERZEICHNIS
Brandt, S.: 1992, Datenanalyse, 3. edn, BI Wissenschaftsverlag, Mannheim.
Bras, R. L. and Rodriguez-Iturbe, I.: 1993, Random Functions and Hydrology, Dover
Publications, Inc., New York.
Bresler, E. and Dagan, G.: 1983, Unsaturated flow in spacially variable fields: 2. Application of water flow models to various fields, Water Resour. Res. 19(2), 421–428.
Carrera, J.: 1988, State–of–the–art of the inverse problem applied to the flow and solute
transport equations, in E. Custodio, A. Gurgui and J. P. Lobo Ferreira (eds), Groundwater flow and quality modelling, Reidel Publishing Company, Dordrecht/Boston,
pp. 549–583.
Civanlar, M. R. and Trussell, H. J.: 1986, Constructing membership functions using statistical data, Fuzzy Sets and Systems 18, 1–13.
Dagan, G.: 1982, Analysis of flow through heterogeneous random aquifers: 2. Unsteady
flow in confined formations, Water Resour. Res. 18(5), 1571–1585.
Davis, M. W.: 1987, Production of conditional simulations via the LU triangular decomposition of the covariance matrix, Math. Geology 19(2), 91–98.
de Fouquet, C.: 1994, Reminders on the conditioning kriging, in M. Armstrong and P. A.
Dowd (eds), Geostatistical Simulations. Proceedings of the Geostatistical Simulation
Workshop, Fontainebleau, France, Kluwer., pp. 131–145.
Dennis jr., J. E. and B., S. R.: 1983, Numerical Methods for Unconstrained Optimization
and Nonlinear Equations, Prentice–Hall Inc., New Jersey.
Deutsch, C. V. and Cockerham, P. W.: 1994, Practical considerations in the application
of simulated annealing to stochastic simulation, Math. Geology 26(1), 67–82.
Deutsch, C. V. and Journel, A. G.: 1992, GSLIB: Geostatistical Software Library and
User’s Guide, Oxford Univ. Press, New York.
Dou, C., Woldt, W., Bogardi, I. and Dahab, M.: 1995, Steady state ground water flow
simulation with imprecise parameters, Water Resour. Res. 31(11), 2709–2719.
LITERATURVERZEICHNIS
53
Dubois, D. and Prade, H.: 1980, Fuzzy Sets and Systems: Theory and Application, Academic, San Diego, Calif.
Dubois, D. and Prade, H.: 1988, Possibility Theory, Plenum Press, New York.
Dubois, D. and Prade, H.: 1993, Fuzzy sets and probability: Misunderstandings, bridges
and gabs, Proceedings 2nd IEEE, Int. Conf. Fuzzy Systems (FUZZ-IEEE’93), San
Francisco, CA pp. 1059–1086.
Gelhar, L. W. and Axness, C. L.: 1983, Three–dimensional stochastic analysis of macrodispersion in aquifers, Water Resour. Res. 19(1), 161–180.
Gutjahr, A. L., Gelhar, L. W., Bakr, A. A. and MacMillan, J. R.: 1978, Stochastic analysis
of spatial variability in subsurface flows: 2. evaluation and application, Water Resour.
Res. 14(5), 953–959.
Huwe, B. and Totsche, K. U.: 1995, Deterministic and stochastic modelling of water, heat
and nitrogen dynamics on different scales with WHNSIM, J. Contaminant Hydrol.
20, 265–284.
Journel, A. G.: 1986, Constrained interpolation and qualitative information – The soft
kriging approach, Math. Geology 18(3), 269–286.
Journel, A. G. and Huijbregts, C. J.: 1978, Mining Geostatistics, Academic Press, London.
Kaufmann, A. and Gupta, M. M.: 1991, Introduction to Fuzzy Arithmetics, Van Nostrand
Reinhold, New York.
Klir, G. J.: 1994, On the alleged superiority of probabilistic representation of uncertainty,
Fuzzy Sets and Systems 2/1, 27–31.
Koltermann, C. E. and Gorelick, S. M.: 1996, Heterogeneity in sedimentary deposits: A
review of structure–imitating, process–imitating, and descreptive approaches, Water
Resour. Res. 32(9), 2617–2658.
Kosko, B.: 1994, The probability monopoly, Fuzzy Sets and Systems 2/1, 32–33.
54
LITERATURVERZEICHNIS
Krengel, U.: 1991, Einführung in die Wahrscheinlichkeitstheorie und Statistik, Vieweg
Studium, Braunschweig.
Kruse, R., Gebhardt, J. and Klawonn, F.: 1993, Fuzzy–Systeme, Teubner, Stuttgart.
Kuhlmann, U.: 1992, Inverse Modellierung in geklüfteten Grundwasserträgern, Technical
report, Mitteilungen der Versuchsanstalt für Wasserbau, Hydrologie und Glaziologie,
ETH Zürich.
Lee, Y. W.: 1992, Risk assessment and risk management for nitrate–contaminated groundwater supplies, Ph.d dissertation, Dept. of Civil Engineering, Univ. of Nebraska, Lincoln.
Lee, Y. W., Dahab, M. F. and Bogardi, I.: 1994, Fuzzy decision making in ground water
nitrate risk management, Water Resources Bulletin 30(1), 135–148.
Li, H.: 1992, Ranking fuzzy alternatives with consideration of the Decision Maker’s Partial Fuzzy Utility, Ph.d dissertation, Dept. of Industrial Management Systems and
Manufactoring Engineering, Univ. of Nebraska, Lincoln.
Mantoglou, A. and Gelhar, L. W.: 1987a, Capillary tension head variance, mean soil
moisture content, and effective specific soil moisture capacity of transient unsaturated
flow in stratified soils, Water Resour. Res. 23(1), 47–56.
Mantoglou, A. and Gelhar, L. W.: 1987b, Stochastic modeling of large–scale transient
flow systems, Water Resour. Res. 23(1), 37–46.
Mantoglou, A. and Wilson, J. L.: 1982, The turning bands method for simulation of
random fields using line generation by a spectral method, Water Resour. Res.
18(5), 1379–1394.
Matheron, G.: 1971, The Theory of Regionalized Variables and its Application, Vol. 5, Les
Cahiers du Centre de Morphologie Mathematique de Fontainebleau, Fontainebleau.
Morgan, M. G. and Henrion, M.: 1990, Uncertainty: A Guide to Dealing with Uncertainty
in Quantitative Risk and Policy Analysis, Cambridge University Press, New York.
LITERATURVERZEICHNIS
55
Neumaier, A.: 1990, Interval Methods for Systems of Equations, Cambridge University
Press, Cambridge, UK.
Omre, H.: 1987, Bayesian kriging – Merging observations and qualified guesses in kriging,
Math. Geology 19(1), 25–39.
Rubinstein, R. Y.: 1981, Simulation and the Monte Carlo Method, J. Wiley & Sons, New
York.
Scales, L. E.: 1985, Introduction to non–linear optimization, Springer, New York.
Schecher, W. D. and Driscoll, C.: 1988, An evaluation of the equilibrium calculations within acidification models: The effect of uncertainty in measured chemical components,
Water Resour. Res. 24(4), 533–540.
Schittkowski, K.: 1986, NLPQL: A FORTRAN subroutine solving constrained nonlinear
programming problems, Ann. Operat. Res. 5, 485–500.
Stoer, J.: 1989, Numerische Mathematik 1, 5. edn, Springer–Verlag, Berlin.
Tanaka, H., Uejima, S. and Asai, K.: 1982, Linear regression analysis with fuzzy model.,
IEEE Trans. Syst. Man Cybern. SMC-12, 903–907.
Tang, D. H. and Pinder, G. F.: 1979, Analysis of mass transport with uncertain physical
parameters, Water Resour. Res. 15(5), 1147–1155.
Tiwari, J. L. and Hobbie, J. E.: 1976a, Random differential equations as models of ecosystems – II. Initial condition and parameter specifications in terms of maximum
entropy distributions., Math. Biosci. 31, 37–53.
Tiwari, J. L. and Hobbie, J. E.: 1976b, Random differential equations as models of ecosystems: Monte Carlo simulation approach., Math. Biosci. 28, 25–44.
Tribus, M.: 1961, Thermostatistics and Thermodynamics, Van Nostrand, New York.
Tribus, M.: 1969, Rational Descriptions, Decisions and Designs, Pergamon Press, New
York.
56
LITERATURVERZEICHNIS
Turksen, I.: 1991, Measurement of membership functions and their acquisition, Fuzzy Sets
and Systems 40, 5–38.
Yeh, T. C. J., Gelhar, L. W. and Gutjahr, A. L.: 1985a, Stochastic analysis of unsaturated flow in heterogeneous soils: 1. Statistically isotropic media, Water Resour. Res.
21(4), 447–456.
Yeh, T. C. J., Gelhar, L. W. and Gutjahr, A. L.: 1985b, Stochastic analysis of unsaturated
flow in heterogeneous soils: 2. Statistically anisotropic media with variable alpha,
Water Resour. Res. 21(4), 457–464.
Yeh, T. C. J., Gelhar, L. W. and Gutjahr, A. L.: 1985c, Stochastic analysis of unsaturated
flow in heterogeneous soils: 3. Observations and application, Water Resour. Res.
21(4), 465–471.
Zadeh, L.: 1972, Fuzzy languages and their relations to human and machine intelligence,
Man Comput. Proc. Int. Conf., Bordeaux, 1970, S. Karger, Basel.
Zadeh, L. A.: 1965, Fuzzy sets, Inf. Control 8, 338–353.
Zadeh, L. A.: 1978, Fuzzy sets as a basis for a theory of possibility, Fuzzy Sets and Systems
1, 3–28.
Zimmermann, H.-J. and Kleeblatt, W.: 1992, Fuzzy – zögernde Anwendung eines sinnreichen Prinzips, Spektrum der Wissenschaft 1992(3), 30–33.
Herunterladen