Skriptum Mathematische/Stochastische Modelle

Werbung
Skriptum Mathematische/Stochastische
Modelle
Markus Klemm.net
SS 2016
Inhaltsverzeichnis
1 Fuzzy Logik
1.1 Unscharfe Menge . . . . . . . . . . . . . . .
1.1.1 Definition und Darstellung . . . . .
1.1.2 Einige Eigenschaften und Typen . .
1.1.3 Gleichheit und Teilmengen . . . . .
1.1.4 Klassische Mengenoperationen . . .
1.2 Fuzzy-Control . . . . . . . . . . . . . . . . .
1.2.1 Überblick . . . . . . . . . . . . . . .
1.2.2 Fuzzifizierung . . . . . . . . . . . . .
1.2.3 Inferenz . . . . . . . . . . . . . . . .
1.2.4 Defuzzifizierung . . . . . . . . . . . .
1.2.5 Allgemeine Hinweise . . . . . . . . .
1.2.6 Beispiel Fuzzy-Control . . . . . . . .
1.3 Weiterführende Operationen mit unscharfen
1.3.1 t-Normen und s-Normen . . . . . . .
1.3.2 Interaktive Verknüpfungen . . . . .
1.3.3 Parametrisierte Verknüpfungen . . .
1.3.4 Das Erweiterungsprinzip . . . . . . .
1.4 Unscharfe Maße . . . . . . . . . . . . . . . .
1.4.1 Wahrscheinlichkeit und Möglichkeit
1.4.2 Einige Verallgemeinerungen . . . . .
1.4.3 Unschärfemaße . . . . . . . . . . . .
1.5 Fuzzy-Aussagenlogik . . . . . . . . . . . . .
1.5.1 Grundlagen . . . . . . . . . . . . . .
1.5.2 Logische Gesetze . . . . . . . . . . .
1.5.3 Approximatives Schließen . . . . . .
1.5.4 Spezielle Implikationsoperatoren . .
1
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Mengen
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
4
5
6
7
7
7
7
8
8
9
9
9
10
11
12
13
13
15
15
16
16
17
19
20
2 Stochastische Modelle
2.1 Zuverlässigkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Systemzuverlässigkeit . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Erneuerungsprozess . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Die Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Warteschlagentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Das Warteschlangensystem M |M |1 . . . . . . . . . . . . . . . . .
2.2.3 Weitere Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Empirische Statistikmodelle . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Statistische Schätzung von Verteilungsfunktion u. Dichtefunktion
2.3.2 Simulation von Zufallsvorgängen . . . . . . . . . . . . . . . . . .
2.3.3 Die Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Konfidenzintervalle bei nichtnormalverteilter Grundgesamtheit .
2.3.5 Parameterfreie Test . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Statistik für mehrere Zufallsgrößen . . . . . . . . . . . . . . . . . . . . .
2.4.1 Partielle Korrelationskoeffizienten . . . . . . . . . . . . . . . . .
2.4.2 Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Prognose- und Entscheidungsprobleme . . . . . . . . . . . . . . . . . . .
2.5.1 Anzahl von Fehlern . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.2 Statistische Zukunftsabschätzungen . . . . . . . . . . . . . . . .
2.5.3 Sekretärinnenproblem . . . . . . . . . . . . . . . . . . . . . . . .
2.5.4 Sammelbildproblem . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.5 Gleichgewichtsprobleme . . . . . . . . . . . . . . . . . . . . . . .
2.5.6 Partielle Differentialgleichungen . . . . . . . . . . . . . . . . . . .
2.5.7 Wichtige partielle Dgl . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
22
23
25
25
25
26
26
26
26
27
27
28
29
29
29
31
31
31
32
33
33
35
35
Einführung Realer Prozess ⇒ Beobachtung ⇒ Empirische Annahmen ⇒ Math. Modell
→ Lösung ⇒ Vorraussagen ⇒ Beobachtung
Beispiel Radioaktiver Zerfall Annahmen:
n
∆n
Anzahl der Atomkerne zum Zeitpunkt t
n = n(t)
Anzahl der zerfallenen Atomkerne im Zeitraum ∆t
∆n ∼ n
⇒ ∆n ∼ n · ∆t ⇒ ∆n = −λn∆t(λ > 0)
∆n ∼ ∆t
∆n
= −λn ∆t → 0
∆t
dn
∆n
= lim
= −λn
dt ∆t→0 ∆t
n 0 (t) = −λn
2
Diff-Gleichung 1. Ordnung, Anfangsbedingung: n(0) = n0
Lösung n 0 + λn = 0 n = Ce−λt allg. Lösung (C ∈ R) y n = n(t) = n0 e−λt (λ Zerfallskonstante)
Halbwertszeit n(T ) = n0 e−λT = n20
e−λT = 12
−λT = ln 12 = ln 1 − ln 2
λ = lnT2
Deterministische Modelle
DGL
Stochastische Modelle ∼ Verteilungsfunktion
Unscharfe Modelle Fuzzy Logik
1 Fuzzy Logik
1.1 Unscharfe Menge
1.1.1 Definition und Darstellung
(Klassische) Menge A: Entweder x ∈ A oder x < A
Beispiel A = { junge Frauen }
x n - n-jährige Frau
x 20 ∈ A, x 30 ∈ A(?), x 29 ∈ A, x 30 < A??
Zugehörigkeitsgrad
µ A (x) ∈ [0; 1]
Maß für Mitgliedschaft von x in A
Beispiel µ A (20) = 1, µ A (30) = 0, 7, µa (40) = 0, 3, (x n , n)
Zugehörigkeitsfunktion x → (µ A (x), x ∈ G
{(x, µ A (x)) : x ∈ G, µ A (x) ∈ [0, 1]}
Unscharfe Menge A oder Fuzzy Menge A
Bezeichnungen
A,B, JUNG, ALT. . .
Darstellungen
1. Wertetabelle
G = { Städte in D }, SCHÖN , schöne Stadt“
”
µ~A = (0, 3; 0, 5; 0, 6; 0, 7)
3
(1)
2. Analytisch (Funktionsgleichung
Beispiel A = NAHENULL : x ≈ 0
1
µ A (x) = 1+x
2 (x ∈ R)
3. Grafisch
G : { Lebensalter } , [0, 100]; A-JUNG
Spezielle unscharfe Mengen
• Leere Menge ∅ : µ∅ (x) = 0 ∀x ∈ G
• Universalmenge E : µ E (x) = 1 ∀x ∈ G
(
0 x<A
• scharfe Menge A : µ A (x) =
1 x∈A
Symbolische Darstellung:
1. G diskret A =
R
2. G stetig
µ1
x1
+
µ2
x2
+···+
µn
xn
=
n
P
i=1
µi
xi
µ A (x)
x ∈G
x
1.1.2 Einige Eigenschaften und Typen
Höhe einer unscharfen Menge A
h( A) = sup µ A (x)
x ∈G
h( A) = 1 normalisiert Normalisierung
µ∗A (x) =
µ A (x)
h( A)
Mächtigkeit von A
1. G endlich : card( A) =
P
µ A (x)
x ∈G
2. G unendlich: card( A) =
R
µ A (x)dx
G
Relative Mächtigkeit
1. cardG ( A) =
card( A)
,
N
2. cardG ( A) =
card(
R A)
dx
N Anzahl der Elemente von G
G
α-Niveaumenge: Aα = {x ∈ G : µ A (x) ≥ α}, α ∈ [0, 1]
strenge α-Niveaumenge: A∗α = {x ∈ G : µ A (x) > α} Träger von A: sup A = A∗0 Es gilt A
scharfe Menge (, ∅) ⇔ µ A (x) = 1 ∀x ∈ sup A
4
Beispiel G = {a, b, c, d} : A = {a; 0, 9); (b; 0, 2); (c; 0, 5); (d; 0, 1)}
α = 0, 1 : A0,1 = {a, b, c, d}
α = 0, 2 : A0,2 = {a, b, c}
α = 0, 5 : A0,5 = {a, c}
α = 0, 9 : A0,9 = {a}
Es gilt α1 ≤ α2 → Aα2 ⊂ Aα1 ∀α1 α2 ∈ [0; 1] Repräsentationssatz
µ A (x) = sup (min(α; µ A α (x))
α
Erläuterung: Beispiel siehe oben: x = b
∀α ∈ [0; 0, 2] : b ∈ Aα ⇒ µ A α (b) = 1
∀α ∈ (0, 2; 1) : b < Aα ⇒ µ A α (b) = 0
d.h. min(α; µ A α (b)) = α für α ∈ [0; 0, 2]
min(α; µ A α (b)) = 0 für α ∈ (0, 2; 1]
y sup (min(α; µ A α (b)) = sup α = 0, 2 α ∈ [0; 0, 2] = µ A (b)
α
Wichtige Typen von Fuzzy-Mengen Grundmenge G = [a; b]
(
stückweise linear
1. µ A (x) monoton wachsend
S-förmig , kubische Parabel
2. µ A (x) monoton fallend
3. µ A dreiecksförmig
4. µ A trapezförmig
µ−µ 1
x−x 1
x−c 1
m−c 1
Analytisch Geradengleichung
x ∈ [c1 ; m] :
x ∈ [m; c2 ] :
y µ=
x−c 2
m−c 2
µ−0
x−c 1
µ−0
x−c 2
=
=
=
1−0
m−c 1 ,
1−0
m−c 2
c 2 −x
c 2 −m
µ=




µ A (x) = 




0
x−c 1
m−c 1
c 2 −x
c 2 −m
=
µ 2 −µ 1
x 2 −x 1
, x ∈ [a; c1 ] ∪ [c2, b]
,
x ∈ [c1 ; m]
,
x ∈ [m; c2 ]
1.1.3 Gleichheit und Teilmengen
Gleichheit
A = B ⇔ µ A (x) = µ B (x) ∀x ∈ G
Teilmengen A ⊂ B ⇔ µ A (x) ≤ µ B (x) ∀x ∈ G
offenbar ∅ ⊂ A ⊂ E ∀A; A ⊂ B ∧ B ⊂ A ⇔ A = B
5
Beispiel Wassertemperaturen im Freibad G = {18; 19; . . . ; 24}
WARM = {(18; 0, 2); (19; 0, 3); (20; 0, 4); (21; 0, 5); (22; 0, 7); (23; 0, 9); (24; 1)}
LAU = {(18; 0, 3); (19; 0, 4); (20; 0, 6); (21; 0, 8); (22; 1); (23; 1); (24; 1) ⇒ WARM ⊂ LAU
Konzentrationen konn A =p{(x; [µ A (x)]n ), x ∈ G}
Dilatationen diln A = {(x; n µ A (x)), x ∈ G}
Es gilt konn A ⊂ konm A ⊂ A ⊂ dilm A ⊂ diln A
für 1 < m < n
Sprachliche Verstärkung ⇒ numerische Abschwächung und umgekehrt
Beispiel A = NAHE NULL
2
µ A (x) = e−x
2
B = kon3 A = [µ A (x)]3 = e−3x
1
C = dil3 A = [µ A (x)] 3 = e−
x2
3
Linguistische Modifikationen
Beispiel
A = SCHÖNE STADT
1.1.4 Klassische Mengenoperationen
Vereinigung ( oder“): C = A ∪ B : µC (x) = max(µ A (x); µ B (x))
”
Durchschnitt ( und“): D = A ∩ B : µ D (x) min(µ A (x), µ B (x))
”
Komplement ( nicht“): AC = A : µCA (x) = 1 − µ A (x)
”
Beispiel Computerproduktion
G = {4; 5; 6; 7; 8; 9}
Vertretbare Produktionskosten A = {(4; 0); (5; 0, 1); (6; 0, 5); (7; 1); (8; 0, 8); (9; 0)}
Absetzbarkeit (pro Tag) B = {(4; 1); (5; 0, 9); (6; 0, 8); (7; 0, 4); (8; 0, 1); (9; 0)}
Mengengesetze
Anmerkung
1. ∩ → ∪, E → ∅ z.B. A ∩ ∅ = ∅ ⇔ A ∪ E = E
2. Nachweis, z.B. A ∩ ( A ∪ B) = A
tatsächlich µ LS (x) = min(µ A (x), max(µ A (x), µ B (x))) = µ A (x) = µ RS (x)
Fallunterscheidung: µ A (x) =: a, µ B (x) =: b
a) a ≤ b : µ LS (x) = min(a, max(a, b) ) = a
| {z }
=b
b) a > b : µ LS (x) = min(a, max(a, b) ) = a
| {z }
=a
6
Nicht-interaktiv
Kartesisches Produkt C = A ⊗ B
µC ((a, b)) = min{ µ A (a), µ B (b)} ∀(a; b) ∈ X × Y
Beispiel A = {(a; 0, 7)); (c; 0, 8)}, B = {(b; 1); (c; 0, 3)}
X = Y {a; b; c} ⇒ A ⊗ B = {((a; b); 0, 7); ((a, c); 0, 3); ((c; b); 0, 8); ((c, c); 0, 3)}
1.2 Fuzzy-Control
1.2.1 Überblick
Klassisch
• Steuergröße u(t)
• Prozess F (x, u, t)
• Zustandsgröße x(t)
Zusätzliches Ziel
Zt1
0
f (x, u, t)
| {z }
dt → min
Kostenfunktion
Nachteile
• Exaktes math. Modell (F-Dgl.) oft schwierig aufzustellen, nur wichtige Zusammenhänge berücksichtigbar
• Lösung oft nur näherungsweise möglich
• keine Robustheit der Lösung
1.2.2 Fuzzifizierung
1.2.3 Inferenz
monokausal
1. Verarbeitungsregeln
(Zustand)
(Steuerung)
Badewasser Zulaufwasser
KÜHL
HEISS
WARM
WARM
HEISS
KÜHL
7
2. Zugehörigkeitsgrade
µ K ALT (Z, W ) = 0
µ KU E H L (Z, W ) = µ H E I S S (32) = 0, 4
µW AR M (Z, W ) = µW AR M (32) = 0, 6
µ H E I S S (Z, W ) = µ KU E H L (32) = 0
3. Bestimmen der Inferenzmenge
1.2.4 Defuzzifizierung
1. Zweidimensional
a) Maximum-Mittelwert-Mehtode
u∗ =
α+ β
= 40◦
2
b) Schwerpunktmethode
Rb
u =
∗
u f (u) du
a
Rb
f (u) du
a
2. Eindimensional
a) Singletons
n
P
ui µ i
30 · 0, 4 + 40 · 0, 6
=
u = P
µi
0, 4 + 0, 6
∗
i=1
b) Teilschwerpunkt = 36◦
P
ui µi Ai gi
30 · 0, 4 · 10 + 40 · 0, 6 · 10
∗
u = P
= 36◦
=
|{z}
0, 4 · 10 + 0, 6 · 10
µi Ai gi
g i =1
1.2.5 Allgemeine Hinweise
Schwerpunktmethode i.A. am virteilhaftesten!
Nicht-konvexe Inferenzmengen.
Beispiel Ausweichen vor Hindernis
Fuzzy-Control
→ Robustheit
• versch. Zugehörigkeitsfunktion
• ähnliche Messwerte
• Inferenz- und Defzuzzifizier-Verfahren
8
1.2.6 Beispiel Fuzzy-Control
Aufgabe: Bremesen eines Fahrzeuges
Speziell v = 90 kmh−1, x = 100 m
1. Fuzzufuzierung
a) Festlegen der unscharfen Mengen, siehe Bild 1,2,3
b) Zugehörigkeitsgrade
• µ N I E D R I G (90) = 0, 75, µ M I T T E L (90) = 0, 25
• µ N I E D R I G (100) = 23 ; µ M I T T E L (100) =
1
3
2. Inferenz
a) Verarbeitungsregeln
y\x
klein
mittel
groß
sehr niedrig
schwach
niedrig
schwach
mittel
mittel
hoch
stark
sehr hoch
sehr starck
schwach
und , ∩ , min
oder , ∪ , max : ganze Zeile und Spalte
b) Zugehörigkeitsgrade der Ergebnismenge (Bremsdruck)
µ SC HW AC H (p) = min(µ N I E D R I G (v), µ M I T T E L (x)) = min(0, 75; 13 ) = 13
µ M I T T E L (p) = min(µ M I T T E L (v), µ M I T T E L (x)) = min(0, 25; 13 ) = 0, 25
µ S E H RST ARK (p) = max(µ S E H R H OC H (v), µ K L E I N (x)) = max(0; 32 = 23
(ggf. Mehrdeutigkeiten beseitigen!)
c) Inferenzmenge
• Max-Min-Methode: siehe Bild 4
• Singletons
3. Defuzzifizierung
a) Max-Mittelwert α = 2 + (2, 5 − 2) ·
b) Schwerpunkt-Methode
c) Singletons p∗ =
p∗
2
3
= 2, 33, β = 3 y p∗ =
= 2, 005
1· 31 +1,5·0,25+3· 32
1
2
3 +0,25+ 3
= 2, 16
1.3 Weiterführende Operationen mit unscharfen Mengen
1.3.1 t-Normen und s-Normen
u - Durchschnittsoperator
t - Vereinigungsoperator
A t B = ( AC u BC )C (de Morgan)
9
α+β
2
= 2, 67
Schreibweise
µ AuB (x) = t(µ A (x); µ B (x))
µ AtB (x) = s(µ A (x); µ B (x))
künftig: a = µ A (x), b = µ B (x)
Aus Axiomen ⇒ t(0; a) = 0 ∀a ∈ [0; 1]
Insbesondere: t(0; 0) = 0
Nachweis: 1◦ : t(0; 1) = 0
: 0 ≤ t(0; a) ≤ t(0; 1), ∀a ≤ 1
=0
y t(0; a) = 0
4◦
• s(a, b) = µ AtB (x) = µ ( AC uBC )C (x) = 1 − µ ( AC uBC ) (x) = 1 − t(1 − a, 1 − b)n
1.3.2 Interaktive Verknüpfungen
1. Algebraisches Produkt A · B; µ A (x) =: a usw.
algt (a, b) = a · b
2. Beschränktes Produkt A B
best (a, b) = max[0; a + b − 1]
3. Drastisches Produkt A ∗ B
(
drat (a, b) =
min(a, b)
0
Anmerkung
1. A ∩ A = A
algt (a; a) = a2 , a (a , 1)
2. Interaktive
Beispiel Computer-Produktion
x
4
5
6
7
8
a = µ A (x) 0 0, 1 0, 5 1
0, 8
b = µ B (x) 1 0, 9 0, 8 0, 4 0, 1
A∩ B
0 0, 1 0, 5 0, 4 0, 1
A· B
0 0, 09 0, 4 0, 4 0, 08
AB
0
0
0, 3 0, 4
0
A∗ B
0
0
0 0, 4
0
Satz
drat (a; b) ≤ t(a; b) ≤ min(a; b)
10
9
0
0
0
0
0
0
für a = 1 ∨ b = 1
sonst
(
Nachweis drat (a; b) =
für a = 1 ∨ b = 1
sonst
min(a; b)
0
1. a < 1 ∧ b < 1 : drat (a, b) = 0 ⊆ t(a, b) ∀a, b
2. o.B.d.A. a = 1 : drat (a, b) = b |{z}
= t(b, 1) |{z}
= t(1, b) ∀b
10
20
y drat (a, b) ⊆ t(a, b) ∀a, b ∈ [0; 1]
= a = min(a, b)
RS: a ≤ b t(a, b) |{z}
≤ t(a, 1) |{z}
10
40
1.3.3 Parametrisierte Verknüpfungen
1. Hamacher-Operator
H pt (a, b) =
ab
, p ∈ [0; ∞)
p + (1 − p)(a + b − ab)
Satz 1 H pt monoton fallend bzgl. p
ab
Speziell: H0t (a, b) = a+b−ab
algebraischer t-Quotient
t
H1 (a, b) = ab = algt (a, b)
lim H pt (a, b) = drat (a, b)
p→∞
2. Kompensatorische Operatoren
Lücke zwischen ∩ und ∪ schließen
Beispiel Kunstsammler
A := GUT ERHALTEN; B := WERTVOLL; x = c : Gemälde von Cranach
µ A (c) = 0, 2; µ B (c) = 0, 9
Kaufen? und“: µ A∩B (c) = min(a, b) = 0, 2
”
oder“ µ A∪B (c) = max(a, b) = 0, 9
”
3. min-max-Kompensationsoperator
Kγ = [min(a, b)]1−γ [max(a, b)]γ ; γ ∈ [0; 1]
4. konvexer min-max-K.-Operator
k Kγ = (1 − γ) min(a, b) + γ max(a, b)
Vergleich von Kγ und k Kγ Bezeichnen u = min(a, b), v = max(a, b) :
Kγ = u1−γ vγ = u( uv )γ Expotentialfkt bzgl. γ
k Kγ = (1 − γ)u + γv = uγ(v − u) lineare Fkt. bzgl. γ
Es gilt stets: Kγ (a, b) ≤ k Kγ (a, b) ∀a, b ∈ [0; 1]
Sei a ≤ b o.B.d.A.: u = a, v = b;
γ = 0 : K0 = a( ba ) 0 = a, k K0 = a
11
γ = 1 : K1 = b, k K1 = b
Kγ konvex: Kγ = Kγ (a, b) = a( ba )γ
Kγ0 = a( ba )γ ln ( ba )
Kγ00 = a( ba )γ [ln ba ]2 > 0
√
1 1
Speziell γ = 0, 5 : K0,5 = u 2 v 2 = uv geom. Mittel
k K0,5 = u+v
arith. Mittel
√2
Folglich uv ≤ u+v
2
Abschweifung, Beispiel: Produktion 100 Einheiten (Anfang)
1. Jahr +100% → 200 Einheiten
2. Jahr +0% → 200 Einheiten
Arith. Mittel: 50% (beide Jahre)
1. Jahr 150 Einheiten
2. Jahr 225 Einheiten√
Geom. Mittel:
√ Nicht
√ 100 · 0 Unsinn!
Vielfache 2 · 1 = 2 = 1, 41
41% Zuwachs im Durchschnitt
1. Jahr 141 √
2. Jahr 141 · 2 = 200
1.3.4 Das Erweiterungsprinzip
Übergang: NIcht-Fuzzy-Größen ⇒ Fuzzy-Größen
Beispiel 1 geg: y = f (x) = x 2 + 1, x ∈ X = {−1; 0; 1; 2}
y y ∈ Y = {1; 2; 5}
A = {(−1; 0, 5); (0; 0, 08); (1; 1); (2; 0, 4)}
ges.: B = f ( A)
Lösung: B = {(1; 0, 08); (2; ?); (5; 0, 4)}
Erweiterungsprinzip
(einfacher Fall) B = f ( A) = {(y, µ B (y))k y = f (x), x ∈ X }
(
sup y = f (x) µ A (x) falls ∃y = f (x)
mit µ B (y) =
0
sonst
oben: B = {. . . ; (2; 1); . . . }
Allgemein
A1 ; . . . ; An unscharfe Mengen auf X1 ; . . . ; X n
1. Schritt Kartesisches Produkt A = A1 ⊗ A2 ⊗ · · · ⊗ An auf X1 × X2 × · · · × X n mit
µ A (x 1 ; . . . ; x n ) = min{ µ A ; (x i ), x i ∈ X i i = 1, . . . , n
Beispiel A1 = {(4; 0, 4); (5; 1); (5; 0, 5); } ≈ 5
A2 = {(2; 0, 1); (3; 0, 6); (4; 1); (5; 0, 5)} ≈ 4
12
µ A1 ⊗ A2 (x 1, x 2 ) :
x 1 \x 2 2
3
4
0, 1 0, 4
5
0, 1 0, 6
6
0, 1 0, 5
4
5
0, 4 0, 4
1 0, 5
0, 5 0, 5
2. Schritt Erweiterungsprinzip Analog
2
Beispiel 2 y = f (x 1, x 2 ) = int x1 +x
2
x 1 \x 2 2
3
4
5
0,1
0,4
0,4
0,4
4
3
3
4
4
5
3
4
4
5
6
4
4
5
5
B = int( A1 +2 A2 )
µ B (3) = sup f (x 1, x 2 ) = 3{0, 1; 0, 4; 0, 1} = 0, 4
1.4 Unscharfe Maße
1.4.1 Wahrscheinlichkeit und Möglichkeit
A ⊂ Ω Grundbereich; Ereignis“
”
Definition 1 Mengenfunktion F ( A) heißt unscharfes Maß:
1. F (∅) = 0, F (Ω) = 1 (Normierung)
2. A1 ⊂ A2 ⇒ F ( A1 ) ≤ F ( A2 ) (Monotonie)
3. A1 ⊂ A2 ⊂ · · · ⊂ An ⊂ · · · : lim F ( An ) = F ( lim An ) (Stetigkeit)
n→∞
n→∞
Folgerungen ∀A, B ⊂ Ω:
1. F ( A ∪ B) ≥ max[F ( A), F (B)]
2. F ( A ∩ B) ≤ min[F ( A), F (B)]
Nachweis: A ∩ B ⊂ A ⊂ A ∪ B
Wegen (2): F ( A ∩ B) ≤ F ( A) ≤ F ( A ∪ B)
Analog F ( A ∩ B) ≤ F (B) ≤ F ( A ∪ B)
⇒ F ( A ∩ B) ≤ min(F ( A), F (B)) , (2)
Analog (1)
Definition 2
P( A) Wahrscheinlichkeit, wenn
1. 0 ≤ P( A) ≤ 1 ∀A ⊂ Ω
2. P(Ω) = 1
3. P( A1 ∪ A2 ∪ . . . ) = P( A1 ) + P( A2 ) + . . . für Ai ∩ A j = ∅, i , j
13
Satz
Wahrscheinlichkeit ist unscharfes Maß
Teil-Nachweis (Monotonie)
A1 ⊂ A2 : P( A2 ) = P( A1 ∪ ( A2 ∩ AC
P( A2 ∩ AC
) y P( A1 ) ≤ P( A2 )
1 )) = P( A1 ) + |
{z 1 }
≥0
Grenzen der Wahrscheinlichkeit für Ungewissheit
Beispiel Produktionsanlage Brauchbarkeit Grundstück (Flurstück 1 und 2 einzeln
zu klein, aber zusammen groß genug) P(1) = 0, P(2) = 0, P(1 ∪ 2) = 1 y keine Wahrscheinlichkeit
Definition 3
Π( A) Möglichkeit
1. Π(∅) = 0; Π(Ω) = 1
2. Π( A ∪ B) = max[Π( A); Π(B)]
• Π( A) unscharfes Maß
• Für Elementareignisse {x}(x ∈ Ω):
Möglichkeitsverteilung π(x) : Ω → [0; 1]
⇒ Π( A) = max x ∈ A π(x)
• Es gilt P( A) ≤ Π( A)∀A ⊂ Ω
Beispiel A : N isst x Brötchen zum Frühstück “
”
0
1
2
3
4
5
Σ
x
P({x})
0, 1 0, 2 0, 5 0, 1 0, 1 0
1
π(x) = Π({x}) 1 P1
1 0, 6 0, 3 0, 1 > 1
Wieviel kaufen: E(X ) = xP({x}) = 0 · 0, 1 + 1 · 0, 2 + 2 · 0, 5 + 3 · 0, 1 + 4 · 0, 1 = 1, 9
Aufgabe 1 Wie groß Wahrscheinlichkeit bzw. Möglichkeit ≥ 3 Brötchen isst?
Lösung: Π( A) = max x ∈ {3; 4; 5} π(x) = 0, 6
P
P( A) =
P(x) = 0, 2
x=3
Definition 4 Notwendigkeit N ( A) = 1 − Π( AC ) = min x < A {1 − π(x)} ∀A ⊂ Ω Es gilt:
• N ( A ∩ AC ) = min[N ( A), N ( AC )]
• Π( A) ≥ N ( A) ∀A
• N ( A) > 0 → Π( A) = 1
• Π( A) < 1 → N ( A) = 0
14
Nachweis
N ( A) > 0
=
|{z}
0
N ( A ∩ AC ) = min[N ( A), N ( AC )] y N ( AC ) = 0
unscharfes Maß
0 = N ( AC ) = 1 − Π(( AC )C ) y Π( A) = 1
N ( A) = 1 − Π( AC )
= min{1 − π(x)}
x< A
Beispiel AC Stein fällt nach oben: unmöglich
Stein fällt nach unten: notwenig
0 1 2 3
4
5
x
π(x) 1 1 1 0, 6 0, 3 0, 1
AC
Beispiel Notwendigkeit, dass N. isst: 0 Brötchen , A
≤ 2 Brötchen , B
> 2 Brötchen , C
N ( A) = min{1 − π(x)} = min{|{z}
1 − 1, . . . } = 0
x >0
0
N (B) = min{1 − π(x)} = min{1 − 0, 6; 1 − 0, 3; 1 − 0, 1} = 0, 4
x >2
N (C) = min{1 − π(x)} = min{1 − 1; . . . } = 0
x ≤2
1.4.2 Einige Verallgemeinerungen
Beispiel
4( A) = min π(x) = π(0) = 1
x∈A
5( A) = 1 − max π(x) = 1 − max π(x) = 1 − max{1; . . . } = 0
x< A
4(B) = min π(x) = 1
x >0
x ∈B
5(B) = 1 − max π(x) = 1 − max{0, 6; . . . } = 1 − 0, 6 = 0, 4
x >2
4(C) = min π(x) = 0, 1
x ∈C
5(C) = 1 − max π(x) = 1 − 1 = 0
x ≤2
1.4.3 Unschärfemaße
Lokale Unschärfe x ∈ G ≈ unscharfe Menge: µ A (x)
Zu A: Entropiemaße, Scharfe Mengen: A ∩ AC = ∅
D = A ∩ AC , Maß für Unschärfe von G
µ D (x) = min(µ A (x), 1 − µ A (x) )
| {z }
| {z }
a
a
Es gilt min(a, b) = 12 [a + b − |a − b|]
Tatsächlich: O.B.d.A: a ≥ b : LS = min(a, b) = b
RS = 12 [a + b − (a − b)] = b
y µ D (x) = 12 [a + (1 − a) − |a − (1 − a)|] = 12 [1 − |2a − 1|]
Shannonsche Unschärfemaß
µ A (x) ln µ A (x)
| {z
} | {z }
C
C
15
lim c ln c = lim
c→0
c→0
ln c
1
c
= lim c (−1 1 ) = lim (−c) = 0
|{z}
c→0
c→0
c2
−∞
∞
1.5 Fuzzy-Aussagenlogik
1.5.1 Grundlagen
Syntax
1. Alphabet
2. Regeln: Zulässige Ausdrücke (ZA)
Ω = {ZA}
Beispiel
1. , a∧ , (b → c) ZA
2. 0 ∨ p ↔ q → 1 ZA
3. x ∨ y ∧ z kein ZA
4. , (α ∧ β) kein ZA
5. x ∧ y ⇔< y ∧ x kein ZA
Semantik
1. δ: Wahrheitswert
∀A ∈ Ω → δ( A) ∈ [0; 1]
2. Operatoren
3. ZA
• Tautologien
• erfüllbar
• unerfüllbar
4. Metasprache ⇔, ⇒ z.b. a ↔ b ⇔ a → b ∧ b → a
speziell δ( A) = {0; 1}: klass. Aussagenlogik
δ( A) = {0; 12 ; 1}: Lukasiewicz-Logik
16
Beispiel Informatiker mit Kenntnissen in Rechnernetzen und Betriebswirtschaft haben gute Berufsaussichten in der Entwicklung oder im Mangement.
Informatiker NN
a: NN hat Kenntnisse in Rechernetzen: δ(a) = 0, 9 b: NN hat Kenntnisse in Betriebswirtschaft δ(b) = 0, 7 c: Es bestehen gute Entwicklungsaussichten in Entwicklung: δ(c) = 0, 8
d: Es bestehen gute Beufsaussichten im Mangement δ(d) = 0, 4
Gesamtaussage A(a; b; c; d) : a ∧ b → c ∨ d mit δ(a
∧ b → |{z}
c ∨ d ) = min[1; 1 + δ(c ∨
|{z}
d) − δ(a ∧ b)] = min[1; 1 + max(δ(c); δ(d)) − min(δ(a); δ(b))] == min[1; 1 + max(0, 8; 0, 4) −
min(0, 7; 0, 9)] = min[1; 1 + 0, 8 − 0, 7] = 1 w.A.
1.5.2 Logische Gesetze
Dualität: ∧ ↔ ∨
0↔1
z.B. neutrales Element a ∨ 0 ⇔ a
Nachweis: Mit Fallunterscheidung:
Beispiel
δ() ≤ δ() δ(a ∧ b) ¬(a ∧ b)
¬a
¬b
¬a ∨ ¬b
ab
δ(a)
1 − δ(a) 1 − δ(a) a − δ(b) 1 − δ(a)
ba
δ(b)
1 − δ(b) 1 − δ(a) 1 − δ(b) 1 − δ(b)
Anmerkung Doppelte Negation ¬¬(a) = a
Konjunktive (diskunktive) Normalform
Satz 1
Beispiel (a ∨ b) ∧ ¬(b ∧ (, a ∨ ¬b))
⇔ (a ∨ b) ∧ (¬b ∨ ¬(¬a ∨ ¬b))
⇔ (a ∨ b) ∧ (¬b ∨ (a ∧ b))
⇔ (a ∨ b) ∧ (¬b ∨ a) ∧ (¬b ∨ b)
→ und ↔ Operatoren
Satz 2
1. a ↔ b ⇔ (a → b) ∧ (b → a)
2. a → b ⇔ ¬b → ¬a
Nachweis
a→b
¬b
¬a
¬b → ¬a
δ() ≤ δ()
ab
1
1 − δ(b) 1 − δ(a)
1
ba
1 + δ(b)¬δ(a) 1 − δ(b) 1 − δ(a) 1 + δ(b) − δ(a)
17
Beispiel Wenn man sich mit den log. Grundlagen der Fuzzy-Logik ausgiebig beschäftigt,
dann versteht man die Anwendungen der Fuzzy-Logik richtig. Kontraposition: selbständig!
Spezielle Gesetze der klass. Aussagenlogik Nur klassisch:
1. a ∧ ¬a ⇔ 0
Fuzzy: NEIN z.B. δ(a) = 0, 3; δ(¬a) = 0, 7; δ(a ∧ ¬a) = min(0, 3; 0, 7) = 0, 3 , 0
2. a → b ⇔ ¬a ∨ b
a b a → b ¬a ¬a ∨ b (a → b) ⇔ ¬a ∨ b
0 0
1
1
1
1
0 1
1
1
1
1
1 0
0
0
0
1
1 1
1
0
1
1
Aber δ(a) = δ(b) = 12
δ(a → b) = 1
δ(¬a ∨ b) = max(1 − δ(a); δ(b)) =
Tautologie
1
2
(klassisch!)
Beispiel (a ∧ ¬(b ∨ c)) → (b ↔ c)
⇔ ¬(a ∧ ¬(b ∨ c)) ∨ ((b → c) ∧ (c → b))
⇔ (¬a ∨ (b ∨ c)) ∨ ((¬b ∨ c) ∧ (¬c ∨ b))
⇔ (¬a ∨ b ∨ c ∨ ¬b ∨ c) ∧ (¬a ∨ b ∨ c ∨ ¬c ∨ b) ⇔ 1
Ausblick (klassisch)
1. →↔⇔ ∧∨
2. A ∨ B ⇔ ¬(¬A ∧ ¬B)
3. Definiieren f ( A, B) = ¬( A ∧ B)
Es gilt
1. A ∧ B ↔ f ( f ( A, B), f ( A, B))
2. ¬A ↔ f ( A, A)
Klassische Schlussfiguren
1. Modus ponens
2. Modus tollens
3. Modus barbara
18
Zu Modus ponens (a → b) ∧ a → b ⇔ ¬(a
→ }b) ∧ a) ∨ b
| {z
¬a∨b
⇔ ¬(¬a ∨ b) ∨ ¬a ∨ b ⇒ (a ∨ ¬a ∨ b) ∧ (¬b ∨ ¬a ∨ b) ⇒ 1
Aber δ(a) = 0, 8; δ(b) = 0, 3
δ(a → b) = min(1; 1 + δ(b) − δ(a)) = 0, 5
⇒ δ((a → b) ∧ a → b) = min(1; 1 + 0, 3 − min(0, 5; 0, 8)) = 0, 8 , 1
zu tollens und barbara analog (klassische Gesetzmäßigkeiten gelten nicht)
1.5.3 Approximatives Schließen
Erweiterter Modus ponens A → B
A0 B 0 bzw.: ( A ⇒ B) ∧ A0 → B 0
Beispiel Rote Kirschen sind süss
1. KRISCHFARBE X = ROT“
”
2. GESCHMACK Y IST SÜSS“
”
3. KRISCHFARBE X IST SEHR ROT“
”
0
→ b : GESCHMACK Y IST MEHR ALS SÜSS
( A → B) ∧ A0 → B 0 Zu 1) µ A→B (x, y) = I . . . (µ A (x) ; µ B (y) ) siehe Heft
| {z } | {z }
a
b
Zu 2) µ0B (y) = I . . . (µ A (x); µ B (y)) ∗ µ0A (x) mit (∗): max-t-Komposition (Erweiterungsprinzip, deshalb max, ∧ deshalb t)
Beispiel Mamdani-Implikationsoperator; t , min
geg: A = {(1; 0, 3); (2; 0, 6); (3; 1); (4; 0)}
B = {(1; 0, 2); (2; 1); (3; 0, 6); (4; 0, 3)}
Sei A0 = {(1; 1); (2; 0, 5); (3; 0, 4); (4; 0, 1)}
ges.: B 0
x\y 1
2
3
4
1 0, 2 0, 3 0, 3 0, 3
zu A) 2 0, 2 0, 6 0, 6 0, 3 µ A→B (x, y) = min(µ A (x); µ B (y))
3 0, 2 1 0, 6 0, 3
4
0
0
0
0
µ R I (x, y)
Zu 2) RI ∧ A0 =: RT mit µ RT (x, y) = min(µ R I (x, y); µ0A (x))
x\y 1
2
3
4
1 0, 2 0, 3 0, 3 0, 3
2 0, 2 0, 5 0, 5 0, 3
3 0, 2 0, 4 0, 4 0, 3
4
0
0
0
0
19
y µ0B (y) = max µ RT (x, y) = {(1; 0, 2); (2; 0, 5); (3; 0, 5); (4; 0, 3)}
x
1.5.4 Spezielle Implikationsoperatoren
Zadeh-Implikation IF-THEN“
”
Motivation(klassisch) a → b ⇔ ¬a ∨ b
⇔ (¬a ∨ b) ∧ (¬a ∨ a)
⇔ ¬a ∨ (b ∧ a)
y µ A→B (x, y) = max(min(a, b); 1 − a)
If-Then-Else: wenn a, dann b, sonst c“
”
(a → b) ∧ (¬a → c)
µ∗ (x, y) = max(min(a; b); min(1 − a; c))
Insbesondere c = ¬b
(a → b) ∧ (¬a → ¬b) ⇔ (a → b) ∧ (b → a)
⇔a↔b
y µ A↔B (x, y) = max(min(a; b); min(1 − a; 1 − b))
Beispiel Körpergröße ↔ Schuhgröße A := LANG, B := GROSS
Körpergr. x(cm) 165 170 175 180 185 190 195
µ A (x)
0 0, 1 0, 3 0, 7 0, 8 0, 9 1
1 0, 9 0, 7 0, 3 0, 2 0, 1 0
1 − µ A (x)
Schuhgr.
40 41 42 43 44 45 46
µ B (y)
0 0, 1 0, 3 0, 5 0, 7 0, 9 1
1 − µ B (y)
1 0, 9 0, 7 0, 5 0, 3 0, 1 0
x\y 40 41 42 43 44 45 46
165 1 0, 9 0, 7 0, 5 0, 3 0, 1 0
170 0, 9 0, 9 0, 7 0, 5 0, 3 0, 1 0, 1
175 . . . . . . . . . . . . . . . . . . . . .
LANG ↔ GROSS
180 . . . . . . . . . . . . . . . . . . . . .
185 . . . . . . . . . . . . . . . . . . . . .
190 0, 1 0, 1 0, 3 0, 5 0, 7 0, 9 0, 9
195 0 0, 1 0, 3 0, 5 0, 7 0, 9 1
a
1
Gödel -Implikation Motivation(klassisch) 1
0
0
Satz
1. B ⊂ B 0
20
b a → b Vergleich Ergebnis
1
1
δ(a) ≤ δ(b)
1
0
0
δ(a) > δ(b)
δ(b)
1
1
δ(a) ≤ δ(b)
1
0
1
δ(a) ≤ δ(b)
1
Gödel
2. A0 = A −−−−−→ B 0 = B (klass. Modus ponens)
3. Für 3. - Gödel-Implikation größtmögliche Relation
Zu 1. µ0B (y) = max(min(µ0A (x); µ
Gödel
A−
−−−−→ B
(x, y))) ≥ min(µ0A (x 0 ) ; µ Gödel (x, y)) ≥
| {z } A−−−−−→ B
1
µ B (y)
A0 normalisiert: ∃x 0 : µ0A (x 0 ) = 1
Zu 2. Fallunterscheidung
1. µ A (x) ≤ µ B (y) :
min(µ0A (x); µ Gödel (x, y) ) = µ0A = µ A (x)
→B
| A−−−−−
{z
}
1
2. µ A (x) > µ B (y)
≤ µ B (y) (laut Norm)
min(µ0A (x) ; µ Gödel (x, y) ) ≤ µ B (y)
| {z } | A−−−−−
→B
{z
}
µ A (x)
⇒ µ0B (y) = max min(µ0A (x); µ
Gödel
µ B (y)
A−
−−−−→ B
(x, y)) d.h. B 0 ⊂ B + 1. ⇒ 2.
3. RI-Implikations-Relation
Geg.: µ0B (y) = max min(µ A (x); µ R I (x, y)) ≤ µ B (y)
x
Maximaler Wert von µ R I (x, y) :
a) µ A (x) ≤ µ B (y) ⇒ max(µ R I (x, y)) = 1
b) µ A (x) > µ B (y) ⇒ max(µ R I (x, y)) = µ B (y)
y Maximallösung RI , Gödel
2 Stochastische Modelle
2.1 Zuverlässigkeitstheorie
2.1.1 Systemzuverlässigkeit
Elemente E1, . . . , Ek : Ausfallwahrscheinlichkeit, p1, . . . , pk
1. Serienschaltung
ps - Systemzuverlässigkeit Ereignisse: S Systemintakt Ai Element Ei intakt
p( Ai ) = 1 − P( Āi ) = 1 − pi ps = P(S) = P( A1 ∩ A2 ∩ · · · ∩ Ak ) = P( A1 ) · · · · · P( Ak ) =
(1 − p1 ) · · · · · (1 − pk )(1)
2. Parallelschaltung
21
Beispiel
• Zweimotorige Flugzeuge: Motoren
• Siebenköpfiger Drache: Köpfe
p p = P(S) = 1 − P( S̄) = 1 − P( Ā1 ∩ Ā2 ∩ · · · ∩ A¯k ) = 1 − P( Ā1 ) · · · · · P( A¯k ) =
1 − p1 · p2 · · · · · pk (2)
3. Zusammengesetzte Systeme [hier E 1,2,3 parallel (S1 ), dazu 4 und 5 seriell dazu
(S2 )]
Systemzuverlässigkeit psy = (1 − p1 p2 p3 ) · (1 − p4 ) · (1 − p5 )
Beispiel
a) p1 = p2 = p3 = 0, 1
p4 = p5 = 0, 001 y psy = 0, 9970
Zum Vergleich : S1 , E1 : psy = 0, 9 · (0, 999) 2 = 0, 8932
Zeit: pro Stunde; p = psy ges: (Durchschnittli∞
∞
∞
∞
P
P
P
P
che) Funktionsdauer TS : E(TS ) =
npn =
npn−1 p = p
(pn ) 0 = p(
pn ) 0 =
Interpretation der Ergebnisse
n=1
p 0
)
p( 1−p
=
p (1−p)+p
(1−p) 2
=
n=1
n=1
n=1
p
(1−p) 2
Beispiel
a) E(TS ) = 110.777, 78h , 4615d , 12, 6a
b) E(TS ) = 78, 3h ,≈ 3d
2.1.2 Erneuerungsprozess
T1 = t 1 − 0, T2 = t 2 − t 1 Betriebszeiten
Verteilungsfunktionen für Ti : F (t) = P(Ti ≤ t)(t ≥ 0)
(0; t] : Anzahl von Erneuerungen Nt
Offenbar P(Nt < n) = P(t n > t), n = 0, 1, 2, t > 0
Spezialfälle
1. Ti ∼ N (µ; σ 2 ); µ > 3σ
P(Nt = 0) = P(Nt < 1) = P(t 1 > t) = P(T1 > t) = 1 − P(T1 ≤ t) = 1 − Φ( t−µ
σ )
t−2µ
√
P(Nt < 2) = P(t 2 > t) = P(T1 + T2 > t) = 1 − P(T1 + T2 ≤ t) = 1 − Φ(
µ
√
Analog: P(Nt < n) = 1 − Φ( t−n
), n = 1, 2, . . .
nσ
22
2σ
Beispiel µ = 10, σ = 3, t = 35
P(Nt < 1) = 1 − Φ( 35−10
3 ) = 0, 000
P(Nt < 2) = 0, 000
√
P(Nt < 3) = 1 − Φ( 35−30
) = 0, 168
33
P(Nt < 4) = 0, 798
P(Nt < 5) = 0, 987
P(Nt < 6) = 1, 000
y P(Nt = 0) = 0, 000; P(Nt = 1) = 0, 000; P(Nt = 2) = 0, 168
P(Nt = 3) = 0, 630; P(Nt = 4) = 0, 189; P(Nt = 5) = 0, 013
5
P
Mittlere Anzahl von Erneuerungen: E(Nt ) =
k P(Nt = k) = 3, 047
k=0
Expotentialverteilung
F (t) = 1 − e−λt ,
t≥0
⇒ Nt Poisson-Verteilt mit Parameter λt:
E(Nt ) = λt
Erneuerungsfunktion H (t) = E(Nt ) :
Allgemein: λt − 1 ≤ H (t) ≤ λt + λ 2 σ 2 mit E(Ti ) =
Verteilungen (s. unten)
H (t) ≤ λt
1
2
λ, σ
= Var(Ti ) Insbesondere IFR-
Beispiel: µ = E(Ti ) = 10, σ 2 = Var(Ti ) = 9, t = 35
ges: H (t) für
1. Exp-Verteilung
2. allg.
3. IFR-Verteilung
Zu 1): H (t) = λt = 3, 5 y λ =
Zu 2): 2, 5 ≤ H (t) ≤ 2, 59
Zu 3): H (t) ≤ 3, 5
1
E (Ti )
=
1
µ
=
1
10
2.1.3 Die Ausfallrate
• X- Lebensdauer“ eines Bauteils mit Verteilungsfunktion
”
P(X ≤ t) = F (t)
Ausfallwahrscheinlichkeit.
Dichtefunktion f (t) = F 0 (t) offenbar F (0) = 0 bzw. F (t) = 0, ∀t ≤ 0
R∞
Mittlere Lebensdauer T0 = E(X ) = t f (t) dt
0
23
• Bedingte Wahrscheinlichkeit, dass Bauteil im Intervall (t; t + ∆t] ausfällt, wenn es
bis t funktioniert hat?
B
A
z }|
{ z }|
{
P(X ≤ t + ∆t ∩ X > t) P(t < X ≤t+∆t ) F (t+∆t )−F (t )
P(X
t + ∆t
X > t) =
= 1−P(X ≤t ) =
1−F (t )
| ≤{z
} | |{z}
P(X > t)
|
{z
}
A
B
P(X ≤t+∆t | X >t )
∆t
∆t→0
r (t) := lim
A
= lim
∆t→0
F (t+∆t )−F (t )
1
∆t
1−F (t )
r (t)
Umgekehrt r (t) → F (t) : )
F̄ (t) =
1 − F (t)
⇒ r (t) =
0
0
F̄ (t) = −F (t) = − f (t)
F̄ 0 (t) + r (t) F̄ (t) = 0
lineare homogene DGL. 1. Ordnung
− F̄ 0 (t )
|
F̄ (t )
F̄ (t) = Ce
−
Rt
y r (t) =
f (t )
r −F (t )
D.h. F (t) →
·F
r (t ) dt
0
F̄ (0) = 1 − F (0) = 1 y F̄ (0) = C = 1 ⇒ F̄ (t) = e
−
Rt
r (t ) dt
y F (t)
0
Typische Modelle
1. r (t) = α βt β−1 (t ≥ 0), α, β ≥ 0 Weiball-Verteilung
offenbar für β > 1 : r (t) streng monoton wachsend
β = 1 : r (t) = α = const
β < 1 : r (t) streng monoton fallend
Verteilungsfunktion F (t) = 1− F̄ (t) = 1−e
β
1 − e−αt
−
Rt
0
r (t ) dt
= 1−e
−
Rt
0
β = 1 Exponentialverteilung (ohne Gedächtnis) (r (t) = α)
β = 2 r (t) = 2αt Rayleigh-Verteilung
2. Hjarth-Verteilung
γ
1 + βt
r (t) = αt +
Spezialfälle
1. α = β = 0 r (t) = γ Exponential-Verteilung
2. γ = 0, r (t) = αt Rayleigh-Verteilung
3 Phasen Badewannenkurve
1. Frühfehler: r (t) hoch, nimmt ab
2. Zufallsfehler r (t) ≈ const
3. Altererscheinung r (t) wächst
24
α, β, γ ≥ 0
α βt β−1 dt
= 1−e
−α β t β t
|0
β
=
2.2 Warteschlagentheorie
2.2.1 Grundbegriffe
Mittlere Pausenzeit m A bzw. λ = m1A -Intensität des Forderungsstroms
Mittlere Bedienungszeit m B bzw. µ = m1B -Bedieungsintensität
2.2.2 Das Warteschlangensystem M |M |1
1 , 1 Bediener
unbegrenzte Bedienzeiten: M ( Markowsch“); Unabhängigkeit!
”
Pausenzeiten - Exponentialverteilt mit Parameter λ
Bedienzeiten - Exponentialverteilt mit Paramter µ
Sei Nt (t ≥ 0)- Anzahl der Forderungen im System zu Zeitpunkt t
P(Nt = i) =: Pi (t), i = 0, 1, 2, . . .
)
Es gilt P0 (t + ∆t) = (1 − λ∆t)P0 (t) + µ∆tP1 (t) + o(∆t) mit lim o (∆t
∆t = 0
∆t→0
Nachweis Formel der totalen Wahrscheinlichkeit
X
P( A|Bi )P(Bi )
P( A) =
i
mit A-System zum Zeitpunkt t + ∆t leer , P0 (t + ∆t)
B0 -System zum Zeitpunkt t leer , P0 (t)
B1 -System zum Zeitpunkt t = 1 leer , P1 (t)
Es gilt : P( A|B0 ) = P( zu (t; t + ∆t] keine Forderung“) = P(Restpausenzeit > ∆t) =
”
1 − P(Restpausenzeit ≤ ∆t)
= 1 − (1 − e−λ∆t ) = e−λ∆t = (Taylor-Reihe)
= 1 − λ∆t + o(∆t)
Analog P( A|B1 ) = µ∆t + o(∆t)
D.h. ∗) ⇒ P0 (t + ∆t) = [1 − λ∆t + o(∆t)]P0 (t) + [µ∆t + o(∆t)]P1 (t) = (1 − λ∆t)P0 (t) +
µ∆tP1 (t) + o(∆t)
1 → 1 Pausen und Bedienzeit laufen nicht ab [1 − λ∆t − o(∆t)] · [1 − µ∆t − o(∆t)] = 1 − λ∆t − µ∆t + o(
1 ↔ i y Pi (t + ∆t) = λ∆tPi−1 (t) + (1 − λ∆t − µ∆t)Pi (t) + µ∆tPi+1 (t) + o(∆t), i = 1, 2, . . .
Differenzengleichungen mit Po (t + ∆t) − Po (t) = −λ∆tPo (t) + µ∆tP1 (t) + o(∆t)| : ∆t → 0
0
Po (t) = −λPo (t) + µP1 (t) (1)
Pi0 (t) = λPi−1 (t) − (λ + µ)Pi (t) + µPi+1 (t) (2)
unendliches Dgl-System. Lösung Schwierig! Speziallfall: Stationärer Fall: Pi (t) = Pi ∀t
y Pi0 (t) = 0, i = 0, 1, 2, . . .
Gleichungssystem: 0 = −λP0 + µP1 (10 )
i = 1 0 = λP0 − (λ + µ)P1 + µP2 (2a 0 )
0 = λPi−1 − (λ + µ)Pi + µPi+1 (2b0 ) i = 2, 3, . . .
(10 ) ⇒ P1 = λµ P0
In (2a 0 ) : 0 = µP1 − (λ + µ)P1 + µP2
25
λP0 = µP1 y P2 = λµ P1
λP1 = µP2 in (2b0 ) : 0 = µP2 − (λ + µ)P2 + µP3 y P3 λµ P2
⇒ Pi =
λ
Pi−1
µ
i = 1, 2, . . .
Setzen % = λµ : Pi = %Pi−1, i = 1, 2, · · · ⇒ Pi = %i P0, i = 1, 2, . . .
∞
∞
∞
P
P
P
1
wegen
Pi = 1 :
Pi =
%i P0 = P0 1−%
, | %| < 1 = 1
i=0
i=0
(3)
i=0
y P0 = 1 − %, % < 1 (4)
Anmerkungen: Für % = λµ ≥ 1 ergibt keine vernünftige Lösung, d.h. λ ≥ µ (Intensität
des Forderungsstrom größer gleich der Bedienintensität)
Mittlere Anzahl warteneder Forderungen
∞
∞
P
P
%2
%2
m L = (i − 1)Pi = (i − 1) %i · (1 − %) = 1 − % (1−%)
2 = 1−%
i=1
i=1
Mittlere Wartezeit m w einer Forderung::
%2
m L = λm w (Formel von Little) m w = 1−%)λ
=
%2
(1−%)% µ
=
%
(1−%) µ
(6)
2.2.3 Weitere Modelle
2.3 Empirische Statistikmodelle
2.3.1 Statistische Schätzung von Verteilungsfunktion u. Dichtefunktion
1. Verteilungsfunktion F (t) = P(X ≤ t)
2. Dichtefunktion
2.3.2 Simulation von Zufallsvorgängen
F (x) bekannt
Simulation
1. Erzeugung (uniformer) Zufallszahlen u ∈ [0; 1]
2. Ermittlung des zu u gehörigen Wertes F (x)
Zu 1) Peseudo-Zufallszahlen zu 2)
1. Diskrete Zufallsgrößen
Beispiel: u =, 6 Würfeln X-Augenzahl
pi = P(X = x i ) = P(X i ) = 16 ; i = 1, 2, . . . , 6
p1 + p2 + p3 = 36 < u < p1 + p2 + p4 + p4 =
yX =4
4
6
2. Stetige Zufallsgröße
F (x) = u ⇒ x = F −1 (u) (Inversionsmethode)
26
Beispiel: Exponentialverteilung:
F (x) = 1 − e−λ x , x ≥ 0
1 − e−λ x = u
1 − u = e−λ x |ln
−λ x = ln (1 − u) y x = − λ1 ln (1 − u)
| {z }
∈(0;1]
⇒ x = − λ1 ln u
Normalverteilung 12er-Regel Z =
12
P
i=1
ui − 6 , N (0, 1)-verteilte Zufallsgröße x belie-
big normalverteilt, d.h. N (µ, %2 ) : x = z % + µ ∼
x−µ
%
: N (0, 1)-verteilt
2.3.3 Die Monte-Carlo-Methode
Beispiel: Störungsfreie Funktion einer Anlage Strom und Blattplan
Expnentialverteilung
H0 : λ =
1
7
1
H1 : λ , ,
7
α = 0, 05
Monte-Carlo-Test
1. Weitere 999 Werte für x̄ (aus Stichprobe mit 32 Werten):
32
32
32
32
Q
P
P
ln u i
1 P
1
=
−
ln
ui
x i = − n1
ln
u
=
−
x̄ = n1
i
λ
nλ
32λ
i=1
i=1
i=1
i=1
2. ordnen nach Größen x¯1 ≤ x¯2 ≤ · · · ≤ x 999 ≤ x 100
3. Falls x¯0 ≤ x 25 oder x̄ ≥ x 976 , dann Ablehnung von H0 Speziell: 480 Werte. x¯0 ≥
x 25 = N>, x¯0 ≤ x 455 = N< y H0 bleibt
2.3.4 Konfidenzintervalle bei nichtnormalverteilter Grundgesamtheit
1. Zentraler Grenzwertsatz:
X − E(X ) √
n → N (0, 1) für n → ∞
S
Für große n: P(−z α2 ≤
−z α2
|{z}
√S
n
− X ≤ −E(X )
X −E (X ) √
n ≤ z α2 ) =
S
≤ z α2 √Sn − X | · (−1)
d
X − d ≥ E(X ) ≥ X − d
⇒ X − d ≤ E(X ) ≤ X + d
⇒ d = z α2 √Sn
27
1 − α − z α2 ≤
X −E (X ) √
n
S
≤ z α2 | ·
√S |
n
−X
Beispiel (siehe oben) x̄ = 5, 04; s = 4, 67, n = 32, α = 0, 05
E(X ) ∈ (3, 42; 6, 66) = 7
z α2 = 1, 96 : µ =
Anmerkung: n identisch exponentialverteile Größen deren Summe: Gamma-Verteilung
X
mit α = n: Konfidenzintervall [ χ2n
; χ 22n X ] χ264; α = 88; χ264;1− α = 43, 8 ⇒
2
2n ; α
2
2 n ;1− α
2
2
2
2. MonteCarlo-Methode
• Verteilung bekannt: analog µ ∈ [X 25 ; X 976 ], α = 0, 05
• Boostrap-Konfidenzinterval
z.B. α = 0, 05, ub = 1000; n = 32
µ ∈ (3, 57; 6, 78) = 7
Normalverteilung < Boostrap < Exponentialverteilung
2.3.5 Parameterfreie Test
unabhängig von einer Verteilung, Schnelltests“ Stichprobe 1: Zufallsgröße X
”
Stichprobe 2: Zufallsgröße Y
p1 = P(X > Y ), p2 = P(X < Y )
1. Vorzeichentest
H0 : p1 = p2 (= 21 )H1 : p1 , p2
T : x i > yi - Anzahl der Paare
ja
H0 ablehnen → H1 gilt
T ∈ K - Krit. Bereich
nein
H0 bleibt
Beispiel: Schwierige Messungen mit Apparaten 1 und 2, gelungen , 1; misslungen
,0
H0 : p1 ≤ p2 H1 : p1 > p2 (Fall c);α = 0, 05
T = 4; m = n = 7
Krit. Bereich K:
a) k = 2 (Gleichheit)
b) c 0 ∈ {0; 1; 2; 3; 4; 5}
c 0 : F (c 0 ) ≤ α, F (c 0 + 1) > α : Tab. 1
n = 7 : F (0)0, 008; F (1) = 0, 063 > α y c 0 = 0
Ablehnung von H0 : T ∈ {m − k − c 0; m − k} = {5} f.A. → keine Ablehnung von H0
2. U-Test (nach Wilconxon, Mann, Whitney) Rangsummen
Beispiel m = 6 Beobachtungen vom Typ A(, X )
n = 5 Beobachtungen von Typ B(, Y )
Werte
28
Werte
63 68 70
Herkunft A A A
1 2 3
Ränge
Rangsume A : R1 = 30, B
71
A
4
: R2
91 92 95 96 97 99 104
B B B B A B
A
5 6 7 8 9 10 11
= 36
Testgröße u1 = mn + m(m+1)
− R1 = z1
2
n(n+1)
9
u2 = mn + 2 − R2 = 30=mn
U = min(U1 ; U2 ) = 9
Krit. Bereich (Variante A : m < 8 oder n < 8):
Fall a) H0 : p1 = p2 H1 : p1 , p2
U ≤ U (m; n; α; zweiseitig) = 3 f.A. y keine Ablehnung
2.4 Statistik für mehrere Zufallsgrößen
2.4.1 Partielle Korrelationskoeffizienten
> 2 Zufallsgrößen x, y, z, . . .
|r × y| ≈ 1 → x, y abhängig usw.
Beispiel Y : Geburtenanzahl in D (seit 1950)
X : Störche in D, Scheinkorrelation
3. Größe: Z: Zivilisation“ (Anzahl der Autos o.ä.), Z ↑→ X ↓, Y ↓
”
Part. Korrelationskoeff. r 1,2;p usw.
Beispiel Körpermaße von Studenten
|r i, j;p | ≥ 0, 8 ∼ Abhängigkeit
2.4.2 Clusteranalyse
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→
−−−−−−−−→
~ −
Schema: Objekte Messung Mesdaten X
Zusammenfsg., Messdatenextraktion Merkmale
~ → Cluster
m
Beispiel X1 Alter (Jahre)
X2 Betriebszugehörigkeit(Jahre)
X3 Arbeitsdauer im Ausland (Monate)
X4 Patente
Personen\Merkmal x 1 x 2 x 3 x 4
A
25 1 6 1
B
30 6 3 2
C
35 2 48 5
D
45 15 13 0
E
55 11 0 2
ges: Cluster“
”
Lösung:
29
1. Z-Transformation
zi j =
X i j − X̄ o j
sj
j-Merkmals-Nr., i-Objekt-Nr.
X̄ o1 = X̄1 = 38, X̄ o2 = X̄ − 2n = 7, X̄03 = X̄3 = 14
n
1 P
X̄ o4 = X̄4 = 2; s2 = n−1
(x i − x̄ j ) 2
i=1
s21 = 145 → s1 = 12, 04; s2 = 5, 90; s3 = 19, 61; s4 = 1, 87
z11 = x11s−1x̄ o 1 = 25−38
12,04 = −1, 08
Pers.\Merk.
X1
X2
X3
X4
A
−1, 08 −1, 01 −0, 41 −0, 53
B
−0, 66 −0, 17 −0, 56
0
, M (z i j )
C
−0, 25 −0, 84 1, 73
1, 60
D
0, 58
1, 34 −0, 05 −1, 07
E
1, 41
0, 67 −0, 71
0
2. Abstände zw. Objekten Oi , Ok
p
d ik = (z i1 − z k1 ) 2 + · · · + (z i m − z k m ) 2
m . . . Spaltenanzahl
p
z.B. d 12 = (−1, 08 + 0, 66) 2 + (−1, 01 + 0, 17) 2 + · · · + (−0, 53 + 0) 2
0
1, 09 3, 14 2, 95 3, 06
+
*.
1,
09
0
2, 90 2, 29 2, 24 //
..
0
3, 97 3, 68 ///
(d ik ) = .. 3, 14 2, 90
.. 2, 95 2, 29 3, 97
0
1, 65 //
0 , 3, 06 2, 24 3, 68 1, 65
3. Cluster-Bildung (Average-Linkage-Verfahren)
a) 1)2) → 1; 09
neu
0
3, 62 2, 62 2, 65
+/ ”
*.
3,
62
0
3,
97
3,
68
/
(1)d ik = ..
0
1, 65 //
. 2, 62 3, 97
0 , 2, 65 3, 68 1, 65
b) 4)5) (alt)
0
3, 02 2, 64
1+2
*.
+/
3,
02
0
3,
82
(2)d ik = .
/ 3
0 - 4+5
, 2, 64 3, 82
c) 1)2) + 4)5)
!
0
3, 42
1, 2 + 4, 5
(3)d ik =
3, 42
0
3
1“ (alt 1 + 2)
alt 3
alt 4
alt 5
d) Dendrogramm
Interpretation (2) AB,DE,C; junge, alte, kreative (3) ABDE,C; Normale“
”
30
2.5 Prognose- und Entscheidungsprobleme
2.5.1 Anzahl von Fehlern
Beispiel Korrekturlesen einer Arbeit
Gesamtfehler (Anzahl): E
Fehler, die 1. Korrekturleser entdeckt: A
Fehler, die 2. Korrekturleser entdeckt: B
Fehler die 1. und 2. Korrekturleser entdeckt: C
Noch nicht gefundene Fehler ∆F
∆F = E − A − B + C
Wahrscheinlichkeit, dass 1. Fehler fand: p = EA , A = pE
Wahrscheinlichkeit, dass 2. Fehler fand: q = EB , B = qE
r=C
= P( 1“) · P( 2“) = pq
E = P(”1“ ∩ ”2“) |{z}
”
”
Unabh.
Andererseits AB = (pE)(qE) = pqE 2 ; CE = pqE 2
→ AB = CE y E = AB
C
2
Folglich ∆F = AB
−
A
− B + C = AB− AC−BC+C
=
C
C
A(B−C )+C (B−C )
C
2.5.2 Statistische Zukunftsabschätzungen
Kopernikanisches Prinzip“: Prinzip der Mittelmäßigkeit
”
∼ Gleichverteilung
t 1 = t verg. + t zukunft
τ = t vert ver
+t z u k ∈ (0; 1) Zufallszahl
α
P( 2 ≤ τ ≤ 1 − α2 ) = 1 − α τ-Irrtumswahrscheinlichkeit
α
α
2 ≤ τ ≤ 1− 2
t ver + t zuk
2
2
≥ 2−α
|−1
α ≥
t ver
| {z }
t
uk
1+ t zver
2
−1 ≥
α
|{z}
2−α
α
α
2−α
t
tzuk
t ver
≥
2
−1
2
−
α }
| {z
2−(2−α)
α
2−α = 2−α
uk
≤ t zver
≤ 2−α
α
t uk
α = 0, 5 : 13 ≤ t zver
≤ 3 y 13 t ver ≤ t zuk ≤ 3t ver
t uk
1
1
α = 0, 05 : 39
≤ t zver
≤ 39 y 39
t ver ≤ t zuk ≤ 39t ver
Beispiel J.R. Gott 1969 Berlin
1. Mauer α = 0, 5 : [ 38 ; 24J]
2. Hitler 1934 Tausendjähriges Reich“
”
31
=
( A−C )(B−C )
C
3. Broadway 1993“: Cats“ 10J
”
”
4. Diskrete Ereignisse: Scheiffsreisen, u.ä.
Prognose: Dauer der Menscheit
2.5.3 Sekretärinnenproblem
Aufgabe: Besten von n Bewerbern finden bei sofortigen Entscheidungen
Optimale Strategie
1. r von n Kandidaten ansehen (r < n) und ablehnen
2. Ersten der verbleibenden n − r Kandidaten wählen, der besser ist als der Beste der
r Vorgänger
Ges: r so, dass Wahrsch. Besten zu finden → Max
Lösung: B- Bester gefunden“
”
Ak - Bester ist an der Stelle k“
”
n
P
P(B) =
P( Ak )P(B| Ak ) mit P( Ak )
i=1
mit P( Ak ) = n1 , k = 1, . . . , n
(
0 für k ≤ r
P(B| Ak ) =
r
∗)
k−1 für k > r
n−1
n
P
r P 1
1 r
y P(B) =
n k−1 = n
k ≈
k=r +1
k=r
r
n
Rn
r
1
x
dx =
r
n
ln x|rn =
r
n
ln nr =
r
n
ln( nr ) −1 =
r
n
ln nr →
Max!
f (x) = 1x , x ∈ [r; n]
r
n =: t : g(t) = −t ln t → Max
g 0 (t) = − ln t − tt = 0
− ln −1 = 0
−1 = ln t
t = e−1
D.h. nr = e1 y r = ne (37 % Regel) r zweitbester
Modifizierte Aufgabe r so, dass nur möglichst guter Kandidat gewählt wird ∼ Simulation
n = 100 vorgegeben
B j Platz des Ausgewählten Gute“
”
m
1 X
B j min
B j (r) = M
1≤r ≤n m
j=1
32
2.5.4 Sammelbildproblem
Aufgabe: Serie mit n verschiedenen Motiven: Vollständig!
Annahme: Gleichverteilung! x i - nach (i − 1) verschiedene Karten: neue i-te
p1 = P(X1 = 1) = 1
p2 = P(X2 = 1) = n−1
n
pi = P(X i = 1) = n−(i−1)
i = 1, 2, . . . n
n
k−1
P(X i = k) = (1 − pi ) pi geometr. Verteilung
n
dabei E(X i ) = p1i = n−(i−1)
var (X i ) = p12 − p1i
i
n
P
Gesamtversuche X =
Xi
y µ = E(x) = E(
= n( n1 +
1
n−1
i=1
n
P
i=1
+···+
Xi ) =
1
2
n
P
i=1
E(x i ) =
+ 11 ) = n
n
X
1
i
i=1
|{z}
n
n
+
n
n−1
+
n
n−2
+···+
n
2
+
n
1
≈ n(ln (n) + 0, 577)
Hn
σ 2 = var (x) :
n
P
i=1
1
p 2i
n 2
= ( nn ) 2 + ( n−1
) + · · · + ( n1 ) 2 = n2
n
P
i=1
1
i2
≈ n2 [ π6 −
2
1
n+1 ]
1
y σ 2 ≈ n2 [ π6 − n+1
] − n[ln n + 0, 577]
Logistisches Wachstum Andere Herleitung: In (1): λ = γ − τ
γ Geburtenrate, τ Todesrate
dP
2
2 0
In (1): dP
dt = (γ − τ)P = γP − τP − τP ⇒ dt = γP − τP (4 ) mit γ = λK, τ = λ ⇒ K =
2
γ
τ
Untersuchung von (4):
• Ende des Wachstums:
dP
dt
=0→K =P
• P(t) wächst streng, falls P0 < K
• P(t) sinkt stetig, falls P0 > k
• Änderungsrate Ṗ = dP
dt → P̈ = λ Ṗ(K − P) − λP Ṗ = λ Ṗ(K − 2P) > 0
Für P0 < K2 : P̈ > 0 : Ṗ ↑
P0 > K2 : P̈ < 0 : Ṗ ↓
2.5.5 Gleichgewichtsprobleme
Räuber-Beute-Modell B- Beutepopulation R- Räuberpopulation
Analog B = α2 B − β2 RB (α k , βk > 0)
Anfangsbed. R(0) = R0, B(0) = B0 (1b)
Dgl.-System; nicht linear
Wettbewerbsmodell 2 Populationen P1, P2 ; beschränkte völlig verschiedene Ressourcen R1, R2 ⇒ P˙k = α k Pk − βk pk2 K = 1, 2 (logistische Gleichung)
33
Falls Wettbewerb um Ressourcen: R1 = R2
→ Ṗ1 = α1 P1 − β1 P12 − γ1 P1 P2
Ṗ2 = α2 P2 − β2 P22 − γ2 P1 P2
mit P1 (0) = P10, P2 (0) = P20
Qualitative Theorie R , x, B , y:
Ẋ = −α1 x + β1 x y (3a)
Ẏ = α2 y − β2 x y
mit X (0) = x 0, Y (0) = y0 (3b)
Lösung in Parameterdarstellung möglich: x = x(t), y = y(t), t ≥ 0
1. Gibt es eine stationäre Population? (Trajektorie)
D.h. x(T )0ξ, y(t) = η
y ẋ(t) = ẏ(t) = 0
In (3a): −α1 ξ + β1 ξη = 0 ⇔ ξ (−α1 + β1 η) = 0
α2 η − β2 ξη = 0 ⇔ η(α2 − β2 ξ) = 0
y ξ1 = η 1 = 0 entfällt
⇒ η 2 = αβ11 ; ξ2 = αβ22 y Gleichgewichtspunkt (ξ2, η 2 )
2. Allgemein: Falls ẋ(t 0 ) = ẏ(t 0 ) = 0 → Stationärer Fall!
Folglich ẋ 2 (t 0 ) + ẏ 2 (t 0 ) > 0
Annahme: ẋ(t 0 ) , 0 (anderer Fall: analog!)
• ẋ(t) , 0 in Umgebung von t 0
• y(t) kann als Funktion von x(t) aufgefasst werden
dy
dx
=
dy
dt
dx
dt
=
α 2 y−β 2 x y
−α 1 x+β 1 x y
=
α 2 −β 2 x
y
x
−α 1 +β 1 y
Trennung der Variablen | · dx| ·
−α 1 +β 1 y
2x
dy = α2 −β
dx
y
x
R
−α 1 +β 1 y
α 2 −β 2 x
dy =
y
x
−α 1 +β 1 y
y
R
dx
−α1 ln y + β1 y = α2 ln x − β2 x + c(4)
3. Schlußfolgerungen, Bsp:
α1 = 0, 008; α2 = 1, 0
β1 = 0, 000001, β2 = 0, 002
x(0) = 500; y(0) = 700
Trajektorie lässt sich numerisch generieren!
Interpretation der Trajektorie:
a) minimale Raubpopulation R: B ↑⇒ R ↑
b) R übermächtig B ↓
c) Schwindene Nahrungsvorräte für R : R ↓
d) Schonzeit für B : B ↑
34
4. Umlaufzeit Durschnittliche Größe von x(R) und y(B): x̄ :=
1
T
RT
x(t) dt, ȳ :=
0
Betrachten
RT
(α2 − β2x) dt =
0
RT
ẏ
y
0
α 2T = β2
RT
y(t) dt
0
dt = ln y|0T |{z}
=
0
y (T )=y (0)
ẏ = α2 y − β2 x y
RT
RT
⇒ α2 dt = β2 x dt
0
1
T
0
RT
0
x(t) dt y
RT
x(t) dt =
0
α2T
β2
⇒ x̄ = αβ22 Analog: ȳ = αβ11
Fazit: Um ( αβ22 , αβ11 ) kreist Trajektorie
2.5.6 Partielle Differentialgleichungen
R
Beispiel
z
=
z(x,
y)z
=
h(y)|
. . . dx
x
R
z = h(y) dx = h(y)x + g(y)
Fazit: Lösungen sind abhängig von beliebigen Faktoren
2.5.7 Wichtige partielle Dgl
Grundlage: Erhaltungssätze
Gebiet Quantität von u in G
Änderung von u = Fluss durch den Randvon G + Entstehen bzw. Versiegen im Inneren
Φ1
*.
+
∂u
3
R : ∂t + divΦ = f (t, x, y, z) mit Φ = . Φ2 // Fluss der Quantität, f = (t, x, y, z)
, Phi 3 Quellen/Senken in G
(
(Φ1 (u), Φ2 (u), Φ3 (u))T nicht linear
Transport oder Korrektion Φ = Φ(u) =
z(x, y, z)T u - linear

c


*. 1 +/



z
=
. c2 /
mit z(x, y, z) = 



, c3 

,z

Beispiel: Lineare Konvenktionsgleichung mit homogenen Materialien in R2
35
Herunterladen