Skriptum Mathematische/Stochastische Modelle Markus Klemm.net SS 2016 Inhaltsverzeichnis 1 Fuzzy Logik 1.1 Unscharfe Menge . . . . . . . . . . . . . . . 1.1.1 Definition und Darstellung . . . . . 1.1.2 Einige Eigenschaften und Typen . . 1.1.3 Gleichheit und Teilmengen . . . . . 1.1.4 Klassische Mengenoperationen . . . 1.2 Fuzzy-Control . . . . . . . . . . . . . . . . . 1.2.1 Überblick . . . . . . . . . . . . . . . 1.2.2 Fuzzifizierung . . . . . . . . . . . . . 1.2.3 Inferenz . . . . . . . . . . . . . . . . 1.2.4 Defuzzifizierung . . . . . . . . . . . . 1.2.5 Allgemeine Hinweise . . . . . . . . . 1.2.6 Beispiel Fuzzy-Control . . . . . . . . 1.3 Weiterführende Operationen mit unscharfen 1.3.1 t-Normen und s-Normen . . . . . . . 1.3.2 Interaktive Verknüpfungen . . . . . 1.3.3 Parametrisierte Verknüpfungen . . . 1.3.4 Das Erweiterungsprinzip . . . . . . . 1.4 Unscharfe Maße . . . . . . . . . . . . . . . . 1.4.1 Wahrscheinlichkeit und Möglichkeit 1.4.2 Einige Verallgemeinerungen . . . . . 1.4.3 Unschärfemaße . . . . . . . . . . . . 1.5 Fuzzy-Aussagenlogik . . . . . . . . . . . . . 1.5.1 Grundlagen . . . . . . . . . . . . . . 1.5.2 Logische Gesetze . . . . . . . . . . . 1.5.3 Approximatives Schließen . . . . . . 1.5.4 Spezielle Implikationsoperatoren . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 4 5 6 7 7 7 7 8 8 9 9 9 10 11 12 13 13 15 15 16 16 17 19 20 2 Stochastische Modelle 2.1 Zuverlässigkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Systemzuverlässigkeit . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Erneuerungsprozess . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Die Ausfallrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Warteschlagentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Das Warteschlangensystem M |M |1 . . . . . . . . . . . . . . . . . 2.2.3 Weitere Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Empirische Statistikmodelle . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Statistische Schätzung von Verteilungsfunktion u. Dichtefunktion 2.3.2 Simulation von Zufallsvorgängen . . . . . . . . . . . . . . . . . . 2.3.3 Die Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Konfidenzintervalle bei nichtnormalverteilter Grundgesamtheit . 2.3.5 Parameterfreie Test . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Statistik für mehrere Zufallsgrößen . . . . . . . . . . . . . . . . . . . . . 2.4.1 Partielle Korrelationskoeffizienten . . . . . . . . . . . . . . . . . 2.4.2 Clusteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Prognose- und Entscheidungsprobleme . . . . . . . . . . . . . . . . . . . 2.5.1 Anzahl von Fehlern . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Statistische Zukunftsabschätzungen . . . . . . . . . . . . . . . . 2.5.3 Sekretärinnenproblem . . . . . . . . . . . . . . . . . . . . . . . . 2.5.4 Sammelbildproblem . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.5 Gleichgewichtsprobleme . . . . . . . . . . . . . . . . . . . . . . . 2.5.6 Partielle Differentialgleichungen . . . . . . . . . . . . . . . . . . . 2.5.7 Wichtige partielle Dgl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 21 22 23 25 25 25 26 26 26 26 27 27 28 29 29 29 31 31 31 32 33 33 35 35 Einführung Realer Prozess ⇒ Beobachtung ⇒ Empirische Annahmen ⇒ Math. Modell → Lösung ⇒ Vorraussagen ⇒ Beobachtung Beispiel Radioaktiver Zerfall Annahmen: n ∆n Anzahl der Atomkerne zum Zeitpunkt t n = n(t) Anzahl der zerfallenen Atomkerne im Zeitraum ∆t ∆n ∼ n ⇒ ∆n ∼ n · ∆t ⇒ ∆n = −λn∆t(λ > 0) ∆n ∼ ∆t ∆n = −λn ∆t → 0 ∆t dn ∆n = lim = −λn dt ∆t→0 ∆t n 0 (t) = −λn 2 Diff-Gleichung 1. Ordnung, Anfangsbedingung: n(0) = n0 Lösung n 0 + λn = 0 n = Ce−λt allg. Lösung (C ∈ R) y n = n(t) = n0 e−λt (λ Zerfallskonstante) Halbwertszeit n(T ) = n0 e−λT = n20 e−λT = 12 −λT = ln 12 = ln 1 − ln 2 λ = lnT2 Deterministische Modelle DGL Stochastische Modelle ∼ Verteilungsfunktion Unscharfe Modelle Fuzzy Logik 1 Fuzzy Logik 1.1 Unscharfe Menge 1.1.1 Definition und Darstellung (Klassische) Menge A: Entweder x ∈ A oder x < A Beispiel A = { junge Frauen } x n - n-jährige Frau x 20 ∈ A, x 30 ∈ A(?), x 29 ∈ A, x 30 < A?? Zugehörigkeitsgrad µ A (x) ∈ [0; 1] Maß für Mitgliedschaft von x in A Beispiel µ A (20) = 1, µ A (30) = 0, 7, µa (40) = 0, 3, (x n , n) Zugehörigkeitsfunktion x → (µ A (x), x ∈ G {(x, µ A (x)) : x ∈ G, µ A (x) ∈ [0, 1]} Unscharfe Menge A oder Fuzzy Menge A Bezeichnungen A,B, JUNG, ALT. . . Darstellungen 1. Wertetabelle G = { Städte in D }, SCHÖN , schöne Stadt“ ” µ~A = (0, 3; 0, 5; 0, 6; 0, 7) 3 (1) 2. Analytisch (Funktionsgleichung Beispiel A = NAHENULL : x ≈ 0 1 µ A (x) = 1+x 2 (x ∈ R) 3. Grafisch G : { Lebensalter } , [0, 100]; A-JUNG Spezielle unscharfe Mengen • Leere Menge ∅ : µ∅ (x) = 0 ∀x ∈ G • Universalmenge E : µ E (x) = 1 ∀x ∈ G ( 0 x<A • scharfe Menge A : µ A (x) = 1 x∈A Symbolische Darstellung: 1. G diskret A = R 2. G stetig µ1 x1 + µ2 x2 +···+ µn xn = n P i=1 µi xi µ A (x) x ∈G x 1.1.2 Einige Eigenschaften und Typen Höhe einer unscharfen Menge A h( A) = sup µ A (x) x ∈G h( A) = 1 normalisiert Normalisierung µ∗A (x) = µ A (x) h( A) Mächtigkeit von A 1. G endlich : card( A) = P µ A (x) x ∈G 2. G unendlich: card( A) = R µ A (x)dx G Relative Mächtigkeit 1. cardG ( A) = card( A) , N 2. cardG ( A) = card( R A) dx N Anzahl der Elemente von G G α-Niveaumenge: Aα = {x ∈ G : µ A (x) ≥ α}, α ∈ [0, 1] strenge α-Niveaumenge: A∗α = {x ∈ G : µ A (x) > α} Träger von A: sup A = A∗0 Es gilt A scharfe Menge (, ∅) ⇔ µ A (x) = 1 ∀x ∈ sup A 4 Beispiel G = {a, b, c, d} : A = {a; 0, 9); (b; 0, 2); (c; 0, 5); (d; 0, 1)} α = 0, 1 : A0,1 = {a, b, c, d} α = 0, 2 : A0,2 = {a, b, c} α = 0, 5 : A0,5 = {a, c} α = 0, 9 : A0,9 = {a} Es gilt α1 ≤ α2 → Aα2 ⊂ Aα1 ∀α1 α2 ∈ [0; 1] Repräsentationssatz µ A (x) = sup (min(α; µ A α (x)) α Erläuterung: Beispiel siehe oben: x = b ∀α ∈ [0; 0, 2] : b ∈ Aα ⇒ µ A α (b) = 1 ∀α ∈ (0, 2; 1) : b < Aα ⇒ µ A α (b) = 0 d.h. min(α; µ A α (b)) = α für α ∈ [0; 0, 2] min(α; µ A α (b)) = 0 für α ∈ (0, 2; 1] y sup (min(α; µ A α (b)) = sup α = 0, 2 α ∈ [0; 0, 2] = µ A (b) α Wichtige Typen von Fuzzy-Mengen Grundmenge G = [a; b] ( stückweise linear 1. µ A (x) monoton wachsend S-förmig , kubische Parabel 2. µ A (x) monoton fallend 3. µ A dreiecksförmig 4. µ A trapezförmig µ−µ 1 x−x 1 x−c 1 m−c 1 Analytisch Geradengleichung x ∈ [c1 ; m] : x ∈ [m; c2 ] : y µ= x−c 2 m−c 2 µ−0 x−c 1 µ−0 x−c 2 = = = 1−0 m−c 1 , 1−0 m−c 2 c 2 −x c 2 −m µ= µ A (x) = 0 x−c 1 m−c 1 c 2 −x c 2 −m = µ 2 −µ 1 x 2 −x 1 , x ∈ [a; c1 ] ∪ [c2, b] , x ∈ [c1 ; m] , x ∈ [m; c2 ] 1.1.3 Gleichheit und Teilmengen Gleichheit A = B ⇔ µ A (x) = µ B (x) ∀x ∈ G Teilmengen A ⊂ B ⇔ µ A (x) ≤ µ B (x) ∀x ∈ G offenbar ∅ ⊂ A ⊂ E ∀A; A ⊂ B ∧ B ⊂ A ⇔ A = B 5 Beispiel Wassertemperaturen im Freibad G = {18; 19; . . . ; 24} WARM = {(18; 0, 2); (19; 0, 3); (20; 0, 4); (21; 0, 5); (22; 0, 7); (23; 0, 9); (24; 1)} LAU = {(18; 0, 3); (19; 0, 4); (20; 0, 6); (21; 0, 8); (22; 1); (23; 1); (24; 1) ⇒ WARM ⊂ LAU Konzentrationen konn A =p{(x; [µ A (x)]n ), x ∈ G} Dilatationen diln A = {(x; n µ A (x)), x ∈ G} Es gilt konn A ⊂ konm A ⊂ A ⊂ dilm A ⊂ diln A für 1 < m < n Sprachliche Verstärkung ⇒ numerische Abschwächung und umgekehrt Beispiel A = NAHE NULL 2 µ A (x) = e−x 2 B = kon3 A = [µ A (x)]3 = e−3x 1 C = dil3 A = [µ A (x)] 3 = e− x2 3 Linguistische Modifikationen Beispiel A = SCHÖNE STADT 1.1.4 Klassische Mengenoperationen Vereinigung ( oder“): C = A ∪ B : µC (x) = max(µ A (x); µ B (x)) ” Durchschnitt ( und“): D = A ∩ B : µ D (x) min(µ A (x), µ B (x)) ” Komplement ( nicht“): AC = A : µCA (x) = 1 − µ A (x) ” Beispiel Computerproduktion G = {4; 5; 6; 7; 8; 9} Vertretbare Produktionskosten A = {(4; 0); (5; 0, 1); (6; 0, 5); (7; 1); (8; 0, 8); (9; 0)} Absetzbarkeit (pro Tag) B = {(4; 1); (5; 0, 9); (6; 0, 8); (7; 0, 4); (8; 0, 1); (9; 0)} Mengengesetze Anmerkung 1. ∩ → ∪, E → ∅ z.B. A ∩ ∅ = ∅ ⇔ A ∪ E = E 2. Nachweis, z.B. A ∩ ( A ∪ B) = A tatsächlich µ LS (x) = min(µ A (x), max(µ A (x), µ B (x))) = µ A (x) = µ RS (x) Fallunterscheidung: µ A (x) =: a, µ B (x) =: b a) a ≤ b : µ LS (x) = min(a, max(a, b) ) = a | {z } =b b) a > b : µ LS (x) = min(a, max(a, b) ) = a | {z } =a 6 Nicht-interaktiv Kartesisches Produkt C = A ⊗ B µC ((a, b)) = min{ µ A (a), µ B (b)} ∀(a; b) ∈ X × Y Beispiel A = {(a; 0, 7)); (c; 0, 8)}, B = {(b; 1); (c; 0, 3)} X = Y {a; b; c} ⇒ A ⊗ B = {((a; b); 0, 7); ((a, c); 0, 3); ((c; b); 0, 8); ((c, c); 0, 3)} 1.2 Fuzzy-Control 1.2.1 Überblick Klassisch • Steuergröße u(t) • Prozess F (x, u, t) • Zustandsgröße x(t) Zusätzliches Ziel Zt1 0 f (x, u, t) | {z } dt → min Kostenfunktion Nachteile • Exaktes math. Modell (F-Dgl.) oft schwierig aufzustellen, nur wichtige Zusammenhänge berücksichtigbar • Lösung oft nur näherungsweise möglich • keine Robustheit der Lösung 1.2.2 Fuzzifizierung 1.2.3 Inferenz monokausal 1. Verarbeitungsregeln (Zustand) (Steuerung) Badewasser Zulaufwasser KÜHL HEISS WARM WARM HEISS KÜHL 7 2. Zugehörigkeitsgrade µ K ALT (Z, W ) = 0 µ KU E H L (Z, W ) = µ H E I S S (32) = 0, 4 µW AR M (Z, W ) = µW AR M (32) = 0, 6 µ H E I S S (Z, W ) = µ KU E H L (32) = 0 3. Bestimmen der Inferenzmenge 1.2.4 Defuzzifizierung 1. Zweidimensional a) Maximum-Mittelwert-Mehtode u∗ = α+ β = 40◦ 2 b) Schwerpunktmethode Rb u = ∗ u f (u) du a Rb f (u) du a 2. Eindimensional a) Singletons n P ui µ i 30 · 0, 4 + 40 · 0, 6 = u = P µi 0, 4 + 0, 6 ∗ i=1 b) Teilschwerpunkt = 36◦ P ui µi Ai gi 30 · 0, 4 · 10 + 40 · 0, 6 · 10 ∗ u = P = 36◦ = |{z} 0, 4 · 10 + 0, 6 · 10 µi Ai gi g i =1 1.2.5 Allgemeine Hinweise Schwerpunktmethode i.A. am virteilhaftesten! Nicht-konvexe Inferenzmengen. Beispiel Ausweichen vor Hindernis Fuzzy-Control → Robustheit • versch. Zugehörigkeitsfunktion • ähnliche Messwerte • Inferenz- und Defzuzzifizier-Verfahren 8 1.2.6 Beispiel Fuzzy-Control Aufgabe: Bremesen eines Fahrzeuges Speziell v = 90 kmh−1, x = 100 m 1. Fuzzufuzierung a) Festlegen der unscharfen Mengen, siehe Bild 1,2,3 b) Zugehörigkeitsgrade • µ N I E D R I G (90) = 0, 75, µ M I T T E L (90) = 0, 25 • µ N I E D R I G (100) = 23 ; µ M I T T E L (100) = 1 3 2. Inferenz a) Verarbeitungsregeln y\x klein mittel groß sehr niedrig schwach niedrig schwach mittel mittel hoch stark sehr hoch sehr starck schwach und , ∩ , min oder , ∪ , max : ganze Zeile und Spalte b) Zugehörigkeitsgrade der Ergebnismenge (Bremsdruck) µ SC HW AC H (p) = min(µ N I E D R I G (v), µ M I T T E L (x)) = min(0, 75; 13 ) = 13 µ M I T T E L (p) = min(µ M I T T E L (v), µ M I T T E L (x)) = min(0, 25; 13 ) = 0, 25 µ S E H RST ARK (p) = max(µ S E H R H OC H (v), µ K L E I N (x)) = max(0; 32 = 23 (ggf. Mehrdeutigkeiten beseitigen!) c) Inferenzmenge • Max-Min-Methode: siehe Bild 4 • Singletons 3. Defuzzifizierung a) Max-Mittelwert α = 2 + (2, 5 − 2) · b) Schwerpunkt-Methode c) Singletons p∗ = p∗ 2 3 = 2, 33, β = 3 y p∗ = = 2, 005 1· 31 +1,5·0,25+3· 32 1 2 3 +0,25+ 3 = 2, 16 1.3 Weiterführende Operationen mit unscharfen Mengen 1.3.1 t-Normen und s-Normen u - Durchschnittsoperator t - Vereinigungsoperator A t B = ( AC u BC )C (de Morgan) 9 α+β 2 = 2, 67 Schreibweise µ AuB (x) = t(µ A (x); µ B (x)) µ AtB (x) = s(µ A (x); µ B (x)) künftig: a = µ A (x), b = µ B (x) Aus Axiomen ⇒ t(0; a) = 0 ∀a ∈ [0; 1] Insbesondere: t(0; 0) = 0 Nachweis: 1◦ : t(0; 1) = 0 : 0 ≤ t(0; a) ≤ t(0; 1), ∀a ≤ 1 =0 y t(0; a) = 0 4◦ • s(a, b) = µ AtB (x) = µ ( AC uBC )C (x) = 1 − µ ( AC uBC ) (x) = 1 − t(1 − a, 1 − b)n 1.3.2 Interaktive Verknüpfungen 1. Algebraisches Produkt A · B; µ A (x) =: a usw. algt (a, b) = a · b 2. Beschränktes Produkt A B best (a, b) = max[0; a + b − 1] 3. Drastisches Produkt A ∗ B ( drat (a, b) = min(a, b) 0 Anmerkung 1. A ∩ A = A algt (a; a) = a2 , a (a , 1) 2. Interaktive Beispiel Computer-Produktion x 4 5 6 7 8 a = µ A (x) 0 0, 1 0, 5 1 0, 8 b = µ B (x) 1 0, 9 0, 8 0, 4 0, 1 A∩ B 0 0, 1 0, 5 0, 4 0, 1 A· B 0 0, 09 0, 4 0, 4 0, 08 AB 0 0 0, 3 0, 4 0 A∗ B 0 0 0 0, 4 0 Satz drat (a; b) ≤ t(a; b) ≤ min(a; b) 10 9 0 0 0 0 0 0 für a = 1 ∨ b = 1 sonst ( Nachweis drat (a; b) = für a = 1 ∨ b = 1 sonst min(a; b) 0 1. a < 1 ∧ b < 1 : drat (a, b) = 0 ⊆ t(a, b) ∀a, b 2. o.B.d.A. a = 1 : drat (a, b) = b |{z} = t(b, 1) |{z} = t(1, b) ∀b 10 20 y drat (a, b) ⊆ t(a, b) ∀a, b ∈ [0; 1] = a = min(a, b) RS: a ≤ b t(a, b) |{z} ≤ t(a, 1) |{z} 10 40 1.3.3 Parametrisierte Verknüpfungen 1. Hamacher-Operator H pt (a, b) = ab , p ∈ [0; ∞) p + (1 − p)(a + b − ab) Satz 1 H pt monoton fallend bzgl. p ab Speziell: H0t (a, b) = a+b−ab algebraischer t-Quotient t H1 (a, b) = ab = algt (a, b) lim H pt (a, b) = drat (a, b) p→∞ 2. Kompensatorische Operatoren Lücke zwischen ∩ und ∪ schließen Beispiel Kunstsammler A := GUT ERHALTEN; B := WERTVOLL; x = c : Gemälde von Cranach µ A (c) = 0, 2; µ B (c) = 0, 9 Kaufen? und“: µ A∩B (c) = min(a, b) = 0, 2 ” oder“ µ A∪B (c) = max(a, b) = 0, 9 ” 3. min-max-Kompensationsoperator Kγ = [min(a, b)]1−γ [max(a, b)]γ ; γ ∈ [0; 1] 4. konvexer min-max-K.-Operator k Kγ = (1 − γ) min(a, b) + γ max(a, b) Vergleich von Kγ und k Kγ Bezeichnen u = min(a, b), v = max(a, b) : Kγ = u1−γ vγ = u( uv )γ Expotentialfkt bzgl. γ k Kγ = (1 − γ)u + γv = uγ(v − u) lineare Fkt. bzgl. γ Es gilt stets: Kγ (a, b) ≤ k Kγ (a, b) ∀a, b ∈ [0; 1] Sei a ≤ b o.B.d.A.: u = a, v = b; γ = 0 : K0 = a( ba ) 0 = a, k K0 = a 11 γ = 1 : K1 = b, k K1 = b Kγ konvex: Kγ = Kγ (a, b) = a( ba )γ Kγ0 = a( ba )γ ln ( ba ) Kγ00 = a( ba )γ [ln ba ]2 > 0 √ 1 1 Speziell γ = 0, 5 : K0,5 = u 2 v 2 = uv geom. Mittel k K0,5 = u+v arith. Mittel √2 Folglich uv ≤ u+v 2 Abschweifung, Beispiel: Produktion 100 Einheiten (Anfang) 1. Jahr +100% → 200 Einheiten 2. Jahr +0% → 200 Einheiten Arith. Mittel: 50% (beide Jahre) 1. Jahr 150 Einheiten 2. Jahr 225 Einheiten√ Geom. Mittel: √ Nicht √ 100 · 0 Unsinn! Vielfache 2 · 1 = 2 = 1, 41 41% Zuwachs im Durchschnitt 1. Jahr 141 √ 2. Jahr 141 · 2 = 200 1.3.4 Das Erweiterungsprinzip Übergang: NIcht-Fuzzy-Größen ⇒ Fuzzy-Größen Beispiel 1 geg: y = f (x) = x 2 + 1, x ∈ X = {−1; 0; 1; 2} y y ∈ Y = {1; 2; 5} A = {(−1; 0, 5); (0; 0, 08); (1; 1); (2; 0, 4)} ges.: B = f ( A) Lösung: B = {(1; 0, 08); (2; ?); (5; 0, 4)} Erweiterungsprinzip (einfacher Fall) B = f ( A) = {(y, µ B (y))k y = f (x), x ∈ X } ( sup y = f (x) µ A (x) falls ∃y = f (x) mit µ B (y) = 0 sonst oben: B = {. . . ; (2; 1); . . . } Allgemein A1 ; . . . ; An unscharfe Mengen auf X1 ; . . . ; X n 1. Schritt Kartesisches Produkt A = A1 ⊗ A2 ⊗ · · · ⊗ An auf X1 × X2 × · · · × X n mit µ A (x 1 ; . . . ; x n ) = min{ µ A ; (x i ), x i ∈ X i i = 1, . . . , n Beispiel A1 = {(4; 0, 4); (5; 1); (5; 0, 5); } ≈ 5 A2 = {(2; 0, 1); (3; 0, 6); (4; 1); (5; 0, 5)} ≈ 4 12 µ A1 ⊗ A2 (x 1, x 2 ) : x 1 \x 2 2 3 4 0, 1 0, 4 5 0, 1 0, 6 6 0, 1 0, 5 4 5 0, 4 0, 4 1 0, 5 0, 5 0, 5 2. Schritt Erweiterungsprinzip Analog 2 Beispiel 2 y = f (x 1, x 2 ) = int x1 +x 2 x 1 \x 2 2 3 4 5 0,1 0,4 0,4 0,4 4 3 3 4 4 5 3 4 4 5 6 4 4 5 5 B = int( A1 +2 A2 ) µ B (3) = sup f (x 1, x 2 ) = 3{0, 1; 0, 4; 0, 1} = 0, 4 1.4 Unscharfe Maße 1.4.1 Wahrscheinlichkeit und Möglichkeit A ⊂ Ω Grundbereich; Ereignis“ ” Definition 1 Mengenfunktion F ( A) heißt unscharfes Maß: 1. F (∅) = 0, F (Ω) = 1 (Normierung) 2. A1 ⊂ A2 ⇒ F ( A1 ) ≤ F ( A2 ) (Monotonie) 3. A1 ⊂ A2 ⊂ · · · ⊂ An ⊂ · · · : lim F ( An ) = F ( lim An ) (Stetigkeit) n→∞ n→∞ Folgerungen ∀A, B ⊂ Ω: 1. F ( A ∪ B) ≥ max[F ( A), F (B)] 2. F ( A ∩ B) ≤ min[F ( A), F (B)] Nachweis: A ∩ B ⊂ A ⊂ A ∪ B Wegen (2): F ( A ∩ B) ≤ F ( A) ≤ F ( A ∪ B) Analog F ( A ∩ B) ≤ F (B) ≤ F ( A ∪ B) ⇒ F ( A ∩ B) ≤ min(F ( A), F (B)) , (2) Analog (1) Definition 2 P( A) Wahrscheinlichkeit, wenn 1. 0 ≤ P( A) ≤ 1 ∀A ⊂ Ω 2. P(Ω) = 1 3. P( A1 ∪ A2 ∪ . . . ) = P( A1 ) + P( A2 ) + . . . für Ai ∩ A j = ∅, i , j 13 Satz Wahrscheinlichkeit ist unscharfes Maß Teil-Nachweis (Monotonie) A1 ⊂ A2 : P( A2 ) = P( A1 ∪ ( A2 ∩ AC P( A2 ∩ AC ) y P( A1 ) ≤ P( A2 ) 1 )) = P( A1 ) + | {z 1 } ≥0 Grenzen der Wahrscheinlichkeit für Ungewissheit Beispiel Produktionsanlage Brauchbarkeit Grundstück (Flurstück 1 und 2 einzeln zu klein, aber zusammen groß genug) P(1) = 0, P(2) = 0, P(1 ∪ 2) = 1 y keine Wahrscheinlichkeit Definition 3 Π( A) Möglichkeit 1. Π(∅) = 0; Π(Ω) = 1 2. Π( A ∪ B) = max[Π( A); Π(B)] • Π( A) unscharfes Maß • Für Elementareignisse {x}(x ∈ Ω): Möglichkeitsverteilung π(x) : Ω → [0; 1] ⇒ Π( A) = max x ∈ A π(x) • Es gilt P( A) ≤ Π( A)∀A ⊂ Ω Beispiel A : N isst x Brötchen zum Frühstück “ ” 0 1 2 3 4 5 Σ x P({x}) 0, 1 0, 2 0, 5 0, 1 0, 1 0 1 π(x) = Π({x}) 1 P1 1 0, 6 0, 3 0, 1 > 1 Wieviel kaufen: E(X ) = xP({x}) = 0 · 0, 1 + 1 · 0, 2 + 2 · 0, 5 + 3 · 0, 1 + 4 · 0, 1 = 1, 9 Aufgabe 1 Wie groß Wahrscheinlichkeit bzw. Möglichkeit ≥ 3 Brötchen isst? Lösung: Π( A) = max x ∈ {3; 4; 5} π(x) = 0, 6 P P( A) = P(x) = 0, 2 x=3 Definition 4 Notwendigkeit N ( A) = 1 − Π( AC ) = min x < A {1 − π(x)} ∀A ⊂ Ω Es gilt: • N ( A ∩ AC ) = min[N ( A), N ( AC )] • Π( A) ≥ N ( A) ∀A • N ( A) > 0 → Π( A) = 1 • Π( A) < 1 → N ( A) = 0 14 Nachweis N ( A) > 0 = |{z} 0 N ( A ∩ AC ) = min[N ( A), N ( AC )] y N ( AC ) = 0 unscharfes Maß 0 = N ( AC ) = 1 − Π(( AC )C ) y Π( A) = 1 N ( A) = 1 − Π( AC ) = min{1 − π(x)} x< A Beispiel AC Stein fällt nach oben: unmöglich Stein fällt nach unten: notwenig 0 1 2 3 4 5 x π(x) 1 1 1 0, 6 0, 3 0, 1 AC Beispiel Notwendigkeit, dass N. isst: 0 Brötchen , A ≤ 2 Brötchen , B > 2 Brötchen , C N ( A) = min{1 − π(x)} = min{|{z} 1 − 1, . . . } = 0 x >0 0 N (B) = min{1 − π(x)} = min{1 − 0, 6; 1 − 0, 3; 1 − 0, 1} = 0, 4 x >2 N (C) = min{1 − π(x)} = min{1 − 1; . . . } = 0 x ≤2 1.4.2 Einige Verallgemeinerungen Beispiel 4( A) = min π(x) = π(0) = 1 x∈A 5( A) = 1 − max π(x) = 1 − max π(x) = 1 − max{1; . . . } = 0 x< A 4(B) = min π(x) = 1 x >0 x ∈B 5(B) = 1 − max π(x) = 1 − max{0, 6; . . . } = 1 − 0, 6 = 0, 4 x >2 4(C) = min π(x) = 0, 1 x ∈C 5(C) = 1 − max π(x) = 1 − 1 = 0 x ≤2 1.4.3 Unschärfemaße Lokale Unschärfe x ∈ G ≈ unscharfe Menge: µ A (x) Zu A: Entropiemaße, Scharfe Mengen: A ∩ AC = ∅ D = A ∩ AC , Maß für Unschärfe von G µ D (x) = min(µ A (x), 1 − µ A (x) ) | {z } | {z } a a Es gilt min(a, b) = 12 [a + b − |a − b|] Tatsächlich: O.B.d.A: a ≥ b : LS = min(a, b) = b RS = 12 [a + b − (a − b)] = b y µ D (x) = 12 [a + (1 − a) − |a − (1 − a)|] = 12 [1 − |2a − 1|] Shannonsche Unschärfemaß µ A (x) ln µ A (x) | {z } | {z } C C 15 lim c ln c = lim c→0 c→0 ln c 1 c = lim c (−1 1 ) = lim (−c) = 0 |{z} c→0 c→0 c2 −∞ ∞ 1.5 Fuzzy-Aussagenlogik 1.5.1 Grundlagen Syntax 1. Alphabet 2. Regeln: Zulässige Ausdrücke (ZA) Ω = {ZA} Beispiel 1. , a∧ , (b → c) ZA 2. 0 ∨ p ↔ q → 1 ZA 3. x ∨ y ∧ z kein ZA 4. , (α ∧ β) kein ZA 5. x ∧ y ⇔< y ∧ x kein ZA Semantik 1. δ: Wahrheitswert ∀A ∈ Ω → δ( A) ∈ [0; 1] 2. Operatoren 3. ZA • Tautologien • erfüllbar • unerfüllbar 4. Metasprache ⇔, ⇒ z.b. a ↔ b ⇔ a → b ∧ b → a speziell δ( A) = {0; 1}: klass. Aussagenlogik δ( A) = {0; 12 ; 1}: Lukasiewicz-Logik 16 Beispiel Informatiker mit Kenntnissen in Rechnernetzen und Betriebswirtschaft haben gute Berufsaussichten in der Entwicklung oder im Mangement. Informatiker NN a: NN hat Kenntnisse in Rechernetzen: δ(a) = 0, 9 b: NN hat Kenntnisse in Betriebswirtschaft δ(b) = 0, 7 c: Es bestehen gute Entwicklungsaussichten in Entwicklung: δ(c) = 0, 8 d: Es bestehen gute Beufsaussichten im Mangement δ(d) = 0, 4 Gesamtaussage A(a; b; c; d) : a ∧ b → c ∨ d mit δ(a ∧ b → |{z} c ∨ d ) = min[1; 1 + δ(c ∨ |{z} d) − δ(a ∧ b)] = min[1; 1 + max(δ(c); δ(d)) − min(δ(a); δ(b))] == min[1; 1 + max(0, 8; 0, 4) − min(0, 7; 0, 9)] = min[1; 1 + 0, 8 − 0, 7] = 1 w.A. 1.5.2 Logische Gesetze Dualität: ∧ ↔ ∨ 0↔1 z.B. neutrales Element a ∨ 0 ⇔ a Nachweis: Mit Fallunterscheidung: Beispiel δ() ≤ δ() δ(a ∧ b) ¬(a ∧ b) ¬a ¬b ¬a ∨ ¬b ab δ(a) 1 − δ(a) 1 − δ(a) a − δ(b) 1 − δ(a) ba δ(b) 1 − δ(b) 1 − δ(a) 1 − δ(b) 1 − δ(b) Anmerkung Doppelte Negation ¬¬(a) = a Konjunktive (diskunktive) Normalform Satz 1 Beispiel (a ∨ b) ∧ ¬(b ∧ (, a ∨ ¬b)) ⇔ (a ∨ b) ∧ (¬b ∨ ¬(¬a ∨ ¬b)) ⇔ (a ∨ b) ∧ (¬b ∨ (a ∧ b)) ⇔ (a ∨ b) ∧ (¬b ∨ a) ∧ (¬b ∨ b) → und ↔ Operatoren Satz 2 1. a ↔ b ⇔ (a → b) ∧ (b → a) 2. a → b ⇔ ¬b → ¬a Nachweis a→b ¬b ¬a ¬b → ¬a δ() ≤ δ() ab 1 1 − δ(b) 1 − δ(a) 1 ba 1 + δ(b)¬δ(a) 1 − δ(b) 1 − δ(a) 1 + δ(b) − δ(a) 17 Beispiel Wenn man sich mit den log. Grundlagen der Fuzzy-Logik ausgiebig beschäftigt, dann versteht man die Anwendungen der Fuzzy-Logik richtig. Kontraposition: selbständig! Spezielle Gesetze der klass. Aussagenlogik Nur klassisch: 1. a ∧ ¬a ⇔ 0 Fuzzy: NEIN z.B. δ(a) = 0, 3; δ(¬a) = 0, 7; δ(a ∧ ¬a) = min(0, 3; 0, 7) = 0, 3 , 0 2. a → b ⇔ ¬a ∨ b a b a → b ¬a ¬a ∨ b (a → b) ⇔ ¬a ∨ b 0 0 1 1 1 1 0 1 1 1 1 1 1 0 0 0 0 1 1 1 1 0 1 1 Aber δ(a) = δ(b) = 12 δ(a → b) = 1 δ(¬a ∨ b) = max(1 − δ(a); δ(b)) = Tautologie 1 2 (klassisch!) Beispiel (a ∧ ¬(b ∨ c)) → (b ↔ c) ⇔ ¬(a ∧ ¬(b ∨ c)) ∨ ((b → c) ∧ (c → b)) ⇔ (¬a ∨ (b ∨ c)) ∨ ((¬b ∨ c) ∧ (¬c ∨ b)) ⇔ (¬a ∨ b ∨ c ∨ ¬b ∨ c) ∧ (¬a ∨ b ∨ c ∨ ¬c ∨ b) ⇔ 1 Ausblick (klassisch) 1. →↔⇔ ∧∨ 2. A ∨ B ⇔ ¬(¬A ∧ ¬B) 3. Definiieren f ( A, B) = ¬( A ∧ B) Es gilt 1. A ∧ B ↔ f ( f ( A, B), f ( A, B)) 2. ¬A ↔ f ( A, A) Klassische Schlussfiguren 1. Modus ponens 2. Modus tollens 3. Modus barbara 18 Zu Modus ponens (a → b) ∧ a → b ⇔ ¬(a → }b) ∧ a) ∨ b | {z ¬a∨b ⇔ ¬(¬a ∨ b) ∨ ¬a ∨ b ⇒ (a ∨ ¬a ∨ b) ∧ (¬b ∨ ¬a ∨ b) ⇒ 1 Aber δ(a) = 0, 8; δ(b) = 0, 3 δ(a → b) = min(1; 1 + δ(b) − δ(a)) = 0, 5 ⇒ δ((a → b) ∧ a → b) = min(1; 1 + 0, 3 − min(0, 5; 0, 8)) = 0, 8 , 1 zu tollens und barbara analog (klassische Gesetzmäßigkeiten gelten nicht) 1.5.3 Approximatives Schließen Erweiterter Modus ponens A → B A0 B 0 bzw.: ( A ⇒ B) ∧ A0 → B 0 Beispiel Rote Kirschen sind süss 1. KRISCHFARBE X = ROT“ ” 2. GESCHMACK Y IST SÜSS“ ” 3. KRISCHFARBE X IST SEHR ROT“ ” 0 → b : GESCHMACK Y IST MEHR ALS SÜSS ( A → B) ∧ A0 → B 0 Zu 1) µ A→B (x, y) = I . . . (µ A (x) ; µ B (y) ) siehe Heft | {z } | {z } a b Zu 2) µ0B (y) = I . . . (µ A (x); µ B (y)) ∗ µ0A (x) mit (∗): max-t-Komposition (Erweiterungsprinzip, deshalb max, ∧ deshalb t) Beispiel Mamdani-Implikationsoperator; t , min geg: A = {(1; 0, 3); (2; 0, 6); (3; 1); (4; 0)} B = {(1; 0, 2); (2; 1); (3; 0, 6); (4; 0, 3)} Sei A0 = {(1; 1); (2; 0, 5); (3; 0, 4); (4; 0, 1)} ges.: B 0 x\y 1 2 3 4 1 0, 2 0, 3 0, 3 0, 3 zu A) 2 0, 2 0, 6 0, 6 0, 3 µ A→B (x, y) = min(µ A (x); µ B (y)) 3 0, 2 1 0, 6 0, 3 4 0 0 0 0 µ R I (x, y) Zu 2) RI ∧ A0 =: RT mit µ RT (x, y) = min(µ R I (x, y); µ0A (x)) x\y 1 2 3 4 1 0, 2 0, 3 0, 3 0, 3 2 0, 2 0, 5 0, 5 0, 3 3 0, 2 0, 4 0, 4 0, 3 4 0 0 0 0 19 y µ0B (y) = max µ RT (x, y) = {(1; 0, 2); (2; 0, 5); (3; 0, 5); (4; 0, 3)} x 1.5.4 Spezielle Implikationsoperatoren Zadeh-Implikation IF-THEN“ ” Motivation(klassisch) a → b ⇔ ¬a ∨ b ⇔ (¬a ∨ b) ∧ (¬a ∨ a) ⇔ ¬a ∨ (b ∧ a) y µ A→B (x, y) = max(min(a, b); 1 − a) If-Then-Else: wenn a, dann b, sonst c“ ” (a → b) ∧ (¬a → c) µ∗ (x, y) = max(min(a; b); min(1 − a; c)) Insbesondere c = ¬b (a → b) ∧ (¬a → ¬b) ⇔ (a → b) ∧ (b → a) ⇔a↔b y µ A↔B (x, y) = max(min(a; b); min(1 − a; 1 − b)) Beispiel Körpergröße ↔ Schuhgröße A := LANG, B := GROSS Körpergr. x(cm) 165 170 175 180 185 190 195 µ A (x) 0 0, 1 0, 3 0, 7 0, 8 0, 9 1 1 0, 9 0, 7 0, 3 0, 2 0, 1 0 1 − µ A (x) Schuhgr. 40 41 42 43 44 45 46 µ B (y) 0 0, 1 0, 3 0, 5 0, 7 0, 9 1 1 − µ B (y) 1 0, 9 0, 7 0, 5 0, 3 0, 1 0 x\y 40 41 42 43 44 45 46 165 1 0, 9 0, 7 0, 5 0, 3 0, 1 0 170 0, 9 0, 9 0, 7 0, 5 0, 3 0, 1 0, 1 175 . . . . . . . . . . . . . . . . . . . . . LANG ↔ GROSS 180 . . . . . . . . . . . . . . . . . . . . . 185 . . . . . . . . . . . . . . . . . . . . . 190 0, 1 0, 1 0, 3 0, 5 0, 7 0, 9 0, 9 195 0 0, 1 0, 3 0, 5 0, 7 0, 9 1 a 1 Gödel -Implikation Motivation(klassisch) 1 0 0 Satz 1. B ⊂ B 0 20 b a → b Vergleich Ergebnis 1 1 δ(a) ≤ δ(b) 1 0 0 δ(a) > δ(b) δ(b) 1 1 δ(a) ≤ δ(b) 1 0 1 δ(a) ≤ δ(b) 1 Gödel 2. A0 = A −−−−−→ B 0 = B (klass. Modus ponens) 3. Für 3. - Gödel-Implikation größtmögliche Relation Zu 1. µ0B (y) = max(min(µ0A (x); µ Gödel A− −−−−→ B (x, y))) ≥ min(µ0A (x 0 ) ; µ Gödel (x, y)) ≥ | {z } A−−−−−→ B 1 µ B (y) A0 normalisiert: ∃x 0 : µ0A (x 0 ) = 1 Zu 2. Fallunterscheidung 1. µ A (x) ≤ µ B (y) : min(µ0A (x); µ Gödel (x, y) ) = µ0A = µ A (x) →B | A−−−−− {z } 1 2. µ A (x) > µ B (y) ≤ µ B (y) (laut Norm) min(µ0A (x) ; µ Gödel (x, y) ) ≤ µ B (y) | {z } | A−−−−− →B {z } µ A (x) ⇒ µ0B (y) = max min(µ0A (x); µ Gödel µ B (y) A− −−−−→ B (x, y)) d.h. B 0 ⊂ B + 1. ⇒ 2. 3. RI-Implikations-Relation Geg.: µ0B (y) = max min(µ A (x); µ R I (x, y)) ≤ µ B (y) x Maximaler Wert von µ R I (x, y) : a) µ A (x) ≤ µ B (y) ⇒ max(µ R I (x, y)) = 1 b) µ A (x) > µ B (y) ⇒ max(µ R I (x, y)) = µ B (y) y Maximallösung RI , Gödel 2 Stochastische Modelle 2.1 Zuverlässigkeitstheorie 2.1.1 Systemzuverlässigkeit Elemente E1, . . . , Ek : Ausfallwahrscheinlichkeit, p1, . . . , pk 1. Serienschaltung ps - Systemzuverlässigkeit Ereignisse: S Systemintakt Ai Element Ei intakt p( Ai ) = 1 − P( Āi ) = 1 − pi ps = P(S) = P( A1 ∩ A2 ∩ · · · ∩ Ak ) = P( A1 ) · · · · · P( Ak ) = (1 − p1 ) · · · · · (1 − pk )(1) 2. Parallelschaltung 21 Beispiel • Zweimotorige Flugzeuge: Motoren • Siebenköpfiger Drache: Köpfe p p = P(S) = 1 − P( S̄) = 1 − P( Ā1 ∩ Ā2 ∩ · · · ∩ A¯k ) = 1 − P( Ā1 ) · · · · · P( A¯k ) = 1 − p1 · p2 · · · · · pk (2) 3. Zusammengesetzte Systeme [hier E 1,2,3 parallel (S1 ), dazu 4 und 5 seriell dazu (S2 )] Systemzuverlässigkeit psy = (1 − p1 p2 p3 ) · (1 − p4 ) · (1 − p5 ) Beispiel a) p1 = p2 = p3 = 0, 1 p4 = p5 = 0, 001 y psy = 0, 9970 Zum Vergleich : S1 , E1 : psy = 0, 9 · (0, 999) 2 = 0, 8932 Zeit: pro Stunde; p = psy ges: (Durchschnittli∞ ∞ ∞ ∞ P P P P che) Funktionsdauer TS : E(TS ) = npn = npn−1 p = p (pn ) 0 = p( pn ) 0 = Interpretation der Ergebnisse n=1 p 0 ) p( 1−p = p (1−p)+p (1−p) 2 = n=1 n=1 n=1 p (1−p) 2 Beispiel a) E(TS ) = 110.777, 78h , 4615d , 12, 6a b) E(TS ) = 78, 3h ,≈ 3d 2.1.2 Erneuerungsprozess T1 = t 1 − 0, T2 = t 2 − t 1 Betriebszeiten Verteilungsfunktionen für Ti : F (t) = P(Ti ≤ t)(t ≥ 0) (0; t] : Anzahl von Erneuerungen Nt Offenbar P(Nt < n) = P(t n > t), n = 0, 1, 2, t > 0 Spezialfälle 1. Ti ∼ N (µ; σ 2 ); µ > 3σ P(Nt = 0) = P(Nt < 1) = P(t 1 > t) = P(T1 > t) = 1 − P(T1 ≤ t) = 1 − Φ( t−µ σ ) t−2µ √ P(Nt < 2) = P(t 2 > t) = P(T1 + T2 > t) = 1 − P(T1 + T2 ≤ t) = 1 − Φ( µ √ Analog: P(Nt < n) = 1 − Φ( t−n ), n = 1, 2, . . . nσ 22 2σ Beispiel µ = 10, σ = 3, t = 35 P(Nt < 1) = 1 − Φ( 35−10 3 ) = 0, 000 P(Nt < 2) = 0, 000 √ P(Nt < 3) = 1 − Φ( 35−30 ) = 0, 168 33 P(Nt < 4) = 0, 798 P(Nt < 5) = 0, 987 P(Nt < 6) = 1, 000 y P(Nt = 0) = 0, 000; P(Nt = 1) = 0, 000; P(Nt = 2) = 0, 168 P(Nt = 3) = 0, 630; P(Nt = 4) = 0, 189; P(Nt = 5) = 0, 013 5 P Mittlere Anzahl von Erneuerungen: E(Nt ) = k P(Nt = k) = 3, 047 k=0 Expotentialverteilung F (t) = 1 − e−λt , t≥0 ⇒ Nt Poisson-Verteilt mit Parameter λt: E(Nt ) = λt Erneuerungsfunktion H (t) = E(Nt ) : Allgemein: λt − 1 ≤ H (t) ≤ λt + λ 2 σ 2 mit E(Ti ) = Verteilungen (s. unten) H (t) ≤ λt 1 2 λ, σ = Var(Ti ) Insbesondere IFR- Beispiel: µ = E(Ti ) = 10, σ 2 = Var(Ti ) = 9, t = 35 ges: H (t) für 1. Exp-Verteilung 2. allg. 3. IFR-Verteilung Zu 1): H (t) = λt = 3, 5 y λ = Zu 2): 2, 5 ≤ H (t) ≤ 2, 59 Zu 3): H (t) ≤ 3, 5 1 E (Ti ) = 1 µ = 1 10 2.1.3 Die Ausfallrate • X- Lebensdauer“ eines Bauteils mit Verteilungsfunktion ” P(X ≤ t) = F (t) Ausfallwahrscheinlichkeit. Dichtefunktion f (t) = F 0 (t) offenbar F (0) = 0 bzw. F (t) = 0, ∀t ≤ 0 R∞ Mittlere Lebensdauer T0 = E(X ) = t f (t) dt 0 23 • Bedingte Wahrscheinlichkeit, dass Bauteil im Intervall (t; t + ∆t] ausfällt, wenn es bis t funktioniert hat? B A z }| { z }| { P(X ≤ t + ∆t ∩ X > t) P(t < X ≤t+∆t ) F (t+∆t )−F (t ) P(X t + ∆t X > t) = = 1−P(X ≤t ) = 1−F (t ) | ≤{z } | |{z} P(X > t) | {z } A B P(X ≤t+∆t | X >t ) ∆t ∆t→0 r (t) := lim A = lim ∆t→0 F (t+∆t )−F (t ) 1 ∆t 1−F (t ) r (t) Umgekehrt r (t) → F (t) : ) F̄ (t) = 1 − F (t) ⇒ r (t) = 0 0 F̄ (t) = −F (t) = − f (t) F̄ 0 (t) + r (t) F̄ (t) = 0 lineare homogene DGL. 1. Ordnung − F̄ 0 (t ) | F̄ (t ) F̄ (t) = Ce − Rt y r (t) = f (t ) r −F (t ) D.h. F (t) → ·F r (t ) dt 0 F̄ (0) = 1 − F (0) = 1 y F̄ (0) = C = 1 ⇒ F̄ (t) = e − Rt r (t ) dt y F (t) 0 Typische Modelle 1. r (t) = α βt β−1 (t ≥ 0), α, β ≥ 0 Weiball-Verteilung offenbar für β > 1 : r (t) streng monoton wachsend β = 1 : r (t) = α = const β < 1 : r (t) streng monoton fallend Verteilungsfunktion F (t) = 1− F̄ (t) = 1−e β 1 − e−αt − Rt 0 r (t ) dt = 1−e − Rt 0 β = 1 Exponentialverteilung (ohne Gedächtnis) (r (t) = α) β = 2 r (t) = 2αt Rayleigh-Verteilung 2. Hjarth-Verteilung γ 1 + βt r (t) = αt + Spezialfälle 1. α = β = 0 r (t) = γ Exponential-Verteilung 2. γ = 0, r (t) = αt Rayleigh-Verteilung 3 Phasen Badewannenkurve 1. Frühfehler: r (t) hoch, nimmt ab 2. Zufallsfehler r (t) ≈ const 3. Altererscheinung r (t) wächst 24 α, β, γ ≥ 0 α βt β−1 dt = 1−e −α β t β t |0 β = 2.2 Warteschlagentheorie 2.2.1 Grundbegriffe Mittlere Pausenzeit m A bzw. λ = m1A -Intensität des Forderungsstroms Mittlere Bedienungszeit m B bzw. µ = m1B -Bedieungsintensität 2.2.2 Das Warteschlangensystem M |M |1 1 , 1 Bediener unbegrenzte Bedienzeiten: M ( Markowsch“); Unabhängigkeit! ” Pausenzeiten - Exponentialverteilt mit Parameter λ Bedienzeiten - Exponentialverteilt mit Paramter µ Sei Nt (t ≥ 0)- Anzahl der Forderungen im System zu Zeitpunkt t P(Nt = i) =: Pi (t), i = 0, 1, 2, . . . ) Es gilt P0 (t + ∆t) = (1 − λ∆t)P0 (t) + µ∆tP1 (t) + o(∆t) mit lim o (∆t ∆t = 0 ∆t→0 Nachweis Formel der totalen Wahrscheinlichkeit X P( A|Bi )P(Bi ) P( A) = i mit A-System zum Zeitpunkt t + ∆t leer , P0 (t + ∆t) B0 -System zum Zeitpunkt t leer , P0 (t) B1 -System zum Zeitpunkt t = 1 leer , P1 (t) Es gilt : P( A|B0 ) = P( zu (t; t + ∆t] keine Forderung“) = P(Restpausenzeit > ∆t) = ” 1 − P(Restpausenzeit ≤ ∆t) = 1 − (1 − e−λ∆t ) = e−λ∆t = (Taylor-Reihe) = 1 − λ∆t + o(∆t) Analog P( A|B1 ) = µ∆t + o(∆t) D.h. ∗) ⇒ P0 (t + ∆t) = [1 − λ∆t + o(∆t)]P0 (t) + [µ∆t + o(∆t)]P1 (t) = (1 − λ∆t)P0 (t) + µ∆tP1 (t) + o(∆t) 1 → 1 Pausen und Bedienzeit laufen nicht ab [1 − λ∆t − o(∆t)] · [1 − µ∆t − o(∆t)] = 1 − λ∆t − µ∆t + o( 1 ↔ i y Pi (t + ∆t) = λ∆tPi−1 (t) + (1 − λ∆t − µ∆t)Pi (t) + µ∆tPi+1 (t) + o(∆t), i = 1, 2, . . . Differenzengleichungen mit Po (t + ∆t) − Po (t) = −λ∆tPo (t) + µ∆tP1 (t) + o(∆t)| : ∆t → 0 0 Po (t) = −λPo (t) + µP1 (t) (1) Pi0 (t) = λPi−1 (t) − (λ + µ)Pi (t) + µPi+1 (t) (2) unendliches Dgl-System. Lösung Schwierig! Speziallfall: Stationärer Fall: Pi (t) = Pi ∀t y Pi0 (t) = 0, i = 0, 1, 2, . . . Gleichungssystem: 0 = −λP0 + µP1 (10 ) i = 1 0 = λP0 − (λ + µ)P1 + µP2 (2a 0 ) 0 = λPi−1 − (λ + µ)Pi + µPi+1 (2b0 ) i = 2, 3, . . . (10 ) ⇒ P1 = λµ P0 In (2a 0 ) : 0 = µP1 − (λ + µ)P1 + µP2 25 λP0 = µP1 y P2 = λµ P1 λP1 = µP2 in (2b0 ) : 0 = µP2 − (λ + µ)P2 + µP3 y P3 λµ P2 ⇒ Pi = λ Pi−1 µ i = 1, 2, . . . Setzen % = λµ : Pi = %Pi−1, i = 1, 2, · · · ⇒ Pi = %i P0, i = 1, 2, . . . ∞ ∞ ∞ P P P 1 wegen Pi = 1 : Pi = %i P0 = P0 1−% , | %| < 1 = 1 i=0 i=0 (3) i=0 y P0 = 1 − %, % < 1 (4) Anmerkungen: Für % = λµ ≥ 1 ergibt keine vernünftige Lösung, d.h. λ ≥ µ (Intensität des Forderungsstrom größer gleich der Bedienintensität) Mittlere Anzahl warteneder Forderungen ∞ ∞ P P %2 %2 m L = (i − 1)Pi = (i − 1) %i · (1 − %) = 1 − % (1−%) 2 = 1−% i=1 i=1 Mittlere Wartezeit m w einer Forderung:: %2 m L = λm w (Formel von Little) m w = 1−%)λ = %2 (1−%)% µ = % (1−%) µ (6) 2.2.3 Weitere Modelle 2.3 Empirische Statistikmodelle 2.3.1 Statistische Schätzung von Verteilungsfunktion u. Dichtefunktion 1. Verteilungsfunktion F (t) = P(X ≤ t) 2. Dichtefunktion 2.3.2 Simulation von Zufallsvorgängen F (x) bekannt Simulation 1. Erzeugung (uniformer) Zufallszahlen u ∈ [0; 1] 2. Ermittlung des zu u gehörigen Wertes F (x) Zu 1) Peseudo-Zufallszahlen zu 2) 1. Diskrete Zufallsgrößen Beispiel: u =, 6 Würfeln X-Augenzahl pi = P(X = x i ) = P(X i ) = 16 ; i = 1, 2, . . . , 6 p1 + p2 + p3 = 36 < u < p1 + p2 + p4 + p4 = yX =4 4 6 2. Stetige Zufallsgröße F (x) = u ⇒ x = F −1 (u) (Inversionsmethode) 26 Beispiel: Exponentialverteilung: F (x) = 1 − e−λ x , x ≥ 0 1 − e−λ x = u 1 − u = e−λ x |ln −λ x = ln (1 − u) y x = − λ1 ln (1 − u) | {z } ∈(0;1] ⇒ x = − λ1 ln u Normalverteilung 12er-Regel Z = 12 P i=1 ui − 6 , N (0, 1)-verteilte Zufallsgröße x belie- big normalverteilt, d.h. N (µ, %2 ) : x = z % + µ ∼ x−µ % : N (0, 1)-verteilt 2.3.3 Die Monte-Carlo-Methode Beispiel: Störungsfreie Funktion einer Anlage Strom und Blattplan Expnentialverteilung H0 : λ = 1 7 1 H1 : λ , , 7 α = 0, 05 Monte-Carlo-Test 1. Weitere 999 Werte für x̄ (aus Stichprobe mit 32 Werten): 32 32 32 32 Q P P ln u i 1 P 1 = − ln ui x i = − n1 ln u = − x̄ = n1 i λ nλ 32λ i=1 i=1 i=1 i=1 2. ordnen nach Größen x¯1 ≤ x¯2 ≤ · · · ≤ x 999 ≤ x 100 3. Falls x¯0 ≤ x 25 oder x̄ ≥ x 976 , dann Ablehnung von H0 Speziell: 480 Werte. x¯0 ≥ x 25 = N>, x¯0 ≤ x 455 = N< y H0 bleibt 2.3.4 Konfidenzintervalle bei nichtnormalverteilter Grundgesamtheit 1. Zentraler Grenzwertsatz: X − E(X ) √ n → N (0, 1) für n → ∞ S Für große n: P(−z α2 ≤ −z α2 |{z} √S n − X ≤ −E(X ) X −E (X ) √ n ≤ z α2 ) = S ≤ z α2 √Sn − X | · (−1) d X − d ≥ E(X ) ≥ X − d ⇒ X − d ≤ E(X ) ≤ X + d ⇒ d = z α2 √Sn 27 1 − α − z α2 ≤ X −E (X ) √ n S ≤ z α2 | · √S | n −X Beispiel (siehe oben) x̄ = 5, 04; s = 4, 67, n = 32, α = 0, 05 E(X ) ∈ (3, 42; 6, 66) = 7 z α2 = 1, 96 : µ = Anmerkung: n identisch exponentialverteile Größen deren Summe: Gamma-Verteilung X mit α = n: Konfidenzintervall [ χ2n ; χ 22n X ] χ264; α = 88; χ264;1− α = 43, 8 ⇒ 2 2n ; α 2 2 n ;1− α 2 2 2 2. MonteCarlo-Methode • Verteilung bekannt: analog µ ∈ [X 25 ; X 976 ], α = 0, 05 • Boostrap-Konfidenzinterval z.B. α = 0, 05, ub = 1000; n = 32 µ ∈ (3, 57; 6, 78) = 7 Normalverteilung < Boostrap < Exponentialverteilung 2.3.5 Parameterfreie Test unabhängig von einer Verteilung, Schnelltests“ Stichprobe 1: Zufallsgröße X ” Stichprobe 2: Zufallsgröße Y p1 = P(X > Y ), p2 = P(X < Y ) 1. Vorzeichentest H0 : p1 = p2 (= 21 )H1 : p1 , p2 T : x i > yi - Anzahl der Paare ja H0 ablehnen → H1 gilt T ∈ K - Krit. Bereich nein H0 bleibt Beispiel: Schwierige Messungen mit Apparaten 1 und 2, gelungen , 1; misslungen ,0 H0 : p1 ≤ p2 H1 : p1 > p2 (Fall c);α = 0, 05 T = 4; m = n = 7 Krit. Bereich K: a) k = 2 (Gleichheit) b) c 0 ∈ {0; 1; 2; 3; 4; 5} c 0 : F (c 0 ) ≤ α, F (c 0 + 1) > α : Tab. 1 n = 7 : F (0)0, 008; F (1) = 0, 063 > α y c 0 = 0 Ablehnung von H0 : T ∈ {m − k − c 0; m − k} = {5} f.A. → keine Ablehnung von H0 2. U-Test (nach Wilconxon, Mann, Whitney) Rangsummen Beispiel m = 6 Beobachtungen vom Typ A(, X ) n = 5 Beobachtungen von Typ B(, Y ) Werte 28 Werte 63 68 70 Herkunft A A A 1 2 3 Ränge Rangsume A : R1 = 30, B 71 A 4 : R2 91 92 95 96 97 99 104 B B B B A B A 5 6 7 8 9 10 11 = 36 Testgröße u1 = mn + m(m+1) − R1 = z1 2 n(n+1) 9 u2 = mn + 2 − R2 = 30=mn U = min(U1 ; U2 ) = 9 Krit. Bereich (Variante A : m < 8 oder n < 8): Fall a) H0 : p1 = p2 H1 : p1 , p2 U ≤ U (m; n; α; zweiseitig) = 3 f.A. y keine Ablehnung 2.4 Statistik für mehrere Zufallsgrößen 2.4.1 Partielle Korrelationskoeffizienten > 2 Zufallsgrößen x, y, z, . . . |r × y| ≈ 1 → x, y abhängig usw. Beispiel Y : Geburtenanzahl in D (seit 1950) X : Störche in D, Scheinkorrelation 3. Größe: Z: Zivilisation“ (Anzahl der Autos o.ä.), Z ↑→ X ↓, Y ↓ ” Part. Korrelationskoeff. r 1,2;p usw. Beispiel Körpermaße von Studenten |r i, j;p | ≥ 0, 8 ∼ Abhängigkeit 2.4.2 Clusteranalyse −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ −−−−−−−−→ ~ − Schema: Objekte Messung Mesdaten X Zusammenfsg., Messdatenextraktion Merkmale ~ → Cluster m Beispiel X1 Alter (Jahre) X2 Betriebszugehörigkeit(Jahre) X3 Arbeitsdauer im Ausland (Monate) X4 Patente Personen\Merkmal x 1 x 2 x 3 x 4 A 25 1 6 1 B 30 6 3 2 C 35 2 48 5 D 45 15 13 0 E 55 11 0 2 ges: Cluster“ ” Lösung: 29 1. Z-Transformation zi j = X i j − X̄ o j sj j-Merkmals-Nr., i-Objekt-Nr. X̄ o1 = X̄1 = 38, X̄ o2 = X̄ − 2n = 7, X̄03 = X̄3 = 14 n 1 P X̄ o4 = X̄4 = 2; s2 = n−1 (x i − x̄ j ) 2 i=1 s21 = 145 → s1 = 12, 04; s2 = 5, 90; s3 = 19, 61; s4 = 1, 87 z11 = x11s−1x̄ o 1 = 25−38 12,04 = −1, 08 Pers.\Merk. X1 X2 X3 X4 A −1, 08 −1, 01 −0, 41 −0, 53 B −0, 66 −0, 17 −0, 56 0 , M (z i j ) C −0, 25 −0, 84 1, 73 1, 60 D 0, 58 1, 34 −0, 05 −1, 07 E 1, 41 0, 67 −0, 71 0 2. Abstände zw. Objekten Oi , Ok p d ik = (z i1 − z k1 ) 2 + · · · + (z i m − z k m ) 2 m . . . Spaltenanzahl p z.B. d 12 = (−1, 08 + 0, 66) 2 + (−1, 01 + 0, 17) 2 + · · · + (−0, 53 + 0) 2 0 1, 09 3, 14 2, 95 3, 06 + *. 1, 09 0 2, 90 2, 29 2, 24 // .. 0 3, 97 3, 68 /// (d ik ) = .. 3, 14 2, 90 .. 2, 95 2, 29 3, 97 0 1, 65 // 0 , 3, 06 2, 24 3, 68 1, 65 3. Cluster-Bildung (Average-Linkage-Verfahren) a) 1)2) → 1; 09 neu 0 3, 62 2, 62 2, 65 +/ ” *. 3, 62 0 3, 97 3, 68 / (1)d ik = .. 0 1, 65 // . 2, 62 3, 97 0 , 2, 65 3, 68 1, 65 b) 4)5) (alt) 0 3, 02 2, 64 1+2 *. +/ 3, 02 0 3, 82 (2)d ik = . / 3 0 - 4+5 , 2, 64 3, 82 c) 1)2) + 4)5) ! 0 3, 42 1, 2 + 4, 5 (3)d ik = 3, 42 0 3 1“ (alt 1 + 2) alt 3 alt 4 alt 5 d) Dendrogramm Interpretation (2) AB,DE,C; junge, alte, kreative (3) ABDE,C; Normale“ ” 30 2.5 Prognose- und Entscheidungsprobleme 2.5.1 Anzahl von Fehlern Beispiel Korrekturlesen einer Arbeit Gesamtfehler (Anzahl): E Fehler, die 1. Korrekturleser entdeckt: A Fehler, die 2. Korrekturleser entdeckt: B Fehler die 1. und 2. Korrekturleser entdeckt: C Noch nicht gefundene Fehler ∆F ∆F = E − A − B + C Wahrscheinlichkeit, dass 1. Fehler fand: p = EA , A = pE Wahrscheinlichkeit, dass 2. Fehler fand: q = EB , B = qE r=C = P( 1“) · P( 2“) = pq E = P(”1“ ∩ ”2“) |{z} ” ” Unabh. Andererseits AB = (pE)(qE) = pqE 2 ; CE = pqE 2 → AB = CE y E = AB C 2 Folglich ∆F = AB − A − B + C = AB− AC−BC+C = C C A(B−C )+C (B−C ) C 2.5.2 Statistische Zukunftsabschätzungen Kopernikanisches Prinzip“: Prinzip der Mittelmäßigkeit ” ∼ Gleichverteilung t 1 = t verg. + t zukunft τ = t vert ver +t z u k ∈ (0; 1) Zufallszahl α P( 2 ≤ τ ≤ 1 − α2 ) = 1 − α τ-Irrtumswahrscheinlichkeit α α 2 ≤ τ ≤ 1− 2 t ver + t zuk 2 2 ≥ 2−α |−1 α ≥ t ver | {z } t uk 1+ t zver 2 −1 ≥ α |{z} 2−α α α 2−α t tzuk t ver ≥ 2 −1 2 − α } | {z 2−(2−α) α 2−α = 2−α uk ≤ t zver ≤ 2−α α t uk α = 0, 5 : 13 ≤ t zver ≤ 3 y 13 t ver ≤ t zuk ≤ 3t ver t uk 1 1 α = 0, 05 : 39 ≤ t zver ≤ 39 y 39 t ver ≤ t zuk ≤ 39t ver Beispiel J.R. Gott 1969 Berlin 1. Mauer α = 0, 5 : [ 38 ; 24J] 2. Hitler 1934 Tausendjähriges Reich“ ” 31 = ( A−C )(B−C ) C 3. Broadway 1993“: Cats“ 10J ” ” 4. Diskrete Ereignisse: Scheiffsreisen, u.ä. Prognose: Dauer der Menscheit 2.5.3 Sekretärinnenproblem Aufgabe: Besten von n Bewerbern finden bei sofortigen Entscheidungen Optimale Strategie 1. r von n Kandidaten ansehen (r < n) und ablehnen 2. Ersten der verbleibenden n − r Kandidaten wählen, der besser ist als der Beste der r Vorgänger Ges: r so, dass Wahrsch. Besten zu finden → Max Lösung: B- Bester gefunden“ ” Ak - Bester ist an der Stelle k“ ” n P P(B) = P( Ak )P(B| Ak ) mit P( Ak ) i=1 mit P( Ak ) = n1 , k = 1, . . . , n ( 0 für k ≤ r P(B| Ak ) = r ∗) k−1 für k > r n−1 n P r P 1 1 r y P(B) = n k−1 = n k ≈ k=r +1 k=r r n Rn r 1 x dx = r n ln x|rn = r n ln nr = r n ln( nr ) −1 = r n ln nr → Max! f (x) = 1x , x ∈ [r; n] r n =: t : g(t) = −t ln t → Max g 0 (t) = − ln t − tt = 0 − ln −1 = 0 −1 = ln t t = e−1 D.h. nr = e1 y r = ne (37 % Regel) r zweitbester Modifizierte Aufgabe r so, dass nur möglichst guter Kandidat gewählt wird ∼ Simulation n = 100 vorgegeben B j Platz des Ausgewählten Gute“ ” m 1 X B j min B j (r) = M 1≤r ≤n m j=1 32 2.5.4 Sammelbildproblem Aufgabe: Serie mit n verschiedenen Motiven: Vollständig! Annahme: Gleichverteilung! x i - nach (i − 1) verschiedene Karten: neue i-te p1 = P(X1 = 1) = 1 p2 = P(X2 = 1) = n−1 n pi = P(X i = 1) = n−(i−1) i = 1, 2, . . . n n k−1 P(X i = k) = (1 − pi ) pi geometr. Verteilung n dabei E(X i ) = p1i = n−(i−1) var (X i ) = p12 − p1i i n P Gesamtversuche X = Xi y µ = E(x) = E( = n( n1 + 1 n−1 i=1 n P i=1 +···+ Xi ) = 1 2 n P i=1 E(x i ) = + 11 ) = n n X 1 i i=1 |{z} n n + n n−1 + n n−2 +···+ n 2 + n 1 ≈ n(ln (n) + 0, 577) Hn σ 2 = var (x) : n P i=1 1 p 2i n 2 = ( nn ) 2 + ( n−1 ) + · · · + ( n1 ) 2 = n2 n P i=1 1 i2 ≈ n2 [ π6 − 2 1 n+1 ] 1 y σ 2 ≈ n2 [ π6 − n+1 ] − n[ln n + 0, 577] Logistisches Wachstum Andere Herleitung: In (1): λ = γ − τ γ Geburtenrate, τ Todesrate dP 2 2 0 In (1): dP dt = (γ − τ)P = γP − τP − τP ⇒ dt = γP − τP (4 ) mit γ = λK, τ = λ ⇒ K = 2 γ τ Untersuchung von (4): • Ende des Wachstums: dP dt =0→K =P • P(t) wächst streng, falls P0 < K • P(t) sinkt stetig, falls P0 > k • Änderungsrate Ṗ = dP dt → P̈ = λ Ṗ(K − P) − λP Ṗ = λ Ṗ(K − 2P) > 0 Für P0 < K2 : P̈ > 0 : Ṗ ↑ P0 > K2 : P̈ < 0 : Ṗ ↓ 2.5.5 Gleichgewichtsprobleme Räuber-Beute-Modell B- Beutepopulation R- Räuberpopulation Analog B = α2 B − β2 RB (α k , βk > 0) Anfangsbed. R(0) = R0, B(0) = B0 (1b) Dgl.-System; nicht linear Wettbewerbsmodell 2 Populationen P1, P2 ; beschränkte völlig verschiedene Ressourcen R1, R2 ⇒ P˙k = α k Pk − βk pk2 K = 1, 2 (logistische Gleichung) 33 Falls Wettbewerb um Ressourcen: R1 = R2 → Ṗ1 = α1 P1 − β1 P12 − γ1 P1 P2 Ṗ2 = α2 P2 − β2 P22 − γ2 P1 P2 mit P1 (0) = P10, P2 (0) = P20 Qualitative Theorie R , x, B , y: Ẋ = −α1 x + β1 x y (3a) Ẏ = α2 y − β2 x y mit X (0) = x 0, Y (0) = y0 (3b) Lösung in Parameterdarstellung möglich: x = x(t), y = y(t), t ≥ 0 1. Gibt es eine stationäre Population? (Trajektorie) D.h. x(T )0ξ, y(t) = η y ẋ(t) = ẏ(t) = 0 In (3a): −α1 ξ + β1 ξη = 0 ⇔ ξ (−α1 + β1 η) = 0 α2 η − β2 ξη = 0 ⇔ η(α2 − β2 ξ) = 0 y ξ1 = η 1 = 0 entfällt ⇒ η 2 = αβ11 ; ξ2 = αβ22 y Gleichgewichtspunkt (ξ2, η 2 ) 2. Allgemein: Falls ẋ(t 0 ) = ẏ(t 0 ) = 0 → Stationärer Fall! Folglich ẋ 2 (t 0 ) + ẏ 2 (t 0 ) > 0 Annahme: ẋ(t 0 ) , 0 (anderer Fall: analog!) • ẋ(t) , 0 in Umgebung von t 0 • y(t) kann als Funktion von x(t) aufgefasst werden dy dx = dy dt dx dt = α 2 y−β 2 x y −α 1 x+β 1 x y = α 2 −β 2 x y x −α 1 +β 1 y Trennung der Variablen | · dx| · −α 1 +β 1 y 2x dy = α2 −β dx y x R −α 1 +β 1 y α 2 −β 2 x dy = y x −α 1 +β 1 y y R dx −α1 ln y + β1 y = α2 ln x − β2 x + c(4) 3. Schlußfolgerungen, Bsp: α1 = 0, 008; α2 = 1, 0 β1 = 0, 000001, β2 = 0, 002 x(0) = 500; y(0) = 700 Trajektorie lässt sich numerisch generieren! Interpretation der Trajektorie: a) minimale Raubpopulation R: B ↑⇒ R ↑ b) R übermächtig B ↓ c) Schwindene Nahrungsvorräte für R : R ↓ d) Schonzeit für B : B ↑ 34 4. Umlaufzeit Durschnittliche Größe von x(R) und y(B): x̄ := 1 T RT x(t) dt, ȳ := 0 Betrachten RT (α2 − β2x) dt = 0 RT ẏ y 0 α 2T = β2 RT y(t) dt 0 dt = ln y|0T |{z} = 0 y (T )=y (0) ẏ = α2 y − β2 x y RT RT ⇒ α2 dt = β2 x dt 0 1 T 0 RT 0 x(t) dt y RT x(t) dt = 0 α2T β2 ⇒ x̄ = αβ22 Analog: ȳ = αβ11 Fazit: Um ( αβ22 , αβ11 ) kreist Trajektorie 2.5.6 Partielle Differentialgleichungen R Beispiel z = z(x, y)z = h(y)| . . . dx x R z = h(y) dx = h(y)x + g(y) Fazit: Lösungen sind abhängig von beliebigen Faktoren 2.5.7 Wichtige partielle Dgl Grundlage: Erhaltungssätze Gebiet Quantität von u in G Änderung von u = Fluss durch den Randvon G + Entstehen bzw. Versiegen im Inneren Φ1 *. + ∂u 3 R : ∂t + divΦ = f (t, x, y, z) mit Φ = . Φ2 // Fluss der Quantität, f = (t, x, y, z) , Phi 3 Quellen/Senken in G ( (Φ1 (u), Φ2 (u), Φ3 (u))T nicht linear Transport oder Korrektion Φ = Φ(u) = z(x, y, z)T u - linear c *. 1 +/ z = . c2 / mit z(x, y, z) = , c3 ,z Beispiel: Lineare Konvenktionsgleichung mit homogenen Materialien in R2 35