Kompositionsmethode Sei F eine Linearkombination von mehreren Verteilungsfunktionen Fi, F = k X iFi i=1 Algorithmus: Erzeuge gleichverteilte Zufallszahl U , Pi−1 Pi falls U ∈ [ j=1 j , j=1 j simuliere aus Fi. Beispiele: Kontaminierte Normalverteilung x − µ2 x − µ1 + Φ F (x) = (1 − )Φ σ1 σ2 Doppelexponential (Laplace) X1 ∼ exp(λ) X1 X= −X 394 1 falls U≤ 1 2 falls U> 1 2 W.Kössler, Humboldt-Universität zu Berlin Verwerfungsmethode (Acceptance Sampling) F habe Dichte f , aber die Zufallszahlen seien schwierig direkt zu erzeugen. Erzeugung von Zufallszahlen mit der Dichte g sei “leicht”. f (x) <∞ M := sup g(x) x Algorithmus: 1. Simuliere U ∼ R(0, 1) 2. Simuliere Y ∼ g 3. Akzeptiere X = Y , falls U ≤ 1 f (Y ) M g(Y ) sonst gehe nach 1.(neuer Versuch) 1 f (Y ) P (Y akzeptiert) = P U ≤ M g(Y ) Z 1 f (Y ) Y = y g(y) dy = P U≤ M g(Y ) Z 1 1 f (y) · g(y) dy = . = M g(y) M 395 W.Kössler, Humboldt-Universität zu Berlin (Integration über den Definitionsbereich von Y ) Im Mittel müssen also M Zufallszahlen Y erzeugt werden. Die Methode ist korrekt, denn: Z x P (Y = y|Y akzeptiert)g(y) dy P (X ≤ x|Y akzeptiert) = Z−∞ x P (Y akzeptiert, Y = y) = g(y) dy −∞ P (Y akzeptiert) (y) Z P U ≤ M1 fg(y) = g(y) dy P (Y akzeptiert) Z x 1 f (y) g(y) dy = M M g(y) −∞ = F (x). 396 W.Kössler, Humboldt-Universität zu Berlin Bsp. 4.7 1 −x2/2 f (x) = √ e (Normal) 2π 1 −|x| (Doppelexp) g(x) = e 2 r r f (x) 2 −x2/2+|x| 2 (−x2+2|x|−1+1)/2 sup = sup e = sup e g(x) π π x x rx r 2 1/2 2 1/2 2 e sup e−(x−1) = e ≈ 1.315. = π π x,x≥0 Verwerfungsmethode.sas 397 W.Kössler, Humboldt-Universität zu Berlin Erzeugung von zwei beliebig abhängigen Zufallsgrößen Es seien X und Y zwei unabhängige, standardnormalverteilte Zufallsgrößen (X, Y ∼ N(0, 1)), die wie in Ab- schnitt 4.2 erzeugt wurden. Wir definieren zwei weitere Zufallsgrößen X ∗ und Y ∗ wie folgt: X ∗ := X Y ∗ p := % · X + 1 − %2 · Y (% ∈ [0, 1]) Beh.: % ist der gewünschte Korrelationskoeffizient zwischen X ∗ und Y ∗. Beweis: ÜA. Ist % = 1, dann gilt Y ∗ = X ∗ = X, d.h. die beiden Zufallsgrößen sind identisch. Wird % = 0 gewählt, so sind beide Zufallsvariablen unabhängig. 398 W.Kössler, Humboldt-Universität zu Berlin 4.3 Weitere Simulationen Simulation einer Markoff’schen Kette gegeben: Zustandsraum: S = {1, 2, . . .} Anfangsverteilung: {p0j }j=1,2..., (p00 = 0) Übergangsmatrix: pij i=1,2,... j=1,2,... 1. Schritt: Erzeuge eine Pseudozufallszahl U0. Falls i i−1 X X p0k p0k ≤ U0 < k=0 k=0 so starte im Zustand “i”. n-ter Schritt: Im n − 1ten Schritt sei der Zustand “i” erreicht worden. Erzeuge eine Pseudozufallszahl Un. Falls j−1 X k=0 pik ≤ Un < j X pik k=0 so gehe in den Zustand “j”. 399 W.Kössler, Humboldt-Universität zu Berlin Das Buffonsche Nadelproblem (1777) In der Ebene seien zwei parallele Geraden im Abstand a gezogen. Auf die Ebene wird zufällig eine Nadel der Länge l, l ≤ a) geworfen. Frage: Wie groß ist die Wkt., daß die Nadel eine der Geraden schneidet? Was heißt Nadel zufällig werfen? X: Abstand des Nadelmittelpunkts von der nächstgelegenen Geraden, 0 ≤ X ≤ a2 . φ: Winkel zwischen Nadel und Geraden, 0 < φ ≤ π. Nadel zufällig werfen: a X ∼ R(0, ), 2 φ ∼ R(0, π). Wann schneidet die Nadel eine Parallele? gdw. l X ≤ sin φ 2 400 W.Kössler, Humboldt-Universität zu Berlin gdw. der Punkt (φ, X) unterhalb des Sinusbogens liegt. Fläche unterhalb des Sinunbogens P = Fläche des Rechtecks[0, π]x[0, a2 ] R π/2 l sin φ dφ 0 2 = π · a2 2l = πa Insbesondere: a = 2l: 1 P = . π Schätzung für π: π̂ = 401 #Würfe #Treffer W.Kössler, Humboldt-Universität zu Berlin ∗ Simulation von auf der n-dimensionalen Kugelober- fläche gleichverteilten Zufallsvariablen Satz 4.8 Seien Xi ∼ N (0, 1), i.i.d. Yi = i = 1, . . . , n, und Xi , R i = 1, . . . , n, R2 = n X wobei Xi2. i=1 Dann gilt Yi ∼ R(KnO (0, 1)), wobei KnO (0, 1) die Oberläche der n-dimensionalen Einheitskugel ist. Beweis: Wir betrachten die Transformation G : Rn−1 × R+ → Kn−1(0, 1) × R+ wobei Kn−1(0, 1) die n − 1 dimensionale Einheitsvollkugel ist. 402 W.Kössler, Humboldt-Universität zu Berlin x2 y2 = r ... xn yn = r r = r Diese Abbildung ist injektiv und es gilt für G−1: x2 = r · y2 ... xn = r · yn r = r Die Jacobi-Matrix ist r 0 −1 ∂G (y2, . . . , yn, r) J := = ∂(y2 , . . . , yn, r) 0 0 403 0 . . . 0 y2 r ...0 ... 0 ...r 0 ...0 y3 yn 1 W.Kössler, Humboldt-Universität zu Berlin Also: det J = rn−1. Die gemeinsame Dichte von (Y, R) = (Y1, Y2, . . . , Yn, R) ist dann fY,R(y1, . . . , yn, r) fX,R(ry1, G−1(y2, . . . , yn, r)) · det J, y 2 = 1 − Pn y 2 1 j=2 j = 0 sonst r 2 yj2 Q Pn−1 2 2 1 n n e− 2 · rn−1, yn = 1 − j=1 yj j=1 2 (2π) = 0, sonst 2 Pn−1 2 2 1 n e− r2 · rn−1 falls yn = 1 − j=1 yj 2 (2π) = 0 sonst Die Zufallsvektoren (Y1, . . . , Yn) und R sind also unabhängig und wegen 2 − r2 e 404 n−1 ·r (2π)n/2 2 n−1 − r2 r e Γ( n2 ) = n −1 n · n 2 2 Γ( 2 ) 2π 2 1 = fχn (r) · AKnO (0,1) W.Kössler, Humboldt-Universität zu Berlin ist R ∼ χn und Y ∼ R(KnO (0, 1)) mit der Dichte 1 AKnO (0,1) wobei n 2 2π Γ( n2 ) die Fläche der n-dimensionalen Einheitskugel ist. AKnO (0,1) = 2 Bem.: Die Fläche der n-dimensionalen Kugeloberfläche ist, vgl. Fichtenholz 3, S.389, AKnO (0,r) = n 2 2π n−1 n r Γ( 2 ) n = 2: 2πr n = 3: 4πr 2 n = 4: 4π 2r3 405 Γ( 32 ) = 1 1 Γ( 2 2) = √ π 2 W.Kössler, Humboldt-Universität zu Berlin 406 W.Kössler, Humboldt-Universität zu Berlin Kapitel 5 Markoff’sche Ketten Contents 1 2 3 4 5 6 Definitionen und einfache Zusammenhänge409 Klassifikation der Zustände . . . . . . . . . . . . . 418 Rekurrente und transiente Zustände . . . 424 Grenzverteilungen . . . . . . . . . . . . . . . . . . . . . . 435 Klassische Beispiele . . . . . . . . . . . . . . . . . . . . . 453 Simulated Annealing . . . . . . . . . . . . . . . . . . . . 468 407 Beispiele Irrfahrten (auf der Geraden, der Ebene, im Raum) Ruin des Spielers Markov Chain Monte Carlo (z.B. Simulated Annealing) Fragestellungen Rückkehrwktn., Absorptionswktn. Erste Rückkehr Stationäre Verteilungen 408 W.Kössler, Humboldt-Universität zu Berlin 1 Definitionen und einfache Zusammenhänge {Xt}t∈T : Famile von Zufallsgrößen. T : total geordnete Menge (mit kleinstem Element t0). T endlich, o.B.d.A. T = {0, 1, 2, . . . , k} oder T abzählber, o.B.d.A. T ∈ {0, 1, 2, . . .} = N Wir betrachten ein System, das aus einem Anfangszustand für t = t0 schrittweise übergeht in Zustände für t = t1, t = t2, . . .. Menge der Zustände: Zustandsraum S, S = {1, 2, . . . , m} oder S = N oder S = Z. Für jedes t wird der (aktuelle) Zustand durch eine Zufallsvariable Xt beschrieben, P (Xt ∈ S) = 1, 409 Ft(x) := P (Xt < x) W.Kössler, Humboldt-Universität zu Berlin Def. 5.1 Es sei T , T ⊆ Z+, eine abzählbare Menge und S, S ⊆ Z (Zustandsraum) eine höchstens abzählbare Menge. Die Elemente von S nennen wir Zustände. Es sei nun {Xt}t∈T eine Familie von zufälligen Größen, für die gelte: P (Xt ∈ S) = 1, ∀t ∈ T. Diese Familie von Zufallsgrößen heißt M ARKOFF’sche Kette, falls gilt: P (Xt+1 = j| Xt = i, Xt−1 = it−1, . . . , X0 = i0) = (t) P (Xt+1 = j| Xt = i) =: pij . Die Anfangsverteilung der M ARKOFF’schen Kette be(0) zeichnen wir mit pi = P (X0 = i). 410 W.Kössler, Humboldt-Universität zu Berlin Bem.: Wir stellen uns also vor, daß wir, beginnend im Zustand i0, über die Zustände i1, . . . , it−1 in den Zustand i gelangt sind und nun in einen weiteren Zustand übergehen wollen. Eine Familie von Zufallsgrößen ist eine M ARKOFF’sche Kette, wenn für den Übergang in diesen Zustand nur der unmittelbar vorangegangene Zustand, also der Zustand i, relevant ist. (Markoff-Eigenschaft) Def. 5.2 Eine M ARKOFF’sche Kette heißt homogen, wenn (t) für alle i, j ∈ S und für alle t ∈ T gilt, daß pij = pij , d.h. wenn die Übergangswahrscheinlichkeiten unabhängig vom jeweiligen Schritt t sind. pij heißt Übergangswahrscheinlichkeit vom Zustand i in den Zustand j. 411 W.Kössler, Humboldt-Universität zu Berlin Def. 5.3 Die Matrix M = (pij )i,j∈S , p11 p12 p21 p22 M= p p 31 32 .. .. p13 . . . p23 . . . , p33 . . . .. heißt Übergangsmatrix der M ARKOFF’schen Kette, falls folgendes gilt: pij ≥ 0, ∀i, j ∈ S und X j∈S pij = 1 ∀i ∈ S, d.h. die Wahrscheinlichkeit, in irgendeinen nächsten Zustand j zu gelangen, ist Eins. Wir werden in diesem Kapitel ausschließlich homogene M ARKOFF’sche Ketten betrachten. Es sei nun {Xt}t∈T eine solche homogene M ARKOFF’sche Kette. Wir definieren: pij (n) := P (Xm+n = j| Xm = i). 412 W.Kössler, Humboldt-Universität zu Berlin Das ist die Wahrscheinlichkeit, daß man nach n Schritten aus dem Zustand i in den Zustand j gelangt. Da die Kette homogen ist, gilt: pij (n) = P (Xn| X0 = i). Wie kann nun die Matrix für die Wahrscheinlichkeiten pij (n) aus der Ein–Schritt–Übergangsmatrix“ berech” net werden? Annahme: Anfangszustand und Übergangswahrscheinlichkeiten pij bekannt. Es gilt: 1 , falls i = j; pij (0) = 0 , sonst. pij (1) = pij . Untersuchen wir die Wahrscheinlichkeit pij (2): pij (2) = P (X2 = j| X0 = i) X = P (X2 = j, X1 = k| X0 = i) k∈S 413 W.Kössler, Humboldt-Universität zu Berlin Wir wenden nun die Formel der totalen Wahrscheinlichkeit (vgl. Seite 75) an, und zwar mit • Ai := {X1 = i}, für alle i ∈ S, denn: S Ai = Ω i∈S und Ai ∩ Aj = ∅, für alle i, j ∈ S mit i 6= j; • A := {X2 = j}. Dann erhalten wir: X pij (2) = P (X2 = j| X1 = k, X0 = i) · P (X1 = k| X0 = i) = = k∈S X k∈S X k∈S P (X2 = j| X1 = k) · P (X1 = k| X0 = i) pkj · pik Dabei haben wir ausgenutzt, daß wir es mit einer M AR KOFF ’schen Kette zu tun haben. Wir sehen: Tragen wir die Werte pij (2) in eine Matrix ein, so läßt sich diese als das Produkt der Übergangsmatrix M mit sich selbst darstellen. Folglich gilt für die Matrix M2 der zweischrittigen Übergänge: M2 = (pij (2))i,j∈S = M2. 414 W.Kössler, Humboldt-Universität zu Berlin Allgemein gilt die Rekursion von C HAPMAN –KOLMOGOROFF Mn = Mn, bzw.: X pij (n) = pik (n − m) · pkj (m) = k∈S X k∈S pik (n − 1) · pkj , (m = 1). Folg. 9 P (Xn = j) = X k pkj (n) · p0k . Beweis: Es gilt: X P (Xn = j, X0 = k) P (Xn = j) = = = k X k X k P (Xn = j|X0 = k) · P (X0 = k) pkj (n) · p0k . 2 pj = P (Xn = j), p=M 415 nT pT = (p1, p2, . . .) 0 ·p , T p =p 0T · Mn W.Kössler, Humboldt-Universität zu Berlin Bsp. 5.1 (Ein-Prozessorsystem) mit einer I/O–Einheit, vgl. Bsp. 1.23 S = {1, 2} 1: Programmstatus, in dem sich das System befindet, wenn es ein Programm abarbeitet (Prozessor aktiv) 2: I/O–Status, der dann angenommen wird, wenn die I/O–Einheit aktiviert wird. Für jeden Schritt n, den das System macht, definieren wir eine Zufallsgröße Xn, die die Elemente der Menge S als Werte annehmen kann, je nachdem, in welchem Zustand sich das System in diesem Schritt befindet. Dann haben wir für die Übergänge zwischen den einzelnen Zuständen folgende Wahrscheinlichkeiten: 416 W.Kössler, Humboldt-Universität zu Berlin Xn = 1 =⇒ Xn+1 = 1, mit Wahrscheinlichkeit q = 1 − p Xn = 1 =⇒ Xn+1 = 2, mit Wahrscheinlichkeit p Xn = 2 =⇒ Xn+1 = 1, mit Wahrscheinlichkeit 1 Xn = 2 =⇒ Xn+1 = 2, mit Wahrscheinlichkeit 0 Übergangsmatrix: 1−p p M= . 1 0 (0) Die Anfangsverteilung pi = P (X0 = i) müssen wir festlegen. Sie ist, entsprechend der Arbeitsweise des Systems, wie folgt definiert: (0) • p1 = 1, d.h. die erste Aktion ist mit Wahrscheinlichkeit Eins die Ausführung eines Programms; (0) • p2 = 0, d.h. die erste Aktion ist mit Wahrscheinlichkeit Null die Aktivierung der I/O–Einheit. 2 (1 − p) + p p(1 − p) M2 = 1−p p 417 W.Kössler, Humboldt-Universität zu Berlin