SoSe 2007 Prof. Dr. A. WAKOLBINGER Übungen zur Vorlesung ” Elementare Stochastik “ Lösungen und Tipps zu ausgewählten Aufgaben 20. X sei Nummer des Zuges, bei dem erstmals eine rote Kugel gezogen wird P(X ≥ i) = b+1 b+i−3 b+i−2 b b · ··· · = b+1 b+2 b+i−2 b+i−1 b+i−1 X ≥ i bedeutet, dass in den ersten (i − 1) Zügen eine blaue Kugel gezogen wird. Dabei wird jedesmal eine zusätzliche blaue Kugel in die Urne gelegt und die Anzahl der blauen Kugeln in der Urne steigt um eins. E[X] = ∞ X i=0 P(X ≥ i) = Die harmonische Reihe P∞ 1 k=1 k ∞ X i=0 ∞ b−1 k=1 k=1 Xb Xb b = − =∞ b+i−1 k k divergiert. 24. (X1 , ..., Xr ) multinomial (n; p1 , ..., pr )-verteilt Berechnung von Cov[Xi , Xj ]: Var[Xi + Xj ] = Var[Xi ] + Var[Xj ] + 2Cov[Xi , Xj ] Xi ist binomial (n, pi )-verteilt, Xi + Xj ist binomial (n, pi + pj )-verteilt ⇒ Var[Xi ] = npi (1 − pi ), Var[Xj ] = npj (1 − pj ) und Var[Xi + Xj ] = n(pi + pj )(1 − (pi + pj )) 1 (Var[Xi + Xj ] − Var[Xi ] − Var[Xj ]) 2 = −npi pj Cov[Xi , Xj ] = Die Korrelation ist negativ. Bei der Multinomialverteilung (n; p1 , ..., pr ) gibt es n Erfolge, die sich auf X1 bis Xr verteilen. Viele Treffer für Xi bedeuten daher tendenziell weniger Treffer für Xj 25. (X1 , ..., Xn ) zufällige Permutation von 1, ..., n. a) Var[Xi ] = E[Xi2 ] − (E[Xi ])2 Die Wahrscheinlichkeit, dass nach der zufälligen Permutation die Zahl k auf dem i-ten Platz liegt, ist n1 E[Xi ] = E[Xi2 ] = Pn k k=1 n = k2 k=1 n Pn ⇒ Var[Xi ] = n+1 2 = (n+1)(2n+1) 6 n2 −1 12 b) Cov[Xi , Xj ] Trick: Var[X1 + ... + Xn ] = 0, da sich die Gesamtsummer aller Zahlen bei einer Permutation nicht ändert. Var " n X i=1 Xi # n X = Var[Xi ] + X Cov[Xi , Xj ] i6=j i=1 = nVar[Xi ] + n(n − 1)Cov[Xi , Xj ] = 0 i] ⇒ Cov[Xi , Xj ] = − Var[X = n−1 −(n+1) 12 29. Z1 , Z2 sind unabhängig N (0, 1)-verteilt. Die gemeinsame Verteilung von Z1 und Z2 hat Dichte fZ1 ,Z2 (z1 , z2 ) dz1 dz2 = 1 − z12 +z22 2 dz1 dz2 e 2π Der Übergang zu Polarkoordinaten liefert: Z ∞ Z 2π 1 − r′2 ′ P {Z12 + Z22 ≥ r2 } = e 2 r dθdr′ 2π r 0 Z ∞ r′2 = e− 2 r′ dr′ r 2 = e − r2 . Für R2 := Z12 + Z22 ergibt sich damit: b P R 2 ≥ b = e− 2 . Die Zufallsvariable R2 ist also Exp( 21 )-verteilt, und hat als Verteilungsdichte fR2 (b) db = 1 −b e 2 db. 2 b (In der Tat ist ja e− 2 = R∞ b 1 − r2 2e Zur Verteilungdichte von R := dr.) R2 ist also exp p Z12 + Z22 : 1 2 -verteilt 2 r0 P (R ≥ r0 ) = P R2 ≥ r02 = e− 2 . Die Verteilungsdichte von R ist davon die negative Ableitung, also 1 − r2 re 2 . 2 fR (r) = In der Tat ist ja e− 2 r0 2 = Z ∞ r0 1 − r2 re 2 dr. 2 30. Rechtwinkliges Dreieck ABC, AC = 1 Y := CB , Winkel Φ bei A uniform verteilt auf 0, π2 tan Φ = CB AC ⇒ Y = tan Φ Verteilungdichte von Y : P(Y ≤ b) = P(tan Φ ≤ b) = P (Φ ≤ arctan b) = Die Verteilungsdichte ist davon die Ableitung, also fY (b) = (In der Tat ist ja arctan b π 2 = Erwartungswert von Y : E[Y ] 2 1 . π 1 + b2 Rb 2 1 dy.) 0 π 1+y 2 = = = Z ∞ Z0 ∞ Z0 ∞ 1 yfY (y)dy 2 y dy π 1 + y2 1 du ∞ = [ln u]1 = ∞ π u 31. a) X1 sei Exp((λ1 )-verteilt mit λ1 = 3 X2 sei Exp((λ2 )-verteilt mit λ2 = 5 X1 und X2 seien unabhängig arctan b π 2 . P (min(X1 , X2 ) ≥ t) = P (X1 ≥ t) · P (X2 ≥ t) Z ∞ Z ∞ −λ1 x λ1 e dx λ2 e−λ2 x dx = t t e−(λ1 +λ2 )t = e−8t = b) Y := min(X1 , X2 ); fY (·) sei Verteilungsdichte von Y P (Y ≥ t) = e−8t = ⇒ fY (y) = − Z ∞ fY (y)dy t d −8t = 8e−8t e dt Y ist also Exp(8) verteilt und damit E[Y ] = 81 . 32. Der Stab hat Länge ℓ. Die beiden Bruchstellen seien x und y ∈ [0, ℓ]. Ist z.B. x ≤ y, dann haben die drei Stücke die Länge x, y − x und ℓ − y. Man kann genau dann ein Dreieck bilden, wenn je zwei Stücke in Summe länger sind als das dritte. Die Bedingungen dafür sind für x ≤ y: x + (y − x) > ℓ − y ⇐⇒ y > ℓ/2 x + (ℓ − y) > y − x ⇐⇒ y − x < ℓ/2 (y − x) + ℓ − y > x ⇐⇒ x < ℓ/2 und analog für y ≤ x: x > ℓ/2, x − y < ℓ/2, y < ℓ/2. Die Punkte (x, y), für die ein Dreieck gebildt werden kann, machen somit die in der Abbildung schraffierte Teilfläche des Quadrates [0, ℓ] × [0, ℓ] aus. Diese hat Flächeninhalt ℓ2 /4. y ℓ X und Y unabhängig und uniform auf [0, l] ist gleichbedeutend mit (X, Y ) uniform auf [0, ℓ] × [0, ℓ]. ⇒ P{Dreieck kann gebildet werden} = 14 ℓ/2 ℓ x 35. a) Es gibt 18 10 Besetzungen der Plätze Nr. 2, . . . , 10 mit den 10 Objekten. (18) 9 Die W’keit, dass Platz Nr. 1 leer bleibt, ist somit 10 . = 19 (19 10) b) Es gibt 17 Besetzungen der Plätze Nr. 2, . . . , 10 mit den 10 Objek10 ten. Die W’keit, dass Platz Nr. 1 und Platz Nr. 2 leer bleiben, ist somit (17 10) 4 = 19 (19 10) c) Y sei die Anzahl der leer bleibenden Plätze; Yi := 1 falls Platz Nr. i P10 leer bleibt, und 0 sonst. Dann ist Y = i=1 Yi . Wir berechnen erst den Erwartungswert von Y1 und die Covarianz von Y1 und Y2 : Aus a) und b) folgt: E[Y1 ] = P(Y1 = 1) = 9 19 , E[Y1 Y2 ] = P(Y1 = 1, Y2 = 1) = 2 2 Var(Y1 ) = E[Y12 ]] − (E[Y1 ]) = P(Y1 = 1) − (E[Y1 ]) = 4 19 90 361 5 Cov(Y1 , Y2 ) = E[Y1 Y2 ] − E[Y1 ]E[Y1 ] = − 361 Aus Symmetriegründen ist für i 6= j das Paar (Yi , Yj ) so verteilt wie (Y1 , Y2 ), also E[Yi ] = E[Y1 ], Var Yi = Var Y1 , Cov[Yi Yj ] = Cov[Y1 Y2 ]. Damit folgt: E[Y ] = P10 i=0 E[Yi ] = Var(Y ) = Var P 10 i=1 90 19 P P 10 Yi = i=1 Var(Yi ) + i6=j Cov(Yi , Yj ) = 10 Var(Y1 ) − 10 · 9 Cov(Y1 , Y2 ) = 450 361 . 36. a) Die Verteilung von X + Y : X bzw. Y beschreibt die Anzahl der Erfolge bei n1 bzw. n2 Münzwürfen mit Erfolgswahrscheinlichkeit p. Aufgrund der Unabhängigkeit zählt X +Y die Anzahl der Erfolge bei n1 +n2 Münzwürfen. X + Y ist also binomialverteilt mit Parametern (n1 + n2 , p). b) i) X und Y lassen sich approximieren durch unabhängige binomialverteilte Zufallsvariable X̃, Ỹ mit großem n1 , n2 und n1 p ≈ α, n1 p ≈ β, also lässt sich X + Y approximieren durch X̃ + Ỹ , und das ist nach Teil a) Binomial(n1 + n2 , p) und somit annähernd Poisson(α + β) verteilt. ii) P(X + Y = k) = k X j=0 = k X P(X = j)P(Y = k − j) e−α j=0 = = αj −β β k−j e j! (k − j)! k k! e−(α+β) X j k−j α β k! j!(k − j)! j=0 e−(α+β) (α + β)k k! 38. B sei endliche Menge mit m := |B|. Es sei n eine natürliche Zahl und F rein zufälliges Element aus B {1,...,n} a) Zu zeigen ist die Unabhängigkeit, d.h. P(F (1) ∈ B1 , ..., F (n) ∈ Bn ) = P(F (1) ∈ B1 ) · · · P(F (n) ∈ Bn ) für beliebige Teilmengen B1 , ..., Bn von B. Es genügt zu zeigen P(F (1) ∈ b1 , ..., F (n) ∈ bn ) = P(F (1) ∈ b1 )···P(F (n) ∈ bn ) für beliebige Elemente b1 , ..., bn von B, denn X X P(F (1) = bi1 , ..., F (n) = bin ) ··· P(F (1) ∈ B1 , ..., F (n) ∈ Bn ) = i1 |bi1 ∈B1 = X i1 |bi1 ∈B1 = in |bin ∈Bn P(F (1) = bi1 ) · · · X P(F (n) = bin ) in |bin ∈Bn P(F (1) ∈ B1 ) · · · P(F (n) ∈ Bn ) Noch zu zeigen P(F (1) ∈ b1 , ..., F (n) ∈ bn ) = P(F (1) ∈ b1 ) · · · P(F (n) ∈ bn ) : P(F (1) ∈ b1 , ..., F (n) ∈ bn ) 1 1 1 = ··· n m m m = P(F (1) ∈ b1 ) · · · P(F (n) ∈ bn ) = F ist ein rein zufälliges n-Tupel mit jeweils m verschiedenen möglichen Einträgen in jeder Komponente. Es gibt also insgesamt mn mögliche n-Tupel F . Die Wahrscheinlichkeit für ein festes F ist damit m1n . b) Zu zeigen ist: F (1) und F (g(F (1))) sind unabhängig P(F (1) = b1 , F (g(F (1))) = b2 ) = = = P(F (1) = b1 , F (g(bn )) = b2 ) 1 mn−2 = 2 n m m P(F (1) = B1 )P(F (g(F (1))) = b2 ) g(b1 ) ist eine feste Zahl in {2, .., n}. {F (1) = b1 , F (g(bn )) = b2 } bedeutet also, dass zwei Komponenten von F festgelegt sind. Für die übrigen n − 2 Komponenten gibt es jeweils m mögliche Einträge. 40. Die beobachteten Lebenszeiten seien t1 , ..., tn a) Likelihoodfunktion L(λ): L(λ) = = P ((T1 , ..., Tn ) = (t1 , ..., tn )|λ) λe−λt1 · · · λe−λtn = λn e−λ(t1 +...+tn ) b) Maximum-Likelihood: In einigen Fällen ist es einfacher, den Logarithmus der Likelihoodfunktion abzuleiten. Da ln eine streng monotone Funktion ist, stimmen das Maximum von L(λ) und das Maximum von ln(L(λ)) überein. d ln(L(λ)) dλ = = d ln(L(λmax )) dλ = ⇒ d (n ln λ − λ(t1 + ...tn )) dλ n − (t1 + ... + tn ) λ 0 λmax = n . t1 + ... + tn 41 (Tipp) Ein 95 % Konfidenzintervall für einen zu schätzenden Verteilungsparameter ist ein aus den zufälligen Daten konstruiertes Intervall, das den Parameter mit Wahrscheinlichkeit (von mindestens) 0.95 überdeckt (vgl. dazu Vorlesung 8a). Sind X1 , . . . , , Xn unabhängig und N (µ, σ 2 )-verteilt, dann ist X̄n := n1 (X1 + · · · + Xn ) N (µ, σ 2 /n)-verteilt (warum?) 2σ X̄n fällt also mit Wahrscheinlichkeit 0.95 zwischen die Grenzen µ − √ und n 2σ µ + √ (warum?) n 2σ 2σ Damit gleichbedeutend: Das zufällige Intervall X̄n − √ , X̄n + √ übern n deckt µ mit W’keit 0.95. 42 und 43 (Tipp) X sei eine Zufallsvariable mit Verteilung νϑ ; dabei ist ϑ ein zu schätzender Parameter. Es gilt P{X = a} = νϑ (a), oder P{X ∈ da} = gϑ (a) da. Maximum-Likelihood-Methode: Nimm als Schätzer dasjenige ϑ, welches den Ausgang a am wahrscheinlichsten macht. M.a.W.: Finde zu gegebenem a dasjenige ϑ mit νϑ (a) = max! bzw. gϑ (a) = max! Beispiel: X0 habe Dichte fϑ (x) dx, und X1 , X2 , X3 seien unabhängige Kopien von X0 . Dann hat X = (X1 , X2 , X3 ) die Dichte fϑ (x1 )fϑ (x2 )fϑ (x3 ) dx1 dx2 dx3 Von X wird der Ausgang a = (a1 , a2 , a3 ) beobachtet. Zu finden ist dann dasjenige ϑ mit AAAAAAAAAAAAAAAAfϑ (a1 )fϑ (a2 )fϑ (a3 ) = max! 45 (Tipp) Zur Erinnerung (siehe Vorlesung 9a): Die Zahlen a und b mit E[(Y − (aX + b))2 ] = min! ergeben sich durch die beiden Bedingungen a= σY Cov[X, Y ] κ[X,Y ] = , 2 σX σX µY = aµX + b. 46. Sei Gi das Ereignis “Farbwechsel bei zwischen i und i + 1” . P 24 P(Gi ) = 31 , E[ 31 i=1 IGi ] = 24. P 47. Sei σ 2 := Var[Xi ]. Also ist 0 = Var[ Xi ] = gσ 2 + g(g − 1)σ 2 κ. 1 . Also ist κ = − g−1 48. Für die Verteilungsfunktion gilt: F (b) := P{Y < b} = 0 für b < −1, F (b) = 1 für b > 1. Und für −1 ≤ b ≤ 1 ist F (b) = P{Y < b} = P{U < π2 arcsin(b)} = 21 ( π2 arcsin(b) + 1). Die Dichte von Y ist die Ableitung von F : f (y) dy = π1 √ 1 2 dy, −1 < y < 1. 1−y Pn 49. Antwort auf das “warum”: Man kan N := i=1 Yi nehmen. Dann steht links und rechts eine Summe von N der Zi . Diese beiden Summen sind in Verteilung gleich. zu a) (Y Also ist X Binomial(n, pr)-verteilt. P P1 Z1 , Y2 Z2 , . . .) ist ein pr-Münzwurf. n zu b) n≥k P{N = n, X = k} = n≥k e−λ λn! nk pk q n−k k k n−k n−k P q λk k −λ λ(1−p) (pλ) −pλ (pλ) e = n≥k e−λ λ (n−k)! k! p = e k! = e k! . Das passt zu a), denn für großes n und nr = λ ist Binomial(n, pr) ja nahe bei Poisson(pλ). 50. P(Gi ) = (n−1)! = n1 , n! 1 P(Gi1 ∩ · · · Gik ) = n(n−1)···(n−k+1) n 1 Also ist k P(G1 ∩ · · · Gk ) = k! P(Gi ∩ Gj ) = (n−2)! n! ) = 1 n(n−1) , Nach der Ein-Ausschaltregel ergibt sich als Wahrscheinlichkeit für “mindestens einen Fixpunkt”: 1 1 1 P(G1 ∪ · · · ∪ Gn ) = 1 − 2! + 3! − · · · + (−1)n+1 n! . Also ist die Wahrscheinlichkeit für Fixpunktfreiheit gleich 1 1 1 − 3! + · · · + (−1)n n! . Für n → ∞ konvergiert sie gegen e−1 . 1 − 1 + 2! 50∗ . Wie in Aufgabe 50, aber jetzt mit 1 , q = 1 − p. P(Gi1 ∩ · · · Gik ) = q k n(n−1)···(n−k+1) Also ist die W’keit, dass keiner mit seinem Hut heimkommt, gleich n 2 3 1 − q + q2! − q3! + · · · + (−q) ≈ e−q . n! 51. Es seiein J1 und J2 die Listenkennzahlen der beiden ausgewählten Daten. Zerlegung nach den Ausgängen von K ergibt: Pr kj (kj −1) P P P{J1 = J2 } = k P{K = k}Pk {J1 = J2 } = k P{K = k} j=1 n(n−1) Pr 1 = n(n−1) j=1 E[Kj (Kj − 1)] In VL 10a haben wir ausgerechnet: E[Kj2 ] = p2j n(n − 1) + npj . Somit ist E[Kj (Kj − 1)] = p2j n(n − 1), und die P gesuchte Wahrscheinlichkeit ist j p2j . Das kann man noch professioneller haben: Aus Austauschbarkeitsgründen sind die beiden gewählten Daten das als erstes und das als zweites einsortierte. Die Frage dann: Mit welcher W’keitP bekommt man beim zweimaligen Würfeln dasselbe Ergebnis, mit der Antwort j p2j . 52. a) P{max(X, Y ) < t} = (1 − e−αt )(1 − e−βt ) = 1 − e−αt − e−βt + e−(α+β)t Die Ableitung davon ist die Dichte von max(X, Y ): αe−αt + βe−βt − (α + β)e−(α+β)t b) Die Dichte von X1 + X22 ist R t −s −2(t−s) Rt 2e ds = 2e−2t 0 es ds = 2e−2t (et − 1) = 2(e−t − e−2t ) 0 e Das stimmt mit a) überein in Fall α = β = 1. Zur Feinspitzfrage: Nimmt man die beiden Münzwürfe zusammen, dann hat man die Erfolgswahrscheinlichkeit n2 − n12 ≈ n2 . Die Zeit, bis der “glücklichere” der beiden Münzwürfe seinen ersten Erfolg hat, ist annähernd Exp(2) verteilt. Ab dann betrachten wir nur noch den anderen. Bis der seinen Erfolg hat, dauert es nochmal annähernd Exp(1)-verteilt lange. Salopp gesagt: Bis zum gemeinsam ersten Erfolg tickt der Wecker mit doppelter Rate (d.h. Rate 2), ab dann (bis zum ersten Erfolg des am gemeinsamen ersten Erfolg nicht beteiligten Münzwurfs) tickt der Wecker mit einfacher Rate. Und die Länge dieser zweiten Periode ist unabhängig von der ersten! 53. X, Y, Z seien die Lebensdauern der 3 Geräte A, B, C, V := min(Y, Z). P{V > t} = e−(β+γ)t , P{max(X, V ) > t} = e−αt + e−(β+γ)t − e−(α+β+γ)t (vgl Aufgabe 52 a) 54. Wir folgen dem Hinweis. Sei w(x) die W’kt dafür, dass C gewinnt, in Abhängigkeit vom Startzustand. Zerlegung nach dem ersten Schritt ergibt: w(AC) = 21 w(CB), w(CB) = 12 + 12 w(BA), w(BA) = 21 w(AC) Die dritte und erste Gleichung in die zweite eingesetzt: w(CB) = 12 + 18 w(CB), also w(AC) = 27 . Die Wahrscheinlichkeit, dass A oder B gewinnt, ist also 75 . Weil A die allererste Partie (gegen B) mit W’keit 1/2 gewinnt, sind die gesuchten 5 5 , 14 . Gewinnwahrscheinlichkeiten 27 , 14 55. Wir betrachten den folgenden Graphen: xyz 4 6 1 6 xy 5 6 1 6 5 6 x 1 6 xx 1 6 xxx (Der Pfeil von xy nach xx kommt durch den Übergang von xy zu xyy zustande, und der Pfeil von xy zu sich selbst kommt durch den Übergang von xy zu xyx zustande, jeweils mit Vertauschung der Namen von y und x.) Zerlegung nach dem ersten Schritt ergibt (1) ergibt: w(xy) = w(xx) = w(x) = 1 2 1 + w(xy) + w(xx) 3 6 6 5 w(xy) 6 5 1 w(xy) + w(xx) 6 6 (1) (2) (3) 5 6 w(xy) = 23 + 61 w(xx) Darin (2) eingesetzt: w(xx) = 23 + 61 w(xx), 24 also w(xx) = 54 , w(x, y) = 65 · 54 = 25 . 2 4 Aus (3) ergibt sich: w(x) = 5 + 15 = 14 15 . Letzteres ist die Gewinnwhrscheinlichkeit von B. 56. (i), (ii): Die Verteilung von Y bedingt unter X = x ist eine um x verschobene Exp(2)-Verteilung. Der bedingte Erwartungswert ist x + 1/2, die bedingte Varianz ist 1/4, die bedingte Dichte ist 2e−2(y−x). (iii) Die gemeinsame Dichte von Z und Y ist 2e−2z e−(y−z) dz dy = 2e−z−y dz dy. Nach Aufgbae 52 b) ist die Dichte von Y gleich 2(e−y − e−2y ) dy = 2e−y (1 − e−y ) dy. Damit ist die Dichte von Z bee−z dingt unter Y = y der Quotient 1−e −y dz, 0 ≤ z ≤ y. 57. Mit der Formel von Bayes folgt: 0.8·0.1 = 49 . P{M1 = a | M2 = 1} = 0.8·0.1+0.15· 1 +0.05·1 3 58. E[Y |I = 1] = 6, E[Y |I = 2] = 3, Var[Y |I = 1] = 25, Var[Y |I = 2] = 41 (22 + 1 + 1 + 22 ) = 2.5 E[Y ] = 24/6 = 4, Var[Y ] = 16 (32 + 72 + 32 + 22 + 0 + 1) = 72 6 = 12. Var[EI [Y ]] = 26 · 22 + 64 · 1 = 2. E[VarI [Y ]] = 26 · 25 + 64 · 52 = 10, und 10 + 2 ist tatsächlich gleich 12. 1 59. X0 habe Verteilungsgewichte π(x) = c g(x), x ∈ S, mit c = P g(x ′) . 1 Gegeben X0 = x hat X1 die Verteilungsgewichte g(x) , y ∼ x. Dann gilt 1 P{X0 = x, X1 = y} = c g(x) g(x) = c für y ∼ x, und = 0 sonst. Dasselbe gilt aber auch für P{X0 = y, X1 = x}. 60. Sei e(x) der Erwartungswert der Anzahl Schritte bis zum Treffen von B bei Start in (x, y). (Aus Symmetriegründen hängt das nicht von y ab.) Zerlegung nach dem ersten Schritt ergibt e(0) = 1 + 21 e(0) + 21 e(1), e(1) = 1 + 13 e(0) + 31 e(1), mit der Lösung e(0) = 7, e(1) = 5. 61. Alle drei haben Recht. Für einen zufälligen Pólya-Pfad X (n) = (X0 , X1 , ..., Xn ) wurde in der Vorlesung gezeigt: Xn ist uniform verteilt auf (1 + n, 1), . . . , (1, 1 + n), und gegeben Xn = x, ist X (n) uniform verteilt auf allen Nordostpfaden von (1, 1) nach x. Diese zweistufige Konstruktion “von rückwärts”: erst Xn , dann X (n) = (X0 , X1 , ..., Xn ), ist die von A und B. Zu B ist noch zu bemerken, dass das Anfangsstück der Länge 10 eines Pólya-Pfades der Länge 1000 einen Pólya-Pfad der Länge 10 ergibt. Und die Konstruktion von C ist die in der Vorlesung diskutierte; sie ergibt sich nebenbei bemerkt auch aus der von B mit n = ∞ statt n = 1000.