Übungsrunde 6, Gruppe 2

Werbung
Übungsrunde 6, Gruppe 2
LVA 107.369, Übungsrunde 5, Gruppe 2, 21.11.
Markus Nemetz, [email protected], TU Wien, 11/2006
1 3.20
1.1 Angabe
Ein Los aus elektronischen Bauteilen des Umfangs N = 400 wird nach folgendem zweistufigen Plan geprüft:
1. Stufe: Zunächst wird eine Stichprobe (ohne Zurücklegen) des Umfangs 32 gezogen.
Gibt es höchstens ein unbrauchbares Stück, wird das Los sofort angenommen; gibt es
4 oder mehr unbrauchbare Stücke, wird das Los sofort zurückgewiesen. Gibt es in der
Stichprobe 2 oder 3 unbrauchbare Stücke, geht man zur 2. Stufe.
2. Stufe: Eine weitere Stichprobe (ohne Zurücklegen) des Umfangs 32 wird gezogen. Ist
die Zahl der unbrauchbaren Stücke insgesamt (1. + 2. Stichprobe) nicht größer als 4,
wird das Los akzeptiert, ansonsten (endgültig) zurückgewiesen.
Berechnen Sie die Wahrscheinlichkeit mit der bei diesem Plan ein Los mit einem Ausschußanteil von 2,5angenommen wird. Rechnen Sie dabei exakt (hypergeometrische Verteilung) sowie auf Basis einer passenden Binomialapproximation.
1.2 Theoretische Grundlagen: Hypergeometrische Verteilung
Die Hypergeometrische Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung. Umgangssprachlich werden Fragestellungen, die von der hypergeometrischen Verteilung erfasst werden auch als Ziehen ohne Zurücklegen bezeichnet.
Sie wird verwendet, um Vorgänge zu modellieren, bei denen aus einer dichotomen Grundgesamtheit zufällig eine Stichprobe entnommen und auf eine bestimmte Eigenschaft geprüft wird.
Die hypergeometrische Verteilung gibt dann Auskunft darüber, mit welcher Wahrscheinlichkeit in der Stichprobe eine bestimmte Anzahl von Elementen vorkommt, die die gewünschte Eigenschaft haben. Bedeutung kommt dieser Verteilung daher etwa bei Qualitätskontrollen zu.
Ein beispielhaftes Problem: In einer Urne befinden sich 45 Kugeln, 20 davon sind gelb.
Wie hoch ist die Wahrscheinlichkeit in einer 10-elementigen Stichprobe 4 gelbe Kugeln
zu ziehen?
Definition: Die hypergeometrische Verteilung ist abhängig von drei Parametern:
1. der Anzahl N der Elemente einer Grundgesamtheit.
2. der Anzahl M ≤ N der Elemente mit einer bestimmten Eigenschaft in dieser
Grundmenge.
3. ser Anzahl n ≤ N der Elemente in einer Stichprobe.
1
Die Verteilung gibt nun Auskunft darüber, wie wahrscheinlich es ist, dass sich k Elemente
mit der zu prüfenden Eigenschaft in der Stichprobe befinden. Der Ergebnisraum Ω ist
daher {0, 1, . . . , n}.
Eine diskrete Zufallsgröße X unterliegt der hypergeometrischen Verteilung mit den Parametern M ,N und k, wenn sie die Wahrscheinlichkeiten
µ ¶µ
¶
M
N −M
k
n−k
µ ¶
h(k|N ; M ; n) := P (X = k) =
N
n
¡N ¢
für x ∈ Ω besitzt. Dabei bezeichnet n den Binomialkoeffizienten ’N über n’.
Die Verteilungsfunktion H(x|N ; M ; n) gibt dann die Wahrscheinlichkeit an, dass höchstens k viele Kugeln erster Sorte in der Stichprobe sind. Diese kumulierte Wahrscheinlichkeit ist die Summe
¶
µ ¶µ
N −M
M
y<k
k
X
X
n−y
y
µ ¶
H(k|N ; M ; n) := P (X ≤ k) =
h(y|N ; M ; n) =
.
N
y=0
y=0
n
1.2.1 Binomialapproximation der hypergeometrischen Verteilung
Für eine Folge von hypergeometrischen Verteilungen mit den Paramtern M ,N und n mit
M
→ p für N → ∞
N
N, M → ∞ und
gilt:
lim HN,M,n (k) = Bn,p (k)
N →∞
1.3 Lösung des Beispiels
Man benötigt insgesamt 3 hypergeometrische Verteilungen:
400
W1
>3
Ausschuss
0,1
32
OK
2
3
W2
W3
32
32
0,1,2
OK
Ausschuss
2
OK
1. Stufe 1: Eine - W1 (x), N = 400, A = 10, n = 32
2. Stufe 2: Eine (falls zuvor zwei unbrauchbare gezogen wurden) - W2 (x), N = 368,
A = 8, n = 32
3. Stufe 3: Eine (falls zuvor drei unbrauchbare gezogen wurden) - W3 (x), N = 368,
A = 7, n = 32
Für die Gesamtwahrscheinlichkeit rechnen wir:
W1 (0) + W1 (1) + W1 (2) · (W2 (0) + W2 (1) + W2 (2)) + W1 (3) · (W3 (0) + W3 (1))
Konkretes Beispiel:
µ ¶ µ
¶
368 − 7
7
·
32 − 1
1
µ ¶
W3 {1} =
368
32
Man benötigt insgesamt 3 solche Verteilungen, da sich nach dem ersten Ziehen nicht
mehr 400 Stück sondern 32 weniger im ’Pool’ befinden.
Das Ergebnis nach o.g. Formel ist 0.9874, für die Binomialapproximation 0.9838.
Die Abweichung ist sehr gering - die Binomialverteilung kann sehr gut zur Annäherung
verwendet werden.
In der ISO-Norm sind bis zu 7-stufige Prüfungsmodelle definiert.
2 3.22
2.1 Angabe
Bestimmen Sie die Modalwerte einer Poissonverteilung, d.h. jene x-Werte, für die W {X =
x} maximal ist. (Hinweis: Betrachten Sie den Quotienten zweier aufeinanderfolgender
Wahrscheinlichkeiten.)
2.2 Theoretische Grundlagen: Poisson-Verteilung
Approximation für die Binomialverteilung für kleines p und großes n (tritt bei seltenen
Ereignissen auf) - Bsp.: Rosinen pro Brötchen; Druckfehler pro Seite; gleichzeitig geführte
Telefonate innerhalb einer Firma.
Sei X = N0 = {0, 1, 2, 3, . . . }, B = P(X ). Das durch
P (B) :=
X µk
e−µ ,
k!
B ⊂ X,
k∈B
definierte Maß heißt Poisson-Verteilung mit Parameter µ > 0.
3
2.3 Lösung des Beispiels
Zu betrachten ist der Quotient aus den Wahrscheintlichkeiten P (k + 1) bzw. P (k − 1)
und P (k), unterschieden durch:
1. P (x − 1) ≤ P (x)
2. P (x + 1) ≤ P (x)
Betrachten ersten Fall:
P (x)
=
P (x − 1)
µx e−µ
x!
µx−1 e−µ
(x−1)!
=
µ
≥1
x
⇒x≤µ
Betrachten zweiten Fall:
P (x)
=
P (x + 1)
µx e−µ
x!
µx+1 e−µ
(x+1)!
=
x+1
≥1
µ
⇒ x ∈ [µ − 1, µ]
Das kleinste k mit k + 1 > µ ist der Modalwert; ist µ ganzzahlig, gibt es 2 Modalwerte,
µ − 1 und µ: Modalwert = |µ|, falls µ ∈
/ N; Modalwert = µ − 1 und µ, falls µ ∈ N.
3 3.24
3.1 Angabe
Bei der Herstellung von Glasscheiben kommt es immer wieder zur Bildung von kleinen
Bläschen, die eine optische Beeinträchtigung darstellen. Ein Abnehmer bezieht 400 Scheiben dieser Art und prüft nach folgendem Schema: 50 Scheiben werden geprüft; gibt es
insgesamt nicht mehr als 14 Bläschen wird die Lieferung angenommen, ansonsten zurückgewiesen. Wie groß ist die Wahrscheinlichkeit der Annahme, wenn (im Mittel) jede
vierte (jede zweite) Scheibe einen derartigen Fehler aufweist?
3.2 Theoretische Grundlagen: Poisson-Verteilung
Siehe Beispiel 3.22!
3.3 Lösung des Beispiels
Einzusetzen ist ’Wahrscheinlichkeit einer einzelnen defekten Scheibe’ · ’Anzahl der entnommenen Scheiben’, z.B. fürs erste: λ = 25.
Beispielresultate sind dann: jede zweite Scheibe: P (14) = 0.005934, jede vierte Scheibe:
P (14) = 0.09719
Am Ende alle Wahrscheinlichkeiten addieren.
4
Konkretes Beispiel für µ = 50 · 0.25 = 12.5:
W ({0} =
12.50 · e−12.5
0!
Mit R berechnet:
Listing 1: Poisson-Verteilung mit R berechnen
1
2
3
4
> sum ( dpois ( seq (0 ,14 , by =1) , 12.5))
[1] 0.7250319
> sum ( dpois ( seq (0 ,14 , by =1) , 25))
[1] 0.01240206
4 3.25
4.1 Angabe
[R-Aufgabe] In der Vorlesung werden Bedingungen angegeben unter denen eine Binomialverteilung gut durch eine Poissonverteilung approximiert werden kann. Überprüfen Sie
dies graphisch an mehreren Beispielen (mit und ohne erfüllten Bedingungen), etwa durch
leicht versetzt nebeneinander gezeichnete Stabdiagramme.
4.2 Theoretische Grundlagen: Poisson-Verteilung
Siehe Beispiel 3.22!
4.3 Lösung des Beispiels
Ist die Anzahl der Experimente sehr groß und die Erfolgswahrscheinlichkeit klein, so kann
man die Binomialverteilung durch eine Poissonverteilung approximieren.
Wir gehen dabei von der Approximation der Binomialverteilung aus. Sei
X ≈ b(n, π).
Wenn π ’klein’ ist und n ’gross’ ist, dann gilt asymtotisch
X ≈ Poisson(λ)
Veranschaulichung durch folgende Abbildung, in der die Wahrscheinlichkeitsfunktionen
der Po(5)-Verteilung und einiger Binomialverteilungen, für die λ = nπ = 5 mit wachsendem n und fallendem π gilt, dargestellt ist.
5
Ein typisches Beispiel für die Anwendung dieses Satzes findet man in der Versicherungswirtschaft. Die Anzahl n der Versicherten ist groß, die Wahrscheinlichkeit π eines Schadenfalles ist klein. Sei X die Anzahl der Versicherten, die in einem bestimmten Zeitraum
(z.B. ein Jahr) einen Schaden anmelden. Wenn man annimmt, dass die Wahrscheinlichkeit eines Schadensfalles für jeden Versicherten gleich groß ist, so gilt
X ≈ b(n, π).
Als Approximation kann unter den obigen Voraussetzungen die Poissonverteilung verwendet werden:
X ≈ Poisson(λ),
λ = nπ
R-Befehle zur Poissonverteilung:
• dpois(x, lambda) berechnet die Wahrscheinlichkeitsfunktion der Poissonverteilung mit dem Parameter λ =lambda an der Stelle x. Dabei kann x ein Vektor
sein.
• ppois(q, lambda) berechnet die Verteilungsfunktion der Poissonverteilung mit
dem Parameter λ =lambda an der Stelle q. Dabei kann q ein Vektor sein.
• qpois(p, lambda) berechnet die Umkehrfunktion der Verteilungsfunktion der Poissonverteilung mit dem Parameter λ =lambda an der Stelle p. Dabei muss pein
Vektor von Wahrscheinlichkeiten, d.h. von Zahlen zwischen 0 und 1 sein.
• rpois(n, lambda) erzeugt n poissonverteilte Zufallszahlen mit dem Parameter
λ =lambda
Konkrete Ausführung:
6
Listing 2: Binom/Poisson mit R visualisieren
1
2
3
4
5
6
n =100;
p =0.5;
x = seq (0 , n , by =2);
binom . pois < - data . frame ( binom = dbinom (x ,n , p ) , pois = dpois (x ,n , p ))
binom . pois < - as . matrix ( binom . pois )
barplot ( binom . pois , beside = TRUE )
Es gilt das Poisson-Paradigma:
lim
n,p→0,np→µ
bn,p (k) = Pµ (k)
5 3.28
Anmerkung: War nicht in Gruppe 2 auf, wurde aber von Prof. Gurker vorgerechnet.
6 Angabe
Zeigen Sie die ’Gedächtnislosigkeit’ der geometrischen Verteilung, d.h. zeigen Sie für
X Gp :
W {X > a + b|X > a} = W {X > b},
a, b ∈ N
Wie läßt sich diese Beziehung interpretieren? (Hinweis: X sei die diskrete Wartezeit
auf den Eintritt eines bestimmten Ereignisses, etwa der Ausfall einer Komponente, der
Gewinn beim ’Joker’, etc.)
6.1 Theoretische Grundlagen: Geometrische Verteilung
Siehe Beispiel 3.29!
7
6.2 Lösung des Beispiels
X GP
GP Geometrische Wahrscheinlichkeit
p(x) = W {X = x} = (1 − p)x−1 · p, qquadx = 1, 2, . . .
W {X > a + b|X > a} = W {X > b}
Joker ist ein erwartetes erstmaliges Ereignis mit p =
mit x als Nr. der Runde des ersten Gewinnes ist
E(x) =
1
100 .
Der Erwartungswert für GP
1
= 100
p
Nach jeder Runde ’startet das Spiel neu’ - darunter versteht man die Gedächtnislosigkeit (Geometrische Verteilung hat als einzige diese Eigenschaft). Vgl. hierzu Komponenten mit gleicher Wahrscheinlichkeit für Lebensdauer - wenn funktionierend ist eine
Komponente ’so gut wie neu’.
Wir brechnen weiter:
X
W {X > k} =
(1 − p)i−1 p = (1 − p)k
|
{z
}
=(1−p)k
⇒
i=k+1
F (k) = W {X ≤ k} = 1 − W {X > k} = 1 − (1 − p)k
W {X > a + b, x > a}
W {X > a + b}
=
=
W {X > a}
W {X > a}
(1 − p)a+b
= (1.p)b = W{X > b}
(1 − p)a
Eine geometrische Verteilung ist selbstähnlich (eine Poisson-Verteilung z.B. nicht). Selbstähnlichkeit ist die Eigenschaft von Gegenständen, Körpern, Mengen oder geometrischen
Objekten, in größeren Maßstäben, d.h. bei Vergrößerung dieselben oder ähnliche Strukturen aufzuweisen wie im Anfangszustand.
7 3.29
7.1 Angabe
Bestimmen Sie die Ausfallrate (vgl. Beispiel 3.12) der geometrischen Verteilung. Interpretieren Sie das Ergebnis an Hand eines konkreten Beispiels. (Hinweis: Vgl. Sie das
vorhergehende Beispiel (3.28).)
7.2 Theoretische Grundlagen: Geometrische Verteilung
Eine diskrete Zufallsgröße Xn mit dem Parameter p (Wahrscheinlichkeit für einen Erfolg),
q = 1 − p (Wahrscheinlichkeit für einen Misserfolg) genügt der geometrischen Verteilung
G(p), wenn:
8
• Variante A
sei die Wahrscheinlichkeit, dass man genau n Versuche benötigt, um zum ersten
Erfolg zu kommen, zu P(X = n) = p(1 − p)n−1 = pq n−1 (n = 1, 2, . . . )
• Variante B
sei die Wahrscheinlichkeit, n Fehlversuche vor dem ersten Erfolg zu haben, zu
P(Y = n) = p(1 − p)n = pq n (n = 0, 1, 2, . . . )
besitzt. In beiden Fällen bilden die Werte für die Wahrscheinlichkeiten eine geometrische
Folge.
Damit besitzt die geometrische Verteilung die folgenden Verteilungsfunktionen:
• Variante A
F (k) = P(X ≤ k) = p
k
X
q
i−1
=p
i=1
k−1
X
i=0
qi = p
qk − 1
= 1 − q k = 1 − (1 − p)k
q−1
• Variante B
F (n) = P(Y < n) = p
n
X
i=0
qi = p
q n+1 − 1
= 1 − q n+1 = 1 − (1 − p)n+1
q−1
7.3 Lösung des Beispiels
h(x) = W {X = x|X > x}
W (A ∩ B)
W (A|B) =
=
W (B)
p(1 − p)x−1
W (X = x)
=
=1
W (X ≥ x)
p(1 − p)x−1
8 3.31
8.1 Angabe
Ermitteln Sie zu jeder der folgenden stetigen Verteilungsfunktionen die zugehörige Dichtefunktion; stellen Sie beide Funktionen (zum einfacheren Vergleich untereinander) graphisch dar.
(a) F (x) = (1 + e−x )−1 ,
−∞ < x < ∞
−x
(b) F (x) = exp(−e ),
−∞ < x < ∞
(c) F (x) = 12 + 21 arctan(x),
−∞ < x < ∞
9
8.2 Theoretische Grundlagen: Kontinuierliche eindimensionale
Verteilungen - Definition und Satz
In kontinuierlichen eindimensionalen Verteilungen nehmen stochastische Grössen X alle
Werte eines Intervalls an (Kontinuum). Ihre Wahrscheinlichkeitsverteilung ist durch eine
integrierbare Funktion (Dichtefunktion) bestimmt:
Z ∞
f : R → [0, ∞),
mit
f (x)∂x = 1
−∞
W ([a, b]) = W {a ≤ X ≤ B} =
Z
b
f (x)∂x
a
Für kontinierliche Verteilungen bzw. kontinuierlich verteilten stochastischen Grössen X
mit Dichte f (¦) gilt:
Rx
1. Verteilungsfunktion F (x) = −∞ f (ξ)∂ξ
∀x ∈ R
∂
2. ∃ ∂x
F (x) ⇒ f (x) = F 0 (x)
3. W {X = x} = 0
∀x ∈ R
Die Dichtefunktion dient zur Beschreibung von Wahrscheinlichkeitsverteilungen, daher
wie sich die Wahrscheinlichkeit auf mögliche Zufallsergebnisse verteilt. Im Gegensatz zu
stetigen Zufallsvariablen können die einzelnen Wahrscheinlichkeiten der einzelnen Ausprägungen nicht angegeben werden, denn sie müssten streng genommen 0 gesetzt werden.
Es lassen sich nur Wahrscheinlichkeiten f(x)dx dafür angeben, dass die Werte innerhalb
eines Intervalls dx um x liegen. Die Funktion f(x) heißt dann Dichtefunktion. Damit es
sich um eine Dichtefunktion handelt muss die Fläche unter Kurve 1 sein. Man erhält sie
wenn man die Verteilungsfunktionen differenziert.
8.3 Lösung des Beispiels
Wir benötigen die Ableitungen:
e−x
(a) (1+e
−x )2 - logistiche Verteilung
(b) e(−(e )−x)
1
(c) π1 · 1+x
2 - Cauchy/t-Verteilung
−x
10
11
Herunterladen