Statistik I für Betriebswirte Vorlesung 2

Werbung
Statistik I für Betriebswirte
Vorlesung 2
Prof. Dr. Hans-Jörg Starkloff
TU Bergakademie Freiberg
Institut für Stochastik
11. April 2016
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
1
Eigenschaften bedingter Wahrscheinlichkeiten
I
Im Allgemeinen gilt P(A|B) 6= P(B|A) !
I
Bei fester Bedingung B kann man wie mit (unbedingten)
Wahrscheinlichkeiten rechnen, z.B.
P(A|B) = 1 − P(A|B) ;
P(A1 ∪ A2 |B) = P(A1 |B) + P(A2 |B) , falls A1 ∩ A2 = ∅ .
I
Multiplikationsregeln
I
Es gilt P(A ∩ B) = P(A|B) · P(B) = P(B|A) · P(A) .
I
Sind A1 , . . . , An zufällige Ereignisse mit P(A1 ∩ . . . ∩ An−1 ) > 0 ,
dann gilt
P(A1 ∩ A2 ∩ . . . ∩ An ) = P(A1 ) · P(A2 |A1 ) · P(A3 |A1 ∩ A2 ) · . . .
· P(An |A1 ∩ A2 ∩ . . . ∩ An−1 ) .
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
2
Übungsbeispiel
In einer Urne befinden sich 10 Kugeln (7 rote und 3 schwarze). Es
werden 4 Kugeln rein zufällig ohne Zurücklegen entnommen.
Wie groß ist die Wahrscheinlichkeit für das Ereignis A , dass alle 4
gezogene Kugeln rot sind ?
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
3
Formel der totalen Wahrscheinlichkeit
I
Berechnung der totalen (unbedingten) Wahrscheinlichkeit aus den
bedingten Wahrscheinlichkeiten: als gewichtetes Mittel.
I
Sei B1 , . . . , Bn eine Zerlegung von Ω mit P(Bi ) 6= 0, i = 1, . . . , n
ein vollständiges Ereignissystem, eine Fallunterscheidung, d.h.
n
[
Bi = Ω , Bi ∩ Bj = ∅ für i 6= j .
i=1
Dann lautet die Formel der totalen Wahrscheinlichkeit: für ein
beliebiges zufälliges Ereignis A ⊂ Ω gilt
P(A) =
n
X
P(A|Bi )P(Bi ) .
i=1
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
4
Formel von Bayes
I
Unter den Bedingungen des Satzes der totalen Wahrscheinlichkeit
gilt die Formel von Bayes
P(Bi |A) =
P(A ∩ Bi )
P(A|Bi )P(Bi )
P(A|Bi )P(Bi )
.
=
= n
P
P(A)
P(A)
P(A|Bj )P(Bj )
j=1
I
I
P(Bi ) heißen auch a-priori“-Wahrscheinlichkeiten.
”
P(Bi |A) heißen auch a-posteriori“-Wahrscheinlichkeiten,
”
sie liefern eine Korrektur der ursprünglichen Wahrscheinlichkeiten,
wenn bekannt ist, dass das zufällige Ereignis A eingetreten ist.
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
5
Übungsbeispiel
Drei Zulieferer liefern eine Komponente zur Produktion eines
Erzeugnisses im Anzahlverhältnis 5 : 3 : 2. Die Fehlerquote betrage bei
Komponenten der 1. Zulieferfirma 7%, bei Komponenten der
2. Zulieferfirma 4% und bei Komponenten der 3. Zulieferfirma 2% .
1. Wie groß ist die Wahrscheinlichkeit dafür, dass eine aus der
Gesamtliefermenge rein zufällig ausgewählte Komponente defekt ist ?
2. Es werde eine Komponente aus der Gesamtzuliefermenge rein
zufällig ausgewählt und überprüft. Dabei stellt man fest, dass die
Komponente defekt ist.
Mit welcher Wahrscheinlichkeit wurde diese Komponente von der 1.,
2., bzw. 3. Zulieferfirma geliefert ?
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
6
Beispiel Diagnoseverfahren
I
Diagnoseverfahren liefern im Allg. nicht 100%ig richtige Ergebnisse:
• Ein Fehler wird nicht erkannt.
• Ein Fehler wird fälschlicherweise angezeigt.
I
Resultierende Frage: Wie groß ist die Wahrscheinlichkeit, dass ein
als fehlerhaft angezeigter Gegenstand tatsächlich fehlerhaft ist ?
I
Beispiel:
A = {Gegenstand ist tatsächlich fehlerhaft}, P(A) = 0.001 .
B = {Gegenstand wird als fehlerhaft angezeigt}.
Wahrscheinlichkeit für eine Fehlererkennung: P(B|A) = 0.9 .
Wahrscheinlichkeit für die Identifizierung eines einwandfreien
Gegenstandes: P(B|A) = 0.99 .
Gesucht: P(A|B) .
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
7
Partielle“ totale Wahrscheinlichkeit, Simpson-Paradox
”
I
Partielle totale Wahrscheinlichkeit P(A|C ) bei Zerlegung
B1 , . . . , Bn ; A, C sind Ereignisse, P(C ) > 0 :
P(A|C ) =
n
X
P(A|Bi ∩ C ) · P(Bi |C ) .
i=1
I
Simpson-Paradox: z.B. Zerlegung B, B , Ereignisse A, C1 , C2 .
Es kann sein, dass gilt
P(A|C1 ) < P(A|C2 )
aber
P(A|C1 ∩ B) > P(A|C2 ∩ B) ,
I
P(A|C1 ∩ B) > P(A|C2 ∩ B) .
Das Phänomen basiert darauf, dass Einzelergebnisse unterschiedlich
gewichtet in das Gesamtergebnis eingehen. Bei statistischen
Auswertung kann es so passieren, dass die Bewertung von
Teilgruppen anders ausfällt als die der zusammengefassten Daten.
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
8
Beispiel für Simpson-Paradox
I
I
I
Betrachte folgende Ereignisse:
A
StudentIn bricht Studium ab,
G1 StudentIn ist weiblich,
G2 StudentIn ist männlich,
F1 StudentIn studiert Fach 1,
F2 StudentIn studiert Fach 2.
Gegeben sind folgende bedingte Wahrscheinlichkeiten
P(A|G1 ∩ F1 ) = 0.1
>
P(A|G1 ∩ F2 ) = 0.05 ,
P(A|G2 ∩ F1 ) = 0.2
>
P(A|G2 ∩ F2 ) = 0.15 ,
P(G1 |F1 ) = 0.9
⇒
P(G2 |F1 ) = 0.1 ,
P(G1 |F2 ) = 0.2
⇒
P(G2 |F2 ) = 0.8 .
Daraus folgt (aus der Formel für partielle totale Wahrscheinlichkeit):
P(A|F1 ) = P(A|G1 ∩ F1 ) · P(G1 |F1 ) + P(A|G2 ∩ F1 ) · P(G2 |F1 )
= 0.1 · 0.9 + 0.2 · 0.1 = 0.11
< P(A|F2 ) = P(A|G1 ∩ F2 ) · P(G1 |F2 ) + P(A|G2 ∩ F2 ) · P(G2 |F2 )
= 0.05 · 0.2 + 0.15 · 0.8 = 0.13 .
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
9
1.4 Stochastische Unabhängigkeit
I
Es kann vorkommen (und tut es in wichtigen Situationen auch), dass
das Eintreten des Ereignisses B nichts an der Wahrscheinlichkeit für
das Eintreten des Ereignisses A ändert, d.h. es gilt P(A|B) = P(A) .
I
Definition: Zwei zufällige Ereignisse A und B zu einem
Zufallsversuch heißen (stochastisch) unabhängig, wenn gilt
P(A ∩ B) = P(A) · P(B) .
I
In diesem Fall gelten dann auch
P(A|B) = P(A)
bzw. P(B|A) = P(B)
(falls P(B) > 0 bzw. P(A) > 0), d.h. die bedingten
Wahrscheinlichkeiten sind gleich den unbedingten
Wahrscheinlichkeiten der beiden Ereignisse.
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
10
Unabhängigkeit von mehr als 2 Ereignissen
I
Zufällige Ereignisse A1 , . . . , An zu einem Zufallsversuch heißen
paarweise unabhängig, falls alle Paare von ausgewählten Ereignissen
unabhängig sind, d.h.
P(Ai ∩ Aj ) = P(Ai ) · P(Aj ) für alle i 6= j .
I
Diese Ereignisse heißen in Gesamtheit oder total oder vollständig
(stochastisch) unabhängig, falls eine entsprechende Formel für alle
möglichen Auswahlen (nicht nur von Paaren) gilt, d.h. für alle
2 ≤ k ≤ n, 1 ≤ i1 < . . . < ik ≤ n
gilt
P(Ai1 ∩ . . . ∩ Aik ) = P(Ai1 ) · . . . · P(Aik ) .
I
Aus der totalen Unabhängigkeit der Ereignisse A1 , . . . , An folgt die
paarweise Unabhängigkeit der Ereignisse, aber die Umkehrung gilt
im Allgemeinen nicht.
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
11
Beispiel, Eigenschaften unabhängiger Ereignisse
I
Beispiel: (Zweifacher Münzwurf mit symmetrischer Münze)
A = {1. Wurf Zahl},
B = {2. Wurf Zahl} .
I
Satz: A und B seien unabhängige Ereignisse zu einem zufälligen
Versuch. Dann sind auch die zufälligen Ereignisse A und das
Komplement von B, also B , unabhängig. Ebenso sind in diesem Fall
A und B sowie auch A und B jeweils unabhängige Ereignisse.
I
Summenformel für unabhängige Ereignisse A1 , . . . , An :
P(A1 ∪ . . . ∪ An ) = 1 − (1 − P(A1 )) · . . . · (1 − P(An )) .
I
Die Unabhängigkeit von Ereignissen wird der Einfachheit halber
häufig vorausgesetzt, oft auch dann, wenn sie sachlich schwer
begründbar ist. Oft beziehen sich unabhängige Ereignisse auf
Versuchswiederholungen etc., die sich (scheinbar) nicht gegenseitig
beeinflussen.
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
12
Anwendung in Zuverlässigkeitstheorie
Betrachten die Serien- und Parallelschaltung von Bauteilen, Teilsystemen
(z.B. in Produktionslinien) etc., die unabhängig voneinander ausfallen
oder funktionstüchtig sind.
I
I
2 Bauteile T1 , T2 , Fi = {Bauteil Ti funktioniert}, P(Fi ) = pi ,
Fi stochastisch unabhängig (i = 1, 2) .
Serien- oder Reihenschaltung funktioniert, wenn sowohl T1 als auch
T2 funktionieren:
P(F1 ∩ F2 ) = P(F1 )P(F2 ) = p1 p2 .
I
Parallelschaltung funktioniert, wenn T1 oder T2 oder beide Bauteile
funktionieren (also mindestens eines der Bauteile funktioniert):
P(F1 ∪ F2 ) = P(F1 ) + P(F2 ) − P(F1 ∩ F2 ) = p1 + p2 − p1 p2 .
I
Bei komplizierteren Schaltungen Zerlegung in einfachere Teilsysteme
(reine Serien- und Parallelschaltungen).
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
13
1.5 Kombinatorische Formeln
I
I
I
Geg.: n Objekte, z.B. {1, 2, . . . , n} . ⇒ Die Anzahl aller möglichen
Reihenfolgen beträgt n! = 1 · 2 · . . . · n ( n Fakultät“).
”
Geg.: n Objekte, die in k unterschiedlichen Sorten vorliegen,
bestehend jeweils aus ni , i = 1, . . . , k, nicht unterscheidbaren
Objekten (2 ≤ k ≤ n und n1 + . . . + nk = n) .
⇒ Die Anzahl aller möglichen Reihenfolgen beträgt
n
n!
( Polynomialkoeffizient“).
=
n1 ! · n2 ! · . . . · nk ! ”
n1 , n2 , . . . , nk
Im Spezialfall k = 2, d.h. gegeben sind n Objekte, jedes gehört zu
einer von zwei Sorten (z.B. Erfolg“, Misserfolg“), gilt
”
”
n1 = m, n2 = n − m und die Anzahl aller möglichen Reihenfolgen
beträgt
n
n!
=
( Binomialkoeffizient“).
m
m!(n − m)! ”
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
14
Kombinatorische Formeln II
I
Nun seien n Objekte gegeben. Dann ist eine Frage, wie viele
Möglichkeiten es gibt, um daraus k Objekte auszuwählen ?
Die Antwort ist abhängig davon,
I
I
ob sich in der Auswahl Objekte wiederholen dürfen (m.W.) oder
nicht (o.W.)
ob es auf die Reihenfolge der Auswahl (oder eine zusätzliche
Anordnung) ankommt (m.R.) oder nicht (o.R.).
o.R.
I
m.R.
I
o.W.
n
k
n
k!
k
Beispiel:
Prof. Dr. Hans-Jörg Starkloff
m.W. n+k −1
k
nk
Kombinationen“
”
Variationen“
”
n = 4, k = 2 .
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
15
Kombinatorische Formeln III – Lottomodell
I
Auswahl ohne Wiederholung und ohne Reihenfolge.
N Anzahl der tippbaren Zahlen
(N = 49) ,
M Anzahl der Gewinnzahlen
(M = 6) ,
n
Anzahl der Zahlen im Tipp
(n = 6) ,
m Anzahl der Gewinnzahlen im Tipp (z.B. m = 4) .
I
Anzahl der möglichen Fälle = Anzahl aller möglichen Tipps
= Anz. der Möglichkeiten, aus N Zahlen n auszuwählen (o.W.,o.R.)
N
=
.
n
I
Anz. der günstigen Fälle
= Anz. der Möglichkeiten, aus den M Gewinnzahlen m auszuwählen
(o.W.,o.R.) mal Anz. der Möglichkeiten, die restlichen n − m
getippten Zahlen aus den N − M Nichtgewinnzahlen auszuwählen
M
N −M
=
·
.
m
n−m
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
16
Kombinatorische Formeln IV – Lottomodell
I
Man erhält die Formel für die Wahrscheinlichkeiten
N−M M
·
P ( m Richtige in einem Tipp“) = m N n−m .
”
n
I
Dies ist auch ein wichtiges Modell für die Qualitätskontrolle, mit den
Werten
N Losgröße,
M Anzahl der Ausschussstücke darunter,
n
Anzahl der zufällig gezogenen Kontrollstücke (Stichprobe),
m Anzahl der Ausschussstücke in der Stichprobe,
gilt
N−M M
m · n−m
P ( m Ausschussstücke in der Stichprobe“) =
.
N
”
n
Prof. Dr. Hans-Jörg Starkloff
Statistik I für Betriebswirte Vorlesung 2
Version: 7. April 2016
17
Herunterladen