9 Einführung in die schließende Statistik

Werbung
Skript zum Modul 141 - Statistik
9 Einführung in die schließende Statistik
Die deskriptive (beschreibende) Statistik befasste sich mit der Aufbereitung,
Beschreibung und Analyse von mehr oder weniger großen Datenmengen mit
entsprechenden Methoden. In vielen Anwendungsfällen wird dabei nicht die
Grundgesamtheit sondern lediglich eine repräsentative Teilmenge (=Stichprobe)
untersucht.
Um Rückschlüsse von den Erkenntnissen, die aus der statistischen Bearbeitung der
Stichprobe gewonnen wurden auf die Grundgesamtheit zu treffen, werden die
Methoden der schließenden (=induktiven, analytischen) Statistik verwendet.
Grundlage hierfür ist die Wahrscheinlichkeitsrechnung.
9.1 Einführung in die Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeitstheorie ist eine der wichtigsten mathematischen Grundlagen
der analytischen Statistik. Sie untersucht Zufallsvorgänge mit dem Ziel Aussagen
über den möglichen Ausgang zu treffen.
Es gilt die Chance für das
„Eintreten einer möglichen Folgeerscheinung („Ereignis“) durch eine Maßzahl
(„Wahrscheinlichkeit“) zu charakterisieren“.
Hierzu werden die Merkmalsausprägungen nicht mehr als Beobachtungen oder
Messwerte angesehen sondern als Zufallsvariablen.
9.1.1
Zufallsexperiment, Ereignis, Ereignisraum und Zufallsvariable
Ein Zufallsexperiment ist ein beliebig oft wiederholbarer, nach bestimmten
Vorschriften ausgeführter Vorgang oder Versuch, dessen Ergebnis im Voraus nicht
eindeutig bestimmt werden kann, also zufällig ist. Das Ergebnis dieses Versuchs
wird Ereignis genannt. Auch wenn das Ereignis im Voraus nicht eindeutig bestimmt
werden kann, kann zumeist der mögliche Wertebereich dieses Ereignisses zuvor
abgegrenzt werden. Dieser Wertebereich wird als Ereignisraum Ω bezeichnet.
Die einzelnen möglichen Ausprägungen
Zufallsvariable xi (mit xi ∈ Ω ) bezeichnet.
des
Ereignisraumes
werden
als
Das Gegenteil der zufälligen (stochastischen) Ereignisse sind die
deterministischen Ereignisse bei denen eine eindeutige Beziehung zwischen
Ursache und Wirkung besteht.
9-1
Skript zum Modul 141 - Statistik
Zufallsexperiment
Ereignisraum
Ereignis
Zufallsvariable
Werfen einer
Münze
{Kopf, Zahl}
z.B. Kopf
x0, x1
Werfen eines
Würfels
{1,2,3,4,5,6}
z.B. 4
x1, x2, x3, x4, x5,
x6
Werfen von zwei
Würfeln
{2,3,4,5,6,7,8,
9,10,11,12}
z.B. 7
x1, x2, x3, x4, x5,
x6, x7, x8, x9,
x10, x11
9.1.2
Die Wahrscheinlichkeit
Da bei Zufallsvorgängen immer ungewiss ist, welcher der möglichen Ausgänge
eintritt, wurde der Begriff der Wahrscheinlichkeit definiert. Dieser beschreibt die
Chance, dass ein bestimmtes Ereignis A eintritt und ist als die Wahrscheinlichkeit
P(A) definiert. Ziel ist es die relativen Häufigkeiten für jeden möglichen Ausgang, die
bei unendlich oft wiederholtem Zufallsexperiment resultieren würden, vorab zu
bestimmen.
Beispiel: Ergebnis verschiedener historischer Münzwurfexperimente:
Autor
n Versuche
xk = Kopf
F(k)
Buffon
4040
2048
0.5080
Pearson
12000
6019
0.5016
Pearson
24000
12012
0.5005
Quelle: Bahrenberg, Giese & Nipper, 1975, S.60
Aus der Tabelle lässt sich für die Wahrscheinlichkeit, dass „Kopf“ der Ausgang des
Zufallsexperimentes Münzwurf ist, bestimmen:
P ( Kopf ) = 0.5
Daraus ergibt sich für das Komplementärereignis „Zahl“:
P ( Zahl ) = 1 − P ( Kopf ) = 0.5
Aus
den
empirischen
Beobachtungen
ergeben
sich
folgende
Minimalforderungen für den Wahrscheinlichkeitsbegriff. Die Axiome
Wahrscheinlichkeitsrechnung:
9-2
drei
der
Skript zum Modul 141 - Statistik
1. P(A) ≥ 0 für jedes Ereignis A
2. P(Ω) = 1
3. P(A1 U A2 U A3 ...) = P(A1) + P(A2) + P(A3) + ...(für disjunkte Ereignisse)
Beispiel Würfel:
1. Die Wahrscheinlichkeit eine Eins zu Würfeln ist größer 0
2. Die Wahrscheinlichkeit, dass eine Zahl zw. 1 und 6 gewürfelt wird ist 1
3. Die Wahrscheinlichkeit eine ungerade Zahl zu Würfeln ist gleich der
Wahrscheinlichkeit eine 1, 3 oder 5 zu Würfeln
Aus den Axiomen der Wahrscheinlichkeitsrechnung lässt sich der klassische
Wahrscheinlichkeitsbegriff ableiten:
P( A) =
A
Ω
=
Anzahl der für A günstigen Fälle
Anzahl aller möglichen Fälle
Beispiel Münze:
P( K ) =
1
= 0. 5
2
P( Z ) =
1
= 0 .5
2
Beispiel Wurf mit zwei Würfeln:
Ereignis
Ausprägung
Wahrscheinlichkeit
P(i)
2
(1,1)
P(2) = 1 / 36
0.0278
3
(1,2) (2,1)
P(3) = 2 / 36
0.0556
4
(1,3) (2,2) (3,1)
P(4) = 3 / 36
0.0833
5
(1,4) (2,3) (3,2) (4,1)
P(5) = 4 / 36
0.1111
6
(1,5) (2,4) (3,3) (4,2) (5,1)
P(6) = 5 / 36
0.1389
7
(1,6) (2,5) (3,4) (4,3) (5,2) (6,1)
P(7) = 6 / 36
0.1667
8
(2,6) (3,5) (4,4) (5,3) (6,2)
P(8) = 5 / 36
0.1389
9
(3,6) (4,5) (5,4) (6,3)
P(9) = 4 / 36
0.1111
10
(4,6) (5,5) (6,4)
P(10) = 3 / 36
0.0833
11
(5,6) (6,5)
P(11) = 2 / 36
0.0556
12
(6,6)
P(12) = 1 / 36
0.0278
36 mögliche
1.0
Aus den drei Axiomen lassen sich folgende Regeln ableiten:
1. Komplementärregel:
Die
Wahrscheinlichkeit,
dass
A
nicht
eintritt
ist
gleich
P( A ) = 1 − P( A)
Wahrscheinlichkeit von A:
9-3
Eins
minus
der
Skript zum Modul 141 - Statistik
2. Teilereignisregel:
Ist A eine Teilmenge von B, dann ist die Wahrscheinlichkeit, dass A eintrifft kleiner
1-P(A)
Ω=1
A
A
oder gleich der Wahrscheinlichkeit für B.
P ( A) ≤ P ( B ) für A ⊂ B
B
A
3.1 Additionssatz (für disjunkte Ereignisse):
Bei disjunkten (sich ausschließende) Ereignisse ist die Wahrscheinlichkeit, dass ein
Experiment den Ausgang A oder B hat, gleich der Wahrscheinlichkeit von A plus der
Wahrscheinlichkeit von B.
P ( A) ∪ P ( B ) = P ( A) + P ( B )
A
B
(für disjunkte Ereignisse A und B)
3.2 Additionssatz (für überschneidende Ereignisse):
Bei sich überschneidenden Ereignissen ist die Wahrscheinlichkeit, dass ein
Experiment den Ausgang A oder B hat gleich der Wahrscheinlichkeit von A plus der
Wahrscheinlichkeit von B abzüglich der Schnittmenge von A und B.
P ( A) ∪ P ( B ) = P ( A) + P ( B ) − P ( A ∩ B )
9-4
Skript zum Modul 141 - Statistik
A
B
Beispiel:
Die Wahrscheinlichkeit A aus der
linken Grundgesamtheit ein Dreieck
zu
ziehen
ist
3/5.
Die
Wahrscheinlichkeit B ein graues
Element zu ziehen ist 4/5.
P(∆)=3/5
P(g) = 4/5
Aus dem Additionssatz folgt für die
Wahrscheinlichkeit ein Element zu
ziehen, das entweder ein Dreieck
oder grau ist:
P ( A) ∪ P( B) = P( A) + P( B) − P( A ∩ B)
3 4 2
= + − =1
5 5 5
A
B
9.1.3
Bedingte Wahrscheinlichkeit
Bisher wurde bei der Bestimmung der Wahrscheinlichkeiten für ein bestimmtes
Ergebnis immer der gesamte Ereignisraum Ω betrachtet.
Oft ist es aber von Interesse die Wahrscheinlichkeit eines Ereignisses A unter der
Bedingung, dass auch das Ereignis B eintrete, bestimmen zu können.
•
Beispielsweise könnte eine Kontrollbehörde daran interessiert sein, dass bei
einem BSE Test von Rindfleisch sowohl Probe A wie auch Probe B positiv sei.
•
Beim Werfen mit einem Würfel soll berechnet werden, wie hoch die
Wahrscheinlichkeit ist, dass im Fall einer ungeraden Augenzahl gerade die
Eins geworfen wird.
Für solche Fragestellungen ist der Ereignisraum also eingeschränkt. Es wird die
bedingte Wahrscheinlichkeit berechnet.
9-5
Skript zum Modul 141 - Statistik
Ω
A
B
(A ∩ B)
Die Betrachtung des gesamten Ereignisraumes Ω zeigt die sich darin befindlichen
Mengen A (Kreis) und B (unteres Rechteck), die sich überschneiden. Ist nun die
bedingte Wahrscheinlichkeit A unter der Bedingung B (= P(A|B)) gesucht, ist nur
noch der Teilraum B von Interesse:
„Die Anzahl der möglichen“ ist damit B und nicht mehr Ω.
Damit ergibt sich für die bedingte Wahrscheinlichkeit:
Beispiel:
Die Wahrscheinlichkeit A aus der
linken Grundgesamtheit ein Dreieck
zu
ziehen
ist
3/5.
Die
Wahrscheinlichkeit B ein graues
Element zu ziehen ist 4/5.
P(∆)=3/5
Die Wahrscheinlichkeit ein graues
Dreieck zu ziehen ist:
P(g) = 4/5
2
P( A ∩ B)
1
P( A | B) =
= 5=
4
P( B)
2
5
A
B
9.1.4
Stochastische Unabhängigkeit
Zwei Variablen werden als „stochastisch unabhängig“ bezeichnet wenn eine der
drei folgenden Beziehungen gilt:
1. P( A ∩ B ) = P ( A) ⋅ P ( B )
2. P( A | B) = P( A)
für
P( B) > 0
3. P( B | A) = P( B)
für
P( A) > 0
9-6
Skript zum Modul 141 - Statistik
Für das Beispiel mit den grauen und schwarzen Elementen gilt:
P( A ∩ B) =
12
2
≠ P ( A) ⋅ P ( B ) =
25
5
Daraus folgt die Ereignisse sind nicht unabhängig voneinander!
Beispiel 2:
Wie hoch ist die Wahrscheinlichkeit bei zwei Würfen mit einem Würfel im ersten Wurf
eine 1 und im zweiten Wurf eine 2 zu werfen?
Gefragt ist die bedingte Wahrscheinlichkeit: P(2|1)
Die Wahrscheinlichkeiten im ersten Wurf eine 2 zu werfen ist P1(1)=1/6. Die
Wahrscheinlichkeit im zweiten Wurf eine 1 zu werfen ist P2(2) = 1/6.
Die Wahrscheinlichkeit genau die Kombination 1 dann 2 in zwei Würfen zu werfen
beträgt P(1|2) = 1/36.
Nun gilt: P1(1) * P2(2) = P(2|1) also sind die Ereignisse unabhängig!
Dies war zu erwarten, da der Ausgang des ersten Wurfes ja keinen Einfluss auf den
Ausgang des zweiten Wurfes hat.
9.2 Wahrscheinlichkeitsfunktionen, Verteilungsfunktionen
Die Verteilung aller möglichen Ausgänge eines Experimentes (= alle möglichen
Einzelwahrscheinlichkeiten und deren Häufigkeiten des Auftretens) können durch
Wahrscheinlichkeitsfunktionen beschrieben werden. Hierbei wird zwischen den
Verteilungsfunktionen diskreter und denen stetiger Variablen unterschieden.
9.2.1
Diskrete Variablen
Die Verteilungsfunktion F(x) beschreibt die Wahrscheinlichkeit, dass eine
Zufallsvariable X kleiner oder gleich einem bestimmten Wert z ist, nach:
Für das Würfelexperiment mit einem Würfel ergeben sich die Werte der
Verteilungsfunktion F(x) für x = 1 … 6 als:
1/6 für X ≤ 1 (es wird genau 1 gewürfelt)
2/6 für X ≤ 2 (es wird 1 oder 2 gewürfelt)
3/6 für X ≤ 3 (es wird 1, 2 oder 3 gewürfelt) usw.
Daraus folgt die Verteilungsfunktion F(x):
9-7
Skript zum Modul 141 - Statistik
1
6
2
F ( 2) =
6
3
F (3) =
6
4
F ( 4) =
6
5
F (5) =
6
6
F ( 6) =
6
F (1) =
für ( X ≤ 1)
für ( X ≤ 2)
für ( X ≤ 3)
für ( X ≤ 4)
für ( X ≤ 5)
für ( X ≤ 6)
Die graphische Darstellung von Wahrscheinlichkeitsfunktionen diskreter Variablen
erfolgt als „Treppenkurve“:
1.0
F(x)
0.8
0.6
0.4
0.2
0.0
0
1
2
3
4
5
6
x
Die Verteilungsfunktion entspricht den kumulierten relativen Häufigkeiten der
empirischen Verteilung.
Mit der Verteilungsfunktion F(x) lassen sich die Wahrscheinlichkeiten für das
Eintreten bestimmter Ereignisausprägungen direkt berechnen, mit:
P ( a < X ≤ b ) = F (b ) − F ( a )
Beispiel:
Die Wahrscheinlichkeit mit einem Würfel 3, 4 oder 5 zu werfen beträgt:
P (2 < X ≤ 5) = F (5) − F ( 2) =
5 2
− = 0.5
6 6
Bei einer diskreten Zufallsvariablen X kann für jede mögliche Ausprägung im
Ereignisraum Ω die Wahrscheinlichkeit P(x) für das Eintreffen jeder Ausprägung x
bestimmt werden.
9-8
Skript zum Modul 141 - Statistik
Dies geschieht durch die Wahrscheinlichkeitsfunktion f(x), die jedem Ereignis xi
die entsprechende Wahrscheinlichkeit seines Eintreffens P(xi) zuordnet nach:
⎧ P ( X = xi )
f ( x) = ⎨
0
⎩
Die Wahrscheinlichkeitsfunktion entspricht den einfachen relativen Häufigkeiten von
empirischen Verteilungen. Wie dort gilt:
n
∑ f (x ) = 1
i =1
i
Für ein Würfelexperiment mit einem Würfel ergibt sich f(x) nach:
⎧⎪ 1
f ( x) = ⎨ 6
⎪⎩ 0
für
x = {1K 6}
sonst
Für das Würfelexperiment mit zwei Würfeln ergibt sich f(x) nach:
⎧1 / 36 für
⎪2 / 36 für
⎪
⎪3 / 36 für
⎪
f ( x) = ⎨4 / 36 für
⎪5 / 36 für
⎪
⎪6 / 36 für
⎪0
sonst
⎩
x = {2,12}
x = {3,11}
x = {4,10}
x = {5,9}
x = {8,6}
x = {7}
Die
graphische
Darstellung
der
Wahrscheinlichkeitsfunktion
Zufallsvariablen erfolgt durch ein Stabdiagramm.
9-9
diskreter
Skript zum Modul 141 - Statistik
0.18
0.16
0.14
0.12
0.1
f(x)
0.08
0.06
0.04
0.02
0
2
3
4
5
6
7
8
9
10
11
12
Augensumme
9.2.2
Stetige Variablen
Handelt es sich bei der Zufallsvariablen X nicht um eine diskrete, sondern um eine
stetige Variable, kann die Wahrscheinlichkeit mit der die Zufallsvariable X einen
Wert kleiner oder gleich einer bestimmten Zahl z annimmt (= P(X ≤ z)) nicht mehr mit
einem einzigen Wert beschrieben werden. Aufgrund der Stetigkeit sind vielmehr
unendlich viele Wahrscheinlichkeiten innerhalb eines bestimmten Werteintervalls
möglich.
Daher ergibt sich für die Verteilungsfunktion F(x) stetiger Zufallsvariablen:
x
F ( x) =
∫ f (t )dt
−∞
Beispiel: Wären die Wahrscheinlichkeiten des Würfelexperimentes nicht diskret,
sondern stetig verteilt, d.h. es treten nicht nur die Werte 1 bis 6 sondern auch alle
dazwischen (z.B. 3.2, 1.4, 5.0) auf so
lautet die Verteilungsfunktion:
1.2
x
1.0
1
F ( x) = ∫ ( x) dx
6
−∞
Die Darstellung im stetigen Fall erfolgt
durch ein Summenpolygon:
F(x)
0.8
0.6
0.4
0.2
0.0
0
1
2
3
X Data
9-10
4
5
6
Skript zum Modul 141 - Statistik
Handelt es sich bei der Zufallsvariablen X nicht um eine diskrete, sondern um eine
stetige Variable, existiert keine Wahrscheinlichkeitsfunktion mehr, da die
Wahrscheinlichkeit für ein Ereignis X ≤ z unendlich viele Werte annehmen kann.
Im stetigen Fall wird diese Funktion deshalb als Wahrscheinlichkeitsdichte oder
Dichtefunktion bezeichnet. Sie berechnet sich als erste Ableitung aus der
Verteilungsfunktion nach:
f ( x) = F ' ( x)
Für das Beispiel des „stetigen“ Würfels war die Verteilungsfunktion definiert nach:
⎧ 0
⎪1
F ( x) = ⎨ x
⎪6
⎩ 0
für
x<0
für
0≤ x≤6
für
x>6
Daraus ergibt sich die Dichtefunktion als erste Ableitung nach:
⎧⎪ 1
f ( x) = ⎨ 6
⎪⎩ 0
für
sonst
0≤ x≤6
9.3 Erwartungswert, Varianz und Standardabweichung
Wie bei der deskriptiven Statistik existieren auch in der analytischen Statistik Lageund Streuungsparameter, die die Verteilung charakterisieren.
Dem Mittelwert einer Verteilung in der deskriptiven Statistik entspricht der
Erwartungswert E(x), der sich für diskrete Zufallsvariablen wie folgt berechnet:
n
E ( x) = ∑ xi ⋅ f ( xi )
i =1
Für den Würfel ergibt sich E(x) nach:
1
1
1
1
1
1
E ( x) = 1 ⋅ + 2 ⋅ + 3 ⋅ + 4 ⋅ + 5 ⋅ + 6 ⋅ = 3.5
6
6
6
6
6
6
Bei stetigen Zufallsvariablen berechnet sich der Erwartungswert Erwartungswert
E(x) oder µ nach:
+∞
E ( x) =
∫ x ⋅ f ( x)dx
−∞
Beispiel:
Eine stetige Zufallsvariable sei nach f ( x) =
3 2
x mit 0 ≤ x < 2 verteilt.
8
E(x) berechnet sich dann nach:
9-11
Skript zum Modul 141 - Statistik
+∞
2
2
3
3
E ( x) = ∫ x ⋅ f ( x)dx = ∫ x ⋅ x 2 dx = ∫ x 3 dx
8
8
0
0
−∞
2
1 3
3 4 3 4 48 3
2 − 0 =
= ⋅ x4 =
=
4 8 0 32
32
32 2
Die Varianz σ² einer diskreten Zufallsvariable berechnet sich nach:
n
σ = ∑ ( x i − µ )2 ⋅ f ( x i )
2
i =1
Für den Würfel ergibt sich die Varianz σ² nach:
6
σ = ∑ (xi − 3.5)2 ⋅ = (1 − 3.5) 2 ⋅ + (2 − 3.5) 2 ⋅ + L + (6 − 3.5) 2 ⋅ = 2.92
2
i =1
1
6
1
6
1
6
1
6
Die Standardabweichung σ ergibt sich aus σ ² nach:
σ = σ2
Die Varianz σ ² einer stetigen Zufallsvariable berechnet sich nach:
σ =
2
+∞
2
(
)
x
−
µ
⋅ f ( x)dx
∫
−∞
9.4 Übungsaufgaben
Aufgabe 1:
Bestimmen Sie die Wahrscheinlichkeit p, oder eine Schätzung für sie, für jedes der
folgenden Ereignisse:
a)
Beim Werfen eines Würfels erscheint eine ungerade Zahl.
b)
Bei zwei Würfen einer Münze erscheint wenigstens einmal Kopf.
c)
Beim Ziehen einer einzigen Karte aus einem Kartenspiel von 52 Karten zeigt
sich ein As, die Karo-Zehn oder die Pik-Zwei.
d)
Beim Werfen zweier Würfel die Augensumme sieben zu erhalten.
e)
Beim nächsten Wurf einer Münze ergibt sich Zahl, wenn von 100 Würfen
dieser Münze 56 mal Kopf erschienen war. (Begründen Sie Ihre Antwort)
Aufgabe 2:
Auf einem Parkplatz befinden sich 8 grüne, 7 blaue, 3 rote und 2 weiße Autos. Wie
groß ist die Wahrscheinlichkeit dafür, dass:
a) morgens zuerst ein rotes, dann ein blaues und schließlich ein weißes Auto
den Parkplatz verlässt.
9-12
Skript zum Modul 141 - Statistik
b) morgens zuerst zwei blaue Autos den Parkplatz verlassen.
Aufgabe 3:
Wenn es regnet kann ein Schirmverkäufer 30 € pro Tag verdienen. Bei
Sonnenschein verliert er dagegen 6 € pro Tag. Für den nächsten Tag ist eine
Regenwahrscheinlichkeit von 30% vorhergesagt.
a) Stellen Sie die Wahrscheinlichkeitsfunktion auf
b) Zeichnen Sie diese.
c) Welchen Verdienst kann der Schirmverkäufer erwarten?
Aufgabe 4:
Um die Hochwasserwahrscheinlichkeit am Saale-Pegel Jena im Januar abschätzen
zu können, suchen Sie den Pegel insgesamt vier mal auf und schauen nach ob
Hochwasser herrscht oder nicht.
a) Leiten Sie die Wahrscheinlichkeitsfunktion für die Zufallsvariable Anzahl der
Hochwasserereignisse im Januar ab.
b) Stellen Sie diese zeichnerisch dar.
c) Wie groß ist die Wahrscheinlichkeit dass genau an einem Beobachtungstag
kein Hochwasser herrscht?
d) Wie groß ist die Wahrscheinlichkeit dass an genau zwei Beobachtungstagen
Hochwasser herrschte?
e) Berechnen Sie den Erwartungswert und die Standardabweichung Ihrer
Zufallsvariablen.
Aufgabe 5:
Eine Maschine führt einen bestimmten Arbeitsgang aus, welcher jeweils genau 10
Minuten dauert. Ein Mechaniker, der die Maschine einer routinemäßigen Kontrolle
unterziehen soll, will dazu das Ende des gerade laufenden Arbeitsganges abwarten.
Da er dessen Beginn nicht kennt, sieht er die Zeit X, die er warten muss, als
Zufallsvariable an. Dabei weiß er erstens sicher, dass er höchstens 10 Minuten zu
warten hat, d.h. P(X ≤ 10) = 1; zum zweiten nimmt er für die Wahrscheinlichkeit, dass
er höchsten noch x Minuten warten muss an, dass sich diese proportional zu x
verhält. Aus den beiden Annahmen ergibt sich die Verteilungsfunktion:
F ( x) =
1
x für 0 ≤ x ≤ 10
10
a) Zeichnen Sie die Verteilungsfunktion der Wartezeit X.
b) Wie groß ist die Wahrscheinlichkeit, dass der Mechaniker mehr als 3 Minuten
warten muss
c) er mehr als drei aber höchstens fünf Minuten warten muss
d) höchstens noch 2 Minuten warten muss, nachdem er bereits 3 Minuten
gewartet hat.
9-13
Skript zum Modul 141 - Statistik
9.5 Musterlösung zu den Übungsaufgaben
Aufgabe 1:
Bestimmen Sie die Wahrscheinlichkeit p, oder eine Schätzung für sie, für jedes der
folgenden Ereignisse:
a) Beim Werfen eines Würfels erscheint eine ungerade Zahl.
Lösung: p(1) + p(3) + p(5) = 1/6 + 1/6 + 1/6 = 0.5
b) Bei zwei Würfen einer Münze erscheint wenigstens einmal Kopf.
Lösung: Es gibt insgesamt vier mögliche Kombinationen des Ausgangs, nämlich:
„Kopf und Kopf“, „Kopf und Zahl“, „Zahl und Kopf“ und „Zahl und Zahl“. Die Anzahl
der Möglichen ist damit 4, da die Reihenfolge eine Rolle spielt. Aber nur die
ersten drei Ausgänge entsprechen der Fragestellung. Die Anzahl der Günstigen
ist daher 3. Daraus ergibt sich die Wahrscheinlichkeit als „Günstige“ durch
„Mögliche“ als 3/4 = 0.75. Oder die Einzelwahrscheinlichkeit für jede Kombination
beträgt ¼. Dann ist die Wahrscheinlichkeit der Fragestellung:
p(k,k) + p(k,z) + p(z,k) = ¼ + ¼ + ¼ = ¾ = 0.75
c) Beim Ziehen einer einzigen Karte aus einem Kartenspiel von 52 Karten zeigt
sich ein As, die Karo-Zehn oder die Pik-Zwei
Lösung:
Das Kartenspiel enthält 4 Asse: also ist p(As) = 4 / 52 = 0.077. Also 7.7%
Das Kartenspiel enthält 1 Pik-Zehn: also ist p(pik-10) = 1 / 52 = 0.019 Also
1.9%
Das gleiche gilt für die Pik-Zwei p(pik-2) = 1 / 52
Damit ergibt sich die Gesamtwahrscheinlichkeit also nach:
p(As) + p(pik10) + p(pik2) = 4 / 52 + 1 / 52 + 1 / 52 = 6 / 52 = 0.115.
Die Gesamtwahrscheinlichkeit beträgt also 11.5%.
d) Beim Werfen zweier Würfel die Augensumme sieben zu erhalten.
Lösung: Auch hier gibt es mehrere Möglichkeiten: (1,6) (2,5) (3,4) (4,3) (5,2),
(6,1). Obwohl die Würfel gleichzeitig geworfen werden, spielt die Reihenfolge
eine Rolle. Daher gibt es insgesamt 36 Möglichkeiten. Die Wahrscheinlichkeit
für 7 ist daher: 6 / 36 also 0.1667. Das entspricht 16.67%
e) Beim nächsten Wurf einer Münze ergibt sich Zahl, wenn von 100 Würfen
dieser Münze 56 mal Kopf erschienen war. (Begründen Sie Ihre Antwort)
9-14
Skript zum Modul 141 - Statistik
Lösung: Hier gibt es zwei Möglichkeiten. Entweder (im Falle einer idealen
Münze) ist die Wahrscheinlichkeit für Kopf oder Zahl gleich nämlich ½. Dann
ist auch die Wahrscheinlichkeit für den nächsten Wurf unabhängig von den
vorhergehenden 0.5 oder 50 %. Es kann aber auch eine nicht ideale Münze
sein bei der Kopf häufiger erscheint. Dann lässt sich aus dem Versuchen eine
Wahrscheinlichkeit für Kopf von 0.56 bestimmen (oder schätzen) und die
Gegenwahrscheinlichkeit für Zahl ist dann 1 – p(kopf) also 0.44. In diesem Fall
wäre dann die Wahrscheinlichkeit für Zahl gleich 44%
Aufgabe 2:
Auf einem Parkplatz befinden sich 8 grüne, 7 blaue, 3 rote und 2 weiße Autos. Wie
groß ist die Wahrscheinlichkeit dafür, dass:
a) morgens zuerst ein rotes, dann ein blaues und schließlich ein weißes Auto
den Parkplatz verlässt?
Lösung: Dies entspricht dem Urnenmodell „Ziehen ohne Zurücklegen“. Die
Lösung ergibt sich aus der Berechnung der Einzelwahrscheinlichkeiten:
Zuerst die Wahrscheinlichkeit für ein rotes Auto ist gleich 3 / 20 = 0.15
Dann die Wahrscheinlichkeit für ein blaues: 7 / 19 = 0.36 (es sind ja nur noch
19 Autos auf dem Parkplatz, da das erste rote schon fort ist)
Dann die Wahrscheinlichkeit für ein weißes Auto: 2 / 18 = 0.11
Da die Autos nicht „zurückgelegt“ werden handelt es sich um bedingte
Wahrscheinlichkeiten!
Die Gesamtwahrscheinlichkeit ergibt sich dann aus dem Produkt der
Einzelwahrscheinlichkeiten, weil die Einzelereignisse gleichzeitig stochastisch
unabhängig sind.
Also:P(RBW) = P(R) * P(B|R) * P(W|RB) = 0.15 * 0.36 * 0.11 = 0.00594
b) morgens zuerst zwei blaue Autos den Parkplatz verlassen.
Lösung: Wie oben nur, dass:
P(blau1) = 7 / 20 und P(blau2) = 6 / 19. Damit ergibt sich die
Gesamtwahrscheinlichkeit nach:
P(b,b) = 7/20 * 6/19 = 0.11 also 11%
Aufgabe 3:
Wenn es regnet kann ein Schirmverkäufer 30 € pro Tag verdienen. Bei
Sonnenschein verliert er dagegen 6 € pro Tag. Für den nächsten Tag ist eine
Regenwahrscheinlichkeit von 30% vorhergesagt.
a) Stellen Sie die Wahrscheinlichkeitsfunktion auf
Die Wahrscheinlichkeit für einen Verdienst von +30 € ist 0.3 (Regen) und für
einen „Verdienst“ von -6 € ist 0.7 (Sonne). Daher ergibt sich die
9-15
Skript zum Modul 141 - Statistik
Wahrscheinlichkeitsfunktion nach:
⎧0.3 für x = 30
f ( x) = ⎨
⎩ 0.7 für x = −6
b) Zeichnen Sie diese.
0.8
0.7
0.6
f(x)
0.5
0.4
0.3
0.2
0.1
0
30 Euro
-6 Euro
Ereignis x
c) Welchen Verdienst kann der Schirmverkäufer erwarten?
Gesucht ist der Erwartungswert. Dieser ergibt sich nach:
n
E ( x) = ∑ xi ⋅ f ( xi ) = (30 ⋅ 0.3) + (−6 ⋅ 0.7) = 4.8
i =1
Der Schirmverkäufer kann also einen Verdienst von 4.80 € erwarten.
Aufgabe 4:
Um die Hochwasserwahrscheinlichkeit am Saale-Pegel Jena im Januar abschätzen
zu können, suchen Sie den Pegel insgesamt viermal auf und schauen nach ob
Hochwasser herrscht oder nicht.
a) Leiten Sie die Wahrscheinlichkeitsfunktion für die Zufallsvariable Anzahl der
Hochwasserereignisse im Januar ab.
Lösung: Wird Hochwasser (HQ) mit 1 und kein Hochwasser mit 0 codiert
ergeben sich folgende 16 Möglichkeiten der Kombination:
1.
0000
2.
1000
3.
0100
4.
0010
5.
0001
6.
1100
9-16
Skript zum Modul 141 - Statistik
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
1010
1001
0110
0101
0011
1110
1101
1011
0111
1111
Damit ergeben sich folgende Wahrscheinlichkeiten:
P(0HQ) = 1 / 16
P(1HQ) = 4 / 16
P(2HQ) = 6 / 16
P(3HQ) = 4 / 16
P(4HQ) = 1 / 16
Und daraus die Wahrscheinlichkeitsfunktion:
⎧1/16
⎪ 4 /16
⎪⎪
f ( x) = ⎨6 /16
⎪ 4 /16
⎪
⎪⎩1/16
für
für
für
für
für
HQ = 0
HQ = 1
HQ = 2
HQ = 3
HQ = 4
b) Stellen Sie diese zeichnerisch dar.
0.40
0.35
0.30
f(x)
0.25
0.20
0.15
0.10
0.05
0.00
0
1
2
3
Hochwasser x
9-17
4
Skript zum Modul 141 - Statistik
c) Wie groß ist die Wahrscheinlichkeit dass genau an einem Beobachtungstag
kein Hochwasser herrscht?
Lösung: P(HQ=3) = 4/16 = 0.25
d) Wie groß ist die Wahrscheinlichkeit dass an genau zwei Beobachtungstagen
Hochwasser herrschte?
Lösung: P(HQ=2) = 6/16 = 0.375
e) Berechnen Sie den Erwartungswert und die Standardabweichung Ihrer
Zufallsvariablen.
n
E ( x) = ∑ xi ⋅ f ( xi ) = (0 ⋅ 0.0625) + (1 ⋅ 0.25) + (2 ⋅ 0.375) + (3 ⋅ 0.25) + (4 ⋅ 0.0625)
i =1
= 0 + 0.25 + 0.75 + 0.75 + 0.25 = 2
n
σ2 = ∑ ( xi − µ) 2 f ( xi )
i =1
= (4 ⋅ 0.0625) + (1 ⋅ 0.25) + (0 ⋅ 0.375) + (1 ⋅ 0.25) + (4 ⋅ 0.0625)
= 0.25 + 0.25 + 0 + 0.25 + 0.25
=1
Der Erwartungswert beträgt also 2
Standardabweichung von 1 Hochwassertag.
Hochwassertage
bei
einer
Aufgabe 5:
Eine Maschine führt einen bestimmten Arbeitsgang aus, welcher jeweils genau 10
Minuten dauert. Ein Mechaniker, der die Maschine einer routinemäßigen Kontrolle
unterziehen soll, will dazu das Ende des gerade laufenden Arbeitsganges abwarten.
Da er dessen Beginn nicht kennt, sieht er die Zeit X, die er warten muss, als
Zufallsvariable an. Dabei weiß er erstens sicher, dass er höchstens 10 Minuten zu
warten hat, d.h. P(X ≤ 10) = 1; zum zweiten nimmt er für die Wahrscheinlichkeit, dass
er höchsten noch x Minuten warten muss an, dass sich diese proportional zu x
verhält. Aus den beiden Annahmen ergibt sich die Verteilungsfunktion:
F ( x) =
1
x für 0 ≤ x ≤ 10
10
1
0.9
a) Zeichnen Sie die
Verteilungsfunktion der
Wartezeit X.
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
1
2
3
4
5
6
Wart ezeit in M inut en (x)
9-18
7
8
9
10
Skript zum Modul 141 - Statistik
b) Wie groß ist die Wahrscheinlichkeit, dass der Mechaniker mehr als 3 Minuten
warten muss
Lösung: P(3 < X <= 10) = F(10) – F(3) = 1 – 3/10 = 7/10 = 0.7
c) er mehr als drei aber höchstens fünf Minuten warten muss
Lösung: P(3 < X < 5) = F(5) – F(3) = 5/10 – 3/10 = 2/10 = 0.2
d) höchstens noch 2 Minuten warten muss, nachdem er bereits 3 Minuten
gewartet hat.
Lösung: P(2|3) = (P(3 < X <= 5)) / (P(X > 3)) = (F(5) – F(3)) / (1 - F(3))
= 0.2 / 0.7 = 0.2857
9-19
Herunterladen