II. Wahrscheinlichkeitsrechnung und mathematische Statistik

Werbung
II. Wahrscheinlichkeitsrechnung
und mathematische Statistik
Prof. Dr. Barbara Grabowski
Hochschule für Technik und Wirtschaft
des Saarlandes
1/2012
Inhaltsverzeichnis
-I-
Einleitung
Diese Kurseinheit dient der Vermittlung von Grundkenntnissen auf dem
Gebiet der Wahrscheinlichkeitsrechnung und mathematischen Statistik.
Mathematische Statistik und Wahrscheinlichkeitsrechnung sind zwei
unterschiedliche Teildisziplinen der Mathematik, die ohne einander nicht
denkbar sind und unter dem Sammelbegriff „Stochastik“ zusammengefasst
werden. Aufgabe der Wahrscheinlichkeitsrechnung ist es, Gesetzmäßigkeiten
des Zufalls zu untersuchen, bzw. mathematische Modelle dafür zu liefern.
Die Wahrscheinlichkeitsrechnung ist zugleich das theoretische Fundament
der mathematischen Statistik. Diese wird in der Regel in die Teildisziplinen
„Beschreibende Statistik“ und „Schließende Statistik“ unterteilt. Während es in
der Beschreibenden Statistik um Methoden der Aufbereitung und Darstellung
von Datenmaterial geht, stehen im Mittelpunkt der Schließenden Statistik
Verfahren, mit deren Hilfe von Beobachtungsdaten eines Merkmals an n
Objekten einer Grundgesamtheit, d.h. von der sogenannten Stichprobe, auf
die Verteilung der Merkmalswerte in der gesamten Grundgesamtheit
geschlossen wird. Dieser Schluss wird mit Hilfe von Methoden der
Wahrscheinlichkeitsrechnung
durch
Irrtumsbzw.
Sicherheitswahrscheinlichkeiten bewertet.
Die Stochastik hat längst in viele moderne wissenschaftliche Teildisziplinen
Einzug gehalten, vor allem auch die Technik. Stochastische Methoden finden
hier zum Beispiel Anwendung
- in der Qualitätskontrolle und der Prozesskontrolle
- bei der Planung von Experimenten (DOE bzw statistischen
Versuchsplanung)
- bei der Untersuchung von Zuverlässigkeiten, Lebensdauern und
Ausfallraten
- bei der Festlegung von Toleranzen
- bei der Modellierung von zufallsbehafteten Messdaten
- bei der Analyse von Ursachen und Zusammenhängen zwischen
bestimmten Größen,
- in der Signalverarbeitung, bei der Mustererkennung und in der
Bildverarbeitung
- bei der Simulation komplexer Systeme, wie z.B. Fertigungs-,
Informations-, Verkehrssysteme usw.
Darüber hinaus sind Methoden der beschreibenden Statistik fester Bestandteil
von Datenbanksystemen geworden und finden als Data-Mining-Verfahren
Anwendung.
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Wir geben in dieser Kurseinheit eine Einführung in die Methoden der
Stochastik, wobei wir uns aufgrund der beschränkten Seitenzahl dieser
Lehreinheit auf eine Einführung in die Wahrscheinlichkeitsrechnung und
einige wenige Methoden der Schließenden Statistik beschränken. Für weiter
Methoden der Stochastik, insbesondere auch der Beschreibenden Statistik
verweisen wir auf die im Literaturverzeichnis des Anhangs angegebene
weiterführende Literatur.
Im ersten Kapitel werden Sie mit dem Begriff der Wahrscheinlichkeit und mit
Grundgesetzen des Rechnens mit Wahrscheinlichkeiten vertraut gemacht. Im
Kapitel 2 wird der Begriff der Zufallsgröße eingeführt und die Methodik zur
Modellierung der Wahrscheinlichkeitsverteilungen von Zufallgrößen
dargestellt. Kapitel 3 enthält Angaben über die Verteilung von Summen und
anderen Funktionen von Zufallsgrößen. Im Mittelpunkt von Kapitel 4 steht
die Aufgabe der Identifizierung
der Verteilung einer Zufallsgröße,
insbesondere die Schätzung von unbekannten Verteilungsparametern und
die Ermittlung von Toleranzbereichen für unbekannte Parameter anhand
einer Stichproben von Beobachtungen dieser Zufallsgröße.
Inhaltsverzeichnis
- III -
Inhaltsverzeichnis
Inhaltsverzeichnis
III
1 Der Wahrscheinlichkeitsraum
5
1.1 Der Wahrscheinlichkeitsraum................................................................................... 5
1.1.1 Kleiner Exkurs zur Mengenlehre .................................................................. 6
1.1.2 Zufälliger Versuch und zufällige Ereignisse................................................ 9
1.1.3 Das Ereignisfeld ............................................................................................. 12
1.1.4 Relative Häufigkeit von Ereignissen und axiomatische Definition der
Wahrscheinlichkeit ........................................................................................ 13
1.2 Der klassische Wahrscheinlichkeitsbegriff ............................................................ 20
1.3 Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit von
Ereignissen ................................................................................................................ 23
1.3.1 Die Bedingte Wahrscheinlichkeit ................................................................ 23
1.3.2 Verbundwahrscheinlichkeiten ..................................................................... 24
1.3.3 Stochastische Unabhängigkeit von Ereignissen ........................................ 26
1.4 Totale Wahrscheinlichkeit und Bayes’sche Formel ............................................. 30
1.5 Übungsaufgaben ................................................................................................. 34
2 Zufallsgrößen und ihre Verteilungen
37
2.1 Zufallsgrößen (Wiederholung) ............................................................................... 37
2.2 Wahrscheinlichkeitsverteilung diskreter Zufallsgrößen ..................................... 38
2.3 Parameter diskreter Verteilungen .......................................................................... 40
2.3.1 Erwartungswert, Varianz und Verteilungsfunktion................................. 40
2.3.2 Quantile diskreter Verteilungen .................................................................. 43
2.4 Stetige Zufallsgrößen und ihre Verteilungen, Verteilungsfunktion und
Verteilungsdichte ..................................................................................................... 43
2.5 Parameter stetiger Verteilungen ............................................................................. 47
2.5.1 Erwartungswert und Varianz ...................................................................... 47
2.5.2 Quantile .......................................................................................................... 48
2.6 Eigenschaften von Erwartungswerten und Varianz von Zufallsgrößen........................ 50
2.7 Die Tschebyscheff-Ungleichung ............................................................................. 53
2.8 Übungsaufgaben
................................................................................................ 54
3 Spezielle Wahrscheinlichkeitsverteilungen
55
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
3.1 Spezielle diskrete Verteilungen .............................................................................. 55
3.1.1 Zweipunktverteilung .................................................................................... 55
3.1.2 Diskrete Gleichverteilung............................................................................. 56
3.1.3 Binomialverteilung ........................................................................................ 56
3.1.4 Die Poissonverteilung ................................................................................... 60
3.2 Spezielle stetige Verteilungen ................................................................................. 63
3.2.1 Die stetige Gleichverteilung ......................................................................... 65
3.2.2 Die Exponentialverteilung ........................................................................... 66
3.2.3 Die Normalverteilung (Gauß-Verteilung).................................................. 68
3.3 Bestimmung der Verteilungsparameter nach der Momentenmethode............. 76
3.4 Übungsaufgaben ................................................................................................. 77
Verteilungsfunktion der Standardnormalverteilung ............................................................. 80
Wahrscheinlichkeitsrechnung
1
Der Wahrscheinlichkeitsraum
In diesem Abschnitt werden der Wahrscheinlichkeitsbegriff für Ereignisse
definiert und die Grundgesetze des Rechnens mit Wahrscheinlichkeiten
dargestellt. Sie lernen, ihre Chancen in Glücksspielen, den sogenannten
Laplace-Versuchen, mittels klassischer Wahrscheinlichkeit zu berechnen.
Weiterhin werden die bedingte Wahrscheinlichkeit , die stochastische
Unabhängigkeit von Ereignissen und das Rechnen mit der Bayesschen
Formel dargestellt.
1.1
Der Wahrscheinlichkeitsraum
Die Wahrscheinlichkeitstheorie untersucht mathematische Modelle für reale
Vorgänge, in denen der Zufall eine Rolle spielt. Wir nennen sie Vorgänge mit
zufälligem Ergebnis und bezeichnen sie als zufälligen Versuch.
Beispiel:
Der Betreiber einer Autowaschanlage interessiert sich für die Wartezeit von
Kunden vor seiner Anlage. Er lässt sie beobachten. Das Ergebnis – hier die
Wartezeit - ist nicht vorhersagbar. Ein Vorgang mit zufälligem Ergebnis läuft
ab. Mit dem Vorgang sind Ereignisse verbunden:
-
Die Wartezeit ist kleiner als 1 Minute
Die Wartezeit beträgt mindestens 2 Minuten
Die Wartezeit liegt zwischen 1 und 5 Minuten
Für die Beurteilung der Qualität des Services der Waschanlage ist es vielleicht
notwendig, dass das Ereignis: „Die Wartezeit beträgt höchstens 1 Minute“
eine Wahrscheinlichkeit von mindestens 0,95 besitzt.
Das mathematische Modell für einen Vorgang mit zufälligem Ergebnis ist der
Wahrscheinlichkeitsraum [Ω, ℰ, P]. Hierbei repräsentiert Ω die Menge der
möglichen Ergebnisse des Vorgangs. ℰ enthält diejenigen Teilmengen von Ω,
die wir Ereignisse nennen und wird als Ereignisfeld zu unserem zufälligen
Versuch
bezeichnet.
P
schließlich
ist
die
sogenannte
Wahrscheinlichkeitsverteilung, die jedem Ereignis aus ℰ eine als
Wahrscheinlichkeit des Ereignisses bezeichnete Zahl zwischen 0 und 1
zuordnet. Diese Wahrscheinlichkeit soll den Grad der Gewissheit über das
-5-
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Eintreten des Ereignisses ausdrücken. In den folgenden Abschnitten werden
die
Begriffe
Ereignis,
Grundmenge
Ω, Ereignisfeld
ℰ
und
Wahrscheinlichkeitsmaß P näher erklärt.
1.1.1
Mengen
Kleiner Exkurs zur Mengenlehre
Es ist in der Wahrscheinlichkeitsrechnung üblich, Ereignisse durch Mengen
darzustellen. Auf diese Weise kann man mit Ereignissen wie mit Mengen
rechnen. Eine Menge wird angegeben, indem man alle ihre Elemente angibt,
z.B.
- durch Aufzählung oder
- durch Angabe einer die Elemente charakterisierenden Eigenschaft
Dabei ist zu beachten, dass jedes Element in der Menge nur einmal
vorkommt. Mengen werden mit Großbuchstaben, und ihre Elemente mit
kleinen Buchstaben bezeichnet.
x ∈ A bedeutet: x ist Element der Menge A
x ∉ A bedeutet: x ist kein Element von A
|A| = Anzahl der Elemente in A.
Beispiele: A={1,2,7}, B = {x ∈ R| 2 ≤ x < 10}, 2 ∈ A , 1 ∉ B, |A| = 3.
Teilmengen,
leere Menge,
Potenzmenge
Mengen stehen in Relationen zueinander. Es bedeutet:
A = B : Die Elemente von A und B sind gleich
A ⊆ B : Die Elemente von A sind auch in B enthalten (A ist Teilmenge von B)
A ⊂ B : Die Elemente von A sind auch in B enthalten und B enthält
mindestens ein Element, welches nicht in A enthalten ist (A ist echte
Teilmenge von B).
Die Menge Φ={}, die kein Element enthält, wird als leere Menge bezeichnet.
Offensichtlich gilt für jede Menge A: Φ ⊆ A.
Die Menge, die alle möglichen Teilmengen einer Menge A enthält, wird als
Potenzmenge von A bezeichnet: ℘(A) = {M| M ⊆ A}.
Beispiel:
Sei A = {1,2,7}. Dann ist ℘(A) = { Φ, {1},{2},{7}, {1,2}, {1,7}, {2,7}, {1,2,7} }.
Wahrscheinlichkeitsrechnung
-7-
Mengen kann man durch Operationen miteinander verknüpfen. Diese
Operationen kann man sich in sogenannten Venn-Diagrammen
veranschaulichen:
Operation
Vereinigung
Durchschnitt
Differenz
Mengenoperationen
Venn-Diagramm
Operator Bedeutung
A∪B
enthält alle Elemente, die
in A oder B enthalten
sind
A∩B
enthält alle Elemente, die
in A und B enthalten sind
A\B
enthält alle Elemente, die
in A aber nicht in B
enthalten sind
Zwei Mengen A und B heißen disjunkt, falls sie kein gemeinsames Element
besitzen, falls also gilt: A ∩ B = Φ.
disjunkte Mengen
Beispiel: Seien A={1,2,3}, B={2,3,7,9}. Dann ist: A∪B={1,2,3,7,9}, A∩B={2,3},
A\B= {1}, B\A = {7,9}. Die Mengen A∩B und B\A sind disjunkt.
Ist A ⊆ M, also A eine Teilmenge einer Obermenge M, so
bezeichnet man die Menge
AM
= M\A als
Komplementärmenge
Komplementärmenge (bzw. Komplement) von A (bzgl. M).
Beispiel: Sei M = {1,2,3,4,5,6}, A={2,4,6}. Dann ist AM = {1,3,5}. Offensichtlich
sind AM und A disjunkt und ihre Vereinigung ergibt M.
Mengenoperationen besitzen Eigenschaften. So zum Beispiel sind ∪ und ∩
kommutativ, aber \ nicht. Weiterhin kann man aus den Venn-Diagrammen
der Tabelle erkennen, dass gilt: (A∩B) ∪ (A\B) = A. Im folgenden Satz sind
einige wichtige Eigenschaften von Mengenoperationen aufgelistet:
Satz: (Eigenschaften von Mengenoperationen)
Es gilt:
1. A∪B=B∪A und A∩B=B∩A
2. (A∪B)∩C = (A∩C) ∪ (B∩C) und (A∩B)∪ C = (A∪C) ∩(B∪C)
3. (A∪B)∪ C = A ∪ (B∪ C) und (A∩B)∩ C = A ∩(B∩C)
4. A = (A∩B) ∪ (A\B)
5. Wenn A ⊆ B , so gilt A∩B=A und A∪B = B und A\B = A
Eigenschaften von
Mengenoperationen
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
6. Wenn A ⊆M und B ⊆M, so gilt:
_________
_________
( A ∪ B) M = AM ∩ BM und ( A ∩ B) M = AM ∪ BM (de Morgansche
Regeln)

Übungsaufgaben
1.1
Sei A = {1,2,3,4,5,6,7,8,9}, B={2,4,6}, C={2,4,20,40}. Berechnen Sie
A∩B, B\A, C\A, B ∪C, B A , ς(B), |ς(B)|.
1.2 *
Welches Bild gehört zu welcher Formel? Ordnen Sie zu!
a)A∩(B∩C), b)A∩(B∪C), c)A∪(B∩C)
d)A∪(B∪C), e)(A∩B)∪C, f)(A∪B)∩C
1.3 *
_________
Stellen Sie im folgenden Diagramm die Mengen ( A ∪ B ) M und
AM ∩ BM dar. Was stellen Sie fest?
1.4
Machen Sie sich analog zu 1.3* die Aussagen 2., 5. und 6. des
Satzes „Eigenschaften von Mengenrelationen“ klar, indem Sie die
Menge der linken Seite und diejenige der rechten Seite der
jeweiligen Gleichung im Venn-Diagramm darstellen und diese
Grafiken dann miteinander vergleichen.
1.5 *
Sei A eine Menge mit n Elementen, d.h. sei |A| = n. Wie viele
Teilmengen mit k (k ≤ n) Elementen enthält A?
1.6
Sei A eine Menge mit n Elementen, d.h. sei |A| = n. Berechnen
Sie |℘(A)|!
Wahrscheinlichkeitsrechnung
1.1.2
-9-
Zufälliger Versuch und zufällige Ereignisse
Definition:
Ein unter Beibehaltung eines festen Komplexes von Bedingungen beliebig oft
wiederholbarer Vorgang mit ungewissem Ausgang heißt zufälliger Versuch. Wir
bezeichnen ihn mit V.
Die Menge Ω der möglichen Versuchsergebnisse von V wird als Grundmenge zu V
bezeichnet. Die Elemente ω von Ω stellen jeweils ein mögliches zufälliges
Ergebnis bei Durchführung von V dar.
Als Ereignisse zu V bezeichnet man Teilmengen von Ω. Für Ereignisse verwenden
wir Großbuchstaben A,B,C, .... . Die Aussage „Das Ereignis A ist eingetreten“
bedeutet, dass irgendein Element ω∈A als Ergebnis des zufälligen Versuches
beobachtet wurde.
zufälliger Versuch,
Grundmenge,
Ergebnisse,
Ereignisse
1.Beispiel:
• Versuch : V = Werfen eines Spielwürfels,
• einige mögliche Ergebnisse: ω = 2 oder ω = 6
• Grundmenge: Ω = {1,2,3,4,5,6}
• einige mögliche Ereignisse:
„ungerade Augenzahl“ : A= {1,3,5}
“Augenzahl ist größer als 3“: B ={4,5,6}
„Augenzahl ist gleich 6“ : C={6}
2. Beispiel:
• Versuch : V = Ermittlung der Wartezeit eines Kunden in einer
Waschanlage
• einige mögliche Ergebnisse: ω = 1 Minute oder ω = 5 Minuten
• Grundmenge: Ω = {ω ∈ R| ω ≥ 0 } (enthält alle möglichen
Wartezeiten)
• einige mögliche Ereignisse:
„Wartezeit ist kleiner als 1 Minute“ : A= {ω ∈ R| 0≤ ω < 1 }
“Wartezeit liegt zwischen 2 und 5 Minuten“: B = {ω ∈ R| 2 ≤ ω ≤ 5 }
„Wartezeit beträgt 5 Minuten“ : C={5}
Das Ereignis A = Ω\A heißt Komplementärereignis oder Gegenereignis zu
A und bedeutet, dass A nicht eintritt. Zwei Ereignisse A und B heißen
disjunkt, wenn sie nicht gemeinsam eintreten, d.h., wenn gilt: A ∩ B = Φ.
Ein Ereignis, welches bei jeder Durchführung des Versuchs V eintritt, heißt
sicheres Ereignis und eines, welches nie eintritt unmögliches Ereignis.
Offensichtlich ist
Ω ein sicheres und Ω =Φ ein unmögliches Ereignis.
Komplementärereignis,
sicheres Ereignis,
unmögliches
Ereignis
B. Grabowski, HTW des Saarlandes, 1/2012
Elementarereignis
Verknüpfung von
Ereignissen
Stochastik
Wir unterscheiden zwischen Elementarereignissen und zusammengesetzten
Ereignissen. Elementarereignisse sind „Einermengen“, die jeweils genau ein
Ergebnis des zufälligen Versuchs enthalten. Damit treten niemals zwei
Elementarereignisse gleichzeitig ein, sie sind disjunkt. In unseren Beispielen
stellt jeweils das Ereignis C ein Elementarereignis dar. Demgegenüber heißen
Ereignisse, die durch Vereinigung mehrerer Elementarereignisse entstehen,
zusammengesetzte Ereignisse, in unseren beiden Beispielen sind jeweils A
und B zusammengesetzte Ereignisse.
Da Ereignisse durch Mengen dargestellt werden, können die Relationen und
Operatoren der Mengenlehre verwendet werden, um Relationen zwischen
und Verknüpfungen von Ereignissen darzustellen.
Dabei bedeutet:
A⊆B
A=B
A∪B
A∩B
A\B
Mit dem Ereignis A tritt auch das Ereignis B ein (A zieht B nach
sich).
A zieht B nach sich und B zieht A nach sich.
A oder B oder beide Ereignisse treten ein.
(Summe von Ereignissen)
A und B treten ein. (Produkt von Ereignissen)
Das Ereignis A aber nicht das Ereignis B tritt ein.
Wir können die Summe und das Produkt von Ereignissen auf mehr als zwei
Ereignisse verallgemeinern.
A1 ∪ A2 ∪ ⋯ ∪ An Mindestens eines der Ereignisse Ai , i = 1,..., n ,tritt ein.
A1 ∩ A2 ∩ ⋯ ∩ An Alle Ereignisse Ai , i = 1,..., n ,treten gemeinsam ein.
Bemerkung: Der in Abschnitt 1.1.1. angegebene Satz über Eigenschaften von
Mengenoperationen gilt genauso für die entsprechenden Verknüpfungen von
Ereignissen.

1.7
Übungsaufgaben
In einem Reaktionszeitversuch V seien folgende Ereignisse von
Interesse: A= „Die Reaktionszeit ist größer oder gleich 3
Sekunden“, B=“Die Reaktionszeit ist nicht größer als 5
Sekunden“, C=“Die Reaktionszeit ist größer als 7 Sekunden“,
D=“Die Reaktionszeit liegt zwischen 3 und 5 Sekunden
(einschließlich 3 und 5)“.
Wahrscheinlichkeitsrechnung
a) Stellen Sie A,B,C,D als Mengen dar!
b) In welcher Relation stehen A und C zueinander?
c) Stellen Sie D aus A und B unter Verwendung von
Mengenoperationen dar!
d) Welches Ereignis wird durch die Menge A\C beschrieben?
Geben Sie die Menge an!
e) Geben Sie alle Paare disjunkter Ereignisse an, die sich aus
A,B,C und D bilden lassen!
1.8*
Sei V der zufällige Versuch „Zweimaliger Münzwurf. Ein
Versuchsausgang sei durch das Paar ω=(M1, M2), Mi ∈{K,Z},
beschrieben (Mi.: Ergebnis des i.ten Wurfes, i=1,2, K = Kopf (oder
Bild), Z = Zahl).
a) Geben Sie Ω an!
b) Beschreiben Sie die Ereignisse A={(K,K),(Z,K)},
B={(K,K),(Z,Z)}, C={(K,K), (Z,K), (K,Z)} in Worten!
1.9
Bei der Herstellung eines Produktes treten 2 Fehler F1=“nicht
maßhaltig“ und F2=“nicht funktionsfähig“ ein. Formulieren Sie
folgende Ereignisse unter Verwendung von F1 und F2 und den
Mengenoperationen ∩, ∪, \, sowie Komplementbildung :
a) Das Produkt ist mit mindestens einem Fehler
behaftet
b) Das Produkt hat keinen der beiden Fehler
c) Das Produkt hat höchstens einen der beiden Fehler
1.10
Sei Bi das Ereignis Bi = „Bauelement Bi ist O.K”, i=1,...,n.
G sei das in folgender Skizze dargestellte Gerät:
Das Gerät funktioniert, wenn mindestens eine Reihe funktioniert.
Eine Reihe funktioniert, wenn alle Bauelemente der Reihe
funktionieren.
Stellen Sie mit Hilfe der Ereignisse Bi
und den
Mengenoperationen ∩, ∪, \ , sowie Komplementbildung folgende
Ereignisse dar:
a) A=“ Das Gerät ist O.K.“
- 11 -
B. Grabowski, HTW des Saarlandes, 1/2012
b)
c)
d)
e)
f)
1.1.3
Ereignisfeld
Stochastik
B= “Nur B1 und B4 sind O.K, die anderen Bauelemente nicht“
C= „Genau 2 Reihen des Gerätes funktionieren“
D=“ Mindestens ein Bauelement ist O.K.“
E=“ Mindestens ein Bauelement ist defekt“
F=“ Höchstens ein Bauelement ist O.K.“
Das Ereignisfeld
Zu einem Versuch können wir immer viele Ereignisse definieren. Alle
Ereignisse sind immer Teilmengen der Grundmenge Ω. Die bei der
Durchführung von V praktisch relevanten Ereignisse werden in einer Menge
ℰ, dem sogenannten Ereignisfeld von V zusammen gefasst. Wir fordern
dabei, dass die Anwendung der Operationen ∪, ∩ und \ auf die Ereignisse
des Ereignisfeldes nicht aus diesem hinausführt, d.h., wir fordern, dass
Ereignisfeld alle Ereignisse enthält, die sich durch Anwendung der
Mengenoperationen ∪, ∩ und \ bilden lassen. Unser Ziel ist es, für alle A
Ereignisse des Ereignisfeldes eine Zahl P(A) anzugeben, die die Chance des
Eintretens von A bei Durchführung von V charakterisiert.
Definition:
Sei V ein zufälliger Versuch mit der Grundmenge Ω. Ein Ereignisfeld ℰ=ℰ (Ω) zu
V über Ω ist eine Menge von Ereignissen A ⊆ Ω, die folgende Eigenschaft besitzt:
1. ℰ enthält das unmögliche Ereignis Φ und das sichere Ereignis Ω, also
Φ ∈ℰ und Ω∈ ℰ.
2. Wenn A ∈ℰ und B∈ℰ, so ist auch A∪B ∈ ℰ und A∩B ∈ ℰ.
3. Wenn A ∈ ℰ, so ist auch das Komplement A ∈ ℰ.
4. Mit abzählbar unendlich vielen Ereignissen Ai ∈ ℰ, i=1,2,..., sind auch deren
∞
∞
i =1
i =1
Summe ∪ Ai und deren Produkt ∩ Ai in ℰ enthalten.
Ereignisfelder zu einem zufälligen Versuch sind nicht eindeutig bestimmt.
Üblicherweise legt man in der Wahrscheinlichkeitsrechnung bei Versuchen V
mit endlichen Grundmengen Ω die Potenzmenge ℰ = ℘(Ω) als Ereignisfeld
zugrunde, da dieses Ereignisfeld alle möglichen zu V definierbaren Ereignisse
enthält. Bei Versuchen mit reellen Grundmengen (Ω=R) wird in der Regel als
Ereignisfeld nicht die Potenzmenge von R, sondern eine etwas „kleinere“
Menge, nämlich die Menge der sogenannten Borel-Mengen zugrunde gelegt,
die alle offenen, halboffenen und abgeschlossenen reellen Zahlen-Intervalle,
Wahrscheinlichkeitsrechnung
- 13 -
sowie deren Summen, Produkte und Komplemente enthält. Auf eine
ausführliche Definition der Borel-Mengen sei hier verzichtet.
1.11
1.1.4
Sei V der zufällige Versuch „Werfen zweier Münzen“.
Wie viele Ereignisse enthält das Ereignisfeld ℰ = ℘(Ω) zu
diesem Versuch? Geben Sie ℘(Ω) an und überzeugen Sie sich
von der Erfülltheit der Eigenschaften 1.-4- eines
Ereignisfeldes.
Relative Häufigkeit von Ereignissen
Definition der Wahrscheinlichkeit
und
axiomatische
Will man wissen, wie groß die Chance des Eintretens eines Ereignisses A∈ ℰ
bei Durchführung eines Versuches V ist, so könnte man den Versuch n mal
durchführen und dabei beobachten, wie oft A eingetreten ist, d.h., die relative
Häufigkeit hn(A) von A ermitteln. Die relative Häufigkeit hn(A) ist der Anteil
der Versuche an den n Versuchswiederholungen, in denen A eintritt. Tritt A
beispielsweise bei 50 Versuchen 10 mal ein, so ist hn(A)=10/50 = 1/5. Welcher
Wert sich für hn(A) in einer konkreten Versuchsreihe ergibt, ist vom Zufall
abhängig, d.h., kann nicht mit Bestimmtheit vorhergesagt werden. Dennoch
besitzt die relative Häufigkeit allgemeingültige Eigenschaften, z.B. gilt:
1. 0 ≤ hn(A),
2. hn(Ω)=1,
3. Wenn A∩B=Φ, so ist hn(A∪B)= hn(A)+hn(B).
Das sind die grundlegenden Eigenschaften der relativen Häufigkeit, aus
denen sich weitere ableiten lassen. So folgt aus 1.-3. Z.B. auch, dass gilt:
4. hn( A ) = 1-hn(A),
5. hn(A∪B)= hn(A)+hn(B) – hn(A∩B).
Da die relative Häufigkeit vom Zufall abhängt und außerdem mit der Anzahl
n der Versuche stark schwankt, ist sie kein ideales Maß für die
Quantifizierung der Chance des Eintretens von A. Wir kommen deshalb zu
einem allgemeineren Begriff, dem der sogenannten Wahrscheinlichkeit P(A)
eines Ereignisses A.
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
P(A) ist ein idealisiertes nicht vom Zufall abhängendes Modell der relativen
Häufigkeit. Damit die Wahrscheinlichkeit P() ein gutes Modell für die relative
Häufigkeit hn () sein kann, muss sie die o.g. Eigenschaften der relativen
Häufigkeit erfüllen. Der russische Mathematiker Kolmogorov hat 1933 zum
ersten mal die mathematische (sogenannte axiomatische) Definition der
Wahrscheinlichkeit veröffentlicht. Bei dieser Definition bilden die drei
Grundeigenschaften 1-3 der relativen Häufigkeit 3 von 4 Axiomen, die vom
ihm als charakteristische Eigenschaften einer Wahrscheinlichkeit festgelegt
wurden.
Axiomatische
Definition der
Wahrscheinlichkeit
Definition: (Axiomatische Definition der Wahrscheinlichkeit)
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld ℰ. Dann
heißt jede Abbildung P: ℰ → [0,1] Wahrscheinlichkeitsmaß auf ℰ, falls für alle
Ereignisse A, B, Ai (i=1,2,...) aus dem Ereignisfeld ℰ folgende Eigenschaften
(Axiome) erfüllt sind:
1. 0 ≤ P(A),
2. P(Ω)=1,
3. Wenn A∩B=Φ, so ist P(A∪B)=P(A)+P(B),
∞
4. P (∪ Ai ) =
i =1
∞
∑ P( A ) , falls
i
Ai ∩ A j = Φ für i≠j.
i =1
P(A) wird als Wahrscheinlichkeit (Chance) des Eintretens von A bei
einmaliger Durchführung des Versuchs V bezeichnet.
Bemerkung:
Das Axiom 4 ist notwendig, um bei theoretischen
mathematischen Berechnungen keine Probleme zu bekommen. Denn ein
Ereignisfeld kann durchaus auch unendlich viele Ereignisse enthalten, bei
denen es theoretisch möglich sein sollte, die Wahrscheinlichkeit dafür, dass
mindestens eines davon eintritt, zu berechnen.
Eigenschaften der
Wahrscheinlichkeit
Aus den o.g. 4 Axiomen folgen eine Reihe weiterer Eigenschaften der
Wahrscheinlichkeit P, die denen der relativen Häufigkeit entsprechen. Einige
davon fassen wir in folgendem Satz zusammen:
Wahrscheinlichkeitsrechnung
- 15 -
Satz: (Eigenschaften der Wahrscheinlichkeit)
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld ℰ.
Dann besitzt ein Wahrscheinlichkeitsmaß P auf ℰ für alle Ereignisse A, B, Ai
(i=1,2,...) aus dem Ereignisfeld ℰ folgende Eigenschaften:
1. 0 ≤ P(A) ≤ 1,
2. P(Φ)=0, P(Ω)=1,
3. P( A ) = 1-P(A),
n
n
4. P (∪ Ai ) =
i =1
∑ P( A ) , für alle n∈N, falls
i
Ai ∩ A j = Φ für i≠j, (Additivität)
i =1
5. P(A∪B) = P(A)+P(B)-P(A∩B)
6. Wenn A⊆B, so ist P(A) ≤ P(B)
(Monotonie)
Beweis: Stellvertretend beweisen wir
Es gilt: Ω = A∪ A und es ist A∩ A =Φ.
die
Aussage
3.
des
Satzes.
In Anwendung der Axiome 2 und 3 der Wahrscheinlichkeitsdefinition
erhalten wir:
1=P(Ω) = P(A∪ A ) = P(A)+P( A )
Stellen wir diese Gleichung nach P( A ) um, so erhalten wir die Behauptung 3.
des Satzes.
Q.e.d
1.12
Zeigen Sie, dass für zwei beliebige Ereignisse A und B eines
Ereignisfeldes gilt: P(A∪B) = P(A)+P(B)-P(A∩B).
Mit Hilfe der so definierten Wahrscheinlichkeit, ihren Eigenschaften und den
Gesetzen der Mengenlehre können wir nun z.B. Wahrscheinlichkeiten für
das Eintreten von Ereignissen auf der Basis gegebener Wahrscheinlichkeiten
für Teilereignisse berechnen.
Beispiel:
Die Wahrscheinlichkeit dafür, dass ein Bewerber von Firma A angenommen
wird ist P(A) = 0,2. Die Wahrscheinlichkeit von Firma B angenommen zu
werden beträgt P(B) = 0,3. Von mindestens einer der beiden Firmen wird
man mit der Wahrscheinlichkeit 0, 4 angenommen.
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
a) Wie groß ist die Wahrscheinlichkeit dafür, von keiner der beiden
Firmen eine Zusage zu erhalten?
b) Wie groß ist die Wahrscheinlichkeit dafür, ausschließlich von B eine
Zusage zu bekommen?
Lösung:
Gegeben: P(A) = 0,2, P(B) = 0,3, P(A∪Β) = 0, 4.
Gesucht: a) P(A∩B) b) P(B ∩ A )
Zu a) Es gilt nach Eigenschaft 5:
P(A ∩B) = P(A) + P(B) - P(A∪Β) .
= 0,2 + 0,3 - 0,4
= 0,1
Zu b) Es gilt B = (A∩B) ∪ (B ∩ A ) wobei (A∩B) und (B ∩ A ) disjunkt sind.
Nach Axiom 3 der Wahrscheinlichkeit gilt dann:
P(B) =P(A∩B) + P (B ∩ A ) und demnach ist
P (B ∩ A ) = P(B) - P(A∩B) = 0,3 -0,1
= 0,2
Wir können nun mit Wahrscheinlichkeiten rechnen, aber nur, wenn
bestimmte Wahrscheinlichkeiten für Teilereignisse (im obigen Beispiel für A,
B und A∪Β ) bereits gegeben sind. Die grundlegende Frage ist, wo
bekommen wir diese gegebenen Wahrscheinlichkeiten her?
Dafür gibt es zwei Möglichkeiten:
1.
Wir können Wahrscheinlichkeiten von Ereignissen A in bestimmten
Versuchen V, den sogenannten Glücksspielen oder Laplace-Versuchen
exakt als Chance des Eintretens von A bei Durchführung von V ermitteln.
Darauf gehen wir im nächsten Kapitel 1. 2.
genauer ein.
2. Wir können die Wahrscheinlichkeit P(A) eines Ereignissen mit Hilfe der
beobachteten relativen Häufigkeit hn(A) abschätzen. Das liegt an der
sogenannten Stabilität der relativen Häufigkeit.
Stabilität der
relativen
Häufigkeit
Wenn man den Versuchsumfang n einer Versuchsreihe sehr groß macht (im
Idealfall gegen ∞ gehen lässt), so wird man feststellen, dass sich die relative
Häufigkeit hn(A) stets auf ein und denselben festen Wert, und zwar gerade
P(A), einpegelt. Diese Eigenschaft bezeichnet man als Stabilität der relativen
Häufigkeit.
Wahrscheinlichkeitsrechnung
- 17 -
Es gilt: stoch lim hn ( A) = P ( A) (Stochastische Grenzwertbegriff)
n − >∞
hn(K)
relative Häufigkeiten hn(A) in
Abhängigkeit von n.
Konvergiert für n -> oo stets gegen P(A).
1
P(A)
0,5
n
1
2
3
10
1.000.000
1000
Stabilität der relativen Häufigkeit
Experimente zum Selbermachen:
Beispiel:
Münzwurf:A = “Kopf tritt auf” = {K}, P(A) = 0,5 (siehe Kap. 1,2)
Stellen wir die relative Häufigkeit hn(K) in Abhängigkeit von n dar, so sehen
1
wir, dass sich diese bei wachsendem n stets auf den Wert p = einpegelt.
2
hn(K)
1
relative
Häufigkeiten in
Abhängigkeit
von n
0,5
n
1
2
3
10
1000
1.000.000
Ergebnisfolge:
K,
Z,
Z,
K,
Z,
K,
Z,
Z,
Z,
Z,...
h 1 ( K) = 1
h 2 ( K) =
1
2
h 3 ( K) =
1
3
h 10 ( K) =
3
10
B. Grabowski, HTW des Saarlandes, 1/2012
Beispiel:
Stochastik
Würfeln A = {6} , es ist P(A) = 1/6
(siehe auch Kap. 1.2)
hn(A)
1
1, 2, 2, 5, 3, 6, 1, 6,.....
( )
1
6
h n {6} n
→ p =
→∞
1
6
n
Hier pegelt sich hn(A) auf den Wert p=1/6 ein
So ist z.B. P(A) = 0,5 die Wahrscheinlichkeit dafür, beim Münzwurf Kopf zu
werfen. Gleichzeitig bedeutet dieser Wert aber auch, dass bei n maligem
Münzwurf (n groß) in ungefähr 50 Prozent aller Würfe Kopf geworfen wird.
Umgekehrt liefert eine beobachtete relative Häufigkeit einen Schätzwert für
die Wahrscheinlichkeit des betrachteten Ereignisses. Je größer dabei n ist,
desto genauer ist dieser Schätzwert für P(A).
Fassen wir dieses zusammen, so haben wir
1. Einen Schätzwert für P(A): P(A) ≈hn(A) für „große n“
2. Eine weitere Interpretation der Wahrscheinlichkeit:
a) P(A) = Chance des Eintretens von A bei einmaliger Durchführung von
V
b) P(A) = h∞(A) = Anteil der Versuche, in denen A eingetreten ist unter
allen möglichen (unendlich vielen) Versuchen.
So bedeutet P(A) = 0,2, dass in 20% aller Fälle (Versuche) A beobachtet
wurde.
In unseren Aufgaben zur Wahrscheinlichkeitsrechnung können wir nun auch
unsere Sprachweise anpassen und die 2. Interpretation der
Wahrscheinlichkeit dazunehmen.
Beispiel:
Die technische Begabung von Kindern einer bestimmten Alterstufe wird mit
zwei Testverfahren ermittelt. Bestehen die Kinder beide Tests, so werden sie
als begabt eingestuft. Es sei bekannt, dass 1 % der Kinder der betrachteten
Altersstufe Test 1 (T1) besteht. Die Wahrscheinlichkeit, dass ein Kind den
zweiten Test (T2) besteht, ist 0,02. Insgesamt bestehen 99% weder den ersten
noch den zweiten Test. Mit welcher Wahrscheinlichkeit wird ein Kind als
begabt eingestuft?
Wahrscheinlichkeitsrechnung
- 19 -
Lösung: Es gilt: P(T1)=0,01, P(T2)=0,02 und P( T1 ∩ T2 ) =0,99.
Gesucht ist
P(T1∩T2). Aus den Eigenschaften von P folgt:
P(T1∩T2) = P(T1)+P(T2)-P(T1∪T2).
Da T1∪T2 das Komplement von T1 ∩ T2 ist, gilt weiterhin
P(T1∪T2)=1-P( T1 ∩ T2 ) = 0,01.
Daraus folgt für die gesuchte Wahrscheinlichkeit
P(T1∩T2) = P(T1)+P(T2)-P(T1∪T2) = 0,01+0,02-0,01 = 0,02.
Das heißt, dass 2 Prozent der Kinder der betreffenden Altersklasse als begabt
eingestuft werden.

Übungsaufgaben
1.13*
Bei der Herstellung eines Produktes treten 2 Fehler F1=“nicht
maßhaltig“
und
F2=“nicht
funktionsfähig“
mit
den
Wahrscheinlichkeiten P(F1)=0,02 und P(F2)=0,04 ein. Mit
mindestens einem Fehler behaftet sind insgesamt 5 % aller
Produkte. Ein Produkt ist nur dann verkäuflich, wenn es keinen
der beiden Fehler besitzt. Mit welcher Wahrscheinlichkeit ist ein
Produkt verkäuflich?
1.14*
In deutschsprachlichen e-mails tritt das Wort „Viagra“ mit der
Wahrscheinlichkeit 0,01 auf. Das Wort „Rolex“ tritt in 2 % aller
Fälle auf. Mit mindestens einem dieser beiden Worte sind 2,5 %
aller e-mails behaftet. Eine e-mail wird nur dann nicht als
spamverdächtig klassifiziert, wenn sie keines der beiden Worte
enthält. Mit welcher Wahrscheinlichkeit wird eine e-mail nicht
als spamverdächtig eingestuft?
1.15
Sei Bi das Ereignis Bi = „Bauelement Bi ist O.K”, i=1,...3.
G sei das in folgender Skizze dargestellte Gerät:
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Das Gerät funktioniert, wenn mindestens eine Reihe funktioniert.
Eine Reihe funktioniert, wenn alle Bauelemente der Reihe
funktionieren. Es sei folgendes bekannt: 5 % aller Bauelemente
vom Typ B1 sind defekt, bei 90% aller Geräte sind sowohl B2 als
auch B3 OK und bei 87% aller Geräte sind alle 3 Bauelemente B1,
B2, B3 OK. Wie groß ist die Wahrscheinlichkeit dafür, dass G
funktioniert und wieviel % aller Geräte sind defekt?
1.2
Der klassische Wahrscheinlichkeitsbegriff
Bereits im 17. Jahrhundert interessierte man sich für die Berechnung von
Gewinn-Wahrscheinlichkeiten in Glücksspielen.
Charakteristisch für
Glücksspiele ist es, dass ihnen zufällige Versuche zugrunde liegen, bei denen
es nur endlich viele gleichwahrscheinliche Versuchsausgänge gibt. Diese
Versuche bezeichnet man als Laplace-Versuche. Die Wahrscheinlichkeit in
Laplace-Versuchen wird als klassische Wahrscheinlichkeit bezeichnet. Sie ist
gleich dem Quotienten aus der Anzahl der für dieses Ereignis günstigen
Versuchsausgänge und der Gesamtzahl der möglichen Versuchsausgänge, Im
folgenden werden wir sehen, dass sich diese Formel als Spezialfall aus den 4
Axiomen der Wahrscheinlichkeit ergibt.
Laplace-Versuch
Definition: Sei V ein zufälliger Versuch mit
1. einer endlichen Grundmenge Ω = {ω1 ,..., ω m } und
2. P( ω i ) = p für alle i=1,...,m. (gleichwahrscheinliche Elementarereignisse).
Dann heißt V Laplace-Versuch oder Glücksspiel.
Klassische
Wahrscheinlichkeit
Satz: (Klassische Wahrscheinlichkeit in Laplace-Versuchen)
Sei V ein Laplace-Versuch mit der Grundmenge Ω = {ω1 ,..., ω m }. Dann gilt
1
und
m
| A|
2. P(A)=
für jedes Ereignis A∈ = ς(Ω).
|Ω|
1. P({ ω i }) =
Wahrscheinlichkeitsrechnung
- 21 -
m
Beweis zu 1. Es ist P( Ω) = P ({ω1 } ∪ ... ∪ {ω m }) =
m
∑ P({ω }) = ∑ p = mp.
i
i =1
i =1
1
Daraus folgt die Behauptung p=P({ ω i }) =
.
m
q.e.d
1.16 Beweisen Sie die Behauptung 2. des Satzes!
Die Berechnung der klassischen Wahrscheinlichkeit läuft auf die Ermittlung
der Anzahl von Elementen einer Menge hinaus. Dazu benötigen wir im
wesentlichen zwei kombinatorische Formeln.
Satz: (Kombinatorische Formeln)
1.) Es gibt genau n! Vertauschungen von n Elementen auf n Plätze.
2.) Es gibt genau
 n
n!
  =
. k-elementige Teilmengen einer n k  k!(n − k )!
elementigen Menge.
Mit diesen beiden Formeln kann man nahezu beliebige Aufgaben zur
klassischen Wahrscheinlichkeit lösen.
Beispiel 1:
V = 2× Werfen einer Münze.
Wie groß ist die Wahrscheinlichkeit dafür, 2x das gleiche zu
werfen?
Lösung: Ω = ( K, K), ( K, Z), ( Z, K), ( Z, Z) -> Ω = 4 .
{
}
A = „Zwei mal das gleiche“ =
({(K , K ),(Z , Z )}) -> |A| = 2.
({(K, K), (Z, Z)}) = 2 : 4 = 21 .
-> P(“2 gleiche Ergebnisse”) = P
Beispiel 2: Wie groß ist die Wahrscheinlichkeit für A = „6 Richtige“ beim
Lotto „6 aus 49?
 49 
 = 13.983.816
6
Lösung: | Ω |= 
= Anzahl aller 6-elementigen
Teilmengen aus der Menge {1,…,49} und |A|=1 .
P(A)=
1
13.983816
B. Grabowski, HTW des Saarlandes, 1/2012
Beispiel 3:
Stochastik
Ein Zahlencode besteht aus 4 Ziffern z= z1z2z3z4,
z i ∈{1,...,9}
z i ≠ z j für alle i ≠ j .
Wie hoch ist die Wahrscheinlichkeit, diesen Code zu erraten?
9!
Ω = 9 ⋅8⋅ 7 ⋅ 6⋅5⋅ 4 =
3!
A: “richtigen Code raten”
A =1
A
1 3!
= = 0,0000165
Ω 9! 9!
3!
Beispiel 4: Wie groß ist die Wahrscheinlichkeit dafür, beim Würfeln mit 5
Würfeln (Kniffel) genau 2 mal die Augenzahl 4 und des weiteren die Zahlen
1,2,3 gewürfelt werden?
P( A ) =
=
Lösung: Wir überlegen uns zunächst, wie die Elementarereignisse aussehen.
Einen Versuchsausgang kann man offensichtlich durch ein 5 – Tupel
(i1,i2,i3,i4,i5) mit ij∈{1,2,3,4,5,6} beschreiben, ij ist die Augenzahl des j-ten
Würfels. Ω ist die Anzahl aller 5-Tupel. Da jeder Würfel 6 Möglichkeiten
besitzt und alle 5-Tupel durch eine Kombination der 6 Möglichkeiten aller 5
Würfel entstehen, gilt: |Ω|= 6 ⋅ 6 ⋅ 6 ⋅ 6 ⋅ 6 =65. Das Ereignis A ist die Menge
aller 5-Tupel, in denen 2 mal eine 4 und die Zahlen 1,2, 3 vorkommen.
Würden wir alle diese 5 Tupel auflisten wollen, müssten wir aus den 5
Würfeln immer 2 auswählen, denen wir die 4 zuordnen, der Rest bekommt
 5
5!
die Zahlen 1,2,3. Es gibt genau   =
= 10 Möglichkeiten 2 Würfel aus
 2  2!3!
fünfen auszuwählen. Haben wir zwei Würfel festgelegt, so ordnen wir den
restlichen 3 Würfeln die Zahlen 1,2,3 zu. Dafür gibt es genau 3!
Möglichkeiten. Folglich ist
P(A)=
 5
5!
| A |=  3!= = 60 und es ergibt sich
2!
 2
| A | 60 10
=
=
= 0,008 . Die Chance, 2 mal eine 4 und die Zahlen 1,2,3
| Ω | 65 64
zu würfeln, beträgt 8 zu 1000.

1.17 *
Übungsaufgaben
Wie groß ist die Wahrscheinlichkeit dafür, beim 3 maligen Würfeln
mit einem gleichmäßigen Würfel mindestens 2 mal eine 6 zu
würfeln?
Wahrscheinlichkeitsrechnung
1.18 *
1.3
1.3.1
Aus den Buchstaben „m“, „i“, „i“, „i“, „i“, „s“, „s“, „s“,„s“, „p“„p“
wird zufällig der Reihe nach jeweils einer ausgewählt und zu einem
Wort angelegt. Wie groß ist die Wahrscheinlichkeit dafür, dass das
Wort „mississippi“ entsteht?
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit
von Ereignissen
Die Bedingte Wahrscheinlichkeit
Beim Würfeln mit einem Würfel ist die Wahrscheinlichkeit eine 6 zu würfeln
(A) gleich 1/6. Erhalten wir aber die Zusatzinformation, dass eine gerade
Zahl gewürfelt wurde (B) , so ist die Wahrscheinlichkeit für eine 6 gleich 1/3.
Wir gehen bei unseren Überlegungen von Ω zu einem kleineren Grundraum
B über, der nur gerade Zahlen enthält und berechnen in diesem Grundraum
die Wahrscheinlichkeit für A∩B.
- 23 -
B. Grabowski, HTW des Saarlandes, 1/2012
Bedingte
Wahrscheinlichkeit
Stochastik
Definition: Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem
Ereignisfeld ℰ. Seien A∈ ℰ und B∈ ℰ zwei beliebige Ereignisse zu V mit
P(B)>0. Dann heißt
P(A|B) =
P( A ∩ B )
P( B)
bedingte Wahrscheinlichkeit von A unter der Bedingung B.
Satz : Es gilt :
Das Maß PA():= P( / A) ist für festes A∈Ω ein
Wahrscheinlichkeitsmaß auf ℰ, d.h. P( / A) erfüllt für jedes festes
A∈Ω die 4 Axiome der Wahrscheinlichkeit.
Insbesondere gilt dann auch : P ( B / A) = 1 − P ( B / A)
Achtung: Man beachte aber, dass im allgemeinen P ( A | B ) ≠ 1 − P ( A | B ) ist.
1.19
Zeigen Sie anhand der Definitionsgleichung der bedingten
Wahrscheinlichkeit, dass P ( A | B ) = 1 − P ( A | B ) gilt!
1.20 Bei der Herstellung eines Produktes treten 2 Fehler
F1=“nicht maßhaltig“ und F2=“nicht funktionsfähig“ mit
den Wahrscheinlichkeiten P(F1)=0,02 und P(F2)=0,04 ein.
Mit mindestens einem Fehler behaftet sind insgesamt 5 %
aller Produkte.
a) Berechnen Sie die Wahrscheinlichkeit dafür, dass ein zufällig
ausgewähltes Produkt auch den Fehler F2 besitzt, wenn
bekannt ist, dass es den Fehler F1 hat!
b) Wie groß ist die Wahrscheinlichkeit, dass das Produkt den
Fehler F1 nicht hat, wenn bekannt ist, dass es bereits den
Fehler F1 hat?
1.3.2
Verbundwahrscheinlichkeiten
Multiplizieren wir in der Definitionsgleichung für die bedingte
Wahrscheinlichkeit beide Seiten mit P(B), so erhalten wir die
sogenannte Multiplikationsformel:
Multiplikationssatz
Wahrscheinlichkeitsrechnung
- 25 -
P( A ∩ B) = P( A | B) ⋅ P( B)
Oftmals sind die Wahrscheinlichkeiten P(A|B) und P(B) gegeben oder leicht
zu ermitteln und die Multiplikationsformel wird dann angewendet, um die
Produktwahrscheinlichkeit
P ( A ∩ B ) zu ermitteln.
Die Multiplikationsformel lässt sich auf beliebig viele Ereignisse verallgemeinern:
Satz: (Multiplikationssatz)
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld ℰ.
Seien Ai∈ ℰ , i=1,...,n , n beliebige Ereignisse. Dann gilt:
P( A1 ∩ A2 ∩ ⋯ ∩ An )
= P ( A1 ) P( A2 | A1 ) P( A3 | A1 ∩ A2 ) ⋅ ⋯ ⋅ P( An | A1 ∩ ⋯ ∩ An −1 )
Beispiel 1: (Statistische Qualitätskontrolle)
= Defekt
= O.K.
In einem Los von 5 Teilen befinden sich zwei defekte Teile. Wie groß ist die
Wahrscheinlichkeit dafür, beim dreimaligen hintereinander Herausnehmen
und Prüfen eines Teiles beide defekte Teile zu ziehen?
Lösung: Wir bezeichnen:
wi = Ziehen eines defekten Teils bei i.ter Ziehung
si = Ziehen eines nicht defekten Teils bei i.ter Ziehung
A = 2 defekte Teile beim dreimaligen Ziehen
Dann gilt:
A = ( w1 ∩ w2 ∩ s 3 ) ∪ ( w1 ∩ s 2 ∩ w3 ) ∪ ( s1 ∩ w2 ∩ w3 )
Und wir erhalten wegen der Disjunktheit der 3 Teilereignisse
P(A) = P( ( w1 ∩ w2 ∩ s 3 ) ∪ ( w1 ∩ s 2 ∩ w3 ) ∪ ( s1 ∩ w2 ∩ w3 ) )
= P ( w1 ∩w2 ∩ s3 ) + P ( w1 ∩ s 2 ∩ w3 ) + P ( s1 ∩ w2 ∩ w3 )
Jetzt wenden wir auf jeden Summenden den Multiplikationssatz an, für den
ersten Summenden erhalten wir
P (w1 ∩ s 2 ∩ s3 )
= P(w1 ) ⋅ P(w2 / w1 ) ⋅ P (s 3 / (w1 ∩ w2 ))
B. Grabowski, HTW des Saarlandes, 1/2012
=
=
2
⋅
5
Stochastik
1
4
⋅
3
3
1
10
Analog erhalten wir auch für die beiden anderen Summenden jeweils den
gleichen Wert 1/10 Und damit ergibt sich als Ergebnis:
P(A) = 3/10 = 0,3.
D.h., nur in 30% aller Fälle finden wir bei diesem Qualitätskontrollverfahren
die beiden defekten Teile. Das ist natürlich nicht gut. Wir können das nur
verbessern, wenn wir mehr Teile ziehen.
Beispiel 2:
Aus einem gut gemischten Kartenspiel sollen 3 Spieler nacheinander eine
Karte ziehen. Mit welcher Wahrscheinlichkeit zieht jeder Spieler eine PikKarte (Ereignis A)?
Lösung: Unter den 32 Karten sind 8 Pik-Karten. Die Wahrscheinlichkeit, dass
der erste Spieler eine Pik-Karte zieht ist P(A1)=8/32=1/4. Nachdem der erste
Spieler eine Pik-Karte gezogen hat, sind nur noch 31 Karten und davon 7 PikKarten im Spiel. Somit ist die Wahrscheinlichkeit dafür, dass der zweite
Spieler eine Pik-Karte zieht P(A2|A1) = 7/31. Analog erhalten wir dann
P(A3|A1∩A2)=6/30 und somit: P(A) = P(A1∩A2∩A3)=

8 7 6
7
⋅ ⋅
=
.
32 31 30 620
Übungsaufgaben
1.21 * Wir betrachten ein Los von 10 Teilen. Darunter befindet sich ein
defektes Teil. Wie groß ist die Wahrscheinlichkeit dafür beim „ dreimaligen
Ziehen
ohne
zurückzulegen“
das
defekte
Teil
zu
finden?
1.3.3
Unabhängige
Ereignisse
Stochastische Unabhängigkeit von Ereignissen
Verändert die Information über das Eintreten von B die Chancen für A nicht,
d.h. gilt P(A|B)=P(A), so heißen A und B stochastisch unabhängig.
Wahrscheinlichkeitsrechnung
- 27 -
Definition:
Zwei Ereignisse A und B heißen stochastisch unabhängig, falls gilt:
P( A / B ) = P( A)
Folgerung:
Seien A und B stochastisch unabhängig, dann gelten folgende
Beziehungen:
a) P ( A ∩ B ) = P ( A) ⋅ P (B )
b) P A ∩ B = P ( A) ⋅ P B ,
(
)
( )
c) P A ∩ B = P A ⋅ P (B )
(
)
( )
d) P (A ∩ B ) = P (A ) ⋅ P (B )
Produktformel
für 2 unabhängige
Ereignisse
Beispiel:
Sind die beiden Ereignisse A=“Würfeln einer geraden Zahl“ und
B=“Würfeln
einer
Zahl
≥
4“
stochastisch
unabhängig?
Es gilt: P(A)=1/3 und P(B|A)=2/3. Damit sind P(A)≠P(B|A) und folglich
sind A und B nicht stochastisch unabhängig. Das gleiche Ergebnis erhalten
wir, wenn wir die Produktformel untersuchen: Es ist P(A)=1/3, P(B)=1/3 und
P(A∩B)=2/6. Folglich ist P(A∩B)≠P(A)P(B), woraus folgt, dass A und B nicht
stochastisch unabhängig sind.
Die Definition der Unabhängigkeit von n beliebigen Ereignissen sieht etwas
komplizierter aus. Die inhaltliche Bedeutung ist analog zum Fall zweier
Ereignisse: das Eintreten jeweils eines Teils der Ereignisse beeinflusst die
Chancen des Eintretens des anderen Teils nicht. Für die Berechnungen ist die
Verallgemeinerung der Produktformel wichtig:
Definition:
n Ereignisse A1 , A2 , ⋯ , An heißen stochastisch unabhängig, falls für jede
beliebige Teilauswahl A1* , A2* , ⋯ , Ak * von k Ereignissen aus diesen n gilt:
P ( A1* ∩ A2* ∩ ⋯ ∩ Ak * ) = P( A1* ) P ( A2* ) ⋅ ⋯ ⋅ P( Ak * )
Beispiel 1: Die Wahrscheinlichkeit, dass ein Beobachter in einem gewissen
Zeitraum ein Signal auf einem Bildschirm übersieht, sei 0,2 und bei allen
Beobachtern gleich. Wie viele unabhängig voneinander arbeitende
Beobachter
benötigt man, wenn insgesamt die Wahrscheinlichkeit dass ein Signal
übersehen wird (Ereignis A), nicht größer als 0,01 sein soll?
Lösung: Sei Ai das Ereignis „Das Signal wird von Beobachter i übersehen“.
Dann gilt P(Ai)=0,2. Da die Beobachter unabhängig voneinander arbeiten,
Allgemeine
Produktformel für
unabhängige
Ereignisse
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
gilt:
P(A)= P ( A1 ∩ A2 ∩ ⋯ ∩ An ) = P( A1 ) P( A2 ) P( A3 ) ⋅ ⋯ ⋅ P( An ) =(0,2)n
Die
geforderte
Bedingung
war:
0,2 n ≤ 0,01 . daraus folgt durch
Logarithmieren : log(0,2 n ) = n log(0,2) ≤ log(0,01) . Bei der Auflösung der
Gleichung nach n muss man durch den negativen Wert log(0,2) dividieren;
dadurch kehrt sich das Relationszeichen um. Wir erhalten:
log(0,01)
n≥
= 2,86 .
log(0,2)
Das heißt, dass mindestens 3 Beobachter nötig sind.
Beispiel 2:
Wir wollen von der Ausfallhäufigkeit q des Geräts G auf Ausfallhäufigkeit
einer bestimmten Baugruppe Ei (Bauelement) schließen.
Gegeben sei ein Gerät
E1
E2
E3
E4
Seien folgende Ereignisse definiert :
G - Gerät ist OK, G -Gerät ist nicht OK,
Ei - Bauelement Ei ist OK, E i - Bauelement Ei ist nicht OK.
Wir vereinfachen dazu unser Modell und treffen folgende
Annahmen:
1. Alle Bauelemente sind identisch
2. Alle Bauelemente fallen unabhängig voneinander und mit der gleichen
Wahrscheinlichkeit p aus: P( E i )=p, i=1,2,3,4.
3. Funktionsweise des Gerätes :
Eine Reihe funktioniert, falls beide Baugruppen funktionieren, das Gerät
funktioniert, falls eine Reihe funktioniert.
a) Gegeben ist nun q=P( G ). Gesucht ist p.
Wahrscheinlichkeitsrechnung
- 29 -
b) Wie groß darf die Ausfallwahrscheinlichkeit p eines Bauelenmentes
höchstens sein, damit die Ausfallwahrscheinlichkeit des Gerätes q
10 % nicht überschreitet?
Lösung:
Zu a) Wir stellen einen Zusammenhang zwischen p und q her:
( )
P G = P( Reihe 1 not OK ∩ Reihe 2 not OK)
= P( Reihe 1 not OK) ⋅ P( Reihe 2 not OK)
(
= 1 − P( Reihe 1 OK) ⋅ 1 − P( Reihe 2 OK))
= (1 − P( E 1 ∩ E 2 )) ⋅ (1 − P( E 3 ∩ E 4 ))
(
2
)(
= 1 − (1 − p) ⋅ 1 − (1 − p)
(
⇒ q = 1 − (1 − p)
2
)=q
2 2
)
⇔ 1− 1− q = p
Zu b) Sei q = 0,1: ⇒ 1 − 1 − 0,1 = 1 − 0,827 = 0,173
D.h., die Ausfallwahrscheinlichkeit der Bauelemente darf 17,3% nicht
überschreiten, damit das Gerät mit mindestens 90%tiger Wahrscheinlichkeit
nicht ausfällt.

Übungsaufgaben
1.22 * Ein System besteht aus 4 Elementen, die wie folgt angeordnet sind:
Das System verhält sich wie bei
Reihen- und Parallelschaltungen. Es
funktioniert, wenn mindestens eine
Reihe funktioniert. Eine Reihe
funktioniert, wenn alle Elemente der
Reihe funktionieren.
Jedes Element arbeitet unabhängig von den anderen mit der gleichen
Wahrscheinlichkeit p=0,9, d.h. fällt mit der Wahrscheinlichkeit 0,1
unabhängig von den anderen Elementen aus.
a) Wie groß ist die Wahrscheinlichkeit dafür, dass das System S
funktioniert?
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
b) Wie groß ist die Wahrscheinlichkeit dafür, dass Element 2
funktioniert unter der Bedingung, dass das System funktioniert ?
1.23* Zwei Studenten Versuchen unabhängig voneinander die gleiche
Übungsaufgabe zu lösen. Jeder der beiden findet die richtige Lösung
mit der Wahrscheinlichkeit 0,6. Wie groß ist die Wahrscheinlichkeit
dafür, dass mindestens einer der beiden die Aufgabe richtig löst?
1.4
Vollständiges
Ereignissystem
Vollständiges
Ereignissystem
Totale Wahrscheinlichkeit und Bayes’sche Formel
Definition:
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld ℰ.
Eine Menge von Ereignissen A1 , A2 ,..., An , Ai ⊆ Ω für i=1,...,n, heißt
vollständiges Ereignissystem in ℰ, falls gilt: a) Ai ∩ A j = Φ für i≠j und b)
A1 ∪ A2 ∪ ⋯ ∪ Ak = Ω .
Beispiele:
1.Beim 1 maligen Würfeln mit der Grundmenge Ω={1,2,3,4,5,6} bilden die
Ereignisse A1 ={1,2}, A2={3,4}, A3={5,6} ein vollständiges Ereignissystem.
2. Die Ereignisse A, A bilden ein vollständiges Ereignissystem.
3. Die Ereignisse A ∩ B, A ∩ B, A ∩ B , A ∩ B bilden ein vollständiges
Ereignissystem.
Oft liegen Wahrscheinlichkeiten für ein vollständiges System von Ereignissen
A1, A2,..., An vor, sowie die Wahrscheinlichkeiten P(B/Ai) für das Eintreten
eines weiteren Ereignisses B unter der Bedingung Ai und es ist P(B) und/oder
P(Ai/B) gesucht.
Totale
Wahrscheinlichkeit
Satz.: Sei V ein zufälliger Versuch mit der Menge Ω und dem Ereignisfeld ℰ
Seien weiterhin B⊆Ω ein beliebiges Ereignis zu V und A1,...,An ein
vollständiges Ereignissystem in ℰ.
Dann gilt:
P( B) = P( B / A 1 ) ⋅ P(A 1 ) + P( B / A 2 ) ⋅ P(A 2 )+⋯+ P( B / A n ) ⋅ P(A n )
(Formel der totalen Wahrscheinlichkeit).
Wahrscheinlichkeitsrechnung
- 31 -
Beweis:
Ω
A2
A1
B
A3
An
P (B ) = P ((B ∩ A1 ) ∪ (B ∩ A2 ) ∪ ⋯ ∪ (B ∩ An ))
= P (B ∩ A1 ) + ⋯+ P (B ∩ An )
= P (B / A1 ) ⋅ P( A1 ) +⋯+ P(B / An ) ⋅ P ( An )
qed.
Satz: (von Bayes)
a) Es gilt: P(A / B) =
Satz von Bayes
P (A ) ⋅ P ( B / A )
P( B)
b) (Verallgemeinerung):
Seien A i ⊆ Ω i = 1,..., n ein vollständiges Ereignissystem, d.h. n
Ereignisse mit A i ∩ A j und A 1 ∪ A 2 ∪⋯∪A n = Ω . Sei B ⊆ Ω .
Dann gilt:
P(A i / B) =
P ( A i ) ⋅ P( B / A i )
P( B)
=
P ( A i ) ⋅ P( B / A i )
n
∑ P ( A ) ⋅ P( B / A )
j
j
j=1
Diese Formel trägt den Namen des Engländers Thomas Bayes, der sie im
Jahre 1764 entwickelte und damit als erster den Versuch unternahm, für
statistische Schlüsse logische Grundlagen anzugeben.
Eine besondere Bedeutung dieser Formel liegt in folgender Überlegung:
Angenommen, eine direkte Beobachtung der Ereignisse A1,...,An ist nicht
möglich und man hat auf irgendeine Weise aber eine Anfangs-Information
über deren Wahrscheinlichkeiten P(A1),..,P(An) erhalten. Diese werden als apriori-Wahrscheinlichkeiten bezeichnet. Beobachtet man nun bei Durchführung
des zufälligen Versuchs das Ereignis B, so ist man bestrebt, diese Information
zur verbesserten Entscheidungsfindung darüber zu verwenden, welches der
Ereignisse A1,...,An eingetreten ist. In diesem Zusammenhang pflegt man die
Wahrscheinlichkeiten P(A1/B), ..., P(An/B) als a-posteriori-Wahrscheinlichkeiten
zu bezeichnen. Eine andere Anwendung dieser Formel besteht darin, die
Trennschärfe eines beobachteten Ereignisses B für die Entscheidung, dass ein
Ereignis Ai eingetreten ist, zu beurteilen. Entscheidet man sich bei Auftreten
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
von B für das Ereignis Ai, so wird P(Aj/B) für
Irrtumswahrscheinlichkeit bei dieser Entscheidung interpretiert.
i≠ j
als
Anwendung der Sätze in folgenden Fällen:
Gegeben:
P( A )
, P( B / A )
P(A / B)
Gesucht:
Beispiel: (Technische Fehlerdiagnose)
Sei A eine technische Fehlerart, die mit 10 % bei allen Geräten eines
bestimmten Typs vorkommt, sei B ein Merkmal, anhand dessen die
Fehlerart A diagnostiziert werden kann
Diagnoseverfahren:
Merkma
l
Tech- B
niker
B
Entscheidung
A (defekt)
A (nicht
defekt)
Fehlentscheidung:
• Das Merkmal tritt nicht auf ( B ), aber Gerät ist trotzdem
defekt (A).
• Das Merkmal B tritt auf, aber die Gerät ist O.K ( A )
Wirklichkeit
O.K
Entschei- O.K
dung defekt
A
B
B
- --P( A /B)
defekt
A
P(A/ B )
----
Fehlentscheidungswahrscheinlichkeiten:
(
)
– Wahrscheinlichkeit dafür, dass ein Gerät defekt ist, welches
)
als OK eingestuft wurde.
– Wahrscheinlichkeit dafür, dass ein Gerät O.K ist, welches als
PA/B
(
P A/B
defekt eingestuft wurde.
Wahrscheinlichkeitsrechnung
- 33 -
Ziel:
Ein solches Merkmal B finden, dass die Wahrscheinlichkeit für Fehlentscheidungen gering ist!
(
Gegeben.: P( B / A ) = 0,8
(
)
(
)
P B / A = 0,3
P(A ) = 0,1
)
Gesucht.: P A / B , P A / B
Wie groß sind die Fehlerwahrscheinlichkeiten für unser Merkmal?
Anwendung des Satzes von Bayes und “totaler Wahrscheinlichkeit”:
Es gilt:
P (A / B ) =
P (B / A) ⋅ P ( A) (1 − P ( B / A)) P ( A)
=
P (B )
1 − P( B)
(
)
 NR: P B / A = 1 − P( B / A ) = 0,2





und


P( B) = P( B / A ) ⋅ P(A ) + P B / A ⋅ P A 



= 0,8 ⋅ 0,1 + 0,3 ⋅ 0,9




= 0,35




⇒ P B = 1 − P( B) = 0,65


(
) ( )
( )
0,2 ⋅ 0,1 0,02 2
=
=
= 0,03
0,65
0,65 65
⇒ In 3 % aller Diagnosen wird ein defektes Gerät als O.K eingestuft!
(
)
⇒P A/ B =
1.24 Berechnen Sie zu unserem obigen Beispiel die
Irrtumswahrscheinlichkeit P ( A | B ).
B. Grabowski, HTW des Saarlandes, 1/2012

Stochastik
Übungsaufgaben
1.25* Wir wollen die Zuverlässigkeit eines SPAM-Filters untersuchen, dabei
nehmen wir an, dass wir genau wissen, was eine SPAM ist!. Unser
SPAM-Filter arbeitet wie folgt: Es werden alle Texte als SPAM
eingestuft, in denen das Wort „Viagra“ vorkommt (Ereignis B). In
jedem anderen Fall werden die Texte als O.K. eingestuft. Es soll die
Zuverlässigkeit dieses SPAM-Filters, d.h., die Trennschärfe des Wortes
„Viagra“ untersucht werden. Aus Untersuchungen von Texten sei
bekannt, dass 20 % aller Texte SPAM’s sind. Es sei weiterhin bekannt,
dass in 90% aller Texte, die tatsächlich SPAM’s sind, das Wort
„Viagra“ vorkommt, aber leider auch in 1% aller Texte, die keine
SPAM’s sind.
a) Wie groß ist die Wahrscheinlichkeit dafür, dass ein Text, der als
SPAM eingestuft wurde auch wirklich ein SPAM ist?
b) Wie groß ist die Wahrscheinlichkeit dafür, dass ein nicht als SPAM
eingestufter Text ein SPAM ist?
1.26* Eine Firma bezieht jeweils 30 %, 20% bzw. 50% von benötigten Teilen
von 3 verschiedenen Zulieferern Z1, Z2 bzw. Z3.
Über die
Ausschussrate (Anteil der defekten Teile unter den gelieferten) sei
bekannt, dass sie bei Z1 1%, bei Z2 und Z3 2% bzw. 0,5 % beträgt.
a) Wieviel % Ausschuss (Ereignis A) erhält die Firma insgesamt?
b) Mit welcher Wahrscheinlichkeit stammt ein defektes Teil von Z1?
1.5
Übungsaufgaben 1. Ein zufälliger Versuch bestehe im Werfen zweier Würfel. Man berechne
die Wahrscheinlichkeit dafür, daß die Summe 6, 7 oder 8 ist!
(Hinweis: Klassische Wahrscheinlichkeitsdefinition benutzen!)
2. Jemand bewirbt sich bei zwei Firmen A und B. Die Wahrscheinlichkeit der
Annahme seiner Bewerbung schätzt er bei Firma A mit 0,5 und bei Firma B
mit 0,6 ein. Weiterhin rechnet er mit einer Wahrscheinlichkeit von 0,3 von
beiden Firmen angenommen zu werden.
Wahrscheinlichkeitsrechnung
- 35 -
Wie groß ist die Wahrscheinlichkeit dafür, von wenigstens einer der
beiden Firmen eine Zusage zu erhalten?
(Hinweis: Axiom 3 benutzen!)
3. (Aus einer USA-Studie über den Zusammenhang zwischen Hautfarbe und
Beschäftigungsstatus)
Es werden folgende Symbole benutzt: F – Farbig, W–Weiß, B – Beschäftigt,
U – Arbeitslos.
Bei einer Untersuchung der Bevölkerung auf Hautfarbe und
Beschäftigungsstatus ergab sich folgende Häufigkeitstabelle:
U
B
W
6.604.000
F
1.418.000
Total
8.022.000
83.549.000
8.838.000
92.387.000
a) Vervollständigen Sie die Tabelle!
b) Berechnen Sie für ein zufälliges Individuum die Wahrscheinlichkeiten:
P(U), P(F), P(U/F)!
c) Sind dei Ereignisse "die Hautfarbe ist weiß" und " Beschäftigt"
stochastisch unabhängig voneinander?
4. G sei ein Gerät mit 2n parallel geschalteten Bauelementen gleichen Typs.
Dabei sind jeweils 2 Bauelemente in Reihe geschaltet.
Das Gerät fällt aus, falls die Reihe ausfallen.
Eine Reihe fällt aus, falls eines der beiden Bauelemente ausfällt.
Die Bauelemente Ei j fallen unabhängig voneinander mit der gleichen
Wahrscheinlichkeit
P(Ei j = not OK) = 0,1 für alle i = 1,...,n; j = 1, 2, aus.
Wieviele Reihen muß das Gerät haben, damit die
Ausfallwahrscheinlichkeit p des Gerätes 0,1 % nicht überschreitet, d.h.
damit gilt
p = P(G = not OK) ≤ 0,001 ?
G
E11
E12
E21
E22
En1
En2
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
5. Sei A eine technische Fehlerart, die bei 5 % aller Geräte eines bestimmten
Typs vorkommt. Sei B ein Merkmal, anhand dessen die Fehlerart A
diagnostiziert werden kann. D.h., bei der technischen Fehlerdiagnose wird
ein Gerät als defekt (mit dem Fehler A behaftet) eingestuft, falls das
Merkmal B beobachtet wird. Nun sei folgendes bekannt: Bei 10 % aller
defekten Geräte tritt B nicht auf. Bei 95% aller nichtdefekten Geräte tritt B
leider ebenfalls auf.
a) Wie viel % aller als defekt eingestuften Geräte sind nichtdefekt?
b) Wie viel % aller als nichtdefekt eingestuften Geräte sind defekt?
6. 3 LKW-Fahrer – Anton, Paul und Otto - fahren täglich Produkte aus.
Anton übernimmt dabei stets 40 % der Fahrten, Paul, 15 % und Otto 45%
Die Wahrscheinlichkeit dafür, dass Anton mit Alkohol am Steuer fährt,
beträgt 0,01, Paul fährt in 0,5% seiner Fahrten nicht nüchtern und bei Otto
sind es 2 % aller seiner Fahrten. Nun erfährt der Dispacher eines Tages
von der Verkehrspolizei, dass einer seiner Fahrer seine Fahrt wegen
Alkohol am Steuer beenden musste. Welcher Fahrer ist es am
wahrscheinlichsten gewesen?
Wahrscheinlichkeitsrechnung
2
2.1
- 37 -
Zufallsgrößen und ihre Verteilungen
Zufallsgrößen (Wiederholung)
Def.: Zufallsgrößen sind zufällige Merkmale, die in einem zufälligen Versuch
beobachtet werden und deren Merkmalsausprägungen (Realisierungen)
durch Zahlenwerte (direkt oder durch Skalierung) charakterisiert
werden.
X – Zufallsgröße
x – Realisierung, Beobachtung
X – Wertebereich von X,
Uns
Zufallsgröße
X – Blutgruppe
X – Anzahl der
Wappen bei 2×
Münzwurf
X = {a 1 ,..., a k ,...}
→ diskret
∃ [ a , b] ⊆ X
→ X stetig
Merkmalswerte
A, B, AB, ∅
ω = (M1 , M 2 )
Realisierung
0, 1, 2, 3
0, 1, 2
i
n
M i ∈{K, Z}
t
e
r
(K, K)
2
e
(K, Z)
s
1
s
(Z, K)
i
(Z, Z)
0
e
T – zufällige
[0, )
r
Lebensdauer
e
n folgende Wahrscheinlichkeiten:
1. P(X = x) – Wahrscheinlichkeit dafür, dass X den Wert x annimmt
2. P(a ≤ X ≤ b) – Wahrscheinlichkeit dafür, dass X ∈ [a, b]
3. P(X ≥ a), P(X ≤ a)
Typ
diskret (nominal)
diskret (ordinal)
(festgelegte
Bedeutung der
Zahlen)
stetig (proportional)
B. Grabowski, HTW des Saarlandes, 1/2012
2.2
Stochastik
Wahrscheinlichkeitsverteilung diskreter Zufallsgrößen
X = {a 1 ,..., a k ,...} .
Sei X – diskret,
Wir benötigen nur pi = P(X = ai) für i = 1,..., k ,...
Mit Hilfe der pi können Sie alle Wahrscheinlichkeiten 1.–3. berechnen:
P(5 ≤ X ≤ 8) =
P(X = 5 ∨ X = 6 ∨ X = 7 ∨ X = 8) = P(X = 5) + P(X = 6) + P(X = 7) + P(X = 8)
∑ P( X = a )
⇒ P(a ≤ X ≤ b) =
und
i
∑
P(X ≥ a) =
ai :a ≤ ai ≤b
P(X = ai)
a i :a i ≥ a
Def.: Die Gesamtheit ((pi = P(X = ai), ai ∈ X )) heißt
Wahrscheinlichkeitsverteilung von X.
Darstellung:
grafisch:
Pi
Pi
p3
.....
p1
X
a1
a2
ak
p2
X
tabellarisch:
a1
p1
X
pi
a2
p2
ak
pk
analytisch als Funktion: p i = f (i, a i )
Beispiel : Zufallsexperiment:
Werfen
X
–
“Anzahl
K”,
Ω=
zweier
X
Münzen
= {0,1,2,3} ,
{( K, K), (K, Z), ( Z, K), ( Z, Z)}
X
X={
2
1
0
}
Wahrscheinlichkeitsrechnung
- 39 -
Gesucht:
Wahrscheinlichkeitsverteilung
X
pi
0
p0
1
p1
X
2
p2
p0
=
P(X
=
0)
=
P((Z,
p1
=
P(X
=
1)
=
P
X
pi
von
Z))
( {(K, Z), (Z, K)} )
0
1
2
1
4
1
2
1
4
1
4
2 1
= =
4 2
=
Verallgemeinerung: (Berechnung der pi)
Man betrachte die Zufallsgröße X als Abbildung von Ω in
X:
X:Ω →
X⊆ℜ
Äquivalenz von Ereignissen:
{
}
' X = x' ⇔ A = ω ∈ Ω | X(ω ) = x ⊆ Ω
⇒ P( X = x ) = P( A ) =
Beispiel:
A
Ω
Versuch: Würfeln mit 2 Würfeln
X – Summe der Augenzahlen
ges.: Wahrscheinlichkeitsverteilung von X:
X
pi
2
p2
3
p3
4
p4
pi = P( X = i ) , i = 2,...,12
...
...
12
p12
B. Grabowski, HTW des Saarlandes, 1/2012
i
ω
2
Stochastik
X( ω ) = i
A
pi
Wahrscheinlichkeitsverteilung von X
(11,)
1
3
(1,2) ( 2,1)
2
4
(1,2) ( 2,2) ( 3,1)
3
5
(1,4) ( 3,2) ( 2,3) ( 4,1)
4
6
(1,5) ( 2,4) ( 3,3) ( 4,2) (5,1)
5
7
(1,6) ( 2,5) ( 3,4) ( 4,3) (5,2) ( 6,1)
6
8
( 2,6) ( 3,5) ( 4,4) (5,3) ( 6,2)
5
9
( 3,6) ( 4,5) (5,4) ( 6,3)
4
10
( 4,6) (5,5) ( 6,4)
3
11
(5,6) ( 6,5)
2
12
( 6,6)
1
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
mit
allgemein:
2.3
2.3.1
 (i − 1)


p i =  36
 (13 − i)
 36
i = 2,3,...,7
i = 8,9,...,12
Parameter diskreter Verteilungen
Erwartungswert, Varianz und Verteilungsfunktion
ω = ( w1 , w2 )
w i ∈ {1,...,6}
X( ω ) = w 1 + w 2
Ω = 36
Wahrscheinlichkeitsrechnung
- 41 -
X = {a 1 , a 2 ,..., a k }
Sei X – diskret,
deskriptive Statistik
Wahrscheinlichkeitsrechnung
ai
a1
a2
hn(ai)
hn(a1)
hn(a2)
ak
hn(ak)
n
→
→∞
ai
a1
pi = P(X = ai)
p1
ak
pk
hn (ai ) → pi
n →∞
rel. Häufigkeitsver-
Wahrscheinlichkeitsver-
teilung
teilung
Bemerkung: Die Konvergenz von h n (a i ) n
→ p i = P( X = a i ) beruht auf
→∞
dem Hauptsatz der Statistik.
Satz: (Hauptsatz der Statistik)
Es gilt:


P  lim sup Fn ( x) − F( x) = 0 = 1
 n→∞ x∈ℵ

Aus der Konvergenz der relativen Häufigkeit gegen die Wahrscheinlichkeit
ergibt sich:
arithm. Mittel:
1 k
x=
xi
n i =1
∑
k
k
=
∑ a h (a )
i
n
n
→
→∞
EX =
∑a p
i
i
=
Erwartungswert von X
i =1
i
i =1
Streuung:
s2 =
1 n
2
∑ ( xi − x )
n − 1 i =1
=
1 k
(ai − x )2 ⋅ H n (ai )
∑
n − 1 i =1
=
n
n −1
k
∑
i =1
2
(a i − x ) ⋅ h n (a i )
k
n→∞
→ Var ( X) =
∑ (a
i =1
= Varianz von X
2
i
− EX) ⋅ p i
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Empirische Verteilungsfunktion:
Fn ( x ) =
∑ h (a )
n
n→∞
→ F( x) =
i
i:ai ≤ x
∑p
i
= P( X ≤ x )
i:a i ≤ x
Verteilungsfunktion von X: Anteil aller Beobachtungen
x j , j = 1,..., n mit x j ≤ x
Def.: Sei X diskret, X = {a 1 , a 2 ,..., a k ,...} und sei p i = P( X = a i ), i = 1,2,...
Dann heißt:
∞
EX := ∑ a i p i - Erwartungswert von X
i =1
∞
Var (X) := ∑ (a i − EX ) ⋅ p i - Varianz von X
2
i =1
F(x ) = P( X ≤ x ) - Verteilungsfunktion von X
Beispiel:
Würfeln mit 2 Würfeln, Spiel: 1 DM Einsatz
Gewinn: 10 DM – Summe der Augenzahlen = 12
5 DM – Summe der Augenzahlen = 6
1 DM – Summe der Augenzahlen = 2
Würden Sie dieses Spiel spielen?
⇒ Berechnung des erwarteten Gewinns pro Spiel:
Sei X – Summe der Augenzahlen und Y Gewinn bei Augenzahl X,
p i = P( X = i )
Gewinn X
pi
⇒
2
1
36
1
3
4
5
6
5
36
5
7
8
9
10
11
0
0
0
0
0
0
0
0
Gewinn Y
5
1
29
1
P(Y = 1) =
, P (Y = 5) =
, P (Y = 10 ) =
, P (Y = 0 ) =
.
36
36
36
36
12
1
36
10
Wahrscheinlichkeitsrechnung
EY = 1 ⋅
- 43 -
1
5
1
29
+ 5⋅
+ 10 ⋅
+ 0⋅
= 1 DM
36
36
36
36
Erwarteter realer Gewinn: EY – Einsatz = 0 DM
2.3.2
Quantile diskreter Verteilungen
Def.: Sei X diskret, X = {a 1 ,..., a k ,...} und sei p i = P( X = a i ),
die
i = 1,2,..., k ,...
Wahrscheinlichkeitsverteilung
von
X
und
sei
F ( x) = P( X ≤ x ) =
pi die Verteilungsfunktion von X. Dann heißt xα
∑
ai ≤ x
mit F( x α ) ≤ α < F( x α + ε )
∀ ε > 0,
α-Quantil der Verteilung X.
2.4
Stetige Zufallsgrößen und ihre Verteilungen,
Verteilungsfunktion und Verteilungsdichte
X – stetig, d.h. ∃ [a , b] ⊆ X .
Die Wahrscheinlichkeiten stetiger Zufallsgrößen werden mit Hilfe der
Verteilungsfunktion
F(x) berechnet.
Die Gestalt der Verteilungsfunktion für stetige Zufallsgrößen erhalten wir,
indem wir den Übergang eines endlichen Wertebereich X = {a 1 ,..., a k } zu
einem kontinuierlichen Bereich betrachten (siehe folgende Abbildungen!).
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
X ∈ X = {a 1 ,..., a k }
Diskrete Verteilungsfunktion:
F(x)
[
1
[
P2
[
P1
{
{
)
a2
a3
)
)
a1
X
ak
F(x)
1
X
a1
k groß
ak
Übegang zur stetigen Verteilungsfunktion:
F(x)
1
Stetiges F(x)
X
X stetig
kontinuierliches X
Def.: Wir bezeichnen jede Funktion F(x) mit folgenden Eigenschaften als
Verteilungsfunktion F ( x) = P ( X ≤ x ) von X:
1. ∀ x ∈ X :
2. x 1 ≤ x 2
0 ≤ F ( x) ≤ 1
→
F( x 1 ) ≤ F( x 2 )
3. lim F ( x) = 0, lim F ( x) = 1
x → −∞
x → +∞
4. F(x) ist überall stetig
(F: monoton wachsend)
Wahrscheinlichkeitsrechnung
Folgerung: 1.–4.
- 45 -
⇒ F(x) ist bis auf höchstens endlich viele Stellen
differenzierbar, und die Ableitungen f ( x) = F ′( x) sind
bis auf endlich viele Stellen auch stetig.
Def.: Die Ableitung F ′( x) = f ( x), x ∈ X heißt Wahrscheinlichkeitsdichte
(Dichtefunktion) von X.
x
Es gilt:
F ( x) =
∫ f (t )dt
−∞
Die Dichtefunktion hat folgende Eigenschaften:
1. f ( x) ≥ 0
∞
2.
∫ f ( x)dx = 1
−∞
Überlegen Sie sich anhand einer Grafik, wie die Wahrscheinlichkeitsverteilung einer diskreten Zufallsgröße bei Übergang zu einem
kontinuierlichen Wertebereich (zu einer stetigen Zufallsgröße) aussieht !
Wie kann man Wahrscheinlichkeiten, z.B. P(a<X<b), im stetigen
Fall berechnen?
Berechnung von Wahrscheinlichkeiten:
b
1. P ( X ≤ b ) = F (b) =
∫ f ( x)dx
−∞
∞
2. P ( X ≥ a ) = 1 − P ( X ≤ a ) = 1 − F (a ) =
∫ f ( x)dx
a
3. P (a ≤ X ≤ b ) = F (b) − F (a )
Graphisch:
f (x)
F (b) = P (X ≤ b )
X
b
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
f (x)
P (X ≥ a)
X
a
f(x)
P(a ≤ X ≤ b)
X
a
b
Zu 3.) F (b) = P ( X ≤ b ) = P ( X < a ∨ X ∈ [a, b])
= P( X < a ) + P( a ≤ X ≤ b )
⇒ P( a ≤ X ≤ b ) = P( X ≤ b ) − P ( X < a )
= P( X ≤ b ) − P ( X ≤ a )
Es gilt weiterhin:
1
4. P( X = a ) = = 0
∞
5. P( X ≤ a ) = P( X < a ∨ X = a )
= P( X < a ) + P( X = a )
= P( X < a )
⇒ Zur Berechnung von Wahrscheinlichkeiten stetiger Zufallsgrößen
benötigen wir “nur” die Kenntnis von F(x) bzw. f(x).
Beispiel:
Sei X die Verspätung der U-Bahn an einer bestimmten Haltestelle.
X besitze folgende Dichtefunktion:
0,5 − 0,125 x für 0 ≤ x ≤ 4
f ( x) = 
0 für x ∉ [0,4]
Wahrscheinlichkeitsrechnung
- 47 -
f(x)
0,5
X
2
1
3
5
4
Gesucht.: Wahrscheinlichkeit dafür, dass die Verspätung
zwischen 1 und 2 Minuten liegt!
2
Lös.: P ( X ≤ 2 ) =
∫ f ( x)dx
1
2
=
∫ (0,5 − 0,125x)dx
1
2
1
5
1

=  x − x2  =
= 0,312
16  1 16
2
2.5
2.5.1
Parameter stetiger Verteilungen
Erwartungswert und Varianz
Übergang zu kontinuierlichem Wertebereich:
X – diskret
X - stetig
∞
k
EX = ∑ a i pi
→
i =1
k
Var ( X) =
∑ (a
i =1
∫ x ⋅ f ( x)dx = EX
−∞
∞
2
i
− EX) p i
→
∫ (x − EX )
−∞
2
⋅ f ( x)dx =Var(X)
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Def.: Sei X eine stetige Zufallsgröße.
∞
Dann heißen EX =
∫ x ⋅ f ( x)dx Erwartungswert von X und
−∞
∞
Var ( X ) =
∫ (x − EX )
2
⋅ f ( x)dx Varianz von X.
−∞
Beispiel:
U-Bahn
ges.: Erwartete Verspätung der U-Bahn
∞
EX =
4
1 1 
∫−∞x ⋅ f ( x)dx = ∫0 x 2 − 8 x dx
4
1 3
64 4
1
=  x2 −
x  = 4−
= ≈ 1 min 20 sek
24  0
24 3
4
2.5.2
Quantile
Def.: Sei X eine stetige Zufallsgröße mit der Verteilungsfunktion F(x) und
Verteilungsdichte f(x).
xα
Der Wert xα ∈ X, für den gilt: F(xα) = α bzw.
∫ f ( x)dx = P( X ≤ xα ) = α
−∞
heißt (unteres) α–Quantil.
X
xα
Beispiel :
Sei X die zufällige Dauer von Telefongesprächen und sei die
1
Dichte von X durch f ( x) =
1 −5 x
e
gegeben.
5
Wahrscheinlichkeitsrechnung
- 49 -
a) Wie groß ist die mittlere Gesprächsdauer?
b) Welche Zeit überschreiten 80 % der Gespräche nicht?
c) Wie groß ist die Wahrscheinlichkeit dafür, dass die zufällige
Gesprächsdauer > 10 min ist? (Wie groß ist der Anteil aller
Gespräche, die länger als 10 min. dauern?)
Zu a) Mit α = 1/5 gilt:
EX =
∞
∞
−∞
0
−αx
∫ x ⋅ f ( x)dx = ∫ x ⋅ αe dx
∞
= α ⋅ ∫ x ⋅ e −αx dx
0
→ partielle Integration
 − x −αx ∞ 1 ∞ −αx 
=  [
⋅ e ]0 + ∫ e dx  ⋅ α
α
α0


∞
1
 − x −αx

=
⋅ e − 2 e −αx dx  ⋅ α
α
α
0
1
1
= + 2 ⋅α =
α
α
1
1 − x
1
1
Ergebnis: f ( x) = ⋅ e 5 EX = =
= 5 min.
α  1
5
 
 5
Zu b)
0,8
80 %
t
⇒ Wir müssen das 80 % Quantil t0,8 berechnen!
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
t0,8
t 0,8 : ∫ f ( x)dx = 0,8
diese Gleichung ist nach
0
t0,8 aufzulösen!
t0,8
↔
∫ 5⋅e
1
− x
5
dx = 0,8
0
t0 , 8
 −1 x 
↔ − e 5  = 0,8

0
↔ 1− e
1
− t0 , 8
5
= 0,8
↔ 1 − 0,8 = e
−
t0 , 8
5
↔ ln(1 − 0,8) = −
|ln
t 0 ,8
5
⇒ t 0,8 = −5 ⋅ ln(0,2) = −5 ⋅ ( − 1,6) = 8 min.
10
Zu c)
1
1 − x
P( X > 10 ) = 1 − ∫ ⋅ e 5 dx
5
0
10
 − 15 x 
 − 15 x

= 1 − − e  = 1 − − e − (− 1)

0


= 1 + e −2 − 1 = e −2 = 0,135 = 13,5%
2.6 Eigenschaften von Erwartungswerten und Varianz von
Zufallsgrößen
X – diskret oder stetig (beliebig)
Satz: 1.) E(aX) = aEX
2.) E(a ) = a
3.) E( X + Y) = EX + EY
4.) E( X ⋅ Y) = ( EX) ⋅ ( EY)
falls X und Y stochastisch unabhängig
Wahrscheinlichkeitsrechnung
- 51 -
X = {a 1 ,..., a k } ,Y = {b 1 ,..., b k }
Beweis.: Zu 4.) Seien X und Y diskret,
{
k
∈ Z = a i ⋅ b j | ij==11,...,
,...,l
Z = X⋅Y
(
}
) (
→ P Z = ai ⋅ b j = P X = ai ∧ Y = b j
=
stoch. unabh.
⇒ EZ = E( X ⋅ Y) =
)
P( X = a i ) ⋅ P ( Y = b i )
∑a
i
(
⋅ b j ⋅ P Z = ai ⋅ b j
)
i, j
k
=
l
∑∑a
i
(
⋅ b j ⋅ P( X = a i ) ⋅ P Y = b j
)
i =1 j=1
k
=
l
∑ a ⋅ P( X = a ) ⋅ ∑ b ⋅ P( Y = b )
i
i
j
i =1
=
Satz: Es gilt:
[ ]
j
j=1
⋅
EX
1.) Var ( X ) = E X 2 − E [X ] = E ( X − EX )
2
EY
2
2.) Var (a ) = 0
3.) Var (aX + b ) = a 2 ⋅ Var ( X )
4.) Var (aX + bY ) = a 2 ⋅ Var ( X ) + b 2 ⋅ Var (Y ) , falls X und Y stochastisch
unabhängig sind
Beweis: Zu 3.) X stetig
∞
Var (aX + b ) =
∫ (ax + b − E (aX + b ))
2
⋅ f ( x)dx
−∞
∞
=
∫ (ax − a ⋅ EX )
2
⋅ f ( x)dx
−∞
∞
=
∫ a (x − EX )
2
2
⋅ f ( x)dx
−∞
= a 2 ⋅ Var ( X )
Beispiel : Seien X und Y Zufallsgrößen mit EX = 3 und Var (X) = 1 bzw. EY
= 10 und Var (Y) = 2.
Gesucht: Lineare Transformation Y ′ = aY + b von Y so, daß
EY ′ = EX und Var Y ′ = Var X .
Lösung:
EY ′ = EX ↔ E(aY + b) = 3
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
↔ a ⋅ EY + b = 3
↔ a ⋅ 10 + b = 3
Var (Y ′) = Var ( X) ↔ Var (aY + b) = 1
↔ a 2 ⋅ Var (Y) = 1
⇒a=±
1
= ±0,707
2
↔ a2 ⋅ 2 = 1
b1 = 3 − 7,07 = −4,07
b2 = 3 + 7,07 = 10,07
Ergebnis:
Y ′ = 0,707 X − 4,07
Beispiel:
oder
Y ′ = −0,707 X + 10,07
Seien µ: = EX, σ 2 = Var ( X)
1
1
 X − µ 1
E
 = ⋅ E( X − µ ) = ⋅ ( EX − Eµ ) = ⋅ ( EX − µ ) = 0
 σ  σ
σ
σ
1
1
 X − µ
Var 
 = 2 ⋅ Var ( X − µ ) = 2 ⋅ Var ( X) = 1
 σ  σ
σ
Def.: Eine Zufallsgröße X mit EX = 0 und Var (X)=1 heißt Standardisierte
Zufallsgröße
X − EX
X→
– Standardisierung einer
Var ( X)
Zufallsgröße
Def.:
Var ( X)
– Standardabweichung von X.
Wahrscheinlichkeitsrechnung
2.7
- 53 -
Die Tschebyscheff-Ungleichung
Satz: Es gilt:
((
) )
((
) )
a ) P X − EX > ε ≤
Var ( X)
ε
b) P X − EX ≤ ε ≥ 1 −
2
Var ( X)
ε2



∀ ε > 0


Wir können also Wahrscheinlichkeiten ohne Kenntnis der Verteilung
abschätzen, nur durch Verwendung von EX, Var(X).
Beispiel:
Produktion von Schrauben (∅ = 5mm – Norm! =: nd)
X – zufälliger Schraubendurchmesser
Es gilt:
EX = nd
und
Var X = 0,0025 mm2
Ausschuss: Jede Schraube, die um mehr als 0,12 mm vom nd
abweicht.
Ges.: Ausschussrate der Produktion
(
Lös.: P X − nd > 012 mm) ≤
Satz a)
Var ( X)
(0,12)
2
mm
2
=
0,0025
(0,12) 2
⇒ Ausschussrate überschreitet 17,3 % nicht!
= 0,173 = 17,3%
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
2.8 Übungsaufgaben 1. In einer Sendung von 8 Stück befinden sich 2 fehlerhafte Stücke. Es werden
zufällig n = 3 Stück nacheinander ohne Zurücklegen entnommen.
X sei die zufällige Anzahl der fehlerhaften Stücke unter diesen 3
entnommenen.
a) Berechnen Sie die Wahrscheinlichkeitsverteilung von X und stellen Sie
diese grafisch dar!
b) Berechnen Sie EX und Var(X).
für x < 1
0

2. Sei F ( x) =  x − 1 für1 ≤ x < 2
1
für x ≥ 2

a) Zeigen Sie, dass F(x) )eine Verteilungsfunktion einer Zufallsgröße X ist!
b) Stellen Sie die Verteilungsfunktion und die Dichtefunktion grafisch dar!
c) Bestimmen Sie die Dichtefunktion, den Erwartungswert und den Median!
3
d) Berechnen Sie P(0 < X < 1,5) und P X >  !

4
3. Bei der Herstellung von Wellen sind alle Wellen Ausschuss, die 1mm oder
mehr vom Sollmaß von 100mm Länge abweichen. Die zufällig schwankende
Länge hat den Erwartungswert 100mm und die Standardabweichung
Var ( X) = 0,1mm . Wie groß ist der Ausschussanteil höchstens?
4. Sei X eine Zufallsgröße mit EX = 0 und Var(X) = 4.
Wie muss man X transformieren, damit für die transformierte Zufallsgröße Y
gilt: EY = 10, Var(Y) = 1?
5. Sei X eine stetige Zufallsgröße mit um x=c symmetrischer Verteilungsdichte
f(x), d.h. es gelte: f(c-x) = f(c+x) für alle x∈R. Zeigen Sie: EX=c !
Wahrscheinlichkeitsrechnung
3
3.1
- 55 -
Spezielle Wahrscheinlichkeitsverteilungen
Spezielle diskrete Verteilungen
Voraussetzung:
X diskret,
X ∈ X = {a 1 ,..., a k ,...}
p i = P( X = a i ),
i = 1,2,...
⇒ Wir können bei diskreten Zufallsgrößen die Wahrscheinlichkeitsverteilung
aus der Versuchsanordnung bestimmen!
3.1.1
X,
Zweipunktverteilung
X = {a 1 , a 2 }
a1 = p, a2 = (1 – p)
p 1 = P( X = a 1 ) = p
p 2 = P( X = a 2 ) = 1 − p
Def: Eine Zufallsgröße X, deren Wertebereich nur zwei Werte a1, a2 umfasst,
heißt
zweipunktverteilt.
a
Mißerfolg
(1 − p)
Schreibweise: X =  1
Erfo lg
p
a 2
Üblicherweise werden Zweipunktverteilungen wie folgt skaliert: a1 = 0, a2 = 1
Def: Eine zweipunktverteilte Zufallsgröße mit dem Wertebereich X = {0,1}
heißt
Bernoulli-Variable.
Für eine Bernoulli-Variable gilt offensichtlich:
EX = p,
Var ( X) = p ⋅ (1 − p)
Beispiel: Münzwurf!
B. Grabowski, HTW des Saarlandes, 1/2012
3.1.2
Stochastik
Diskrete Gleichverteilung
Def.: Eine diskrete Zufallsgröße X mit endlichem Wertebereich X
1
= {a 1 ,..., a k } heißt gleichverteilt auf X, falls gilt: P( X = a i ) =
für alle
k
(
)
i=1,2,...,k. Bezeichnung: X ~ G {a 1 ,..., a k }
[∼ bedeutet: „ist verteilt wie“ (X ∼ F bedeutet: X besitzt die
Verteilungsfunktion F)]
1
Beispiel: Würfeln, ai = i,
i = 1,...,6,
pi =
6
3.1.3
Binomialverteilung
Beispiel : Ich würfele 3 mal unabhängig voneinander. Sei X die zufällige
Anzahl der gewürfelten Sechsen.
Gesucht: Verteilung von X
Lösung:
Wir berechnen stellvertretend die Wahrscheinlichkeit P( X = 2) .
Sei wi - Würfelergebnis von Wurf i, i=1,2,3
(
= P(( w = 6, w = 6, w ≠ 6)) + P( w
P(( w ≠ 6, w = 6, w = 6))
P( X = 2) = P ( w 1 = 6, w 2 = 6, w 3 ≠ 6) ∨ ( w 1 = 6, w 2 ≠ 6, w 3 = 6) ∨ ( w 1 ≠ 6, w 2 = 6, w 3 = 6))
1
1
2
2
3
1
= 6, w 2 ≠ 6, w 3 = 6) +
3
= P( w 1 = 6) ⋅ P( w 2 = 6) ⋅ P( w 3 ≠ 6) + P( w 1 = 6) ⋅ P( w 2 ≠ 6) ⋅ P( w 3 = 6) +
P( w 1 ≠ 6) ⋅ P( w 2 = 6) ⋅ P( w 3 = 6)
= p ⋅ p ⋅ (1 − p) + p ⋅ (1 − p) ⋅ p + (1 − p) ⋅ p ⋅ p
= 32 ⋅ p 2 ⋅ (1 − p)
Verallgemeinerung:
 3
3− i
P( X = i) =   ⋅ p i ⋅ (1 − p)
 i
i = 0,1,2,3
Wahrscheinlichkeitsrechnung
- 57 -
Def.: Sei X eine Zufallsgröße (diskret) mit dem Wertebereich X = {0,1,..., n} .
Wenn die Wahrscheinlichkeitsverteilung von X die Gestalt
 n
n−i
p i = P( X = i) =   ⋅ p i ⋅ (1 − p)
∀ i = 0,..., n
 i
besitzt, nennt man X binomialverteilt mit den Parametern n und p.
Schreibweise: X ~ B( n, p)
Typisches Versuchsschema bei der Binomialverteilung: (Bernoulli'sches
Versuchsschema)
Ich wiederhole n mal unabhängig voneinander einen zweipunktverteilten
Bernoulli-Versuch mit der Erfolgswahrscheinlichkeit p:
1
Xi = 
0
p
Erfo lg
(1 − p)
Mißerfo lg
i= 1,...,n
n
⇒ X-Anzahl der Erfolge (der “1”) bei diesen n Wiederholungen → X =
∑X
i
i =1
Dann gilt: X ~ B( n, p)
Beispiel:
Ich würfele 3 mal, X – zufällige Anzahl der 6 en,
Zweipunktverteilter Versuch:
1

Würfeln einer 6
p=
1
6
Xi = 
5
0
Würfeln keiner 6 p =

6
1
,
n=3
6
1

→ X ~ B n = 3, p = 

6
→ p=
Beispiel : Eine Statistikklausur umfasse 10 Aufgaben mit je 4
Antwortalternativen, von denen nur eine richtig ist. Wie groß ist
die Wahrscheinlichkeit dafür, nur durch Raten wenigstens 4
Aufgaben zu lösen?
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Lös.:

1
Xi = 
0

Aufgabe ist richtig geraten
p=
1
4
3
(1 − p) = 4
falsch
X – Anzahl richtig geratener Aufgaben
→
1

X ~ B n = 10, p = 

4
4
P( X ≥ 4) = 1 − p( X ≤ 4) = 1 −
∑ P( X = i )
i =0
0
10
 10
P( X = 0) =  
 0
 1   3
⋅  ⋅  
 4  4
 10
P( X = 1) =  
 1
10 ⋅ 39
 1  3
⋅   ⋅   = 10
 4  4
4
1
=
310
4 10
9
⋮
⋮
Berechnung von EX und Var(X) der Binomialverteilung:
Satz : Sei X~B(n,p). Dann gilt:
EX = np und Var(X) = np(1-p)
Beweis:
n
Es gilt: X =
∑X
i =1
i
(1 − p) ,
0
, wobei X i ~ 
1
p
i = 1,...,n.
Unter Verwendung der Eigenschaften von Erwartungswert und Varianz
erhalten wir:
 n

⇒ EX = E X i  =
 i =1 
∑
n
∑
n
EX i =
i =1
i =1
 n

⇒ Var ( X) = Var  X i  =
 i =1 
∑
n
∑ Var( X )
i
i =1
n
=
∑ p ⋅ (1 − p) = n ⋅ p ⋅ (1 − p)
i =1
qed.
∑p = n⋅p
Wahrscheinlichkeitsrechnung
Beispiel:
- 59 -
20 Personen werden gleichwahrscheinlich in 2 Gruppen G1, G2
eingeordnet. Wie groß ist die Wahrscheinlichkeit dafür, daß am
Ende in beiden Gruppen gleichviele Personen sind?
X – Anzahl der Personen in G1
ges.: P( X = 10)
1

X ~ B n = 20, p = 

2
Zweipunktverteilter Versuch:

1 → G 1 ( K)
Xi = 
0 → G 2 ( Z)

(Münzwurf)
Beispiel:
 20  1 
P( X = 10) =   ⋅  
 10  2 
10
 20  1 
=   ⋅ 
 10  2 
20
 1
⋅ 
 2
p=
1
2
i = 1,...,20 = n
1
(1 − p) = 2
20 −10
 n
n!
 =
 k k !⋅ ( n − k )!
Die Wahrscheinlichkeit bei einer U-Bahn-Fahrt kontrolliert zu
werden beträgt 10 %. Wie groß ist die Wahrscheinlichkeit dafür,
innerhalb von 20 Fahrten
a) höchstens 3x
P( X ≤ 3) = P( X = 0 ∨ X = 1 ∨ X = 2 ∨ X = 3) = p 0 + p 1 + p 2 + p 3
Ax .3
b) mehr als 3x
P( X > 3) = 1 − P( X ≤ 3)
c) weniger als 3x
P( X < 3) = p 0 + p 1 + p 2
d) genau 3x
P( X = 3) = p 3
e) mindestens 3x
P( X ≥ 3) = 1 − P( X < 3)
f) mehr als 1x und weniger als 4x
P( X > 1 ∧ X < 4 ) = p 2 + p 3
kontrolliert zu werden?
X – Anzahl der Kontrollen innerhalb von 20 Fahrten
X = {0,1,...,20}
Xi – Kontrolle bei Fahrt
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
1
i=
0
p = 0,1
(1 − p ) = 0,9
⇒ X ~ B(20; 0,1)
 20
i
20 − i
p i = P = ( X = i) =   ⋅ (0,1) ⋅ (0,9)
 i
Rechnen Sie zum o.g. Beispiel eine der Teilaufgaben a)-f) aus!
3.1.4
Die Poissonverteilung
Sei X ~ B( n, p)
Wenn n sehr groß, p sehr klein, dann führt die Berechnung von
 n
n−i
p i =   ⋅ p i ⋅ (1 − p) manchmal zu “numerischen” Problemen. Man kann pi
 i
durch einen anderen Ausdruck approximieren:
Satz: Es gilt:
i
lim
(λ ) ⋅ e − λ
 n i
n−i
  ⋅ p 0 ⋅ (1 − p) =
i!
 i
p→ 0
n →∞
n⋅p = λ = konst .
(ohne Beweis!)
Für n ≥ 20, p ≤ 0,01 ist die Approximation:
 n i
λi − λ
n−i
  ⋅ p (1 − p) ≈ ⋅ e
i!
 i
Beispiel:
mit λ = n ⋅ p ausreichend gut.
1000 Sandkörner, von einer Sorte keimen in der Regel 1 % nicht.
Wie groß ist die Wahrscheinlichkeit dafür, dass von diesen 1000
Körnern mehr als 4 nicht keimen?
Lösung:
Sei X – Anzahl der nicht keimenden Samenkörner. Dann gilt:
X ~ B( n = 1000, p = 0,01)
 1000
i
1000 − i
⇒ pi = 
 ⋅ (0,01) (0,09)
 i 
≈
10 i −10
⋅e
i!
i = 0,...,4
Wahrscheinlichkeitsrechnung
- 61 -
Gesucht : P(X>4).
Es gilt: P( X > 4) = 1 − P( X ≤ 4) = 1 − p 0 − p 1 − p 2 − p 3 − p 4
λ2 − λ λ3 − λ λ4 − λ
⋅e −
⋅e −
⋅e
2!
3!
4!
= 1 − e − λ (1 − λ − λ2 / 2 − λ3 / 3!− λ4 / 4 !)
wobei λ = n ⋅ p = 10 .
= 1 − e −λ − λ ⋅ e −λ −
Rechnen Sie die gesuchte Wahrscheinlichkeit zum o.g. Beispiel aus!
Rekursionsformel zur Berechnung der Wahrscheinlichkeiten
λi
p i = ⋅ e −λ
i!
p 0 = e −λ ,
pi =
λ
i
⋅ pi −1 , i =1,2,....
→ p 0 = e −λ
λ
λ
p1 = ⋅ e −λ = ⋅ p 0
1
1
2
λ
λ
p2 =
⋅ e −λ = ⋅ p1
2!
2
Bemerkung: Bei einer B(n, p) - verteilten Zufallsgröße X gilt:
EX = n ⋅ p = λ
Var ( X) = n ⋅ p ⋅ (1 − p)
Es gibt oft Situationen, in denen n und p unbekannt sind, aber
n ⋅ p = λ bekannt ist.
In diesen Situationen könne wir die Wahrscheinlichkeiten
 n
n−i
p i = P( X = i) =   ⋅ p i ⋅ (1 − p) nicht berechnen, aber die diese
i
 
approximierende Größe
λi − λ
⋅e
!
i!
Def.: X sei eine Zufallsgröße mit dem Wertebereich X = {0,1,2,...} = N 0 . Dann
heißt X poisson-verteilt mit dem Parameter λ, falls gilt:
P( X = i )
i
λ)
(
=
⋅ e −λ
i!
für i=0,1,2,....
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Bezeichnung : X ~ P(λ )
Satz: Sei X ~ P(λ ) .
Dann gilt: EX = λ,
Var(X) = λ.
Beweis: (Taylorreihe der e-Funktion)
∞
EX =
∑
∞
i ⋅ pi =
i=0
∑
i=0
i⋅
∞
 ∞ λi 
λi − λ
λ( i −1)
⋅ e = e −λ ⋅ λ ⋅
= e −λ ⋅ λ ⋅ 
 = e −λ ⋅ λ ⋅ e λ = λ
i!
i
−
i
1
!
!
)
 i=0 
i=0 (
∑
∑
Zur Var(X):
X ~ B( n, p)
n →∞
p→ 0
n⋅p = λ
→
Var ( X) = n ⋅ p ⋅ (1 − p)
n →∞
p→ 0
n⋅p = λ
X ~ P( λ )
→
Var(X) = λ
ged.
Beispiel : Die mittlere Anzahl eintreffender Kunden bei Aldi sei 5 pro 10
Minuten (½ Kunde pro Minute). Wie groß ist die
Wahrscheinlichkeit dafür, dass innerhalb von 10 Minuten genau 1
Kunde eintrifft?
Lösung:
Sei X zufällige Anzahl eintreffender Kunden pro Minute

→ X ~ P λ =

1

2
1
 1 −
→ P( X = 1) =   ⋅ e 2 = 0,303 = 30,3 %
 2
⇒ in 30,3 % aller Minutenintervallen kommt genau ein Kunde an!
Typische Anwendungen der Poissonverteilung:
− X – Anzahl eintreffender Signale in einer Empfängerstation pro Zeiteinheit
− X – Anzahl eintreffender Kunden in einer Verkaufseinrichtung pro
Zeiteinheit
− X – Anzahl eintreffender Autos an einer Kreuzung pro Zeiteinheit
Wahrscheinlichkeitsrechnung
3.2
- 63 -
Spezielle stetige Verteilungen
Sei X stetig, X ⊆ ℜ . Die Wahrscheinlichkeitsverteilung wird hier durch die
Dichtefunktion f(x) bzw. Verteilungsfunktion F(x) beschrieben.
b
P(a ≤ X ≤ b ) = ∫ f ( x)dx = F (b) − F (a)
a
f(x)
P( a ≤ X ≤ b )
X
a
b
gesucht: f
Man unterscheidet verschiedene Typen von f. Diese entsprechen typischen
beobachteten Verläufen der Histogramme.
Beispiel
a) X – Lebensdauer von Kühlschränken,
Beobachtungen: x1,...,xn
⇒ Klasseneinteilung K1,...,Kk, grafische Darstellung der relativen
Häufigkeitsdichte
h n (K i )
= h *n ( K i )
∆K i
Hn(Ki)
P(X ∈ K1)
n→∞
K1
Kk
α ⋅ e −αx , x ≥ 0
f ( x) = 
0 , x < 0
X
X
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Weisen Sie nach, dass die Fläche unter der Funktion
 βe −αx , x ≥ 0
f ( x) = 
0 , x < 0
α > 0, β > 0
nur dann gleich 1 ist, wenn gilt: α = β !
b) X – zufällige Körpergröße von Personen
h *n ( K i )
x1,...,xn
n→∞
∆Ki → 0
X
X
µ–σ
1
→ f ( x) =
2π ⋅ σ
⋅e
−
µ
µ+σ
( x − µ )2
σ2
,x ∈ ℜ
Bemerkung:
Die Gestalt der Dichtefunktion ist zunächst vom Typ:
f ( x) = c ⋅ e
−
( x − µ )2
σ2
,x ∈ ℜ
1
Man kann zeigen, dass c=
unter der
Funktion f(x) gleich
Verteilungsdichte ist!
2π ⋅ σ
1
ist;
sein muss, damit die Fläche
d.h.,
damit
f(x)
eine
c) X – zufällige Zeit zwischen Eintreffen zweier Autos an einer Kreuzung
Wahrscheinlichkeitsrechnung
h *n ( K i )
- 65 -
x1,...,xn
f(x)
n→∞
X
X
a
b
 1
, für x ∈ [a, b ]

f ( x) =  b − a
 0
sonst
Begründen Sie diese Wahl von f(x) als Verteilungsdichte für X!
Bemerkung: Im Unterschied zu Verteilungen diskreter Zufallsgrößen, die aus
dem Versuchsaufbau theoretisch hergeleitet werden, werden Verteilungen
stetiger Zufallsgrößen aus der Gestalt des Histogramms, also experimentell,
bestimmt.
3.2.1
Die stetige Gleichverteilung
Def.: Sei X stetig. X heißt auf dem Intervall [ a , b] ⊆ ℜ gleichverteilt, falls X
die Dichtefunktion
 1

f ( x) =  b − a
 0

, für x ∈[ a , b]
, für x ∉[ a , b]
besitzt.
Bezeichnung: X ~ R[ a , b]
Es gilt:
0

x − a
F ( x) = ∫ f (u )du = 
−∞
b − a
1

für
x<a
für
x ∈ [ a, b]
für
x>b
x
B. Grabowski, HTW des Saarlandes, 1/2012
∞
EX =
Stochastik
b
x
b2 − a2 a + b
=
=
(
)
b
−
a
2
b
−
a
2
a
∫ x ⋅ f ( x)dx = ∫
−∞
2
(
b − a)
Var ( X ) = ∫ ( x − EX ) ⋅ f ( x)dx =
∞
2
12
−∞
Weisen Sie das Ergebnis für die Varianz nach!
3.2.2
Die Exponentialverteilung
Def.: Sei X stetig. X heißt exponentialverteilt mit dem Paramater α, falls die
α ⋅ e − αx
,x ≥ 0
Dichtefunktion die Gestalt f ( x ) = 
besitzt.
,x < 0
 0
α
α1
X
α–Intensitätsparameter (Geschwindigkeit des Abklingens gegen 0)
Bezeichnung: X ∼ ε(α)
Satz: Es gilt:
1 − e −αx , x ≥ 0
0 , x < 0
a) F ( x) = 
b) EX =
1
α
c) Var ( X) =
1
α2
Beweis: Zu a)
x
F ( x) =
∫ f (u)du
−∞
x
= ∫ α ⋅ e −α ⋅u du
0
Wahrscheinlichkeitsrechnung
- 67 -
x
 1

= α ⋅  − e − α⋅u  = − e − α⋅x − ( − 1) = 1 − e − α⋅x
2

0
qed.
Weisen Sie die Aussagen b) und c) des Satzes nach!
Wie kann man bei einer exponentialverteilten Zufallsgröße den Parameter
α zumindest näherungsweise ermitteln ?
Typische Anwendungsgebiete:
− X – zufällige Lebensdauer von Bauelementen
− X – zufällige Gesprächsdauer von Telefonaten
− X – zufälliger Zeitabstand zwischen 2 Signalen (,die in einer
Empfangsstation eintreffen)
− X - zufälliger Zeitabstand zwischen 2 Kunden (, die in einem Supermarkt
eintreffen)
− X – Abbauzeit von Drogen im menschlichen Blut
Beispiel:
Die zufällige Lebensdauer von Kühlschränken sei
exponentialverteilt. Im Mittel beträgt sie 10 Jahre:
a) Wieviel % aller Kühlschränke werden diese 10 Jahre
überschreiten?
b) Nach welcher Zeit haben 80% aller Kühlschränke 'ihr Leben
ausgehaucht'?
Lösung:
1


X – zufällige Lebensdauer, X ∼ ε  α =
Jahre -1 


10
Zu a)
P( X > 10) = 1 − P( X ≤ 10) = 1 − F (10)
1

− ⋅10 
= 1 −  1 − e 10 


= e −1 =
1
= 0,31
e
⇒ 31% aller Kühlschränke werden älter als 10 Jahre.
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Zu b) P( X ≤ t 0,8 ) = 0,8
⇔ F( 0,8) = 0,8
⇔1− e
⇔e
−
−
1
⋅t 0 , 8
10
= 0,8
t 0,8
10
= 0,2
/ ln
t 0,8
= ln(0,2)
10
⇔ t 0,8 = −10 ⋅ ln(0,2) = 16,09 ≈ 16 Jahre
⇔−
0,8
t
⇒ Ca. 20% aller Kühlschränke
Lebensdauer von 16 Jahren.
3.2.3
überschreiten
eine
Die Normalverteilung (Gauß-Verteilung)
(
)
Def.: X sei stetig. X heißt normalverteilt mit den Parametern µ , σ 2 , falls die
Dichtefunktion f(x) folgende Gestalt besitzt:
f ( x) =
(
Bezeichnung: X ~ N µ , σ 2
1
2π ⋅ σ
)
⋅e
−
( x − µ )2
2⋅σ 2
x ∈ℜ.
Wahrscheinlichkeitsrechnung
- 69 -
f (x )
sy m m e trisch
µ – σ,
µ + σ
X = ℜ
µ – 3σ
µ – 2σ
µ – σ
µ
µ + σ
µ – L a g e p a ra m e te r
µ
µ
σ1 > σ
µ – σ1
µ–σ
µ
µ+σ
µ + σ1
σ – Streuungsparameter
Vervollständigen Sie diese Grafik, indem Sie die
(
Dichte der Normalverteilung N µ , σ 1
2
) für σ
1
> σ einzeichnen !
Wird diese steiler oder flacher als die bereits eingezeichnete Dichte?
(
)
Satz: Sei X ~ N µ , σ 2 . Dann gilt: EX = µ ,
(ohne Beweis!).
Var ( X) = σ 2
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Def.: Unter der Standardnormalverteilung versteht man die Verteilung
N(0, 1), also die Normalverteilung mit Erwartung 0 und Varianz 1.
Bezeichnungen:
ϕ ( x) :=f(x) – Dichtefunktion der Standardnormalverteilung
Φ( x) :=F(x) – Verteilungsfunktion der Standardnormalverteilung
Berechnung der Wahrscheinlichkeiten:
(
)
Sei X ~ N µ , σ 2 . Gesucht :
a
P( X < a ) = F (a ) =
a
1
∫ f ( x)dx =
2π ⋅ σ
−∞
⋅ ∫e
−
( x − µ )2
2⋅σ 2
dx
−∞
Analytisch nicht lösbar
→ numerisch lösen
→ zu aufwendig für uns
µ
a
→ Wir führen F(a) auf die Standardnormalverteilungsfunktion Φ zurück . Die
Funktion Φ ist tabelliert.
(
)
Satz: Sei X ~ N µ , σ 2 . Sei F die Verteilungsfunktion von X. Dann gilt:
a−µ
F (a) = Φ ⋅ 

 σ 
N(0, 1))
( Φ - Verteilungsfunktion von
Wahrscheinlichkeitsrechnung
- 71 -
Beweis des Satzes: Es gilt:
Substitution:
( x − µ)
u=
σ
du 1
=
dx σ
→
dx = σdu
→
x: − ∞ → a
 a − µ
u: − ∞ → 

 σ 
(a − µ )
⇒ F (a) =
(a − µ )
σ
1
⋅
2π ⋅ σ
∫
e
u2
−
2
σ
∫
⋅ σ dx =
−∞
1
−∞
2π
(
)
⋅e
−
u2
2
du
(a − µ )
σ
=
a−µ

σ 
∫ ϕ (u )du = Φ ⋅ 
−∞
qed.
Bedeutung:
Wir können jede beliebige N µ , σ 2 auf die
Standardnormalverteilung zurückführen. Wir brauchen nur die
Werte Φ (x) .
Diese sind tabelliert (numerische Lösung des Integrals)
x
Φ( x) = ∫ ϕ (u )du =
−∞
1
2π
x
⋅ ∫e
−
u2
2
du .
−∞
Arbeit mit der Tabelle der Standardnormalverteilung (Anhang, Tabelle
1.1):
0
1
9
0,0
0,1
1,0
1,1
3,0
φ(1.01)
φ(3,09)
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
3
x
-3
φ(x) ist ∀ x in diesem Bereich ([0,3.09]) tabelliert
Begründen Sie, warum dieser Bereich ausreicht !
Welche Eigenschaften besitzt die Normalverteilung N(0,1) ?
1. Die N(0,1)-Verteilung ist symmetrisch !
φ(-a)
Es gilt: φ(-a) = 1 –Φ(a)
1 – φ(a)
–a
a
2. Es gilt: φ(x)=1 für alle x>3.09 !
Bemerkung : Wir können sogar zeigen, dass für eine beliebige
Normalverteilung gilt:
F(x) = 1 für x > 3σ (siehe unten, 1-,2-,3-σ-Bereiche).
Rechenbeispiele:
u
0,0
:
1,0
:
2,0
:
3,0
u
1) Φ (1,01) = 0,8438
0
1
2
...
0,8438
2) Φ(2,73) = 0,9968
3) Φ(− 2) = 1 − Φ(2) = 1 − 0,9772 = 0,0228
9
Wahrscheinlichkeitsrechnung
- 73 -
(
Beispiel : Sei X der zufällige IQ eines Saarländers, X ~ N 100, (15)
2
)
Ges.: P( X > 70)
Lös.: P ( X ≥ 70 ) = 1 − P ( X ≤ 70 ) = 1 − F (70) = 1 − Φ (
70 − 100
)
15
= 1 − Φ(− 2 ) = Φ (2) = 0,9772
⇒ 97,72 % der Saarländer haben IQ ≥ 70
2,28 % der Saarländer haben IQ < 70
Beispiel : Sägewerk: Bretter:
Normallänge: n = 20 Meter
Aufgrund der Produktionstechnologie wird die Normlänge n
nicht immer genau erreicht, sondern die produzierte Länge
schwankt zufällig um n.
(
Sei X – zufällige Länge mit X ~ N n = 20m, (2 mm)
2
)
Alle Bretter sind Ausschuss, für die gilt, dass ihre Länge um mehr
als 3,6mm von n = 20m abweicht.
a) Wieviel % der Werkstücke werden mit der gewünschten
Qualität produziert?
b) Wieviel % der Bretter sind Ausschuss?
c)Wie groß darf die Abweichung von der Normlänge n maximal
sein, damit höchstens 5% aller Bretter Ausschuss sind ?
Lös.: a)
(
)
P X − 20000mm < 3,6mm


= P n − 3,6 ≤ X ≤ n
+ 3,6
 a

b
= F(n+3,6) - F(n - 3,6)
 n + 3,6 − n 
 n − 3,6 − n 
= Φ
 − Φ





2
2
(
)
= Φ(1,8) − Φ( − 1,8) = Φ(1,8) − 1 − Φ(1,8)
= 2 ⋅ Φ(1,8) − 1
= 2 ⋅ 0,9641 − 1
= 1,9282 − 1 = 0,9282 = 92,82%
b) 7,18 % sind Ausschuss!
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Lösen Sie c) !
Veranschaulichen Sie sich die Lösungen zu a), b), c) grafisch
anhand der Dichte der Normalverteilung von X !
1, 2 und 3-σ-Bereiche der Normalverteilung:
(
X ~ N µ, σ 2
µ – 3σ
µ – 2σ
µ
µ–σ
1-σ-Bereich
2-σ-Bereich
3-σ-Bereich
Satz:
(
)
Sei X ~ N µ , σ 2 . Dann gilt:
1.) P(µ − σ ≤ X ≤ µ + σ ) = 0,68
2.) P(µ − 2σ ≤ X ≤ µ + 2σ ) = 0,955
3.) P(µ − 3σ ≤ X ≤ µ + 3σ ) = 0,998
Beweis des Satzes:
P(µ − iσ ≤ X ≤ µ + iσ )
= F(µ + iσ ) − F(µ − iσ )
 µ + iσ/ − µ/ 
 µ/ − iσ/ − µ/ 
= Φ /
 − Φ





σ/
σ/
= Φ( i ) − Φ ( − i )
= 2 ⋅ Φ(i) − 1
,i = 1, 2, 3
µ+σ
µ + 2σ
µ + 3σ
)
Wahrscheinlichkeitsrechnung
- 75 -
1.) Φ(1) = 0,8413
Nun gilt:
⇒ P(µ − σ ≤ X ≤ µ + σ ) = 2 ⋅ 0,8413 − 1 = 0,68
2.) Φ(2) = 0,9772
⇒ P(µ − 2σ ≤ X ≤ µ + 2σ ) = 2 ⋅ 0,9772 − 1 = 0,955
3.) Φ(3) = 0,9987
⇒ P(µ − 3σ ≤ X ≤ µ + 3σ ) = 2 ⋅ 0,9987 − 1 = 0,998
q.e.d
2
aller beobachtbaren Werte von X liegen im 1-σ-Bereich.
3
– Fast alle beobachteten Werte von X liegen im 3-σ-Bereich.
Bedeutung:
– Ca.
Für die Praxis:
(
)
X → Beobachtungen x1,...,xn über den Typ der Verteilung X ~ N µ , σ 2 .
Schätzung der Paramater:
µ ≈ x , σ 2 ≈ s2
(
⇒ N ≈ N x, s 2
)
Schluß von Stichprobe auf Gg:
68 % aller Werte von X sind ∈[ x − s, x + s]
fast alle (99,8 %) Werte von X sind ∈[ x − 3s, x + 3s]
B. Grabowski, HTW des Saarlandes, 1/2012
3.3
Stochastik
Bestimmung
der
Momentenmethode
Verteilungsparameter
nach
der
Alle Verteilungen hängen von Parametern ab, so die Binomialverteilung
B(n,p) von p, die stetige Gleichverteilung R([a,b]) von a,b, die
Exponentialverteilung E(λ) von λ usw.
Den Typ der Verteilung bestimmen wir im diskreten Fall aus dem Versuchsaufbau
und im stetigen Fall aus der Gestalt des Histogramms.
Wie bestimmen wir nun die Parameter der Verteilungen?
Jeder der Verteilungsparameter der in diesem Skript eingeführten Verteilungen hängt
mit EX und/oder Var X zusammen.
So gilt für eine Exponentialverteilung E(λ):
EX = 1/λ bzw.
λ=1/EX,
(*)
und für eine stetige Gleichverteilung R([a,b]):
a+b
2
(b − a ) 2
VarX =
12
EX =
(**)
EX und VarX sind das theoretische Mittel und die Streuung in der Grundgesamtheit
und entstehen durch eine theoretische Stichprobe vom Umfang n = ∞.
Für „große“ n (n > 120) können wir EX und VarX abschätzen durch Mittelwert
und Streuung:
EX ≈ x Var(X) ≈ s 2
.
Wir setzen nun diese Schätzungen in die Formeln (*) und (**) ein und erhalten nach
Umstellung der Gleichungen nach λ bzw. a und b Schätzwerte für diese Parameter.
Dieses Vorgehen nennt man Momentenmethode.
Wahrscheinlichkeitsrechnung
3.4
Übungsaufgaben 1. Ein Versicherungsvertreter schließt mit 5 Kunden, die das gleiche Alter
besitzen, Lebensversicherungsverträge ab. Nach der Sterbetafel beträgt die
Wahrscheinlichkeit für jeden der 5 Kunden, die nächsten 30 Jahre zu
überleben, 0.60.
Berechnen Sie die Wahrscheinlichkeit dafür, daß nach 30 Jahren
a) genau 2 Kunden
b) alle 5 Kunden
c) wenigstens 2 Kundennoch am Leben sind!
d) Wieviele Kunden sind im Mittel nach 30 Jahren noch am Leben?
2. In einer Vermittlungsstelle werden im Durchschnitt 100 Anrufe pro Stunde
gezählt. Die maximale Kapazität der Vermittlungsstelle erlaubt die
Vermittlung von höchstens 10 Anrufen pro Minute.
a)Wie groß ist die Wahrscheinlichkeit dafür, die maximale Kapazität zu
überschreiten?
b) Wie groß ist die Wahrscheinlichkeit dafür, daß die Zeit zwischen dem
Eintreffen zweier Anrufe 20 Sekunden überschreitet?
3. In einem Experiment wurde die Zeit T für die Lösung einer Denkaufgabe
gemessen.
Sie entspricht einer normalverteilten Zufallsgröße mit dem Mittelwert m =
20 Sekunden und der Varianz = 25 (Sekunden)2. Man bestimme
a) die Wahrscheinlichkeit dafür, daß die Lösungszeit 25 Sekunden nicht
überschreitet.
b) den prozentualen Anteil der Personen, deren Lösungen zwischen 11
und 22 Sekunden liegt.
c) Welche Lösungszeit wird von 95 % aller Personen nicht überschritten?
4. Die zufällige Zeit, die ein Organismus benötigt, um eine Droge abzubauen
sei exponentialverteilt mit dem Parameter α = 0,25 (Stunde)-1. Die
Fahrtüchtigkeit der Person ist erst hergestellt, wenn die Droge in ihrem
Organismus vollständig abgebaut ist.
a) Wie groß ist die mittlere Abbauzeit?
b) Wie groß ist die Wahrscheinlichkeit dafür, daß eine Person, der die
Droge verabreicht wurde, nach mindestens 4 und höchstens 6 Stunden
wieder fahrtüchtig ist?
c) Nach welcher Zeit ist in 80 % der Fälle die Droge abgebaut?
- 77 -
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
5. Auf einem Markt wird an einer Würfelbude für 1 DM Einsatz folgendes
Spiel angeboten:
Der Spieler würfelt gleichzeitig mit 3 Würfeln.
Hat er 3 Sechsen gewürfelt, so bekommt er 200 DM zurück.
Hat er 2 Sechsen gewürfelt, so bekommt er 50 DM und bei einer Sechs nur
den Einsatz von 1 DM zurück. In jedem anderen Fall bekommt er nichts.
Wie hoch ist der erwartete Gewinn (Erwartete Einnahme pro Spiel –
Einsatz)?
Würden Sie dieses Spiel spielen?
6. Zwei Spieler A und B überlegen sich folgendes Glücksspiel: B merkt sich
eine natürliche Zahl zwischen 0 und 2 ( x ∈{0,1,2} ). A muss sie erraten. A
hat das Spiel gewonnen, falls er die Zahl richtig rät. Andernfalls hat B
gewonnen.
A und B wollen nun 2 Spielserien unter folgenden Bedingungen austragen:
− Jede Serie besteht aus mehreren einzelnen unabhängigen Spielen: Die 1.
Serie wird über 4 Spiele, die 2. Serie über 2 Spiele ausgetragen.
− A hat eine Serie gewonnen, wenn er in dieser Serie mehr Spiele als B
gewonnen hat.
− A setzt vor jedem Spiel 1 DM als Einsatz ein. Gewinnt A ein Spiel, dann
erhält er 2 DM zurück.
Man berechne
a) die Wahrscheinlichkeit dafür, dass der Spieler A die 1. Serie gewinnt!
b) die erwartete Zahl der durch A gewonnenen Spiele nach beiden
Spielserien!
c) Wie groß ist der erwartete Gewinn von A (Erwartete Einnahme pro
Spiel – Einsatz) nach einem Spiel?
(Beachten Sie den Unterschied zwischen “Spiel” und “Spielserie”!
7.
Ein Forstbetrieb liefert Stangenholz, dessen Länge normalverteilt mit
N(20; (0,09)) (Angaben in Metern) um 20 Meter schwankt. Alle Stangen
mit einer Länge von weniger als 19,6 und mehr als 20,4 Metern gelten als
Ausschuss!
a) Berechnen Sie die Ausschussrate der Produktion!
b) Wie groß ist die Wahrscheinlichkeit dafür, dass sich in einer Menge
von 4 Stangenhölzern mindestens zwei Ausschussstangen befinden?
Wahrscheinlichkeitsrechnung
- 79 -
c) Wie viele Ausschussstangen muss man in einer Serie von 100000 Stück
erwarten?
d) Berechnen Sie den Toleranzbereich um 20 herum, d.h. das ε, so dass
genau 5% aller Stangen außerhalb des Toleranzbereiches [20 - ε, 20 +
ε] liegen!
8. Eine Schaltung besteht in der in der Skizze dargestellten Weise aus 3
Bauelementen. Das Gerät fällt aus, wenn beide Reihen ausfallen. Eine
Reihe fällt aus, wenn mindestens eines der in Reihe geschalteten Elemente
ausfällt.
Die zufällige Zeit bis zum Ausfall eins Bauelements ist wie folgt gegeben:
Bauelement B1 : T1∼ N(100, 4)
Bauelement B2 : T2∼ N(200, 9)
Bauelement B3 : T3 ∼ E(0,01)
(alle Angaben in Stunden)
Die Elemente B1, B2, B3 fallen unabhängig voneinander aus, d.h., T1, T2,
T3 sind stochastisch unabhängig.
Berechnen Sie die Wahrscheinlichkeit dafür, daß die Lebensdauer des
Gerätes 100 Stunden nicht überschreitet !
9. X sei eine stetig auf [a,b] gleichverteilte Zufallsgröße.
Eine Stichprobe ergab folgende Werte für X:
Schätzen Sie a und b nach der Momentenmethode!
2,5,3,4,4,3,5,6,2,3
B. Grabowski, HTW des Saarlandes, 1/2012
Stochastik
Zahlentabellen
Verteilungsfunktion der Standardnormalverteilung
Verteilungsfunktion und Quantile der Standardnormalverteilung
Beispiele: u=1,67 ⇒ Φ(u) = 0,9525;
u=1,673 ⇒ Φ(u) = 0,9528;
u=-0,82 ⇒ Φ(u) = 1-Φ(-u) = 1-0,7939 = 0,2061
Herunterladen