(Microsoft PowerPoint - KapI.ppt [Schreibgesch\374tzt] [Kompatibilit

Werbung
Stochastik
Ba-Studiengang Scientific Programming
Wintersemester 2016/2017
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Vorlesungsinhalte Stochastik
I.
Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
I.2 Grundbegriffe
I.3 Wahrscheinlichkeit
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
I.5 Spezielle Wahrscheinlichkeitsverteilungen
I.6 Mehrdimensionale Zufallsvariablen
I.7 Kovarianz und Korrelation
I.8 Gesetze der großen Zahlen und
Grenzwertsätze
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 2
Vorlesungsinhalte Stochastik
II. Beschreibende Statistik
II.1 Merkmale und weitere wichtige Begriffe
II.2 Darstellung der Beobachtungsergebnisse
II.3 Statistische Maßzahlen
III. Schließende Statistik
III.1 Grundbegriffe
III.2 Punktschätzungen
III.3 Intervallschätzungen
III.4 Statistische Testverfahren
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 3
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
1.1 Das Urnenmodell
Prinzip:
In einer Urne befinden sich n verschiedene Kugeln,
die sich (z.B. in ihrer Farbe) unterscheiden:
• Wie viele Anordnungsmöglichkeiten gibt es für
die Kugeln?
• Mögliche Zusammensetzungen der „Stichprobe“
bei zufälliger Entnahme von k Kugeln?
•......
Kein langweiliges Modell zur Einführung
kombinatorischer Grundlagen, taucht immer wieder
in Anwendungen der Statistik zur
Entscheidungsfindung auf!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 4
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Beispiel:
Die Endfertigung benötigt für ein Produkt 5
Halterungen.
Wegen Lieferproblemen wurden Halterungen bei 3
verschiedenen Lieferanten gekauft und auf dem
Lager nicht getrennt gehalten. Die Endmontage
erhält ein Los von 1000 Halterungen (200 von
Lieferant A, 500 von B und 300 von C). Lieferant A
„beichtet“ zu spät, dass seine Halterungen nicht die
Mindestfestigkeit aufweisen. Wie viele der
Endprodukte müssen aussortiert werden, da sie
mindestens eine Halterung von A enthalten?
Die „Urne“ ist hier das Lieferlos, die „Kugeln“ sind
die Halterungen, die „Farben“ sind die Lieferanten!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 5
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
1.2 Permutationen
Es befinden sich n verschiedenfarbige Kugeln in
einer Urne: Wie viele Möglichkeiten der Anordnung
nebeneinander gibt es?
Beispiel: n=3
Allgemein: Eine Anordnung von n verschiedenen
Elementen in einer bestimmten Reihenfolge heißt eine
„Permutation“ der n Elemente.
Wie groß ist die Anzahl P der Permutationen von n
Elementen?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 6
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Wie groß ist die Anzahl P der Permutationen von
n Elementen?
P(n) = n ⋅ (n − 1) ⋅ (n − 2) ⋅ K ⋅1 = n!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 7
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Problem: Was tun, wenn sich unter den n Kugeln
n1 gleiche befinden?
Alle Anordnungen, die durch
Vertauschen der gleichen Kugeln
untereinander entstehen, fallen
zusammen. Bei n1 gleichen Kugeln
gibt es P(n1)=n1! Möglichkeiten,
die gleichen Kugeln untereinander
zu vertauschen.
P(n) n!
P(n; n1 ) =
=
P(n1 ) n1!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
verschiedene
Anordnungsmöglichkeiten
bleiben.
30. August 2016 | 8
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Problem: Was tun, wenn sich unter den n Kugeln
n1 gleiche befinden?
P(n) n!
P(n; n1 ) =
=
P(n1 ) n1!
verschiedene
Anordnungsmöglichkeiten
bleiben.
Falls sich unter den n Kugeln jeweils n1, n2, ..., nk
gleiche befinden:
n!
mit
P(n; n1 ; n2 ;K nk ) =
n1!⋅ n2 !⋅K⋅ nk !
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
k
∑n
i
= n; k ≤ n
i =1
30. August 2016 | 9
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
1.3 Kombinationen
Nächster Schritt:
Einer Urne mit n verschiedenen Kugeln werden
nacheinander k Kugeln entnommen. Dabei ist
prinzipiell zwischen zwei verschiedenen Arten der
Ziehung zu unterscheiden:
Ziehung ohne Zurücklegen
Jede Kugel kann höchstens einmal gezogen
werden, da sie nach der Ziehung ausscheidet.
Ziehung mit Zurücklegen
Jede Kugel ist bei der nächsten Ziehung
wieder dabei.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 10
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Ziehung ohne Zurücklegen
Jede Kugel kann höchstens einmal gezogen
werden, da sie nach der Ziehung ausscheidet.
Ziehung mit Zurücklegen
Jede Kugel ist bei der nächsten Ziehung
wieder dabei.
Zusätzliche Unterscheidung:
Soll die Reihenfolge der gezogenen Kugeln berücksichtigt werden oder nicht?
Geordnete Stichprobe:
Reihenfolge der gezogenen Elemente wird berücksichtigt
Ungeordnete Stichprobe:
Reihenfolge der gezogenen Elemente spielt keine Rolle
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 11
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
1. Möglichkeit:
k Kugeln ziehen ohne Zurücklegen ohne
Berücksichtigung der Reihenfolge
(ungeordnete Stichprobe)
„Kombination k-ter Ordnung ohne Wiederholung“
Beispiel:
Diese beiden Stichproben unterscheiden sich lediglich in der Reihenfolge und
werden daher als Kombinationen 2. Ordnung nicht unterschieden!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 12
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Wie viele Kombinationen k-ter Ordnung ohne
Wiederholung gibt es bei n verschiedenen Kugeln in
der Urne?
Gedankenexperiment:
•Man ordne die n Kugeln auf n Plätzen
nebeneinander an.
•Jedem Platz (nicht der Kugel auf dem Platz!) wird
zufällig eines der beiden Merkmale „wird gezogen“
(k Plätze) bzw. „wird nicht gezogen“ (n-k Plätze)
zugeordnet; damit ist eine Kombination k-ter
Ordnung ohne Wiederholung festgelegt.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 13
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Um alle möglichen Kombinationen k-ter Ordnung
ohne Wiederholung zu erhalten, müssen alle
Permutationen der n Kugeln betrachtet werden,
wobei ein Vertauschen der Kugeln auf Plätzen mit
demselben Merkmal („wird gezogen“ bzw. „wird
nicht gezogen“) keine neue Kombination ergibt.
 n
n!
C (n; k ) = P(n; k ; n − k ) =
=  
k!⋅ (n − k )!  k 
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 14
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
2. Möglichkeit:
k Kugeln ziehen mit Zurücklegen ohne
Berücksichtigung der Reihenfolge
(ungeordnete Stichprobe)
„Kombination k-ter Ordnung mit Wiederholung“
Beispiel: n=6 Kugeln; k=8 Ziehungen mit
Zurücklegen
Falls i-te Kugel gezogen wird: Einen grünen Chip in ites Fach eines Setzkastens legen
Am Ende der Ziehungen liegen k=8 Chips in n=6
Fächern:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 15
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
3.Kugel wurde dreimal gezogen, usw.
2.Kugel wurde nicht gezogen
1.Kugel wurde zweimal gezogen
Alle k (=8) Chips und 5 (=n-1) Trennwände
permutieren, wobei die Vertauschung der k Chips
untereinander und der n-1 Trennwände
untereinander keine neue Kombination ergibt:
(k + n − 1)!  n + k − 1

CW (n; k ) = P (k + n − 1; k ; n − 1) =
= 
k!⋅ (n − 1)!  k 
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 16
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
1.4 Variationen
3. Möglichkeit:
k Kugeln ziehen ohne Zurücklegen mit
Berücksichtigung der Reihenfolge
(geordnete Stichprobe)
„Variation k-ter Ordnung ohne Wiederholung“
Beispiel: n=3 Kugeln,
Ziehung zweier Kugeln
ohne Zurücklegen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 17
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Die beiden Versuchsausgänge unterscheiden sich in
der Reihenfolge der gezogenen Kugeln und werden
daher als zwei verschiedene Variationen 2. Ordnung
ohne Wiederholung betrachtet.
Wie viele Variationen k-ter Ordnung ohne Wiederholung gibt es bei n verschiedenen Kugeln in der
Urne?
Die Zahl der Kombinationen k-ter Ordnung ohne
 n
n!
Wiederholung C (n; k ) =
= 
k!⋅ (n − k )!  k 
enthält k verschiedene Kugeln, die sich auf k! verschiedene Arten anordnen lassen:
n!
V (n; k ) = k!⋅ C (n; k ) =
(n − k )!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 18
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
4. Möglichkeit:
k Kugeln ziehen mit Zurücklegen mit
Berücksichtigung der Reihenfolge
(geordnete Stichprobe)
„Variation k-ter Ordnung mit Wiederholung“
Jeder der k Plätze in einer
solchen Anordnung kann mit
jeder der n Kugeln besetzt
werden.
VW (n; k ) = n
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
k
30. August 2016 | 19
I. Wahrscheinlichkeitsrechnung
I.1 Einführung in die Kombinatorik
Zusammenfassung:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 20
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Beispiel: Wurf eines homogenen Würfels
Dieses „Experiment“ ist ein einfaches Beispiel für
einen speziellen stochastischen Vorgang, nämlich
ein „Ideales Zufallsexperiment“:
Das Experiment wird unter genau festgelegten
Bedingungen, den sogenannten
Versuchsbedingungen, durchgeführt.
Die Menge der möglichen Ergebnisse (Ausgänge)
ist vor der Durchführung des Experiments bekannt.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 21
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Das Ergebnis einer konkreten Durchführung des
Experiments lässt sich nicht mit Sicherheit
voraussagen, sondern ist zufallsbedingt.
Das Experiment kann zumindest prinzipiell beliebig
oft unter gleichen Bedingungen wiederholt werden.
Weitere Beispiele:
•Wurf einer Münze
•Ziehen einer Karte aus einem Skatspiel
•Ziehen eines elektronischen Bauteils aus einem
Lieferlos und Test auf Funktionstüchtigkeit
•Durchmesser eines Bolzens aus einer laufenden
Fertigung
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 22
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Die Menge aller möglichen Ergebnisse eines
Zufallsexperiments bezeichnen wir als
„Ergebnismenge“ Ω
Für unser Beispiel des einfachen
Würfelwurfes:
Ω = {1, 2, 3, 4, 5, 6}
Interessieren wir uns nicht für alle möglichen
Ergebnisse des Zufallsexperimentes, sondern nur
für bestimmte, z.B. „Würfeln einer geraden Zahl“,
so sprechen wir von einem
„Ereignis“
A ist eingetreten, wenn das Ergebnis des
Zufallsexperiments in A liegt:
A = 2, 4, 6
{
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
};
A⊆Ω
30. August 2016 | 23
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Spezialfall: Einelementige Teilmengen von Ω sind
„Elementarereignisse“
ω ⊆ Ω mit
ω =1
Wir betrachten zunächst nur endliche oder
abzählbar unendliche Ergebnismengen:
Beispiele:
1.) Endliche Ergebnismenge beim Wurf eines
Würfels:
Ω = {1, 2, 3, 4, 5, 6}; ω i = {}
i ; i = 1, K ,6
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 24
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
2.) Solange würfeln, bis erstmalig die „6“ kommt:
„Abzählbar unendliche“ Ergebnismenge
Ω = {1, 2, 3, K} = Ν
Gegenbeispiele:
R;
{x ∈ R
| 0 ≤ x ≤ 1}
Spezialfälle:
Unmögliches Ereignis und sicheres Ereignis:
∅⊆Ω
Ω⊆Ω
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 25
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Ein Ereignis A ist damit entweder
•Das unmögliche Ereignis
(A enthält kein Element von Ω)
•Ein Elementarereignis
(A enthält genau ein Element von Ω)
•Eine Zusammenfassung mehrerer
Elementarereignisse
(A enthält mehrere Elemente von Ω)
•Das sichere Ereignis
(A enthält alle Elemente von Ω; A=Ω)
Die Menge aller Ereignisse, die sich aus der
Ergebnismenge bilden lässt, heißt
„Ereignisraum“
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 26
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Da Ereignisse Teilmengen der Ergebnismenge sind,
lassen sie sich auch wie Mengen verknüpfen. Wir
erhalten dadurch zusammengesetzte Ereignisse:
Schnittmenge: A und B treten gleichzeitig ein
A ∩ B = {ω ∈ Ω | ω ∈ A ∧ ω ∈ B}
Allgemein:
Jedes Ereignis A1 bis An tritt ein:
A1 ∩ A2 ∩ A3 ∩ K ∩ An
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 27
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Vereinigungsmenge:
Mindestens eines der Ereignisse A oder B tritt ein,
evtl. auch beide
A ∪ B = {ω ∈ Ω | ω ∈ A ∨ ω ∈ B}
Allgemein:
Mindestens eines der Ereignisse A1 bis An tritt ein:
A1 ∪ A2 ∪ A3 ∪ K ∪ An
Teilmenge:
Jedes Element von A gehört auch zu B; das Eintreten
von A zieht das Eintreten von B nach sich
A⊆ B
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 28
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Differenzmenge:
B vermindert um A
B \ A = {ω ∈ Ω | ω ∈ B ∧ ω ∉ A}
Komplement von A:
Tritt ein, wenn A nicht eintritt
A =Ω\ A
Unvereinbare Ereignisse:
Durchschnitt ist die leere Menge; A und B können
nie gleichzeitig eintreten: „Disjunkte Ereignisse“
A∩ B = ∅ = { }
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 29
I. Wahrscheinlichkeitsrechnung
I.2 Grundbegriffe
Disjunkte Ereignisse sind eine im Hinblick auf die
Berechnung von Wahrscheinlichkeiten besonders
angenehme Situation, darum für die Vereinigung
disjunkter Ereignisse auch übliche Schreibweise:
A∪ B = A+ B
(Nur für disjunkte Ereignisse!)
Hilfreich bei der Berechnung von Komplementen
zu bereits verknüpften Ereignissen sind die
Formeln von De Morgan:
A∪ B = A∩ B
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
A∩ B = A∪ B
30. August 2016 | 30
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.1 Laplace-Experimente
Wir betrachten ein Zufallsexperiment mit einer
endlichen Ergebnismenge:
Ω = {ω1 , ω 2 ,K , ω m }
Es gibt eine Reihe von Zufallsexperimenten, bei
denen keines der Elementarereignisse gegenüber
einem anderen bevorzugt ist, d.h. bei ausreichend
häufiger Wiederholung des Experimentes tritt jedes
Elementarereignis mit nahezu gleicher Häufigkeit
auf. Ein derartiges Experiment bezeichnen wir als
„Laplace – Experiment“
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 31
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Beispiele:
1.) Wurf einer Münze Ω = {W , Z }
Absolute Häufigkeit
n(W ) ≈ n( Z )
Relative Häufigkeit
n (W )
n( Z ) 1
hn (W ) =
≈ hn ( Z ) =
≈
n
n
2
„Stabdiagramm“
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 32
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
2.) Urne mit 3 weißen und 2 schwarzen Kugeln;
Ziehung einer Kugel mit Zurücklegen
Ω = {W 1, W 2, W 3, S1, S 2}; W = {W 1, W 2, W 3} ⊆ Ω; S = {S1, S 2} ⊆ Ω
Bei n=1000 Ziehungen Erwartung für die
absoluten Häufigkeiten:
3
2
n(W ) ≈ ⋅1000 = 600; n( S ) ≈ ⋅1000 = 400
5
5
Bei der praktischen Durchführung
ergeben sich zufallsbedingt nie genau
diese Zahlen, sondern leicht
abweichende relative Häufigkeiten:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 33
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Einem Elementarereignis ωi aus einer Ergebnismenge Ω mit m gleichmöglichen Elementarereignissen wird definitionsgemäß die positive Zahl
1
p (ω i ) =
m
als „Wahrscheinlichkeit“
zugeordnet.
Das Bild k ann zurzeit nicht angezeigt werden.
Genauer:
Das Bild k ann zurzeit nicht angezeigt werden.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 34
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 35
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Problem:
Diese „klassische“ Definition der Wahrscheinlichkeit
ist nur sehr begrenzt anwendbar:
•Die Ergebnismenge Ω muss endlich sein.
•Alle Elementarereignisse müssen
gleichwahrscheinlich sein.
Für alle anderen Fälle ist eine allgemeinere
Einführung der Wahrscheinlichkeit erforderlich!
Allgemein wird die Wahrscheinlichkeit nicht
inhaltlich, sondern durch nicht beweisbare GrundPostulate (Axiome) definiert, die sich an den
Eigenschaften relativer Häufigkeiten orientieren.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 36
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.2 Wahrscheinlichkeitsaxiome
Eigenschaften der relativen Häufigkeit:
Beispiel: Urne mit einer weißen, zwei grauen und
drei schwarzen Kugeln
Ziehung einer Kugel mit Zurücklegen:
Laplace-Experiment
Ω = {W 1, G1, G 2, S1, S 2, S 3};
A = {W 1}; B = {G1, G 2}; C = {S1, S 2, S 3}
Bei n Ziehungen absolute Häufigkeiten:
n( A) + n( B ) + n(C ) = n
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 37
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Relative Häufigkeiten:
n(C )
n( B )
n( A)
hn ( A) =
; hn ( B ) =
; hn (C ) =
n
n
n
0 ≤ hn ≤ 1
Betrachte Ereignis
„Ziehung einer weißen oder grauen Kugel“
A ∪ B = {W 1, G1, G 2} A und B schließen sich
gegenseitig aus (disjunkt)
Absolute Häufigkeit:
n( A) + n( B)
n( A) + n( B)
= hn ( A) + hn ( B)
Relative Häufigkeit: hn ( A ∪ B ) =
n
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 38
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Allgemein für zwei sich gegenseitig ausschließende
Ereignisse A und B:
hn ( A ∪ B) = hn ( A) + hn ( B)
Relative Häufigkeit für das sichere Ereignis:
n( A) + n( B) + n(C )
hn (Ω) = hn ( A ∪ B ∪ C ) =
=1
n
Verhalten der relativen Häufigkeit bei umfangreichen Versuchsreihen:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 39
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Ziehung einer Kugel mit
Zurücklegen:
Laplace-Experiment
Ω = {W 1, G1, G 2, S1, S 2, S 3};
1
A = {W 1}; P( A) =
6
Mit zunehmender Anzahl von Ziehungen n streben
die beobachteten relativen Häufigkeiten gegen einen
stabilen Wert, der der klassischen Wahrscheinlichkeit
entspricht.
Daher naheliegender Versuch für die Definition
einer Wahrscheinlichkeit:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 40
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
P ( A) = lim hn ( A)
n →∞
Aber:
Existenz- und Eindeutigkeitsprobleme bei diesem
Grenzwert, darum wird ein axiomatischer Wahrscheinlichkeitsbegriff gesucht.
Wir betrachten zunächst wieder nur den Fall einer
endlichen Ergebnismenge Ω:
Kolmogoroff-Axiome:
Jedem Ereignis E wird eine Zahl P(E) als
„Wahrscheinlichkeit“ zugeordnet, wobei gelten soll:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 41
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
1.) P( E ) ≥ 0
2.) P(Ω) = 1
3.) E1 ∩ E2 = ∅ ⇒ P( E1 ∪ E2 ) = P( E1 ) + P ( E2 )
Das dritte Axiom lässt sich sofort auf endlich
viele disjunkte Ereignisse verallgemeinern:
P( E1 ∪ E2 ∪ E3 ∪ K ∪ En ) = P( E1 ) + P( E2 ) + P( E3 ) + K + P( En )
Keine Aussage darüber, wie die Zahl P(E) im
konkreten Fall zu berechnen ist!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 42
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Folgerungen für die Eigenschaften von
Wahrscheinlichkeiten:
1.) P (∅) = 0
2.) P( E ) = 1 − P ( E )
3.) 0 ≤ P ( E ) ≤ 1
4.) A ⊆ B ⇒ P( A) ≤ P( B )
5.) P ( A ∪ B ) = P ( A) + P( B ) − P ( A ∩ B) ≤ P ( A) + P( B )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 43
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Festlegung unbekannter Wahrscheinlichkeiten in
der Praxis:
•Einfachster Fall: Laplace-Experiment; dann
klassische Definition der Wahrscheinlichkeit
verwendbar; Kolmogoroff-Axiome automatisch
erfüllt.
•Falls kein Laplace-Experiment: Unbekannte
Wahrscheinlichkeit über die relative Häufigkeit
einer hinreichend großen Versuchsreihe schätzen:
P ( A) ≈ hn ( A)
„Empirische“ oder „statistische“
Festlegung der Wahrscheinlichkeit
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 44
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Bei den bisher betrachteten endlichen
Ergebnismengen Ω haben wir für die möglichen
Ereignisse (Teilmengen von Ω) vorausgesetzt (S sei
die Menge aller möglichen Ereignisse):
1) Ω ∈ S; ∅ ∈ S
2) Bei jedem Ereignis E ist auch E = Ω \ E ∈ S
3) Wenn E1 und E2 Ereignisse sind, dann ist auch E1 oder E2 ( E1 ∪ E2 ) ∈ S,
E1 und E2 ( E1 ∩ E2 ) ∈ S und insbesonde re ist
n
UE ∈S
i
i =1
n
sowie
I E ∈ S.
i
i =1
Was ist zu tun, wenn die Ergebnismenge unendlich
viele Elemente enthält?
Die Abgeschlossenheit von S unter „endlicher
Vereinigungsbildung“ reicht nicht mehr aus!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 45
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Betrachte zunächst nur abzählbar unendliche
Ergebnismengen Ω:
Für eine vollständige Beschreibung benötigen wir
eine Ereignisalgebra S, die zu einem Vorgang mit
zufälligem Ergebnis die Menge der Ereignisse
beschreibt, denen man eine Wahrscheinlichkeit
zuordnen möchte.
Offensichtlich:
S ist eine Menge von Teilmengen von Ω; um
uninteressante Fälle auszuschließen, sollte S nicht
die leere Menge sein.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 46
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Wesentliche Forderung an die Ereignisalgebra:
Vereinigung und Durchschnitt abzählbar unendlich
vieler Elemente der Ereignisalgebra sind wieder
Element dieser Ereignisalgebra.
Definition :
Es sei Ω eine nichtleere Menge. Eine Ereignisalgebra über Ω ist eine nichtleere
Menge S von Teilmengen von Ω, für die gilt :
a) Für jedes E ∈ S ist E ∈ S.
∞
b) Für jede Folge E1, E2 , K ∈ S ist
UE
n
∈S
n =1
Folgerunge n :
a)Für beliebige E1, E2 , K ∈ S gilt
∞
IE
n
∈S
n =1
b) ∅ ∈ S und Ω ∈ S
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 47
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Fragen zur Ereignisalgebra:
•Gibt es überhaupt eine Ereignisalgebra?
(Sind die in der Definition aufgestellten
Forderungen miteinander verträglich?)
•Existiert über jeder nichtleeren Menge eine
Ereignisalgebra?
•Kann es über einer nichtleeren Menge mehr als
eine Ereignisalgebra geben?
Wenn ja, welche wählt man zur Beschreibung des
Vorganges?
Für jede nichtleere Menge Ω ist die Potenzmenge
P (Ω) eine Ereignisalgebra über Ω.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 48
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Beispiel:
Ω = {ω1 ; ω 2 ; ω 3 }
P (Ω) = {∅; Ω; {ω1}; {ω 2 }; {ω 3 }; {ω1 ; ω 2 }; {ω1 ; ω 3 }; {ω 2 ; ω 3 }}
Die Potenzmenge ist die größtmögliche
Ereignisalgebra über Ω. Sie erfasst sämtliche
möglichen Aussagen über die Ereignisse des
betrachteten Vorganges.
Ist Ω endlich oder abzählbar unendlich, wählt man
als Ereignisalgebra stets die Potenzmenge.
Enthält Ω mindestens zwei Elemente, so ist die
Potenzmenge P (Ω) nicht die einzige Ereignisalgebra
über Ω:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 49
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Ω ≠ ∅ ⇒ S1 = {∅; Ω} ist Ereignisalgebra über Ω
Ω > 2 und A ⊂ Ω mit A ≠ ∅ und A ≠ Ω
⇒ S 2 = {∅; Ω; A; A }ist Ereignisalgebra
Mit der Wahl der Ereignisalgebra wird festgelegt,
welche Aussagen zur Beschreibung des
betreffenden Vorganges zur Verfügung stehen!
Problem:
Was ist zu tun bei einer überabzählbar unendlichen
Ergebnismenge?
Die Potenzmenge ist „zu groß“!
Beispiel: Lebensdauer eines technischen Gerätes
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 50
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Ω=R
Interessierende Ereignisse :
+
{Die Lebensdauer ist kleiner als x Zeiteinheiten} = {ω ∈ R : ω < x} ∀x ≥ 0
Wähle die kleinste Ereignisalgebra über Ω, die alle
interessierenden Ereignisse enthält!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 51
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Kolmogoroff - Axiome für Wahrscheinlichkeiten
Es sei Ω eine Ergebnisme nge und S eine Ereignisalgebra (über Ω ).
Eine Zuordnungs vorschrift P : S → R (d.h. jedem Ereignis E ∈ S wird eine
reelle Zahl P(E) als " Wahrschein lichkeit" für das Eintreten von E zugeordnet )
heißt Wahrschei nlichkeits maß, wenn gilt :
1.) P( E ) ≥ 0 ∀ E ∈ S
2.) P(Ω) = 1
3.) Falls E1 , E2, K sich gegenseiti g ausschließende Ereignisse sind, gilt
∞  ∞
P U Ei  = ∑ P( Ei ) ("σ − Additivität" )
 i =1  i =1
Das Tripel (Ω, S,P) mit Ω als Ergebnisme nge, S als Ereignisalgebra und
P als Wahrschei nlichkeits maß bezeichnet man als Wahrschei nlichkeits raum.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 52
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.3 Bedingte Wahrscheinlichkeit
In vielen Anwendungen ist das Eintreten eines
Ereignisses A nicht unabhängig davon, ob vorher
ein anderes Ereignis B eingetreten ist oder nicht:
Ziehung ohne Zurücklegen bei einer Urne mit 3
weißen und 3 schwarzen Kugeln:
Wahrscheinlichkeit, bei der zweiten Ziehung eine
weiße Kugel zu erhalten (A) ?
Schreibweise:
P( A | B)
B: Ziehung einer weißen Kugel im ersten Zug
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 53
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
2
P( A | B) =
5
3
P( A | B ) =
5
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 54
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
P( A | B) =
P( A ∩ B)
P( B)
P ( A | B ) ≠ P ( B | A) aber :
P ( A ∩ B ) P ( B ∩ A) P( B ∩ A) P( A)
=
=
⋅
P( B)
P( B)
P ( A)
P( B)
P ( A)
⇒ P ( A | B ) = P ( B | A) ⋅
P( B)
Die bedingte Wahrscheinlichkeit erfüllt alle
Axiome für eine Wahrscheinlichkeit und damit
auch die daraus abgeleiteten Folgerungen, z.B.:
P( A | B) =
1.) E1 ⊆ E2 ⇒ P( E1 | B) ≤ P( E2 | B)
2.) P( A | B) = 1 − P( A | B)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 55
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.4 Multiplikationssatz
Löst man die Definition der bedingten Wahrscheinlichkeit auf nach der Wahrscheinlichkeit für das
gleichzeitige Eintreten zweier Ereignisse A und B,
so ergibt sich der Multiplikationssatz der
Wahrscheinlichkeitsrechnung:
P ( A ∩ B ) = P( A | B) ⋅ P( B ) = P( B | A) ⋅ P( A)
Verallgemeinerung:
P( A ∩ B ∩ C ) = P( A) ⋅ P( B | A) ⋅ P(C | A ∩ B)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 56
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.5 Stochastische Unabhängigkeit von Ereignissen
In einigen Anwendungen ist die Wahrscheinlichkeit
für das Eintreten des Ereignisses A unabhängig
davon, ob B eingetreten ist oder nicht:
P( A | B) = P( A | B ) = P( A)
Aus dem Multiplikationssatz ergibt sich damit als
Definition für die stochastische Unabhängigkeit
zweier Ereignisse A und B:
P ( A ∩ B ) = P ( A) ⋅ P ( B )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 57
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Verallgemeinerung für n Ereignisse A1 bis An:



P I A j  = ∏ P( A j ) für jede mindestens
 j∈T  j∈T
zweielemen tige Teilmenge T ⊆ {1,2,K,n}
Wie stellt man fest, „wie stark“ zwei Ereignisse A
und B stochastisch abhängig sind ?
Vierfeldertafel
A
B
P( A ∩ B)
B
P( A ∩ B )
A
P( A ∩ B) P( A ∩ B )
Spaltensumme
P( B)
P( B )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Zeilensumme
P( A)
P( A )
1
30. August 2016 | 58
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Bei vollständiger Unabhängigkeit der Ereignisse A
und B voneinander:
A
B
P( A) ⋅ P( B)
B
P( A) ⋅ P( B )
A
P( A ) ⋅ P( B) P( A ) ⋅ P( B )
Spaltensumme
P( B)
P( B )
Bei vollständiger
Unabhängigkeit der Ereignisse
A und B verschwindet die
Determinante von :
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Zeilensumme
P( A)
P( A )
1
 P( A ∩ B) P( A ∩ B ) 


 P( A ∩ B) P( A ∩ B ) 
30. August 2016 | 59
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Definition „Zusammenhangskoeffizient“
oder „Assoziationsmaß“:
P( A ∩ B) ⋅ P( A ∩ B ) − P( A ∩ B ) ⋅ P( A ∩ B)
Q=
; Q ∈ [−1;1]
P( A ∩ B) ⋅ P( A ∩ B ) + P( A ∩ B ) ⋅ P( A ∩ B)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 60
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.6 Mehrstufige Zufallsexperimente
Kompliziertere Zufallsprozesse bestehen häufig aus
mehreren nacheinander ablaufenden Zufallsexperimenten: „Mehrstufiges Zufallsexperiment“
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 61
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Hilfsmittel zur Veranschaulichung: „Ereignisbäume“:
Regeln für die Berechnung
von Wahrscheinlichkeiten
im Ereignisbaum:
1.) Die
Wahrscheinlichkeiten längs
eines Pfades werden
miteinander multipliziert.
2.) Führen mehrere Pfade
zum gleichen Endergebnis,
so addieren sich ihre
Wahrscheinlichkeiten.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 62
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Wichtig: In den „Zweigen“
sind ab der zweiten Stufe
alle Ereignisse noch vom
Ausgang der vorangegangenen Stufe abhängig,
d.h. hier müssen an die
Zweige die bedingten
Wahrscheinlichkeiten
angetragen werden, z.B.
P( B5 ) = P( A2 ) ⋅ P( B5 | A2 )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 63
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Beispiel: Zwei Ziehungen ohne Zurücklegen aus
einer Urne mit 4 schwarzen und 2 weißen Kugeln
Wahrscheinlichkeit für das
Ziehen zweier gleichfarbiger
Kugeln:
1 1 2 3 7
P = P(OWW ) + P(OSS ) = ⋅ + ⋅ =
3 5 3 5 15
Wahrscheinlichkeit für das
Ziehen zweier verschiedenfarbiger Kugeln:
1 4 2 2 8
P = P(OWS ) + P(OSW ) = ⋅ + ⋅ =
3 5 3 5 15
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 64
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
3.7 Totale Wahrscheinlichkeit eines Ereignisses
und Bayes‘sche Formel
Beispiel: Ziehung einer schwarzen Kugel aus einer
zuvor zufällig ausgewählten Urne:
1. Stufe:
1
P( A) = P( B) = P(C ) =
3
2. Stufe:
P ( S | A) =
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
1
3
P(S | B) =
1
2
P( S | C ) =
2
3
30. August 2016 | 65
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Ereignis S:
1 1 1
P(OAS ) = P( A) ⋅ P( S | A) = ⋅ =
3 3 9
1 1 1
P(OBS ) = P( B) ⋅ P( S | B) = ⋅ =
3 2 6
1 2 2
P(OCS ) = P (C ) ⋅ P( S | C ) = ⋅ =
3 3 9
„Totale“ Wahrscheinlichkeit für das Ereignis S:
P( S ) = P (OAS ) + P (OBS ) + P(OCS ) =
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
1 1 2 1
+ + =
9 6 9 2
30. August 2016 | 66
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
P ( B ) = P (OA1 B ) + P (OA2 B ) + P (OA3 B)
= P ( A1 ∩ B ) + P( A2 ∩ B ) + P ( A3 ∩ B)
= P ( A1 ) ⋅ P ( B | A1 ) + P ( A2 ) ⋅ P( B | A2 ) + P( A3 ) ⋅ P ( B | A3 )
3
= ∑ P( Ai ) ⋅ P ( B | Ai )
i =1
Allgemein:
Totale Wahrscheinlichkeit für das
Eintreten des Ereignisses B:
n
P( B) = ∑ P( Ai ) ⋅ P( B | Ai )
i =1
Wahrscheinlichkeit für einen Pfad:
P( Ai ) ⋅ P( B | Ai )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 67
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Umgekehrte Fragestellung: Das Ereignis B sei eingetreten. Wie wahrscheinlich wurde es über einen
bestimmten Pfad bzw. ein bestimmtes Zwischenergebnis Aj erreicht?
Gesucht ist die bedingte
Wahrscheinlichkeit, dass das
Ereignis Ai eintritt, wenn B
bereits eingetreten ist:
Bayes‘sche Formel
P( A j | B) =
P( A j ∩ B)
P( B)
=
P( A j ) ⋅ P( B | A j )
n
∑ P( A ) ⋅ P( B | A )
i
i
i =1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 68
I. Wahrscheinlichkeitsrechnung
I.3 Wahrscheinlichkeit
Bayes‘sche Formel
P( A j | B) =
P( A j ∩ B)
P( B)
=
P( A j ) ⋅ P( B | A j )
n
∑ P( A ) ⋅ P( B | A )
i
i
i =1
Merkregel:
Die Wahrscheinlichkeit, dass B über einen bestimmten Pfad eintritt, ergibt sich als Verhältnis
der Wahrscheinlichkeit für diesen Pfad zur totalen
Wahrscheinlichkeit von B.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 69
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.1 Zufallsvariable (Zufallsgrößen)
Eine Zufallsvariable X ordnet jedem Elementarereignis aus der Ergebnismenge eindeutig eine
reelle Zahl zu, bildet also die Ergebnismenge auf die
Menge der reellen Zahlen ab:
X :Ω →R
X ist somit eine reellwertige Funktion mit
Definitionsbereich:
D =Ω
Wertebereich:
W X = {X | X = X (ω ) und ω ∈ Ω}
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 70
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.1 Zufallsvariable (Zufallsgrößen)
Definitionsbereich:
D =Ω
Wertebereich:
W X = {X | X = X (ω ) und ω ∈ Ω}
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 71
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
X " diskret":
W enthält endlich viele oder abzählbar unendlich viele reelle Werte
X
X " stetig ":
W enthält überabzählbar unendlich viele reelle Werte
X
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 72
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.2 Verteilungsfunktion einer Zufallsvariablen
Mit welcher Wahrscheinlichkeit nimmt die Zufallsvariable einen bestimmten Wert an (bei diskreten
Variablen) bzw. liegt sie in einem bestimmten Intervall (bei stetigen Variablen, manchmal auch bei
diskreten Variablen)?
X sei eine Zufallsvariable. Die Funktion
FX ( x) := P ({ω ∈ Ω | X (ω ) ≤ x}) ∀x ∈ R; FX : R → [0;1]
heißt Verteilungsfunktion der Zufallsvariablen X.
Anschaulich: F(x) ist die Wahrscheinlichkeit dafür,
dass die Zufallsvariable X einen Wert < x annimmt:
„Antwort auf höchstens x“.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 73
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Eigenschaften der Verteilungsfunktion
Abkürzung: P ({ω ∈ Ω | X (ω ) ≤ x}) := P ( X ≤ x)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 74
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel: Verteilungsfunktion beim Würfeln
Genauere Betrachtung der
Sprungstellen bei diskreten
Zufallsvariablen erforderlich:
F ( x + ) = lim F ( x + ε ); F ( x − ) = lim F ( x − ε )
ε →o ;ε > 0
ε →o ;ε > 0
P(a < X ≤ b) = F (b) − F (a)
⇒ P( x − ε < X ≤ x + ε ) = F ( x + ε ) − F ( x − ε )
⇒ lim P( x − ε < X ≤ x + ε ) = F ( x + ) − F ( x − )
ε →o ;ε > 0
⇒ P( X = x) = F ( x + ) − F ( x − )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 75
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel: Würfeln einer „3“:
P(X=3) = F(3+) - F(3-) = F(3) – F(2)
Bei stetiger Verteilungsfunktion F(x) ist P(X=x)=0.
Funktionswert an der Unstetigkeitsstelle:
z.B. F(3) = P(X<3) = 3/6 = F(3+)
Die Verteilungsfunktion ist rechts – stetig.
+
F ( x) = F ( x )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 76
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Folgerungen:
P (a < X ≤ b) = F (b) − F (a )
P (a ≤ X ≤ b) = P(a ) + F (b) − F (a ) = F (a + ) − F (a − ) + F (b) − F (a )
= F (b) − F (a − )
P (a ≤ X < b) = F (b) − F (a − ) − P (b) = F (b) − F (a − ) − F (b + ) + F (b − )
= F (b − ) − F (a − )
P (a < X < b) = F (b − ) − F (a − ) − P (a ) = F (b − ) − F (a − ) − F (a + ) + F (a − )
= F (b − ) − F (a + )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 77
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.3 Wahrscheinlichkeitsverteilung einer diskreten
Zufallsvariablen
Bei einer diskreten Zufallsvariablen X gehört zu
jedem Wert xi, den sie annehmen kann, eine
bestimmte Wahrscheinlichkeit:
„Verteilungstabelle“
P ( X = xi ) = pi
Wahrscheinlichkeitsfunktion der diskreten Verteilung:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 78
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
x = xi
 pi
f ( x) = 
für
mit f ( xi ) = pi ≥ 0
sonst
0
∞
∞
∑ f (x ) = ∑ p
i
i =1
i
= 1 (Normierung)
i =1
Anschaulich:
f(x) ist die Wahrscheinlichkeit dafür, dass die
Zufallsvariable X den Wert x annimmt: „Antwort auf
genau x“.
Zugehörige Verteilungsfunktion der diskreten
Zufallsvariablen:
Treppenfunktion mit
F ( x) = P( X ≤ x) = ∑ f ( xi ) Sprungstellen bei xi der
xi ≤ x
Höhe pi
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 79
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 80
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel: Wurf eines Würfels
Diskrete Zufallsvariable X =
Erreichte Augenzahl
Stabdiagramm der
Wahrscheinlichkeitsfunktion
f(x)
Verteilungsfunktion F(x)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 81
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel:
Wurf mit zwei unterscheidbaren Würfeln
Diskrete Zufallsvariable:
X = Augensumme
Häufigkeitstabelle:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 82
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.4 Wahrscheinlichkeitsverteilung einer stetigen
Zufallsvariablen
Kontinuierliche Zufallsgrößen (stetige Zufallsvariablen) können in einem Intervall jeden Wert
annehmen.
Typische Vertreter: Messwerte, z.B. Längenmaße,
Spannungen, Viskositäten usw.
Definition :
X heißt kontinuier lich (oder stetig), falls für die
Verteilungsfunktion F eine Darstellung existiert mit
x
F ( x) =
∫ f (t ) dt
−∞
mit f ≥ 0 und integrierbar als " Dichtefunk tion"
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 83
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
+∞
Wegen lim F ( x) = 1
x →∞
⇒
∫ f (t ) dt = 1
Normierung
−∞
P (a < X ≤ b) = F (b) − F (a ) =
b
a
b
−∞
−∞
a
∫ f (t ) dt − ∫ f (t ) dt = ∫ f (t ) dt
Wahrscheinlichkeit, dass die stetige Zufallsvariable
X exakt den Wert a annimmt:
a +δ
0 ≤ P( X = a ) ≤ P(a − δ < X < a + δ ) =
∫δ f (t ) dt δ→ 0
→0
a−
⇒ P( X = a ) = 0
Bei stetigen Zufallsvariablen ist die Wahrscheinlichkeit für die Realisierung eines exakten Wertes immer
Null! Nur für die Lage in einem Intervall ergeben sich
von Null verschiedene Wahrscheinlichkeiten.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 84
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Eigenschaften der Verteilungsfunktion einer
kontinuierlichen Zufallsgröße X:
•Die Verteilungsfunktion F einer kontinuierlichen
Zufallsgröße X ist stetig
•F ist stetig differenzierbar, wenn es eine stetige
Dichtefunktion f zu F gibt. Dann ist
F ' ( x) = f ( x) ∀x ∈ R
Bei kleinen Intervallen beliebte Näherung für die
konkrete Berechnung:
P(a −
δ
δ
< X ≤a+ )=
2
2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
a+
δ
2
∫δ f (t ) dt ≅ f (a) ⋅ δ
a−
2
30. August 2016 | 85
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel: Kontinuierliche Gleichverteilung
Für eine im Intervall [a;b] gleichverteilte Zufallsvariable X gilt:
 1
für

f X ( x) =  b − a
0 sonst
x ∈ [a; b]
0
x
x −a

FX ( x) = ∫ f X (t ) dt = 
−∞
b − a
1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
für
x≤a
für
a< x≤b
für
x>b
Verteilungsfunktion
30. August 2016 | 86
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Beispiel: Exponentialverteilte Lebensdauer eines
elektronischen Bauteils
0 für t < 0
f (t ) = 
c ⋅ exp{− 0,1 ⋅ t} für t ≥ 0
c = 0,1 aus Normierung
0 für t < 0
F (t ) = 
1 − exp{− 0,1 ⋅ t} für t ≥ 0
Anteil von Bauelementen,
deren Lebensdauer den
Wert t=10 überschreitet:
P (t ≥ 10) = 1 − F (10) = 1 − (1 − e −1 ) = e −1 = 0,368
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 87
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Zusammenfassung: Wahrscheinlichkeitsverteilung
einer stetigen Zufallsvariablen
Bekanntester Vertreter:
Gaußsche
Normalverteilung
(s. Kap. I.5)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 88
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.5 Funktionen einer Zufallsgröße:
Transformierte Zufallsvariable
Häufig vorkommendes Problem:
Die Verteilungsfunktion FX(x) einer Zufallsvariablen
X ist bekannt, wie verhält sich die Verteilung einer
daraus nach Y:=g(X) berechneten Größe
(neue Zufallsvariable)?
„Abbildungskette“
Ω → R → R
X
Y
Bedingung für g:
Der Definitionsbereich von g muss den Wertebereich
von X enthalten!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 89
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
1.) g1 ( X ) = a ⋅ X + b Lineare Transformation
U = R ⋅ I +U0
2.) g 2 ( X ) =| X | Betragsfunktion
Beispiele:
Gleichrichter
3.) g 3 ( X ) = a ⋅ X 2
Ekin
m 2
= ⋅v
2
Energiefunktion
oder
Pel = R ⋅ I 2
Transformation der Verteilungsfunktion
(Problem: g(x) nicht immer eindeutig umkehrbar)
Ziel : Verteilungsfunktion der transformi erten Variablen
FY ( y ) = P (Y ≤ y )
durch die bekannten Größen FX ( x) und g ( x) ausdrücken .
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 90
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
g ( X ) ≤ y legt Intervalle fest, für die die Ungleichung
erfüllt ist:
Fasse alle Intervalle,
die die Ungleichung
erfüllen, in einer
Menge θ zusammen:
Θ := {x | g ( x) ≤ y}
Damit sind die Wahrscheinlichkeiten der beiden
Ereignisse {g ( X ) ≤ y} und {X ∈ Θ} gleich, wobei man
P( X ∈ Θ) aus FX(x) berechnen kann.
FY(y) ist nicht immer geschlossen darstellbar,
nur bei eineindeutigen Abbildungen Y=g(X).
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 91
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Wichtiger Spezialfall:
g sei streng monoton wachsend auf dem Wertebereich von X
FY ( y ) = P({ω ∈ Ω | Y (ω ) ≤ y}) = P({ω ∈ Ω | g ( X (ω )) ≤ y})
({
})
= P ω ∈ Ω | X (ω ) ≤ g −1 ( y ) = FX ( g −1 ( y ))
Beispiel: Lineare Transformation
Y = g ( X ) = a ⋅ X + b; a > 0
y −b
FY ( y ) = FX ( g ( y )); x =
= g −1 ( y )
a
 y −b
⇒ FY ( y ) = FX 

 a 
−1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 92
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Transformation der Dichtefunktion
Einfachster Weg, falls FY(y) geschlossen darstellbar:
dFY ( y )
fY ( y ) =
dy
Beispiel: Lineare Transformation
d
 y −b
 y −b
 y −b d  y −b
FY ( y ) = FX 
FX 
 ⇒ fY ( y ) =
 = fX 
⋅ 

dy  a 
 a 
 a  dy  a 
 y −b 1
= fX 
⋅
 a  a
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 93
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Allgemein:
(Anschaulicher Beweis über die Wahrscheinlichkeit)
f X ( x ) ⋅ dx = fY ( y ) ⋅ dy
dx
1
⇒ fY ( y ) = f X ( x ) ⋅
= f X ( x) ⋅
dy
dy
dx
1
f X ( g −1 ( y ))
⇒ fY ( y ) = f X ( x) ⋅
=
−1
g ' ( x) g ' ( g ( y ))
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 94
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.6 Kennwerte oder Maßzahlen einer
Wahrscheinlichkeitsverteilung
Kennwerte erlauben eine zusammenfassende
Beschreibung einer Verteilung durch Angabe der
„mittleren Lage“ (z.B. Maximum der Dichte f) und
der „Breite“ (Streuung).
4.6.1 Lageparameter einer Verteilung
Wichtigster Lageparameter ist der „Erwartungswert“.
Beispiel: Mittlere Augenzahl beim Würfeln; alle
Augenzahlen sind gleich wahrscheinlich
n
1
1 n
1 n
⋅ (1 + 2 + 3 + 4 + 5 + 6) = 3,5 ⇒ ⋅ ∑ xi = ∑ xi ⋅ = ∑ xi ⋅ P( xi )
6
n i =1
n i =1
i =1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 95
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
X-Werte mit höherer Wahrscheinlichkeit werden
stärker gewichtet, darum Definition des Erwartungswertes E(X) einer diskreten Zufallsvariablen X:
E ( X ) := ∑ xi ⋅ P( X = xi )
falls
i
E ( X ) := ∑ X (ω i ) ⋅ P({ω i })
i
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
∑ | x | ⋅P( X = x ) <" ∞"
i
i
i
ωi ∈ Ω
30. August 2016 | 96
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Erwartungswert einer kontinuierlichen Zufallsgröße
Annahme : Der Wertebereich von X sei R; f X ( x ) sei stetig
Wahrscheinlichkeit, dass X im Intervall [xi ; xi + ∆x ] liegt :
P( xi < X ≤ xi + ∆x ) ≈ f X ( xi ) ⋅ ∆x
Äquidistante Unterteilung der x - Achse : xi +1 − xi = ∆x ∀i
⇒ E( X ) =
∞
∑ x ⋅ P( x
i
i
< X ≤ xi + ∆x )
i = −∞
≈
+∞
∞
+∞
∆x →0
⋅
(
)
⋅
∆

→ ∫ x ⋅ f X ( x ) dx
x
f
x
x
∑i X i
i = −∞
−∞
Vorraussetzung:
∫| x | ⋅ f
X
( x) dx <" ∞"
−∞
+∞
E( X ) = µ X =
∫ x⋅ f
X
( x) dx
„Schwerpunkt“ der Dichtefunktion
−∞
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 97
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Eigenschaften und Berechnung des Erwartungswertes
Diskrete Zufallsvariable, im allgemeinen :
a) µX ≠ X
(X berechnet aus allen x i ∈ WX )
b) µ X ≠ xi
∀xi ∈ WX
Stetige Zufallsvariable :
µX ist im allgemeinen nicht der Abszissenwert des Maximums der
Dichtefunktion, nur bei symmetrischen Dichtefunktionen liegt der
Flächenschwerpunkt immer auf der Symmetrieachse
E ( X ) = xS
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 98
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Bei Transformation auf eine neue Zufallsvariable
Y=g(X):
+∞
E (Y ) = µY =
∫ y⋅ f
Y
( y ) dy
−∞
E ( a ⋅ X + b) = a ⋅ E ( X ) + b
+∞
E (Y ) = µY =
∫ g ( x) ⋅ f
Speziell bei linearer
Transformation:
X
( x) dx
−∞
Erwartungswert unanschaulich bzw. irreführend bei
sehr „schiefen“ Verteilungen: Studiendauer
Alternative zum Erwartungswert:
Median (Wert, der die Verteilung „halbiert“)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
~
x = x0,5
30. August 2016 | 99
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Einfach bei stetigen Zufallsvariablen:
P( X ≤ ~
x ) = FX ( ~
x) =
~
x
∫f
X
( x) dx = 0,5
−∞
Vorteil: Der Median existiert immer!
Der Median ist problematischer bei diskreten
Zufallsvariablen:
Bis auf wenige Ausnahmen gibt es keinen x-Wert
der Zufallsvariablen X, bei dem die Verteilungsfunktion exakt den Wert 0,5 annimmt.
Daher ist andere Definition erforderlich:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 100
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
1
1
~
~
P( X < x ) ≤ und P ( X ≤ x ) ≥
2
2
Anschaulich:
Man sucht in der Verteilungsfunktion FX(x) den
Sprung von FX(xi)<0,5 auf FX(xi+1)>0,5. xi+1 ist
dann der gesuchte Median.
Für den seltenen Fall mit FX(xi)=0,5 ist xi der
gesuchte Median.
Der Median ist nur ein Spezialfall des „α-Quantils“ xα
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 101
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
P( X < xα ) ≤ α und P( X ≤ xα ) ≥ α
1
α=
4
3
α=
4
„Unteres Quartil“
„Oberes Quartil“
Der Quartilabstand x0,25 – x0,75 ist ein Streuungsmaß,
denn im Intervall zwischen unterem und oberem
Quartil liegen die „inneren“ 50% der Verteilung!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 102
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.6.2 Streuungsparameter einer Verteilung
Ziel: Maß für die „Breite“ einer Verteilung finden,
z. B. mittlere Abweichung einer Zufallsvariablen X
von ihrer mittleren Lage.
Y := X − µ mit µ = E ( X )
⇒ E (Y ) = E ( X − µ ) = E ( X ) − µ = 0
Mittlere Abweichung von der mittleren Lage ist
ungeeignet!
Daher Definition der Varianz bzw.
Standardabweichung als Streuungsmaß:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 103
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
X sei eine Zufallsvariable mit Erwartungs wert E(X) = µ
" Varianz" V(X) := E((X - µ )2 ) = σ 2
" Standardab weichung" σ = V(X)
Konkrete Berechnung:
V ( X ) = ∑ ( xi − µ ) 2 ⋅ P ( X = xi )
X diskret
i
+∞
V ( X ) = ∫ ( x − µ ) 2 f ( x) dx
X kontinuierlich
−∞
Konkrete Berechnung in der Praxis immer nach
dieser Definition?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 104
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Wichtiger Zusammenhang zwischen Erwartungswert
und Varianz:
+∞
σ 2 = E (( X − µ ) 2 ) = E ( X 2 − 2 µX + µ 2 ) = ∫ ( x 2 − 2 µx + µ 2 ) f ( x ) dx =
−∞
=
+∞
+∞
+∞
−∞
−∞
−∞
2
2
x
f
(
x
)
dx
−
2
x
f
(
x
)
dx
+
µ
µ
∫
∫
∫ f ( x ) dx
= E ( X 2 ) − 2µ 2 + µ 2 = E ( X 2 ) − µ 2
Ist µ bekannt, braucht man „nur“ noch den
Erwartungswert von X2 zu berechnen!
Speziell bei linearer Transformation:
V ( a ⋅ X + b) = a 2 ⋅ V ( X )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Beweis?
30. August 2016 | 105
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
Durch Umformung gewinnt man daraus eine
nützliche Abschätzung:
Sei ε > 0
+∞
µ −ε
−∞
−∞
σ 2 = ∫ ( x − µ ) 2 f ( x) dx ≥
2
µ
(
x
−
)
f ( x) dx +
∫
+∞
2
µ
(
x
−
)
f ( x) dx
∫
µ +ε
x ∈ (− ∞; µ − ε ] ⇒ ( x − µ ) ∈ (− ∞;−ε ] ⇒ ( x − µ ) 2 ≥ ε 2
x ∈ [µ + ε ; ∞ ) ⇒ ( x − µ ) ∈ [ε ; ∞ ) ⇒ ( x − µ ) 2 ≥ ε 2
µ −ε
⇒σ 2 ≥ε2
∫
+∞
f ( x) dx + ε 2
−∞
∫µ ε
f ( x) dx = ε 2 ⋅ P(| X − µ |≥ ε )
+
σ2
P(| X − µ |≥ ε ) ≤ 2
Tschebyscheff-Ungleichung
ε
Je kleiner die Varianz, um so unwahrscheinlicher
werden große Abstände von X zum Erwartungswert!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 106
I. Wahrscheinlichkeitsrechnung
I.4 Wahrscheinlichkeitsverteilung einer
Zufallsvariablen
4.6.3 Verallgemeinerte Momente einer Verteilung
Verallgemeinertes Moment k-ter Ordnung zur
Dichtefunktion f(x):
Zwei wichtige Spezialfälle:
+∞
E (( X − a ) k ) = ∫ ( x − a ) k f ( x) dx a=µ („Zentralmomente“)
−∞
und a=0 („Momente“)
Rückschlüsse auf die
Symmetrie der
Dichtefunktion, z.B. aus
experimentellen Daten.
MS=-0,81
MS=1,62
„Schiefe“
MS =
(
E ( x − µ )3
σ3
)=
s3
s23 / 2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 107
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.1 Binomialverteilung
Bernoulli-Experiment
Zwei verschiedene, sich gegenseitig ausschließende
Ereignisse treten mit konstanter Wahrscheinlichkeit
p bzw. 1-p ein, auch bei Wiederholung des
Experimentes.
Beispiele :
1) Wurf einer Münze : A : " Zahl" ; A : " Wappen"
1
1
p = P ( A) = ; q = 1 − p = P ( A ) =
2
2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 108
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
2) Ziehung einer weißen Kugel aus einer Urne mit 5 weißen
und 3 schwarzen Kugeln
A : " Ziehung einer weißen Kugel" ;
A : " Ziehung einer schwarzen Kugel"
5
3
p = P ( A) = ; q = 1 − p = p( A ) =
8
8
Bei mehrfachen Ziehungen : Mit Zurücklegen!
„Bernoulli-Experiment vom Umfang n“
Mehrstufen-Experiment: n-fache Ausführung eines
Bernoulli-Experiments mit der Voraussetzung, dass
die Ergebnisse der einzelnen Stufen voneinander
unabhängig sind.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 109
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Zufallsvariable:
X=Anzahl der Versuche, in denen das Ereignis A
bei einer n-fachen Ausführung des BernoulliExperiments eintritt.
Ω = {0;1; 2;K n}
Gesucht:
Wahrscheinlichkeit für das Ereignis X=x, d.h. das
Ereignis A tritt bei n Versuchsdurchführungen
genau x-mal ein.
Urnenmodell:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 110
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Ereignis A: „Ziehung einer weißen Kugel“; P(A)=p;
Ziehung von n Kugeln mit Zurücklegen:
x weiße und n-x schwarze Kugeln wurden gezogen
Eine mögliche Realisierung der Zufallsvariablen:
Wahrscheinlichkeit für diese spezielle Realisierung:
(Multiplikationssatz für stochastisch unabhängige
Ereignisse)
x
n− x
( p ⋅ p ⋅ p ⋅K ⋅ p) ⋅ (q ⋅ q ⋅ q ⋅K ⋅ q) = p ⋅ q
1442443 144244
3
x − mal
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
( n − x ) − mal
30. August 2016 | 111
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Weitere Realisierungen von X=x entstehen durch
Permutation der n gezogenen Kugeln, wobei eine
Vertauschung der Anordung innerhalb der x weißen
bzw. n-x schwarzen Kugeln keine neue Realisierung
bildet:
Alle Realisierungen
 n
n!
P(n; x; n − x) =
=   (Anordnungen) schließen
x!⋅(n − x)!  x  sich gegenseitig aus;
Additionssatz:
Wahrscheinlichkeitsfunktion der Binomialverteilung:
 n  x n− x
f ( x) = P ( X = x) =   ⋅ p ⋅ q
 x
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
( x = 0,1, 2, K n)
30. August 2016 | 112
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
 n
f ( x) = P( X = x) =   ⋅ p x ⋅ q n − x
 x
( x = 0,1, 2,K n)
Die Wahrscheinlichkeiten f(x)
entsprechen der Reihe nach den
Summanden in der binomischen
Entwicklung von (q+p)n:
 n  n−2 2
 n  n −1


pn
( q + p ) = q{ +   ⋅ q ⋅ p +   ⋅ q ⋅ p + K + {
1
2
1
f ( 0)
f (n)
4243 142
4 43
4
n
n
f (1)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
f ( 2)
30. August 2016 | 113
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Verteilungsfunktion
 n  k n−k
F ( x) = P ( X ≤ x) = ∑   ⋅ p ⋅ q
k≤x  k 
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 114
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.2 Hypergeometrische Verteilung
Problem:
Ziehung ohne Zurücklegen ist kein BernoulliExperiment mehr, da sich die Wahrscheinlichkeit p
durch das Ziehen einer Einheit verändert!
Urnenmodell:
N
  Möglichkeiten,
n
n Kugeln ohne Zurücklege n zu ziehen.
(Kombinati on n - ter Ordnung von
N Elementen ohne Wiederhol ung)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 115
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
M 
  Möglichkeiten,
 x
x weiße Kugeln aus den
M weißen auszuwähle n
N −M 

 Möglichkeiten,
 n−x 
n - x schwarze Kugeln aus den
N - M schwarzen auszuwählen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 116
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsfunktion
hypergeometrische Verteilung:
M  N − M 

  ⋅ 
x
n−x 
f ( x ) = P ( X = x) =   
N
 
n
Mittelwert
und Varianz:
M
N
n M ( N − M )( N − n)
2
σ =
N 2 ( N − 1)
µ =n
( x = 0,1, 2, K n)
Merke:
Ziehung mit Zurücklegen:
Binomialverteilung
Ziehung ohne Zurücklegen:
Hypergeometrische
Verteilung
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 117
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Faustregel:
Die hypergeometrische Verteilung kann näherungsweise durch die „bequemere“ Binomialverteilung
ersetzt werden, falls gilt:
n < 0,05 ⋅ N
h( x; N , M , n) ≈ b( x; n, p) mit
M
p=
N
Wie sieht`s aus beim Skat?
Wahrscheinlichkeit, vier Buben auf die Hand zu
bekommen?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 118
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.3 Poisson - Verteilung
Bernoulli – Experimente, bei denen Ereignisse mit
nur sehr geringen Wahrscheinlichkeiten auftreten:
Rutherford – Geiger Experiment 1910
2608 Zeitintervalle von je 7,5s Länge: Insgesamt
10097 Zerfälle beobachtet. Im Mittel also 3,87
Zerfälle während eines Zeitintervalles von 7,5s
Länge, aber eben nur im Mittel:
Radioaktiver Zerfall
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 119
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Gesucht:
Verteilung für „seltene Ereignisse“!
 n x
µ x −µ
n− x
lim   ⋅ p ⋅ (1 − p ) =
⋅e
n →∞  x 
x!
n⋅ p = µ  
( x = 0;1; 2 K)
Wahrscheinlichkeitsfunktion der
Poisson-Verteilung:
f ( x) = P ( X = x) =
µx
x!
⋅ e−µ
( x = 0,1, 2, K )
f(x) ist durch den Parameter µ eindeutig festgelegt:
Erwartungswert
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 120
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Faustregel:
Die Binomialverteilung
kann näherungsweise
durch die „bequemere“
Poisson-Verteilung
ersetzt werden, falls
gilt:
n ⋅ p < 10 und
n > 1500 ⋅ p
b( x; n, p ) ≈ po( x; µ )
mit µ = n ⋅ p
Merke:
Anteil/Anzahl in einer Stichprobe: Binomialverteilung
Zahl pro Einheit: Poisson - Verteilung
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 121
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.4 Gaußsche - Normalverteilung
Betrachte die Wahrscheinlichkeitsfunktion der
Binomialverteilung im Grenzfall eines gegen
unendlich strebenden Stichprobenumfangs n:
Lokaler Grenzwertsatz von de Moivre-Laplace
2


 n k
k
np
1
(
−
)
n−k
  ⋅ p ⋅ (1 − p ) =
⋅ exp−
 ⋅ [1 + Rn (k )]
2π ⋅ np(1 − p )
k
 2np (1 − p ) 
mit lim Rn (k ) = 0
n →∞
Linke Seite:
Rechte Seite:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
n und k ganzzahlig
Auch für reelle Werte von n und
k auswertbar!
30. August 2016 | 122
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Idee: Schreibe im Grenzfall die rechte Seite als
Wahrscheinlichkeitsdichte
 (k − np) 2  !
1
⋅ exp−
 = f (k ) ⋅ dk
2π ⋅ np(1 − p)
 2np(1 − p) 
k − np
Substitution : x :=
np(1 − p)
 x2 
1
f (k ) dk = f ( x) dx ⇒ f ( x) =
⋅ exp− 
2π
 2
!
Eigenschaften von
 x2 
1
⋅ exp− 
f ( x) =
2π
 2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 123
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
f (− x) = f ( x) symmetrisc h um Null
+∞
 x2 
1
µ = ∫ x⋅
⋅ exp−  dx = 0
2π
 2
−∞
+∞
2


1
x
2
2
2
σ = ∫x ⋅
⋅ exp−  dx =
2π
2π
 2
−∞
„Standardnormalverteilung“
„X ist N(0;1) – verteilt“
∞
2


x
2
∫0 x ⋅ exp− 2  dx = 1
144
42444
3
=
π
2
Verallgemeinerung: Betrachte neue Zufallsvariable
Y =σ ⋅ X + µ
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Lineare Transformation!
30. August 2016 | 124
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
 ( y − µ )2 
1
 y−µ

⋅ exp −
fY ( y ) =
⋅ fX 
 ⇒ fY ( y ) =
2
|σ |
2σ
σ ⋅ 2π
 σ 


1
(σ > 0)
Bei Umbenennung von Y in X:
 ( x − µ )2 

f X ( x) =
⋅ exp −
2
2σ
σ ⋅ 2π


1
Dichte der Normalverteilung
„X ist N(µ;σ2) – verteilt“
Eigenschaf ten :
1) f(x) ist symmetrisc h um x = µ
1
bei x = µ
σ 2π
3) f(x) hat Wendepunk te bei x = µ ± σ
2) f(x) hat ein Maximum der Höhe
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 125
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
σ bestimmt „Höhe“ und „Breite“
der Wahrscheinlichkeitsdichtefunktion; µ bestimmt die Lage
des Maximums.
Verteilungsfunktion der Gaußschen Normalverteilung:
 (t − µ ) 2 
 dt
F ( x) = P ( X ≤ x) =
⋅ ∫ exp −
2
2σ 
σ ⋅ 2π −∞ 
1
x
Problem:
Das Integral ist nicht geschlossen lösbar!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 126
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Integral numerisch lösen und ausführlich
tabellieren!
Mit vertretbarem Aufwand aber nur für eine
Kombination aus (µ;σ) machbar:
Für die Standardnormalverteilung!
Jede Gaußsche Normalverteilung läßt sich auf die
Standardnormalverteilung transformieren.
Die konkrete Berechnung der Verteilungsfunktion
erfolgt daher in zwei Schritten:
1) Transformation der Variablen auf eine
„standardisierte Variable“
2) Ablesen der Verteilungsfunktion in der Tabelle der
Standardnormalverteilung
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 127
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Transformation auf
standardisierte Variable
u=
x−µ
σ
Wahrscheinlichkeitsdichte
der
Standardnormalverteilung
Verteilungsfunktion der
Standardnormalverteilung
u=
x−µ
σ
⇒ F ( x ) = G (u )
G(u) ist tabelliert
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 128
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
x−µ
P( X ≤ x ) = F ( x ) = Φ 
 = Φ (u )
σ


x−µ
P( X ≥ x ) = 1 − P( X ≤ x ) = 1 − Φ 

 σ 
= 1 − Φ (u )
P ( a ≤ X ≤ b) = F ( b ) − F ( a )
b−µ
a−µ
= Φ
 − Φ

 σ 
 σ 
Symmetrische Intervalle:
P ( µ − kσ ≤ X ≤ µ + kσ ) = F ( µ + kσ ) − F ( µ − kσ )
= Φ (k ) − Φ (− k ) = Φ (k ) − (1 − Φ (k )) = 2 ⋅ Φ (k ) − 1
 0,6826

= 0,9544
 0,9973

© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
für k = 1
für k = 2
für k = 3
30. August 2016 | 129
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
P(U ≤ c) = Φ (c) = 0,9
⇒ c = u0,9 = 1,282
Quantile
P (U ≥ c) = 1 − P(U ≤ c)
= 1 − Φ (c) = 0,9
⇒ Φ (c) = 0,1
⇒ c = u0,1 = −1,282
P (U ≤ c) = Φ (c)
= 0,95 + 0,025 = 0,975
⇒ c = u0,975 = 1,960
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 130
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.5 „Spezialitäten“
Geometrische Verteilung: Diskrete Verteilung für
das „Warten auf den ersten Erfolg“
•Erste Sechs bei „Mensch ärgere Dich nicht“
•Pasch im Gefängnis von „Monopoly“
•Periodische kurze Belastungen ohne Nachwirkung,
die Geräte, Bauteile etc. funktionsuntüchtig machen
Die Zufallsvariable X besitzt eine geometrische
Verteilung mit Parameter p (0<p<1), falls ihre
Verteilung gegeben ist durch:
P ( X = k ) = (1 − p ) ⋅ p; k ∈ N 0
k
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
X ist die Zahl der „Nieten“ vor
dem ersten „Treffer“, der mit
Wahrscheinlichkeit p eintritt.
30. August 2016 | 131
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Erwartungswert : E ( X ) =
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
1− p
p
Varianz : σ 2 =
1− p
p2
30. August 2016 | 132
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Negative Binomialverteilung:
(Verallgemeinerung der Geometrischen Verteilung)
Betrachte die Wahrscheinlichkeit, dass in einem
Bernoulli-Experiment der r-te Erfolg (Treffer,
Einzelwahrscheinlichkeit p, r = 1,2,3,...) im k-ten
Versuch (k ≥ r) auftritt.
 k − 1
 ⋅ (1 − p) k − r ⋅ p r ; k = r , r + 1, r + 2,K
P(Y = k ) = 
 r − 1
Bei Betrachtung der Zufallsvariablen X = Y-r (Zahl
der Misserfolge bis zum r-ten Erfolg) ergibt sich die
Wahrscheinlichkeitsfunktion der negativen
Binomialverteilung:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 133
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
 r + k − 1
 ⋅ (1 − p ) k ⋅ p r ; k = 0,1, 2, K
P ( X = k ) = 
 k 
Erwartungswert : E ( X ) = r ⋅
1− p
;
p
Varianz : σ 2 = r ⋅
1− p
p2
Falls r ganzzahlig: „Pascal – Verteilung“
Anwendungen:
•Modellierung von Ansteckungsvorgängen
(Schädlinge auf Blättern oder Bäumen)
•Versicherungsmathematik: Modell für
Schadenzahlen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 134
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Stetige gleichmäßige Verteilung:
(Analogon zur diskreten gleichmäßigen Verteilung)
Die Zufallsvariable X kann im Intervall [a; b] alle Werte mit gleicher
Wahrscheinlichkeit annehmen; Wahrscheinlichkeitsdichte :
1

für a ≤ x ≤ b
f ( x) =  b − a
0 für x < a und x > b
Erwartungswert
b
E( X ) = µ = ∫ x ⋅
a
b+a
1
dx =
b−a
2
Varianz
b
1
(b − a ) 2
Var ( X ) = σ = ∫ ( x − µ ) ⋅
dx =
b−a
12
a
2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
2
30. August 2016 | 135
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Weibull - Verteilung:
Beschreibung des Ausfallverhaltens von Geräten,
Baugruppen etc.
Dreiparame trige Weibull - Verteilung
Wahrschein lichkeitsdichte :
 b  x − c b −1
  x − c b 
 ⋅
⋅ exp− 
  für x > c
f ( x) =  a  a 
  a  
0
für x ≤ c

Verteilungsfunktion

  x − c b 
1 − exp− 
 
F ( x) = 
  a  
0
für x ≤ c

© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
für
x>c
30. August 2016 | 136
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
a: Maßstabsparameter
(Charakteristische Lebensdauer)
b: Formparameter (Ausfallsteilheit)
c: Lageparameter (Ausfallfreie Zeit; c=0:
zweiparametrige Weibullverteilung)
Spezialfall: b=1; c=0
Exponentialverteilung
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 137
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5.6 Zusammenfassung und Näherungen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 138
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
µ>9
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 139
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Beispiel: Näherung der Binomialverteilung
durch die Normalverteilung
1
n = 10; p = ; 10 Münzwürfe;
2
X = Anzahl mit dem Ergebnis " Zahl"
Wahrscheinlichkeitsfunktion der Binomialverteilung
x
10− x
10   1   1 
f B ( x ) =   ⋅   ⋅  
 x  2 2
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
1 10 
=
⋅  
1024  x 
30. August 2016 | 140
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
n ⋅ p ⋅ (1 − p ) = 2,5 ⇒ Näherung durch die Normalverteilung
eigentlich noch nicht erlaubt! (zu ungenau)
Wir versuchen es trotzdem : µ = n ⋅ p = 5; σ = n ⋅ p ⋅ (1 − p ) = 2,5
Dichtefunktion der Normalverteilung
f N ( x) =
2

1
1
 1  x − 5  
 1

  =
⋅ exp − ( x − 5)2 
⋅ exp − ⋅ 
2π ⋅ 2,5
5π
 5

 2  2,5  
Vergleich
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 141
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeit, bei 10 Würfen drei-, vier bzw. fünfmal " Zahl" zu erhalten :
P (3 ≤ x ≤ 5) = f B (3) + f B (4) + f B (5) = 0,5684
Verschieben der drei Stäbe um jeweils 0,5 nach
links und nach rechts:Histogramm
Breite der Rechtecke: ∆x=1, Höhe:fB(x)
Gesamtfläche: Gesuchte Wahrscheinlichkeit
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 142
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
1
 1
2
⋅ exp− ⋅ ( x − 5) 
Näherungslösung f N ( x) =
5π
 5

Das Histogramm ist die
gesuchte exakte Wahrscheinlichkeit:
Für eine vernünftige Näherung
müssen die alten Intervallgrenzen um 0,5 nach außen
verschoben werden, sonst ist
die Fläche unter der Gaußschen Glockenkurve zu klein!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 143
I. Wahrscheinlichkeitsrechnung
I.5 Spezielle Wahrscheinlichkeitsverteilungen
5, 5
P(3 ≤ X ≤ 5) ≈
∫
2,5
1
 1
2
⋅ exp− ⋅ ( x − 5)  = F (5,5) − F (2,5)
5π
 5

Standardis ieren :
5,5 − 5
2,5 − 5
uo =
= 0,316 uu =
= −1,581
2,5
2,5
P(3 ≤ X ≤ 5) ≈ Φ (0,316) − Φ (−1,581) = 0,5670
Allgemein :
 b + 0,5 − µ 
 a − 0,5 − µ 
P( a ≤ X ≤ b) ≈ F (b + 0,5) − F ( a − 0,5) = Φ 
−
Φ



σ
σ




© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 144
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.1 Einführendes Beispiel
Zwei oder mehr Zufallsvariablen werden gleichzeitig
beobachtet:
Mehrdimensionale Wahrscheinlichkeitsverteilungen
Beispiel: Gleichzeitiger Wurf einer Münze und eines
Würfels
X=„Anzahl Wappen bei der Münze“;
Y=Augenzahl beim Würfel
X ∈ {0;1} Y ∈ {1; 2; 3; 4; 5; 6}
Für die zweidimensionale
Zufallsvariable (X,Y) gibt
es damit 12 verschiedene
Elementarereignisse:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 145
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Laplace-Experiment: Alle Elementarereignisse
treten mit derselben Wahrscheinlichkeit ein
1
P ( X = x; Y = y ) =
12
( x = 0,1; y = 1, 2, K 6)
Verteilungstabelle:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 146
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Die Wahrscheinlichkeitsfunktion dieser zweidimensionalen Verteilung ist dann eine Funktion von zwei
unabhängigen Variablen:
1 / 12
f ( x; y ) = P ( X = x; Y = y ) = 
 0
für
x = 0,1; y = 1, 2, K , 6
alle übrigen ( x; y )
Räumliches Stabdiagramm dieser diskreten
Wahrscheinlichkeitsfunktion:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 147
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
In der Verteilungstabelle die
Wahrscheinlichkeitswerte zeilenweise addieren:
f1 (0) = ∑
y
1 1
f (0; y ) = 6 ⋅ =
12 2
f1 (1) = ∑ f (1; y ) = 6 ⋅
y
1 1
=
12 2
f1(x) ist die Wahrscheinlichkeit für das Ereignis
X=x, unabhängig von der gewürfelten Augenzahl Y.
In der Verteilungstabelle die Wahrscheinlichkeitswerte spaltenweise addieren:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 148
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
1 1
=
12 6
1 1
f ( x;2) = 2 ⋅ =
12 6
f 2 (1) = ∑ f ( x;1) = 2 ⋅
x
f 2 (2) = ∑
x
M
f 2 (6) = ∑ f ( x;6) = 2 ⋅
x
f2(y) ist die Wahrscheinlichkeit
für das Ereignis Y=y,
unabhängig vom Ergebnis des
Münzwurfes X.
1 1
=
12 6
Die beiden eindimensionalen Wahrscheinlichkeitsfunktionen f1(x) und f2(y) der Zufallsvariablen X und
Y werden als Randverteilungen der zweidimensionalen Verteilung (X;Y) bezeichnet.
Hier ist f(x;y)=f1(x) f2(y)
Dies gilt aber nicht allgemein! (s. später!)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 149
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.2 Zweidimensionale Wahrscheinlichkeitsverteilungen
Verteilungsfunktion einer zweidimensionalen
Zufallsvariablen
Die Wahrscheinlichkeitsfunktion einer
zweidimensionalen Zufallsvariablen (X;Y) (auch
„Zufallsvektor“ genannt) lässt sich vollständig
durch die Verteilungsfunktion darstellen:
„Gemeinsame Verteilung“
der Zufallsvariablen X und Y:
F ( x; y ) = P( X ≤ x; Y ≤ y )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 150
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Eigenschaften der Verteilungsfunktion:
lim F ( x; y ) = lim F ( x; y ) = 0
x → −∞
y → −∞
lim
F ( x; y ) = 1
x →∞
y →∞
P( a1 < X ≤ b1; a2 < Y ≤ b2 ) =
F (b1; b2 ) − F ( a1 ; b2 ) − F (b1; a2 ) + F (a1; a2 )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 151
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Diskrete zweidimensionale Verteilung
(X;Y) heißt diskret, wenn beide Komponenten
diskrete Zufallsvariablen sind.
Annahme:
X und Y können nur endlich viele Werte
annehmen:
x1 , x2 ,K xm
bzw.
y1 , y2 ,K yn
P( X = xi ;Y = yk ) = pik
Zweidimensionale
Verteilungstabelle
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 152
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Wahrscheinlichkeitsfkt.:
x = xi ; y = yk
 pik
f ( x; y ) = 
für
alle übrigen ( x; y )
0
f ( x; y ) ≥ 0
m
n
∑∑ f ( x ; y ) = 1
i
k
Normierung
i =1 k =1
Randverteilung von Y
Randverteilung von X
 pi *
x = xi ; i = 1, 2, K, m
f1 ( x) = 
für
alle übrigen x
0
Verteilungsfunktion:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
 pk **
y = yk ; k = 1, 2, K, n
f 2 ( y) = 
für
alle übrigen y
 0
F ( x; y ) = ∑ ∑ f ( xi ; yk )
xi ≤ x y k ≤ y
30. August 2016 | 153
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Stetige zweidimensionale Verteilung
(X;Y) heißt stetig, wenn beide Komponenten
stetige Zufallsvariablen sind.
Verteilungsfunktion:
y
x
F ( x; y ) =
∫ ∫ f (u; v) dv du
u = −∞ v = −∞
Dichtefunktion der
Randverteilung von X
∞
f1 ( x) =
∫ f ( x; y) dy
y = −∞
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Dichtefunktion:
∞
∞
∫ ∫ f ( x; y) dy dx = 1
x = −∞ y = −∞
Dichtefunktion der
Randverteilung von Y
∞
f 2 ( y) =
∫ f ( x; y) dx
x = −∞
30. August 2016 | 154
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Beispiel:
Zweidimensionale
Gleichverteilung
0 ≤ x ≤ 2; 0 ≤ y ≤ 5
const = c
f ( x; y ) = 
für
alle übrigen ( x; y )
0

P ( X ≤ 1; Y ≤ 3) = ?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 155
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.3 Stochastisch unabhängige Zufallsvariable
Hat bei gleichzeitiger Beobachtung zweier Zufallsvariablen X und Y der beobachtete Wert der einen
Zufallsvariablen Einfluss auf den Wert der anderen?
Beispiel:
Würfeln mit zwei unterscheidbaren Würfeln
X= Augenzahl 1. Würfel, Y=Augenzahl 2. Würfel
Definition:
Die Zufallsvariablen X und Y mit den Verteilungsfunktionen F1(x) und F2(y) und der gemeinsamen
zweidimensionalen Verteilungsfunktion F(x;y) heißen
stochastisch unabhängig, wenn die Bedingung
F(x;y)=F1(x)F2(y) für alle (x;y) erfüllt ist.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 156
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
•Ist die Bedingung nicht erfüllt, sind die Zufallsvariablen stochastisch abhängig
•Ist die Bedingung erfüllt, sind die beiden Ereignisse „X=x“ und „Y=y“ stochastisch unabhängig
•Sind X und Y stochastisch unabhängige
Zufallsvariable, so gilt für die Wahrscheinlichkeitsbzw. Dichtefunktionen f(x;y)=f1(x)f2(y)
•Sinngemäße Erweiterung auf n Zufallsvariablen
Beispiel: Positionsschwankungen bei Bohrlöchern
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 157
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Verteilung der Bohrlöcher in x - Richtung
Verteilung der Bohrlöcher in y - Richtung
2



1
 1 x − µ1 
 
f1 ( x) =
⋅ exp− 
2π ⋅ σ 1
 2  σ 1  
2



1
 1 y − µ 2 
 
f 2 ( y) =
⋅ exp− 
2π ⋅ σ 2
 2  σ 2  
Wegen stochastischer Unabhängig keit :
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
f ( x; y ) = f1 ( x) ⋅ f 2 ( y )
30. August 2016 | 158
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.4 Erweiterung auf n-dimensionale Zufallsvariablen
Über dem gleichen Wahrscheinlichkeitsraum sind mehrere (n)
Zufallsvariablen gleichzeitig erklärt :
X 1 : Ω → R; X 2 : Ω → R; X 3 : Ω → R;
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
X 4 : Ω → R;K
30. August 2016 | 159
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Definition :
r
Eine Funktion X = ( X 1 ,K X n ) : Ω → R n heißt n - dimensionale Zufallsgröße
(n - dimensionale Zufallsvariable oder kurz Zufallsvektor), wenn jede einzelne
Komponente X i eine Zufallsgröße (über der gleichen Ereignisalgebra) ist.
Die durch
FXr ( x1 ,K xn ) := P ( X 1 ≤ x1 , X 2 ≤ x2 ,K, X n ≤ xn )
gegebene Funktion FXr : R n → R heißt verbundene oder gemeinsame
r
Verteilungsfunktion von X .
Man kombiniere die Kenntnisse aus Analysis 2 mit
den bisher in der Stochastik gewonnenen…
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 160
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Definition :
r
Eine n - dimensiona le Zufallsgröße X = ( X 1 ,K X n ) heißt kontinuier lich oder stetig,
falls es eine nichtnegat ive, integrierbare Funktion f Xr : R n → R gibt mit
x1
xn
−∞
−∞
FXr ( x1 , K xn ) = ∫ K ∫ f Xr (t1 , Kt n ) dt1 K dt n
Die Funktion f Xr heißt (verbunden e oder gemeinsame ) Dichtefunk tion
der Zufallsgrößen X 1 , K X n .
∂n
FXr ( x1 , K xn ) = f Xr ( x1 , K xn )
∂x1 K ∂xn
Die Zufallsgrößen X 1 K X n heißen (vollständ ig) unabhängig , falls ihre gemeinsame
Verteilungsfunktion faktorisierbar ist : FXr ( x1 , K , xn ) = FX 1 ( x1 ) ⋅ FX 2 ( x2 ) K ⋅ FX n ( xn )
Dann ist auch
f Xr ( x1 , K , xn ) = f X 1 ( x1 ) ⋅ f X 2 ( x2 ) K ⋅ f X n ( xn ) für stetige Zufallsvariablen bzw.
P ( X 1 = x1 , K , X n = xn ) = P ( X 1 = x1 ) ⋅ K ⋅ P( X n = xn ) für diskrete Zufallsvariablen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 161
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.5 Summen von Zufallsgrößen
Die neue Zufallsvariable wird als Summe von
anderen Zufallsvariablen definiert:
Z := X 1 + X 2 + K X n
Den Zahlenwerten x1 := X 1 (ω ),K, xn := X n (ω ) eines Zufallsversuches
mit Resultat ω wird die Zahl z := x1 + K + xn als Ergebnis Z (ω ) der
neuen Zufallsgröße Z zugeordnet.
Beispiel für zwei Zufallsvariablen:
Z = X +Y
X ∈ {0,1,2,K} = N 0 Y ∈ {0,1,2,K} = N 0
⇒ ( X , Y ) ∈ {(i, j ) | i, j ∈ N 0 }
P( Z = 3) = ?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 162
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
P( Z = 3) = ?
P( Z = 3) = P( X = 0, Y = 3) + P( X = 1, Y = 2) + P( X = 2, Y = 1)
+ P( X = 3, Y = 0)
Allgemein :
k
P ( Z = k ) = ∑ P ( X = i; Y = k − i )
i =0
Diskreter Fall :
P( Z = z ) = ∑ P( X = xi ; Y = z − xi )
i
+∞
Kontinuierlicher Fall : f Z ( z ) =
∫f
−∞
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
XY
( x, z − x) dx
Dichtefunktion der
Summe zweier
stetiger
Zufallsgrößen
30. August 2016 | 163
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Spezialfall : X und Y sind stochastisch unabhängig :
∞
f Z ( z) =
∫f
X
( x) ⋅ fY ( z − x) dx
(" Faltung" )
−∞
6.6 Produkt und Quotient zweier stetiger
Zufallsgrößen
+∞
z  1
f X •Y ( z ) = ∫ f XY  , y  ⋅
dy
 y  | y|
−∞
+∞
f X ( z) =
Y
∫ f (zy, y )⋅ | y | dy
XY
−∞
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Produkt Z = X ⋅ Y
X
Quotient Z =
Y
30. August 2016 | 164
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
6.7 Erwartungswert und Streuung für die Summe
von Zufallsgrößen
X und Y seien als Funktionen auf Ω explizit bekannt
⇒ ( X + Y )(ω ) = X (ω ) + Y (ω ), ( X ⋅ Y )(ω ) = X (ω ) ⋅ Y (ω )
Erwartungswert
E(X + Y ) =
∑ ( X + Y )( ω ) ⋅ P (ω ) = ∑ X (ω ) P (ω ) + ∑ Y (ω ) P (ω )
i
i
i
i
i
i
i
i
i
= E ( X ) + E (Y )
E (α X ) = α ⋅ E ( X ) ∀ α ∈ R
Allgemein :
E ( X1 + K + X n ) = E ( X 1) + K + E ( X n )
E (α X + β Y ) = α ⋅ E ( X ) + β ⋅ E (Y )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 165
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Varianz
Var (αX ) = E ((αX ) 2 ) − ( E (αX )) 2 = E (α 2 X 2 ) − (αE ( X )) 2
[
]
= α 2 E ( X 2 ) − ( E ( X )) 2 = α 2 ⋅ Var ( X )
Var ( X + Y )
= E (( X + Y ) 2 ) − ( E ( X + Y )) 2 = E ( X 2 + 2 XY + Y 2 ) − ( E ( X ) + E (Y )) 2
= E ( X 2 ) + 2 E ( XY ) + E (Y 2 ) − ( E ( X )) 2 − 2 E ( X ) E (Y ) − ( E (Y )) 2
= E ( X 2 ) − ( E ( X )) 2 + E (Y 2 ) − ( E (Y )) 2 + 2[E ( XY ) − E ( X ) E (Y )]
144
42444
3 1442443
144424443
=Var ( X )
=Var ( Y )
= cov( X ,Y )
Var ( X + Y ) = Var ( X ) + Var (Y ) + 2 ⋅ cov( X , Y )
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 166
I. Wahrscheinlichkeitsrechnung
I.6 Mehrdimensionale Zufallsvariablen
Falls X und Y stochastisch unabhängige Zufallsvariablen sind:
E ( X ⋅ Y ) = E ( X ) ⋅ E (Y )
⇒ cov( X , Y ) = 0 ⇒ Var ( X + Y ) = Var ( X ) + Var (Y )


Var
X

Bei n Zufallsgrößen:
∑
i  = ∑ Var ( X i ) + 2∑ cov( X i , X j )
i, j
 i
 i
i< j
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 167
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Die Kovarianz wurde eingeführt als : cov( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E (Y )
Andere Schreibweise : cov( X , Y ) = E{( X − E ( X )) ⋅ (Y − E (Y ))}
Eigenschaften der Kovarianz:
1.) cov( X , Y ) = cov(Y , X )
2.) cov( X , X ) = Var ( X )
3.) cov(aX + b, cY + d ) = ac ⋅ cov( X , Y )
4.) Falls X, Y stochastisch unabhängig ⇒ cov( X , Y ) = 0
n
 m
 m n
5.) cov ∑ ai ⋅ X i , ∑ b j ⋅ Y j  = ∑∑ ai b j ⋅ cov( X i , Y j )
j =1
 i =1
 i =1 j =1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 168
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Zwei Zufallsvariablen X, Y heißen unkorreliert, falls
cov(X,Y)=0 ist.
Im Allgemeinen darf aus der Unkorreliertheit
zweier Zufallsvariablen nicht auf deren
stochastische Unabhängigkeit geschlossen werden!
Die Kovarianz lässt sich als Maß für die Proportionalität von (X-E(X)) und (Y-E(Y)) auffassen.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 169
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Wegen
cov( X , Y ) = E{( X − E ( X )) ⋅ (Y − E (Y ))}
wird die Kovarianz positiv, wenn für beide Zufallsvariablen die Abweichungen vom Erwartungswert
für die „meisten“ Elementarereignisse in „die
gleiche Richtung“ gehen; bei überwiegend
entgegengesetztem Vorzeichen wird die Kovarianz
negativ.
Die Kovarianz selber ist als Maß für die Korrelation
ungeeignet, z.B. ändert sie sich, wenn beide
Zufallsvariablen mit einem Faktor multipliziert
werden, obwohl sich dadurch an einer evtl.
vorhandenen Proportionalität nichts ändert:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 170
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
cov(λX , λY ) = λ2 ⋅ cov( X , Y )
Durch eine Art „Normierung“ ergibt sich der
(Pearson‘sche) Korrelationskoeffizient:
ρ XY
cov( X , Y )
:=
σ X ⋅σ Y
Seine wesentliche Bedeutung ist die Lösung eines
Optimierungsproblemes:
Die Realisierungen der Zufallsvariablen Y sollen
durch die Realisierungen der Zufallsvariablen X
möglichst gut vorhergesagt werden, wobei von
einem linearen Zusammenhang ausgegangen
wird:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 171
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Y (ω ) = a + b ⋅ X (ω )
" Vorhersagefehler" : Y − a − b ⋅ X
⇒ E ((Y − a − b ⋅ X ) )= min
(mittlere quadratische Abweichung minimieren)
2
!
cov( X , Y )
cov( X , Y )
b=
; a = E (Y ) −
⋅ E( X )
Var ( X )
Var ( X )
Damit Minimum des mittleren quadratischen Fehlers:
2
M = var(Y ) ⋅ (1 − ρ XY
)
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 172
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Folgerungen für den Korrelationskoeffizienten:
1.) M ≥ 0 ⇒ | ρ XY | ≤ 1
2.) | ρ XY | ≤ 1 ⇒ cov 2 ( X , Y ) ≤ var( X ) ⋅ var(Y )
" Cauchy - Schwarz - Ungleichung"
3.) | ρ XY |= 1 ⇒ M = 0 ⇒ E ((Y − a − b ⋅ X )2 ) = 0
⇒ P(Y = a + b ⋅ X ) = 1
4.) ρ XY = +1 ⇒ b > 0 : " Y wächst mit wachsendem X"
ρ XY = −1 ⇒ b < 0 : " Y fällt mit wachsendem X"
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 173
I. Wahrscheinlichkeitsrechnung
I.7 Kovarianz und Korrelation
Von einer vorhandenen Korrelation zweier Zufallsvariablen darf nicht auf eine kausalen Zusammenhang geschlossen werden!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 174
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Tschebyscheff-Ungleichung:
σ2
P(| X − µ |≥ ε ) ≤ 2
ε
Gilt für jede Verteilung, für die Erwartungswert
E(X)=µ und Varianz var(X)=σ2 existieren!
Betrachte n-malige Wiederholung eines Zufallsexperimentes mit Messung der Zufallsvariablen X:
wir erhalten n stochastisch unabhängige Ergebnisse. Xi sei die Realisierung der Zufallsvariablen
im i-ten Versuch.
Xi ist eine Zufallsvariable mit der gleichen
Verteilung wie X, insbesondere mit gleichem
Erwartungswert und gleicher Varianz.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 175
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
X ( n)
1 n
= ∑ Xi
n i =1
ist dann ebenfalls eine Zufallsvariable
mit
1 n
1 n
1
E ( X (n) ) = ∑ E ( X i ) = ∑ µ = ⋅ n ⋅ µ = µ
n i =1
n i =1
n
1
var( X ( n ) ) =  
n
2 n
1
=
X
var(
)
 
∑
i
n
i =1
P (| X ( n ) − µ |≥ ε ) ≤
var( X ( n ) )
ε
2
2 n
2
σ2
σ
1
2
2
=
n
⋅
⋅
=
⇒
=
σ
σ
σ
 
∑
X
n
n
n
i =1
σ2 1 1 σ2
=
⋅ 2 = ⋅ 2
ε
n ε
n {
= const .
1 n
 1 σ2
⇒ 0 ≤ P ⋅ ∑ X i − µ ≥ ε  ≤ ⋅ 2
 n ε
 n i =1
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
Wende
Tschebyscheff
– Ungleichung
auf X (n ) an!
30. August 2016 | 176
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
1 n


⇒ lim P ⋅ ∑ X i − µ ≥ ε  = 0
n →∞
 n i =1

Schwaches Gesetz großer
Zahlen
„Stochastische Konvergenz“:
Die Wahrscheinlichkeit, dass ein Mittelwert um
mehr als ein beliebiges, festes ε>0 von µ abweicht,
geht für wachsendes n gegen Null.
(Schwächere Aussage als die „übliche“ Konvergenz
wie z.B. bei Zahlenfolgen!)
Starkes Gesetz großer Zahlen
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
(schwieriger Beweis!)
30. August 2016 | 177
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Bei gleichen Voraussetzungen wie in der Herleitung
für das schwache Gesetz großer Zahlen gilt:


1 n

P  lim ⋅ ∑ X i − µ = 0  = 1
 n→∞ n i =1

Bei unbeschränkt oftmaliger Wiederholung der
Messung einer Zufallsgröße konvergiert das
Stichprobenmittel gegen den Erwartungswert von X.
Unterschied zwischen dem schwachen und dem
starken Gesetz großer Zahlen?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 178
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Das „schwache“ Gesetz schließt nicht aus, dass
auch für unbeschränkt wachsende n-Werte gelegentlich noch größere Abweichungen als ε auftreten; es besagt aber, dass die Wahrscheinlichkeit
für solche „Ausreißer“ mit wachsendem n gegen
Null geht:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 179
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Das „starke“ Gesetz kann dieses Verhalten auch
nicht mit Sicherheit ausschließen, jedoch konvergiert mit Wahrscheinlichkeit „1“ das Stichprobenmittel gegen den Erwartungswert:
Während das „schwache“ Gesetz Aussagen über die
Abweichung der gemittelten Größe nach n
Versuchen macht, bezieht sich die Aussage des
„starken“ Gesetzes auf die Serie als Gesamtheit.
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 180
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Für die Praxis:
Das arithmetische Stichprobenmittel
ist also eine „sinnvolle“ Schätzung
für den Erwartungswert!
X (n ) ≈ µ
Wichtiger Spezialfall:
Bernoullisches Gesetz der großen Zahlen
Wir betrachten ein Bernoulli-Experiment, bei dem
entweder das Ereignis E eintritt oder nicht eintritt.
Bei Eintritt von E bekommt eine neue
Zufallsgröße Z den Wert „1“ zugewiesen, bei
Nichteintreten von E den Wert „0“:
„Indikatorgröße“ Z
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 181
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Bernoulli - Versuch : E
E
E K E
↓
↓
↓ K ↓
1
0
1 K
Z1
Z 2 Z3 K Z n
Wert von Z :
0
n
∑Z
i
ist die absolute Häufigkeit von E
i =1
1 n
1 n
⋅ ∑ Z i ist die relative Häufigkeit von E : hn ( E ) = ⋅ ∑ Z i
n i =1
n i =1
Erwartungswert von Z : E ( Z ) = 0 ⋅ P( E ) + 1 ⋅ P( E ) = P( E )
Einsetzen in die Gesetze der großen Zahlen:
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 182
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Wichtiger Spezialfall:
Bernoullisches Gesetz der großen Zahlen
lim P ( hn ( E ) − P( E ) ≥ ε ) = 0 schwach
n →∞
(
)
P lim hn ( E ) − P ( E ) = 0 = 1 stark
n →∞
Verbindung zwischen der Wahrscheinlichkeitstheorie
und der statistischen Analyse mit relativen
Häufigkeiten!
Erster Versuch der Definition von
P ( E ) = lim hn ( E )
„Wahrscheinlichkeit“ nach von Mises:
n →∞
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 183
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
P ( A) = lim hn ( A)
Als Definition für P nicht haltbar,
Aber mit Gesetz der großen Zahlen:
P( E ) ≈ hn ( E )
für „große“ n
n →∞
Das starke Gesetz der großen Zahlen ist also der
Grund, warum Wahrscheinlichkeiten für Ereignisse
über die relative Häufigkeit des Ereignisses geschätzt
werden können!
Wichtig für die Praxis!
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 184
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Zentraler Grenzwertsatz (Lindeberg und Levy)
Die unabhängigen Zufallsgrößen X 1 , X 2 , K sollen die gleiche
Verteilung haben mit
E ( X 1 ) = E ( X 2 ) = K = µ und var( X 1 ) = var( X 2 ) = K = σ 2
n
Betrachte die Summe Sn := ∑ X i
i =1
n
n
i =1
i =1
E ( Sn ) = ∑ E ( X i ) = n ⋅ µ und var( Sn ) = ∑ var( X i ) = n ⋅ σ 2
n
Sn − E ( Sn )
*
Betrachte die neue Zufallsgröße Sn =
=
var( Sn )
1 n Xi − µ
=
⋅∑
n i =1 σ
∑X
i
−n⋅µ
i =1
n ⋅σ
" Standardisierte" Version von Sn
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 185
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Zentraler Grenzwertsatz (Lindeberg und Levy)
n
Sn − E (Sn )
Für die Standardisierung S =
der Summe S n := ∑ X i
var(S n )
i =1
*
n
s
gilt die Grenzwertbeziehung lim P ( S n* ≤ s ) =
n →∞
1
⋅ ∫e
2π −∞
−
x2
2
dx ∀s ∈ R
Die Verteilungsfunktionen FS * , n = 1, 2, K der stann
dardisierten Summe konvergieren gegen die Verteilungsfunktion Φ der Standardnormalverteilung.
Bedeutung für die Praxis?
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 186
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
Anwendung des zentralen Grenzwertsatzes auf die
Stichproben-Mittelwertbildung:
X (n)
n
1 n
1
1
= ⋅ ∑ X i = ∑ X i' ⇒ E ( X i' ) = ⋅ µ X ; var( X i' ) = 2 ⋅ σ X2
n i =1
n
n
i =1
n

'
'
1
−
X
E
X


∑
∑
i
i
X (n) − n ⋅ ⋅ µ X X − µ
(n)
X
1
i
=
i =1

=
n
=
1
σX
 n '
⋅
σ
n
X
var ∑ X i 
n
n
 i =1 
n
X ( n ) ist asymptotisch normalvert eilt mit Erwartungswert µ X und
1
Standardab weichung
⋅σ X
n
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 187
I. Wahrscheinlichkeitsrechnung
I.8 Gesetze der großen Zahlen und Grenzwertsätze
n=4
k=400
n=1; k=400;
Rechteckverteilung
n=8
k=400
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES
30. August 2016 | 188
FH Aachen
Fachbereich Medizintechnik und Technomathematik
Prof. Dr. Horst Schäfer
Heinrich-Mußmann-Str. 1
52428 Jülich
T +49. 241. 6009 53927
[email protected]
www.fh-aachen.de
© FH AACHEN UNIVERSITY OF APPLIED SCIENCES | FACHBEREICH XXXXXX XXXXXXXXXXXXX | WWW.FH-AACHEN.DE
Herunterladen