Zusammenfassung Buch Professor Litz

Werbung
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 1
Grundlagen der Mengenlehre (2)
Auflistung der Elemente
Beschreibung der Eigenschaften
M 1 = {m1, m2 , m3}
M 2 = {x | x ∈ ¥ ∧ x ≤ 4}
à ⊂ = "ist Teilmenge von" bzw. ⊄ = "ist nicht Teilmenge von"
à Nullmenge, leere Menge
∅ ={ }
à Komplement, Komplementmenge
à Vereinigungsmenge ("oder")
à Schnittmenge ("und")
à Differenzmenge ("minus")
Mengenalgebra
à Kommutativgesetze
A
A∪ B
A∩ B
A\B = A ∩ B
A ∩ B = B∩ A
A ∪ B = B∪ A
à Assoziativgesetze
( A ∩ B) ∩ C = A ∩(B ∩C )
( A ∪ B) ∪ C = A ∪(B ∪C )
à Distributivgesetze
A ∩ ( B ∪ C ) = ( A∩ B ) ∪ ( A ∩ C )
A ∪ ( B ∩ C ) = ( A∪ B ) ∩ ( A ∪ C )
à De-Morgansche Gesetze
A∩ B = A ∪ B
A∪ B = A ∩ B
Der Wahrscheinlichkeitsbegriff (3)
Zufallsexperiment (ZE)
à mehrere Versuche unter selben Bedingungskomplex mit nicht vorhersagbaremAusgang
•
•
•
•
Versuchsausgang = Ereignis
Menge aller möglichen Ereignisse = sicheres Ereignis Ω
(endlich viele, abzählbar unendlich viele, überabzählbar unendlich viele Elemente)
unmögliches Ereignis
∅ ={ }
disjunkte Ereignisse
A∩ B = ∅
(auch: unvereinbar, unverträglich)
Elementarereignisse
à nicht als Vereinigung zweier disjunkter, von ∅ verschiedener Ereignisse darstellbar
à Merkmalsmenge Ω = Menge sämtlicher Elementarereignisse
à Ω = {ω1 , ω2 ,....}
Relative Häufigkeit
hN ( A)
absolute Häufigkeit
=
N
Anzahl N der Versuche
es gilt: 0 ≤ rN ( A ) ≤ 1
⇒ normierte Größe
(Konvergenz bei steigender Versuchsanzahl erkennbar, jedoch nicht deterministisch
à Achtung: P = lim rN ( A) !!!!!!!)
à rN ( A) =
N →∞
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 2
Wahrscheinlichkeit nach Kolmogorov
à Wahrscheinlichkeit P = auf System S von Ereignissen definiertes Maß, dass Axiome erfüllt
System
à Menge aller möglichen Teilmengen der Merkmalsmenge
à Komplement, Durchschnitt, Vereinigung von Ereignissen des Systems führen wieder zu
Ereignissen des Systems
Axiome
K I:
K II:
K III:
P( A ) ≥ 0
P( Ω ) = 1
P( A ∪ B) = P( A) + P( B) für A ∩ B = ∅
(nichtnegative Zahl)
(normiert)
(Additivität)
falls Merkmalsmenge abzählbar unendlich viele Elementarereignisse hat
à
∞
K III':
∞
P( ∪ Ai ) = ∑ P ( Ai )
i =1
für paarweise disjunkte Ereignisse Ai
i =1
Wahrscheinlichkeit nach Laplace
Laplace-Experiment
à spezielles Zufallsexperiment, für das gilt
L I:
Ω = {ω1 ,...., ωm } , m endlich
(endliche Merkmalsmenge)
L II:
P(ω1 ) = .... = P(ωm )
(gleichwahrscheinlich)
Laplace'sche Wahrscheinlichkeit
g Anzahl der fürAgünstigen Elementarereignisse
L III:
P( A) = =
m Gesamtzahl allermöglichen Elementarereignisse
Zusammenhang zwischen den Begriffen
•
•
relative Häufigkeit und Laplace'sche Wahrscheinlichkeit erfüllen Kolmogorov-Axiome
L III berechnet Wahrscheinlichkeit, rN ( A) nur Näherungswert
à Güte der Näherung für große N (statistische Wahrscheinlichkeit)
P ( A) ⋅ (1 − P ( A))
1
P( rN ( A) − P( A) > ε ) <
≤
2
2
N ⋅ε
4 ⋅ N ⋅ε
Gesetz der großen Zahlen:
lim P ( rN ( A) − P( A) > ε ) = 0
N →∞
⇒ "stochastische Konvergenz"
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 3
Rechnen mit Wahrscheinlichkeiten (4)
Wahrscheinlichkeiten verknüpfter Ereignisse
komplementäres Ereignis
Normiertheit
unmögliches Ereignis
sich nachziehende Ereignisse
P( A ) = 1 − P( A)
bzw.
P( A ) ≤ 1
P(∅ ) = 0
P( A) ≤ P( B) für A ⊂ B
beliebige vereinigte Ereignisse
P( A ∪ B) = P ( A) + P ( B) − P( A ∩ B )
P( A ) = 1 − P( A)
Bedingte Wahrscheinlichkeiten
" A / B " à A unter der Bedingung B
P ( A ∩ B)
P( A / B) =
für P( B ) ≠`0
P( B)
P( A ∩ B) = P ( A) ⋅ P( B / A) = P( B ) ⋅ P ( A / B)
à Multiplikationssatz:
à allgemeine Form:
P( A1 ∩ A2 ∩ .... ∩ An ) = P ( A1 ) ⋅ P( A2 / A1 ) ⋅ P ( A3 / A1 ∩ A2 ) ⋅ .... ⋅ P ( An / A1 ∩ A2 ∩ ... ∩ An −1 )
vollständige Ereignisdisjunktion
Ω = A1 ∪ A2 ∪ ... ∪ An mit Ai ∩ Ak = ∅ ∀ i ≠ k
à Satz von der vollständigen Wahrscheinlichkeit
n
P( B ) = ∑ P( B / Ai ) ⋅ P( Ai )
mit Ai ∩ Ak = ∅ ∀ i ≠ k und P( Ai ) > 0 ∀i
i =1
à Bayes'sche Formel
P( B / Ak ) ⋅ P( Ak )
P( Ak / B ) = n
∑ P(B / Ai )⋅ P( Ai )
i =1
mit Ai ∩ Ak = ∅ ∀ i ≠ k , P( Ai ) > 0 ∀i , P( B )> 0
Stochastische Unabhängigkeit (5)
à Ereignis A heißt stochastisch unabhängig von Ereignis B, falls gilt
à A stochastisch unabhängig von B ⇒ es gilt:
(Umkehrung erlaubt!)
P( A / B) = P( A/ B)
P( A) = P( A/ B)
P( A ∩ B ) = P( A) ⋅ P( B)
[Anm.: o.g. Gleichungen sind äquivalent zueinander !]
à Für A, B mit 0 < P ( A) bzw. P( B ) < 1 gilt:
Ist A unabhängig von B, dann ist auch B unabhängig von A und umgekehrt!
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 4
Stochastische Unabhängigkeit von n Ereignissen
à A1 , A2 ,...., An heißen vollständig stochastisch unabhängig, wenn für jede Auswahl von
zwei und mehr Ereignissen Ai1 , Ai2 ,...., Aik mit verschiedenen Indizes gilt:
P( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) = P( Ai1 ) ⋅ P ( Ai2 ) ⋅ ... ⋅ P ( Aik ) für 2 ≤ k ≤ n
( 2 n − n − 1 Gleichungen)
à vollständig stochastisch unabhängige Ereignisse sind immer auch paarweise stochastisch
unabhängig (Umkehrung gilt nicht)
à A1 ,..., Ai ,..., An seien vollständig stochastisch unabhängig. Ersetzt mal beliebige Ai ,...
durch Ai ,... , dann bleiben A1 ,..., Ai ,..., An vollständig stochastisch unabhängig.
Stochastisch unabhängige, disjunkte und sich nachziehende Ereignisse
•
Sich nachziehende Ereignisse A, B nie disjunkt und immer stochastisch abhängig.
( für A ⊂ B gilt A∩ B = A ≠ ∅ à somit P( A ∩ B) = P ( A) ≠ P ( A) ⋅ P( B ) )
•
Disjunkte Ereignisse A, B immer stochastisch abhängig
Gesetze für disjunkte und stochastisch unabhängige Ereignisse
A, B disjunkt
A, B stochast. unabhängig
A∪ B
P( A ∪ B) = P( A) + P( B)
P( A ∪ B) = P ( A) + P ( B) − P( A) ⋅ P( B)
A∩ B
P( A ∩ B) = 0
P( A ∩ B ) = P( A) ⋅ P( B)
Zuverlässigkeitstheorie
• Eigenschaft von System oder Systemkomponente beabsichtigte Funktion zu erfüllen
(best. Randbedingungen, best. Zeit)
• zahlenmäßige Beurteilung à Verfügbarkeit (Wahrscheinlichkeiten bestimmter
Ereignisse)
à Festlegung
Ki
=
Ereignis, dass i-te Komponente eines Systems verfügbar
P( K i ) =
Verfügbarkeit von Ki
Ki
=
P( K i ) =
Ereignis, dass i-te Komponente nicht verfügbar ist
Unverfügbarkeit von Ki
à es gilt: P( K i) = 1 − P( Ki )
à analog für aus Komponenten zusammengesetzte Systeme
S
=
Ereignis, dass Gesamtsystem Funktion erfüllt
P(S) =
Verfügbarkeit des Gesamtsystems
• Gesucht: Verfügbarkeit des Gesamtsystems
à Annahme: alle n Komponenten seien vollständig stochastisch unabhängig
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 5
Wahrscheinlichkeit von Verbundexperimenten (6)
Allgemeines Verbundexperiment
à mehrere Zufallsexperimente im Verbund betrachtet
•
Das Verbundexperiment aus den beiden Einzelexperimenten ZE1 , ZE2 mit
Ω1 = {ω11 ,ω12 ,..., ω1n } und Ω 2 = {ω21, ω 22 ,...,ω 2m } besitzt als Merkmalsmenge ΩV das
kartesische Produkt
ΩV = Ω1 × Ω 2 = {(ω11, ω21 ) ,..., (ω11, ω2 m ) , (ω12 ,ω 21 ) ,..., ( ω1n , ω 2m )}
(à n ⋅ m geordnete Paare)
•
Zufallsexperimente ZE1 , ZE2 mit Ω 1 , Ω 2 heißen stochastisch unabhängig, wenn für alle
Elemente von Ω V gilt:
P(ω1i , ω2 k ) = P(ω1i )⋅ P (ω 2 k ) ∀ i, k
•
Verbundexperiment aus p Einzelexperimenten ZE1 , ZE2 , ..., ZEp mit den
Merkmalsmengen Ω 1 , Ω 2 , ...,Ω p
à Merkmalsmenge: ΩV = Ω1 × Ω2 × ... × Ω p
⇒ stochastisch unabhängig, wenn für alle Elemente von Ω V gilt:
P(ω1i , ω2 k ,..., ω pj ) = P (ω1i ) ⋅ P (ω 2k ) ⋅ ... ⋅ P (ω pj ) ∀i , k ,..., j
Bernoulli-Experiment
à n-malige Wiederholung desselben Experimentes, mit Ergebnissen A und A
à P(A) muß in allen Einzelexperimenten gleich sein
•
Bernoulli-Experment = Verbundexperiment, das aus n-maliger Durchführung des
gleichen Einzelexperiments mit den Ausgängen A, A besteht.
Dabei sind alle n Einzelexperimente vollständig stochastisch unabhängig. Für
Einzelexperiment in der i-ten Durchführung (i) gilt:
Ω (i ) = A( i) ∪ A( i)
i = 1,..., n
P( A(i ) ) = P( A) = p
i = 1,..., n
Binomial-Wahrscheinlichkeitsverteilung
• Bn ,k : Ereignis A mit P( A) = p tritt in Bernoulli-Experiment vom Umfang n genau k mal
ein
à Einzelexperimente:
P(ωG ) = p k ⋅ (1 − p ) n− k
• Satz aus Kombinatorik
n Dinge, von denen jeweils n1 , n2 ,...nr gleich sind, wobei gilt n1 + n2 + ... + nr = n , können
n!
auf N Σ =
Arten angeordnet werden
n1 !⋅ n2 !...
⋅ ⋅ nr !
n!
 n
⇒ hier: n1 = k , n2 = n − k
→ NΣ =
= 
k !⋅ (n − k )!  k 
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
•
•
•
Seite 6
n
→ P( Bn, k ) = pn,k =   ⋅ p k ⋅ (1 − p) n− k
k 
Darstellung der Ergebnisse als Folge  k , pn,k  mit k = 0,1,..., n ⇒ Binomialverteilung
Vereinigung der n + 1 disjunkten Ereignisse Bn,0 , Bn,1,..., Bn , n stellt das sichere Ereignis
n
∑p
dar. Es gilt mit pn ,k = P( Bn,k ) :
n ,k
=1
k=0
Polynomial-Wahrscheinlichkeitsverteilung
à Verallgemeinerung der Binomialverteilung
à Einzelexperimente haben r statt 2 disjunkte Ausgänge
•
•
erweitertes Bernoulli-Experiment ist ein Verbundexperiment, das aus der n-maligen
Durchführung des gleichen Einzelexperimentes mit den paarweise disjunkten Ausgängen
A1 , A2 , ...., Ar besteht.
Dabei alle n Einzelexperimente vollständig stochastisch unabhängig.
Für Einzelexperiment in der i-ten Durchführung (i) gilt:
(i )
(i )
(i )
(i )
Ω = A1 ∪ A2 ∪ ... ∪ Ar
wobei j = 1,..., r und i = 1,..., n
P( A(ji ) ) = P( Aj ) = p j
P( Bn, k1 ,k2 ,..., kr ) = pn, k1 ,k 2 ,..., kr =
n!
⋅ p1k1 ⋅ p2k 2 ⋅ ... ⋅ prkr
k1 !⋅ k2 !...
⋅ ⋅ kr !
Zufallsvariable, Verteilungs-, Dichtefunktion (7)
•
Zuordnungsvorschrift, welche jedem Elementarereignis ω aus Ω eine reelle Zahl X
zuordnet, heißt Zufallsvariable oder Zufallsgröße X (ω )
Es muss gelten:
P( X = −∞ ) = 0 und P ( X = ∞ ) = 0
à Definitionsbereich sind Elemente der Merkmalsmenge Ω
{
}
à Wertebereich der ZV: WX = X | X = X (ω ) und ω ∈ Ω
•
Zufallsvariable heißt
diskret wenn WX
endlich viele oder
abzählbar unendlich viele Elemente,
stetig
wenn WX
überabzählbar unendlich viele Elemente besitzt.
• Relationen von X auf WX legen Ereignisse fest, das unmögliche und das sichere Ereignis
eingeschlossen.
Verteilungsfunktion
à Wahrscheinlichkeitsverteilungsfunktion
•
•
•
Verteilungsfunktion einer Zufallsvariablen X ist definiert als FX ( x) = P ( X ≤ x)
Index à Name der ZV, Argument à beliebiger Wert der reellen Zahlengerade
kumulierende Eigenschaft à mit wachsendem x können in X ≤ x nur weitere Ereignisse
hinzukommen ⇒ Wahrscheinlichkeit für Eintreten von X ≤ x kann für wachsendes x nie
abnehmen (nur gleich bleiben oder anwachsen)
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 7
Eigenschaften der Verteilungsfunktion
• F ( −∞ ) = 0, F ( +∞ ) = 1
•
•
•
•
aus x1 < x2 folgt F ( x1 ) < F (x2 ) ⇒ F ist monoton wachsend
P ( X > x ) = 1 − F ( x)
P( x1 < X ≤ x2 ) = F ( x2 ) − F ( x1 )
P( X = x) = F ( x + ) − F ( x− )
( F ( x + ), F ( x− ) à rechts-/linksseitiger Grenzwert)
[à nur bei unstetigem F(x) ist P( X = x ) ≠ 0 ]
• Funktionswert an Unstetigkeitsstelle:
F ( x) = F ( x + ) [F ist rechts-stetig]
Dichtefunktion
à definiert anhand von Verteilungsfunktion
•
•
Dichtefunktion einer ZV X ist definiert als f x ( x) =
durch Integration:
x
Fx ( x ) =
∫
dFx ( x )
dx
f x (ξ ) dξ
−∞
Eigenschaften der Dichtefunktion
•
•
•
∞
∫
f ( x) dx = 1
−∞
f ( x ) ≥ 0 , da F(x) monoton steigend
f (−∞ ) = 0,
f (+∞ ) = 0
Momente und Zentralmomente (9)
Definition und Bedeutung des Erwartungswertes
•
Die diskrete ZV X mit dem Wertebereich Wx = {x1 ,..., xn } besitzt den Erwartungswert
n
E ( X ) = µ x = ∑ xi ⋅ P( X = xi )
i =1
[Erwartungswert als mittlerer Wert der Realisierungen der ZV bei sehr vielen Versuchen
interpretierbar]
à Erweiterung auf stetige ZV (gilt auch für diskrete ZV)
∞
•
Für Erwartungswert einer ZV X gilt:
E ( X ) = µ x = ∫ x ⋅ fx ( x )dx
−∞
Eigenschaften und Berechnung des Erwartungswertes
allgemeine Eigenschaften
• µ x muss nicht gleich dem arithmetischen Mittelwert der Elemente von WX sein
• µ x muss nicht identisch mit einem Element von WX sein
• stetige ZV: µ x muss nicht identisch mit Abszisse xM des Maximums der Funktion f x ( x)
sein
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
•
Seite 8
µ x ist identisch mit der Abszisse des Flächenschwerpunktes der Funktion f x ( x)
∞
[folgt aus E ( X ) =
∫
∞
x ⋅ fx ( x) dx
x
=
−∞
1
∫ x ⋅ f (x )dx
−∞
∞
∫
]
f x ( x ) dx
−∞
•
•
bei einer um x = xS symmetrischen Dichtefunktion f x ( x) gilt: E ( X ) = xS
∞
∫ g (x ) ⋅ f
E (Y ) = µ y =
Erwartungswert der transformierten ZV Y = g ( x) :
x
( x) dx
−∞
•
•
E ( a ⋅ X + b) = a ⋅ E ( X ) + b
Linearitätsgesetz des Erwartungswertes:
geometrischer Zusammenhang zwischen µ x und der Verteilungsfunktion
∞
à bei gegebener Verteilungsfunktion Fx ( x ) gilt: E ( X ) = µ x = ∫ [1 − Fx ( x ) − Fx ( − x)]dx
0
Varianz und Standardabweichung
∞
•
Varianz σ x2 der ZV X ist der Erwartungswert σ x2 = E ( ( X − µ x) 2 ) = ∫ ( x − µ x ) 2 ⋅ f x ( x ) dx
−∞
2
positive Wurzel aus Varianz heißt Standardabweichung (Streuung): σ x = + σ x
•
•
σ x2
für ε > 0
ε2
Zusammenhang zw. Erwartungswert und Varianz: σ x2 = E ( X 2 ) − µ x2
Tschebyscheff Ungeleichung: P (| X − µ x |≥ ε ) ≤
Verallgemeinerte Momente
•
Unter dem verallgemeinerten Moment k-ter Ordnung der zur ZV X gehörenden
Dichtefunktion f x ( x) versteht man den Erwartungswert
E ( ( X − a) k ) =
•
∞
∫ ( x − a)
k
⋅ f x ( x) dx
−∞
wichtige Spezialfälle:
a=0
a = µx
Momente
mk = E ( X )
k
•
Zentralmomente
sk = E ( ( X − µ x ) k )
k = 0:
k = 1:
m0 = 1
m1 = µ x
s0 = 1
s1 = 0
k = 2:
m2 = E ( X 2 )
s2 = σ x2
k = 3:
m3 = E ( X 3 )
Maß für Schiefe der Verteilungsfunktion: M S =
s3 = E ( ( X − µ x ) 3 )
E (( X − µx )3 )
σ
3
x
=
s3
3
s2 2
symmetrische Dichtefunktion: MS = 0
⇒ Schiefe = Maß für Abweichung von symmetrischer Verteilung
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 9
Spezielle Verteilungen diskreter ZV (10)
Grundlegende Zusammenhänge diskreter ZV
•
•
Unter der Verteilung der diskreten ZV X mit dem Wertebereich Wx = {x1, x2 ,..., xn} mit
xi+1 > xi verstehen wir die Folge der Zahlenpaare [ xi , P ( X = xi ) ] ,
i = 1,..., n
•
Verteilung tabellarisch oder grafisch darstellbar
Verteilungsfunktion der diskreten ZV X: Fx ( x ) = P( X ≤ x ) = ∑ P( X = xi )
•
à Treppenfunktion
dFx ( x) n
Dichtefunktion der diskreten ZV X: f x ( x) =
= ∑ δ ( x − xi ) ⋅ P( X = xi )
dx
i =1
à Dirac-Impulse
•
Erwartungswert einer diskreten ZV X: µ x = ∑ xi ⋅ P( X = xi )
xi ≤ x
n
i =1
•
n
Varianz einer diskreten ZV X: σ x2 = ∑ xi2 ⋅ P( X = xi ) − µ x2
i =1
Diskrete Gleichverteilung
à einfachste Verteilung einer diskreten ZV
•
diskrete Gleichverteilung: [ xi , 1n ]
i = 1,..., n à alle Elemente gleichwahrscheinlich
⇒ gleiche Sprunghöhen bei Dichtefunktion
⇒ gleiche Impulsgewichte bei Dichtefunktion
1 n
• Erwartungswert:
µ x = ∑ xi
n i=1
•
•
1 n 2
2
xi − µ x
∑
n i=1
stochastisches Mittel der ZV = arithmetisches Mittel der Elemente des Wertebereichs
Varianz:
σx =
2
Binomialverteilung
à ZV: X = Anzahl der Ereignisse A mit p = P ( A) im Bernoulli-Experiment vom Umfang n
•
•
  n k
n− k 
Binomialverteilung:  k ,   ⋅ p ⋅ (1 − p )  für k = 0,1,..., n
  k

B(n,p)-verteilt à "binomialverteilt beim Umfang n und der Einzelwahrscheinlichkeit p"
µx = n ⋅ p
Erwartungswert:
•
Varianz:
•
σ x2 = n ⋅ p ⋅ (1 − p)
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 10
Poissonverteilung
à Näherung für Binomialverteilung
•
•
•
•
 λ k −λ 
Poisson-Verteilung:  k , ⋅ e 
 k!

µx = λ
Erwartungswert:
k = 0,1,2,...
und mit λ > 0
σ x2 = λ
Varianz:
Erwartungswert und Varianz gleich à näherungsweise auch bei Binomialverteilung,
wenn p als "sehr klein" angenommen
⇒ Verteilung der seltenen Ereignisse
Spezielle Verteilungen stetiger ZV (11)
Stetige Gleichverteilung
à einfachste Verteilung
•
•
•
•
 1

f x ( x) =  b − a
 0
für x ∈ [ a ,b ]
sonst
X fällt mit gleicher Wahrscheinlichkeit in jedes gleich große Intervall zw. a und b
a +b
µx =
Erwartungswert:
2
( b − a) 2
σ x2 =
Varianz:
12
Exponentialverteilung
à oft Variablen, die Zeiten repräsentieren
⇒ können nur größer oder gleich Null sein !
für x < 0
 0
f x ( x) = 
−λx
für x ≥ 0, mit λ > 0
λ ⋅ e
• bei gleich großen Intervallen auf x-Achse wir Wahrscheinlichkeit dass x in Intervall fällt
nach rechts kleiner, jedoch niemals exakt 0
1
µx =
• Erwartungswert:
λ
1
σ x2 = 2
• Varianz:
(à Standardabweichung = Erwartungswert)
λ
•
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 11
Erlangverteilung
à realitätsnäher in best. Anwendungsfällen (z.B. Reparatur in 1.-2. Stunde)
•
•
•
•
0


f x ( x) =  λ ⋅ e − λ x
⋅ (λ x) n−1

(
n
−
1)!

für x < 0
für x ≥ 0 mit λ > 0, n ∈ ¥
Exponentialverteilung für Spezialfall n = 1
n
µx =
Erwartungswert:
λ
n
σ x2 = 2
Varianz:
λ
Normalverteilung
•
Standardnormalverteilung: f x ( x) =
x²
−
1
⋅e 2
2π
1
damit Fläche unter Dichtefunktion = 1
2π
µx = 0
Erwartungswert:
à
•
•
•
Varianz:
(wegen Symmetrie)
σ =1
2
x
(nicht normierte) Normalverteilung: f x ( x) =
1
σ x ⋅ 2π
⋅e
−
( x − µ x )²
2
2⋅σ x
"X ist N ( µ ,σ ²) -verteilt"
also normalverteilt, mit
o stochastischem Mittelwert µ
o Varianz σ ²
Gaußsche Glockenkurve
• symmetrisch um x = µ
1
• Maximum
bei x = µ
σ ⋅ 2π
• Wendepunkte bei x = µ ± σ
• Hauptanteile f x ( x) > 0 zwischen µ − 3σ und µ + 3σ
à sprich:
•
Integral für Verteilungsfunktion nicht geschlossen lösbar à numerische Lösung mit
tabellarischer Angabe der Ergebnisse
à Tabellen mit einem Parameter x, Integral der Standardnormalverteilung
à wegen Symmetrie der Glockenkurve à Teilflächen mit x > 0
•
Berechnung der Verteilungsfunktion bei nicht normierter Normalverteilung
y−µ
à Betrachten der Transformation ⇒ Fy ( y) = Fx (
)
σ
à neues Argument in Standardnormalverteilung einsetzen à "Entnormierung"
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 12
Zuverlässigkeitstheorie als Anwendung stetiger ZV (12)
Lebensdauer und Lebensdauerverteilungen
•
Zuverlässigkeitstheorie à Zufallsvariablen meist Zeiten
⇒ ZV = T
⇒ Wert auf reeller Zahlengerade = t
TB = stetige ZV für Zeit von Inbetriebnahme bis Ausfallzeitpunkt
à Betriebsdauer, Lebensdauer
• Lebensdauerverteilungen
(stetige Verteilungen, f TB (t ) = 0 für t < 0 und fTB ( t ) ≥ 0 für t ≥ 0 )
•
•
•
fTB (t) = Ausfalldichte
FTB (t ) = Ausfallwahrscheinlichkeit
FTB (t) = P(TB ≤ t )
R(t ) = Überlebenswahrscheinlichkeit, Zuverlässigkeitsfunktion
R(t ) = P(TB > t) = 1 − FTB (t )
à mit Exponentialverteilung
f TB (t ) = λ ⋅ e − λt
FTB (t ) = 1 − e− λt
je mit λ > 0, t ≥ 0
−λ t
R(t ) = e
• bei exponentialverteilter Lebensdauer altert eine Komponente nicht, d.h. es gilt
P ({t < TB ≤ t + ∆t }/{T B > t} ) = P({TB ≤ ∆t }) = P(∆ t) .
fTB (t ) FT′B ( t )
R′( t )
d
=
=−
= − (ln R (t) )
R( t )
R(t )
R (t )
dt
Wahrscheinlichkeit des Ausfalls in ∆t
[=
]
∆t
à exponentialverteilte Lebensdauer
d
⇒ Ausfallrate ist konstant
λE (t ) = − (ln R(t )) = λ = const .
dt
• oft: Frühausfälle – eingefahrener Zustand – Spätausfälle
à Badewannenkurve
γ
λH (t ) = α ⋅ t +
α , β ,γ > 0
à Hjorth-Verteilung, IDB-Verteilung
1+ β ⋅t
• Ausfallrate
λ (t ) =
Reparaturdauer und Reparaturdauerverteilungen
TA = stetige ZV für die Zeit vom Ausfall bis zum Wiederinbetriebnahmezeitpunkt
àAusfalldauer, Reparaturdauer
•
•
Instandsetzungsdichte f TA ( t )
Instandsetzungswahrscheinlichkeit FTA ( t ) = P(TA ≤ t )
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
•
Instandsetzungsrate δ (t ) = −
Seite 13
d
[ ln(1 − FTA (t ) ]
dt
à Exponentialverteilung
f TA ( t ) = δ ⋅ e− δt
FTA ( t ) = 1 − e −δ t
E (TA ) = µ A =
mit δ > 0, t ≥ 0
1
δ
Berechnung der Komponentenverfügbarkeit
à geht davon aus, dass sich Betriebsphasen mit der ZV TB und Ausfall- oder
Reparaturphasen mit der ZV TA aneinander anschließen
•
•
E (TB ) = µT B = MTBF
( Mean timebetween failure)
E (TA ) = µT A = MTTR
( Meantimetorepair )
Verfügbarkeit einer Komponente Ki
à Exponentialverteilung
P( K i ) :=
P( K i ) =
MTBFi
MTBFi + MTTRi
1
λ
1+ i
δi
Zweidimensionale Zufallsvariable (13)
Einführung
à ausgehend vom selben Experiment 2 ZV oder ZV aus 2 unterschiedlichen ZE
•
zwei Zuordnungsvorschriften, welche den Elementarereignissen eines oder zweier
Zufallsexperimente reelle Zahlen X und Y zuordnen, heißen zweidimensionale
Zufallsvariable (X,Y)
[können diskret oder stetig sein, Paar kann auch beide enthalten]
• Verbundverteilungsfunktion einer zweidimensionalen ZV (X,Y)
Fxy ( x , y ) = P( X ≤ x, Y ≤ y) = P ( { X ≤ x} ∩{Y ≤ y})
à Wahrscheinlichkeit der Konjunktion zweier Ereignisse à Verbundverteilungsfunktion
Fxy ( x , y ) = ∑ ∑ P( X = xi , Y = yi )
• Verbundverteilungsfunktion bei diskreten ZV
xi ≤ x yi ≤ y
Eigenschaften der Verbundverteilungsfunktion (unabhängig von Art der ZV)
• Fxy ( −∞, y ) = 0
•
Fxy ( x, −∞ ) = 0
•
Fxy ( ∞ , ∞ ) = 0
•
Verbunddichtefunktion einer zweidimensionalen ZV (X,Y)
∂ 2Fxy ( x, y )
f xy ( x , y ) =
∂x∂y
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 14
wichtige Eigenschaften der Verbunddichtefunktion
•
∞ ∞
∫∫
f xy (u , v )dudv = 1
à Volumen unter Gebirge = 1
−∞−∞
•
f xy ( x , y ) ≥ 0
Randverteilung und Randdichte
à Fxy ( x , y ) ist i.a. nicht aus Fx ( x ) und Fy ( y ) berechenbar, umgekehrt jedoch möglich
à Analoges gilt für f xy ( x , y )
•
Fx ( x ) und Fy ( y ) auch Randverteilungen genannt
à Fxy ( x, ∞) = Fx ( x) =
x ∞
∫∫
f xy ( u, v) dvdu
−∞−∞
mit Fx ( x ) =
x
∫
f x (u ) du ⇒ f x ( x) =
∞
∫
f xy (u , v) dv
−∞
−∞
⇒ Randdichte folgt durch Integration der Verbunddichte
f x ( x) =
•
∞
∫
f xy ( x , y )dy
−∞
Zusammenhang zw. Randdichten und der Verbunddichtenfunktion:
f y ( y) =
∞
∫
f xy ( x , y )dx
−∞
•
Verbunddichtefunktion enthält i.a. mehr Information als Randdichten
Stochastische Unabhängigkeit von ZV
à bisher: stochastische Unabhängigkeit von Ereignissen: P( A ∩ B ) = P( A) ⋅ P( B)
à Übertragung auf zweidimensionale ZV à P ({ X ≤ x} ∩{Y ≤ y} ) = P( X ≤ x ) ⋅ P (Y ≤ y )
•
Zufallsvariablen X und Y heißen stochastisch unabhängig, falls gilt
Fxy ( x , y ) = Fx ( x) ⋅ Fy ( y ) ∀( x , y ) ∈ ¡ × ¡
"Verbundverteilung = Produkt der Randverteilungen"
•
Dichtefunktionen stochastisch unabhängiger ZV X und Y
f xy ( x , y) = f x ( x) ⋅ f y ( y ) ∀( x , y) ∈ ¡ × ¡
"Verbunddichte bei stochastisch unabhängigen ZV gleich dem Produkt der Randdichten"
Momente zweidimensionaler ZV (14)
Transformation zweidimensionaler ZV
à einfachste Möglichkeit:
Z = h( X, Y)
à Erwartungswert der transformierten ZV Z:
E (Z ) = µ z =
∞ ∞
∫ ∫ h( x, y) ⋅ f
xy
( x , y )dxdy
−∞−∞
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 15
Z=X+Y
• Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte
E ( X1 + X 2 + ... + X n ) = E ( X1 ) + E ( X 2 ) + ... + E( X n )
Z=X AY
E ( X ⋅ Y) ≠ E ( X ) ⋅ E (Y )
• i.a. gilt:
à Spezialfall
• bei stochastisch unabhängigen ZV X und Y ist der Erwartungswert des Produkts gleich
dem Produkt der Erwartungswerte.
E ( X ⋅ Y) = E ( X ) ⋅ E (Y ) fürstoch. unabhängige X , Y
Die Umkehrung dieses Satzes gilt nicht !
Verallgemeinerte Momente zweier ZV
•
Unter dem verallgemeinerten Moment k-ter Ordnung ( k = i + j ) der zur
zweidimensionalen ZV (X,Y) gehörenden Verbunddichtefunktion f xy ( x , y ) versteht man
den Erwartungswert
E ( ( X − a )i ⋅ (Y − b) j ) =
∞ ∞
∫ ∫ (x − a) ( y − b )
i
j
⋅ f xy ( x , y )dxdy
−∞−∞
für spezielle Zahlenwerte a,b:
• für a = b = 0 à Momente mij
k = 1:
m10 = µ x
m 01 = µ y
k = 2:
m20 = E ( X ²)
m11 = E( X ⋅ Y)
• für a = µ x , b = µ y à Zentralmomente sij
k = 1:
s10 = 0
s01 = 0
k = 2:
s20 = σ x2
s11 = C xy
m02 = E (Y ²)
s02 = σ y2
mit Cxy = COV ( X , Y ) = E( X ⋅ Y ) − µ x µ y à Kovarianz von X und Y
[vgl. Varianz σ x2 = E ( X ²) − µ 2x ]
Unkorreliertheit und Korrelationskoeffizient
à unkorreliert à schwanken unabhängig voneinander um die Null
•
Zwei ZV X und Y heißen unkorreliert, falls ihre Kovarianz verschwindet:
Cxy = E ( ( X − µ x )(Y − µ y ) ) = 0
⇒ es gilt dann:
•
E ( X ⋅ Y) = E ( X )⋅ E (Y ) ⇔ ZV X undYunkorreliert
Als normiertes Maß für die Unkorreliertheit der ZV X und Y dienst der
Cxy
Korrelationskoeffizient: rxy =
σ x ⋅σ y
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 16
à Eigenschaften von rxy
• rxy = 0 ⇔ X und Y unkorreliert
•
−1 ≤ rxy ≤ 1
"Normiertheit des Korrelationskoeffizienten"
à schwächste Korrelation bei rxy = 0
"Unkorreliertheit"
à stärkste bei | rxy |= 1
"vollständige Korrelation"
à negatives rxy
"gegenseitig korreliert, antikorreliert"
•
| rxy |= 1 für linear abhängige ZV X und Y
•
Aus nachgewiesener Korrelation ( rxy ≠ 0 ) darf nicht zwingend auf kausale Abhängigkeit
geschlossen werden.
Stochastische Unabhängigkeit und Unkorreliertheit
Aussagen für Unkorreliertheit
X undYunkorreliert
à
⇔ Cxy = 0
⇔ rxy = 0
⇔ E( X ⋅ Y ) = E( X )⋅ E(Y )
•
Stochastisch unabhängige ZV X und Y sind stets unkorreliert. (Umkehrung gilt nicht!)
Aussagen für stochastische Unabhängigkeit
X undYstoch. unabhängig
à
⇔ Fxy ( x , y ) = Fx ( x) ⋅ Fy ( y)
⇔ f xy ( x , y ) = f x ( x) ⋅ f y ( y )
⇒ E ( X ⋅ Y) = E ( X ) ⋅ E (Y )
•
Sind normalverteilte ZV X und Y unkorreliert, dann sind sie auch stochastisch
unabhängig.
Zufallsvektoren und Kovarianzmatrix (15)
à Verallgemeinerung einer zweidimensionalen ZV auf n-dimensionale ZV
•
Zufallsvektor X ist ein Spaltenvektor, der als Elemente n Zufallsvariablen Xi enthält, die
aus einem oder mehreren Zufallsexperimenten stammen können:
 X1 
X 
T
X =  2  = [ X 1 X 2 .... X n ]
 .....
 
 X n 
[stetige, diskrete oder beide ZV-Typen; unterschiedliche Verteilungen möglich]
• Verbundverteilungsfunktion des Zufallsvektors X
Fx ( x ) = Fx ( x1 , x2 ,..., x n ) = P( X 1 ≤ x1 , X 2 ≤ x 2,..., X n ≤ xn )
[Ereignisse konjunktiv verknüpft: {X 1 ≤ x1} ∩ { X 2 ≤ x2 } ∩... ]
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
•
Seite 17
Verbunddichtefunktion der zweidimensionalen ZV (X,Y) ist definiert als
∂F ( x ,x ,..., xn )
f x ( x) = f x (x1 , x2 ,..., xn ) = x 1 2
∂x1∂x2 ...∂xn
Randdichten, -verteilungen, stochastische Unabhängigkeit
à m-dimensionaler Rand
•
Bei einem Zufallsvektor X mit n Elementen und gegebenen Verbundverteilungs- und
Verbunddichtefunktionen Fx ( x ) und f x ( x) existieren für jedes gegebene 1 ≤ m ≤ n − 1
n
genau   verschiedene Randverteilungen und Randdichten.
m
• Aus Verbundverteilungsfunktion erhält man beliebige m-dimensionale Randverteilungen,
indem man an entsprechenden Stellen "∞" als Argument einsetzt.
• Zufallsvariablen X1 , X2 , ..., Xn heißen stochastisch unabhängig, falls gilt
Fx ( x ) = Fx1 ( x1 ) ⋅ F x2 ( x2 ) ⋅ ... ⋅ Fxn ( xn ) ∀ ( x1, x2 ,..., xn ) ∈ ¡ n
"Verbundverteilung ist gleich dem Produkt der eindimensionalen Randverteilungen"
• partielle Differentiation à Dichtefunktionen
f x ( x) = fx1 ( x1) ⋅ f x2 ( x2 ) ⋅ ... ⋅ f xn ( xn ) ∀( x1 , x2 ,..., xn ) ∈ ¡ n
"Verbunddichte bei stochastisch unabhängigen ZV gleich dem Produkt der
eindimensionalen Randdichten"
Transformation von Zufallsvektoren
•
 g1( X 1,... X n ) 

Y = g ( x ) = 
....

 g n ( X 1,... X n ) 
•
transformierte Verbunddichtefunktion
f y ( y) =
f x (x)
det J
 ∂g1
 ∂x
 1
mit Jacobi-Matrix J =  ...
 ∂g
 n
 ∂x1
•
∂g1 
∂xn 

... ... 
∂g n 
...
∂x1 
...
Dichtefunktion der Summe Z zweier stochastisch unabhängiger ZV X und Y erhält man
durch Faltung der Dichtefunktionen X und Y:
f z ( z ) = fx ( z ) ∗ f y ( z ) =
∞
∫
f x ( z −τ ) ⋅ f y (τ ) dτ
−∞
•
Die Summe Z von stochastisch unabhängigen, normalverteilten ZV X1 , ..., Xn ist
ebenfalls normalverteilt, wobei sich die Erwartungswerte und die Varianzen addieren:
µ z = µ x1 + ... + µ xn
σ z2 = σ x21 + ... + σ x2n
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 18
Momente transformierter Zufallsvektoren
•
Erwartungswert des transformierten Zufallsvektors
E (Yi ) =
•
•
∞
∞
−∞
−∞
1
2 ...dxn
∫ ... ∫ gi ( x) ⋅ f x (x )dxdx
 E (Y1 ) 
Erwartungswert eines Vektors = Vektor der Erwartungswerte E (Y ) =  .... 
 E(Y2 ) 
Erwartungswert einer Summe von ZV ist gleich der Summe der Erwartungswerte der
ZV
• Varianz einer Summe stochastisch unabhängiger ZV ist gleich der Summe der Varianzen
der einzelnen ZV.
Unkorreliertheit und Kovarianzmatrix
•
•
n
Vektor mit n Komponenten ⇒   verschiedene Kovarianzen möglich
2
Zufallsvariablen X1 ,...,Xn heißen unkorreliert, wenn alle Kovarianzen Cxi y j
verschwinden:
•
(
)
Cxi y j = E ( X i − µ xi )( X j − µ x j ) = 0
Kovarianzmatrix C enthält alle Kovarianzen
∀i ≠ j
C = E ( ( X − µ x )( X − µ x ) T )
à Hauptdiagonale = Varianzen der Elemente des Zufallsvektors
à Nebendiagonalelemente = sämtliche Kovarianzen
•
Zufallsvariablen X1 ,...,Xn heißen unkorreliert, wenn die Kovarianzmatrix eine
σ 2x1
0 


Diagonalmatrix ist:
C=
...

2
 0
σ xn 

•
Sind verbundnormalverteilte ZV X1 ,...,Xn unkorreliert, dann sind sie auch stochastisch
unabhängig.
Zentraler Grenzwertsatz
• Sind X1 ,...,Xn stochastisch unabhängige ZV mit beliebigen Verteilungen, dann tendiert
n
unter bestimmten allgemeinen Bedingungen die Summe Z = ∑ X i für n → ∞ zur
i =1
Normalverteilung.
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 19
Mathematische Statistik (16)
Beschreibende Statistik
arithmetischer Mittelwert:
1 n
x = ⋅ ∑ xi
n i=1
•
mittlere quadratische Abweichung:
1 n
s ² = ⋅ ∑ ( xi − x )²
n i=1
•
mittlere Abweichung:
s = + s²
•
Mathematische Statistik, Stichprobenfunktion
•
Zufallsvektor X mit n Zufallsvariablen Xi des selben Merkmals X heißt Stichprobenvektor
X = ( X1 , X 2 ,..., X n )T , wenn gilt: alle Xi haben die selbe Verteilung und sind stochastisch
unabhängig.
à Stichprobenfunktion
•
arithmetischer Stichprobenmittelwert:
x=
1 n
⋅ ∑ xi
n i=1
•
Stichprobenvarianz:
s² =
1 n
⋅ ∑ ( xi − x )²
n i=1
•
Stichprobenkovarianz:
sxy =
•
Stichprobenkorrelationskoeffizient:
Rxy =
1 n
⋅ ∑ ( xi − x ) ⋅( yi − y )
n i=1
sxy
s 2x + s 2y
Parameterschätzung
à es existieren wahre Werte ϑ à berechnet ist ϑ̂
•
Schätzfunktion (Schätzer):
ˆ n = g n ( X 1 , X 2 ,..., X n ) = gn ( X )
Θ
à Güte eines Schätzers
•
Erwartungstreue:
ˆ n) = ϑ
E (Θ
•
asymptotische Erwartungstreue:
ˆ ) =ϑ
lim E( Θ
n
•
Konsistenz:
ˆ −ϑ | >ε ) = 0
lim P(| Θ
n
•
n →∞
n →∞
hinreichende Kriterien
o asymptotisch Erwartungstreu :
ˆ ) =ϑ
lim E( Θ
n
o asymptotisch verschwindende Varianz:
ˆ − ϑ )²) = 0
lim E((Θ
n
n →∞
n →∞
Effizienz
ˆ = g ( x) heißt effizient oder wirksamst, falls für alle
à erwartungstreuer Schätzer Θ
n ,e
n ,e
© T.N 2002
Zusammenfassung – Wahrscheinlichkeitstheorie (Litz)
Seite 20
ˆ = g ( x ) gilt:
anderen erwartungstreuen Schätzer Θ
n, a
n, a
(
)
(
ˆ n ,e − ϑ )² < E ( Θ
ˆ n, a − ϑ )²
E (Θ
)
a≠e
Intervallschätzung, Konfidenzintervall
à Ziel: anstatt Einzelwert ϑ ein Intervall [ϑu ,ϑo ]
ˆ n (α ) ≤ ϑ ≤ Θ
ˆ o (α )) = 1 − α
à P( Θ
"Konfidenzschätzer zum Konfidenzniveau 1 − α "
à Vorgehensweise: Schätzer für Intervallmitte und Intervallbreite
à Konf (ϑu ≤ ϑ ≤ ϑo ) = 1 − α
P(U ≤ uα ) = Φ (uα ) = α à Standardnormalverteilt
à uα = Quantile
à aus Standardnormalverteilung, jedoch jetzt umgekehrt gelesen
© T.N 2002
Herunterladen