UE Statistik 1, SS 2015, letztes Update 26. Februar 2015

Werbung
UE Statistik 1, SS 2015, letztes Update 26. Februar 2015
Wahrscheinlichkeit - Grundbegriffe und Ereignisse
Die klassische Definition von Wahrscheinlichkeit:
ˆ Ω ist die Menge aller möglichen Ergebnisse eines Zufallsexperiments.
ˆ ω ist ein Elementarereignis
ˆ A ist Ereignis
ˆ Falls Ω = {ω1 , ω2 , . . . , ωn } nur endlich viele Elemente hat, d.h. |Ω| < ∞ und falls alle
Elementarereignisse ωi gleich wahrscheinlich sind, dann kann die Wahrscheinlichkeit
eines Ereignisses A durch folgende Formel berechnet werden:
P (A) =
|A|
|A|
=
,
|Ω|
n
wobei |A| die Anzahl der Elemente in A ist.
Die Eigenschaften der Wahrscheinlichkeit:
ˆ 0 ≤ P (A) ≤ 1,
ˆ P (Ω) = 1,
ˆ P (Ac ) = 1 − P (A), wobei Ac das komplementäre Ereignis zu A ist,
ˆ falls A ⊂ B ist, dann P (A) ≤ P (B) und P (B \ A)=P (B)-P (A),
ˆ P (A ∩ B) = P (A) − P (A ∩ B c ),
ˆ P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Die Unabhängigkeit und die bedingten Wahrscheinlichkeit: A und B sind zwei Ereignisse.
ˆ Die bedingten Wahrscheinlichkeit des Ereignisses A unter Bedingung B berechnen wir
als:
P (A ∩ B)
P (A|B) =
P (B)
falls P (B) > 0. Es gilt auch P (A) = P (A|B) ∗ P (B) + P (A|B c ) ∗ P (B c ).
ˆ Bayes-Formel:
P (B|A) =
P (A|B) ∗ P (B)
,
P (A)
falls P (B) > 0 und P (A) > 0 .
1
ˆ Die Ereignisse A und B sind unabhängig, falls
P (A ∩ B) = P (A) ∗ P (B).
2
Wahrscheinlichkeit - F (x), f (x), EX, var(X)
Charakteristiken der Verteilung einer diskreten Zufallsvariable X
P
ˆ Die Verteilungsfunktion F (x) = P (X ≤ x) = xk ≤x P (X = xk ).
1. Der Graph von F (x) einer diskreten Verteilung hat typischerweise Stufen.
2. F (x) ∈ h0, 1i.
ˆ Der Erwartungswert einer diskreten Zufallsvariable X ist EX =
falls die Summe < ∞ ist.
P
xk
xk P (X = xk ),
1. EX ist eine reelle Zahl, d.h. es ist eine Konstante und keine Zufallsvariable.
2. Falls a und b irgendwelche Konstanten sind (also keine Zufallsvariablen), dann
E(a ∗ X + b) = a ∗ EX + b.
3. Falls Y auch eine Zufallsvariable ist, dann
E(X + Y ) = EX + EY .
4. Vorsicht! E(X ∗ Y ) = EX ∗ EY nur falls die Zufallsvariablen X und Y unkorreliert
sind.
ˆ Die Varianz einer diskreten Zufallsvariable
P
P X 2ist
2
2
2
varX = E(X − EX) = EX − (EX) = xk xk P (X = xk ) − ( xk xk P (X = xk ))2 , falls
die Summen < ∞ sind.
1. varX ist eine reelle Zahl und varX ≥ 0(immer)!. Deshalb, falls Sie bei der Berechnung
von Aufgaben eine negative Varianz bekommen, haben Sie irgendwo ein Fehler.
2. Falls a und b irgendwelche Konstanten sind (also keine Zufallsvariablen), dann
var(a ∗ X + b) = a2 ∗ varX.
3. Falls Y auch eine Zufallsvariable ist, dann var(X + Y ) = varX + varY nur falls Zufallsvariablen X und Y unkorreliert sind.
3
Charakteristiken der Verteilung einer stetigen Zufallsvariable X
Rx
ˆ Die Verteilungsfunktion F (x) = P (X ≤ x) = −∞ f (y)dy.
1. Die Funktion f (x) heißt die Dichtefunktion dieser stetigen Verteilung.
2. Für eine beliebige reelle Zahl x ist P (X = x) = 0.
3. Für zwei reelle Zahlen a und b ist P (a < X < b) =
4. P (X ∈ R) =
R∞
−∞ f (y)dy
Rb
a
f (y)dy.
= 1.
ˆ Der Erwartungswert einer stetigen Zufallsvariable X ist EX =
Integral < ∞ ist.
R∞
−∞ y ∗ f (y)dy,
falls das
1. EX ist eine reelle Zahl, d.h. es ist eine Konstante und keine Zufallsvariable.
2. Falls a und b irgendwelche Konstanten sind (also keine Zufallsvariablen), dann
E(a ∗ X + b) = a ∗ EX + b.
3. Falls Y auch eine Zufallsvariable ist, dann
E(X + Y ) = EX + EY .
4. Vorsicht! E(X ∗ Y ) = EX ∗ EY nur falls Zufallsvariablen X und Y unkorreliert sind.
ˆ Die Varianz einer stetigen
R ∞ Zufallsvariable RX∞ist
varX = EX 2 − (EX)2 = −∞ y 2 ∗ f (y)dy − ( −∞ y ∗ f (y)dy)2 , falls die Integrale < ∞ sind.
1. varX ist eine reelle Zahl und varX ≥ 0(immer)!. Deshalb, falls Sie bei der Berechnung
von Aufgaben eine negative Varianz bekommen, haben Sie irgendwo ein Fehler.
2. Falls a und b irgendwelche Konstanten sind (also keine Zufallsvariablen), dann
var(a ∗ X + b) = a2 ∗ varX.
3. Falls Y auch eine Zufallsvariable ist, dann var(X + Y ) = varX + varY nur falls Zufallsvariablen X und Y unkorreliert sind.
ˆ Die Quantilsfunktion F −1 (α) einer stetigen Zufallsvariable X ist die Umkehrfunktion
der Verteilungsfunktion F (x).
1. Argument dieser Funktion α ist eine Wahrscheinlichkeit, d.h. α ∈ h0, 1i.
2. Der Median : Sei X eine Zufallsvariable mit Verteilungsfunkton F . Der Wert x
ist der Median der Verteilung F genau dann wenn P (X ≤ x) = P (X ≥ x). Wir
berechnen den Median als F −1 ( 12 ).
4
Herunterladen