Grundbegriffe Ω Ereignisraum: enthält alle möglichen

Werbung
Grundbegriffe
Ω
...
Ereignisraum: enthält
Zufallsexperiments.
alle
möglichen
Versuchsausgänge
eines
E
...
Ereignis: Eine Menge von Versuchsausgängen wird zu einem Ereignis E zusammengefasst. Es gilt: E ⊆ Ω
|Ω|
...
Anzahl der Elemente von Ω
E
...
Komplementäres Ereignis zu E: E = Ω\E
A∩B
...
Durchschnitt der beiden Ereignisse A und B.
D.h.: Es tritt sowohl Ereignis A als auch Ereignis B ein.
A∪B
...
Vereinigung der beiden Ereignisse A und B.
D.h.: Es tritt Ereignis A oder Ereignis B ein oder beide.
Wahrscheinlichkeit P(E) eines Ereignisses E
P(E)
...
entspricht der relativen Häufigkeit des Eintretens von Ereignis E, wenn
das Experiment unendlich oft durchgeführt wird.
P(E) = 0
...
E heißt unmögliches Ereignis
P(E) = 1
...
E heißt sicheres Ereignis
Es gilt:
0 ≤ P(E) ≤ 1
und
P(Ω) = 1
Wahrscheinlichkeit des komplementären Ereignisses:
P(E) = 1 − P(E)
Wahrscheinlichkeit der Differenz:
P(A\B) = P(A) − P(A ∩ B)
1
Einander ausschließende Ereignisse
Zwei Ereignisse A und B heißen ausschließende Ereignisse, wenn sie keine gemeinsamen Elementarereignisse besitzen. D.h.:
A ∩ B = 0/
Für einander ausschließende Ereignisse A und B gilt:
P(A ∩ B) = 0
P(A ∪ B) = P(A) + P(B)
Die Ereignisse A1 , A2 , . . . , An heißen ausschließende Ereignisse, falls gilt:
Ai ∩ A j = 0/ ∀ i, j = 1, . . . , n mit i 6= j
Allgemeiner Additionssatz:
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
Additionssatz für einander ausschließende Ereignisse A1 , A2 , . . . , An :
P(A1 ∪ A2 ∪ . . . ∪ An ) = P(A1 ) + P(A2 ) + . . . + P(An )
Laplace’sche Wahrscheinlichkeit:
Sind alle Elemente von Ω gleich wahrscheinlich, dann gilt für jedes Ereignis A:
P(A) =
|A|
|Ω|
...
...
|A|
|Ω|
Anzahl der Elemente in A
Anzahl der Elemente in Ω
Kombinatorik:
Permutation ohne Wiederholung: N!
Permutation mit Wiederholung:
N!
k1 !·k2 !·...·ki !
Werden n Objekte aus einer Menge von N Objekten gezogen, dann wird die Anzahl der Möglichkeiten
folgendermaßen berechnet:
mit
Zurücklegen
ohne
Zurücklegen
Nn
N!
(N−n)!
Reihenfolge
wird
berücksichtigt
Reihenfolge
wird nicht
berücksichtigt
Ã
!
N +n−1
n
Ã
!
N
n
2
Bedingte Wahrscheinlichkeit:
P(B|A)
...
Wahrscheinlichkeit dafür, dass B eintritt unter der Bedingung, dass A
eingetreten ist.
Es gilt:
P(B|A) =
P(B ∩ A)
P(A)
Unabhängige Ereignisse:
Zwei Ereignisse A und B heißen unabhängig, wenn gilt:
P(A|B) = P(A)
Es gilt dann auch
P(B|A) = P(B)
Für zwei unabhängige Ereignisse A und B gilt:
P(A ∩ B) = P(A) · P(B)
Satz von der totalen Wahrscheinlichkeit:
A1 , A2 , . . . , An seien einander ausschließende Ereignisse, die A überdecken,
(d.h.: Ai ∩A j = 0/ ∀ i 6= j und A ⊆ A1 ∪A2 ∪. . .∪An )
dann gilt:
P(A) = P(A|A1 )·P(A1 )+. . .+P(A|An )·P(An )
bzw.
n
P(A) = ∑ P(A|Ai ) · P(Ai )
i=1
Insbesondere gilt (ohne weitere Voraussetzungen):
P(A) = P(A|B) · P(B) + P(A|B) · P(B)
Bayes’sche Formel
P(A|B) =
P(B|A) · P(A)
P(B)
P(A|B) =
P(B|A) · P(A)
P(B|A) · P(A) + P(B|A) · P(A)
bzw.
Bayes’sches Theorem:
A1 , A2 , . . . , An seien einander ausschließende Ereignisse, die A überdecken,
(d.h.: Ai ∩A j = 0/ ∀ i 6= j und A ⊆ A1 ∪A2 ∪. . .∪An )
dann gilt:
P(Ak |A) =
P(A|Ak ) · P(Ak )
n
∑ P(A|Ai ) · P(Ai )
i=1
3
Maßzahlen für nicht klassifizierte Daten:
Arithemtisches Mittel:
1 n
x1 + x2 + . . . + xn
∑ xi =
n i=1
n
x̄ =
n
x̄(w) = ∑ wi · xi
Gewichtetes arithmetisches Mittel:
n
wobei: wi ≥ 0 und
i=1
1
Geometrisches Mittel:
x̃G = (x1 · x2 · . . . · xn ) n
Harmonisches Mittel:
x̃H =
1
x1
Gewichtetes harmonisches Mittel:
100α %−Quantil:
+
1
x2
n
+ . . . + x1n
x̃H (w) =
(
w1
x1
x[hn·α i]
Q̂(α ) =
x[n·α ] +x[n·α +1]
2
+
w2
x2
1
+ . . . + wxnn
n
wobei: wi ≥ 0 und
, n · α gebrochene Zahl
, n · α ganze Zahl
hn · α i ist die auf n · α folgende ganze Zahl.
Median:
x̃ = Q̂(0.5)
Modalwert: Der am häufigsten auftretende Zahlenwert aus x1 , x2 , . . . , xn
s2 =
Varianz:
1 n
∑ (xi − x̄)2
n − 1 i=1
√
s = s2 =
Standardabweichung:
Spannweite:
s
1 n
∑ (xi − x̄)2
n − 1 i=1
x[n] − x[1]
vs =
Variationskoeffizient:
s
x̄
1 n
∑ |xi − x̃|
n i=1
Mittlere absolute Abweichung vom Median:
k−tes Moment:
mk =
1 n
∑ (xi − x̄)k
n i=1
n
Schiefe:
α3 =
m3
3/2
m2
3
∑ (xi − x̄)
√
i=1
= n·
¸3/2
n
2
∑ (xi − x̄)
i=1
oder
α30 =
∑ wi = 1
i=1
3 (x̄ − x̃)
s
Empirische Verteilungsfunktion Fn (x):
Sei
x[1] ≤ x[2] ≤ x[3] ≤ . . . ≤ x[n]
Fn (x) gibt den relativen Anteil der Werte an, die kleiner oder gleich x sind.
Mathematisch exakt: Ermittle jenes j, für das gilt: x[ j] ≤ x und x[ j+1] > x
Dann gilt: Fn (x) = nj
4
∑ wi = 1
i=1
Maßzahlen für klassifizierte Daten:
n
x̄k = ∑ xi0 · fi
Arithmetisches Mittel:
xi0 . . . Klassenmitte
i=1
α −Quantil für 0 < α < 1:
Median:
Q̂k (α ) = ai−1 + bi
α − Fi−1
fi
wobei : Fi−1 < α ≤ Fi
und F0 := 0
x̃k = Q̂k (0.5)
Modalklasse: Klasse mit maximaler Balkenhöhe fi∗ (Es kann auch mehrere geben.)
n ¡
¢2
s2k := ∑ xi0 − x̄k · fi
Varianz:
i=1
q
sk = s2k =
Standardabweichung:
s
n
∑ (xi0 − x̄k )2 · fi
i=1
Diskrete Zufallsvariable:
n
Erwarungswert:
E(X) = µ = ∑ xi · P(X = xi )
i=1
Varianz:
n
n
¡ ¢
Var(X) = σ 2 = ∑ (xi − µ )2 · P(X = xi ) = ∑ xi2 · P(X = xi ) − µ 2 = E X 2 − µ 2
i=1
i=1
Verteilungen von diskreten Zufallsvariablen:
Gleichverteilung: Eine Zufallsvariable X mit Werten x1 , x2 , . . . , xn heißt gleichverteilt, falls gilt:
P(X = x1 ) = P(X = x2 ) = . . . = P(X = xn ) =
1
n
Für eine gleichverteilte Zufallsvariable X gilt:
1 n
E(X) = ∑ xi ,
n i=1
1 n
Var(X) = ∑ xi2 −
n i=1
Ã
1 n
∑ xi
n i=1
!2
Anwendung: Problemstellungen bei denen jeder Wert der Zufallsvariable mit der selben Wahrscheinlichkeit auftritt.
Geometrische Verteilung: Eine Zufallsvariable X mit Werten k = 1, 2, 3, . . . heißt geometrisch verteilt mit Parameter p, falls gilt:
P(X = k) = (1 − p)k−1 · p
Dann gilt:
E(X) =
1
p
und
Var(X) =
1− p
p2
Anwendung: Ein Ereignis A tritt bei einem Versuch mit der Wahrscheinlichkeit p auf. Der Versuch wird
solange wiederholt, bis das Ereignis A auftritt. Die Zufallsvariable X zählt die Anzahl der Versuche
bis zum ersten mal das Ereignis A auftritt.
5
Hypergeometrische Verteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . , n heißt hypergeometrisch verteilt mit Parametern N, M, n wobei M < N und n < N, falls gilt:
¡M¢ ¡N−M¢
·
P(X = k) = k ¡N ¢n−k
n
Es gilt dann:
E(X) = n · p
und
Var(X) = n · p · (1 − p)
N −n
N −1
mit
p=
M
N
Anwendung: Ziehen ohne Zurücklegen:
In einer Urne befinden sich N Kugeln.
M von diesen Kugeln sind schwarz. Es werden n Kugeln ohne zurücklegen gezogen.
Die Zufallsvariable X zählt die Anzahl der schwarzen Kugeln.
Binomialverteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . , n heißt binomialverteilt mit
Parametern n und p, falls gilt:
P(X = k) =
µ ¶
n
· pk · (1 − p)n−k
k
Es gilt:
E(X) = n · p
und
Var(X) = n · p · (1 − p)
Wir schreiben auch X ∼ B(n, p)
Anwendung: Bei einem Versuch tritt ein bestimmtes Ereignis A mit Wahrscheinlichkeit p auf.
Der Versuch wird n mal durchgeführt.
Die Zufallsvariable X zählt, wie oft das Ereignis A bei diesen n Versuchsdurchführungen auftritt.
Poisson-Verteilung: Eine Zufallsvariable X mit Werten k = 0, 1, 2, 3, . . . heißt poissonverteilt mit Parameter λ ∈ R, wenn gilt:
P(X = k) =
λ k −λ
·e
k!
Es gilt weiters:
E(X) = λ
und
Var(X) = λ
Wir schreiben auch X ∼ P(λ )
Anwendung: Die Poissonverteilung kann als Approximation der Binomialverteilung für n > 10 und
p < 0.05 verwendet werden. Die Wahrscheinlichkeiten solcher binomialverteilter Zufallsvariable
können mit der Poissonverteilung berechnet werden, wobei gilt: λ = n · p
6
Herunterladen