Statistik I Statistik II X Statistik III Statistik IV

Werbung
SNLP
SNLP
Statistik I
Statistik beschaftigt sich mit der Frage, wie
wahrscheinlich ein Ereignis ist.
Beispiel: Mit welcher Wahrscheinlichkeit kommt
beim Wurfeln dreimal die 6?
Ereignisraum }(
): Menge der moglichen Er-
Wahrscheinlichkeitsverteilung: eine Funkti-
Zufallsexperiment: Experiment, bei dem mehrere Ergebnisse moglich sind.
Zufallsereignis: Das Ergebnis eines Zufalls-
experimentes (z.B. zweimal mehr als 4 beim
Wurfeln)
Elementarereignis: Ereignis, das sich nicht
Stichprobe: Folge der Ereignisse, die sich bei
Statistik II
als Summe zweier anderer Ereignisse darstellen lat.
eignisse
on p, die jedem Elementarereignis e einen Wert
zwischen 0 und 1 zuweist, wobei gilt
X p(e) = 1
e
Die Wahrscheinlichkeit eines Ereignisses ist
gleich der Summe der Wahrscheinlichkeiten der
entsprechenden Elementarereignisse.
wiederholter Durchfuhrung eines Zufallsexperimentes ergeben.
Stichprobenraum : Menge der moglichen
Elementarereignisse
Helmut Schmid
9
SNLP
Helmut Schmid
10
SNLP
Statistik III
Bedingte Wahrscheinlichkeit: P (AjB) Wahrscheinlichkeit eines Ereignisses A, wenn das
Ereignis B gegeben ist.
P (AjB ) = P (PA(B\ )B )
Beispiele:
{ Wurfel: Wahrscheinlichkeit, dass die Augenzahl gerade ist, wenn die Augenzahl groer
als 3 ist.
Statistik IV
Kettenregel
P (A1 \ : : : \ A
Apriori-Wahrscheinlichkeit: P (A) Wahrschein-
Aposteriori-Wahrscheinlichkeit: P (AjB) Wahr-
) =
P (A1)P (A2jA1)P (A3jA1 \ A2) : : :
?1 A )
p(A j \ =1
n
n
i
i
Theorem von Bayes:
P (AjB ) = P (BPjA(B)P) (A)
{ Worter eines Zeitungsartikels: Wahrscheinlichkeit des Wortes Einstein, wenn das Wort
Albert vorausgeht.
n
Anwendung:
argmaxA P (AjB ) = argmaxA P (B jA)P (A)
lichkeit eines Ereignisses A ohne das zusatzliche Wissen uber B
scheinlichkeit eines Ereignisses A, wenn B bekannt ist
Helmut Schmid
11
Helmut Schmid
12
SNLP
SNLP
Statistik V
Statistik VI
Zufallsvariable: Funktion X : ! <, welche
jedem Ereignis ! eine reelle Zahl X (!) zuordnet.
Vorteil: Allgemeinere Betrachtung von Zufallsexperimenten moglich
Falls X : ! S , wobei S < eine abzahlbare
Menge ist, so ist X eine diskrete Zufallsvariable.
Falls X : ! f0; 1g, so handelt es sich um ein
Bernoulli-Experiment.
Wahrscheinlichkeitsfunktion
P (Ax) = p(X = x) = p(x),
wobei Ax = f! 2 jX (!) = xg
x
Beispiel: Wenn ein Wurfel geworfen wird und
Y die Augenzahl auf der Oberseite ist, dann
ist der Erwartungswert von Y
X6
X6
E (Y ) = y p(y) = 61 y = 21
6
y=1
y=1
Varianz: Ma fur die Streuung der Werte einer
Zufallsvariablen
V ar(X ) = E ((X ? E (X ))2) = E (X 2) ? E 2(X )
Standardabweichung: Quadratwurzel der Varianz
Verteilungsfunktion
Zx
p(X < x) = x=?1 p(X = x)
Helmut Schmid
Erwartungswert: der Mittelwert einer Zufallsvariablen
X
E (X ) = x p(x)
13
SNLP
Helmut Schmid
14
SNLP
Statistik VIII
Wenn mehrere Zufallsvariablen uber einer Ereignisraum deniert werden, konnen gemeinsame Verteilungen (joint probability) deniert werden.
p(x; y) = P (X = x; Y = y)
Statistik VII
Mittelwert einer Stichprobe x1; x2; : : : ; xn
Xn
x = n1 xi
i=1
Randverteilungen (marginal probabilities) ergeben sich, indem uber alle Werte einer Zufallsvariablen summiert wird.
X
pX (x) = p(x; y)
Xy
pY (y) = p(x; y)
Varianz einer Stichprobe
Xn
s2 = n ?1 1 (xi ? x)2
i=1
x
Unabhangigkeit: Zwei Zufallsvariablen X und
Y sind unabhangig, falls p(x; y) = pX (x) pY (y)
Helmut Schmid
15
Helmut Schmid
16
SNLP
SNLP
Verteilungen I
Eine Binomialverteilung ergibt sich, wenn ein
Versuch mit zwei Ausgangen (Bernoulli-Experiment)
wiederholt ausgefuhrt wird.
Die Wahrscheinlichkeit, dass ein Ereignis mit der
Wahrscheinlichkeit p bei n Versuchen r-mal auftritt, betragt
n
pr (1 ? p)n?r
b(r ; n; p) =
r
n
= (n ?nr!)! r!
r
0.3
b(r;10,0.5)
b(r;10,0.75)
0.25
Verteilungen II
Der Erwartungswert (Mittelwert) einer Binomialverteilung b(r; n; p) betragt np.
Die Varianz einer Binomialverteilung betragt
np(1 ? p).
Fur groe Werte von n nahert sich die Kurve
der (diskreten) Binomialverteilung der Kurve
der kontinuierlichen Normalverteilung an.
Wahrsch.
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
Frequenz
Helmut Schmid
17
SNLP
Helmut Schmid
18
SNLP
Verteilungen II
Die Normalverteilung ist gegeben durch
1 e? (x2?2)2
n(x; ; ) = p
2 Wahrscheinlichkeits-Sch
atzung
Relative Haugkeit: Wenn in einer Stichprobe der Groe N ein Ereignis n-mal auftritt, so
ist Nn seine relative Haugkeit.
0.4
n(x;0,1)
n(x;1.5,2)
0.35
Wahrsch.
0.3
0.25
0.2
0.15
0.1
0.05
0
-4
-2
0
Frequenz
2
4
Typische Beispiele (annahernd) normalverteilter Werte sind die Korpergroe (bei einem Geschlecht) oder der Intelligenzquotient.
Fur zunehmende Stichprobengroe konvergiert
die relative Haugkeit eines Ereignisses mit
hoher Wahrscheinlichkeit zu seiner Wahrscheinlichkeit.
genauer ausgedruckt:
Die Wahrscheinlichkeit, da die relative Haugkeit um mehr als eine Konstante von der
Wahrscheinlichkeit abweicht, konvergiert fur
zunehmende Groe der Stichprobe gegen Null.
Normalverteilungen werden auch als Gauss'sche Verteilungen bezeichnet. Wenn sich eine
Verteilung als Summe von Normalverteilungen
darstellen lasst, so spricht man von einer \Mixture of Gaussians" (Beispiel: Korpergroe)
Helmut Schmid
19
Helmut Schmid
20
Herunterladen