SNLP SNLP Statistik I Statistik beschaftigt sich mit der Frage, wie wahrscheinlich ein Ereignis ist. Beispiel: Mit welcher Wahrscheinlichkeit kommt beim Wurfeln dreimal die 6? Ereignisraum }( ): Menge der moglichen Er- Wahrscheinlichkeitsverteilung: eine Funkti- Zufallsexperiment: Experiment, bei dem mehrere Ergebnisse moglich sind. Zufallsereignis: Das Ergebnis eines Zufalls- experimentes (z.B. zweimal mehr als 4 beim Wurfeln) Elementarereignis: Ereignis, das sich nicht Stichprobe: Folge der Ereignisse, die sich bei Statistik II als Summe zweier anderer Ereignisse darstellen lat. eignisse on p, die jedem Elementarereignis e einen Wert zwischen 0 und 1 zuweist, wobei gilt X p(e) = 1 e Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten der entsprechenden Elementarereignisse. wiederholter Durchfuhrung eines Zufallsexperimentes ergeben. Stichprobenraum : Menge der moglichen Elementarereignisse Helmut Schmid 9 SNLP Helmut Schmid 10 SNLP Statistik III Bedingte Wahrscheinlichkeit: P (AjB) Wahrscheinlichkeit eines Ereignisses A, wenn das Ereignis B gegeben ist. P (AjB ) = P (PA(B\ )B ) Beispiele: { Wurfel: Wahrscheinlichkeit, dass die Augenzahl gerade ist, wenn die Augenzahl groer als 3 ist. Statistik IV Kettenregel P (A1 \ : : : \ A Apriori-Wahrscheinlichkeit: P (A) Wahrschein- Aposteriori-Wahrscheinlichkeit: P (AjB) Wahr- ) = P (A1)P (A2jA1)P (A3jA1 \ A2) : : : ?1 A ) p(A j \ =1 n n i i Theorem von Bayes: P (AjB ) = P (BPjA(B)P) (A) { Worter eines Zeitungsartikels: Wahrscheinlichkeit des Wortes Einstein, wenn das Wort Albert vorausgeht. n Anwendung: argmaxA P (AjB ) = argmaxA P (B jA)P (A) lichkeit eines Ereignisses A ohne das zusatzliche Wissen uber B scheinlichkeit eines Ereignisses A, wenn B bekannt ist Helmut Schmid 11 Helmut Schmid 12 SNLP SNLP Statistik V Statistik VI Zufallsvariable: Funktion X : ! <, welche jedem Ereignis ! eine reelle Zahl X (!) zuordnet. Vorteil: Allgemeinere Betrachtung von Zufallsexperimenten moglich Falls X : ! S , wobei S < eine abzahlbare Menge ist, so ist X eine diskrete Zufallsvariable. Falls X : ! f0; 1g, so handelt es sich um ein Bernoulli-Experiment. Wahrscheinlichkeitsfunktion P (Ax) = p(X = x) = p(x), wobei Ax = f! 2 jX (!) = xg x Beispiel: Wenn ein Wurfel geworfen wird und Y die Augenzahl auf der Oberseite ist, dann ist der Erwartungswert von Y X6 X6 E (Y ) = y p(y) = 61 y = 21 6 y=1 y=1 Varianz: Ma fur die Streuung der Werte einer Zufallsvariablen V ar(X ) = E ((X ? E (X ))2) = E (X 2) ? E 2(X ) Standardabweichung: Quadratwurzel der Varianz Verteilungsfunktion Zx p(X < x) = x=?1 p(X = x) Helmut Schmid Erwartungswert: der Mittelwert einer Zufallsvariablen X E (X ) = x p(x) 13 SNLP Helmut Schmid 14 SNLP Statistik VIII Wenn mehrere Zufallsvariablen uber einer Ereignisraum deniert werden, konnen gemeinsame Verteilungen (joint probability) deniert werden. p(x; y) = P (X = x; Y = y) Statistik VII Mittelwert einer Stichprobe x1; x2; : : : ; xn Xn x = n1 xi i=1 Randverteilungen (marginal probabilities) ergeben sich, indem uber alle Werte einer Zufallsvariablen summiert wird. X pX (x) = p(x; y) Xy pY (y) = p(x; y) Varianz einer Stichprobe Xn s2 = n ?1 1 (xi ? x)2 i=1 x Unabhangigkeit: Zwei Zufallsvariablen X und Y sind unabhangig, falls p(x; y) = pX (x) pY (y) Helmut Schmid 15 Helmut Schmid 16 SNLP SNLP Verteilungen I Eine Binomialverteilung ergibt sich, wenn ein Versuch mit zwei Ausgangen (Bernoulli-Experiment) wiederholt ausgefuhrt wird. Die Wahrscheinlichkeit, dass ein Ereignis mit der Wahrscheinlichkeit p bei n Versuchen r-mal auftritt, betragt n pr (1 ? p)n?r b(r ; n; p) = r n = (n ?nr!)! r! r 0.3 b(r;10,0.5) b(r;10,0.75) 0.25 Verteilungen II Der Erwartungswert (Mittelwert) einer Binomialverteilung b(r; n; p) betragt np. Die Varianz einer Binomialverteilung betragt np(1 ? p). Fur groe Werte von n nahert sich die Kurve der (diskreten) Binomialverteilung der Kurve der kontinuierlichen Normalverteilung an. Wahrsch. 0.2 0.15 0.1 0.05 0 0 2 4 6 8 10 Frequenz Helmut Schmid 17 SNLP Helmut Schmid 18 SNLP Verteilungen II Die Normalverteilung ist gegeben durch 1 e? (x2?2)2 n(x; ; ) = p 2 Wahrscheinlichkeits-Sch atzung Relative Haugkeit: Wenn in einer Stichprobe der Groe N ein Ereignis n-mal auftritt, so ist Nn seine relative Haugkeit. 0.4 n(x;0,1) n(x;1.5,2) 0.35 Wahrsch. 0.3 0.25 0.2 0.15 0.1 0.05 0 -4 -2 0 Frequenz 2 4 Typische Beispiele (annahernd) normalverteilter Werte sind die Korpergroe (bei einem Geschlecht) oder der Intelligenzquotient. Fur zunehmende Stichprobengroe konvergiert die relative Haugkeit eines Ereignisses mit hoher Wahrscheinlichkeit zu seiner Wahrscheinlichkeit. genauer ausgedruckt: Die Wahrscheinlichkeit, da die relative Haugkeit um mehr als eine Konstante von der Wahrscheinlichkeit abweicht, konvergiert fur zunehmende Groe der Stichprobe gegen Null. Normalverteilungen werden auch als Gauss'sche Verteilungen bezeichnet. Wenn sich eine Verteilung als Summe von Normalverteilungen darstellen lasst, so spricht man von einer \Mixture of Gaussians" (Beispiel: Korpergroe) Helmut Schmid 19 Helmut Schmid 20