1 Überblick Beschreibende Statistik: Auswertung von Experimenten und Stichproben Wahrscheinlichkeitsrechnung: Schlüsse aus gegebenen Wahrscheinlichkeiten, Hilfsmittel: Kombinatorik Beurteilende Statistik: Schlüsse aus Experimenten, Beurteilung von exp. Ergebnissen (machen wir nicht) Linguistische Anwendungen: Spracherkennung Textretrival probabilistische Grammatiken: rung Problem: woher Daten? z.B. Disambiguie- 2 Beschreibende Statistik Statistische Erhebung: Bestimmung der Ausprägung eines Merkmals bei allen Individuen einer Grundgesamtheit. qualitative vs. quantitative Merkmale, diskrete vs. stetige qualitative Merkmale... Beispiele: Geschlecht/ Gewicht aller Neugeborenen an einem Tag in einem Krankenhaus Anzahl der Wörter in jedem Artikel einer Ausgabe einer Tageszeitung Anzahl des Vorkommens von bestimmten Wörtern in einem Text-Korpus 3 Begriffe absolute Häufigkeit: Anzahl des Vorkommens einer Ausprägung. relative Häufigkeit: absolute H. / Anzahl der Individuen Häufigkeitsverteilung: Funktion von allen Ausprägungen eines Merkmals auf Häufigkeiten. Zentralwert: Bedingung: Ausprägungen geordnet. Der Zentralwert ist diejenige Ausprägung, für die gilt: es liegen nicht mehr als die Hälfte der Erhebungswerte darunter oder darüber. arithmetisches x ; ::; xn: Mittel x von Erhebungswerten 1 Bedingung: quantitatives Merkmal. x = n (x + :: + xn) = n Pni xi Varianz, Streuung s (mittlere quadratische Abweichung): s = n ((x , x) + :: + (xn , x) ) = n Pni (xi , x) Standardabweichung: Quadratwurzel aus Varianz 1 1 1 =1 2 2 1 2 1 2 1 2 =1 4 Zufallsexperimente Zufallsvariable X : unsicherer Ausgang eines Zufallsexperiments mit endlicher Zahl möglicher Ausgänge E ; ::Ek, Ausgangsmenge oder Ereignisraum V (X ). Bsp: Werfen einer Münze, Ziehung der Lottozahlen, Alter des nächsten Passanten. 1 Jede Teilmenge von V (X ) heisst Ereignis, die einzelnen Elemente auch Elementarereignisse. Das Komplement eines Ereignisses A heisst Gegenereignis A. relative Häufigkeit eines Ausgangs, h(E ): # Eintreten von E = # Versuche. Bemerkung zum Übergang zur Wahrscheinlichkeitsrechnung: es gelten gleiche Gesetzmässigkeiten, aber W'keitsrechnung lässt sich nicht statistisch begründen. Daher axiomatische Einführung mit gegebenen Wahrscheinlichkeiten der Elementarereignisse. 5 Axiome der Wahrscheinlichkeit (Kolmogoroff) Wahrscheinlichkeit: Sei fE ; :::; Ek g ein Ereignisraum mit den Elementarereignissen Ei. Wahrscheinlichkeitsverteilung: Funktion P : fE ; :::; Ek g![0; 1] (1) 1 1 mit P (E 1) + PE ( 2) + ::: P Ek + ( ; ) = 1 (2) P Ei heisst Wahrscheinlichkeit von Ei. Sei A ein Ereignis mit Ereignisraum wie oben. Wahrscheinlichkeit von A: P A P E :: P Ei , falls A E [ :: [ Ei; P A , falls A ; (3) ( ) ( ) = ( ( ) = 0 1) + + ( ) = 1 = Folgerungen daraus: für alle Ereignisse A, B gilt: P A PA ,P A AB)P A <P B A\B ;)P A[B P A P B 0 ( ( ) 1 ) = 1 ( ( = ) ) ( ( ) ) = ( ) + (A und B heissen unvereinbar) ( ) 6 Gleichverteilung Gleichverteilung: W'keitsverteilung, bei der alle Elementarereignisse die gleiche W'keit haben. Zufallsexperimente mit Gleichverteilung heissen Laplace-Experimente. Für Laplace-Experimente gilt für Ereignis A : PA ( ) = Anzahl der günstigen Ausgänge Anzahl der möglichen Ausgänge Beispiele: X : Augenzahl bei Wurf eines fairen (idealen) Würfels. 1 V X f ; ; ; ; ; g; P Ei = X : Augenzahl bei Wurf von zwei ( 1) = 1 2 3 4 5 6 ( ) = 1 6 2 gleichzeitig. VX P ( 2) = f; ; ; ; ; ; ; ; ; ; g 2 3 4 5 6 7 8 9 10 11 12 = ;P (2) = 2 36 = ; ::: (3) = 4 36 fairen Würfeln 7 Kombinatorik Produktregel zur Bestimmung möglicher Kombinationen: Sei folgendes Lexikon gegeben: f die, keine, schönen, grünen, schnellen, Hunde, Katzen, Mäuse g. Wieviele NPs lassen sich unter Verwendung der Regel NP !Det Adj N daraus bilden? # NP = # Det # Adj # N. Geordnete Stichprobe mit Zurücklegen, k-mal eines von n Elementen ziehen: nk Möglichkeiten. Geordnete Stichprobe ohne Zurücklegen: n n n , ::: n , k n,k Geordnete Vollerhebung (Permutation): n Ungeordnete Stichprobe ohne Zurücklegen (Bsp: ( 1) ( + 1) = ! ( )! ! Lottozahlen): 0 B Binomialkoeffizient, ”n über k”: B@ n k 1 CC A = n k n,k ! !( )! 8 Bedingte Wahrscheinlichkeiten P A [ B P A P B gilt nur wenn A \ B ;. P A P B ,P A\B Sonst: P A [ B Wie kann man P A \ B bestimmen? ( ) = ( ( ) + ) = ( ( ( ) = ) + ( ) ( ) ) Bedingte relative Häufigkeit: n Durchführungen, n > 0 mal Ereignis A, davon kmal auch B , dann ist k=n die relative Häufigkeit von B bezüglich A, hA(B ), auch h(B j A). 1 1 h A\B ( ) = h A hA B ( ) ( ) Bedingte Wahrscheinlichkeit: Gegeben: Ereignisse A und B , P (A) 6= 0, dann heisst P BjA ( ) = PA B ( P A\B PA ( ) = ( ) ) die durch A bedingte Wahrscheinlichkeit von Wahrscheinlichkeit von B bezgl. A. Allgemeiner Multiplikationssatz: P (A) 6= 0; dann P (A \ B ) = P (A) PA(B ) B oder 9 Beispiel Wenn sich jemand noch genau erinnert, dass eines der beiden Kinder seiner Cousine ein Junge ist, wie gross ist dann die Wahrscheinlichkeit, dass beides Jungen sind? (P(Junge) = P(Mädchen) = 0.5). Gesucht: P1 Junge(2 Jungen) Lösung Ohne Information: P(2 Jungen) = 1/4 P(2 Mädchen)= 1/4 P(Junge/Mädchen) = 1/2 P(A) = P(1 Junge) = 1/4 + 1/2 = 3/4 P(B) = P(2 Jungen), P(A \ B) = P(B) Mit der Information, dass ein Kind ein Junge ist: P1 Junge(2 Jungen) = P(2 Jungen) / P(1 Junge) = 1/4 / 3/4 = 1/3 10 Weiter: bedingte W'keiten Seien A und B Ereignisse mit P (A) 6= 0; P (B ) 6= 0. Dann gilt: PB A ( ) = PA B P A =P B : ( ) ( ) ( ) verallgemeinert, Satz von Bayes: Seien A ; :::An Ereignisse, die den Ereignisraum zerlegen, d.h. P (A ) + :: + P (An) = 1, und P (Aj ) 0 für 1 j n. Sei P (B ) > 0. Dann gilt für Ai mit 1 i n: 1 1 PB Ai ( P Ai PA B P A PA B :: P An PA B ( ) = ( 1) 1( ) i ) + ( + ) ( ) n ( ) Zwei Ereignisse heissen unabhängig, wenn gilt: PA(B ) = P (B ) (und PB (A) = P (A)). Spezieller Multiplikationssatz: Sind A und B unabhängig, dann gilt: P A[B ( ) = P A P B ( ) ( ) 11 bedingte W'keiten, linguistisch Wortfolgen: P w ;n ( 1 ) = P w P w j w P w j w ; w :::P wn j w ;n, ( 1) ( 2 1) ( 3 1 2) ( 1 1) 8 9 > < kleine > = der >: Hund Schweine >; Sei P(kleine j der ) = P( Schweine j der ). P = P( der kleine Hund ) = P(der) P(kleine j der) P( Hund j der kleine) P = P( der Schweine Hund ) = P(der) P(Schweine j der) P( Hund j der Schweine) 1 2 P >P , falls P( Hund j der kleine) > P( Hund j der Schweine) 1 2