¨Uberblick

Werbung
1
Überblick
Beschreibende Statistik:
Auswertung von Experimenten und Stichproben
Wahrscheinlichkeitsrechnung:
Schlüsse aus gegebenen Wahrscheinlichkeiten,
Hilfsmittel: Kombinatorik
Beurteilende Statistik:
Schlüsse aus Experimenten, Beurteilung von exp.
Ergebnissen (machen wir nicht)
Linguistische Anwendungen:
Spracherkennung
Textretrival
probabilistische Grammatiken:
rung
Problem: woher Daten?
z.B. Disambiguie-
2
Beschreibende Statistik
Statistische Erhebung: Bestimmung der Ausprägung
eines Merkmals bei allen Individuen einer Grundgesamtheit.
qualitative vs. quantitative Merkmale,
diskrete vs. stetige qualitative Merkmale...
Beispiele:
Geschlecht/
Gewicht aller Neugeborenen an einem Tag in einem Krankenhaus
Anzahl der Wörter in jedem Artikel einer Ausgabe
einer Tageszeitung
Anzahl des Vorkommens von bestimmten Wörtern
in einem Text-Korpus
3
Begriffe
absolute Häufigkeit:
Anzahl des Vorkommens einer Ausprägung.
relative Häufigkeit:
absolute H. / Anzahl der Individuen
Häufigkeitsverteilung:
Funktion von allen Ausprägungen eines Merkmals
auf Häufigkeiten.
Zentralwert:
Bedingung: Ausprägungen geordnet. Der Zentralwert ist diejenige Ausprägung, für die gilt: es liegen
nicht mehr als die Hälfte der Erhebungswerte darunter oder darüber.
arithmetisches
x ; ::; xn:
Mittel
x
von Erhebungswerten
1
Bedingung: quantitatives Merkmal.
x = n (x + :: + xn) = n Pni xi
Varianz, Streuung s (mittlere quadratische Abweichung):
s = n ((x , x) + :: + (xn , x) ) = n Pni (xi , x)
Standardabweichung: Quadratwurzel aus Varianz
1
1
1
=1
2
2
1
2
1
2
1
2
=1
4
Zufallsexperimente
Zufallsvariable X : unsicherer Ausgang eines Zufallsexperiments mit endlicher Zahl möglicher Ausgänge
E ; ::Ek, Ausgangsmenge oder Ereignisraum V (X ).
Bsp: Werfen einer Münze, Ziehung der Lottozahlen,
Alter des nächsten Passanten.
1
Jede Teilmenge von V (X ) heisst Ereignis, die einzelnen Elemente auch Elementarereignisse.
Das Komplement eines Ereignisses A heisst Gegenereignis A.
relative Häufigkeit eines Ausgangs, h(E ):
# Eintreten von E = # Versuche.
Bemerkung zum Übergang zur Wahrscheinlichkeitsrechnung: es gelten gleiche Gesetzmässigkeiten,
aber W'keitsrechnung lässt sich nicht statistisch
begründen. Daher axiomatische Einführung mit gegebenen Wahrscheinlichkeiten der Elementarereignisse.
5
Axiome der Wahrscheinlichkeit
(Kolmogoroff)
Wahrscheinlichkeit:
Sei fE ; :::; Ek g ein Ereignisraum mit den Elementarereignissen Ei.
Wahrscheinlichkeitsverteilung:
Funktion P : fE ; :::; Ek g![0; 1] (1)
1
1
mit P (E
1)
+
PE
(
2)
+
::: P Ek
+
(
;
) = 1
(2)
P Ei heisst Wahrscheinlichkeit von Ei.
Sei A ein Ereignis mit Ereignisraum wie oben.
Wahrscheinlichkeit von A:
P A P E :: P Ei , falls A E [ :: [ Ei;
P A , falls A ; (3)
(
)
(
) =
(
(
) = 0
1)
+
+
(
)
=
1
=
Folgerungen daraus: für alle Ereignisse A, B gilt:
P A PA
,P A
AB)P A <P B
A\B ;)P A[B P A P B
0
(
(
)
1
) = 1
(
(
=
)
)
(
(
)
) =
(
) +
(A und B heissen unvereinbar)
(
)
6
Gleichverteilung
Gleichverteilung: W'keitsverteilung, bei der alle Elementarereignisse die gleiche W'keit haben.
Zufallsexperimente mit Gleichverteilung heissen
Laplace-Experimente.
Für Laplace-Experimente gilt für Ereignis A :
PA
(
) =
Anzahl der günstigen Ausgänge
Anzahl der möglichen Ausgänge
Beispiele:
X :
Augenzahl bei Wurf eines fairen (idealen)
Würfels.
1
V X f ; ; ; ; ; g; P Ei =
X : Augenzahl bei Wurf von zwei
(
1)
=
1 2 3 4 5 6
(
) = 1 6
2
gleichzeitig.
VX
P
(
2)
=
f; ; ; ; ; ; ; ; ; ; g
2 3 4 5 6 7 8 9 10 11 12
= ;P
(2) = 2 36
= ; :::
(3) = 4 36
fairen Würfeln
7
Kombinatorik
Produktregel zur Bestimmung möglicher Kombinationen:
Sei folgendes Lexikon gegeben:
f die, keine, schönen, grünen, schnellen, Hunde, Katzen, Mäuse g.
Wieviele NPs lassen sich unter Verwendung der Regel NP !Det Adj N daraus bilden?
# NP = # Det # Adj # N.
Geordnete Stichprobe mit Zurücklegen, k-mal eines von n Elementen ziehen:
nk Möglichkeiten.
Geordnete Stichprobe ohne Zurücklegen:
n
n n , ::: n , k
n,k
Geordnete Vollerhebung (Permutation): n
Ungeordnete Stichprobe ohne Zurücklegen (Bsp:
(
1)
(
+ 1) =
!
(
)!
!
Lottozahlen):
0
B
Binomialkoeffizient, ”n über k”: B@
n
k
1
CC
A
=
n
k n,k
!
!(
)!
8
Bedingte Wahrscheinlichkeiten
P A [ B P A P B gilt nur wenn A \ B ;.
P A P B ,P A\B
Sonst: P A [ B
Wie kann man P A \ B bestimmen?
(
) =
(
(
) +
) =
(
(
(
)
=
) +
(
)
(
)
)
Bedingte relative Häufigkeit:
n Durchführungen, n > 0 mal Ereignis A, davon kmal auch B , dann ist k=n die relative Häufigkeit von
B bezüglich A, hA(B ), auch h(B j A).
1
1
h A\B
(
) =
h A hA B
(
)
(
)
Bedingte Wahrscheinlichkeit:
Gegeben: Ereignisse A und B , P (A) 6= 0, dann heisst
P BjA
(
) =
PA B
(
P A\B
PA
(
) =
(
)
)
die durch A bedingte Wahrscheinlichkeit von
Wahrscheinlichkeit von B bezgl. A.
Allgemeiner Multiplikationssatz:
P (A) 6= 0; dann P (A \ B ) = P (A) PA(B )
B oder
9
Beispiel
Wenn sich jemand noch genau erinnert, dass eines
der beiden Kinder seiner Cousine ein Junge ist, wie
gross ist dann die Wahrscheinlichkeit, dass beides
Jungen sind? (P(Junge) = P(Mädchen) = 0.5).
Gesucht: P1 Junge(2 Jungen)
Lösung
Ohne Information:
P(2 Jungen) = 1/4
P(2 Mädchen)= 1/4
P(Junge/Mädchen) = 1/2
P(A) = P(1 Junge) = 1/4 + 1/2 = 3/4
P(B) = P(2 Jungen), P(A \ B) = P(B)
Mit der Information, dass ein Kind ein Junge ist:
P1 Junge(2 Jungen) = P(2 Jungen) / P(1 Junge)
= 1/4 / 3/4 = 1/3
10
Weiter: bedingte W'keiten
Seien A und B Ereignisse mit P (A) 6= 0; P (B ) 6= 0.
Dann gilt:
PB A
(
) =
PA B P A =P B :
(
)
(
)
(
)
verallgemeinert, Satz von Bayes:
Seien A ; :::An Ereignisse, die den Ereignisraum
zerlegen, d.h. P (A ) + :: + P (An) = 1, und P (Aj ) 0
für 1 j n. Sei P (B ) > 0.
Dann gilt für Ai mit 1 i n:
1
1
PB Ai
(
P Ai PA B
P A PA B :: P An PA B
(
) =
(
1)
1(
)
i
) +
(
+
)
(
)
n
(
)
Zwei Ereignisse heissen unabhängig, wenn gilt:
PA(B ) = P (B ) (und PB (A) = P (A)).
Spezieller Multiplikationssatz:
Sind A und B unabhängig, dann gilt:
P A[B
(
) =
P A P B
(
)
(
)
11
bedingte W'keiten, linguistisch
Wortfolgen:
P w ;n
(
1
) =
P w P w j w P w j w ; w :::P wn j w ;n,
(
1)
(
2
1)
(
3
1
2)
(
1
1)
8
9
>
< kleine >
=
der >:
Hund
Schweine >;
Sei P(kleine
j der ) = P( Schweine j der ).
P = P( der kleine Hund ) =
P(der) P(kleine j der) P( Hund j der kleine)
P = P( der Schweine Hund ) =
P(der) P(Schweine j der) P( Hund j der Schweine)
1
2
P >P ,
falls P( Hund j der kleine) > P( Hund j der Schweine)
1
2
Herunterladen