1 Ergänzungen zu Statistik II

Werbung
QM2 17
1
1.1
1
Ergänzungen zu Statistik II
Stichprobenverteilungen
Produkträume.
In diesem Abschnitt geht es darum, einen geeigneten Wahrscheinlichkeitsraum
für die unabhängige Durchführung zweier Experimente zu konstruieren. Die Konstruktion soll nur an einem Beispiel durchgeführt werden, wobei jedoch klar werden dürfte, wie diese Konstruktion dann im allgemeinen Fall aussieht.
Die Experimente sollen hier das Werfen eines unfairen Würfels und das einer unfairen Münze sein. Zunächst werden die Wahrscheinlichkeitsräume für die Einzelexperimente angegeben. Beim Würfeln ist die Grundgesamtheit Ω1 = {1, . . . , 6},
wobei das Wahrscheinlichkeitsmaß P1 gegeben sei durch die folgende Wahrscheinlichkeitsfunktion f1 :
ω1 f1 (ω1 )
1
.1
2
.1
.
.1
3
4
.1
5
.1
6
.5
Beim Münzwurf ist die Grundgesamtheit Ω2 = {W, Z}, und das zugehörige Wahrscheinlichkeitsmaß P2 sei durch die Wahrscheinlichkeitsfunktion f2 gegeben:
ω2 f2 (ω2 )
.
W
.3
Z
.7
Für die unabhängige Durchführung beider Experimente wird man als Grundgesamtheit Ω naheliegenderweise Ω1 × Ω2 wählen. Als angemessenes Wahrscheinlichkeitsmaß erweist sich eine Art Produkt der einzelnen Maße; die Wahrscheinlichkeitsfunktion wählt man nämlich als Produkt der gegebenen beiden einzelnen
Wahrscheinlichkeitsfunktionen.
In der folgenden Tabelle ist diese Wahrscheinlichkeitsfunktion angegeben, außer-
1.1
Stichprobenverteilungen
QM2 17
2
dem stehen die ‚Faktoren‘ am Rand der Tabelle:
ω1 \ω2
1
2
3
4
5
6
W
.03
.03
.03
.03
.03
.15
.3
Z
.07
.07
.07
.07
.07
.35
.7
.1
.1
.1
.
.1
.1
.5
1
Dass die durch die Tabelle gegebene Funktion auf Ω1 × Ω2 tatsächlich eine Wahrscheinlichkeitsfunktion ist, rechnet man unmittelbar nach (die Summe der Zahlen
ist 1). Man macht sich auch leicht klar, dass dies so sein muss, denn zunächst
ergeben sich die Zahlen am rechten und unteren Rand durch zeilen- bzw. spaltenweises Aufsummieren (was nach Konstruktion offenbar so sein muss), und dann
ist die Summe dieser Summen jeweils 1, da ja jeweils die Werte einer Wahrscheinlichkeitsfunktion aufsummiert werden.
Betrachtet man auf dem so definierten Wahrscheinlichkeitsraum nun die beiden
‚Projektionen‘, die einem Paar (ω1 , ω2 ) einerseits ω1 und andererseits ω2 zuordnen
(inhaltlich heißt das, dass die Ergebnisse der Teilversuche isoliert betrachtet werden), so erhält man als Kontingenztafel dieser beiden Zufallsvariablen genau die
gerade untersuchte Tabelle. Man beachte allerdings, dass mit den beiden formal
gleich aussehenden Tabellen konzeptuell verschiedene Sachverhalte beschrieben
werden: einmal wird ein Wahrscheinlichkeitsmaß definiert und einmal eine Kontingenztafel zweier Zufallsvariablen angegeben.
Um dies auch formal korrekt aufzuschreiben, seien K1 und K2 die Funktionen auf
Ω1 ×Ω2 , die gerade die erste bzw. zweite Komponente eines Elementes von Ω1 ×Ω2
liefern; es gilt also K1 (ω1 , ω2 ) = ω1 und K2 (ω1 , ω2 ) = ω2 (eigentlich müsste man
K1 ((ω1 , ω2 )) schreiben). Die Funktionen K1 und K2 sind dann Zufallsvariablen
auf Ω1 × Ω2 mit Werten in Ω1 bzw. Ω2 . Die Tabelle oben kann dann auch als die
Kontingenztafel der gemeinsamen Verteilung von K1 und K2 gelesen werden.
Da in der Tabelle, als Kontingenztafel aufgefasst, sich die Zahlen als Produkte
der Randsummen ergeben, sind die beiden Projektionen unabhängig. Man hat
also insgesamt einen Wahrscheinlichkeitsraum für das zusammengesetzte Experiment definiert, bei dem die beiden Zufallsvariablen, die das Ergebnis der beiden
Teilexperimente angeben, einerseits unabhängig sind und andererseits die gleiche
1.1
Stichprobenverteilungen
QM2 17
3
Verteilung haben, wie die Ergebnisse der isoliert betrachteten Teilexperimente.
Damit erweist sich die Konstruktion des Wahrscheinlichkeitsmaßes auf Ω1 × Ω2
als angemessen, da dieses Wahrscheinlichkeitsmaß nun genau die Bedingungen
erfüllt, die sinnvoll von ihm zu fordern sind.
Das so konstruierte Maß bezeichnet man auch als das Produktmaß von P1 und
P2 . Als Abkürzung dient oft die Schreibweise P1 ⊗ P2 .
Nun mögen für das Würfeln und für das Münzwerfen zwei Gewinnspiele durch
zwei Zufallsvariablen definiert sein. Die Zufallsvariable X1 auf Ω1 und die Zufallsvariable X2 auf Ω2 sollen durch die folgenden Tabellen gegeben sein:
ω1 X1 (ω1 )
1
0
2
−2
3
−2
3
4
5
−2
6
3
ω2 X2 (ω2 )
.
W
−1
1
Z
Die Zufallsvariablen geben den Gewinn bzw. Verlust bei den einzelnen Spielen
an. Wären Würfel und Münze fair, so wären auch diese Spiele fair; so sind sie es
offenbar nicht.
Es geht nun darum, wie man das Spiel beschreibt, das aus den beiden einzelnen
Spielen zusammengesetzt ist, bei dem also jedesmal sowohl ein Würfel als auch
eine Münze geworfen werden. Auch hier sollen die beiden Einzelgewinne durch
zwei Zufallsvariable gegeben sein, die jetzt allerdings auf Ω1 × Ω2 definiert sein
sollen.
Ist das Ergebnis des zusammengesetzten Experiments gleich (ω1 , ω2 ), so soll natürlich der Gewinn des Würfelanteils des Spiels gleich X1 (ω1 ) sein und der des
Münzwurfanteils gleich X2 (ω2 ).
Ist das Ergebnis des zusammengesetzten Experiments also beispielsweise (3, W ),
so ist der Gewinn aus dem Würfelteil gleich X1 (3) = −2 und der Gewinn aus
dem Münzteil gleich X2 (W ) = −1.
Die Einzelgewinne aus dem zusammengesetzten Experiement sollen der Deutlichkeit halber hier mit X10 und X20 bezeichnet werden. Dies ist eine etwas umständliche Formulierung, die jedoch den momentanen Zwecken angemessen ist.
1.1
Stichprobenverteilungen
QM2 17
4
Normalerweise würde man die Einzelgewinne wieder mit X1 und X2 bezeichnen,
was allerdings nicht ganz korrekt ist, da die Symbole X1 und X2 schon verbraucht
sind (die verständige Leserin entnähme aber leicht dem Kontext, was jeweils gemeint ist).
Der Unterschied, auf den hier aufmerksam gemacht werden soll, liegt im Definitionsbereich; der Definitionsbereich von X10 und X20 ist Ω1 × Ω2 , während die
Definitionsbereiche von X1 und X2 hingegen Ω1 und Ω2 sind. Der Zusammenhang ist jedoch eng: es gilt Xi0 (ω1 , ω2 ) = Xi (ωi ) (eigentlich wäre Xi0 ((ω1 , ω2 )) zu
schreiben).
Es gilt dann also beispielsweise X10 (3, W ) = X1 (3) = −2.
Die gemeinsame Verteilung der beiden neuen (auf Ω1 × Ω2 definierten) Zufallsvariablen X10 und X20 lässt sich nun leicht angeben:
x1 \x2
−2
0
3
−1 1
.09 .21 .3
.03 .07 .1 .
.18 .42 .6
.3 .7 1
Man prüft sofort nach, dass die beiden Zufallsvariablen unabhängig sind und die
gleichen Verteilungen besitzen wie die entsprechenden Zufallsvariablen aus den
Einzelversuchen.
Die Unabhängigkeit ist natürlich keineswegs zufällig. Vielmehr liegt hier ein Spezialfall einer etwas allgemeineren Tatsache vor, die nun zunächst ergänzend behandelt werden soll.
Sind nämlich X und Y zwei unabhängige Zufallsvariablen auf einem Wahrscheinlichkeitsraum Ω, und sind g(X) und h(Y ) zwei Funktionen dieser Zufallsvariablen
(also neue Zufallsvariablen), so sind auch g(X) und h(Y ) unabhängig.
Zur Begründung hat man für zwei beliebige Mengen A und B aus dem Wertebereich von g und h die Unabhängigkeitsbedingung nachzuweisen, also zu zeigen,
dass (g(X))−1 (A) und (h(Y ))−1 (B) unabhängig sind. Nun ist aber (g(X))−1 (A) =
X −1 (g −1 (A)), da für ein Element ω ∈ Ω offenbar (g(X))(ω) = g(X(ω)) genau dann in A liegt, wenn X(ω) in g −1 (A) liegt, denn dies bedeutet ja genau,
dass g(X(ω)) ∈ A gilt. Entsprechend ist (h(Y ))−1 (B) = Y −1 (h−1 (B)). Aus der
Unabhängigkeit von X und Y folgt nun aber sofort die Unabhängigkeit von
1.1
Stichprobenverteilungen
QM2 17
5
X −1 (g −1 (A)) und Y −1 (h−1 (B)) und damit die Gesamtbehauptung.
Um diese allgemeine Tatsache nun auf den vorliegenden Fall anzuwenden, seien die beiden ‚Projektionen‘ von Ω1 × Ω2 auf Ω1 und Ω2 wieder mit K1 und
K2 bezeichnet. Die beiden untersuchten Variablen sind dann X10 = X1 (K1 ) und
X20 = X2 (K2 ) (es gilt ja offenbar X10 (ω1 , ω2 ) = X1 (ω1 ) = X1 (K1 (ω1 , ω2 )) =
(X1 (K1 ))(ω1 , ω1 ), entsprechend für X2 ).
Damit folgt die Unabhängigkeit von X10 und X20 aus der Unabhängigkeit von K1
und K2 gemäß der gerade behandelten allgemeineren Tatsache, wenn man dort
X = K1 , Y = K2 , g = X1 und h = X2 setzt.
Insgesamt ist es so gelungen, für zwei isolierte Experimente, deren (für einen
bestimmten Zweck - im Beispiel das Budget des Spielers) wesentliche Resultate
durch zwei Zufallsvariablen beschrieben werden, einen Wahrscheinlichkeitsraum
zu konstruieren, der die gemeinsame unabhängige Durchführung der Experimente beschreibt, und auf diesem zwei Zufallsvariablen zu definieren, die wieder die
wesentlichen Resultate der Einzelexperimente beschreiben, und die zusätzlich unabhängig sind.
Der Unterschied zwischen X1 und X10 (ebenso zwischen X2 und X20 ) liegt im Grunde nur darin, dass bei X10 noch ein weiteres Experiment sozusagen im Hintergrund
mit abläuft und bei X1 nicht, was in den unterschiedlichen Definitionsbereichen
zum Ausdruck kommt. Die Verteilungen von X1 und X10 sind hingegen gleich.
Genau auf die gleiche Art kann man für mehr als zwei Einzelexperimente einen
Wahrscheinlichkeitsraum definieren, der deren gemeinsame unabhängige Durchführung beschreibt; auch hier können wesentliche Resultate durch dann unabhängige Zufallsvariablen hervorgehoben werden.
Insbesondere ist es möglich, für vorgegebene Verteilungen einen Wahrscheinlichkeitsraum zu konstruieren, auf dem Zufallsvariablen definiert werden können, die
gerade die gegebenen Verteilungen besitzen und die zusätzlich unabhängig sind.
Dies ist für theoretische Zwecke, beispielsweise bei der Definition neuer Verteilungen, von entscheidender Wichtigkeit.
Ein Spezialfall kommt besonders häufig vor, nämlich der, dass dasselbe Experiment unabhängig mehrfach wiederholt wird.
In diesem Fall sei der angemessene Wahrscheinlichkeitsraum für die einmalige
Durchführung Ω0 mit dem Wahrscheinlichkeitsmaß P0 ; ein wesentliches Resultat
1.1
Stichprobenverteilungen
QM2 17
6
sei durch eine Zufallsvariable X gegeben.
Der Wahrscheinlichkeitsraum für die n-malige unabhängige Durchführung des
Experiments ist dann Ω = Ωn0 , versehen mit dem entsprechend den obigen Überlegungen zu definierenden Wahrscheinlichkeitsmaß P = P0 ⊗ P0 ⊗ . . . ⊗ P0 .
Die für die Versuche wesentlichen Resultate können dann durch Zufallsvariablen X1 , . . . , Xn beschrieben werden, von denen Xi gerade das Resultat des i-ten
Teilversuchs liefert; genauer gilt also
Xi (ω1 , . . . , ωn ) = X(ωi ) .
Diese Zufallsvariablen X1 , . . . , Xn sind gemeinsam unabhängig und besitzen alle
die gleiche Verteilung wie X.
Für diese Situation benutzt man auch abkürzend die Sprechweise, dass X1 , . . . , Xn
unabhängige Versionen von X sind.
Stichprobenverteilung von Varianzen und Kovarianzen.
Als Ausgangssituation seien X1 , . . . , Xn unabhängige Versionen einer Zufallsvariable X mit E(X) = µ und V(X) = σ 2 . Beschreibt man mit diesen Variablen die
Resultate von n unabhängigen Durchführungen eines Zufallsversuchs, so handelt
es sich hier um eine Stichprobe (die allerdings erst noch zu erheben ist).
Auf der Grundlage dieser Werte kann man dann die Varianz
S2 =
1X
(Xi − M )2
n
mit
M=
1X
Xi
n
2
mit den Xi also eine Zufallsvariable.
bilden. Hier ist SX
Für den Erwartungswert von S 2 gilt dann
E(S 2 ) =
n−1 2
σ ,
n
wie nun gezeigt werden soll.
Zunächst sei daran erinnert, dass für jede Zufallsvariable X die Beziehung
E(X 2 ) = V(X) + (E(X))2
(1)
gilt; dies ist nur die Umstellung der bekannten Formel V(X) = E(X 2 ) − (E(X))2 .
1.1
Stichprobenverteilungen
QM2 17
7
Die Varianz S 2 lässt sich nun bekanntlich auch schreiben als
S 2 = MX 2 − (MX )2 ,
woraus für den Erwartungswert die Beziehung
E(S 2 ) = E(MX 2 ) − E((MX )2 )
(2)
folgt; es sollen daher nun die beiden Erwartungswerte auf der rechten Seite dieser
Gleichung bestimmt und dann subtrahiert werden.
Zuerst geht es um MX 2 , also um den Mittelwert der Xi2 . Da die Xi unabhängige
Versionen von X sind, sind auch die Xi2 unabhängige Versionen von X 2 : da die
Verteilungen von Xi und X gleich sind, sind auch die Verteilungen von Xi2 und
X 2 gleich, und da die Xi unabhängig sind, sind auch die Xi2 unabhängig (vgl. den
Abschnitt über Produkträume für die Begründung im Fall von zwei Variablen).
Es folgt, dass der Erwartungswert von MX 2 gleich dem Erwartungswert von X 2
ist, womit sich nach (1) insgesamt
E(MX 2 ) = E(X 2 ) = σ 2 + µ2
(3)
ergibt.
Der nächste zu bestimmende Wert ist E((MX )2 ). Bekannt ist die Varianz von
MX , nämlich σ 2 /n. Setzt man in (1) für X den Mittelwert MX ein, so erhält man
E((MX )2 ) = V(MX ) + (E(MX ))2 =
σ2
+ µ2 .
n
(4)
Durch Einsetzen von (3) und (4) in (2) erhält man nun schließlich das gewünschte
Resultat
E(S 2 ) = E(MX 2 ) − E((MX )2 )
2
σ
σ2
n−1 2
2
2
2
= σ +µ −
+µ
= σ2 −
=
σ . n
n
n
Die Stichprobenvarianz S 2 ist also kein erwartungstreuer Schätzer für σ 2 , was
sich aber leicht korrigieren lässt: die korrigierte Stichprobenvarianz
s2 =
n
S2
n−1
1.1
Stichprobenverteilungen
QM2 17
8
schätzt σ 2 erwartungstreu.
Es liegt damit die Frage nahe, ob man etwas über den Erwartungswert von s
aussagen kann. Da Varianzen nichtnegativ sind, gilt immerhin
0 ≤ V(s) = E(s2 ) − (E(s))2 ,
woraus über (E(s))2 ≤ E(s2 ) die Beziehung
√
p
p
E(s) = (E(s))2 ≤ E(s2 ) = σ 2 = σ
folgt.
Gleichheit gilt hier nur in dem Fall, dass V(s) = 0 gilt, was nur dann eintritt,
wenn die möglichen Stichproben mit Wahrscheinlichkeit 1 die Varianz 0 haben,
also aus lauter gleichen Werten bestehen, was wiederum nur dann möglich ist,
wenn X nur einen möglichen Wert (mit Wahrscheinlichkeit 1) annehmen kann.
Der Fall der Gleichheit tritt also nur für völlig uninteressante Zufallsvariablen X
auf, die fast sicher konstant sind.
Bei Zufallsvariablen, die nicht (f.s.) konstant sind, gilt daher immer
E(s) < σ ,
durch s wird σ also ‚systematisch‘ unterschätzt.
Schließlich soll noch die Frage nach dem Erwartungswert der Stichprobenkovarianz beantwortet werden.
Man kann diese Frage auf die schon bekannten Ergebnisse über die Varianz zurückführen, indem man die folgende Beziehung ausnutzt:
V(X + Y ) − V(X − Y )
= V(X) + V(Y ) + 2 Kov(X, Y ) − (V(X) + V(Y ) − 2 Kov(X, Y ))
= 4 Kov(X, Y ) .
Die Kovarianz lässt sich also auch mit Hilfe der Varianz der Summe und der
Differenz ausdrücken.
Ganz analog erhält man auf empirischer Ebene die Formel
2
2
SX+Y
− SX−Y
= 4 KovX,Y .
1.1
Stichprobenverteilungen
QM2 17
9
Mit Hilfe dieser Formeln kann nun der Erwartungswert der Stichprobenkovarianz
bestimmt werden. Vorausgesetzt sind dabei wieder n unabhängige Versuche, in
denen nun zwei Variablen X und Y erhoben werden sollen. Schreibt man für
die Resultate der einzelnen Durchgänge wieder Xi und Yi , so kann man diese
Voraussetzung formal auch so schreiben, dass (X1 , Y1 ), . . . , (Xn , Yn ) unabhängige
Versionen der (nun ‚zweidimensionalen‘) Zufallsvariable (X, Y ) sein sollen.
Der Erwartungswert der Stichprobenkovarianz ist nun
1 2
1
2
2
2
E(KovX,Y ) = E
(SX+Y − SX−Y ) =
E(SX+Y
) − E(SX−Y
)
4
4
n−1
1 n−1
V(X + Y ) −
V(X − Y )
=
4
n
n
n−1 1
=
(V(X + Y ) − V(X − Y ))
n
4
n−1
Kov(X, Y ) .
=
n
Auch hier ist es also so, dass die Stichprobenkovarianz (im Betrag) die theoretische Kovarianz systematisch unterschätzt, was man leicht dadurch korrigieren
kann, dass man zur korrigierten Stichprobenkovarianz
n
KovX,Y
n−1
übergeht, die dann für Kov(X, Y ) erwartungstreu ist; die korrigierte Stichprobenkovarianz errechnet man dabei genauso wie die unkorrigierte, außer dass man im
letzten Schritt nicht durch n sondern durch (n − 1) dividiert.
Anmerkung zur Definition der Binomialverteilung.
Sind X1 , . . . , Xn unabhängige Versionen einer Variable X, die Bernoulli-verteilt
ist mit Erfolgswahrscheinlichkeit p, und ist
Y =
n
X
Xi ,
i=1
so heißt die Verteilung von Y auch Binomialverteilung mit den Parametern n und
p.
Die Abkürzung für diese Verteilung ist B(n, p).
1.1
Stichprobenverteilungen
QM2 17
10
Hat eine Variable U die B(n, p)-Verteilung, so schreibt man dafür auch kurz
U ∼ B(n, p).
Zu der Definition der Binomialverteilung ist anzumerken, dass hier eine Verteilung
definiert wird dadurch, dass eine Variable konstruiert wird, die diese Verteilung
besitzt (nämlich Y ).
Es geht dabei um die Definition einer Verteilung und nicht etwa um die Definition einer binomialverteilten Variable. Eine binomialverteilte Variable ist eine
Variable, deren Verteilung eine Binomialverteilung ist; keinesfalls muss eine solche Variable gleich einer Summe unabhängiger Bernoulli-verteilter Variablen sein
(auch wenn dies in vielen Fällen so sein wird).
Will man nun Eigenschaften von binomialverteilten Variablen zeigen (beispielsweise eine Formel für den Erwartungswert angeben), so genügt es oft, eine spezielle binomialverteilte Variable wie die Variable Y in der Definition zu benutzen;
sind die Eigenschaften nämlich nur abhängig von der Verteilung, so ist es gleichgültig, welche Variable bei der Argumentation benutzt wird, da das Ergebnis bei
allen Variablen das gleiche sein muss.
Der Erwartungswert lässt sich beispielsweise auch nur auf der Grundlage der
Verteilung berechnen (ist f die Wahrscheinlichkeitsfunktion der Verteilung, so
P
ist der Erwartungswert gleich
xf (x), wobei über alle möglichen Werte x der
Verteilung summiert wird). Daher haben alle Zufallsvariablen, die die gleiche
Verteilung besitzen, auch den gleichen Erwartungswert – in diesem Sinn hängt
der Erwartungswert nur über die Verteilung von der Zufallsvariable ab. Man kann
deshalb auch (nicht ganz korrekt) vom Erwartungswert der Binomialverteilung
sprechen (obwohl streng genommen nicht Verteilungen Erwartungswerte besitzen,
sondern Zufallsvariablen).
Um den Erwartungswert der B(n, p)-Verteilung (in diesem Sinn) zu bestimmen,
genügt es also, eine spezielle Variable mit dieser Verteilung zu benutzen (wie die
Variable Y in der Definition) und von dieser Variable den Erwartungswert zu
bilden (der sich für Y sofort zu n · p berechnet); jede andere Variable mit der
B(n, p)-Verteilung hat dann ebenfalls diesen Erwartungswert.
Als ein weiteres Beispiel soll gezeigt werden, dass die Verteilung von zwei unabhängigen binomialverteilten Variablen mit gleicher Erfolgswahrscheinlichkeit wieder binomialverteilt ist. Sind nämlich genauer Y1 ∼ B(n1 , p) und Y1 ∼ B(n2 , p)
1.1
Stichprobenverteilungen
QM2 17
11
unabhängig, und ist Y = Y1 + Y2 , so gilt
Y ∼ B(n1 + n2 , p) .
Zur Begründung seien X1 , . . . , Xn1 , Xn1 +1 , . . . , Xn1 +n2 unabhängige Bernoulli-verteilte Variablen mit Erfolgswahrscheinlichkeit p. Dass es solche Variablen gibt, ist
vielleicht nicht ganz selbstverständlich – man konstruiert sie jedoch beispielsweise
mit den bei den Produkträumen skizzierten Methoden.
Mit den Variablen Xi bildet man nun neue Variablen U1 und U2 als
U1 :=
n1
X
i=1
Xi
und
U2 :=
nX
1 +n2
Xi .
i=n1 +1
Dann gilt U1 ∼ B(n1 , p) und U1 ∼ B(n2 , p), U1 und U2 haben also die gleichen
Verteilungen wie Y1 und Y2 . Außerdem sind U1 und U2 unabhängig, was plausibel
ist, da ja die Xi , deren Summe sie jeweils sind, unabhängig sind (streng genommen
müsste dies allerdings auch noch genauer gezeigt werden).
Damit haben auch U1 und U2 die gleiche gemeinsame Verteilung wie Y1 und Y2 ,
denn die gemeinsame Verteilung ist durch die Einzelverteilungen und die Tatsache
der Unabhängigkeit schon vollständig bestimmt.
Schließlich ist auch die Verteilung von U = U1 + U2 gleich der von Y = Y1 + Y2 ,
denn es handelt sich bei diesen beiden Verteilungen um die Bildmaße der gleichen
W-Maße (Verteilungen von (U1 , U2 ) bzw. (Y1 , Y2 )) unter der gleichen Funktion
(Addition der beiden Komponenten).
P 1 +n2
Da jedoch nun U = ni=1
Xi die Summe von n1 + n2 unabhängigen BernoulliVariablen ist, ist die Verteilung von U eine B(n1 + n2 , p)-Verteilung und damit
auch die von Y . Multinomialverteilung.
Die Binomialverteilung kann verallgemeinert werden für den Fall, dass ein Versuch
nicht nur zwei mögliche Ergebnisse hat, sondern mehrere, nämlich e1 . . . , em , die
mit Wahrscheinlichkeiten p1 , . . . , pm auftreten.
Gefragt ist nach den Wahrscheinlichkeiten, mit denen bei n unabhängigen VersuP
chen die Werte ei jeweils genau ni Mal auftreten (dabei muss natürlich
ni = n
gelten).
1.1
Stichprobenverteilungen
QM2 17
12
Die gesuchte Verteilung ermittelt man völlig analog zum Vorgehen bei der Binomialverteilung; die Frage ist zunächst die, mit welcher Wahrscheinlichkeit ein
bestimmtes Gesamtergebnis auftritt, bei dem die Einzelwerte ei mit vorgegebenen
Häufigkeiten ni auftreten, wobei zusätzlich noch vorgeschrieben ist, bei welchem
Versuchsdurchgang welches Einzelergebnis auftreten soll. Wegen der Unabhängigkeit der Ziehungen ist die Wahrscheinlichkeit für jede solche spezielle Konstallation gleich
pn1 1 pn2 2 . . . pnmm ;
die Begründung ist völlig analog zu der im Fall der Binomialverteilung.
Die als nächstes zu beantwortende Frage ist die, wieviele derartige Gesamtergebnisse es gibt, bei denen vorgeschrieben ist, dass die Einzelergebnisse ei mit
den Häufigkeiten ni auftreten, wobei es nun jedoch gleichgültig ist, an welcher
Stelle welches Einzelergebnis auftritt. Ganz analog zu den Überlegungen bei der
Binomialverteilung ergibt sich hier als Anzahl der Multinomialkoeffizient
n!
.
n1 !n2 ! . . . nm !
Man fragt sich zur Begründung beispielsweise, auf wieviele Arten man die Menge
G der Nummern der Ziehungen so auf m Mengen Gi aufteilen kann, dass diese
Mengen jeweils genau ni Elemente enthalten. Die Menge Gi soll dabei gerade die
Nummern der Ziehungen enthalten, in denen das Ergebnis ei ist.
Insgesamt ist damit die Wahrscheinlichkeit, bei n unabhängigen Ziehungen die
Wertekombinationen ei mit den Häufigkeiten ni zu erhalten, gerade
n!
pn1 pn2 . . . pnmm .
n1 !n2 ! . . . nm ! 1 2
Die Verteilung, die sich auf diese Weise ergibt, heißt auch Multinomialverteilung,
wobei offensichtlich ist, dass die Binomialverteilung gerade der Spezialfall ist, in
der die betrachtete Variable zwei mögliche Werte besitzt.
Zur Kontrolle kann man sich fragen, ob die Summe dieser Wahrscheinlichkeiten
über alle möglichen Häufigkeitskombinationen n1 , . . . , nm auch wirklich gleich 1
ist; dies folgt jedoch wie im Fall der Binomialverteilung aus der beim Multinomialkoeffizienten behandelten Gleichung
!n
m
X
X
n!
1 = 1n =
pi
=
pn1 1 pn2 2 . . . pnmm ,
n
!
n
!
.
.
.
n
!
1
2
m
i=1
(n1 ,...,nm )
in der über alle m-Tupel (n1 , . . . , nm ) summiert wird, die aus nichtnegativen
ganzen Zahlen bestehen, deren Summe n ist.
Herunterladen