QM2 17 1 1.1 1 Ergänzungen zu Statistik II Stichprobenverteilungen Produkträume. In diesem Abschnitt geht es darum, einen geeigneten Wahrscheinlichkeitsraum für die unabhängige Durchführung zweier Experimente zu konstruieren. Die Konstruktion soll nur an einem Beispiel durchgeführt werden, wobei jedoch klar werden dürfte, wie diese Konstruktion dann im allgemeinen Fall aussieht. Die Experimente sollen hier das Werfen eines unfairen Würfels und das einer unfairen Münze sein. Zunächst werden die Wahrscheinlichkeitsräume für die Einzelexperimente angegeben. Beim Würfeln ist die Grundgesamtheit Ω1 = {1, . . . , 6}, wobei das Wahrscheinlichkeitsmaß P1 gegeben sei durch die folgende Wahrscheinlichkeitsfunktion f1 : ω1 f1 (ω1 ) 1 .1 2 .1 . .1 3 4 .1 5 .1 6 .5 Beim Münzwurf ist die Grundgesamtheit Ω2 = {W, Z}, und das zugehörige Wahrscheinlichkeitsmaß P2 sei durch die Wahrscheinlichkeitsfunktion f2 gegeben: ω2 f2 (ω2 ) . W .3 Z .7 Für die unabhängige Durchführung beider Experimente wird man als Grundgesamtheit Ω naheliegenderweise Ω1 × Ω2 wählen. Als angemessenes Wahrscheinlichkeitsmaß erweist sich eine Art Produkt der einzelnen Maße; die Wahrscheinlichkeitsfunktion wählt man nämlich als Produkt der gegebenen beiden einzelnen Wahrscheinlichkeitsfunktionen. In der folgenden Tabelle ist diese Wahrscheinlichkeitsfunktion angegeben, außer- 1.1 Stichprobenverteilungen QM2 17 2 dem stehen die ‚Faktoren‘ am Rand der Tabelle: ω1 \ω2 1 2 3 4 5 6 W .03 .03 .03 .03 .03 .15 .3 Z .07 .07 .07 .07 .07 .35 .7 .1 .1 .1 . .1 .1 .5 1 Dass die durch die Tabelle gegebene Funktion auf Ω1 × Ω2 tatsächlich eine Wahrscheinlichkeitsfunktion ist, rechnet man unmittelbar nach (die Summe der Zahlen ist 1). Man macht sich auch leicht klar, dass dies so sein muss, denn zunächst ergeben sich die Zahlen am rechten und unteren Rand durch zeilen- bzw. spaltenweises Aufsummieren (was nach Konstruktion offenbar so sein muss), und dann ist die Summe dieser Summen jeweils 1, da ja jeweils die Werte einer Wahrscheinlichkeitsfunktion aufsummiert werden. Betrachtet man auf dem so definierten Wahrscheinlichkeitsraum nun die beiden ‚Projektionen‘, die einem Paar (ω1 , ω2 ) einerseits ω1 und andererseits ω2 zuordnen (inhaltlich heißt das, dass die Ergebnisse der Teilversuche isoliert betrachtet werden), so erhält man als Kontingenztafel dieser beiden Zufallsvariablen genau die gerade untersuchte Tabelle. Man beachte allerdings, dass mit den beiden formal gleich aussehenden Tabellen konzeptuell verschiedene Sachverhalte beschrieben werden: einmal wird ein Wahrscheinlichkeitsmaß definiert und einmal eine Kontingenztafel zweier Zufallsvariablen angegeben. Um dies auch formal korrekt aufzuschreiben, seien K1 und K2 die Funktionen auf Ω1 ×Ω2 , die gerade die erste bzw. zweite Komponente eines Elementes von Ω1 ×Ω2 liefern; es gilt also K1 (ω1 , ω2 ) = ω1 und K2 (ω1 , ω2 ) = ω2 (eigentlich müsste man K1 ((ω1 , ω2 )) schreiben). Die Funktionen K1 und K2 sind dann Zufallsvariablen auf Ω1 × Ω2 mit Werten in Ω1 bzw. Ω2 . Die Tabelle oben kann dann auch als die Kontingenztafel der gemeinsamen Verteilung von K1 und K2 gelesen werden. Da in der Tabelle, als Kontingenztafel aufgefasst, sich die Zahlen als Produkte der Randsummen ergeben, sind die beiden Projektionen unabhängig. Man hat also insgesamt einen Wahrscheinlichkeitsraum für das zusammengesetzte Experiment definiert, bei dem die beiden Zufallsvariablen, die das Ergebnis der beiden Teilexperimente angeben, einerseits unabhängig sind und andererseits die gleiche 1.1 Stichprobenverteilungen QM2 17 3 Verteilung haben, wie die Ergebnisse der isoliert betrachteten Teilexperimente. Damit erweist sich die Konstruktion des Wahrscheinlichkeitsmaßes auf Ω1 × Ω2 als angemessen, da dieses Wahrscheinlichkeitsmaß nun genau die Bedingungen erfüllt, die sinnvoll von ihm zu fordern sind. Das so konstruierte Maß bezeichnet man auch als das Produktmaß von P1 und P2 . Als Abkürzung dient oft die Schreibweise P1 ⊗ P2 . Nun mögen für das Würfeln und für das Münzwerfen zwei Gewinnspiele durch zwei Zufallsvariablen definiert sein. Die Zufallsvariable X1 auf Ω1 und die Zufallsvariable X2 auf Ω2 sollen durch die folgenden Tabellen gegeben sein: ω1 X1 (ω1 ) 1 0 2 −2 3 −2 3 4 5 −2 6 3 ω2 X2 (ω2 ) . W −1 1 Z Die Zufallsvariablen geben den Gewinn bzw. Verlust bei den einzelnen Spielen an. Wären Würfel und Münze fair, so wären auch diese Spiele fair; so sind sie es offenbar nicht. Es geht nun darum, wie man das Spiel beschreibt, das aus den beiden einzelnen Spielen zusammengesetzt ist, bei dem also jedesmal sowohl ein Würfel als auch eine Münze geworfen werden. Auch hier sollen die beiden Einzelgewinne durch zwei Zufallsvariable gegeben sein, die jetzt allerdings auf Ω1 × Ω2 definiert sein sollen. Ist das Ergebnis des zusammengesetzten Experiments gleich (ω1 , ω2 ), so soll natürlich der Gewinn des Würfelanteils des Spiels gleich X1 (ω1 ) sein und der des Münzwurfanteils gleich X2 (ω2 ). Ist das Ergebnis des zusammengesetzten Experiments also beispielsweise (3, W ), so ist der Gewinn aus dem Würfelteil gleich X1 (3) = −2 und der Gewinn aus dem Münzteil gleich X2 (W ) = −1. Die Einzelgewinne aus dem zusammengesetzten Experiement sollen der Deutlichkeit halber hier mit X10 und X20 bezeichnet werden. Dies ist eine etwas umständliche Formulierung, die jedoch den momentanen Zwecken angemessen ist. 1.1 Stichprobenverteilungen QM2 17 4 Normalerweise würde man die Einzelgewinne wieder mit X1 und X2 bezeichnen, was allerdings nicht ganz korrekt ist, da die Symbole X1 und X2 schon verbraucht sind (die verständige Leserin entnähme aber leicht dem Kontext, was jeweils gemeint ist). Der Unterschied, auf den hier aufmerksam gemacht werden soll, liegt im Definitionsbereich; der Definitionsbereich von X10 und X20 ist Ω1 × Ω2 , während die Definitionsbereiche von X1 und X2 hingegen Ω1 und Ω2 sind. Der Zusammenhang ist jedoch eng: es gilt Xi0 (ω1 , ω2 ) = Xi (ωi ) (eigentlich wäre Xi0 ((ω1 , ω2 )) zu schreiben). Es gilt dann also beispielsweise X10 (3, W ) = X1 (3) = −2. Die gemeinsame Verteilung der beiden neuen (auf Ω1 × Ω2 definierten) Zufallsvariablen X10 und X20 lässt sich nun leicht angeben: x1 \x2 −2 0 3 −1 1 .09 .21 .3 .03 .07 .1 . .18 .42 .6 .3 .7 1 Man prüft sofort nach, dass die beiden Zufallsvariablen unabhängig sind und die gleichen Verteilungen besitzen wie die entsprechenden Zufallsvariablen aus den Einzelversuchen. Die Unabhängigkeit ist natürlich keineswegs zufällig. Vielmehr liegt hier ein Spezialfall einer etwas allgemeineren Tatsache vor, die nun zunächst ergänzend behandelt werden soll. Sind nämlich X und Y zwei unabhängige Zufallsvariablen auf einem Wahrscheinlichkeitsraum Ω, und sind g(X) und h(Y ) zwei Funktionen dieser Zufallsvariablen (also neue Zufallsvariablen), so sind auch g(X) und h(Y ) unabhängig. Zur Begründung hat man für zwei beliebige Mengen A und B aus dem Wertebereich von g und h die Unabhängigkeitsbedingung nachzuweisen, also zu zeigen, dass (g(X))−1 (A) und (h(Y ))−1 (B) unabhängig sind. Nun ist aber (g(X))−1 (A) = X −1 (g −1 (A)), da für ein Element ω ∈ Ω offenbar (g(X))(ω) = g(X(ω)) genau dann in A liegt, wenn X(ω) in g −1 (A) liegt, denn dies bedeutet ja genau, dass g(X(ω)) ∈ A gilt. Entsprechend ist (h(Y ))−1 (B) = Y −1 (h−1 (B)). Aus der Unabhängigkeit von X und Y folgt nun aber sofort die Unabhängigkeit von 1.1 Stichprobenverteilungen QM2 17 5 X −1 (g −1 (A)) und Y −1 (h−1 (B)) und damit die Gesamtbehauptung. Um diese allgemeine Tatsache nun auf den vorliegenden Fall anzuwenden, seien die beiden ‚Projektionen‘ von Ω1 × Ω2 auf Ω1 und Ω2 wieder mit K1 und K2 bezeichnet. Die beiden untersuchten Variablen sind dann X10 = X1 (K1 ) und X20 = X2 (K2 ) (es gilt ja offenbar X10 (ω1 , ω2 ) = X1 (ω1 ) = X1 (K1 (ω1 , ω2 )) = (X1 (K1 ))(ω1 , ω1 ), entsprechend für X2 ). Damit folgt die Unabhängigkeit von X10 und X20 aus der Unabhängigkeit von K1 und K2 gemäß der gerade behandelten allgemeineren Tatsache, wenn man dort X = K1 , Y = K2 , g = X1 und h = X2 setzt. Insgesamt ist es so gelungen, für zwei isolierte Experimente, deren (für einen bestimmten Zweck - im Beispiel das Budget des Spielers) wesentliche Resultate durch zwei Zufallsvariablen beschrieben werden, einen Wahrscheinlichkeitsraum zu konstruieren, der die gemeinsame unabhängige Durchführung der Experimente beschreibt, und auf diesem zwei Zufallsvariablen zu definieren, die wieder die wesentlichen Resultate der Einzelexperimente beschreiben, und die zusätzlich unabhängig sind. Der Unterschied zwischen X1 und X10 (ebenso zwischen X2 und X20 ) liegt im Grunde nur darin, dass bei X10 noch ein weiteres Experiment sozusagen im Hintergrund mit abläuft und bei X1 nicht, was in den unterschiedlichen Definitionsbereichen zum Ausdruck kommt. Die Verteilungen von X1 und X10 sind hingegen gleich. Genau auf die gleiche Art kann man für mehr als zwei Einzelexperimente einen Wahrscheinlichkeitsraum definieren, der deren gemeinsame unabhängige Durchführung beschreibt; auch hier können wesentliche Resultate durch dann unabhängige Zufallsvariablen hervorgehoben werden. Insbesondere ist es möglich, für vorgegebene Verteilungen einen Wahrscheinlichkeitsraum zu konstruieren, auf dem Zufallsvariablen definiert werden können, die gerade die gegebenen Verteilungen besitzen und die zusätzlich unabhängig sind. Dies ist für theoretische Zwecke, beispielsweise bei der Definition neuer Verteilungen, von entscheidender Wichtigkeit. Ein Spezialfall kommt besonders häufig vor, nämlich der, dass dasselbe Experiment unabhängig mehrfach wiederholt wird. In diesem Fall sei der angemessene Wahrscheinlichkeitsraum für die einmalige Durchführung Ω0 mit dem Wahrscheinlichkeitsmaß P0 ; ein wesentliches Resultat 1.1 Stichprobenverteilungen QM2 17 6 sei durch eine Zufallsvariable X gegeben. Der Wahrscheinlichkeitsraum für die n-malige unabhängige Durchführung des Experiments ist dann Ω = Ωn0 , versehen mit dem entsprechend den obigen Überlegungen zu definierenden Wahrscheinlichkeitsmaß P = P0 ⊗ P0 ⊗ . . . ⊗ P0 . Die für die Versuche wesentlichen Resultate können dann durch Zufallsvariablen X1 , . . . , Xn beschrieben werden, von denen Xi gerade das Resultat des i-ten Teilversuchs liefert; genauer gilt also Xi (ω1 , . . . , ωn ) = X(ωi ) . Diese Zufallsvariablen X1 , . . . , Xn sind gemeinsam unabhängig und besitzen alle die gleiche Verteilung wie X. Für diese Situation benutzt man auch abkürzend die Sprechweise, dass X1 , . . . , Xn unabhängige Versionen von X sind. Stichprobenverteilung von Varianzen und Kovarianzen. Als Ausgangssituation seien X1 , . . . , Xn unabhängige Versionen einer Zufallsvariable X mit E(X) = µ und V(X) = σ 2 . Beschreibt man mit diesen Variablen die Resultate von n unabhängigen Durchführungen eines Zufallsversuchs, so handelt es sich hier um eine Stichprobe (die allerdings erst noch zu erheben ist). Auf der Grundlage dieser Werte kann man dann die Varianz S2 = 1X (Xi − M )2 n mit M= 1X Xi n 2 mit den Xi also eine Zufallsvariable. bilden. Hier ist SX Für den Erwartungswert von S 2 gilt dann E(S 2 ) = n−1 2 σ , n wie nun gezeigt werden soll. Zunächst sei daran erinnert, dass für jede Zufallsvariable X die Beziehung E(X 2 ) = V(X) + (E(X))2 (1) gilt; dies ist nur die Umstellung der bekannten Formel V(X) = E(X 2 ) − (E(X))2 . 1.1 Stichprobenverteilungen QM2 17 7 Die Varianz S 2 lässt sich nun bekanntlich auch schreiben als S 2 = MX 2 − (MX )2 , woraus für den Erwartungswert die Beziehung E(S 2 ) = E(MX 2 ) − E((MX )2 ) (2) folgt; es sollen daher nun die beiden Erwartungswerte auf der rechten Seite dieser Gleichung bestimmt und dann subtrahiert werden. Zuerst geht es um MX 2 , also um den Mittelwert der Xi2 . Da die Xi unabhängige Versionen von X sind, sind auch die Xi2 unabhängige Versionen von X 2 : da die Verteilungen von Xi und X gleich sind, sind auch die Verteilungen von Xi2 und X 2 gleich, und da die Xi unabhängig sind, sind auch die Xi2 unabhängig (vgl. den Abschnitt über Produkträume für die Begründung im Fall von zwei Variablen). Es folgt, dass der Erwartungswert von MX 2 gleich dem Erwartungswert von X 2 ist, womit sich nach (1) insgesamt E(MX 2 ) = E(X 2 ) = σ 2 + µ2 (3) ergibt. Der nächste zu bestimmende Wert ist E((MX )2 ). Bekannt ist die Varianz von MX , nämlich σ 2 /n. Setzt man in (1) für X den Mittelwert MX ein, so erhält man E((MX )2 ) = V(MX ) + (E(MX ))2 = σ2 + µ2 . n (4) Durch Einsetzen von (3) und (4) in (2) erhält man nun schließlich das gewünschte Resultat E(S 2 ) = E(MX 2 ) − E((MX )2 ) 2 σ σ2 n−1 2 2 2 2 = σ +µ − +µ = σ2 − = σ . n n n Die Stichprobenvarianz S 2 ist also kein erwartungstreuer Schätzer für σ 2 , was sich aber leicht korrigieren lässt: die korrigierte Stichprobenvarianz s2 = n S2 n−1 1.1 Stichprobenverteilungen QM2 17 8 schätzt σ 2 erwartungstreu. Es liegt damit die Frage nahe, ob man etwas über den Erwartungswert von s aussagen kann. Da Varianzen nichtnegativ sind, gilt immerhin 0 ≤ V(s) = E(s2 ) − (E(s))2 , woraus über (E(s))2 ≤ E(s2 ) die Beziehung √ p p E(s) = (E(s))2 ≤ E(s2 ) = σ 2 = σ folgt. Gleichheit gilt hier nur in dem Fall, dass V(s) = 0 gilt, was nur dann eintritt, wenn die möglichen Stichproben mit Wahrscheinlichkeit 1 die Varianz 0 haben, also aus lauter gleichen Werten bestehen, was wiederum nur dann möglich ist, wenn X nur einen möglichen Wert (mit Wahrscheinlichkeit 1) annehmen kann. Der Fall der Gleichheit tritt also nur für völlig uninteressante Zufallsvariablen X auf, die fast sicher konstant sind. Bei Zufallsvariablen, die nicht (f.s.) konstant sind, gilt daher immer E(s) < σ , durch s wird σ also ‚systematisch‘ unterschätzt. Schließlich soll noch die Frage nach dem Erwartungswert der Stichprobenkovarianz beantwortet werden. Man kann diese Frage auf die schon bekannten Ergebnisse über die Varianz zurückführen, indem man die folgende Beziehung ausnutzt: V(X + Y ) − V(X − Y ) = V(X) + V(Y ) + 2 Kov(X, Y ) − (V(X) + V(Y ) − 2 Kov(X, Y )) = 4 Kov(X, Y ) . Die Kovarianz lässt sich also auch mit Hilfe der Varianz der Summe und der Differenz ausdrücken. Ganz analog erhält man auf empirischer Ebene die Formel 2 2 SX+Y − SX−Y = 4 KovX,Y . 1.1 Stichprobenverteilungen QM2 17 9 Mit Hilfe dieser Formeln kann nun der Erwartungswert der Stichprobenkovarianz bestimmt werden. Vorausgesetzt sind dabei wieder n unabhängige Versuche, in denen nun zwei Variablen X und Y erhoben werden sollen. Schreibt man für die Resultate der einzelnen Durchgänge wieder Xi und Yi , so kann man diese Voraussetzung formal auch so schreiben, dass (X1 , Y1 ), . . . , (Xn , Yn ) unabhängige Versionen der (nun ‚zweidimensionalen‘) Zufallsvariable (X, Y ) sein sollen. Der Erwartungswert der Stichprobenkovarianz ist nun 1 2 1 2 2 2 E(KovX,Y ) = E (SX+Y − SX−Y ) = E(SX+Y ) − E(SX−Y ) 4 4 n−1 1 n−1 V(X + Y ) − V(X − Y ) = 4 n n n−1 1 = (V(X + Y ) − V(X − Y )) n 4 n−1 Kov(X, Y ) . = n Auch hier ist es also so, dass die Stichprobenkovarianz (im Betrag) die theoretische Kovarianz systematisch unterschätzt, was man leicht dadurch korrigieren kann, dass man zur korrigierten Stichprobenkovarianz n KovX,Y n−1 übergeht, die dann für Kov(X, Y ) erwartungstreu ist; die korrigierte Stichprobenkovarianz errechnet man dabei genauso wie die unkorrigierte, außer dass man im letzten Schritt nicht durch n sondern durch (n − 1) dividiert. Anmerkung zur Definition der Binomialverteilung. Sind X1 , . . . , Xn unabhängige Versionen einer Variable X, die Bernoulli-verteilt ist mit Erfolgswahrscheinlichkeit p, und ist Y = n X Xi , i=1 so heißt die Verteilung von Y auch Binomialverteilung mit den Parametern n und p. Die Abkürzung für diese Verteilung ist B(n, p). 1.1 Stichprobenverteilungen QM2 17 10 Hat eine Variable U die B(n, p)-Verteilung, so schreibt man dafür auch kurz U ∼ B(n, p). Zu der Definition der Binomialverteilung ist anzumerken, dass hier eine Verteilung definiert wird dadurch, dass eine Variable konstruiert wird, die diese Verteilung besitzt (nämlich Y ). Es geht dabei um die Definition einer Verteilung und nicht etwa um die Definition einer binomialverteilten Variable. Eine binomialverteilte Variable ist eine Variable, deren Verteilung eine Binomialverteilung ist; keinesfalls muss eine solche Variable gleich einer Summe unabhängiger Bernoulli-verteilter Variablen sein (auch wenn dies in vielen Fällen so sein wird). Will man nun Eigenschaften von binomialverteilten Variablen zeigen (beispielsweise eine Formel für den Erwartungswert angeben), so genügt es oft, eine spezielle binomialverteilte Variable wie die Variable Y in der Definition zu benutzen; sind die Eigenschaften nämlich nur abhängig von der Verteilung, so ist es gleichgültig, welche Variable bei der Argumentation benutzt wird, da das Ergebnis bei allen Variablen das gleiche sein muss. Der Erwartungswert lässt sich beispielsweise auch nur auf der Grundlage der Verteilung berechnen (ist f die Wahrscheinlichkeitsfunktion der Verteilung, so P ist der Erwartungswert gleich xf (x), wobei über alle möglichen Werte x der Verteilung summiert wird). Daher haben alle Zufallsvariablen, die die gleiche Verteilung besitzen, auch den gleichen Erwartungswert – in diesem Sinn hängt der Erwartungswert nur über die Verteilung von der Zufallsvariable ab. Man kann deshalb auch (nicht ganz korrekt) vom Erwartungswert der Binomialverteilung sprechen (obwohl streng genommen nicht Verteilungen Erwartungswerte besitzen, sondern Zufallsvariablen). Um den Erwartungswert der B(n, p)-Verteilung (in diesem Sinn) zu bestimmen, genügt es also, eine spezielle Variable mit dieser Verteilung zu benutzen (wie die Variable Y in der Definition) und von dieser Variable den Erwartungswert zu bilden (der sich für Y sofort zu n · p berechnet); jede andere Variable mit der B(n, p)-Verteilung hat dann ebenfalls diesen Erwartungswert. Als ein weiteres Beispiel soll gezeigt werden, dass die Verteilung von zwei unabhängigen binomialverteilten Variablen mit gleicher Erfolgswahrscheinlichkeit wieder binomialverteilt ist. Sind nämlich genauer Y1 ∼ B(n1 , p) und Y1 ∼ B(n2 , p) 1.1 Stichprobenverteilungen QM2 17 11 unabhängig, und ist Y = Y1 + Y2 , so gilt Y ∼ B(n1 + n2 , p) . Zur Begründung seien X1 , . . . , Xn1 , Xn1 +1 , . . . , Xn1 +n2 unabhängige Bernoulli-verteilte Variablen mit Erfolgswahrscheinlichkeit p. Dass es solche Variablen gibt, ist vielleicht nicht ganz selbstverständlich – man konstruiert sie jedoch beispielsweise mit den bei den Produkträumen skizzierten Methoden. Mit den Variablen Xi bildet man nun neue Variablen U1 und U2 als U1 := n1 X i=1 Xi und U2 := nX 1 +n2 Xi . i=n1 +1 Dann gilt U1 ∼ B(n1 , p) und U1 ∼ B(n2 , p), U1 und U2 haben also die gleichen Verteilungen wie Y1 und Y2 . Außerdem sind U1 und U2 unabhängig, was plausibel ist, da ja die Xi , deren Summe sie jeweils sind, unabhängig sind (streng genommen müsste dies allerdings auch noch genauer gezeigt werden). Damit haben auch U1 und U2 die gleiche gemeinsame Verteilung wie Y1 und Y2 , denn die gemeinsame Verteilung ist durch die Einzelverteilungen und die Tatsache der Unabhängigkeit schon vollständig bestimmt. Schließlich ist auch die Verteilung von U = U1 + U2 gleich der von Y = Y1 + Y2 , denn es handelt sich bei diesen beiden Verteilungen um die Bildmaße der gleichen W-Maße (Verteilungen von (U1 , U2 ) bzw. (Y1 , Y2 )) unter der gleichen Funktion (Addition der beiden Komponenten). P 1 +n2 Da jedoch nun U = ni=1 Xi die Summe von n1 + n2 unabhängigen BernoulliVariablen ist, ist die Verteilung von U eine B(n1 + n2 , p)-Verteilung und damit auch die von Y . Multinomialverteilung. Die Binomialverteilung kann verallgemeinert werden für den Fall, dass ein Versuch nicht nur zwei mögliche Ergebnisse hat, sondern mehrere, nämlich e1 . . . , em , die mit Wahrscheinlichkeiten p1 , . . . , pm auftreten. Gefragt ist nach den Wahrscheinlichkeiten, mit denen bei n unabhängigen VersuP chen die Werte ei jeweils genau ni Mal auftreten (dabei muss natürlich ni = n gelten). 1.1 Stichprobenverteilungen QM2 17 12 Die gesuchte Verteilung ermittelt man völlig analog zum Vorgehen bei der Binomialverteilung; die Frage ist zunächst die, mit welcher Wahrscheinlichkeit ein bestimmtes Gesamtergebnis auftritt, bei dem die Einzelwerte ei mit vorgegebenen Häufigkeiten ni auftreten, wobei zusätzlich noch vorgeschrieben ist, bei welchem Versuchsdurchgang welches Einzelergebnis auftreten soll. Wegen der Unabhängigkeit der Ziehungen ist die Wahrscheinlichkeit für jede solche spezielle Konstallation gleich pn1 1 pn2 2 . . . pnmm ; die Begründung ist völlig analog zu der im Fall der Binomialverteilung. Die als nächstes zu beantwortende Frage ist die, wieviele derartige Gesamtergebnisse es gibt, bei denen vorgeschrieben ist, dass die Einzelergebnisse ei mit den Häufigkeiten ni auftreten, wobei es nun jedoch gleichgültig ist, an welcher Stelle welches Einzelergebnis auftritt. Ganz analog zu den Überlegungen bei der Binomialverteilung ergibt sich hier als Anzahl der Multinomialkoeffizient n! . n1 !n2 ! . . . nm ! Man fragt sich zur Begründung beispielsweise, auf wieviele Arten man die Menge G der Nummern der Ziehungen so auf m Mengen Gi aufteilen kann, dass diese Mengen jeweils genau ni Elemente enthalten. Die Menge Gi soll dabei gerade die Nummern der Ziehungen enthalten, in denen das Ergebnis ei ist. Insgesamt ist damit die Wahrscheinlichkeit, bei n unabhängigen Ziehungen die Wertekombinationen ei mit den Häufigkeiten ni zu erhalten, gerade n! pn1 pn2 . . . pnmm . n1 !n2 ! . . . nm ! 1 2 Die Verteilung, die sich auf diese Weise ergibt, heißt auch Multinomialverteilung, wobei offensichtlich ist, dass die Binomialverteilung gerade der Spezialfall ist, in der die betrachtete Variable zwei mögliche Werte besitzt. Zur Kontrolle kann man sich fragen, ob die Summe dieser Wahrscheinlichkeiten über alle möglichen Häufigkeitskombinationen n1 , . . . , nm auch wirklich gleich 1 ist; dies folgt jedoch wie im Fall der Binomialverteilung aus der beim Multinomialkoeffizienten behandelten Gleichung !n m X X n! 1 = 1n = pi = pn1 1 pn2 2 . . . pnmm , n ! n ! . . . n ! 1 2 m i=1 (n1 ,...,nm ) in der über alle m-Tupel (n1 , . . . , nm ) summiert wird, die aus nichtnegativen ganzen Zahlen bestehen, deren Summe n ist.