Wahrscheinlichkeitstheorie Rohfassung Prof. Dr. Hans-Jürgen Steens Fachhochschule Kaiserslautern Standort Zweibrücken [email protected] 8. November 2016 2 Kapitel 1 Kombinatorik und elementare Wahrscheinlichkeitsrechnung 1.1 Endliche Mengen M N → M Endliche Mengen lassen sich dadurch charakterisieren, dass es keine injekti- ve Funktion gibt. Man kann zeigen (etwa mit Hilfe des sog. Zorn'schen Lemmas), dass eine Menge genau dann endlich ist (im Sinne der geschilderten Charakterisierunges), wenn es eine natürliche Zahl bijektiv auf M n ∈ N gibt, so dass {0, 1, · · · , n} abgebildet werden kann. Das heiÿt aber nichts anderes, als dass die Elemente von M als Aufzählung {m0 , m1 , · · · , mn } geschrieben werden können, oder aber, wenn man die Indizes stellvertretend für die Elemente benutzt, direkt als Zahlenmenge {0, 1, · · · , n} selbst. Die Anzahl der Elemente einer endlichen Menge demnach n M = {m0 , m1 , · · · , mn−1 } beträgt und man schreibt hierfür |M | = n. Zwei endliche Mengen M und N sind demnach gleichmächtig, wenn sie dieselbe Anzahl von ELementen beinhalten, wenn also gilt |M | = |N |. Für die Mächtigkeiten gelten folgende Formeln Satz 1.1. i) Für paarweise disjunkte Mengen Mi (i = 1, · · · , n) gilt n n ∪ ∑ |Mi |. Mi = i=1 i=1 (Paarweise disjunkt bedeutet, dass Mi ∩ Mj = ∅ für i ̸= j .) ii) Für das nfache kartesische Produkt M1 × · · · × Mn ergibt sich |M1 × M2 × · · · × Mn | = |M1 | · |M2 | · · · |Mn |. iii) Für die Menge aller Abbildungen einer Menge M in eine Menge N notiert mit N M gilt M N = |N ||M | . 3 4KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG iv) Für die Menge aller Teilmengen einer Menge M notiert mit 2M gilt M 2 = 2|M | . Beweis. to be done 2 1.1.1 Permutationen Wir betrachten im folgenden sog. Permutationen einer endlichen Menge. Unter einer Permutation verstehen wir intuitiv eine Vertauschung von Elementen, also eine Art Umsortierung. Stellt man sich eine Sortierung so vor, dass jedes Element der betrachteten Menge gleichsam eine (fortlaufende) Platznummer besitzt (so wie die Besucher eíner ausverkauften Kinovorstellung), dann bedeutet das Umsortieren der Elemente nichts anderes als die Zuweisung anderer Platznummern. Diese kann durch eine Ziehung"vorgenommen werden: alle Platznummern kommen in eine Lostrommel und werden der Reihe nach gezogen. Das Element der ersten gezogenen Platznummer erhält die 0 als neue Platznummer, das Element der zweiten gezogenen Platznummer erhält die 1 als neue Platznummer etc. Auf diese Weise ist automatisch mit der Umsortierung eine Funktion π(i) verbun- den, die bijektiv ist, da bei einer Umsortierung kein Platz frei bleibt (die Funktion also surjektiv ist) und auch kein Platz doppelt belegt wird (die Funktion also injektiv ist). Umgekehrt kann jede bijektive Funktion von {0, 1, · · · n} auf sich selbst oensicht- lich als die Festlegung einer Umsortierung im obigen Sinne angesehen werden. Es ist deshalb naheliegend den mathematischen Begri einer Permutation im Sinne einer Umsortierung wie folgt festzulegen: tion Denition 1.2. Eine Permutation π ist (nichts anderes) eine bijektive Funkπ : {0, 1, · · · n} → {0, 1, · · · n}. Eine Permutation kann damit als Rechteckmatrix in der Rolle als Wertetabelle dargestellt werden: ( 0 1 ··· π(0) π(1) · · · n π(n) ) Diese Matrix repräsentiert also eine Ziehung, bei der als erste Platznummer als zweite die Nummer π(1) Die Anzahl aller denkbaren bijektiven Funktionen von ist mit wachsendem Satz 1.3. tionen. Beweis. n {0, 1, · · · n} auf sich selbst (extrem) stark wachsend. Es gilt nämlich: Für eine nelementige Menge M gibt es n! verschiedene Permuta- per Induktion über n 2 k Nummern k Permutation. Streng Führen wir nun eine unvollständige Ziehung durch, indem wir nur ziehen mit π(0), etc. gezogen worden ist. k 5 n + 1, so kommen wir zum Begri einer 1.1. 5 ENDLICHE MENGEN genommen sprechen wir von einer Eine k Permutation k Permutation ohne Wiederholung. ist also eine injektive Funktion {0, 1, · · · k − 1} → {0, 1, · · · , n} mit folgender Matrix als Wertetabelle ( 1 ··· π(1) · · · 0 π(0) k−1 π(k − 1) ) Es gilt: Satz 1.4. Es gibt n · (n − 1) · · · (n − k + 1) = Permutationen einer nelementigen Menge. Beweis. per Induktion über k n! verschiedene k (n − k)! 2 Wir führen nun eine Modikation unserer Ziehungen durch, indem wir die gezogenen Nummern jeweils wieder zurücklegen, so dass ein und dieselbe Nummer theoretisch beliebig oft gezogen werden kann. Dies führt zum Begri einer sog. k Permutation mit Wiederholung. Eine k Permutation mit Wiederholung kann also aufgefasst werden als eine (be{0, 1, · · · k − 1} → {0, 1, · · · , n}. Tritt ein Funktionswert mehrfach liebige) Funktion auf, ist die Funktion m.a.W. nicht injektiv, dann bedeutet das im obigen Bild, dass dieser Wert gleichsam mehrfach gezogen wurde. ??) erhalten wir sofort: Nach Satz ( ge. Satz 1.5. Es gibt nk verschiedene k Permutationen einer nelementigen Men- 1.1.2 Kombinationen Oensichtlich spielt bei einer Permutation die Reihenfolge der Ziehungen eine entscheidende Rolle. Denken wir nun aber an Vorgänge wie die Ziehung der Lottozahlen, so hat die Ziehung selbst zwar seriell also mit einer Reihenfolge der gezogenen Zahlen verbunden. Da es hier aber nur auf die Teilmenge (der gezogenen Zahlen) selbst ankommt, wird spielt die besondere Reihenfolge, mit der gewisse Zahlen gezogen worden sind, keine Rolle. Bei der Nennung der Lottozahlen werden diese also der Einfachheit halber stets der Gröÿe nach angegeben. In einer solchen Situation haben wir es also nicht mehr mit einer Permutation zu tun und sprechen vielmehr von einer Kombination: Denition 1.6. Eine kKombination (ohne Wiederholung) einer nelementigen Menge M ist eine Teilmenge von M bestehend aus k Elementen. Bei der Lottoziehung haben wir es demnach mit einer 6-Kombination aus einer 49-elementigen Menge zu tun. Dementsprechend wird die Lottoziehung auch 6 aus 49 genannt. Nehmen wir als nelementige Menge die Menge der Zahlen 1, 2, · · · , n dann ist 6KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG eine k Kombination eindeutig bestimmt durch die der Gröÿe nach geordnete Folge der Elemente der kelementigen Teilmenge von {1, 2, · · · , n}. Eine der Gröÿe nach geordnete Folge 1 5 n1 < n 2 < · · · < n k 5 n bestimmt also eindeutig eine k Kombination und umgekehrt. k Kombinationen gilt: ( ) n n! Satz 1.7. Es gibt verschiedene k Kombinationen einer = k! · (n − k)! k nelementigen Menge. Bezüglich der Anzahl der Beweis. Wir können eine kKombination auassen als eine kPermutation aufk! verk Kombination fassen, bei der die Reihenfolge der Ziehung keine Rolle spielt. Es gibt nun schiedene Reihenfolgen einer Ziehung derselben Zahlen. Bei einer werden also jeweils samt n! (n − k)! k! verschiedene Permutationen zusammengefasst. Da es insge- verschiedene Permutationen gibt, folgt die Behauptung. 2 Werden auch bei einer Kombination die gezogenen Nummern wieder zurückgelegt, haben wir es analog mit einer Kombination mit Wiederholung zu tun. Satz 1.8. ( Es gibt holung. Beweis. Eine ) n+k−1 verschhiedene k Kombinationen mit Wiederk k Kombination mit Wiederholung kann aufgefasst werden als geordnete Folge 1 5 n1 5 n2 5 · · · 5 nk 5 n. Jeder solchen Folge entspricht eineindeutig eine Folge 1 5 n1 < n2 + 1 < · · · < nk + k 5 n + k − 1. Letztere entspricht einer k Kombination ohne Wiederholung einer n+k−1elementigen 2 Menge. Daraus folgt die Behauptung. 1.1.3 Eigenschaften der Binomialkoezienten Für die im letzten Abschnitt eingeführten Binomialkoezienten gelten eine Reihe von Eigenschaften: Satz 1.9. sowie Beweis. Es ist für alle n, k ∈ N ( ) ( ) n n = k n−k ( ) ( ) ( ) n n−1 n−1 = + . k k k−1 Einsetzen in die Denition 2 Letztere Eigenschaft bedeutet, dass man die Binomialkoezienten in Form eines 1.2. 7 EREIGNISSE Dreiecks (einer Dreiecksmatrix) darstellen kann, bei dem sich jedes Element als Summe der beiden links und rechts darüberstehenden Elemente ergibt. 1 1 1 1 1 · · 1 2 3 4 · · · 1 3 6 · · 1 4 · · 1 · · Legt man nämlich über dieses Dreieck ein (schiefwinkliges) Koordinatensystem, mit dem Nullpunkt bei der obersten 1, und zählt die erste Koordinate nach links unten und die zweite Koordinate horizontal jeweils nach rechts, dann hat das Element mit den Koordinaten n und k exakt den Wert des Binomialkoezienten ( ) n . k Eine wichtige Rolle spielen die Binomialkoezienten in der allgemeinen binomischen Formel (was den Koezienten letztlich ihren Namen gegeben hat): Satz 1.10. Für alle (reellen) Zahlen a, b und alle natürlichen Zahlen n gilt: n ( ) ∑ n k n−k (a + b)n = a b . k k=0 Beweis. durch Induktion Folgerung 1.11. Es gilt 2 n ( ) ∑ n 2 = . k n k=0 2 1.2 Ereignisse In der Wahrscheinlichkeitstheorie sprechen wir von Ereignissen, denen gewisse Wahrscheinlichkeiten zugewiesen werden. Ereignisse bilden demnach den Denitionsbereich für Wahrscheinlichkeitswerte. In der klassischen Wahrscheinlichkeitstheorie werden die Ereignisse i.A. aus sog. Elementarereignissen zusammengesetzt. Elementarereignisse haben dabei die Eigenschaft atomar zu sein, also in einem intuitiven Sinn nicht weiter zerlegbar zu sein. Die Elementarereignisse bilden eine Menge, die i.A. mit Ω notiert wird. Betrachten wir beispielsweise das Würfelpiel, dann werden die Elementarereignisse aus den 6 Zahlen 1 bis 6, den Augen des Würfels gebildet. Ω besteht in diesem Fall also aus Ω = {1, 2, 3, 4, 5, 6}. Die Die allgemeinen Ereignisse ergeben sich dann als geeignete Vereingungen der Elementarereignisse. Sie sind also so betrachtet nichst anderes als Teilmengen von Ω. In der elementaren Wahrscheinlichkeitstheorie, in der man sich auf endliche Mengen Ω beschränkt, werden alle Teilmengen als denkbare Ereignisse zugelassen. (Dies ist in der allgemeinen Wahrscheinlichkeitstheorie nicht mehr der Fall.) 8KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG Betrachten wir z.B. noch einmal das Würfelspiel, dann ergibt sich das Ereignis, eine gerade Augenzahl zu würfeln, als folgende Vereinigung von Elementarereignissen: {2} ∪ {4} ∪ {6}, mithin als Teilmenge {2, 4, 6} ⊂ Ω. Streng genommen ist das Elementarereignis selbst kein Ereignis, sondern diejenige Menge, die das Elementarereignis als (einziges) Element enthält. Der Einfachheit halber verzichtet man aber häug auf diese Unterscheidung. 1.2.1 Boolesche Algebren und Wahrscheinlichkeitsräume Ω bilden zusammen mit den mengentheoretischen Ope∅ als kleinstem und Ω als gröÿtem Element. Es gelten dann folgende Eigenschaften für beliebige A, B, C ∈ Ω : Die Teilmengen einer Menge ration ∪, ∩,¯ eine boolesche Algebra mit der leeren Menge i) (A ∪ B) ∪ C = A ∪ (B ∪ C) (A ∩ B) ∩ C = A ∩ (B ∩ C) ii) A∪B =B∪A A∩B =B∩A iii) (A ∪ B) ∩ A = A (A ∩ B) ∪ A = A iv) A∩∅=∅ A∩Ω=A v) A∪A=Ω A∩A=∅ darüber hinaus gelten weitere Eigenschaften wie z.B: A=A A∩B =A∪B A∪B =A∩B Boolesche Algebren bilden in der Rolle von Ereignismengen den Denitionsbereich für die Zuweisung von Wahrscheinlichkeiten. Und im Falle eines endlichen Ω besteht die boolesche Algebra einfach aus der Potenzmenge 2Ω . Wenn also jedem Ereignis eine Wahrscheinlichkeit zugewiesen werden soll, geschieht in Form einer Funktion: pr : 2Ω → [0, 1]. Die Wahrscheinlichkeiten sind hier wie üblich auf den Wert 1 normiert. Von Wahrscheinlichkieten erwartet man intuitiv einige Eigenschaften, die nicht von jeder belieΩ bigen Funktion 2 → [0, 1] erfüllt werden. So wird etwa Ω selbst (im obigen Beispiel also das Ereignis, dass beim Würfeln eine der Zahlen 1 bis 6 fällt) die Wahrscheinlichkeit 1 haben. Oder die Wahrscheinlichkeit einer Vereinigung disjunkter Ereignisse sollte sich als Summe der Einzelwahrscheinlichkeiten ergeben. Beim Würfeln sollte also die Wahrscheinlichkeit, dass man eine gerade Augenzahl erwürfelt gleich der Summe der Wahrscheinlichkeiten sein, dass man eine 2 bzw. eine 4 bzw. eine 6 erwürfelt. Im Einzelnen fordert man von der Funktion pr folgende Eigenschaften: 1.2. 9 EREIGNISSE P1 pr(Ω) = 1. P2 pr(A ∪ B) = pr(A) + pr(B) für A ∩ b = ∅. Damit denieren wir: Denition 1.12. Ist Ω eine endliche Menge und ist pr : 2Ω → [0, 1] eine Funktion mit den Eigenschaften P1 und P2, dann heiÿt (Ω, 2Ω , pr) ein (endlicher) Wahrscheinlichkeitsraum. pr heiÿt dann auch Wahrscheinlichkeitsfunktion. Für die Wahrscheinlichkeitsfunktion erhalten wir automatisch: Folgerung 1.13. Es ist (für alle A, B ⊂ Ω): i) pr(∅) = 0 ii) pr(A ∪ B) = pr(A) + pr(B) − pr(A ∩ B) iii) pr(A) 5 pr(B) falls A ⊂ B . Beweis. 2 Übung 1.2.2 Laplacesche Wahrscheinlichkeitsräume Häug sind die Elementarereignisse so beschaen, dass sie alle dieselbe Wahrscheinlichkeit haben. Da die Wahrscheinlichkeit von Elementarereignisse ei ∈ Ω pr({ei }) = Die Wahrscheinlichkeit eines Ereignisses Eigenschaft P1 Ω auf 1 normiert ist, haben somit alle die Wahrscheinlichkeit: 1 . |Ω| A ⊂ Ω zu pr(A) = ergibt sich dann auf Grund der |A| . |Ω| Hier ergeben sich also die Wahrscheinlichkeiten eines Ereignisses zählen der zu A A i.W. durch Ab- gehörenden Elementarereignisse, die zu der Gesamtzahl aller Ele- mentarereignisse (also |Ω|) ins Verhältnis gesetzt werden. in diesem Fall sprechen wir von einem Laplaceschen Wahrscheinlichkeitsraum. Beispiele: i) Lotto 6 aus 49: die Elementarereignisse bestehen hier aus den jeweiligen 6 elementigen Teilmengen. (Warum darf man annehmen, dass diese jeweils dieselbe Wahrscheinlichkeit besitzen?) Das Ereignis, 6 Richtige zu haben, besteht aus einem einzigen Elementarereignis. Die Anzahl aller Elementarereignisse, d.h. die Anzahl aller 6elementigen Teilmengen ist gleich einen Sechser zu haben, ist also ( ) 49 1: , 6 ( ) 49 ). 6 Die Wahrscheinlichkeit d.h. etwa 1:14000000. ii) Würfeln mit 2 Würfeln: würden wir die Elementarereignisse als 2Kombinationen einer 6elementigen Menge mit Wiederholung wählen, was ja naheliegen würde, dann wären diese Elementarereignisse nicht gleichwahrscheinlich. (Warum?) Gleiche Wahrscheinlichkeiten erhielte man hingegen, wenn man als Elementarereignisse 2Permutationen mit Wiederholung nimmt. Interessierende Ereignisse, wie das 10KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG Würfeln eines 6er Pasches oder das Würfeln einer 1 und einer 2 sind dann Teilmengen unterschiedlicher Gröÿe: der 2er Pasch besteht nur aus einem einzigen Elementareignis, das Würfeln einer 1 und einer 2 besteht hingegen aus 2 Elementarereignissen und ist deshalb doppelt so wahrscheinlich. iii) Würfeln mit 2 Neutronen: es liegt in der Natur der Neutronen, ununterscheidbar zu sein (und zwar absolut perfekt). Dies hat zur Folge, dass in diesem (gleichwahrscheinliche) Elementarereignisse aus 2Kombinationen einer 2elementigen Menge mit Wiederholung gebildet werden. Dies entspricht eine 2Kombination einer 3 elementigen Menge ohne Wiederholung und umfasst ( ) 3 =3 2 Möglichkeiten. iv) Ratespiel mit 3 Türen. (in Vorlesung) 1.2.3 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Die Wahrscheinlichkeit eines Ereignisses eignis B A unter der Voraussetzung, dass ein Er- stattgefunden hat wird deniert als pr(A|B) := Zwei Ereignisse A und B pr(A ∩ B) . pr(B) heiÿen unabhängig, wenn pr(A|B) = pr(A). Für zwei unabhängige Ereiegnisse gilt demnach: pr(A ∩ B) = pr(A) · pr(B). Beispiel: Werfen mit 2 Würfeln: das Ereignis, dass mit dem zweiten Würfel eine 1 geworfen wird ist unabhängig davon, dass mit dem ersten Würfel eine 1 geworfen wird. Es gilt folgender Satz : Satz 1.14. Sind A1 und A2 disjunkte Ereignisse mit A1 ∪ A2 = Ω, dann gilt: pr(B) = pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 ). Es ist B = Ω ∩ B = (A1 ∪ A2 ) ∩ B = (A1 ∩ B) ∪ (A2 ∩ B). Damit erhalten wir pr(B) = pr(A1 ∩ B) + pr(A2 ∩ B) da auch A1 ∩ B und A2 ∩ B disjunkt sind. Die Behauptung folgt nun sofort aus der Denition der bedingten Wahrscheinlichkeit. 2 Beispiel: In zwei Urnen benden sich schwarze und weiÿe Kugeln. In der ersten Urne drei weiÿe und zwei schwarze und in der zweiten eine weiÿe und neun schwarze. Die Wahrscheinlichkeit eine weiÿe Kugel zu greifen, wenn man zufällig in eine der Urnen greift und dort eine Kugel entnimmt ergibt sich damit folgendermaÿen: Das Ereignis Ereignis A1 A2 bestehe darin eine der Kugeln aus der ersten Urne zu greifen und das darin, eine aus der zweiten Urne zu entnehmen. Das Ereignis weiÿe Kugel zu greifen, kann nun entweder zusammen mit A2 A1 eintreten. Nach dem obigen Satz erhalten wir: pr(weiÿ) = pr(Urne1 )pr(weiÿ|Urne1 ) + pr(Urne2 )pr(weiÿ|Urne2 ). Dies berechnet sich zu B, eine oder zusammen mit pr(weiÿ) = 0.5 cot 0.6 + 0.2 · 0.1 ≈= 0.29. 1.3. 11 ZUFALLSVARIABLE 1.2.4 Bayessche Formel Die Formel für die bedingte Wahrscheinlichkeit ausgehend von Ai ∩ B kann auf Grund der Kommutativität zwei Arten entwickelt werden: pr(Ai ∩ B) = pr(Ai |B)pr(B) sowie pr(Ai ∩ B) = pr(B ∩ Ai ) = pr(B|Ai )pr(Ai ). Wir erhalten damit: pr(Ai |B)pr(B) = pr(B|Ai )pr(Ai ) und nach Auösung nach pr(Ai |B) = pr(Ai |B): pr(B|Ai )pr(Ai ) pr(B|Ai )pr(Ai ) = . pr(B) pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 ) Ai pr(B). Die bedingte Wahrscheinlichkeit eines Ereignisses aus den bedingten Wahrscheinlichkeiten von 1.3 lässt sich damit rückrechnen Zufallsvariable Repräsentiert man Elementarereignisse durch Zahlen, erhält man den Begri einer (numerischen) Zufallsvariablen X : Ω → R. Wir erhalten dann automatisch eine induzierte Wahrscheinlichkeitsfunktion auf einer Zahlenmenge. Hierzu betrachtet man (reelle) Zahlenintervalle wählt diejenigen Ereignisse A (−∞, x) und aus, die Urbild eines solchen Intervalls sind: A = X −1 (−∞, x). Die Wahrscheinlickeit des Ereignisses A fungiert dann als Wahrscheinlichkeit, dass die Zufallsvariable einen Wert im Intervall (∞, x) annimmt. Wir schreiben hierfür: pr(X < x) und nennen die hierdurch denierte Funktion F : R → [0, 1] mit F (x) = pr(X < x) die Verteilungsfunktion der Zufallsvariablen Die Verteilungsfunktion F hat Sprungstellen für diejenigen x, X. die als Funktions- wert der Zufallsvariablen auftreten. Die Sprunghöhe ergibt sich aus der Summe ∑ pr(e). X(e)=x Man sieht sofort, dass eine Verteilungsfunktion monoton wachsend ist. Beispiel: Für das Würfeln mit einem Würfel ist pr(X < x) = (⌈x⌉ − 1)/6. Auch wenn man von Laplacescher Gleichverteilung des Ω ausgeht, muss die Wahr- scheinlichkeit auf den Zahlen nicht mehr notwendig gleichverteilt sein. (Bsp. Summer der Augen beim Werfen zweier Würfel.) Mit Hilfe einer Zufallsvariablen lässt sich der Begri eines Erwartungswertes (Mittelwertes) denieren. 12KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG 1.3.1 Erwartungswerte Erwartungswerte sind das, was man intuitiv als statistische Mittelwerte bezeichnet. Da bei der Mittelwertbildung Zahlen (gewichtet) addiert werden, kann dieser Begri in der Wahrscheinlichkeitstheorie nur in Zusammenhang mit Konzept einer Zufallsvariable gebildet werden. Ist also X : Ω → R eine Zufallsvariable, dann ergibt sich der Erwartungswert zu: E(X) = ∑ pr(e) · X(e) e∈Ω oder wenn man die Elementarereignisse durchnumeriert pr(ei ) = pi bzw. X(ei ) = xi Ω = {e1 , e2 , e3 , · · · } und setzt: E(X) = ∑ pi · xi . i Die Zufallsvariable kann wie schon angedeutet mehrere Elementarereignisse auf denselben Zahlenwert abbilden (sie ist m.a.W. nicht notwendig injektiv). In der xi obigen Summe können die also mehrfach vorkommen. Fassen wir die Summe so zusammen, dass die unterschiedlichen pi dort zu qj xi nur einmal auftreten, wobei die jeweiligen zusammengefasst werden sie stellen dann die Sprunghöhen der Verteilungsfunktion an den Stellen xj dar dann erhält E(X) = ∑ E(X) die Form: qj xj . j Beispiele: i) Betrachten wir die Zufallsvariable eines Münzwurfes mit zwei Elementarereignissen (Kopf , Zahl). Es sei und pr(Zahl) = 1 − p. X(Kopf ) = 1 und X(Zahl) = 0. pr(Kopf ) = p p = 1/2.) Für den Es sei (Bei einer nicht gezinkten Münze ist Erwartungswert erhalten wir dann E(X) = 1 · p + 0 · (1 − p) = p. ii) Wir verallgemeinern das letzte Beispiel eines Münzwurfes mit einer einzigen Münze zu einem Münzwurf mit n (gleichgearteten) Münzen. Die Elementarereig- nisse bestehen dann in 2Permutationen mit Wiederholung einer n Menge. Es gibt also 2 Elementarereignisse. nelementigen Diese Elementarereignisse sind (i.A.) nicht gleichwahrscheinlich, jedenfalls dann nicht, wenn p ̸= 1/2 ist. Ein Elementarereignis mit k Köpfen hat die Wahrschein- lichkeit pk · (1 − p)n−k . Denieren wir die Zufallsvariable X so, dass X(e) = Anzahl der Köpfe. Dabei ab- strahiert man von der Reihenfolge, mit der die Köpfe gefallen sind. Bei haben es dann also mit einer k Kombination k Köpfen ohne Wiederholung zu tun. Dies knn man sich so klarmachen, dass die gefallenen Köpfe eine k elementige Teilmenge deniert. Hierzu numerieren wir die Münzen der Reihe nach durch, erhalten also eine Menge bestehend aus den Zahlen (nämlich den Indizes) 1 bis n. elementige Teilmenge. Deshalb haben wir es also mit einer Hiervon gibt es ( ) n k viele. Die Wahrscheinlichkeit, dass k Kombination X k k Fallen also Köpfe, dann denieren die Indizes derjenigen Münzen, die Kopf zeigen, eine den Wert k zu tun. annimmt, 1.3. 13 ZUFALLSVARIABLE ist deshalb pr(X = k) = ( ) n · pk · (1 − p)n−k . k Eine Zufallsvariable, die eine solche Wahrscheinlichkeitsfunktion besitzt, wird binomialverteilt genannt. Binomialverteilung treten wie gesehen typischerweise bei n unabhängigen NullEins Entscheidungen auf. Als Erwartungswert einer binomialverteilten Zufallsvariable erhalten wir: ( ) n E(X) = k· · pk · (1 − p)n−k k k=0 ( ) n ∑ n = k· · pk · (1 − p)n−k k n ∑ = k=1 n ∑ k· k=1 = np n! · pk · (1 − p)n−k k!(n − k)! n ∑ (n − 1)! · pk−1 · (1 − p)n−k k!(n − k)! k=1 n−1 ∑ (n − 1)! · pk · (1 − p)n−1−k (k − 1)!(n − 1 − k)! k=0 n−1 ∑ (n − 1) = np · pk · (1 − p)n−1−k k = np k=0 = np(p + (1 − p))n−1 = np. Wir werden im folgenden noch eine weitere wichtige Verteilung betrachten, die sich als Grenzfall der Binomialverteilung ergibt. Lässt man im obigen Szenario die Anzahl n der Münzen wachsen und gleichzeitig die Wahrscheinlichkeit p reziprok n · p eine Konstante λ bildet (i.e. p = nλ ), dann erhalten wir die so fallen, dass sog. PoissonVerteilung. Für die binomialverteilte Zufallsvariable erhalten wir: Xn von ( ) n k p (1 − p) n − k k ( ) n λ k λ n−k = ( ) (1 − k n n pr(Xn = k) = = n! λ λ n−k ( )k (1 − k!(n − k)! n n = λk 1 (1 − nλ )n n! k!(n − k)! nk (1 − nλ )k = λk λ n(n − 1)(n − k + 1 1 (1 − )n k k! n n (1 − nλ )k = λ 1 k−1 1 λk (1 − )n 1 · (1 − ) · · · (1 − ) . k! n n n (1 − nλ )k Letzterer Ausdruck konvergiert für wachsendes pr(X = k) = n gegen: λk −λ e . k! n Münzen 14KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG Man kann sich auf Grund der geschilderten Verwandschaft zwischen der Binomialverteilung und der Poissonverteilung shnell plausibel machen, dass der Erwartungswert der Poissonverteilung sich zu E(X) = λ(= n · p) ergibt. Zu demselben Ergebnis kommt man auch direkt: E(X) = ∞ ∑ k · e−λ k=0 = λe−λ = λe−λ −λ = λe = λ. λk k! ∞ ∑ λk−1 (k − 1)! k=1 ∞ ∑ k=0 λ λk k! ·e Beispiele Poissonverteilter Zufallsvariablen: i) Anzahl der Todesfälle in preuÿischen Kavallerieregimentern durch Hufschlag pro Jahr. ii) Anzahl von Zerfallsprozessen pro Zeiteinheit in einer radioaktiven Substanz. 1.3.2 Varianzen Neben dem Mittelwert gibt es eine weitere wichtige statistische Parameter. Wir betrachten im folgenden noch die sog. Varianz einer Zufallsvariablen. Diese gibt uns Auskunft über die Streuung der Werte einer Zufallsvariable. Sei also X eine Zufallsvariable, dann betrachten wir die neue Zufallsvariable Y = (X − E(X))2 . Y , also gewissermÿen der Mittelwert der quadratischen E(X), wird Varianz von X genannt und mit σ 2 bezeichnet. Der Erwartunsgwert von Abweichung von X von Eine genaue Rechnung ergibt σ 2 = E(X 2 ) − E(X)2 . σ selbst heiÿt auch Standardabweichung. Beipiele: i) Die Varianz der Binomialverteilung ergibt sich zu σ 2 = pqn. ii) Die Varianz der Poissonverteilung ergibt sich zu λ. Die Rolle der Varianz wird deutlich an der Tschebyscheschen Ungleichung: pr(|X − E(X)| = kσ) 5 1 . k2 1.3. ZUFALLSVARIABLE 1.3.3 Korrelationen 15