Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic ([email protected]) Technische Universität München 14. Juni 2017 Agenda I Disclaimer und wichtige Hinweise I Überblick der bisherigen Vorlesungsinhalte I Übungsaufgaben Disclaimer und wichtige Hinweise Diese Folien wurden weder von Prof. Albers noch von der Übungsleitung erstellt und erheben keinerlei Anspruch auf Richtigkeit oder Vollständigkeit. Sie sollen nicht die Vorlesungsfolien ersetzen, sondern lediglich als Lernunterstützung genutzt werden. Die hier gestellten Aufgaben und die damit abgedeckten Themenbereiche sind weder für die Klausur relevant, noch irrelevant. Sie dienen vor allem dazu euch andere Blickrichtungen auf den Stoff zu präsentieren. Wahrscheinlichkeitsräume Überblick der bisherigen Vorlesungsinhalte Definition Ein diskreter Wahrscheinlichkeitsraum (Ω, Pr) besteht aus einer abzählbaren Elementarergebnismenge Ω und einem zugehörigen Wahrscheinlichkeitsmaß Pr : Ω → [0, 1], das X Pr[ω] = 1 ω∈Ω erfüllt. Hinweis Bei der Konstruktion eines Wahrscheinlichkeitsraums muss die Menge Ω stets definiert oder hinreichend beschrieben werden, sowie gezeigt P werden, dass 0 6 Pr[ω] 6 1 für alle ω ∈ Ω gilt. Zuletzt muss ω∈Ω Pr[ω] = 1 gezeigt werden. Wahrscheinlichkeitsräume Überblick der bisherigen Vorlesungsinhalte Beispiel: Zweifaches Werfen einer gezinkten Münze Die Ergebnisse Ω = {hh, ht, th, tt} beschreiben die vier möglichen Ausgänge, wobei h für Kopf und t für Zahl steht. Falls die Münze mit Wahrscheinlichkeit 1/3 Kopf zeigt, erhalten wir folgendes Wahrscheinlichkeitsmaß: 1 3 1 Pr[ht] = 3 2 Pr[tt] = 3 Pr[hh] = 1 1 = 3 9 2 2 · = = Pr[th] 3 9 2 4 · = 3 9 · Alle Wahrscheinlichkeiten sind positiv und addieren sich offensichtlich zu 1, daher ist die Konstruktion des Wahrscheinlichkeitsraumes (Ω, Pr) gültig. Ereignisse Überblick der bisherigen Vorlesungsinhalte Definition Ein Ereignis E ⊂ Ω ist eine Menge von Ergebnissen und es gilt X Pr[E] = Pr[ω]. ω∈E Beispiel: Zweifaches Werfen einer gezinkten Münze In unserem letzten Beispiel mit Ω = {hh, ht, th, tt} können wir die Ergebnisse, bei denen keine Seite doppelt vorkommt mithilfe des Ereignisses A = {ht, th} ⊂ Ω beschreiben. Wahrscheinlichkeiten zusammengesetzter Ereignisse Überblick der bisherigen Vorlesungsinhalte Satz (Additionssatz) Seien A1 , . . . , An ⊂ Ω disjunkte Ereignisse, dann gilt " n # n [ X Pr Ak = Pr[Ak ]. k=1 k=1 Satz (Siebformel) Seien A1 , . . . , An ⊂ Ω, nicht notwendigerweise disjunkte, Ereignisse, dann gilt " n # " # [ X \ |I|+1 Pr Ak = (−1) · Pr Ai . k=1 ∅⊂I⊂[n] i∈I Wahrscheinlichkeiten zusammengesetzter Ereignisse Überblick der bisherigen Vorlesungsinhalte Beispiel: Siebformel Für n = 2 erhalten wir durch Einsetzen in die Siebformel: Pr[A1 ∪ A2 ] = Pr[A1 ] + Pr[A2 ] − Pr[A1 ∩ A2 ] Für n = 3 erhalten wir durch Einsetzen in die Siebformel: Pr[A1 ∪ A2 ∪ A3 ] = Pr[A1 ] + Pr[A2 ] + Pr[A3 ] − Pr[A1 ∩ A2 ] − Pr[A1 ∩ A3 ] − Pr[A2 ∩ A3 ] + Pr[A1 ∩ A2 ∩ A3 ] Wahrscheinlichkeiten zusammengesetzter Ereignisse Überblick der bisherigen Vorlesungsinhalte Definition Seien A, B ⊂ Ω und Pr[B] 6= 0, dann beschreibt der Ausdruck Pr[A | B] = Pr[A ∩ B] Pr[B] die bedingte Wahrscheinlichkeit von A unter der Bedingung, dass B bereits eingetreten ist. Es gelten folgende Rechenregeln: I Pr[A | A] = 1 I Pr[A | Ω] = Pr[A] I Pr[∅ | A] = 0 I Pr[A | B] = 1 − Pr[A | B] Wahrscheinlichkeiten zusammengesetzter Ereignisse Überblick der bisherigen Vorlesungsinhalte Satz (Multiplikationssatz) Seien A1 , . . . , An ⊂ Ω mit Pr[A1 ∩ . . . ∩ An ] 6= 0, dann gilt Pr[A1 ∩ . . . ∩ An ] = Pr[A1 ] · Pr[A2 | A1 ] · Pr[A3 | A1 ∩ A2 ] · . . . · Pr[An | A1 ∩ . . . ∩ An−1 ]. Satz von der totalen Wahrscheinlichkeit Überblick der bisherigen Vorlesungsinhalte Satz (Satz von der totalen Wahrscheinlichkeit) Sei A1 , . . . , An ⊂ Ω eine paarweise disjunkte Partition von Ω, dann gilt n X Pr[B] = Pr[B | Ak ] · Pr[Ak ]. k=1 Satz von Bayes Überblick der bisherigen Vorlesungsinhalte Satz (Satz von Bayes) Seien A, B ⊂ Ω mit positiven Wahrscheinlichkeiten, dann gilt Pr[A | B] = Pr[B | A] · Pr[A] . Pr[B] Diskrete Zufallsvariablen Überblick der bisherigen Vorlesungsinhalte Definition Eine Zuordnung X : Ω → R bezeichnen wir als Zufallsvariable. Beispiel: Zweimaliges Werfen einer Münze In diesem Experiment können wir zu Ω = {hh, ht, th, tt} eine Zufallsvariable X definieren mit X(hh) = 0, X(ht) = X(th) = 1 und X(tt) = 2, die angibt, wie oft in einem Ergebnis ein Zahlwurf enthalten ist. Somit folgt auch die Evalution des Ausdrucks Pr[X = 1] = Pr[{ω ∈ Ω | X(ω) = 1}] = Pr[{ht, th}] = Pr[ht] + Pr[th]. Dichte und Verteilung Überblick der bisherigen Vorlesungsinhalte Definition Eine Zuordnung fX : R 3 x 7→ Pr[X = x] ∈ [0, 1] wird als Dichte(funktion) der Zufallsvariablen X bezeichnet. Die Zuordnung FX : R 3 x 7→ Pr[X 6 x] ∈ [0, 1] wird als Verteilung(sfunktion) der Zufallsvariablen X bezeichnet. Hinweis Während das Wahrscheinlichkeitsmaß Pr lediglich für gültige Werte definiert ist, müssen Dichte und Verteilung für sämtliche Werte definiert werden! Insbesondere müssen Sonderfälle berücksichtigt werden, in denen der Wert 0 angenommen wird! Gemeinsame Dichte und Randdichten Überblick der bisherigen Vorlesungsinhalte Definition Seien X und Y Zufallsvariablen, dann wird der Ausdruck fX,Y (x, y) = Pr[X = x, Y = y] als gemeinsame Dichte der Zufallsvariablen X und Y bezeichnet. Definition Aus einer gemeinsamen Dichte fX,Y lassen sich die Randdichten gemäß folgender Vorschrift herleiten: X fX (x) = fX,Y (x, y) y∈WY fY (y) = X x∈WX fX,Y (x, y) Unabhängigkeit Überblick der bisherigen Vorlesungsinhalte Definition Seien X1 , . . . , Xn Zufallsvariablen, dann nennen wir diese unabhängig genau dann, wenn fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) · . . . · fXn (xn ). Definition Seien X und Y unabhängige Zufallsvariablen und Z = X + Y, dann folgt die Dichte fZ (z) aus der diskreten Faltungsformel und es gilt X fZ (z) = fX (x) · fY (z − x). x∈WX Erwartungswert Überblick der bisherigen Vorlesungsinhalte Definition Der Erwartungswert einer Zufallsvariablen X ist definiert durch X E[X] = x · fX (x) x∈WX und existiert nur, wenn diese Reihe absolut konvergiert. Darüber hinaus können Zufallsvariablen, die durch Komposition von Funktionen entstehen, ähnlich genutzt werden, dann gilt X E[g(X)] = g(x) · fX (x). x∈WX Erwartungswert Überblick der bisherigen Vorlesungsinhalte Beispiel: Erwartungswerte E[X(X − 1)] = X x∈WX x · (x − 1) · fX (x) hp i X p E X2 + 1 = x2 + 1 · fX (x) x∈WX Bedingte Erwartungswerte Überblick der bisherigen Vorlesungsinhalte Definition Ein Erwartungswert kann auf ein bestimmtes Ereignis A ⊂ Ω bedingt werden. In diesem Fall gilt X E[X | A] = x · Pr[X = x | A]. x∈WX Erneut lassen sich Funktionen auf die Zufallsvariablen anwenden und es folgt X E[g(X) | A] = g(x) · Pr[X = x | A]. x∈WX Bedingte Erwartungswerte Überblick der bisherigen Vorlesungsinhalte Satz Analog zum Satz von der totalen Wahrscheinlichkeit sei A1 , . . . , An ⊂ Ω eine paarweise disjunkte Partition von Ω, dann gilt n X E[X] = E[X | Ak ] · Pr[Ak ] k=1 und ebenso E[g(X)] = n X k=1 E[g(X) | Ak ] · Pr[Ak ]. Eigenschaften des Erwartungswertes Überblick der bisherigen Vorlesungsinhalte Definition Sei X = a1 X1 + . . . + an Xn eine zusammengesetzte Zufallsvariable, dann folgt aus der Linearität des Erwartungswertes, dass E[X] = a1 E[X1 ] + . . . + an E[Xn ]. Definition Seien X1 , . . . , Xn unabhängige Zufallsvariablen, dann folgt aus der Multiplikativität des Erwartungswertes, dass E[X1 · . . . · Xn ] = E[X1 ] · . . . · E[Xn ]. Varianz Überblick der bisherigen Vorlesungsinhalte Definition Die Varianz einer Zufallsvariablen X ist definiert durch X Var[X] = E[(X − E[X])2 ] = (x − E[X])2 · fX (x). x∈WX Über den Verschiebungssatz Var[X] = E[X2 ] − E[X]2 lässt sich die Varianz angenehmer berechnen. Eigenschaften der Varianz Überblick der bisherigen Vorlesungsinhalte Definition Die Varianz ist nicht linear, jedoch gilt Var[aX + b] = a2 Var[X]. Definition Seien X1 , . . . , Xn unabhängige Zufallsvariablen, dann folgt aus der Additivität der Varianz, dass Var[X1 + . . . + Xn ] = Var[X1 ] + . . . + Var[Xn ]. Wichtige diskrete Verteilungen Überblick der bisherigen Vorlesungsinhalte Bernoulliverteilung X ∼ Ber(p) (Hit or Miss) für x = 1, p, fX (x) = 1 − p, für x = 0, 0, sonst. E[X] = p Var[X] = p(1 − p) Wichtige diskrete Verteilungen Überblick der bisherigen Vorlesungsinhalte Binomialverteilung X ∼ Bin(n, p) (n-fache Bernoullikette) n px (1 − p)n−x , für x ∈ {0, . . . , n}, x fX (x) = 0, sonst. E[X] = np Var[X] = np(1 − p) Falls X ∼ Bin(nx , p) und Y ∼ Bin(ny , p) unabhängige Zufallsvariablen sind, dann gilt X + Y ∼ Bin(nx + ny , p). Wichtige diskrete Verteilungen Überblick der bisherigen Vorlesungsinhalte Geometrische Verteilung X ∼ Geo(p) (Warten auf den ersten Treffer) fX (x) = p(1 − p)x−1 , für x ∈ N, 0, sonst. 1 p 1−p Var[X] = p2 FX (x) = 1 − (1 − p)x E[X] = Wichtige diskrete Verteilungen Überblick der bisherigen Vorlesungsinhalte Poisson-Verteilung X ∼ Po(λ) (Diskreter Prozess mit Auftrittsrate λ) λx , für x ∈ N0 , fX (x) = exp(x) · x! 0, sonst. E[X] = λ = Var[X] Abschätzen von Wahrscheinlichkeiten und Verteilungen Überblick der bisherigen Vorlesungsinhalte Markov-Ungleichung Sei X eine nicht-negative Zufallsvariable und t > 0, dann gelten Pr [X > t] 6 E[X] t sowie Pr [X > t · E[X]] 6 Chebyshev-Ungleichung Sei X eine Zufallsvariable und t > 0, dann gilt Pr [|X − E[X]| > t] 6 Var[X] t2 und äquivalent dazu h i p 1 Pr |X − E[X]| > t · Var[X] 6 2 t 1 t Abschätzen von Wahrscheinlichkeiten und Verteilungen Überblick der bisherigen Vorlesungsinhalte Chernoff-Schranken Seien X1 , . . . , Xn unabhängige Bernoulli-Zufallsvariablen mit X = X1 + . . . + Xn , dann gelten folgende Schranken: 2 δ E[X] für 0 < δ 6 1 Pr [X > (1 + δ) · E[X]] 6 exp − 3 E[X] exp δ Pr [X > (1 + δ) · E[X]] 6 für δ > 0 (1 + δ)(1+δ) E[X] exp(−δ) Pr [X 6 (1 − δ) · E[X]] 6 für 0 < δ < 1 (1 − δ)(1−δ) (−→ alle anderen Schranken mit Bedingungen für δ im Skript) Erzeugende Funktionen Überblick der bisherigen Vorlesungsinhalte Beispiel Es werden drei faire sechsseitige Würfel gleichzeitig geworfen und die Summe der Augenzahlen mit der Zufallsvariablen Z bezeichnet. Wie berechnet man möglichst elegant Pr[Z = 12]? 1 1 1 2 1 3 1 4 1 5 1 6 3 z + z + z + z + z + z 6 6 6 6 6 6 3 z 25z12 z18 = + ... + + ... + . 216 216 216 Somit lässt sich ablesen, dass Pr[Z = 12] = 25 . 216 Erzeugende Funktionen Überblick der bisherigen Vorlesungsinhalte Definition Sei X eine Zufallsvariable, dann gilt, für die durch GX (s) definierte wahrscheinlichkeitserzeugende Funktion, dass GX (s) = ∂ GX (s) ∂s s=1 = ∞ X sx · fX (x) = E sX x=0 ∞ X x · 1x−1 · fX (x) = E[X] x=0 ∞ X G (s) = x · (x − 1) · 1x−2 · fX (x) = E[X · (X − 1)] X 2 ∂ s s=1 x=0 k ∂ GX (s) = Pr[X = k] · k! ∂k s s=0 ∂2 Erzeugende Funktionen Überblick der bisherigen Vorlesungsinhalte Wichtige erzeugende Funktionen I Binomialverteilung (X ∼ Bin(n, p)) GX (s) = (1 − p + ps)n I Geometrische Verteilung (X ∼ Geo(p)) GX (s) = I ps 1 − (1 − p)s Poissonverteilung (X ∼ Po(λ)) GX (s) = exp(λ(s − 1)) Erzeugende Funktionen Überblick der bisherigen Vorlesungsinhalte Definition Sei X eine Zufallsvariable, dann ist die momenterzeugende Funktion gegeben durch MX (t) := GX (exp t) = E[exp(t · X)]