Formeln Stochastik Inhaltsverzeichnis 1 Zufällige Ereignisse und deren Wahrscheinlichkeiten 1.1 Ereignisalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Wahrscheinlichkeit eines zufälligen Ereignis . . . . . . . . . . . . . . . . . . 1.2.1 Klassische “Wahrscheinlichkeitstheorie“ . . . . . . . . . . . . . . . . 1.2.2 Axiomatischer Wahrscheinlichkeitsbegriff: Wahrscheinlichkeitsraum . 1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit von Ereignissen . . . . . . 1.3.1 Definition der Bedingten Wahrscheinlichkeit und Multiplikationssatz 1.3.2 Unabhängigkeit von Ereignissen . . . . . . . . . . . . . . . . . . . . 1.3.3 Satz von der totalen Wahrscheinlichkeit und Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 2 3 4 4 5 6 2 Zufallsgrößen 2.1 Zufallsgrößen und ihre Verteilungsfunktion . 2.2 Diskrete und stetige Zufallsgrößen . . . . . 2.3 Erwartungswert und Varianz . . . . . . . . 2.3.1 Bedeutung des Erwartungswertes . . 2.3.2 Bedeutung der Varianz . . . . . . . . 2.4 Wichtige diskrete Verteilungen . . . . . . . 2.4.1 Diskrete gleichmäßige Verteilung . . 2.4.2 Binomialverteilung . . . . . . . . . . 2.4.3 Hypergeometrische Verteilung . . . . 2.4.4 Poission-Verteilung . . . . . . . . . . 2.5 Wichtige stetige Verteilungen . . . . . . . . 2.5.1 Stetige gleichmäßige Verteilungen . . 2.5.2 Exponentialverteilung . . . . . . . . 2.5.3 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 8 9 9 10 10 10 10 11 12 12 12 13 . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Zufällige Ereignisse und deren Wahrscheinlichkeiten 1.1 Ereignisalgebra Mit Ereignissen A, B, . . . kann gerechnet werden wie mit Teilmengen: A=B A ⊆ B oder B ⊇ A A∪B A∩B A\B Insbes.: Ω \ B := B AMB (= B C ) (A tritt genau dann ein, wenn B eintritt) (Eintreten von A zieht das Eintretten von B nach sich) (Summe oder ,,Vereinigung“ von A und B, tritt genau dann ein, wenn mindestens eines der Ereignisse A oder B eintritt) (Produkt oder ,,Durchschnitt“ von A und B, tritt genau dann ein, wenn sowohl A und B eintreten, d. h. A und B eintreten) (Differenz von A und B tritt genau dann ein, wenn A eintritt aber B nicht) (Komplementärereignis oder ,,Komplement“ von B, tritt genau dann ein, wenn B nicht eintritt) (Symmetrische Differenz von A und B, tritt genau dann ein, wenn A oder B eintritt, nicht aber beide Ereignisse, d. h. A M B tritt genau dann ein, wenn eines der Eregnisse A oder B eintritt.) 1.2 Wahrscheinlichkeit eines zufälligen Ereignis Absolute Häufigkeit Hn (A) = kn relative Häufigkeit hn (A) = kn n 1.2.1 Klassische “Wahrscheinlichkeitstheorie“ 4 Grundaufgaben der Kombinatorik 1. Wiederholung zugelassen, Reihenfolge wird berücksichtigt Variation mit Wiederholung Ṽnk = nk 2. Wiederholung nicht zugelassen, Reihenfolge wird berücksichtigt Variation ohne Wiederholung Vnk = Spezialfall: n = k n! (n − k)! Vnk = n! 3. Wiederholung nicht zugelassen, Reihenfolge wird nicht berücksichtigt Kombination ohne Wiederholung n! n Cnk = = (n − k)k! k 2 4. Wiederholung zugelassen, Reihenfolge wird nicht berücksichtigt Kombination mit Wiederholung n+k−1 (n + k − 1)! n+k−1 C̃nk = = = k k!(n − 1)! n−1 1.2.2 Axiomatischer Wahrscheinlichkeitsbegriff: Wahrscheinlichkeitsraum Da im allgemeinen nicht jede Teilmenge von Ω eine Wahrscheinlichkeit zugeordnet werden kann, muss zunächst eine geeignete Familie von Teilmengen ausgewählt werden (σ-Algebra). Eine Familie A von Teilmengen von Ω heißt eine σ-Algebra, falls gilt: 1. ∅ ∈ A 2. aus A ∈ A folgt A ∈ A 3. aus {Aj }j∈N ⊆ A folgt ! ∞ S Aj ∈A j=1 Eigenschaften einer σ-Algebra 1. es ist Ω ∈ A 2. Für n ∈ N und {Aj }nj=1 ⊆ A ist n [ Aj ∈ A j=1 3. Für jede endliche oder unendliche Folge {Aj } ⊆ A gilt: \ Aj ∈ A j 4. Ist A, B ∈ A, so ist A\B ∈A und A4B ∈ A Eine Funktion P : A → [0, 1] auf einer σ-Algebra heißt Wahrscheinlichkeitsmaß, falls (i) Normiertheit P (Ω) = (ii) σ-Additivität (des Wahrscheinlichkeitsmaßes P ) ∞ ∞ [ X P Aj = P (Aj ) j=1 1 für jede {Aj }j∈N ⊆ A j=1 paarweise disjunkte Mengen (d. h. Aj ∩ Ak = ∅ für alle j, k ∈ N, j 6= k) gilt. 3 Ein Tripel (Ω, A, P ) aus einer Menge Ω, einer σ-Algebra A von Teilmengen von Ω und eines Wahrscheinlichkeitsmaß P auf A heißt Wahrscheinlichkeitsraum. Interpretation Ω - Menge der Elementarereignisse A - Familie der zufälligen Ereignisse P (A) - Wahrscheinlichkeit des zufälligen Ereignisses A, wobei A ∈ A Eigenschaften von Wahrscheinlichkeiten (i) P (∅) = 0 Aus A ∈ A und P (A) = 0 folgt i.a. nicht das A = ∅ (ii) ist A ⊆ B, A, B ∈ A, so ist P (B\A) = P (B) − P (A) Insbesondere P (A) ≤ P (B) (iii) Für A ∈ A ist P (A) = 1 − P (A) (iv) Für A, B ∈ A beliebig gilt: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (v) (Siebformel) Verallgemeinerung auf drei Ereignisse A, B, C ∈ A P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) 1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit von Ereignissen 1.3.1 Definition der Bedingten Wahrscheinlichkeit und Multiplikationssatz Zusätzliche Informationen über ein Zufallsexperiment, z. B. die Information, dass ein gewisses Ereignis eingetreten ist, können die Wahrscheinlichkeiten der Ereignisse verändern. Das kann mit dem folgendem Begriff beschrieben werden. Seien A, B ∈ A und P (A) > 0. Dann heißt P (B|A) = P (A ∩ B) P (A) die Bedingte Wahrscheinlichkeit von B unter der Bedingung A (ausführlicher: unter der Bedingung, dass A eingetreten ist). Multiplikationssatz: Sind A, B ∈ A mit P (A) > 0, so ist P (A ∩ B) = P (A) · P (B|A) Verallgemeinerung des Multiplikationssatz auf n Ereignisse, n ∈ N, n ≥ 2: P (A1 ∩ A2 ∩ . . . ∩ An ) =P (A1 ) · P (A2 |A1 ) · P (A3 |(A1 ∩ A2 )) · . . . · P (An |A1 ∩ A2 ∩ . . . ∩ An−1 ) 4 1.3.2 Unabhängigkeit von Ereignissen Zwei Ereignisse A, B ∈ A heißen (stochastisch) unabhängig, falls P (A ∩ B) = P (A) · P (B) gilt. Sind A und B unabhängig und ist P (A) > 0, so ist P (B|A) P (A ∩ B) P (A) P (A) · P (B) = P (A) = P (B) = , d. h. eine Kenntnis vom Eintreten von A beeinflusst die Wahrscheinlichkeit von B nicht. Sind A und B unabhängig, so sind auch A und B, bzw. A und B bzw. A und B unabhängig. Sei n ∈ N, n ≥ 2. Die n Ereignisse A1 , . . . , An ∈ A heißen (stochastisch) unabhängig oder vollständig (stochastisch) unabhängig, falls für jede mindestens zweielementige Teilmenge J von {1, . . . , n} die Gleichung [ Y P( Aj ) = P (Aj ) j∈J j∈J gilt. Sie heißen paarweise (stochastisch) unabhängig, falls für jede genau zweielementige Teilmenge J von {1, . . . , n} die Gleichung [ Y P( Aj ) = P (Aj ) j∈J j∈J gilt. Eine Familie {Aλ }λ∈Λ heißt (stochastisch) unabhängig oder vollständig (stochastisch) unabhängig, falls jede endliche Teilmenge (stochastisch) unabhängig ist. Sie heißt paarweise (stochastisch) unabhängig, falls P (Aλ1 ∩ Aλ2 ) = P (Aλ1 ) · P (Aλ2 ) für beliebige λ1 , λ2 ∈ Λ, λ1 6= λ2 gilt. Die drei Ereignisse A, B, C ∈ A sind unabhängig oder vollständig, g. d. w. die vier Gleichungen P (A ∩ B) = P (A) · P (B) P (A ∩ C) = P (A) · P (C) P (B ∩ C) = P (B) · P (C) P (A ∩ B ∩ C) = P (A) · P (B) · P (C) erfüllt sind. Anwendung des Begriffes der stochastischen Unabhängigkeit: Zufällige Ereignisse in der Praxis, die sich gegenseitig nicht beeinflussen werden häufig als stochastisch unabhängige Ereignisse modelliert. (Insbesondere: Bei mehrfachen Versuchsdurchführungen werden Ereignisse, die sich auf unterschiedliche Versuche beziehen, üblicherweise als stochastisch unabhängig angeben.) Die Entscheidung, ob sich in praktischen Ereignisse gegenseitig beeinflussen, ist oft eine Ermessensfrage. 5 1.3.3 Satz von der totalen Wahrscheinlichkeit und Satz von Bayes Eine endliche oder unendliche Folge {Aj }j∈J ⊆ A von Ereignissen heißt ein vollständiges Ereignissystem, falls [ Aj = Ω und j∈J Aj ∩ Ak = ∅ für j, k ∈ J, j 6= k Satz von der totalen Wahrscheinlichkeit: Sei {Aj }j∈J ein vollständiges Ereignissystem, P (Aj ) > 0 j ∈ J. Dann gilt für jedes B ∈ A: X P (B) = P (Aj ) · P (B|Aj ) j∈J Wichtiger Spezialfall: Falls P (A) > 0 und P (A) > 0, so ist P (B) = P (A) · P (B|A) + P (A) · P (B|A) für jedes B ∈ A. Satz von Bayes: Sei {Aj }j∈J ein vollständiges Ereignissystem mit P (Aj ) > 0, j ∈ J. Sei B ∈ A und P (B) > 0. Dann ist P (Ak |B) = P (A ) · P (B|Ak ) P k P (Ak ) · P (B|Ak ) j∈J 2 Zufallsgrößen 2.1 Zufallsgrößen und ihre Verteilungsfunktion Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Eine Funktion X:Ω→R Jedem zufälligen Ereignis wird eine reelle Zahl zugeordnet, z.B. Würfelergebnis, Gewinn von der Menge Ω der Elementarereignisse in die Menge der reellen Zahlen heißt (reelle) Zufallsgröße, falls die folgende Bedingung erfüllt ist (*) Für jedes x ∈ R gehört das Urbild X −1 ((−∞, x]) des Intervalls (−∞, x], d. h. die Menge {ω ∈ Ω : X(ω) ∈ (−∞, x]} =: (X ≤ x) zur σ-Algebra. Die Eigenschaft (*) heißt Meßbarkeit von X. Die reellen Zufallsgrößen sind also genau alle meßbaren reellwertigen Funktionen auf Ω. Sei X : Ω ∈ R eine Zufallsfunktion. Die durch FX (x) =: P (X −1 ((−∞, x]) = P (X ≤ x) definierte Funktion FX := F heißt Verteilungsfunktion von X. 6 x∈R Sei F eine Verteilungsfunktion von X. Dann gilt: (i) 0 ≤ F (x) ≤ 1 für alle x ∈ R, (ii) F ist monoton wachsend, d. h. F (x1 ) ≤ F (x2 ) für x1 , x2 ∈ R mit x1 < x2 , (iii) F ist rechtsseitig stetig, (iv) lim F (x) = 0, x→−∞ lim F (x) = 1, x→∞ Mit Hilfe von FX lassen sich verschiedene Wahrscheinlichkeiten, die X betreffen, ausrechnen. Sei F eine Verteilungsfunktion einer Zufallsgröße X und seien a, b ∈ R mit a < b. Dann gilt: (i) P (a < X ≤ b) = F (b) − F (a) (ii) P (X = a) = F (a) − F (a − 0) , wobei F (a − 0) den linksseitigen Grenzwert in a bezeichnet. (iii) = F (b − 0) − F (a) P (a < X < b) (iv) P (a ≤ X < b) = F (b − 0) − F (a − 0) (v) P (a ≤ X ≤ b) = F (b) − F (a − 0) 2.2 Diskrete und stetige Zufallsgrößen Eine Zufallsgröße heißt diskret, falls sie endlich viele oder abzählbar unendlich viele verschiedene Werte annehmen kann. Beschreibung einer diskreter Zufallsgröße X möglich durch Angabe der Werte xj die X annehmen kann, sowie durch Angabe der Einzelwahrscheinlichkeiten pj := P (X = xj ), j ∈ J. Diese Angaben sind äquivalent zur Angabe der Verteilungsfunktion FX der diskreten Zufallsgröße X. Es gilt nämlich der folgende Zusammenhang. Eine diskrete Zufallsgröße X nehme paarweise verschiedene Werte xj mit den Wahrscheinlichkeiten pj := P (X = xj ), j ∈ J und sonst keinen weiteren Werte an. Dann gelten folgende Aussagen: (i) pj ≥ 0 X pj = 1 j∈J (ii) FX (x) = X j∈J xj ≤x , wobei die Summation mit xj ≤ x zu erstrecken ist. 7 pj (iii) Fx ist eine Treppenfunktion, die Sprünge genau in den Punkten xj mit Sprunghöhe pj hat, j ∈ J. Eine Zufallsgröße heißt stetig, falls ihr Verteilungsfunktion überall stetig ist, bis auf eventuell endlich viele Ausnahmen überall differenzierbar und ihre Ableitung F 0 integrierbar ist (in den eventl. vorhanden Ausnahmenpunkten ist F 0 gleich 0 gesetzt). Die Ableitung F 0 =: f heißt Verteilungsdichte der Zufallsgröße. Zx FX (x) x∈R f (y) dy, = −∞ d. h. bei einer stetigen Zufallsgröße ist die Angabe der Verteilungsfunktion äquivalent zur Angabe der Verteilungsdichte f . Üblicherweiße wird f angegeben. Die Berechnung von Wahrscheinlichkeiten erfordert häufig eine Integration, z. B.: P (a < X ≤ b) = P ((X ≤ b) \ (X ≤ a)) = P (X ≤ b) − P (X ≤ a) Zb Za f (y) dy − f (y) dy = −∞ −∞ Zb = f (y) dy, a, b ∈ R, a < b a Da die Verteilungsfunktion FX einer stetigen Zufallsgröße stetig ist, folgt die folgende Beziehung: (i) P (X = a) = FX (a) − FX (a − 0) = 0 für jedes a ∈ R, d. h. eine stetige Zufallsgröße nimmt jeden konkreten Wert mit Wahrscheinlichkeit 0 an. (ii) P (a < X ≤ b) =P (a < X < b) =P (a ≤ X < b) =P (a ≤ X ≤ b) =FX (a) − FX (b) für alle a, b ∈ R, a < b. 2.3 Erwartungswert und Varianz Diskrete Zufallsgröße Sei X P eine diskrete Zufallsgröße, die genau die Werte xj mit pj = P (X = xj ), j ∈ J annimmt. Falls die Reihe xj pj absolut konvergiert, so heißt j∈J EX X := j∈J 8 xj pj Erwartungswert von X. Weiter heißt V ar(X) = σ 2 (X) = D2 X := X (xj − EX)2 pj j∈J die Varianz (oder Streuung) und σ(X) p := V ar(X) die Standardabweichung von X. Stetige Zufallsgröße R∞ Sei X eine stetige Zufallsgrößen mit Verteilungsdichte f . Falls |x|f (x) dx < ∞, so heißt −∞ Z∞ EX := xf (x) dx −∞ Erwartungswert von X. Weiter heißt 2 Z∞ 2 V ar(X) = σ (X) = D X := (x − EX)2 f (x) dx −∞ die Varianz (oder Streuung) und σ(X) p := V ar(X) die Standardabweichung von X. Sei X eine diskrete oder stetige Zufallsgröße, für die EX definiert ist. Dann gilt: (i) E(aX + b) = aEX + b für a, b ∈ R (ii) Ist X ≥ 0, so ist EX ≥ 0 (iii) V ar(X) = E(X − EX)2 = EX 2 − (EX)2 (iv) V ar(aX + b) = a2 V ar(X) für a, b ∈ R 2.3.1 Bedeutung des Erwartungswertes Der Erwartungswert entspricht bzgl. der Zufallsgröße die das arithmetische Mittel bzgl. einer Datenmenge spielt. 2.3.2 Bedeutung der Varianz Die Varianz ist ein Maß dafür, wie stark die Werte der Zufallsgröße getrennt sind. Grob gesagt gilt: Je stärker die Streuung, d.h. je größer die Varianz, desto unsicherer sind die Aussagen die über die Zufallsgröße gemacht werden können. 9 2.4 Wichtige diskrete Verteilungen 2.4.1 Diskrete gleichmäßige Verteilung Sei n ∈ N. Eine Zufallsgröße X, die genau die n paarweise verschiedene Werte x1 , . . . , xn ∈ R annimmt, heißt (diskrete) gleichmäßig verteilt (auf den Werten x1 , . . . , xn ), falls P (X = xi ) 1 n = i = 1, . . . , n gilt. 2.4.2 Binomialverteilung Ein gewissen Ereignis A trete bei einem Zufallsexperiment mit Wahrscheinlichkeit P (A) =: p ein. Sei q := 1 − p = 1 − P (A) = P (A). Sei n ∈ N. Die Zufallsgröße X gebe die Anzahl des Eintretens von A in einer Serie von n unabhängig und unter gleichen Bedingungen ablaufenden Ausführung des Zufallsexperiment an. Eine Zufallsgröße X, die genau die n+1 Werte 0, 1, . . . , n mit der Wahrscheinlichkeit n k n−k P (X = k) = p q , k = 0, 1, . . . , n k annimmt heißt binomialverteilt mit den Parametern n und p oder B(n, p)-verteilt. Für eine B(n, p)-verteilte Zufallsgröße X gilt EX = np V ar(X) = npq und Ist X eine B(n, p)-verteilte Zufallsgröße, so ist E X n = p 2.4.3 Hypergeometrische Verteilung Seien N, M, n ∈ N, n ≤ N, M ≤ N . Aus N Elementen, von denen genau M ein gewisses Merkmal aufweisen, werden n Elemente ohne zurücklegen ausgewählt. Die Zufallsgröße X gebe an, wieviel der ausgewählten Elemente das Merkmal aufweisen. Seien N, M, n ∈ N, n ≤ N, M ≤ N . Eine Zufallsgröße X besitzt eine hypergeometrische Verteilung mit den Parametern N, M und n oder H(N, M, n)-Verteilung, falls M N −M P (X = k) = k n−k N n für max(0, n + M − N ) ≤ k ≤ min(n, M ) und P (X = k) = 0 für 0 ≤ k < n + M − N oder M < k ≤ n gilt, k ∈ N ∪ {0} Für eine (H, M, n)-verteilte Zufallsgröße X gilt: EX = V ar(X) = Mn N N M n(N − M )(N − n) N 2 (N − 1) 10 Beispiel Unter 100 Werkstücken sind 5 Ausschuß. Es werden zufällig 10 Werkstücke ausgewählt (i) mit zurücklegen, (ii) ohne zurücklegen, Wahrscheinlichkeit, dass sich unter 10 ausgewählten Werkstücken genau ein Ausschussteil befindet 1 (i) X - Anzahl der Auschussteile ist B(10; 20 )-verteilt 19 19 10 1 · P (X = 1) = · 20 20 1 ≈ 0, 32 (ii) X - Anzahl der Auschussteile ist H(100; 5; 10)-verteilt 5 1 P (X = 1) = · 100−5 10−1 100 10 ≈ 0, 34 Man erkennt an diesem Beispiel: • Mit zurücklegen ⇒ Binomialverteilung • Ohne zurücklegen ⇒ Hypergeometrischeverteilung Sei n ∈ N. Für k = 0, 1, . . . , n gilt: M k lim N →∞ M →∞ M N →p N −M n−k N n n k n−k = p q k 2.4.4 Poission-Verteilung Sei λ ∈ R, λ > 0. Eine Zufallsgröße X, die genau die Zahlen 0, 1, 2, . . . mit den Wahrscheinlichkeiten λk −λ e k! annimmt heißt Piosson-verteilt mit dem Parameter λ. P (X = k) = k = 0, 1, 2, . . . Gibt eine Zufallsgröße X die Anzahl des Eintretens gewisser Ereignisse an, die zahlreich sind, aber jedes für sich nur eine geringe Eintrittswahrscheinlichkeit hat, so wird häufig angenommen, dass X näherungsweise eine Piosson-Verteilung besitzt. • Anzahl der Anrufe in einer Telefonzentrale während eines geeigneten Zeitintervalls • Anzahl der pro geeigneten Zeitintervall zerfallenden Atome eines spaltbaren Materials Ist X Piosson-verteilt mit Parameter λ, so ist EX = V ar(X) = λ Grenzwertsatz für Poisson) Für k = 0, 1, 2, . . . gilt: lim n→∞ p→0 np=λ=cons n k p (1 − p)n−k k = ⇒ Annäherung der Binomialverteilung durch die Poissonverteilung 11 λk −λ e k! 2.5 Wichtige stetige Verteilungen 2.5.1 Stetige gleichmäßige Verteilungen Seien a, b ∈ R, a < b. Eine stetige Zufallsgröße X heißt gleichmäßig verteilt (über dem Intervall [a, b]), falls ihre Verteilungsdichet fX die Form ( 1 x ∈ [a, b] b−a fX (x) = 0 x ∈ R \ [a, b] hat. Ist X gleichmäßig über [a, b] veteilt, so ist FX (x) = 0 x−a b.a EX = V ar(X) = 1 x<a a≤x<b x≥b a+b 2 (b − a)2 12 2.5.2 Exponentialverteilung Sei α ∈ R, α > 0. Eine stetige Zufallsgröße X besitzt eine Exponentialverteilung mit Parameter α, falls ihre Verteilungsdichte fX folgende Form ( αe−αx x ≥ 0 fX (x) = 0 x<0 hat. 12 Als (näherungsweise) exponentialverteilte Zufallsgröße werden häufig modelliert: • Service- und Wartezeiten • Lebensdauer von Geräten, bei denen der Verschleiß vernachlässigbar ist (z. B. Glühlampe) • Zerfallszeit eines Atoms eines radioaktiven Elements Ist X exponentialverteilt mit Parameter α, α ∈ R, α > 0, so ist ( 0 x<0 FX (x) = 1 − e−αx x ≥ 0 EX = V ar(X) = 1 α 1 α2 2.5.3 Normalverteilung Seien µ, σ ∈ R, σ > 0. Eine stetige Zufallsgröße X besitzt eine Normalverteilung mit den Parametern µ und σ 2 oder eine N (µ, σ 2 )-Verteilung, falls ihre Verteilungsdichte fX die Form fX (x) √ = (x−µ)2 1 e− 2σ2 2πσ x∈R hat. Kurvendiskussion: für fX : Sei zunächst µ = 0. Dann ist fX gerade, also ihr Bild ist symmetrisch zur Ordinatenachsen. Es ist lim fX (x) = lim fX (x) x→−∞ = x→∞ 0 Die Kurve für µ 6= 0 erhält man durch Verschiebung von µ entlang der Abszissenachse. Einfluss von σ 2 : Je größer σ 2 , desto flacher wird die Kurve. Außerdem gilt: µ+3σ Z fX (x) dx ≈ 0, 997 µ−3σ , d. h. die Wahrscheinlichkeit, dass eine N (µ, σ 2 )-verteiltes Zufallsgröße X eines Wertes ausserhalb von [µ − 3σ, µ + 3σ] annimmt ist gering (≈ 0, 003) ⇒ 3σ-Regel für die Praxis P (|x − µ| ≥ 3σ) = 0 Es ist Z∞ e− x2 x dx −∞ 13 = √ 2π Ist X eine N (µ, σ 2 )-verteilte Zufallsgröße, so ist EX = µ = σ2 V ar(X) Ermittlung von Wahrscheinlichkeiten: Seien a, b ∈ R, a < b. Sei X eine N (µ, σ 2 )-verteilte Zufallsgröße, dann ist P (a < X < b) = 1 √ 2πσ Zb e− (x−µ)2 2σ 2 dx a (x−µ)2 Dieses Integral lässt sich nicht exakt berechnen, da sich eine Stammfunktion x → e− 2σ2 nicht formelmäßig ausdrücken lässt. Deshalb erfolgt näherungsweise die Berechnung mit Methoden der numerischen Mathematik. Ergebnisermittlung mit Hilfe von Computern oder Tabellen. Überführung auf standardisierte Normalverteilung: Von besonderer Bedeutung ist die N (0, 1)-Verteilung oder standardisierte Normalverteilung. Verteilungsfunktion bzw. Verteilungsdichte einer Zufallsgröße mit N (0, 1)-Verteilung werden häufig mit Φ oder ϕ bezeichnet. Eine N (µ, σ 2 )-verteilte Zufallsgröße X kann durch die einfache Transformation X −µ σ =: Z in eine Zufallsgröße Z mit N (0, 1)-Verteilung überführt werden. Sei X eine N (µ, σ 2 )-verteilte Zufallsgröße und seine na ∈ R \ {0} und b ∈ R. Dann ist Y := a(X + b) eine N (aµ + ab; a2 σ 2 )-verteilte Zufallsgröße. Bedeutung der Normalverteilung: Sehr viele Zufallsgrößen, die als Modell für praktische Probleme dienen, können (näherungsweise) als normalverteilt angenommen werden. Die theoretische Begründung dafür liefert die Zentrale Grenzwertsatz, aus dem, grob gesagt, folgt, dass eine Zufallsgröße, die sich als Summe einer sehr großen Anzahl unabhängiger Zufallsgrößen darstellen läßt, von denen jede auf die Summe nur einen unbedeutigen zufälligen Einfluß hat, näherungsweise normalverteilt ist. 14