Kapitel V Parameter der Verteilungen D. 5. 1. (Erwartungswert) Als Erwartungswert einer Zufallsvariablen X bezeichnet man: ∞ ∑ xi ⋅ pi i =1 E ( X ) := + ∞ x ⋅ f ( x ) dx ∫ −∞ falls X diskret falls X stetig Dabei sei vorausgesetzt: ∞ ∑x i =1 i ⋅ pi < ∞ und +∞ ∫ x ⋅ f ( x ) dx < ∞ . −∞ B. 5. 1. Der Erwartungswert ist das gewogene arithmetische Mittel der Realisierungen xi einer Zufallsvariablen X , wobei die Wahrscheinlichkeiten pi als Gewichte wirken. B. 5. 2. Der Begriff “Erwartungswert” in der Wahrscheinlichkeitstheorie ist vergleichbar mit dem Bergriff “arithmetisches Mitte” in der deskriptiven Statistik. Das nachfolgende Beispiel zeigt die Ähnlichkeiten und die Differenzen: BS. 5. 1. Ein Würfel wird geworfen. Das Ergebnis lautet 3, 5, 4, 3, 1. Für das arithmetische Mittel gilt: _ x= 1 ⋅ ( 3 + 5 + 4 + 3 + + 1) = 3.2 5 Der Erwartungswert der Zufallsvariablen X: „die Zahl, die oben erscheint.“ lautet: E( X ) = 1 1 1 1 1 1 ⋅1 + ⋅ 2 + ⋅ 3 + ⋅ 4 + ⋅ 5 + ⋅ 6 = 3.5 6 6 6 6 6 6 1 B. 5. 2. Während sich das arithmetische Mittel von Versuch zu Versuch im Allgemeinen ändert, ist der Erwartungswert eine objektive Zahl, unabhängig vom Ausgang eines konkreten Versuchs. Für eine hinreichend große Anzahl von Versuchen nähert sich das arithmetische Mittel dem Erwartungswert. BS. 5. 2. Gegeben sei folgende Dichtefunktion einer Zufallsvariable X : f ( x) = − 2 2 x + , x ∈ [ 0, 3] , 9 3 Berechnen Sie den Erwartungswert E ( X ) . Lösung: +∞ 3 2 2 ∫−∞ x ⋅ f ( x ) dx = ∫0 x ⋅ − 9 x + 3 dx E(X ) = 3 2 2 = ∫ − x 2 + x dx 9 3 0 2 x3 2 x 2 =− ⋅ + ⋅ 9 3 3 2 3 0 2 27 9 =− ⋅ + =1 9 3 3 D. 5. 2. (Varianz bzw. Dispersion, Standardabweichung) Die Varianz bzw. Dispersion einer Zufallsvariablen X , bezeichnet mit D 2 ( X ) , wird folgendermaßen definiert: D 2 ( X ) := E ( X − E ( X ) ) 2 d.h. ∞ 2 ∑ ( xi − E ( X ) ) ⋅ p i i =1 D 2 ( X ) := + ∞ ( x − E ( X ) )2 ⋅ f ( x ) dx .∫∞ falls X : discrete falls X : stetig Dabei wird vorausgesetzt, dass der Erwartungswert existiert. Die Standardabweichung, bezeichnet mit D , wird folgendermaßen definiert: D ( X ) := D2 ( X ) (>0) . 2 B. 5. 3. Es kann leicht gezeigt werden, dass D 2 ( X ) = E ( X 2 ) − ( E ( X )) 2 , d.h. 2 ∞ 2 ∞ x ⋅ p − x ⋅ p ∑ i i ∑ i i , i =1 i =1 D 2 ( X ) := + ∞ +∞ x 2 ⋅ f ( x ) dx − x ⋅ f ( x ) , 2 ∫ ∫ −∞ .∞ falls X diskret falls X stetig BS. 5. 1. (Fortsetzung) Bestimmen Sie die Varianz und Standardabweichung der Zufallsgröße X . Lösung: 2 1 2 1 2 1 D 2 ( X ) = (1 − 3.5 ) ⋅ + ( 2 − 3.5 ) ⋅ + ... + ( 6 − 3.5 ) ⋅ ≈ 2.92 , 6 6 6 oder 1 1 1 D 2 ( X ) = 1 ⋅ + 4 ⋅ + ... + 36 ⋅ − 3.5 2 ≈ 2.92 . 6 6 6 D ( X ) ≈ 1.71 . BS. 5. 3. (Fortsetzung) Bestimmen Sie die Varianz und Standardabweichung der Zufallsgröße X . Lösung: 3 2 2 2 D 2 ( X ) = ∫ ( x − 1) ⋅ x + dx 3 9 0 3 10 2 14 2 2 = ∫ − x3 + x − x + dx 9 9 9 3 0 3 2 x 4 10 x 3 14 x 2 2 =− ⋅ + ⋅ − ⋅ + x 9 4 9 3 9 2 3 0 = 1 2 oder 3 2 2 D ( X ) = ∫ x 2 ⋅ − x + dx − 1 3 9 0 2 3 3 2 2 = ∫ − x 3 + x 2 dx − 1 9 3 0 3 2 x 4 2 x3 =− ⋅ + ⋅ −1 9 4 3 3 0 = 1 . 2 B. 5. 4. Seien X und Y zwei Zufallsvariable. Mit der Transformation Y = g(X ) , möchten wir unter Kenntnis der Verteilung von X Informationen über Y erhalten. Dazu betrachten wir folgendes Beispiel: BS. 5. 4. Sei Y = 4X mit folgender Wahrscheinlichkeitsfunktion xi 2 4 P ( X = xi ) 1 4 3 4 und der Verteilungsfunktion 0 1 F ( x ) := 4 1 für x≤2 für 2< x≤ 4. für x>4 Wir möchten aufgrund dieser Informationen die Wahrscheinlichkeitsfunktion und die Verteilungsfunktion von Y herleiten. 4 P ( X = xi ) = P (4 X = 4 xi ) = P ( Z = 4 xi ) = P ( Z = zi ), i = 1, 2 , and F ( z) = P ( Z < z ) = P (4 X < z ) z = P X < 4 z = P = F (x) . 4 Damit haben wir die Wahrscheinlichkeitsfunktion: zi P ( Z = zi ) 8 16 1 4 3 4 und die Verteilungsfunktion: 0 1 F ( z ) := 4 1 when z≤8 when 8 < z ≤ 16 . when z > 16 Berechnen wir nun den Erwartungswert von Z : E ( Z ) = z1 ⋅ P ( Z = z1 ) + z 2 ⋅ P ( Z = z 2 ) = 8 ⋅ P ( Z = 8 ) + 16 ⋅ P ( Z = 16 ) = 8 ⋅ P ( 4 X = 8 ) + 16 ⋅ P ( 4 X = 16 ) = 8 ⋅ P ( X = 2 ) + 16 ⋅ P ( X = 4 ) = 8⋅ 1 3 + 16 ⋅ 4 4 = 14 . 5 B. 5. 5. Eine Verallgemeinerung des letzten Beispiels führt zu ∞ ∑ g ( xi ) ⋅ P ( X = xi ) , falls X diskret i =1 E (Z ) = E ( g ( x )) = +∞ g ( x ) ⋅ f ( x ) dx , falls X stetig ∫ −∞ BS. 5. 5. Betrachtet sei eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion xi x1 x2 pi = P ( X = xi ) = f ( xi ) p1 p2 Sei … … Y = aX + b, a , b = const. Dann gilt: ∞ E ( Z ) = ∑ ( axi + b ) ⋅ pi i =1 ∞ ∞ i =1 ∞ i =1 = a ⋅ ∑ x i ⋅ p i + b ⋅ ∑ pi = a ⋅ ∑ x i ⋅ pi + b . i =1 Die Existenz von E ( X ) vorausgesetzt, hat man E ( aX + b ) = a ⋅ E ( X ) + b . Es kann analog bewiesen werden: D 2 ( aX + b ) = a 2 ⋅ D 2 ( X ), falls D 2 ( X ) existiert. BS. 5. 6 Betrachtet sei die Zufallsvariable X mit E ( X ) = µ, D 2 ( X ) = σ 2 (σ 2 ≠ 0) . Für die Funktion Y = g ( X ) := X −µ σ erhalten wir: 6 = 1 σ ⋅X − µ σ xn pn E (Z ) = 1 σ = ⋅E(X )− 1 σ ⋅µ − µ σ µ =0 σ = 0, 1 D2 ( Z ) = 2 ⋅ D2 ( X ) σ = σ2(X ) σ2(X ) = 1. D. 5. 3. (Standardisierung, Standardisierte Zufallsvariable) Eine Zufallsvariable Z heißt standardisierte oder normiert, wenn E ( Z ) = 0, D 2 ( Z ) = 1. Der Prozess Y = g ( X ) := X −µ σ heißt Standardisierung oder Normierung. (Letzte Aktualisierung: 17.05.2017) 7 = 1 σ ⋅X − µ σ