Vorlesung 8a Wie schätzt man Wie schätzt man effizient? Die Maximum-Likelihood Methode Die Maximum-Likelihood Methode BEISPIEL 1 BEISPIEL 1 Panther A BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion im Zweiten Weltkrieg MODELL MODELL (vereinfacht) MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2, ..., λ MODELL (vereinfacht) Fahrgestellnummer: Bei Panther A: F = 1, 2, ..., λ λ = 1768 MODELL (vereinfacht) Fahrgestellnummer: Bei Panther A: F = 1, 2, ..., λ λ = 1768 Nummern der erbeuteten Panzer MODELL (vereinfacht) Fahrgestellnummer: Bei Panther A: F = 1, 2, ..., λ λ = 1768 Nummern der erbeuteten Panzer F1, F2, ..., Fn MODELL (vereinfacht) F = 1, 2, ..., λ Fahrgestellnummer: Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer F1, F2, ..., Fn Zufallsstichprobe aus der Gesamtproduktion FRAGE MODELL (vereinfacht) F = 1, 2, ..., λ Fahrgestellnummer: Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer F1, F2, ..., Fn Zufallsstichprobe aus der Gesamtproduktion FRAGE Wie schätzt man λ aus F1, F2, ..., Fn? Kleine Vereinfachung: F kontinuierlich 0 500 1000 1500 F λ 2000 2500 3000 F ∼ Uniform [ 0, λ ] 0 500 1000 1500 F λ 2000 2500 3000 (n = 10) Stichprobe F1, ..., Fn 0 500 1000 1500 F λ 2000 2500 3000 Wie schätzt man λ aus F1, ..., Fn? 0 500 1000 1500 F λ 2000 2500 3000 Methode der Momente Methode der Momente EF = 12 λ Methode der Momente EF = 12 λ F̄ ≈ EF = 12 λ Methode der Momente EF = 12 λ F̄ ≈ EF = 12 λ Erster Schätzer ^λ1: Methode der Momente EF = 12 λ F̄ ≈ EF = 12 λ Erster Schätzer ^λ1: ^λ1 := 2F̄ ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 Zweiter Schätzer Zweiter Schätzer M := max { F1, F2, ..., Fn } Zweiter Schätzer M := max { F1, F2, ..., Fn } B EGR ÜNDUNG : Zweiter Schätzer M := max { F1, F2, ..., Fn } B EGR ÜNDUNG : Gegeben M Zweiter Schätzer M := max { F1, F2, ..., Fn } B EGR ÜNDUNG : Gegeben M enthalten die anderen { Fi } keine Information über λ Zweiter Schätzer M := max { F1, F2, ..., Fn } B EGR ÜNDUNG : Gegeben M enthalten die anderen { Fi } keine Information über λ Wie ist M verteilt? Zweiter Schätzer M := max { F1, F2, ..., Fn } B EGR ÜNDUNG : Gegeben M enthalten die anderen { Fi } keine Information über λ Wie ist M verteilt? Q! Quiz-relevant Verteilungsfunktion Verteilungsfunktion H(x) := P { M < x } Verteilungsfunktion H(x) := P { M < x } Dichte Verteilungsfunktion H(x) := P { M < x } Dichte h(x)∆x = P { x < M < x + ∆x } + o(∆x) Verteilungsfunktion H(x) := P { M < x } Dichte h(x)∆x = P { x < M < x + ∆x } + o(∆x) Erwartungswert Verteilungsfunktion H(x) := P { M < x } Dichte h(x)∆x = P { x < M < x + ∆x } + o(∆x) Erwartungswert R EM := xh(x)dx Verteilungsfunktion H(x) := P { M < x } Dichte h(x)∆x = P { x < M < x + ∆x } + o(∆x) Erwartungswert R EM := xh(x)dx Varianz Verteilungsfunktion H(x) := P { M < x } Dichte h(x)∆x = P { x < M < x + ∆x } + o(∆x) Erwartungswert R EM := xh(x)dx Varianz σ2M := E(X − EM)2 = E(M2) − (EM)2 Verteilungsfunktion Verteilungsfunktion H(x) := P { M < x } Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(F1, F2, ..., Fn) < x } Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(F1, F2, ..., Fn) < x } H(x) = P { (F1 < x), (F2 < x), ..., (Fn < x) } Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(F1, F2, ..., Fn) < x } H(x) = P { (F1 < x), (F2 < x), ..., (Fn < x) } H(x) = P { F1 < x } P { F2 < x } ... P { Fn < x } Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(F1, F2, ..., Fn) < x } H(x) = P { (F1 < x), (F2 < x), ..., (Fn < x) } H(x) = P { F1 < x } P { F2 < x } ... P { Fn < x } H(x) = (x/λ)(x/λ)...(x/λ) Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(F1, F2, ..., Fn) < x } H(x) = P { (F1 < x), (F2 < x), ..., (Fn < x) } H(x) = P { F1 < x } P { F2 < x } ... P { Fn < x } H(x) = (x/λ)(x/λ)...(x/λ) H(x) = xn/λn Ausführlicher: Ausführlicher: H(x) = 0 (x < 0) Ausführlicher: H(x) = 0 H(x) = xn/λn (x < 0) (0 ≤ x < λ) Ausführlicher: H(x) = 0 H(x) = xn/λn H(x) = 1 (x < 0) (0 ≤ x < λ) (λ ≤ x) Dichte Dichte h(x)∆x := P { x < M < x + ∆x } + o(∆x) Dichte h(x)∆x := P { x < M < x + ∆x } + o(∆x) h(x) = H ′(x) Dichte h(x)∆x := P { x < M < x + ∆x } + o(∆x) h(x) = H ′(x) h(x) = (xn) ′/λn Dichte h(x)∆x := P { x < M < x + ∆x } + o(∆x) h(x) = H ′(x) h(x) = (xn) ′/λn h(x) = nxn−1/λn Ausführlicher: Ausführlicher: h(x) = 0 (x < 0) Ausführlicher: h(x) = 0 h(x) = nxn−1/λn (x < 0) (0 ≤ x < λ) Ausführlicher: h(x) = 0 h(x) = nxn−1/λn h(x) = 0 (x < 0) (0 ≤ x < λ) (λ ≤ x) Erwartungswert Erwartungswert EM = R xh(x)dx Erwartungswert R EM = xh(x)dx Rλ EM = 0 x(nxn−1/λn)dx Erwartungswert R EM = xh(x)dx Rλ EM = 0 x(nxn−1/λn)dx Rλ n EM = n( 0 x dx)/λn Erwartungswert R EM = xh(x)dx Rλ EM = 0 x(nxn−1/λn)dx Rλ n EM = n( 0 x dx)/λn EM = n(λn+1/(n + 1))/λn Erwartungswert R EM = xh(x)dx Rλ EM = 0 x(nxn−1/λn)dx Rλ n EM = n( 0 x dx)/λn EM = n(λn+1/(n + 1))/λn n λ EM = n+1 Erwartungswert R EM = xh(x)dx Rλ EM = 0 x(nxn−1/λn)dx Rλ n EM = n( 0 x dx)/λn EM = n(λn+1/(n + 1))/λn n λ EM = n+1 (auch ohne Rechnung klar: Kreis) Varianz Varianz σ2M = E(M2) − (EM)2 Varianz σ2M = E(M2) − (EM)2 Rλ 2 2 E(M ) = 0 x h(x)dx Varianz σ2M = E(M2) − (EM)2 Rλ 2 2 E(M ) = 0 x h(x)dx Rλ 2 2 E(M ) = 0 x (nxn−1/λn)dx Varianz σ2M = E(M2) − (EM)2 Rλ 2 2 E(M ) = 0 x h(x)dx Rλ 2 2 E(M ) = 0 x (nxn−1/λn)dx R λ n+1 2 dx)/λn E(M ) = n( 0 x Varianz σ2M = E(M2) − (EM)2 Rλ 2 2 E(M ) = 0 x h(x)dx Rλ 2 2 E(M ) = 0 x (nxn−1/λn)dx R λ n+1 2 dx)/λn E(M ) = n( 0 x E(M2) = n(λn+2/(n + 2))/λn Varianz σ2M = E(M2) − (EM)2 Rλ 2 2 E(M ) = 0 x h(x)dx Rλ 2 2 E(M ) = 0 x (nxn−1/λn)dx R λ n+1 2 dx)/λn E(M ) = n( 0 x E(M2) = n(λn+2/(n + 2))/λn n λ2 E(M2) = n+2 Varianz Varianz σ2M = E(M2) − (EM)2 Varianz σ2M = E(M2) − (EM)2 n − ( n )2)λ2 σ2M = ( n+2 n+1 Varianz σ2M = E(M2) − (EM)2 n − ( n )2)λ2 σ2M = ( n+2 n+1 σ2 M = n 2 − n(n + 2))λ2 ((n + 1) (n+1)2(n+2) Varianz σ2M = E(M2) − (EM)2 n − ( n )2)λ2 σ2M = ( n+2 n+1 σ2 M = n 2 − n(n + 2))λ2 ((n + 1) (n+1)2(n+2) σ2 M = n 2 λ (n+1)2(n+2) n λ EM = n+1 n λ EM = n+1 ^λ2 := n+1 M n n λ EM = n+1 ^λ2 := n+1 M n E^λ2 = λ n λ EM = n+1 ^λ2 := n+1 M n E^λ2 = λ Man sagt: n λ EM = n+1 ^λ2 := n+1 M n E^λ2 = λ Man sagt: ^λ2 ist erwartungstreu. Zwei Schätzer von λ: Zwei Schätzer von λ: ^λ1 := 2F̄ Zwei Schätzer von λ: ^λ1 := 2F̄ ^λ2 := n+1 M n Zwei Schätzer von λ: ^λ1 := 2F̄ ^λ2 := n+1 M n Beide erwartungstreu: Zwei Schätzer von λ: ^λ1 := 2F̄ ^λ2 := n+1 M n Beide erwartungstreu: E^λ1 = E^λ2 = λ Zwei Schätzer von λ: ^λ1 := 2F̄ ^λ2 := n+1 M n Beide erwartungstreu: E^λ1 = E^λ2 = λ Welcher Schätzer ist besser? Zwei Schätzer von λ: ^λ1 := 2F̄ ^λ2 := n+1 M n Beide erwartungstreu: E^λ1 = E^λ2 = λ Welcher Schätzer ist besser? 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 Neuer Datensatz 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 Neuer Datensatz 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ1 := 2F̄ 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 := n+1 max Fi n 0 500 1000 1500 F λ 2000 2500 3000 n = 10 100 Datensätze 0 500 1000 1500 F λ 2000 2500 3000 n = 10 100 Datensätze 0 500 1000 1500 F λ 2000 2500 3000 ^λ2 ist λ deutlich näher als ^λ1 0 500 1000 1500 F λ 2000 2500 3000 Für n größer ist der Unterschied noch deutlicher. 0 500 1000 1500 F λ 2000 2500 3000 n = 25 0 500 1000 1500 F λ 2000 2500 3000 n = 100 0 500 1000 1500 F λ 2000 2500 3000 Quantitativ: Quantitativ: 1 λ2 σ2^λ1 = 3n 1 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Damit σ2^λ1 = σ2^λ2 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Damit σ2^λ1 = σ2^λ2 braucht man (n2+1)2(n2+2) n1 = 3n2 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Damit σ2^λ1 = σ2^λ2 braucht man (n2+1)2(n2+2) n1 = 3n2 n1 = 48 n2 = 10 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Damit σ2^λ1 = σ2^λ2 braucht man (n2+1)2(n2+2) n1 = 3n2 n1 = 48 n2 = 10 n1 = 243 n2 = 25 Quantitativ: 1 λ2 σ2^λ1 = 3n 1 σ2^λ2 = n2 2 ≈ 1 λ2 λ (n2+1)2(n2+2) n22 Damit σ2^λ1 = σ2^λ2 braucht man (n2+1)2(n2+2) n1 = 3n2 n1 = 48 n2 = 10 n1 = 243 n2 = 25 n1 = 3468 n2 = 100 FAZIT bisher FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter. FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter. Es gibt gute und schlechte. FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter. Es gibt gute und schlechte. Wie findet man einen guten? BEISPIEL 2 Der Getreidekapuziner Rhizopertha dominica Wenn zwei Larven dasselbe Korn besetzen kämpfen sie, bis die Unterlegene stirbt oder flieht. kämpfen sie, bis die Unterlegene stirbt oder flieht. Werden besetzten Körner vermieden? Aus einem Posten befallenen Weizens Aus einem Posten befallenen Weizens wurden 150 Körner seziert Aus einem Posten befallenen Weizens wurden 150 Körner seziert und die Anzahl Larven pro Korn wurde festgestellt. Aus einem Posten befallenen Weizens wurden 150 Körner seziert und die Anzahl Larven pro Korn wurde festgestellt. Sind die beobachteten Häufigkeiten mit einer rein zufälligen Besetzung vereinbar? 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 Anzahl Larven pro Korn in 150 Weizenkörnern k=Larven pro Korn Was heißt ” rein zufällig “? Was heißt ” rein zufällig “? MODELL MODELL Sei K die Anzahl Larven in einem Korn. MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven. MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven. K = I1 + I2 + ... + In MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven. K = I1 + I2 + ... + In K ∼ Bin(n, p) Schwierigkeit Schwierigkeit n, p unbekannt Schwierigkeit n, p unbekannt Ausweg Schwierigkeit n, p unbekannt Ausweg n≫1 Schwierigkeit n, p unbekannt Ausweg n≫1 p≪1 Schwierigkeit n, p unbekannt Ausweg n≫1 p≪1 Bin(n, p) ≈ Pois(λ) λ = np 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 Angenommen, diese Daten sind eine Stichprobe aus Pois(λ), k = Larven pro Korn 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 wie schätzt man λ? k = Larven pro Korn EXKURS Die Poissonverteilung EXKURS Die Poissonverteilung (Wiederholung) EXKURS Die Poissonverteilung (Wiederholung) Q EXKURS Die Poissonverteilung (Wiederholung) Q Quiz-relevant Binomialverteilung Binomialverteilung B ∼ Bin(n, p) Binomialverteilung B ∼ Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen Binomialverteilung B ∼ Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p in jedem Versuch Binomialverteilung B ∼ Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p in jedem Versuch P{ B = k } = n k pk(1 − p)n−k P{ B = k } = n k pk(1 EB = np − p)n−k P{ B = k } = n k pk(1 − p)n−k EB = np σ2B = np(1 − p) P{ B = k } = n k pk(1 − p)n−k EB = np σ2B = np(1 − p) n→∞ p→0 np → λ P{ B = k } = n k pk(1 − p)n−k EB = np σ2B = np(1 − p) n→∞ p→0 np → λ k −λ λ P{ B = k } → k! e P{ B = k } = n k pk(1 − p)n−k EB = np σ2B = np(1 − p) n→∞ p→0 np → λ k −λ λ P{ B = k } → k! e EB = np → λ P{ B = k } = n k pk(1 − p)n−k EB = np σ2B = np(1 − p) n→∞ p→0 np → λ k −λ λ P{ B = k } → k! e EB = np → λ σ2B = np(1 − p) → λ Poissonverteilung Poissonverteilung X ∼ Pois(λ) Poissonverteilung X ∼ Pois(λ) X = Anzahl Erfolge in n ≫ 1 unabhängigen Versuchen Poissonverteilung X ∼ Pois(λ) X = Anzahl Erfolge in n ≫ 1 unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p ≪ 1 in jedem Versuch, Poissonverteilung X ∼ Pois(λ) X = Anzahl Erfolge in n ≫ 1 unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p ≪ 1 in jedem Versuch, wobei np = λ k −λ λ P{ X = k } = k! e k −λ λ P{ X = k } = k! e EX = λ k −λ λ P{ X = k } = k! e EX = λ σ2 X = λ np = 2 0.4 Die Binomialverteilung Bin(n, p) 0.2 0.1 0.0 P{B=k} 0.3 n=4 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.2 0.1 0.0 P{B=k} 0.3 n=5 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.2 0.1 0.0 P{B=k} 0.3 n=5 n=6 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.2 0.1 0.0 P{B=k} 0.3 n=5 n=6 n=7 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.2 0.1 0.0 P{B=k} 0.3 n=5 n=6 n=7 n=8 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.2 0.1 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n = 25 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n n= = 25 36 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n n= = 25 36 49 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n = 25 n 49 n= = 36 64 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n = 25 n 49 64 n= = 36 81 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =100 81 nn 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =121 81 100 nn 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =121 81 100 nn 144 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =121 81 100 nn 144 169 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.4 Die Binomialverteilung Bin(n, p) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =121 81 100 nn 144 169 196 0.0 P{B=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 0.4 Die Poissonverteilung Pois(2) n=4 0.1 0.2 n = 16 n= 25 36 49 64 n== =121 81 100 nn 144 169 196 0.0 P{X=k} 0.3 n=5 n=6 n=7 n n= =8 9 0 2 4 6 k 8 10 np = 2 0.2 0.1 0.0 P{B=k} 0.3 0.4 Die Binomialverteilung Bin(n, p) 0 2 4 6 k 8 10 AUFGABE AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365? AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365? (ii) Nach der Poissonannäherung dazu? AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365? (ii) Nach der Poissonannäherung dazu? (i) P{B=k}= n k pk(1 − p)n−k (i) P{B=k}= P{B=1}= n k pk(1 100 1 − p)n−k 1 365 364 365 99 (i) P{B=k}= P{B=1}= n k pk(1 100 1 − p)n−k 1 365 P { B = 1 } ≈ 0.2088 364 365 99 (ii) k −λ λ P { X = k } = k! e (ii) k −λ λ P { X = k } = k! e λ = np = 100/365 = 0.274 (ii) k −λ λ P { X = k } = k! e λ = np = 100/365 = 0.274 P { X = 1 } = λe−λ (ii) k −λ λ P { X = k } = k! e λ = np = 100/365 = 0.274 P { X = 1 } = λe−λ P { X = 1 } ≈ 0.2083 AUFGABE AUFGABE Bei Café Bauer hat nur 1 Rosinenbrötchen aus 1000 keine Rosine. AUFGABE Bei Café Bauer hat nur 1 Rosinenbrötchen aus 1000 keine Rosine. Wie viele Rosinen hat ein durchschnittliches Brötchen? R := Anzahl in einem Brötchen R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e−λ = 0.001 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e−λ = 0.001 λ = − ln(0.001) R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e−λ = 0.001 λ = − ln(0.001) λ ≈ 6.9 Ende des Exkurses Ende des Exkurses Zurück zum Schätzen K ∼ Pois(λ) K ∼ Pois(λ) Wie schätzt man λ? K ∼ Pois(λ) Wie schätzt man λ? Es gibt viele Möglichkeiten. EK = λ EK = λ P 1 ^λ1 := K̄ = Ki n EK = λ P 1 ^λ1 := K̄ = Ki n σ2 K = λ EK = λ P 1 ^λ1 := K̄ = Ki n σ2 K = λ P 1 2 ^λ2 := σ ^ K = n−1 (Ki − K̄)2 EK = λ P 1 ^λ1 := K̄ = Ki n σ2 K = λ P 1 2 ^λ2 := σ ^ K = n−1 (Ki − K̄)2 P{K = 0} = e−λ EK = λ P 1 ^λ1 := K̄ = Ki n σ2 K = λ P 1 2 ^λ2 := σ ^ K = n−1 (Ki − K̄)2 P{K = 0} = e−λ ^λ3 := − ln(P{K ^ = 0}) = − ln( 1 #{Xi | Xi = 0}) n EK = λ P 1 ^λ1 := K̄ = Ki n σ2 K = λ P 1 2 ^λ2 := σ ^ K = n−1 (Ki − K̄)2 P{K = 0} = e−λ ^λ3 := − ln(P{K ^ = 0}) = − ln( 1 #{Xi | Xi = 0}) n Was wählen? U MWANDLUNG DER F RAGE U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen ~k := (k , ..., kn)T 1 U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen ~k := (k , ..., kn)T 1 ~ und sei fK ~ (k; λ) seine Wahrscheinlichkeit. U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen ~k := (k , ..., kn)T 1 ~ und sei fK ~ (k; λ) seine Wahrscheinlichkeit. Die Likelihood L(λ) U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen ~k := (k , ..., kn)T 1 ~ und sei fK ~ (k; λ) seine Wahrscheinlichkeit. Die Likelihood L(λ) L(λ) := f (~k; λ) ~ K U MWANDLUNG DER F RAGE Welche Werte von λ passen zu den Daten? Sei ~k der Vektor der Beobachtungen ~k := (k , ..., kn)T 1 ~ und sei fK ~ (k; λ) seine Wahrscheinlichkeit. Die Likelihood L(λ) L(λ) := f (~k; λ) ~ K (~k fest) 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 Beobachtete Häufigkeiten k = Larven pro Korn 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 L(λ) = ? k = Larven pro Korn 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789L(λ)123456789123456789 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 −300 −400 −500 −600 ln(L(λ)) −200 123456789123456789ln(L(λ))123456789123456789 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 −160 −170 −180 ln(L(λ)) −150 −140 123456789123456789ln(L(λ))123456789123456789 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Einige Werte von λ passen viel besser als andere.12345678912345 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Welches λ sollten wir wählen?123456789123456789 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Warum nicht das beste“?123456789123456789 ” 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Warum nicht das beste“?123456789123456789 ” 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Der Maximum-Likelihood-Schätzer123456789123456789 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 L(^λ) = max !123456789123456789 0.0 0.6 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789^λ : 0.2 0.4 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 123456789123456789Die Maximum-Likelihood Methode: Nimm das λ,123456789123456 ” 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 1.0e−61 5.0e−62 0.0e+00 L(λ) 1.5e−61 2.0e−61 89123456789bei dem das Beobachtete die größtmögliche Wahrscheinlichkeit hat.“1234567 0.0 0.2 0.4 0.6 0.8 λ 1.0 1.2 Formel für ^λ Formel für ^λ (nicht unbedingt notwendig) Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 k1+...+kn λ L(λ) = k !...kn! e−nλ 1 Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 k1+...+kn λ L(λ) = k !...kn! e−nλ 1 ln L(λ) = (k1 + ... + kn) ln λ − nλ + Konst Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 k1+...+kn λ L(λ) = k !...kn! e−nλ 1 ln L(λ) = (k1 + ... + kn) ln λ − nλ + Konst d ln L(λ) = k1+...+kn − n dλ λ Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 k1+...+kn λ L(λ) = k !...kn! e−nλ 1 ln L(λ) = (k1 + ... + kn) ln λ − nλ + Konst d ln L(λ) = k1+...+kn − n dλ λ n −n 0 = k1+...+k λ Formel für ^λ (nicht unbedingt notwendig) L(λ) = fK(k1; λ)...fK(kn; λ) k1 kn −λ λ λ −λ L(λ) = ( k ! e )...( kn ! e ) 1 k1+...+kn λ L(λ) = k !...kn! e−nλ 1 ln L(λ) = (k1 + ... + kn) ln λ − nλ + Konst d ln L(λ) = k1+...+kn − n dλ λ n −n 0 = k1+...+k λ ^λ = k̄ 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789Beobachtete Häufigkeiten123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789Angepasste Poissonverteilung123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789nfK(k; ^λ)123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789nfK(k; ^λ)123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789Sehr gute Anpassung.123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789(von formalen statistischen Tests bestätigt)12345678912345678 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 123456789123456789Fazit123456789123456789 k 40 20 77 52 17 4 0 0 1 2 3 4 0 Anzahl Körner 60 80 3456789123456789Offenbar wissen Larven nicht, wenn ein Korn besetzt ist.123456789123 k Panzer-Beispiel Panzer-Beispiel Uniformverteilung auf (0, λ) Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) fX(x; λ) = 0 x∈ / (0, λ) Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) fX(x; λ) = 0 x∈ / (0, λ) ~x := (x1, ...xn)T Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) fX(x; λ) = 0 x∈ / (0, λ) ~x := (x1, ...xn)T fX~ (~x; λ) = λ1n M := max{xi} ∈ (0, λ) Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) fX(x; λ) = 0 x∈ / (0, λ) ~x := (x1, ...xn)T fX~ (~x; λ) = λ1n fX~ (~x; λ) = 0 M := max{xi} ∈ (0, λ) M :=∈ / (0, λ) Panzer-Beispiel Uniformverteilung auf (0, λ) fX(x; λ) = λ1 x ∈ (0, λ) fX(x; λ) = 0 x∈ / (0, λ) ~x := (x1, ...xn)T fX~ (~x; λ) = λ1n fX~ (~x; λ) = 0 M := max{xi} ∈ (0, λ) M :=∈ / (0, λ) fX(x) 0 500 1000 1500 x λ 2000 2500 3000 x1, ..., x10 0 500 1000 1500 x λ 2000 2500 3000 x1, ..., x10 0 500 1000 1500 x λ 2000 2500 3000 L(λ) 0 500 1000 1500 λ 2000 2500 3000 ^λ : 0 500 1000 L(λ) = max ! 1500 λ 2000 2500 3000 ^λ = M 0 500 1000 1500 λ 2000 2500 3000 L(λ) 0 500 1000 (n = 10) 1500 λ 2000 2500 3000 x1, ..., x25 0 500 1000 1500 x λ 2000 2500 3000 x1, ..., x25 0 500 1000 1500 x λ 2000 2500 3000 L(λ) 0 500 1000 (n = 25) 1500 λ 2000 2500 3000 LETZTES BEISPIEL LETZTES BEISPIEL Warten auf den ersten Erfolg LETZTES BEISPIEL Warten auf den ersten Erfolg X1, X2, X3, ... unabhängig LETZTES BEISPIEL Warten auf den ersten Erfolg X1, X2, X3, ... unabhängig mit P { Xi = 1 } = p P { Xi = 0 } = 1 − p LETZTES BEISPIEL Warten auf den ersten Erfolg X1, X2, X3, ... unabhängig mit P { Xi = 1 } = p P { Xi = 0 } = 1 − p T := inf { i | Xi = 1 } Zeitpunkt des ersten Erfolgs Man wartet n-mal auf Erfolg Man wartet n-mal auf Erfolg mit Wartezeiten t1, t2, ..., tn. Man wartet n-mal auf Erfolg mit Wartezeiten t1, t2, ..., tn. Wie schätzt man p aus den Wartezeiten? Q Q Quiz-relevant WIEDERHOLUNG ET = p1 WIEDERHOLUNG ET = p1 T −1 Misserfolge vor dem ersten Erfolg WIEDERHOLUNG ET = p1 T −1 Misserfolge vor dem ersten Erfolg E(T − 1) = p1 − 1 = 1−p p AUFGABE AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft? AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft? p= 1 2 10 1 = 100 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft? p= 1 2 10 1 = 100 E(T − 1) = p1 − 1 = 100 − 1 = 99 Der Maximum-Likelihood-Schätzer p ^ Der Maximum-Likelihood-Schätzer p ^ L(p) Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] L(p) = (1 − p)( P ti−n) pn Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p d ln L(p) dp =0 Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p d ln L(p) = dp P ( ti−n) − (1−p) + n p 0 =0 Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p d ln L(p) = dp P ( ti−n) − (1−p) + n p p( P 0 =0 ti − n) = n(1 − p) Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p d ln L(p) = dp P ( ti−n) − (1−p) + n p p( P 0 =0 ti − n) = n(1 − p) P p( ti) = n Der Maximum-Likelihood-Schätzer p ^ L(p) L(p) = [(1 − p)t1−1 p]...[(1 − p)tn−1 p] (1 − p)( P ti−n) pn L(p) = P ln L(p) = ( ti − n) ln(1 − p) + n ln p d ln L(p) = dp P ( ti−n) − (1−p) + n p p( P 0 =0 ti − n) = n(1 − p) P p( ti) = n P p ^ = n/ ti ENDE