Generalisierte Lineare Regressionsmodelle Daten ( yi , xi ), i = 1, 2, … , n yi xi ' i Annahmen: (1) E( i ) = 0 (2) Var( i ) = 2 (3) Cov( yi , y j ) = 0 (4) i N (0, 2 ) Eine geeignete Formulierung für Generalisierung: yi | xi ~ N ( i , 2 ) i xiT 1. Einige bekannte Regressionsmodelle 1.1Binäre Regressionsmodelle: yi {0,1}, und sind bei gegebenen Kovariablen xi1 ,..., xik bedingt unabhängig. i P( yi 1| xi ) , 1 i P( yi 0 | xi ) T E ( yi ) i ( xi ), Var ( yi ) i (1 i ) Probleme: 1.) es berücksichtigt nicht , dass i [0,1] ; 2.) Var ( yi) i (1 i ) , is abhängig von i, keine Varianzhomogenität. Lösung: i P( yi 1| xi ) 1 i 0 1 xi1 ...k xik xi ' <= der lineare Prädiktor i h(i ) <= Responsefunktion, h( ) [0,1] i g ( i ) 1 <= Linkfunktion, g h 1.1.1) Logit-Modell: h( ) exp( ) 1 exp( ) P( yi 1| xi ) exp( 0 ) exp( 1 xi1 ) ... exp( k xik ) P( yi 0 | xi ) i P ( yi 1| xi ) <= die Chance (odds) 1 i P ( yi 0 | xi ) 1.1.2) Probit-Modell: h( ) ( ) F ( xi ' ) <= Verteilungsfunktion von N(0,1) g ( ) 1 ( ) 1.1.3) Log-log-Modell: h( ) 1 exp( exp( )) g ( ) log( log(1 )) 1.1.4) Gruppierte Daten: ( yi , xi ) ( yij , xij ) , i = 1,...,G; j = 1,...ni ; ni n z.B. yi B(1, ) , yij B (1, i ) 1 ni Betrachte: yi yij n j 1 => ni yi B(ni , i ) E(ni yi ) ni i 2 Var (ni yi ) ni i (1 i ) Es gilt dann: E( yi ) i i (1 i ) Var ( yi ) ni Problem: Überdispersion, die empirische Varianz oft größer als die geschätzte Varianz i (1 i ) ni ist. (Lösung in 3.Quasi-likelihood-Modelle) 1.2 Regression für Zähldaten: i E ( yi | xi ,)<= die Rate von Zähldaten 1.2.1 Log-lineares Poisson-Modell: i xi ' 0 1 xi1 ... k xik , i exp(i ) exp(0 1 xi1 ... k xik ) => log(i ) i xi ' 0 1 xi1 ... k xik 1.2.2 lineares Poisson-Modell: i i xi ' 2.Generalisierte Lineare RegressionsModelle: 2.1 Allgemeine Modelldefinition: Grundkonzept: yi | xi , i = 1, 2, …, n, unabhängig (1) Zufallskomponente: yi | xi folgt einfacher Exponentialfamilie 3 f ( y | ) exp( y b( ) w c( y, , w)) <= Dichtefunktion : natürlicher/kanonischer Parameter b( ) : zweimal stetig differenzierbare Funktion : Dispersionsparameter,unabhängig von i w : Gewicht c(.) : eine Funktion,unabhängig von Es gilt: E ( y ) b '( ) & Var ( y ) b ''( ) / w Beispiele: 1.) Bernoulliverteilung: y∈﹛0,1﹜ E (Y ) P(Y 1) ; Var (Y ) (1 ) f ( y | ) P(Y y ) y (1 )1 y b '( ) b ''( ) exp( ) E ( y) 1 exp( ) exp( ) (1 ) Var ( y ) (1 exp( )) 2 2.) Poissonverteilung: y = 0, 1, 2, … f ( y | ) P(Y y) y exp( ) y! b '( ) b ''( ) Also: E ( y ) Var ( y ) 3.) Normalverteilung: y R 4 f ( y | ) (2 ) ( y )2 exp( ) 2 2 2 1 / 2 b' ( ) E (y ) b ''( ) 1 => Var ( y ) b ''( ) 2 (2) Systematische Komponente: i h( yi ) h( xiT ) T g: g ( i ) xi 2.2 Likelihood-Inferenz Beobachtung ( yi , xi ) E ( yi | xi ) i , Var ( yi | xi ) i2 i h(i ) h( xi ' ) , i g ( i ) li ( ) log( f ( yi | )) yii b(i ) wi => l ( ) li ( ) Die Score-Funktion : s( ) l ( ) ( i ) h(i ) i l ( ) i i s ( ) xi dh(i ) yi i di i2 ; Der ML-Schätzer : s( ) 0 s( ) xi dh(i ) yi i 0 di i2 Die Fisher-Matrix: 5 2l ( ) 2l ( ) Fobs ( ) ( )ij ' i j F ( ) E ( Fobs ( )) cov( s( )) , wenn E ( s ( )) 0 . In Matrix-Darstellung: s( ) X ' D 1 ( y ) F ( ) X 'WX y ( y1 ,..., yn ) ' wobei ( 1 ,..., n ) ' X ( x1' ,..., xn' ) ' , rg(X) = p D diag ( dh(i ) ) di diag ( i2 ) , W diag (( dh(i ) 2 ) / i2 ) d 2.3 Asymptotische Eigenschaften des ML-Schätzers n : der ML-Schätzer zum Stichprobenumfang n => F 1/ 2 d ( )( n ) N (0, I ) n N ( , F 1 ( )) a bzw. : 2.4 Schätzung vom Dispersionsparameter (bei gruppierten Daten) G ( yi i ) 2 1 G p i 1 v ( i ) / ni , p = Anzahl der Regressionsparameter 6 i : geschätzte Erwartungswert v( i ) : geschätzte Varianzfunktion 3. Quasi Likelihood Modelle Problem: die empirische Varianz der Daten ≠ die geschätzten Varianz Lösung: Quasi-likelihood-Modelle Annahmen: i h( xi ' ) i2 Var ( yi ) V ( i ) die generalisierte Schätzfunktion: s ( ) xi dh(i ) yi i di i2 Es gilt: E ( s ( )) xi dh(i ) E ( yi | xi ) i 0 di i2 2 ( ) Var ( y ) V ( ) <= Quasi-Varianzfunktion/Arbeitsvarianz 2 z.B. in Binomial-Modellen: i ( i ) i (1 i ) ni 2 in Poisson-Modellen: i (i ) i 2 falls: ( ) v( ; ) Ein wichtiger Fall : v( ; ) Q <= Quasi-ML-Schaetzer, ( Lösung von generalisierten Schätzgleichung (GEE)) 7 sQ ( ) 0 n FQ ( ) xi xi ' wi <= quasi-Fisher-Information i 1 wi ( dh(i ) 2 2 ) /i d i2 : die Arbeitsvarianzen oi2 V ( ) xi xi ' wi 2 i i 1 n oi2 : die wahre Varianzen wenn i = oi => F ( ) V ( ) 2 2 4. Bayesianische generalisierter lineare Modelle ggb.: y ( y1 ,..., yn ) ' , ist bedingt unabhängig mit Kovariablen x ( x1 ,..., xn ) . p( | y ) L( | y ) p ( ) L( | y ) p ( ) d L( | y ) p ( ) n L( | y ) f i ( yi | ) i 1 E ( | y ) p ( )d <= Der Posteriori-Erwartungswert Cov( | y ) ( E ( | y ))( E ( | y )) ' p( | y ) d <= die Posteriori-Kovarianzmatrix Problem: die Integrationen, die schwer zu berechnen sind. 4.1 Posteriori-Modus-Schätzer 8 p <= Posteriori-Modus-Schätzer l p ( | y ) l ( ) log p( ) <= Log-Posteriori-likelihood l ( ) : die betrachtete log-likelihood Fall 1: 1 2 N (m, M ) => l p ( | y ) l ( ) ( m) ' M 1 ( m) M 1 0 von p( ) const => p Fall 2: m = 0 und M r 2 I , 1 => 2r 2 ( ' ) ( 02 12 ... k2 ) p N ( , Fp 1 ( p )) , n 4.2 Volle Bayes-Inferenz Fall 1: N (m, M ) und M 1 0 von p( ) => p ( | y ) exp(l ( ) const 1 ( m) ' M 1 ( m)) 2 * (t ) -> MCMC-Techniken; q( | ) : Vorschlagsdichte -> MH-Algorithmus mit IWLS-Vorschlagsdichte Fall 2: für m = 0 und M r 2 I von p( ) * const N ( (t ) , ( X 'W (t ) X ) 1 ) F ( t ) X 'W ( t ) X L( * ) q ( ( t ) | * ) ( | ) min{ } : Akzeptanzwahrscheinlichkeit L( ( t ) ) q ( * | ( t ) ) * (t ) 9