Odchylenie jest koncepcją GLM, modele ZIP i ZINB nie są glms, ale są sformułowane jako skończone mieszanki rozkładów, które są GLM i dlatego można je łatwo rozwiązać za pomocą algorytmu EM.
Te notatki zwięźle opisują teorię dewiacji. Po przeczytaniu tych notatek zobaczysz dowód na to, że model nasycony dla regresji Poissona ma logarytmiczne prawdopodobieństwo
ℓ ( λs) = ∑i = 1 , ∀ yja≠ 0n[ yjal o g( yja) - yja- l o g( yja! ) ]
co wynika z wtyczką szacunków .yja= λ^ja
Przejdę teraz do prawdopodobieństwa ZIP, ponieważ matematyka jest prostsza, podobne wyniki dotyczą ZINB. Niestety w przypadku ZIP nie ma prostej relacji jak w Poissonie. Prawdopodobieństwo logarytmu obserwacji jestja
ℓja( ϕ , λ ) = Zjal o g( ϕ + ( 1 - ϕ ) e- λ) + ( 1 - Zja) [ - λ + yjal o g( λ ) - l o g( yja! ) ] .
nie są przestrzegane, tak aby rozwiązać ten problem, że trzeba wziąć pochodne cząstkowe WRT zarówno Î i cp ustaw równań na 0, a następnie rozwiązać za Î i cp . Trudności są tu y i = 0 wartości, mogą one wejść do Î lub do cp i nie jest możliwe bez zachowania Z i które umieścić y i = 0 uwag do. Gdybyśmy jednak znali Z iZjaλϕλϕyja= 0λ^ϕ^Zjayja= 0Zjawartość nie potrzebowalibyśmy modelu ZIP, ponieważ nie mielibyśmy brakujących danych. Zaobserwowane dane odpowiadają prawdopodobieństwu „kompletnych danych” w formalizmie EM.
Jednym z rozwiązań, które mogą być uzasadnione jest do pracy z oczekiwaniem wrt kompletnych danych dziennika prawdopodobieństwa, E ( ℓ I ( φ , λ ) ) , która usuwa Z I i zastępuje z oczekiwaniem, jest częścią tego, co Algorytm EM oblicza (krok E) z najnowszymi aktualizacjami. Mi znany żaden literatury badał to podejście do e x P e c t e d odchyleniem chociaż.ZiE(ℓi(ϕ,λ))Ziexpected
Również to pytanie zostało zadane jako pierwsze, więc odpowiedziałem na ten post. Istnieje jednak inne pytanie na ten sam temat z ładnym komentarzem Gordona Smytta:
dewiacja dla złożonego modelu Poissona o zerowym napełnieniu, ciągłe dane (R), w
których wspomniał o tej samej odpowiedzi (jest to opracowanie tego komentarza powiedzmy) oraz wspomnieli w komentarzach do drugiego postu artykuł, który możesz chcieć przeczytać. (zrzeczenie się, nie przeczytałem referatu, do którego się odwołuje)