Interwał prognoz dla przyszłej proporcji sukcesów w ustawieniach dwumianowych


9

Załóżmy, że dopasowuję regresję dwumianową i uzyskuję oszacowania punktowe i macierz wariancji-kowariancji współczynników regresji. To pozwoli mi uzyskać CI dla oczekiwanego odsetka sukcesów w przyszłym eksperymencie,p, ale potrzebuję CI dla obserwowanej proporcji. Opublikowano kilka powiązanych odpowiedzi, w tym symulację (załóżmy, że nie chcę tego robić) oraz link do Krishnamoorthya i in. (Który nie do końca odpowiada na moje pytanie).

Moje rozumowanie jest następujące: jeśli używamy tylko modelu dwumianowego, jesteśmy zmuszeni to założyć pjest próbkowany z rozkładu normalnego (z odpowiednim Wald CI) i dlatego niemożliwe jest uzyskanie CI dla obserwowanej proporcji w postaci zamkniętej. Jeśli to założymypjest próbkowany z rozkładu beta, wtedy rzeczy są znacznie łatwiejsze, ponieważ liczba sukcesów będzie podążać za rozkładem dwumianowym. Będziemy musieli założyć, że nie ma niepewności w szacowanych parametrach beta,α i β.

Istnieją trzy pytania:

1) Teoretyczny: czy można stosować tylko oszacowania punktowe parametrów beta? Wiem, że aby zbudować CI do przyszłej obserwacji w wielokrotnej regresji liniowej

Y=xβ+ϵ,ϵN(0,σ2)

robią tę niepoprawność wariancji terminu, σ2. Rozumiem (popraw mnie, jeśli się mylę), że w praktyce jest to uzasadnienieσ2 jest szacowany z dużo większą precyzją niż współczynniki regresji i nie zyskamy wiele, próbując uwzględnić niepewność σ2. Czy podobne uzasadnienie ma zastosowanie do szacowanych parametrów beta,α i β?

2) Jaki pakiet jest lepszy (R: gamlss-bb, betareg, aod ?; Mam również dostęp do SAS).

3) Biorąc pod uwagę oszacowane parametry beta, czy istnieje (przybliżony) skrót, aby uzyskać kwantyle (2,5%, 97,5%) w celu zliczenia przyszłych sukcesów lub, jeszcze lepiej, w odniesieniu do odsetka przyszłych sukcesów w rozkładzie dwumianowym.


Na pytanie pierwsze, tak, jest to ważna rzecz, którą ludzie robią, nazywa się to Empirical Bayes: en.wikipedia.org/wiki/Empirical_Bayes_method
Paul

1
Nie sądzę, że użycie metody XYZ do oszacowania parametru modelu może automatycznie sugerować, że można zignorować niepewność oszacowania podczas tworzenia CI dla przyszłych obserwacji. Np. W wielokrotnej regresji liniowej używają OLS zamiast EB, a niepewność wσjest również ignorowane. Dlaczego? Ponadto, ten artykuł Wiki nigdy nie sugeruje, że w EB precyzja szacowania hiperparametrów najwyższego poziomu jest zwykle o wiele wyższa, że ​​można uznać je za ustalone ze względów praktycznych.
James

1
„Kiedy prawdziwa dystrybucja p(ηy) jest ostro zakończony, co stanowi całkę p(θy) może być niewiele zmieniony poprzez zastąpienie rozkładu prawdopodobieństwa η z oszacowaniem punktowym ηreprezentujący szczyt rozkładu ”. To, czy tak jest w twoim przypadku, zależy od specyfiki Twojej problematycznej domeny.
Paul

2
Dobre pytanie! Nie można uzyskać osi przestawnej, ale co z wykorzystaniem prawdopodobieństwa profilu? Zobacz Jakie nie-bayesowskie metody wnioskowania predykcyjnego? .
Scortchi - Przywróć Monikę

Odpowiedzi:


1

Odpowiem na wszystkie 3 części.

Istnieją dwa skonfliktowane problemy, po pierwsze metoda stosowana w tym przypadku w celu dopasowania modelu regresji. Po drugie, jak podzielić szacunki na podstawie szacunków, aby przewidzieć nowe oszacowanie.

jeśli twoje zmienne odpowiedzi są rozkładane dwumianowo, zwykle używałbyś regresji logistycznej lub regresji probit (glm z normalnym cdf jako funkcją link).

W przypadku regresji logistycznej odpowiedzią będzie stosunek obserwowanych zliczeń podzielony przez znaną górną granicę, tj. yi/ni. Następnie weź swoje predyktory / zmienne towarzyszące i umieść je w wywołaniu R funkcji glm. Zwrócony obiekt zawiera wszystko, czego potrzebujesz do wykonania pozostałych obliczeń.

x<- rnorm(100, sd=2)
prob_true <- 1/(1+exp(-(1+5*x)))
counts <- rbinom(100, 50,prob_true)
print(d.AD <- data.frame(counts,x))
glm.D93 <- glm(counts/50 ~ x, family = binomial() )

W przypadku modelu regresji liniowej wzór na przedział predykcji jest następujący:

y^i±tnpsy1+1n+(xix¯)2(n1)sx2

Możesz użyć modelu regresji liniowej jako przybliżenia glm. Aby to zrobić, należy wykonać formułę regresji liniowej dla liniowej kombinacji predyktorów przed wykonaniem odwrotnej transformacji łącza w celu przywrócenia prawdopodobieństwa z powrotem w skali 0-1. Kod służący do tego jest zapisywany w funkcji przewidywanej R.glm () R. Oto przykładowy kod, który również stworzy niezłą fabułę. ( EDYCJA : Ten kod dotyczy przedziału ufności, a nie przedziału prognozowania)

y_hat <- predict(glm.D93, type="link", se.fit=TRUE)
t_np<- qt(.975, 100-2, ncp=0)

ub <- y_hat$fit + t_np * y_hat$se.fit
lb <- y_hat$fit - t_np * y_hat$se.fit

point <- y_hat$fit

p_hat <- glm.D93$family$linkinv(point)
p_hat_lb <- glm.D93$family$linkinv(lb)
p_hat_ub <- glm.D93$family$linkinv(ub)

plot(x,p_hat)
points(x, p_hat_ub, col='red')
points(x, p_hat_lb, col='blue')

Możesz zrobić to samo dla dowolnego glm, np. Poissona, odwrotnego gaussa, gamma itp. W każdym przypadku wykonaj przedział predykcji na skali liniowej kombinacji predyktorów. Po uzyskaniu dwóch punktów końcowych przedziału prognozy przekształcasz te punkty końcowe za pomocą łącza odwrotnego. Dla każdego z wymienionych przeze mnie glms link odwrotny może być inny niż logit, który tu napisałem. Mam nadzieję że to pomoże.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.