Obecnie analizuję dane z serii eksperymentów behawioralnych, które wykorzystują następującą miarę. Uczestnicy tego eksperymentu proszeni są o wybranie wskazówek, które (fikcyjne) inne osoby mogłyby wykorzystać do rozwiązania serii 10 anagramów. Uczestnicy są przekonani, że ci inni ludzie albo zyskają, albo stracą pieniądze, w zależności od ich wyników w rozwiązywaniu anagramów. Wskazówki różnią się pod względem stopnia ich przydatności. Na przykład dla anagramu NUNGRIN, anagramu BIEGANIA, trzy wskazówki mogą być następujące:
- Poruszanie się szybko (nieprzydatne)
- Co robisz w maratonie (pomocne)
- Nie zawsze zdrowe hobby (nieprzydatne)
Aby utworzyć miarę, liczę, ile razy (z 10) uczestnik wybiera nieprzydatną wskazówkę dla drugiej osoby. W eksperymentach używam różnych manipulacji, aby wpłynąć na przydatność wskazówek, które wybierają ludzie.
Ponieważ miara przydatności / nieprzydatności jest dość silnie pozytywnie wypaczona (duża część ludzi zawsze wybiera 10 najbardziej pomocnych wskazówek), a ponieważ miarą jest zmienna zliczająca, do analizy tych danych używałem Uogólnionego Modelu Liniowego Poissona. Jednak, gdy trochę poczytałem o regresji Poissona, odkryłem, że ponieważ regresja Poissona nie szacuje niezależnie średniej i wariancji rozkładu, często nie docenia wariancji w zbiorze danych. Zacząłem badać alternatywy dla regresji Poissona, takie jak regresja quasipoissona lub regresja dwumianowa ujemna. Przyznaję jednak, że jestem raczej nowy w tego typu modelach, więc przychodzę tutaj po porady.
Czy ktoś ma jakieś zalecenia dotyczące tego, jakiego modelu użyć do tego rodzaju danych? Czy są jeszcze jakieś względy, o których powinienem wiedzieć (na przykład, czy jeden konkretny model ma większą moc niż inny?)? Jakiego rodzaju diagnostykę należy sprawdzić, aby ustalić, czy wybrany model odpowiednio obsługuje moje dane?