Dlaczego statystycy nie wykorzystują wzajemnych informacji jako miary powiązania?


10

Widziałem kilka rozmów niestatystów, w których wydaje się, że na nowo opracowują miary korelacji przy użyciu wzajemnej informacji zamiast regresji (lub równoważnych / ściśle powiązanych testów statystycznych).

Rozumiem, że istnieje dobry powód, dla którego statystycy nie przyjmują takiego podejścia. Rozumiem przez laika, że ​​estymatory entropii / wzajemnej informacji bywają problematyczne i niestabilne. Zakładam, że moc jest również problematyczna: próbują obejść ten problem, twierdząc, że nie używają ram testowania parametrycznego. Zazwyczaj tego rodzaju praca nie przeszkadza w obliczeniach mocy, a nawet w ufności / wiarygodnych odstępach czasu.

Ale czy zająć pozycję adwokata diabła, czy powolna konwergencja jest tak ważna, gdy zbiory danych są wyjątkowo duże? Czasami te metody wydają się „działać” w tym sensie, że powiązania są potwierdzane przez badania uzupełniające. Jaka jest najlepsza krytyka przeciwko wykorzystywaniu wzajemnych informacji jako miary powiązania i dlaczego nie jest szeroko stosowana w praktyce statystycznej?

edytuj: Czy są też jakieś dobre artykuły na te tematy?


3
MI jest miarą powiązania między dwiema zmiennymi dyskretnymi. To nie jest tak powszechne ustawienie w ogólnych statystykach (może być w niektórych wyspecjalizowanych subpólach). Ale w tym ustawieniu widzę, że jest używany dość często. Z pewnością, kiedy spotykam osoby stosowane za pomocą korelacji Pearsona na dwuwymiarowych dyskretnych zestawach danych, zwracam im uwagę na MI.
użytkownik603,

1
Zobacz także stats.stackexchange.com/questions/1052/... Jednak dyskusja tutaj jest już, moim zdaniem, dobra lub lepsza, więc zwykłe pytanie dotyczące duplikatów jest dyskusyjne.
Nick Cox,

Również odniesienia można znaleźć na stronie stats.stackexchange.com/q/20011/1036
Andy W

2
Kolejnym ogólnym odniesieniem są Matthew Reimherr i Dan L. Nicolae. 2013. O kwantyfikowaniu zależności: ramy opracowania miar interpretacyjnych. Nauki statystyczne 28: 116-130.
Nick Cox

Odpowiedzi:


4

Uważam, że należy rozróżnić dane kategoryczne (dyskretne) od danych ciągłych.

W przypadku danych ciągłych korelacja Pearsona mierzy relację liniową (monotoniczną), korelacja rang jest relacją monotoniczną.

MI natomiast „wykrywa” każdy związek. Zwykle nie jest to tym, czym jesteś zainteresowany i / lub może to być hałas. W szczególności musisz oszacować gęstość rozkładu. Ale ponieważ jest ciągły, najpierw należy utworzyć histogram [dyskretne przedziały], a następnie obliczyć MI. Ale ponieważ MI pozwala na dowolną relację, MI zmieni się, gdy użyjesz mniejszych pojemników (tj. Abyś pozwolił na więcej ruchów). Możesz więc zobaczyć, że oszacowanie MI będzie bardzo niestabilne, nie pozwalając na umieszczanie żadnych przedziałów ufności na oszacowaniu itp. [To samo dotyczy ciągłego szacowania gęstości.] Zasadniczo jest zbyt wiele rzeczy do oszacowania przed faktycznym obliczeniem MI.

Z drugiej strony dane kategoryczne dość dobrze mieszczą się w strukturze MI (patrz test G) i nie ma wiele do wyboru między testem G a kwadratem chi.


Mam na myśli głównie przypadki dyskretnego skojarzenia (regresję miałem na myśli GLM, nie tylko OLS). W rzeczywistości wielu naukowców badających złożone zjawiska (np. Genetykę) może powiedzieć, że są bardziej zainteresowani tym, co opisujesz (wykrycie dowolnego związku). Skłonność do ucieczki od oczywistej powszechnej krytyki „a jeśli funkcjonalna forma korelacji jest nieprawidłowa? Oczywiście chcę wykryć jakiś związek!” jest silny. Wydaje mi się jednak, że w grę wchodzi błąd polegający na braku obiadu, ale byłoby to przeoczone, że staram się lepiej wyrazić / zrozumieć.
user4733,

1
... Nie byłem jednak świadomy związku między testami LR i MI, to bardzo interesujące!
user4733,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.