Widziałem kilka rozmów niestatystów, w których wydaje się, że na nowo opracowują miary korelacji przy użyciu wzajemnej informacji zamiast regresji (lub równoważnych / ściśle powiązanych testów statystycznych).
Rozumiem, że istnieje dobry powód, dla którego statystycy nie przyjmują takiego podejścia. Rozumiem przez laika, że estymatory entropii / wzajemnej informacji bywają problematyczne i niestabilne. Zakładam, że moc jest również problematyczna: próbują obejść ten problem, twierdząc, że nie używają ram testowania parametrycznego. Zazwyczaj tego rodzaju praca nie przeszkadza w obliczeniach mocy, a nawet w ufności / wiarygodnych odstępach czasu.
Ale czy zająć pozycję adwokata diabła, czy powolna konwergencja jest tak ważna, gdy zbiory danych są wyjątkowo duże? Czasami te metody wydają się „działać” w tym sensie, że powiązania są potwierdzane przez badania uzupełniające. Jaka jest najlepsza krytyka przeciwko wykorzystywaniu wzajemnych informacji jako miary powiązania i dlaczego nie jest szeroko stosowana w praktyce statystycznej?
edytuj: Czy są też jakieś dobre artykuły na te tematy?