Dlaczego miałoby się stosować „losowe” zaufanie lub wiarygodne przedziały?


16

Czytałem ostatnio artykuł, który zawierał przypadkowość w jego pewności i wiarygodnych odstępach czasu i zastanawiałem się, czy jest to standard (a jeśli tak, to dlaczego warto to robić). Aby ustawić notację, załóżmy, że nasze dane to i jesteśmy zainteresowani tworzeniem przedziałów dla parametru . Jestem przyzwyczajony do budowania przedziałów ufności / wiarygodności poprzez budowanie funkcji:θ ΘxXθΘ

fx:Θ{0,1}

i niech nasz interwał będzie .I={θΘ:fx(θ)=1}

Jest to losowe w tym sensie, że zależy od danych, ale uwarunkowane danymi, to tylko interwał. Ten papier natomiast określa

gx:Θ[0,1]

a także zbiór iid jednolitych zmiennych losowych na . Określa skojarzony przedział jako . Zauważ, że zależy to w dużej mierze od losowości pomocniczej, ponad wszystko, co pochodzi z danych. [ 0 , 1 ] I = { θ Θ{Uθ}θΘ[0,1]I={θΘ:fx(θ)Uθ}

Jestem bardzo ciekawy, dlaczego tak się dzieje. Myślę, że „rozluźnienie” pojęcia przedziału od funkcji takich jak do funkcji takich jak ma pewien sens; jest to jakiś ważony przedział ufności. Nie znam żadnych odniesień (i doceniłbym wszelkie wskazówki), ale wydaje się to całkiem naturalne. Nie mogę jednak wymyślić żadnego powodu, aby dodać losowość pomocniczą.fxgx

Będziemy wdzięczni za wszelkie wskazówki do literatury / powodów, aby to zrobić!


5
(+1) Nazywa się to procedurą losową. Stanowią one standardową część ram szacowania i testowania statystycznego, więc możesz polegać na prawie każdym rygorystycznym podręczniku, który udziela wyjaśnień. Dodatkową motywację do ich wykorzystania można znaleźć w literaturze teorii gier.
whuber

Dzięki za odpowiedzi. Po przeczytaniu tego komentarza zdałem sobie sprawę, że np. Bootstrapping pasuje do tego frameworka, ale w tej sytuacji przyczyna losowości jest jasna (nie masz dostępu do f, tylko g). W moim przypadku autorzy wyraźnie obliczają , a NASTĘPNIE patrzą na g x . Chociaż mam wiele podręczników statystyki, nigdzie tego nie widzę ... masz sugerowany tekst? fxgx
QQQ

3
W rzeczywistości bootstrapowanie nie jest procedurą losową. Jest to określona procedura, której przybliżone obliczenia są wykonywane za pomocą losowego próbkowania.
whuber

Odpowiedzi:


4

Randomizowane procedury są czasami stosowane w teorii, ponieważ upraszczają teorię. W typowych problemach statystycznych nie ma to w praktyce sensu, natomiast w ustawieniach teorii gier może mieć sens.

Jedynym powodem, dla którego widzę, że mogę go używać w praktyce, jest to, że w jakiś sposób upraszcza obliczenia.

Teoretycznie można argumentować, że nie należy go stosować z zasady wystarczalności : wnioski statystyczne powinny opierać się wyłącznie na wystarczających podsumowaniach danych, a randomizacja wprowadza zależność od zewnętrznego losowego który nie jest częścią wystarczającego podsumowania danych.U

UPDATE  

Aby odpowiedzieć na poniższe uwagi Whubera, zacytowano tutaj: „Dlaczego procedury randomizowane„ nie mają sensu w praktyce ”? Jak zauważyli inni, eksperymentatorzy są całkowicie gotowi wykorzystać randomizację w konstrukcji swoich danych eksperymentalnych, takich jak losowe przypisanie leczenia i kontroli , więc co jest tak różnego (i niepraktycznego lub budzącego zastrzeżenia) w stosowaniu randomizacji w późniejszej analizie danych? ”

Cóż, randomizacja eksperymentu w celu uzyskania danych odbywa się w określonym celu, głównie w celu przerwania łańcuchów przyczynowości. Czy i kiedy jest to skuteczne, jest kolejna dyskusja. Jaki może być cel wykorzystania randomizacji jako części analizy? Jedynym powodem, jaki kiedykolwiek widziałem, jest to, że uzupełnia teorię matematyczną! Tak długo, jak to możliwe. W kontekstach teorii gier, gdy jest prawdziwy przeciwnik, losowanie pomaga mi go zdezorientować. W rzeczywistych kontekstach decyzyjnych (sprzedać czy nie sprzedać?) Należy podjąć decyzję, a jeśli nie ma dowodów w danych, być może można po prostu rzucić monetą. Ale w kontekście naukowym, gdzie pytanie dotyczy tego, czego możemy się nauczyćz danych wynika, że ​​randomizacja wydaje się nie na miejscu. Nie widzę z tego żadnej realnej korzyści! Jeśli się nie zgadzasz, czy masz argument, który mógłby przekonać biologa lub chemika? (I tutaj nie myślę o symulacji jako części bootstrapu lub MCMC.)


1
Dlaczego procedury losowe „nie mają sensu w praktyce”? Jak zauważyli inni, eksperymentatorzy bardzo chętnie wykorzystują randomizację do konstruowania swoich danych eksperymentalnych, takich jak losowe przydzielanie leczenia i kontroli, więc co jest tak różnego (i niepraktyczne lub budzące zastrzeżenia) w stosowaniu randomizacji w późniejszej analizie danych ?
whuber

1
@kjetil Myślę, że mógłbyś nie uzupełnić swojego zdania na temat zasady wystarczalności, wydaje się, że zostało ono odcięte w połowie zdania („wnioski statystyczne powinny ...”).
Silverfish,

1
(+1) Ale myślę, że nasuwa się pytanie, aby powołać się na zasadę wystarczalności, której argumentem jest to, że gdy pozna się zaobserwowaną wartość wystarczającej statystyki, uwzględnienie dowolnego innego aspektu danych jest równoważne z wprowadzeniem zewnętrznego losu U . Więc ktoś, kto zaproponowałby właśnie to, nie dałby figi za zasadę wystarczalności. Zobacz także Basu (1978), „Randomizacja w eksperymentach statystycznych”, FSU Statistics Report M466, aby zapoznać się z kilkoma losowymi procedurami zaproponowanymi na poważnie.
Scortchi - Przywróć Monikę

1
@ whuber: Jest to jasny, oparty na zasadach argument, że losowość w uzyskiwaniu danych może być korzystna. (Łamie łańcuchy przyczynowe). Jaki jest ten zasadniczy argument przemawiający za wykorzystaniem randomizacji jako części analizy?
kjetil b halvorsen

1
Kjetil: Pozwala osiągnąć zamierzoną funkcję ryzyka, zamiast akceptować funkcję ryzyka (często w postaci nominalnej wielkości i mocy), która nie jest tym, czego chciałeś. Co więcej, jeśli procedura jest „teoretycznie” użyteczna, to z pewnością nie może być sprzeciwu wobec jej zastosowania w praktyce, poza niewykonalnością (co zwykle nie ma miejsca w przypadku procedur randomizowanych). Zatem twoje pytanie powinno zostać postawione na głowie: spoczywa na tobie obowiązek wykazania, że ​​jest coś złego w stosowaniu procedur losowych. Jak to osiągnąć, nie zaprzeczając sobie?
whuber

3

Pomysł odnosi się do testowania, ale ze względu na dualność testowania i przedziały ufności ta sama logika dotyczy elementów CI.

Zasadniczo, testy losowe zapewniają, że dany eksperyment można uzyskać również dla eksperymentów o wartości dyskretnej.

Załóżmy, że chcesz przetestować, na poziomie , uczciwość monety (wstaw tutaj dowolny wybrany przez Ciebie przykład, który można modelować eksperymentem dwumianowym), używając prawdopodobieństwa p głów. Oznacza to, że testujesz H 0 : p = 0,5 względem (powiedzmy) H 1 : p < 0,5 . Załóżmy, że rzuciłeś monetą n = 10 razy.α=0.05pH0:p=0.5H1:p<0.5n=10

Oczywiście niewiele głów jest dowodem przeciw . Dla k = 2 sukcesów możemy obliczyć wartość p testu w R, uzyskując 0,054. Dla k = 1 otrzymujemy 0,0107. Dlatego nie ma sposobu, aby odrzucić prawdziwe H 0 z prawdopodobieństwem 5% bez randomizacji.H0k=2ppbinom(2,10,.5)k=1H0

Jeśli randomizujemy nad odrzuceniem i akceptacją podczas obserwacji , nadal możemy osiągnąć ten cel.k=2


To miłe wytłumaczenie użycia randomizacji, ale byłoby miło, gdyby wyjaśniło, dlaczego możemy być zainteresowani uzyskaniem arbitralnego . Dlaczego jest to pożądany cel? α
Silverfish,

Cóż, to chyba sprowadza nas z powrotem do historii statystyki, kiedy RA Fisher nieco arbitralnie zdecydowała się pracować z poziomem istotności 5%, aby zdecydować, czy niektóre wstępne dowody uzasadniają dalsze badania. Jak wiemy, 5% od tego czasu przekształciło się w rodzaj złotego standardu w wielu dziedzinach, pomimo braku dobrych podstaw teoretycznych.
Christoph Hanck
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.