Co przedziały ufności mówią o precyzji (jeśli w ogóle)?


31

Morey i in. (2015) twierdzą, że przedziały ufności są mylące i istnieje wiele błędów związanych z ich zrozumieniem. Między innymi opisują błąd precyzji jako:

Błąd Precyzji
Szerokość przedziału ufności wskazuje na dokładność naszej wiedzy o parametrze. Wąskie przedziały ufności pokazują dokładną wiedzę, a szerokie błędy ufności pokazują nieprecyzyjną wiedzę.

Nie ma koniecznego związku między precyzją oszacowania a rozmiarem przedziału ufności. Jednym ze sposobów na to jest wyobrażenie sobie, że dwóch badaczy - starszy badacz i doktorant - analizuje dane uczestników z eksperymentu. Jako ćwiczenie z korzyścią dla doktoranta starszy badacz postanawia losowo podzielić uczestników na dwa zestawy po 25 , aby każdy z nich mógł oddzielnie przeanalizować połowę zestawu danych. Na kolejnym spotkaniu obaj dzielą między sobą przedziały ufności t Studenta dla średniej. 95 % CI doktora wynosi 52 ± 2 , a 95 % starszego naukowca5025t95%52±295%CI wynosi .53±4

Starszy naukowiec zauważa, że ​​ich wyniki są zasadniczo spójne i że mogliby użyć równo ważonej średniej z dwóch odpowiednich oszacowań punktowych, , jako ogólnej oceny prawdziwej średniej.52.5

Doktorantka twierdzi jednak, że ich dwa środki nie powinny być równomiernie ważone: zauważa, że ​​jej CI jest w połowie tak szeroka i argumentuje, że jej szacunki są bardziej precyzyjne i dlatego powinny być ważone bardziej. Jej doradca zauważa, że ​​nie może to być poprawne, ponieważ oszacowanie wynikające z nierównomiernego ważenia dwóch średnich byłoby inne niż oszacowanie wynikające z analizy pełnego zestawu danych, który musi wynosić 52.5 . Błędem doktoranta jest założenie, że CI bezpośrednio wskazują na dokładność danych.

Powyższy przykład wydaje się wprowadzać w błąd. Jeśli losowo podzielimy próbkę na pół, na dwie próbki, wówczas spodziewalibyśmy się, że zarówno średnie próbki, jak i standardowe błędy będą bliskie. W takim przypadku nie powinno być żadnej różnicy między zastosowaniem średniej ważonej (np. Ważonej przez błędy odwrotne) a użyciem prostej średniej arytmetycznej. Jeśli jednak szacunki się różnią, a błędy w jednej z prób są zauważalnie większe, może to sugerować „problemy” z taką próbką.

Oczywiście, w powyższym przykładzie rozmiary próbek są takie same, więc „łączenie z powrotem” danych poprzez przyjęcie średnich jest takie samo, jak przyjęcie średniej dla całej próbki. Problem polega na tym, że cały przykład jest zgodny ze źle zdefiniowaną logiką, że próbka jest najpierw dzielona na części, a następnie ponownie łączona w celu ostatecznego oszacowania.

Przykład może zostać ponownie sformułowany, aby doprowadzić do dokładnie przeciwnego wniosku:

Badacz i student postanowili podzielić zestaw danych na dwie połowy i przeanalizować je niezależnie. Następnie porównali swoje szacunki i okazało się, że próba oznacza, że ​​ich obliczenia były bardzo różne, a ponadto błąd standardowy w ocenie studenta był znacznie większy. Student obawiał się, że może to sugerować problemy z precyzją jego oszacowania, ale badacz zasugerował, że nie ma związku między przedziałami ufności i precyzją, więc oba szacunki są równie wiarygodne i mogą opublikować dowolne z nich, wybrane losowo, jako ich ostateczne oszacowanie.

Mówiąc bardziej formalnie, „standardowe” przedziały ufności, takie jak Studenta , oparte są na błędacht

x¯±c×SE(x)

gdzie jest stałą. W takim przypadku są one bezpośredniec związane z precyzją, prawda?

Więc moje pytanie brzmi:
czy błąd precyzji jest rzeczywiście błędem? Co przedziały ufności mówią o precyzji?


Morey, R., Hoekstra, R., Rouder, J., Lee, M., & Wagenmakers, E.-J. (2015). Błąd polegający na zaufaniu do przedziałów ufności. Biuletyn i przegląd psychonomiczny, 1–21. https://learnbayes.org/papers/confidenceIntervalsFallacy/


2
Podejrzewam, że jeśli precyzja jest zdefiniowana jako odwrotność wariancji, to szerokość tych CI odzwierciedla jedynie oszacowanie precyzji. Podobnie jak szerokość wiarygodnego przedziału bayesowskiego dla średniej odzwierciedlałaby niepewność co do precyzji.
Scortchi - Przywróć Monikę

@Scortchi to kolejny sposób powiedzenia, że ​​metody częste są ogólnie niewiarygodne ..?
Tim

7
Powiedziałbym, że to czerwony śledź. Właśnie przeprowadziłem symulację 10 000 eksperymentów, na każdym rysując 50 próbek z rozkładu normalnego ze średnią 52,5 i SD 7,5 (tak, że SE dla podpróbek o rozmiarze 25 wynosiłoby około , uzyskując CI±3). Następnie podzieliłem te próbki na dwie części i sprawdziłem, jak często CI różniły się o 2 lub więcej. Stało się to tylko w 6 na 10 000 przypadków. Każdy, kto obserwuje CI tak inaczej, raczej podejrzewałby, że coś się zepsuło przy wyborze podpróbki. 7.5/25=5±3
S. Kolassa - Przywróć Monikę

@StephanKolassa Zrobiłem dokładnie tę samą symulację, która doprowadziła do dokładnie takich samych wniosków - tak powstało pytanie :)
Tim

2
@Tim: Naprawdę nie wiem, do czego dążą: jeśli prawdziwa precyzja oszacowania średniej jest postrzegana jako funkcja nieznanej wartości parametru, wspólnej dla dwóch podprób, to ja nie sądzę, aby ktokolwiek miałby coś przeciwko przyznaniu, że różnica w szerokości tych dwóch CI nie odzwierciedla zatem różnicy w precyzji szacunków (chyba że wątpił w procedurę podpróbkowania). Uwzględnienie właściwości pokrycia CI zależnych od obserwowanego współczynnika zmienności mogłoby być lepszą taktyką.
Scortchi - Przywróć Monikę

Odpowiedzi:


16

W artykule faktycznie pokazujemy błędność precyzji na wiele sposobów. Ten, o który pytasz - pierwszy w pracy - przykład ma na celu wykazanie, że uproszczone „CI = precyzja” jest błędne. Nie oznacza to, że byłby w tym zamieszany każdy kompetentny częsty, bayesowski lub prawdopodobieństwa.

Oto inny sposób, aby zobaczyć, co się dzieje: Gdybyśmy powiedziano CI, nadal nie bylibyśmy w stanie połączyć informacji z próbek; musielibyśmy znać , a dzięki temu moglibyśmy rozłożyć CI na ˉ x i s 2 , a tym samym odpowiednio połączyć dwie próbki. Musimy to zrobić, ponieważ informacje w CI są marginalne w stosunku do parametru uciążliwości. Musimy wziąć pod uwagę, że obie próbki zawierają informacje o tym samym uciążliwym parametrze. Obejmuje to obliczenie obu wartości s 2 , połączenie ich w celu uzyskania ogólnej oceny σ 2Nx¯s2s2σ2 , a następnie obliczenie nowego CI.

Co do innych demonstracji błędności precyzji, patrz

  • wiele elementów CI w sekcji Welch (1939) (okręt podwodny), z których jeden obejmuje „trywialny” element CI wymieniony przez @dsaxton powyżej. W tym przykładzie optymalny CI nie śledzi szerokości prawdopodobieństwa, a istnieje kilka innych przykładów CI, które również nie.
  • Fakt, że elementy CI - nawet „dobre” elementy CI mogą być puste, „fałszywie” wskazując na nieskończoną precyzję

Odpowiedzią na zagadkę jest to, że „precyzja”, przynajmniej w sposobie, w jaki zwolennicy CI myślą o tym (post eksperymentalna ocena tego, jak „przybliżenie” szacunku jest do parametru), po prostu nie jest cechą, którą ogólnie mają przedziały ufności i nie były przeznaczone. Szczególne procedury zaufania mogą ... lub nie.

Zobacz także dyskusję tutaj: http://andrewgelman.com/2011/08/25/why_it_doesnt_m/#comment-61591


7
(+1) Wspaniale usłyszeć od prawdziwego autora! Zgadzam się, że CI mają kilka filozoficznych problemów, podobnie jak WSZYSTKIE formy wnioskowania (tylko różne kwestie) ... Podoba mi się to, jak wskazałeś, że jest to szczególna procedura zaufania, którą musisz wziąć pod uwagę, a nie tylko to, że jest to CI przy takich i taki poziom.

4
(+1) Dziękujemy za odpowiedź! Zgadzam się z argumentami, które podajesz w swoim artykule, że CI nie muszą nic mówić o precyzji, jednak nazywając to błędem, masz wrażenie, że wskazujesz, że nie mówią nic o precyzji - i to nie to samo ... Co więcej: Twoim zdaniem „błędność precyzji” jest kwestią analizy w prawdziwym życiu…? Zgadzam się, że błędna interpretacja CI jest, ale w tym przypadku nie jestem tego taki pewien ...
Tim

2
Wpływ „rzeczywisty” jest trudny do oszacowania, szczególnie pod warunkiem, że można mówić o wpływie w konkretnym scenariuszu analizy lub w terenie. Po prostu obliczenie CI na podstawie Gaussa oznacza, że ​​błąd nie jest zbyt niebezpieczny. Ale rozważ listę cytowań na str. 117 (akapit zaczyna się „Jak często procedura zaufania Steigera ...”). Odstępy w opublikowanych artykułach są prawdopodobnie „zbyt” wąskie. Błąd ma także inne skutki: brak staranności w generowaniu nowych procedur CI (sprawdź dowolny dokument z nowym CI), niechęć analityków do odchodzenia od założeń Gaussa, gdy jest to potrzebne, i inne.
richarddmorey

Jestem nęcony tymi nawiasami. Co to jest ta „łódź podwodna”?
Superbest

1
Ale jeśli szerokość funkcji wiarygodności dla od zakresu próbki ma prawdziwie odzwierciedlać precyzję w przykładzie łodzi podwodnej, to dlaczego nie miałaby mieć szerokości funkcji wiarygodności dla średniej zależnej od wariancji próbki naprawdę odzwierciedlającej precyzję w ten przykład. Załóżmy, że cztery bąbelki z łodzi podwodnej zostały zaobserwowane i losowo podzielone na dwa zestawy dwóch ...θ
Scortchi - Przywróć Monikę

13

Przede wszystkim ograniczmy się do procedur CI, które wytwarzają interwały tylko ze ściśle dodatnimi, skończonymi szerokościami (aby uniknąć przypadków patologicznych).

W tym przypadku teoretycznie można wykazać związek między precyzją a szerokością CI. Oszacuj średnią (jeśli istnieje). Jeśli twoje CI dla średniej jest bardzo wąskie, masz dwie interpretacje: albo miałeś pecha, a twoja próbka była zbyt ciasno zlepiona (a priori 5% szansy na takie zdarzenie), lub twój przedział obejmuje prawdziwą średnią (95% szansa a priori). Oczywiście obserwowany CI może być jednym z tych dwóch, ale skonfigurowaliśmy nasze obliczenia, aby prawdopodobieństwo wystąpienia tego drugiego było znacznie większe (tj. 95% szansa a priori) ... stąd mamy wysoki stopień z ufnością nasz przedział obejmuje średnią, ponieważ ustalamy rzeczy probabilistycznie, więc tak jest. Zatem 95% CI nie jest przedziałem prawdopodobieństwa (jak przedział wiarygodności Bayesa), ale bardziej jak „zaufanym doradcą” ... kimś, kto statystycznie ma rację w 95% przypadków, więc ufamy ich odpowiedziom, mimo że każda konkretna odpowiedź może być bardzo błędna.

W 95% przypadków, gdy obejmuje on rzeczywisty parametr, wówczas szerokość mówi ci coś o zakresie prawdopodobnych wartości biorąc pod uwagę dane (tj. Jak dobrze możesz powiązać prawdziwą wartość), dlatego działa jak miara precyzji . W 5% przypadków, gdy tak nie jest, CI wprowadza w błąd (ponieważ próba wprowadza w błąd).

Czy więc 95% szerokość CI wskazuje na precyzję ... Powiedziałbym, że istnieje 95% szansa na to (pod warunkiem, że szerokość CI jest dodatnio-skończona) ;-)

Co to jest rozsądny CI?

W odpowiedzi na post oryginalnego autora poprawiłem swoją odpowiedź na (a) biorąc pod uwagę, że przykład „podzielonej próbki” miał bardzo konkretny cel oraz (b) zapewnić dodatkowe tło, zgodnie z prośbą komentatora:

W idealnym (częstym) świecie wszystkie rozkłady próbkowania dopuszczałyby kluczową statystykę, której moglibyśmy użyć, aby uzyskać dokładne przedziały ufności. Co jest takiego wspaniałego w kluczowych statystykach? Ich rozkład można uzyskać bez znajomości rzeczywistej wartości szacowanego parametru! W tych miłych przypadkach mamy dokładny rozkład naszej przykładowej statystyki w stosunku do prawdziwego parametru (chociaż może nie być gaussowski) na temat tego parametru.

Umieścić bardziej zwięźle: My wiemy rozkład błędu (lub jakiś jego transformacji).

Ta jakość niektórych estymatorów pozwala nam tworzyć rozsądne przedziały ufności. Przedziały te nie tylko spełniają ich definicje ... robią to, ponieważ pochodzą z rzeczywistego rozkładu błędu oszacowania.

Rozkład Gaussa i związana z nim statystyka Z jest kanonicznym przykładem użycia kluczowej wielkości do opracowania dokładnego CI dla średniej. Jest więcej ezoterycznych przykładów, ale generalnie jest to ten, który motywuje „teorię dużej próbki”, która jest w zasadzie próbą zastosowania teorii stojącej za CI Gaussa do rozkładów, które nie dopuszczają prawdziwej kluczowej wielkości. W tych przypadkach przeczytasz o mniej więcej kluczowych lub asymptotycznie kluczowych (w wielkości próby) wielkościach lub „przybliżonych” przedziałach ufności ... są one oparte na teorii prawdopodobieństwa - w szczególności na tym, że rozkład błędów dla wielu MLE zbliża się do rozkładu normalnego.

Innym podejściem do generowania sensownych CI jest „odwrócenie” testu hipotez. Chodzi o to, że „dobry” test (np. UMP) da dobry (odczyt: wąski) CI dla danego poziomu błędu typu I. Nie zapewniają one dokładnego pokrycia, ale zapewniają zasięg dolny (uwaga: rzeczywista definicja X% -CI mówi tylko, że musi obejmować prawdziwy parametr przynajmniej X% czasu).

Zastosowanie testów hipotez nie wymaga bezpośrednio kluczowej wielkości lub rozkładu błędów - jego wrażliwość wynika z wrażliwości testu podstawowego. Na przykład, gdybyśmy mieli test, którego region odrzucenia miał długość 0,5% czasu i nieskończoną długość 95% czasu, wrócilibyśmy tam, gdzie byliśmy z CI - ale oczywiste jest, że ten test nie jest zależy od danych, a zatem nie dostarczy żadnych informacji na temat badanego parametru bazowego.

Ten szerszy pomysł - że ocena precyzji powinna być uzależniona od danych, wraca do Fischera i idei statystyki pomocniczej. Możesz być pewien, że jeśli wynik twojego testu lub procedury CI NIE jest uwarunkowany danymi (tj. Jego zachowanie warunkowe jest takie samo jak zachowanie bezwarunkowe), to masz wątpliwą metodę.


2
Byłoby wspaniale, gdybyś mógł rozwinąć to, co dodałeś do „Notatki”. Wydaje mi się, że jest to sedno całej dyskusji: można opracować bardzo dziwne, ale ważne procedury częstokroć dla konstruowania elementów CI, w których szerokość elementu CI nie ma żadnego związku z żadną precyzją. Dlatego można się kłócić, jak Morey i in. zrobić, że CI są zasadniczo wprowadzane w błąd. Zgadzam się z tobą, że powszechnie stosowane procedury CI są bardziej rozsądne, ale trzeba jasno określić, co je powoduje.
ameba mówi Przywróć Monikę

@amoeba Dodałem jeszcze kilka wyjaśnień, dlaczego nie wszystkie CI są tworzone jednakowo ... główną ideą jest pomocniczość, druga to rola rozkładu błędów (lub jej przybliżenie)

Dziękuję za aktualizację. Jedną rzeczą, która wciąż nie wydaje mi się bardzo jasna w twojej odpowiedzi, jest to, że w pierwszym akapicie nie mówisz nic o szerokości CI; mówisz tylko o tym, że zawiera prawdziwy parametr populacji lub go nie zawiera. Wszystko jest poprawne nawet w przypadkach „patologicznych”. Następnie mówisz tak, szerokość wskazuje na precyzję, ale nie podałeś żadnych argumentów (w tym momencie). W dalszej dyskusji wyjaśnisz to jednak bardziej.
ameba mówi Przywróć Monikę

@amoeba Wydaje mi się, że mój post przydałby się z nieco większym formatowaniem. Podstawowa logika jest następująca (zakładając, że stosujemy „rozsądną” procedurę CI, jak zarysowałem): istnieje a priori 95% szansa, że ​​przedział będzie zawierał prawdziwy parametr. Po zebraniu danych mamy rzeczywisty przedział (szerokość skończona, niezerowa). JEŻELI zawiera prawdziwy parametr, wówczas szerokość wyraża zakres prawdopodobnych wartości, którymi może być, stąd szerokość ogranicza zakres parametru. JEDNAK w 5% przypadków, w których przedział nie zawiera wartości, przedział ten jest mylący.

@amoeba zaktualizował post, aby lepiej podkreślić związek między szerokością CI a precyzją.

8

{x1,x2,,xn}(μ,σ2)μ(,){0}na podstawie przerzucenia stronniczej monety. Stosując odpowiednie odchylenie, możemy uzyskać dowolny poziom pewności, jaki lubimy, ale oczywiście nasze oszacowanie przedziału nie ma żadnej precyzji, nawet jeśli otrzymamy przedział o zerowej szerokości.

Powodem, dla którego nie sądzę, powinniśmy dbać o tej pozornej mitu jest to, że o ile prawdą jest, że nie ma potrzeby połączenia między szerokość przedziału ufności i dokładności, tam jest niemal powszechny związek między standardowych błędów i precyzją, aw w większości przypadków szerokość przedziału ufności jest proporcjonalna do błędu standardowego.

σ


Dobra uwaga na temat losowo nieskończonych elementów CI ... zdecydowanie pokazuje, że pewność jest inną koncepcją niż precyzja. Prawdopodobnie powinienem był ostrzec moją odpowiedź, mówiąc, że zakładam CI oparte na prawdopodobieństwie, gdzie szerokość jest związana z krzywizną prawdopodobieństwa logarytmicznego, co jest przybliżeniem standardowego błędu ... Twój post wskazuje, że istnieją CI, które technicznie osiągają zasięg, ale w bardzo sprzeczny z intuicją sposób.

Powiązaną kwestią (choć bardzo interesującą) jest kwestia odpowiednich podzbiorów dla CI ... na przykład, jeśli warunkujesz w statystykach pomocniczych, twój zasięg CI może się zmienić (przypadkiem jest to, że warunkowe pokrycie przedziału t zmiany w zależności od zmienności próbki). Oto link do artykułu: jstor.org/stable/2242024?seq=1#page_scan_tab_contents

@Bey Jest inny mniej skrajny przykład z tego artykułu z udziałem łodzi podwodnej: webfiles.uci.edu/mdlee/fundamentalError.pdf . Jest to interesujący, ale znów wydaje się przypadkiem interpretacji, której nie dokonałaby żadna inteligentna osoba.
dsaxton

Zgadzam się ... nie mogę pozostawić zdrowego rozsądku przy drzwiach ze statystykami ... nawet w uczeniu maszynowym (nieco

1
@richarddmorey: Dobra, rozumiem. To było po prostu niefortunne sformułowanie! Celowo nie wyjąłem go z kontekstu; Szczerze czytam to zdanie jako podsumowanie i uogólnienie każdej sytuacji (nie zdając sobie sprawy, że w tym zdaniu przyjęto „w tym przykładzie”). Zastanów się nad pozostawieniem komentarza wyjaśniającego w tym innym wątku z moim oskarżeniem (które już uzyskało pozytywne opinie).
ameba mówi Przywróć Monikę

4

Myślę, że wyraźne rozróżnienie między „przedziałami ufności” a „precyzją” (patrz odpowiedź z @dsaxton) jest ważne, ponieważ to rozróżnienie wskazuje na problemy w powszechnym stosowaniu obu terminów.

Cytowanie z Wikipedii :

Precyzja systemu pomiarowego, związana z odtwarzalnością i powtarzalnością, to stopień, w jakim powtarzane pomiary w niezmienionych warunkach pokazują te same wyniki.

Można zatem argumentować, że częste przedziały ufności reprezentują rodzaj precyzji schematu pomiarowego . Jeśli powtórzy się ten sam schemat, 95% CI obliczone dla każdego powtórzenia będzie zawierać jedną prawdziwą wartość parametru w 95% powtórzeń.

Nie jest to jednak to, czego wielu ludzi chce od praktycznej miary precyzji. Chcą wiedzieć, jak blisko mierzona wartość jest do wartości rzeczywistej . Częstotliwości przedziały ufności nie zapewniają ściśle tej miary precyzji. Wiarygodne regiony bayesowskie tak.

Pewne zamieszanie polega na tym, że w praktycznych przykładach częste przedziały ufności i wiarygodne regiony bayesowskie „mniej lub bardziej się pokrywają” . Przykładem jest pobieranie próbek z rozkładu normalnego, jak w niektórych komentarzach do PO. Może tak być również w przypadku niektórych szerszych rodzajów analiz, które @Bey miał na myśli, w oparciu o aproksymacje do standardowych błędów w procesach, które mają normalne rozkłady w granicach.

Jeśli wiesz, że jesteś w takiej sytuacji , może nie być praktycznego niebezpieczeństwa przy interpretacji konkretnego 95% CI, z pojedynczej implementacji schematu pomiarowego, z prawdopodobieństwem 95% zawarcia prawdziwej wartości. Ta interpretacja przedziałów ufności nie pochodzi jednak ze statystyk częstych, dla których prawdziwa wartość jest w tym przedziale lub nie.

Jeśli przedziały ufności i wiarygodne regiony różnią się znacznie, to podobna do bayesowskiej interpretacja częstych przedziałów ufności może być myląca lub błędna, o czym świadczą zamieszczone powyżej dokumenty połączone z wcześniejszą literaturą. Tak, „zdrowy rozsądek” może pomóc uniknąć takich błędnych interpretacji, ale z mojego doświadczenia wynika, że ​​„zdrowy rozsądek” nie jest tak powszechny.

Inne zweryfikowane strony zawierają znacznie więcej informacji na temat przedziałów ufności i różnic między przedziałami ufności a wiarygodnymi regionami . Linki z tych stron są również bardzo pouczające.


To dobra uwaga .... Myślę, że najbliższa wspólna interpretacja „precyzji” bardziej przypomina błąd RMS. Bezstronna, ale bardzo zmienna estymacja jest postrzegana jako nie lepsza niż estymator o niskiej zmienności, ale wysoce tendencyjny ... nie można polegać na obu, aby dać oszacowanie zbliżone do prawdziwej wartości.

+1, ale nie jestem pewien, czy podzielam twój pesymistyczny pogląd na „zdrowy rozsądek”. Jest to świetny cytat z Jeffreysa o „zdrowym rozsądkiem” w częstościowym statystyk: I have in fact been struck repeatedly in my own work, after being led on general principles to the solution of a problem, to find that Fisher had already grasped the essentials by some brilliant piece of common sense.
ameba mówi Przywróć Monikę

@amoeba rozważa twierdzenie Laplace'a, że „teoria prawdopodobieństwa jest niczym innym, jak zdrowym rozsądkiem sprowadzonym do obliczeń”. Wysiłki poświęcone odtąd teorii prawdopodobieństwa przynajmniej pokazują, że implikacje zdrowego rozsądku nie zawsze są od razu oczywiste.
EdM

@amoeba: Fisher odrzucił CI i identyfikuje Fishera jako freq-ist. wprowadza w błąd. Jego logika interwałów (fiducial) była podobna do obj. Bayesa, a on utożsamia prawdopodobieństwo z racjonalną niepewnością. Mówi on tak: „Czasami twierdzi się, że metoda powiernicza generalnie prowadzi do takich samych wyników jak metoda [CI]. Trudno jest zrozumieć, jak to może być, ponieważ zdecydowanie ustanowiono, że metoda zaufania interwały nie prowadzą do stwierdzeń prawdopodobieństwa dotyczących parametrów świata rzeczywistego, podczas gdy w tym celu istnieje argument „. (Fisher, 1959)
richarddmorey

@richard, dzięki za wyjaśnienie. Fisher jest znany z tego, że przez całą swoją karierę mówił sprzeczne rzeczy i kilkakrotnie zmieniał zdanie. Tak naprawdę nie znam jego teorii, więc nie mogę tego komentować. Moje nieświadome przypuszczenie było takie, że Jeffreys w tym cytacie odnosi się do „okresu częstego” Fishera, ale nie mam na to dowodów. Z mojego (ograniczonego!) Doświadczenia, nikt nigdy nie korzysta z wnioskowania fiducial. Nikt. Zawsze. Podczas gdy techniki częste są używane przez cały czas i wielu wraca do Fishera. Stąd skojarzenie istniejące w mojej głowie.
ameba mówi Przywróć Monikę

1

@Bey ma to. Nie ma koniecznego związku między wynikami a wydajnością, ceną i jakością, a także zapachem i smakiem. Jednak jeden zwykle informuje o drugim.

Indukcję można udowodnić, że nie można dać popu quizu. Po dokładnym zbadaniu oznacza to, że nie można zagwarantować, że quiz jest niespodzianką. Jednak przez większość czasu tak będzie.

Wygląda na to, że Morey i in. Pokazują, że istnieją przypadki, w których szerokość jest nieinformacyjna. Chociaż wystarcza to do stwierdzenia „Nie ma koniecznego związku między precyzją oszacowania a rozmiarem przedziału ufności”, nie jest wystarczające dalsze stwierdzenie, że elementy CI zasadniczo nie zawierają informacji o precyzji. Po prostu nie ma takiej gwarancji.

(Niewystarczające punkty do odpowiedzi + @ Bey.)

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.