Z grubsza i nieformalnie wiem, jaki jest przedział ufności. Wydaje mi się jednak, że nie mogę owinąć głowy jednym ważnym punktem: według Wikipedii:
Przedział ufności nie przewiduje, że prawdziwa wartość parametru ma szczególne prawdopodobieństwo, że znajdzie się w przedziale ufności, biorąc pod uwagę faktycznie uzyskane dane.
Widziałem również podobne uwagi poczynione w kilku miejscach na tej stronie. Bardziej poprawna definicja, również z Wikipedii, to:
jeżeli przedziały ufności są konstruowane na podstawie wielu oddzielnych analiz danych z powtarzanych (i być może różnych) eksperymentów, proporcja takich przedziałów, które zawierają prawdziwą wartość parametru, będzie w przybliżeniu odpowiadać poziomowi ufności
Znów widziałem podobne punkty poczynione w kilku miejscach na tej stronie. Nie rozumiem Jeśli w powtarzanych eksperymentach ułamek obliczonych przedziałów ufności, który zawiera prawdziwy parametr wynosi , to w jaki sposób prawdopodobieństwo, że jest w przedziale ufności obliczonym dla rzeczywistego eksperymentu, może być inne niż ? W odpowiedzi szukam następujących informacji:
Wyjaśnienie rozróżnienia między niepoprawnymi i poprawnymi definicjami powyżej.
Formalna, precyzyjna definicja przedziału ufności, która wyraźnie pokazuje, dlaczego pierwsza definicja jest błędna.
Konkretny przykład przypadku, w którym pierwsza definicja jest spektakularnie błędna, nawet jeśli podstawowy model jest poprawny.
mu
, i B) zmienność średnich replikacji wokół mu
. Większość ludzi zapomina: oryginalny CI nie jest koniecznie konstruowany mu
!