Aktualizacja : Korzystając z kilkuletniej perspektywy, napisałem bardziej zwięzłe traktowanie zasadniczo tego samego materiału w odpowiedzi na podobne pytanie.
Jak zbudować region zaufania
Zacznijmy od ogólnej metody konstruowania regionów zaufania. Można go zastosować do pojedynczego parametru, aby uzyskać przedział ufności lub zestaw przedziałów; i można go zastosować do dwóch lub więcej parametrów, aby uzyskać regiony o wyższym wymiarze.
Twierdzimy, że obserwowane statystyki D pochodzą z rozkładu o parametrach θ , a mianowicie z rozkładu próbkowania s(d|θ) względem możliwych statystyk d , i szukają regionu ufności dla θ w zbiorze możliwych wartości Θ . Zdefiniuj region o największej gęstości (HDR): h HDR pliku PDF jest najmniejszym podzbiorem jego domeny, który obsługuje prawdopodobieństwo h . Oznaczmy h -HDR o s(d|ψ) jak Hψ dla każdej ψ∈Θ . Następnieregion ufnościh dlaθ , przy danychD , jest zbioremCD={ϕ:D∈Hϕ} . Typowa wartośćh wynosiłaby 0,95.
Interpretacja częsty
Z poprzedniej definicji regionu ufności wynika
d∈Hψ⟷ψ∈Cd
z Cd={ϕ:d∈Hϕ} . Teraz wyobraź sobie duży zestaw ( wyimaginowane ) obserwacje {Di} , podjęte w podobnych okolicznościach do D . tzn. są to próbki z s(d|θ) . Ponieważ Hθ podpory prawdopodobieństwa masy h z PDF s(d|θ) ,P(Di∈Hθ)=h dla wszystkichi . Dlatego ułamek{Di} dla któregoDi∈Hθ jesth . I tak, stosując powyższą równoważność, ułamek{Di} dla któregoθ∈CDi jest równieżh .
To właśnie dlatego częste twierdzenie o regionie ufności h dla θ wynosi:
Weź dużą liczbę wyimaginowanych obserwacji {Di} z dystrybucji Sampling s(d|θ) , które doprowadziły do obserwowanej statystyki D . Zatem θ leży w obrębie ułamka h analogicznych, ale urojonych regionów ufności {CDi} .
Region zaufanie CD zatem nie wnosić żadnych roszczeń o prawdopodobieństwie, że θ leży gdzieś! Powodem jest po prostu to, że w składzie nie ma niczego, co pozwalałoby mówić o rozkładzie prawdopodobieństwa dla θ . Interpretacja jest tylko rozbudowaną nadbudową, która nie poprawia bazy. Podstawą są tylko s(d|θ) i D , gdzie θ nie pojawia się jako ilość rozproszona i nie ma informacji, których moglibyśmy użyć, aby to rozwiązać. Istnieją w zasadzie dwa sposoby uzyskania dystrybucji na θ :
- Przypisz rozkład bezpośrednio z dostępnych informacji: p(θ|I) .
- Odwołaj θ do innej dystrybuowanej wielkości: p(θ|I)=∫p(θx|I)dx=∫p(θ|xI)p(x|I)dx .
W obu przypadkach θ musi być gdzieś po lewej stronie. Częstokroć nie mogą stosować żadnej z tych metod, ponieważ obie wymagają heretyckiego uprzedzenia.
Widok bayesowski
Najbardziej Bayesowski może z h obszar ufności CD , biorąc bez zastrzeżeń, jest tylko bezpośrednie interpretacja że zestaw ϕ dla którego D mieści się w h -HDR Hϕ rozkładu typu sampling distribution s(d|ϕ) . To niekoniecznie mówi nam wiele o θ i oto dlaczego.
Prawdopodobieństwo, że θ∈CD , biorąc pod uwagę D i informacje podstawowe I , wynosi:
P(θ∈CD|DI)=∫CDp(θ|DI)dθ=∫CDp(D|θI)p(θ|I)p(D|I)dθ
Zwróć uwagę, że w przeciwieństwie do interpretacji częstokroć, natychmiast zażądaliśmy podziału naθ. Podstawowe informacje, któreI, jak poprzednio, że rozkład próbkowania jests(d|θ):
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(D|θ)p(θ|I)p(D|I)dθ=∫CDs(D|θ)p(θ|I)dθp(D|I)=∫CDs(D|θ)p(θ|I)dθ∫s(D|θ)p(θ|I)dθ
Now this expression does not in general evaluate to h, which is to say, the h confidence region CD does not always contain θ with probability h. In fact it can be starkly different from h. There are, however, many common situations in which it does evaluate to h, which is why confidence regions are often consistent with our probabilistic intuitions.
For example, suppose that the prior joint PDF of d and θ is symmetric in that pd,θ(d,θ|I)=pd,θ(θ,d|I). (Clearly this involves an assumption that the PDF ranges over the same domain in d and θ.) Then, if the prior is p(θ|I)=f(θ), we have s(D|θ)p(θ|I)=s(D|θ)f(θ)=s(θ|D)f(D). Hence
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(θ|D)dθ∫s(θ|D)dθ=∫CDs(θ|D)dθ
From the definition of an HDR we know that for any ψ∈Θ
∫Hψs(d|ψ)ddand therefore that∫HDs(d|D)ddor equivalently∫HDs(θ|D)dθ=h=h=h
Therefore, given that s(d|θ)f(θ)=s(θ|d)f(d), CD=HD implies P(θ∈CD|DI)=h. The antecedent satisfies
CD=HD⟷∀ψ[ψ∈CD↔ψ∈HD]
Applying the equivalence near the top:
CD=HD⟷∀ψ[D∈Hψ↔ψ∈HD]
Thus, the confidence region CD contains θ with probability h if for all possible values ψ of θ, the h-HDR of s(d|ψ) contains D if and only if the h-HDR of s(d|D) contains ψ.
Now the symmetric relation D∈Hψ↔ψ∈HD is satisfied for all ψ when s(ψ+δ|ψ)=s(D−δ|D) for all δ that span the support of s(d|D) and s(d|ψ). We can therefore form the following argument:
- s(d|θ)f(θ)=s(θ|d)f(d) (premise)
- ∀ψ∀δ[s(ψ+δ|ψ)=s(D−δ|D)] (premise)
- ∀ψ∀δ[s(ψ+δ|ψ)=s(D−δ|D)]⟶∀ψ[D∈Hψ↔ψ∈HD]
- ∴∀ψ[D∈Hψ↔ψ∈HD]
- ∀ψ[D∈Hψ↔ψ∈HD]⟶CD=HD
- ∴CD=HD
- [s(d|θ)f(θ)=s(θ|d)f(d)∧CD=HD]⟶P(θ∈CD|DI)=h
- ∴P(θ∈CD|DI)=h
Let's apply the argument to a confidence interval on the mean of a 1-D normal distribution (μ,σ), given a sample mean x¯ from n measurements. We have θ=μ and d=x¯, so that the sampling distribution is
s(d|θ)=n−−√σ2π−−√e−n2σ2(d−θ)2
Suppose also that we know nothing about θ before taking the data (except that it's a location parameter) and therefore assign a uniform prior: f(θ)=k. Clearly we now have s(d|θ)f(θ)=s(θ|d)f(d), so the first premise is satisfied. Let s(d|θ)=g((d−θ)2). (i.e. It can be written in that form.) Then
s(ψ+δ|ψ)=g((ψ+δ−ψ)2)=g(δ2)ands(D−δ|D)=g((D−δ−D)2)=g(δ2)so that∀ψ∀δ[s(ψ+δ|ψ)=s(D−δ|D)]
whereupon the second premise is satisfied. Both premises being true, the eight-point argument leads us to conclude that the probability that θ lies in the confidence interval CD is h!
We therefore have an amusing irony:
- The frequentist who assigns the h confidence interval cannot say that P(θ∈CD)=h, no matter how innocently uniform θ looks before incorporating the data.
- The Bayesian who would not assign an h confidence interval in that way knows anyhow that P(θ∈CD|DI)=h.
Final Remarks
We have identified conditions (i.e. the two premises) under which the h confidence region does indeed yield probability h that θ∈CD. A frequentist will baulk at the first premise, because it involves a prior on θ, and this sort of deal-breaker is inescapable on the route to a probability. But for a Bayesian, it is acceptable---nay, essential. These conditions are sufficient but not necessary, so there are many other circumstances under which the Bayesian P(θ∈CD|DI) equals h. Equally though, there are many circumstances in which P(θ∈CD|DI)≠h, especially when the prior information is significant.
We have applied a Bayesian analysis just as a consistent Bayesian would, given the information at hand, including statistics D. But a Bayesian, if he possibly can, will apply his methods to the raw measurements instead---to the {xi}, rather than x¯. Oftentimes, collapsing the raw data into summary statistics D destroys information in the data; and then the summary statistics are incapable of speaking as eloquently as the original data about the parameters θ.