Istnieje kilka sposobów obliczania przedziałów ufności dla średniej rozkładu logarytmicznego. Przedstawię dwie metody: Bootstrap i prawdopodobieństwo profilu. Przedstawię również dyskusję na temat przeora Jeffreysa.
Bootstrap
Dla MLE
W tym przypadku MLE dla próbki wynosi( μ , σ)( x1, . . . , xn)
μ^= 1n∑j = 1nlog( xjot) ;σ^2)= 1n∑j = 1n( log( xjot) - μ^)2).
Zatem MLE średniej to . Przez resampling możemy otrzymać próbkę bootstrap z i za pomocą tego, możemy obliczyć kilka bootstrap przedziały ufności. Poniższe kody pokazują, jak je uzyskać.δ^= exp( μ^+ σ^2)/ 2) δδ^R
rm(list=ls())
library(boot)
set.seed(1)
# Simulated data
data0 = exp(rnorm(100))
# Statistic (MLE)
mle = function(dat){
m = mean(log(dat))
s = mean((log(dat)-m)^2)
return(exp(m+s/2))
}
# Bootstrap
boots.out = boot(data=data0, statistic=function(d, ind){mle(d[ind])}, R = 10000)
plot(density(boots.out$t))
# 4 types of Bootstrap confidence intervals
boot.ci(boots.out, conf = 0.95, type = "all")
Dla próbki średniej
Teraz, biorąc pod uwagę estymator zamiast MLE. Można również rozważyć inny rodzaj estymatorów.δ~= x¯
rm(list=ls())
library(boot)
set.seed(1)
# Simulated data
data0 = exp(rnorm(100))
# Statistic (MLE)
samp.mean = function(dat) return(mean(dat))
# Bootstrap
boots.out = boot(data=data0, statistic=function(d, ind){samp.mean(d[ind])}, R = 10000)
plot(density(boots.out$t))
# 4 types of Bootstrap confidence intervals
boot.ci(boots.out, conf = 0.95, type = "all")
Prawdopodobieństwo profilu
Aby zapoznać się z definicją funkcji wiarygodności i funkcji wiarygodności profilu, patrz . Korzystając z właściwości niezmienniczości prawdopodobieństwa, możemy ponownie sparametryzować w następujący sposób , gdzie a następnie obliczyć numerycznie prawdopodobieństwo profilu .( μ , σ) → ( δ, σ)δ= exp( μ + σ2)/ 2)δ
Rp( δ) = supσL (δ, σ)łykδ, σL (δ, σ).
Ta funkcja przyjmuje wartości w ; przedział poziomu ma przybliżoną pewność . Będziemy używać tej właściwości do konstruowania przedziału ufności dla . Poniższe kody pokazują, jak uzyskać ten przedział .( 0 , 1 ]0,147 95 % δ95 %δR
set.seed(1)
# Simulated data
data0 = exp(rnorm(100))
# Log likelihood
ll = function(mu,sigma) return( sum(log(dlnorm(data0,mu,sigma))))
# Profile likelihood
Rp = function(delta){
temp = function(sigma) return( sum(log(dlnorm(data0,log(delta)-0.5*sigma^2,sigma)) ))
max=exp(optimize(temp,c(0.25,1.5),maximum=TRUE)$objective -ll(mean(log(data0)),sqrt(mean((log(data0)-mean(log(data0)))^2))))
return(max)
}
vec = seq(1.2,2.5,0.001)
rvec = lapply(vec,Rp)
plot(vec,rvec,type="l")
# Profile confidence intervals
tr = function(delta) return(Rp(delta)-0.147)
c(uniroot(tr,c(1.2,1.6))$root,uniroot(tr,c(2,2.3))$root)
⋆ Bayesian
W tej sekcji przedstawiono alternatywny algorytm oparty na próbkowaniu Metropolis-Hastings i wykorzystaniu wcześniejszych Jeffreysów do obliczania przedziału wiarygodności dla .δ
Przypomnijmy, że w Jeffreys przed o w modelu logarytmiczno-normalnego jest( μ , σ)
π( μ , σ) ∝ σ- 2,
i że ten przełożony jest niezmienny podczas reparametryzacji. To wcześniejsze jest niewłaściwe, ale tylna część parametrów jest właściwa, jeśli wielkość próbki . Poniższy kod pokazuje, jak uzyskać 95% przedział wiarygodności za pomocą tego modelu Bayesa.n ≥ 2R
library(mcmc)
set.seed(1)
# Simulated data
data0 = exp(rnorm(100))
# Log posterior
lp = function(par){
if(par[2]>0) return( sum(log(dlnorm(data0,par[1],par[2]))) - 2*log(par[2]))
else return(-Inf)
}
# Metropolis-Hastings
NMH = 260000
out = metrop(lp, scale = 0.175, initial = c(0.1,0.8), nbatch = NMH)
#Acceptance rate
out$acc
deltap = exp( out$batch[,1][seq(10000,NMH,25)] + 0.5*(out$batch[,2][seq(10000,NMH,25)])^2 )
plot(density(deltap))
# 95% credibility interval
c(quantile(deltap,0.025),quantile(deltap,0.975))
Zauważ, że są bardzo podobne.