Dlaczego średnia arytmetyczna jest mniejsza niż średnia rozkładu w rozkładzie logarytmiczno-normalnym?


13

Tak, mam losowy proces generowania log-normalnie rozprowadzane zmiennych losowych . Oto odpowiednia funkcja gęstości prawdopodobieństwa:X

Rysunek przedstawiający logarytmiczną funkcję gęstości prawdopodobieństwa

Chciałem oszacować rozkład kilku chwil pierwotnego rozkładu, powiedzmy pierwszy moment: średnią arytmetyczną. Aby to zrobić, narysowałem 100 losowych zmiennych 10000 razy, aby móc obliczyć 10000 oszacowania średniej arytmetycznej.

Istnieją dwa różne sposoby oszacowania tego (przynajmniej tak zrozumiałem: mogłem się mylić):

  1. przez zwykłe obliczenie średniej arytmetycznej w zwykły sposób:
    X¯=i=1NXiN.
  2. lub przez pierwsze oszacowanie i μ z podstawowego rozkładu normalnego: μ = N i = 1 log ( X i )σμ a następnie średnia jako ˉ X =exp(μ+1
    μ=i=1Nlog(Xi)Nσ2=i=1N(log(Xi)μ)2N
    X¯=exp(μ+12σ2).

Problem polega na tym, że rozkłady odpowiadające każdemu z tych oszacowań są systematycznie różne:

Dwa estymatory dają różne rozkłady, jak pokazano na rysunku.

Średnia „zwykła” (reprezentowana jako czerwona linia przerywana) zapewnia ogólnie niższe wartości niż wartość wyprowadzona z postaci wykładniczej (zielona prosta linia). Chociaż oba średnie są obliczane na podstawie dokładnie tego samego zestawu danych. Należy pamiętać, że ta różnica jest systematyczna.

Dlaczego te rozkłady nie są równe?


μσ

μ=3σ=1.5

jasne, to jest do replikacji wyników.
Christoph Hanck

4
xiyixi/nexp(yi/n)exp(sy2/2)sy2yi. Zatem czerwona kropkowana krzywa musi leżeć po lewej stronie stałej zielonej krzywej dla dowolnego rozkładu macierzystego (opisującego dodatnie liczby losowe).
whuber

Jeśli znaczna część średniej pochodzi z niewielkiego prawdopodobieństwa dużych liczb, skończona średnia arytmetyczna próbki może z dużym prawdopodobieństwem nie docenić średniej populacji. (W oczekiwaniu jest to obiektywne, ale istnieje duże prawdopodobieństwo niewielkiego niedoszacowania i małe prawdopodobieństwo dużego przeszacowania
Matthew Gunn

Odpowiedzi:


12

Nexp[μ+1/2σ2]

X¯pE(Xi)

exp[μ^+1/2σ^2]pexp[μ+1/2σ2],
μ^pμσ^2pσ2

MLE nie jest jednak obiektywne.

Nμ^σ^2N=100N1μσ2

E(μ^+1/2σ^2)μ+1/2σ2

E[exp(μ^+1/2σ^2)]>exp[E(μ^+1/2σ^2)]exp[μ+1/2σ2]

N=100

N=1000

wprowadź opis zdjęcia tutaj

Utworzono za pomocą:

N <- 1000
reps <- 10000

mu <- 3
sigma <- 1.5
mm <- mle <- rep(NA,reps)

for (i in 1:reps){
  X <- rlnorm(N, meanlog = mu, sdlog = sigma)
  mm[i] <- mean(X)

  normmean <- mean(log(X))
  normvar <- (N-1)/N*var(log(X))
  mle[i] <- exp(normmean+normvar/2)
}
plot(density(mm),col="green",lwd=2)
truemean <- exp(mu+1/2*sigma^2)
abline(v=truemean,lty=2)
lines(density(mle),col="red",lwd=2,lty=2)

> truemean
[1] 61.86781

> mean(mm)
[1] 61.97504

> mean(mle)
[1] 61.98256

exp(μ+σ2/2)

Vt=(σ2+σ4/2)exp{2(μ+12σ2)},
exp{2(μ+12σ2)}(exp{σ2}1)
exp{σ2}>1+σ2+σ4/2,
exp(x)=i=0xi/i!σ2>0

NN <- c(50,100,200,500,1000,2000,3000,5000)

wprowadź opis zdjęcia tutaj

NNN=50

> tail(sort(mm))
[1] 336.7619 356.6176 369.3869 385.8879 413.1249 784.6867
> tail(sort(mle))
[1] 187.7215 205.1379 216.0167 222.8078 229.6142 259.8727 

N

1
N=100N

2
Cóż, jestem również zaskoczony, że istnieje tak duża różnica między tymi dwiema metodami, jednak ten przykład jest absolutnie idealny do wykazania, dlaczego „zwykłe uśrednianie” może być okropne!
JohnW

1
@JohnW, dodałem trochę analitycznego wyjaśnienia, dlaczego MLE ma mniejszą wariancję.
Christoph Hanck

1
NN
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.