Cóż, jeśli masz próbkę z rozkładu pareto z parametrami i (gdzie jest dolnym ograniczonym parametrem, a jest parametrem kształtu), prawdopodobieństwo logarytmu tego próbka to: m > 0 α > 0 m αX1,...,Xnm>0α>0mα
n log( α ) + n α log( m ) - ( α + 1 ) ∑i = 1nlog( Xja)
jest to monotonicznie rosnąca , więc maksymalizator jest największą wartością zgodną z obserwowanymi danymi. Ponieważ parametr określa dolną granicę podparcia dla rozkładu Pareto, optymalne jestmmm
m^= minjaXja
co nie zależy od . Następnie, używając zwykłych sztuczek rachunku różniczkowego, MLE dla musi spełniaćααα
nα+ n log( m^) - ∑i = 1nlog( Xja) = 0
jakaś prosta algebra mówi nam, że MLE z jestα
α^= n∑ni = 1log( Xja/ m^)
W wielu ważnych aspektach (np. Optymalna wydajność asymptotyczna, ponieważ osiąga dolną granicę Cramer-Rao), jest to najlepszy sposób dopasowania danych do rozkładu Pareto. Kod R poniżej oblicza MLE dla danego zestawu danych X
.
pareto.MLE <- function(X)
{
n <- length(X)
m <- min(X)
a <- n/sum(log(X)-log(m))
return( c(m,a) )
}
# example.
library(VGAM)
set.seed(1)
z = rpareto(1000, 1, 5)
pareto.MLE(z)
[1] 1.000014 5.065213
Edycja: Na podstawie komentarza @cardinal i I poniżej możemy również zauważyć, że jest odwrotnością średniej próbki z , które zdarzają się mieć rozkład wykładniczy. Dlatego jeśli mamy dostęp do oprogramowania, które może pasować do rozkładu wykładniczego (co jest bardziej prawdopodobne, ponieważ wydaje się, że pojawia się w wielu problemach statystycznych), wówczas dopasowanie rozkładu Pareto można osiągnąć poprzez transformację zestawu danych w ten sposób i dopasowanie go do rozkładu wykładniczego w przekształconej skali. log(Xi/ m )α^log( Xja/ m^)