Oczekiwanie odwrotności zmiennej


Odpowiedzi:


27

czy może być 1 / E (X)?

Nie, generalnie nie może; Nierówność Jensena mówi nam, że jeśli jest zmienną losową, a φ jest funkcją wypukłą, to φ ( E [ X ] ) E [ φ ( X ) ] . Jeśli X jest ściśle dodatni, wówczas 1 / X jest wypukły, więc E [ 1 / X ] 1 / E [ X ] , a dla funkcji ściśle wypukłej równość występuje tylko wtedy, gdy XXφφ(E[X])E[φ(X)]X1/XE[1/X]1/E[X]Xma zerową wariancję ... więc w przypadkach, w których zwykle jesteśmy zainteresowani, oba są generalnie nierówne.

Zakładając, że mamy do czynienia ze zmienną dodatnią, jeśli jest dla ciebie jasne, że i 1 / X będą odwrotnie powiązane ( Cov ( X , 1 / X ) 0 ), oznacza to, że E ( X 1 / X ) - E ( X ) E ( 1 / X ) 0, co implikuje E ( X ) E ( 1 / X ) X1/XCov(X,1/X)0E(X1/X)E(X)E(1/X)0 , więc E ( 1 / X ) 1 / E ( X ) .E(X)E(1/X)1E(1/X)1/E(X)

Jestem zdezorientowany w stosowaniu oczekiwań w mianowniku.

Korzystaj z prawa nieświadomego statystyki

E[g(X)]=g(x)faX(x)rex

(w przypadku ciągłym)

więc gdy ,E[1sol(X)=1XE[1X]=f(x)xdx

W niektórych przypadkach oczekiwanie może być ocenione przez inspekcję (np. Za pomocą zmiennych losowych gamma) lub przez wyprowadzenie rozkładu odwrotności lub za pomocą innych środków.


14

Jak mówi Glen_b, to prawdopodobnie źle, ponieważ odwrotność jest funkcją nieliniową. Jeśli chcesz uzyskać przybliżenie do E(1/X) być może możesz użyć rozszerzenia Taylora wokół E(X) :

E(1X)E(1E(X)1E(X)2(XE(X))+1E(X)3(XE(X))2)==1E(X)+1E(X)3Var(X)
więc potrzebujesz tylko średniej i wariancji X, a jeśli rozkładXjest symetryczny, to przybliżenie może być bardzo dokładne.

EDYCJA: być może powyższe jest dość krytyczne, patrz komentarz BioXX poniżej.


o tak tak ... Bardzo przepraszam, że nie mogłem zrozumieć tego faktu ... Mam jeszcze jedno q ... Czy dotyczy to jakiejkolwiek funkcji ??? właściwie utknąłem z ... Jak można oczekiwać | x | można wywnioskować w kategoriach E ( x ) i V ( x )|x||x|E(x)V(x)
Sandipan Karmakar

2
Nie sądzę, że możesz go użyć do ponieważ tej funkcji nie można rozróżnić. Wolę podzielić problem na przypadki i powiedzieć E ( | X | ) = E ( X | X > 0 ) p ( X > 0 ) + E ( - X | X < 0 ) p ( X < 0 ) , I odgadnąć. |X|E(|X|)=E(X|X>0)p(X>0)+E(X|X<0)p(X<0)
Matteo Fasiolo

1
@MatteoFasiolo Czy możesz wyjaśnić, dlaczego symetria rozkładu (lub jej brak) ma wpływ na dokładność przybliżenia Taylora? Czy masz źródło, do którego możesz mi wskazać, co wyjaśnia, dlaczego tak jest? X
Aaron Hendrickson

1
@AaronHendrickson my rozumowanie jest po prostu, że następny okres w rozwinięciu jest proporcjonalna do , który odnosi się do asymetrii rozkładu X . Skośność jest miarą asymetrii. Jednak zerowa skośność nie gwarantuje symetrii i nie jestem pewien, czy symetria gwarantuje zerową skośność. Stąd wszystko to jest heurystyczne i może być wiele kontrprzykładów. E{(XE(X))3}X
Matteo Fasiolo

4
Nie rozumiem, w jaki sposób to rozwiązanie zdobywa tak wiele pozytywnych opinii. W przypadku pojedynczej zmiennej losowej nie ma uzasadnienia co do jakości tego przybliżenia. Trzecia pochodna f ( x ) = 1 / x nie jest ograniczona. Ponadto pozostała część ok. wynosi 1 / 6 F ( ξ ) ( X - μ ) 3 , gdzie ξ sama jest zmienną losową pomiędzy X i ľXf(x)=1/x1/6f(ξ)(Xμ)3ξXμ. Reszta w ogóle nie zniknie i może być bardzo duża. Taylor ok. może być użyteczne tylko wtedy, gdy ma się ciąg zmiennych losowych gdzie a n0 . Nawet wtedy wymagana jest jednolita integralność, jeśli zainteresowani są oczekiwaniami. Xnμ=Op(an)an0
BloXX,

8

Inni już wyjaśnili, że odpowiedź na to pytanie brzmi NIE, z wyjątkiem trywialnych przypadków. Poniżej podajemy podejście do znalezienia gdyX>0z prawdopodobieństwem jeden oraz funkcja generująca momentMX(t)=EetXistnieją. Zastosowanie tej metody (i uogólnienie) podano wOczekiwanej wartości1/x,gdyxnastępuje po rozkładzie Beta, podamy tutaj również prostszy przykład.E1XX>0MX(t)=EetX1/xx

Najpierw zwróć uwagę, że (proste ćwiczenie rachunku różniczkowego). Następnie napisz E(10etxdt=1x

E(1X)=0x1f(x)dx=0(0etxdt)f(x)dx=0(0etxf(x)dx)dt=0MX(t)dt
A simple application: Let X have the exponential distribution with rate 1, that is, with density ex,x>0 and moment generating function MX(t)=11t,t<1. Then 0MX(t)dt=011+tdt=ln(1+t)|0=, so definitely do not converge, and is very different from 1EX=11=1.

7

An alternative approach to calculating E(1/X) knowing X is a positive random variable is through its moment generating function E[eλX]. Since by elementary calculas

0eλxdλ=1x
we have, by Fubini's theorem
0E[eλX]dλ=E[1X].

2
The idea here is right, but the details wrong. Pleasecheck
kjetil b halvorsen

1
@Kjetil I don't see what the problem is: apart from the inconsequential differences of using tX instead of tX in the definition of the MGF and naming the variable t instead of λ, the answer you just posted is identical to this one.
whuber

1
You are right, the problems was less than I thought. Still this answer would be better withm some more details. I will upvote this tomorrow ( when I have new votes)
kjetil b halvorsen

1

To first give an intuition, what about using the discrete case in finite sample to illustrate that E(1/X)1/E(X) (putting aside cases such as E(X)=0)?

In finite sample, using the term average for expectation is not that abusive, thus if one has on the one hand

E(X)=1Ni=1NXi

and one has on the other hand

E(1/X)=1Ni=1N1/Xi

it becomes obvious that, with N>1,

E(1/X)=1Ni=1N1/XiNi=1NXi=1/E(X)

Which leads to say that, basically, E(1/X)1/E(X) since the inverse of the (discrete) sum is not the (discrete) sum of inverses.

Analogously in the asymptotic 0-centered continuous case, one has

E(1/X)=f(x)xdx1/xf(x)dx=1/E(X).

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.