Dlaczego liczba ciągłych zmiennych jednolitych na (0,1) potrzebnych do ich sumy przekraczającej jedną ma średnią ?


14

strumień zmiennych losowych, ; niech będzie liczbą warunków, których potrzebujemy, aby suma przekroczyła jeden, tj. jest najmniejszą liczbą taką, żeXiiidU(0,1)YY

X1+X2++XY>1.

Dlaczego średnia równa stałej Eulera ?Ye

E(Y)=e=10!+11!+12!+13!+

Publikuję to w duchu pytania do samodzielnej nauki, choć myślę, że po raz pierwszy zobaczyłem to pytanie ponad dekadę temu. Nie pamiętam, jak wtedy na nie odpowiedziałem, choć jestem pewien, że nie przyszło mi to do głowy, gdy zobaczyłem tę właściwość wspomnianą w wątku Przybliżone za pomocą symulacji Monte Carloe . Ponieważ podejrzewam, że jest to dość częste pytanie ćwiczeniowe, zdecydowałem się przedstawić szkic zamiast kompletnego rozwiązania, chociaż przypuszczam, że główne „ostrzeżenie spoilera” należy do samego pytania!
Silverfish,

Nadal jestem bardzo zainteresowany alternatywnymi podejściami; Wiem, że zostało to uwzględnione jako pytanie w teorii prawdopodobieństwa Gnedenko (pierwotnie w języku rosyjskim, ale szeroko przetłumaczone), ale nie wiem, jakie rozwiązanie było tam oczekiwane lub gdzie indziej.
Silverfish,

1
I napisał rozwiązanie symulacji w programie MATLAB przy użyciu swoje metody simplex. Nie wiedziałem o linku do simpleksów, to takie nieoczekiwane.
Aksakal,

Odpowiedzi:


14

Pierwsza obserwacja: Y ma bardziej przyjemny CDF niż PMF

Funkcją masy prawdopodobieństwa pY(n) jest prawdopodobieństwem, że n "tylko na tyle tylko" na całkowitą przekraczać jedności, to znaczy X1+X2+Xn przekracza jeden, a X1++Xn1 czyni nie.

Skumulowany rozkład FY(n)=Pr(Yn) po prostu wymaga, że n jest „wystarczające”, tj. i=1nXi>1 bez ograniczenia o ile. To wygląda na znacznie prostsze wydarzenie, aby poradzić sobie z prawdopodobieństwem.

Druga obserwacja: Y przyjmuje nieujemne wartości całkowite, więc E(Y) można zapisać w kategoriach CDF

Wyraźnie Y mogą przyjmować jedynie wartości w {0,1,2,} , więc możemy napisać jej średnia pod względem komplementarnej CDF , F¯Y .

E(Y)=n=0F¯Y(n)=n=0(1FY(n))

W rzeczywistości Pr(Y=0) i Pr(Y=1) są równe zeru tak, że pierwsze dwa terminy są E(Y)=1+1+ .

Jeśli chodzi o późniejsze terminy, jeśli FY(n) jest prawdopodobieństwem, że i=1nXi>1 , to jakie zdarzenie to F¯Y(n) prawdopodobieństwo?

Trzecie spostrzeżenie: (hiper) objętość n prostego to 1n!

n -simplex mieć na uwadze, że mieści się w przestrzeni pod standardowym urządzeniu (n1) -simplex w wszystkie pozytywne orthant z Rn : jest kadłub wypukła z (n+1) wierzchołkach, zwłaszcza pochodzenia oraz wierzchołki jednostki (n1) -implex w (1,0,0,) , (0,1,0,) itp.

volumes of 2-simplex and 3-simplex

Na przykład powyższy 2-simpleks z ma obszar 1x1+x21 a 3-simpleks zx1+x2+x31ma tom112x1+x2+x31 .16

Aby uzyskać dowód, który przebiega przez bezpośrednią ocenę całki dla prawdopodobieństwa zdarzenia opisanego przez , oraz linki do dwóch innych argumentów, zobacz ten wątek Math SE . Powiązany wątek może również być interesujący: Czy istnieje związek między e a sumą objętości n- prostych?F¯Y(n)en


1
Jest to interesujące podejście geometryczne i łatwe do rozwiązania w ten sposób. Piękny. Oto równanie dla objętości jednostronnej. Szczerze mówiąc, nie sądzę, że mogłoby być bardziej eleganckie rozwiązanie
Aksakal

1
+1 Możesz także uzyskać pełną dystrybucję z dowolnego podejścia w moim poście na stronie stats.stackexchange.com/questions/41467/… . Y
whuber

Gdybym natknął się na to rozwiązanie, nie ma mowy , żeby
zmusili

11

Napraw . Niech U i = X 1 + X 2 + + X in1 będą częściami ułamkowymi sum częściowych dla i = 1 , 2 , , n . Niezależny jednorodność X 1 i X i + 1 gwarancji, że U i + 1 jest tak samo może przekraczać ù I , jak to jest mniejsze od niego. Oznacza to, żewszystkie n ! uporządkowanie sekwencji ( U i ) jest równie prawdopodobne.

Ui=X1+X2++Ximod1
i=1,2,,nX1Xi+1Ui+1Uin!(Ui)

Biorąc pod uwagę sekwencję , możemy odzyskać sekwencję X 1 , X 2 , , X n . Aby zobaczyć, jak to zauważyć, zauważ toU1,U2,,UnX1,X2,,Xn

  • ponieważ oba są między 0 a 1 .U1=X101

  • Jeżeli , to X i + 1 = U i + 1 - U i .Ui+1UiXi+1=Ui+1Ui

  • W przeciwnym razie , skąd X i + 1 = U i + 1 - U i + 1 .Ui+Xi+1>1Xi+1=Ui+1Ui+1

Jest dokładnie jedna sekwencja, w której są już w porządku rosnącym, w którym to przypadku 1 > U n = X 1 + X 2 + + X n . Będąc jednym z n ! równie prawdopodobne sekwencje, ma szansę 1 / n ! wystąpienia. We wszystkich innych sekwencji jest co najmniej jeden etap ze U I do U i + 1 jest poza kolejnością. Oznacza to, że suma X i musiała być równa lub większa niż 1Ui1>Un=X1+X2++Xnn!1/n!UiUi+1Xi1. Tak to widzimy

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

Daje to prawdopodobieństwa dla całego rozkładu , ponieważ dla całki n 1Yn1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.


I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the e constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada


And could you add the proof with the uniform spacings as well?
Xi'an

@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber

I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an

6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1) and Y the minimum number of terms for U1+U2++UY>1, or expressed differently:

Y=min{n:i=1nUi>1}

If instead we looked for:

Y(u)=min{n:i=1nUi>u}
for u[0,1], we define the f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed u when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1), fY(y)=1. This would be it:

(1)f(u)=01E[Y(u)|U1=x]dx

If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(ux), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):

f(u)=1+0xf(ux)dx
, and with substituting w=ux we would have f(u)=1+0xf(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.


I do like the manner in which this generalises the result.
Silverfish
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.