Analiza kulek i pojemników w reżimie


23

mnmnXiiXmaxXminXsecmaxXiXjN(0,2m/n)|XiXj|=Θ(m/n) i,jXmaxXmin=O(mlogn/n)n/2 pary rozłącznych pojemników. Ten (nie do końca formalny) argument prowadzi nas do oczekiwania, że ​​różnica między Xmax aXmin to Θ(mlogn/n) z dużym prawdopodobieństwem.

Interesuje mnie różnica między Xmax a Xsecmax . Przedstawiony powyżej argument pokazuje, że XmaxXsecmax=O(mlogn/n) z dużym prawdopodobieństwem, ale czynnik logn wydaje się obcy . Czy coś wiadomo o dystrybucji XmaxXsecmax ?

Mówiąc bardziej ogólnie, załóżmy, że każda piłka jest powiązana z nieujemnym wynikiem dla każdego kosza, a my jesteśmy zainteresowani całkowitym wynikiem każdego kosza po rzuceniu piłek. Zwykły scenariusz odpowiada wynikom formularza . Załóżmy, że rozkład prawdopodobieństwa wyników jest niezmienny w permutacji pojemników (w zwykłym scenariuszu odpowiada to temu, że wszystkie pojemniki są równoważne). Biorąc pod uwagę rozkład wyników, możemy użyć metody z pierwszego akapitu, aby uzyskać dobre wiązanie na . Powiązanie będzie zawierało współczynnikm(0,,0,1,0,,0)XmaxXminlogn który pochodzi z granicy związku (poprzez prawdopodobieństwa ogona zmiennej normalnej). Czy ten czynnik można zmniejszyć, jeśli jesteśmy zainteresowani ograniczeniemXmaxXsecmax ?


Każdy wynik to [0,1]?
Neal Young,

To tak naprawdę nie ma znaczenia, zawsze możesz go skalować, aby był w[0,1] .
Yuval Filmus

Odpowiedzi:


21

Odpowiedź: Θ(mnlogn).

Stosując wielowymiarową wersję centralnego twierdzenia granicznego, otrzymujemy, że wektor (X1,,Xn) ma asymptotycznie wielowymiarowy rozkład Gaussa z

Var[Xi]=m(1n1n2),
a
Cov(Xi,Xj)=m/n2.
Zakładamy poniżej, żeX jestwektorem Gaussa (i nie tylko w przybliżeniu wektorem Gaussa). Dodajmy losową zmienną GaussaZo wariancjim/n2do wszystkichXi(Zjest niezależne od wszystkichXi). To znaczy, niech
(Y1Y2Yn)=(X1+ZX2+ZXn+Z).
Otrzymujemy wektor gaussowski(Y1,,Yn). Teraz każdeYima wariancjęm/n: a wszystkieYisą niezależne: Cov(Yi,Yj)=Cov(Xi,Xj)+ C o v ( X i , Z ) + C o v ( X j , Z )
Var[Yi]=Var[Xi]+2Cov(Xi,Z)=0+Var[Z]=m/n,
Yi
Cov(Yi,Yj)=Cov(Xi,Xj)+Cov(Xi,Z)+Cov(Xj,Z)=0+Cov(Z,Z)=0.

Zauważ, że . Zatem nasz pierwotny problem jest równoważny problemowi znalezienia Y m a x - Y s e c - m a x . Niech nam najpierw dla uproszczenia analizy przypadku, gdy wszystkie Y i mają wariancję 1 .YiYj=XiXjYmaxYsecmaxYi1

Problem. Otrzymujemy niezależnego gaussowskiego rv γ 1 , , γ n ze średnią μ i wariancją 1 . Oszacuj oczekiwanie γ m a x - γ s e c - m a x .nγ1,,γnμ1γmaxγsecmax

Odpowiedź: .Θ(1logn)

Nieformalny dowód. Oto nieformalne rozwiązanie tego problemu (nie jest trudne sformalizowanie go). Ponieważ odpowiedź nie zależy od średniej, zakładamy, że . Niech ˉ Φ ( t ) = Pr [ γ > t ] , gdzie γ N ( 0 , 1 ) . Mamy (dla umiarkowanie dużego t ), ˉ Φ ( t ) 1μ=0Φ¯(t)=Pr[γ>t]γN(0,1)t

Φ¯(t)12πte12t2.

Zauważ, że

  • są równomiernie i niezależnie rozmieszczone w [ 0 , 1 ] ,Φ(γi)[0,1]

  • jest najmniejszą spośród Φ ( γ i ) ,Φ(γmax)Φ(γi)

  • jest drugim najmniejszym spośród Φ ( γ i ) .Φ(γsecmax)Φ(γi)

Zatem jest bliskie 1 / n, a Φ ( γ m a x ) jest bliskie 2 / n (nie ma koncentracji, ale jeśli nie dbamy o stałe, te szacunki są wystarczająco dobre; w rzeczywistości , są nawet całkiem dobre, jeśli zależy nam na stałych - ale to wymaga uzasadnienia). Stosując wzór na ˉ Φ ( t ) , otrzymujemy, że 2 ˉ Φ ( γ s e c - mΦ(γmax)1/nΦ(γmax)2/nΦ¯(t)

2Φ¯(γsecmax)/Φ¯(γmax)e12(γmax2γsecmax2).

Zatem wynosi Θ ( 1 ) whp Zauważ, że γ m a xγ s e c - m a x = Θ ( γmax2γsecmax2Θ(1). Mamy, γ m a x -γ s e c - m a x Θ ( 1 )γmaxγsecmax=Θ(logn)

γmaxγsecmaxΘ(1)γmax+γsecmaxΘ(1)logn.

CO BYŁO DO OKAZANIA

Otrzymujemy, że

E[XmaxXsecmax]=E[YmaxYsecmax]=Var[Yi]×E[γmaxγsecmax]=Θ(mnlogn).

Ten sam argument pojawia się, gdy mamy arbitralne wyniki. Pokazuje, że

E[XmaxXsecmax]=cE[XmaxXmin]/logn.

2
Thanks! I'll remember to try the multivariate Gaussian approximation next time.
Yuval Filmus

5
Zm/n2Xi(Y1,,Yn)Yim/n and all Yi are not correlated... Note that YiYj=XiXj." Can you expand on this part? Is Zi=Zj? If the Xi's are dependent, and the Zi's are independent (or uniformly the same), how can the Yi's be independent? (Seems like a neat trick but I don't understand it.) Thanks.
Neal Young

1
@NealYoung, yes, if we have variables X1,,Xn with negative pairwise correlation and all covariances Cov(Xi,Xj) are equal, then we can add a single new random variable Z to all Xi such that the sums are independent. Also, if the variables have positive correlation and again all covariances Cov(Xi,Xj) are equal then we can subtract a single r.v. Z from all of them so that all the differences are independent; but now Z is not independent from Xi but rather Z=α(X1++Xn) for some scaling parameter α.
Yury

1
Ah I see. at least algebraically, all it rests on is the pairwise independence of Z and each Xi. very cool.
Suresh Venkat

1
This argument now appears (with attribution) in an EC'14 paper: dl.acm.org/citation.cfm?id=2602829.
Yuval Filmus

13

For your first question, I think you can show that w.h.p. XmaxXsec-max is

o(mnlog2lognlogn).
Note that this is o(m/n).

Compare your random experiment to the following alternative: Let X1 be the maximum load of any of the first n/2 buckets. Let X2 be the maximum load of any of the last n/2 buckets.

On consideration, |X1X2| is an upper bound on XmaxXsecmax. Also, with probability at least one half, |X1X2|=XmaxXsecmax. So, speaking roughly, XmaxXsecmax is distributed similarly to |X1X2|.

To study |X1X2|, note that with high probability m/2±O(m) balls are thrown into the first n/2 bins, and likewise for the last n/2 bins. So X1 and X2 are each distributed essentially like the maximum load when throwing m=m/2±o(m) balls into n=n/2 bins.

This distribution is well-studied and, luckily for this argument, is tightly concentrated around its mean. For example, if mnlog3n, then with high probability X1 differs from its expectation by at most the quantity displayed at the top of this answer [Thm. 1]. (Note: this upper bound is, I think, loose, given Yuri's answer.) Thus, with high probability X1 and X2 also differ by at most this much, and so Xmax and Xmaxsec differ by at most this much.

Conversely, for a (somewhat weaker) lower bound, if, for any t, say, Pr[|X1X2|t]3/4, then Pr[XmaxXsec-maxt] is at least

Pr[|X1X2|t  XmaxXsec-max=|X1X2|]
which (by the naive union bound) is at least 1(1/4)(1/2)=1/4. I think this should give you (for example) the expectation of XmaxXsec-max within a contant factor.

Looking at Thm. 1, the difference from the expectation is O((m/n)loglogn), and not what you wrote. That's still much better than O((m/n)logn).
Yuval Filmus

By Thm. 1 (its 3rd case), for any ϵ>0, with probability 1o(1), the maximum in any bin (m balls in n bins) is
mn+2mlognn1(1±ϵ)loglogn2logn.
By my math (using 1δ=1O(δ)), the ±ϵ term expands to an additive absolute term of
O(ϵ)mlognn loglognlogn = O(ϵ)mn log2lognlogn.
What am I doing wrong?
Neal Young

Ah - I guess you're right. I subtracted inside the square root and that's how I got my figure.
Yuval Filmus
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.