Oczekiwana wartość zmiennej losowej jest średnią ważoną wszystkich możliwych wartości, które może przyjąć zmienna losowa, o wagach równych prawdopodobieństwu przyjęcia tej wartości.
Rozwiązanie problemu: minmE[|m−X|]minmE[|m−X|] \min_{m} \; E[|m-X|] jest dobrze znana jako mediana XXX , ale jak wygląda funkcja utraty dla innych percentyli? Np .: 25. percentyl X jest rozwiązaniem: minmE[L(m,X)]minmE[L(m,X)] \min_{m} \; E[ L(m,X) ] Co to jest LLL w tym przypadku?
Niech , , , i niech będą niezależni. Czego oczekuje się od ?X1X1X_1X2X2X_2⋯⋯\cdotsXd∼N(0,1)Xd∼N(0,1)X_d \sim \mathcal{N}(0, 1)X41(X21+⋯+X2d)2X14(X12+⋯+Xd2)2\frac{X_1^4}{(X_1^2 + \cdots + X_d^2)^2} Łatwo jest znaleźć symetrycznie. Ale nie wiem, jak znaleźć oczekiwanie na . Czy możesz podać jakieś wskazówki?E(X21X21+⋯+X2d)=1dE(X12X12+⋯+Xd2)=1d\mathbb{E}\left(\frac{X_1^2}{X_1^2 + \cdots + X_d^2}\right) = \frac{1}{d}X41(X21+⋯+X2d)2X14(X12+⋯+Xd2)2\frac{X_1^4}{(X_1^2 + \cdots + X_d^2)^2} Co dotychczas uzyskałem …
Załóżmy, X1,...,XnX1,...,XnX_1,...,X_n są IID z N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) i niech X(i)X(i)X_{(i)} oznaczają odpowiednio iii „th najmniejszy element z X1,...,XnX1,...,XnX_1,...,X_n . Jak można przekroczyć górną granicę oczekiwanego maksimum stosunku między dwoma kolejnymi elementami w X(i)X(i)X_{(i)} ? To znaczy, jak obliczyć górną granicę dla: E[maxi=1,...,n−1(X(i+1)X(i))]E[maxi=1,...,n−1(X(i+1)X(i))]E\left[\max\limits_{i=1,...,n-1}\left(\frac{X_{(i+1)}}{X_{(i)}}\right)\right] Literatura, którą udało mi się znaleźć, skupia się głównie …
Natknąłem się na ten wyprowadzeniu których nie rozumiem: jeśli X1,X2,...,XnX1,X2,...,XnX_1, X_2, ..., X_n są losowych próbek o wymiarach N zaczerpniętych z populacji średniej μμ\mu i wariancji σ2σ2\sigma^2 , a następnie X¯=(X1+X2+...+Xn)/nX¯=(X1+X2+...+Xn)/n\bar{X} = (X_1 + X_2 + ... + X_n)/n E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(\bar{X}) = E(X_1 + X_2 + ... + X_n)/n = (1/n)(E(X_1) …
Zastanawiałem się, gdzie istnieje ogólny wzór na powiązanie oczekiwanej wartości ciągłej zmiennej losowej w funkcji kwantyli tego samego rv Oczekiwana wartość rv jest zdefiniowana jako: i kwantyle są zdefiniowane jako: dla .E ( X ) = ∫ x d F X ( x ) Q p X = { x …
Przyjmij oczekiwanie na postać E(f(X))E(f(X))E(f(X)) dla pewnej zmiennej losowej jednowymiarowej XXX i całej funkcji f(⋅)f(⋅)f(\cdot) (tzn. Przedział zbieżności to cała linia rzeczywista) XXXμ≡E(x)μ≡E(x)\mu \equiv E(x)=F(μ)+ ∞ ∑ n=2f(n)(μ)E(f(x))=E(f(μ)+f′(μ)(x−μ)+f′′(μ)(x−μ)22!+…)E(f(x))=E(f(μ)+f′(μ)(x−μ)+f″(μ)(x−μ)22!+…) E(f(x)) = E\left(f(\mu) + f'(\mu)(x - \mu) + f''(\mu)\frac{(x - \mu)^2}{2!} +\ldots\right) Skróć tę serię, EN(f(x))=f(μ)+ N ∑ n=2f ( n ) …
Natknąłem się na problem kolektorów kuponów i próbowałem wypracować formułę na uogólnienie. Jeśli istnieje różnych obiektów i chcesz zebrać co najmniej kopii każdego z nich (gdzie m \ le N ), jakie jest oczekiwanie na liczbę losowych obiektów? Normalny problem z kolektorem kuponów ma m = N i k = …
Niech będzie zmienną losową w przestrzeni prawdopodobieństwa żeX:Ω→NX:Ω→NX:\Omega \to \mathbb N(Ω,B,P)(Ω,B,P)(\Omega,\mathcal B,P)E(X)=∑n=1∞P(X≥n).E(X)=∑n=1∞P(X≥n).E(X)=\sum_{n=1}^\infty P(X\ge n). moja definicja z jest równa E(X)E(X)E(X)E(X)=∫ΩXdP.E(X)=∫ΩXdP.E(X)=\int_\Omega X \, dP. Dzięki.
Zarówno funkcja logistyczna, jak i odchylenie standardowe są zwykle oznaczane . Będziemy używać i y dla standardowego odchylenia.σ ( x ) = 1 / ( 1 + exp ( - x ) ) sσσ\sigmaσ(x)=1/(1+exp(−x))σ(x)=1/(1+exp(−x))\sigma(x) = 1/(1+\exp(-x))sss Mam logistycznego neuron z wejściem losowej którego średnia μμ\mu i odchylenie standardowe sss wiem. …
Mamy talię kart. Losujemy z niego karty jednolicie losowo z wymianą. Po 2 n losowaniach, jakiej oczekiwanej liczby kart nigdy nie wybrałeś?nnn2n2n2n To pytanie jest częścią 2 problemu 2.12 w M. Mitzenmacher i E. Upfal, Prawdopodobieństwo i obliczenia: randomizowane algorytmy i analiza probabilistyczna , Cambridge University Press, 2005. Co więcej, …
Według (słabego / silnego) prawa dużych liczb, biorąc pod uwagę niektóre punkty próbki iid rozkładu, ich średnia próbka f ∗ ( { x i , i = 1 , … , N } ) : = 1{xi∈Rn,i=1,…,N}{xi∈Rn,i=1,…,N}\{x_i \in \mathbb{R}^n, i=1,\ldots,N\}zbieżne ze średnią rozkładu zarówno w prawdopodobieństwie, jak i w miarę, …
Pracuję nad projektem badawczym związanym z optymalizacją, a ostatnio wpadłem na pomysł, aby użyć MCMC w tym ustawieniu. Niestety, jestem dość nowy w metodach MCMC, więc miałem kilka pytań. Zacznę od opisu problemu, a następnie zadam pytania. Nasz problem sprowadza się do oszacowania oczekiwanej wartości funkcji kosztu gdzie jest losową …
Dla ciągłej zmiennej losowej XXX , jeśli E(|X|)E(|X|)E(|X|) jest skończone, to czy limn→∞nP(|X|>n)=0limn→∞nP(|X|>n)=0\lim_{n\to\infty}n P(|X|>n)=0 ? Jest to problem, który znalazłem w Internecie, ale nie jestem pewien, czy się utrzymuje. Wiem, że nP(|X|>n)<E(|X|)nP(|X|>n)<E(|X|)n P(|X|>n)<E(|X|) utrzymuje nierówność Markowa, ale nie mogę pokazać, że idzie do 0, gdy nnn idzie do nieskończoności.
Mam następujący problem: Mam 100 unikalnych przedmiotów (n) i wybieram 43 (m) pojedynczo (z wymianą). Muszę rozwiązać dla oczekiwanej liczby unikatów (wybranych tylko raz, k = 1), podwójnych (wybrane dokładnie dwa razy k = 2), potrójnych (dokładnie k = 3), quadów itp. Udało mi się znaleźć wiele wyników dotyczących prawdopodobieństwa …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.