Pytania otagowane jako conditional-expectation

Oczekiwanie warunkowe to oczekiwanie zmiennej losowej, posiadającej informację o innej zmiennej lub zmiennych (najczęściej poprzez określenie ich wartości).

1
Notacja w indeksie dolnym w oczekiwaniach
Jakie jest dokładne znaczenie notacji indeksu dolnego w oczekiwaniach warunkowych w ramach teorii miar? Te indeksy dolne nie pojawiają się w definicji warunkowego oczekiwania, ale możemy zobaczyć na przykład na tej stronie wikipedii . (Pamiętaj, że nie zawsze tak było, ta sama strona kilka miesięcy temu).EX[f(X)]EX[f(X)]\mathbb{E}_X[f(X)] Jakie powinno być na …

3
Uogólnienie Prawa Iterowanych Oczekiwań
Ostatnio natknąłem się na tę tożsamość: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Oczywiście jestem zaznajomiony z prostszą wersją tej reguły, a mianowicie, że ale nie byłem w stanie znaleźć uzasadnienia dla jego uogólnienie.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) Byłbym wdzięczny, gdyby ktoś mógł …

3
Intuicja warunkowego oczekiwania na -algebra
Niech będzie przestrzenią prawdopodobieństwa, biorąc pod uwagę zmienną losową i a -algebra możemy zbudować nową zmienną losową , która jest warunkowym oczekiwaniem.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] Jaka jest intuicja do …

4
Problem z dowodem warunkowego oczekiwania jako najlepszego predyktora
Mam problem z dowodem E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] które najprawdopodobniej ujawnią głębsze nieporozumienie oczekiwań i oczekiwań warunkowych. Dowód, który znam, wygląda następująco (inną wersję tego dowodu można znaleźć tutaj ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - …



4
Oczekiwana wartość mediany próbki na podstawie średniej próbki
Niech oznacza medianę i niech oznacza średnią losowej próbki o wielkości z rozkładu, który jest . Jak obliczyć E (Y | \ bar {X} = \ bar {x}) ?YYYˉXX¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|ˉX=ˉx)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Intuicyjnie, ze względu na założenie normalności, sensowne jest twierdzenie, że E(Y|ˉX=ˉx)=ˉxE(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} i rzeczywiście jest to poprawna odpowiedź. Czy można to jednak …

2
Prawo całkowitej wariancji jako twierdzenie Pitagorasa
Załóżmy, że XXX i YYY mają skończony drugi moment. W przestrzeni Hilberta zmiennych losowych z drugim momentem skończonym (z iloczynem wewnętrznym T1,T2T1,T2T_1,T_2 zdefiniowanym przez E(T1T2)E(T1T2)E(T_1T_2) , ||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2) ), możemy interpretować E(Y|X)E(Y|X)E(Y|X) w rzucie YYY na przestrzeni funkcji XXX . Wiemy również, że prawo całkowitej wariancji brzmi Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + Var(E(Y|X)) Czy …

3
Jeśli są IID, to oblicz , gdzie
Pytanie Jeśli są IID, to oblicz , gdzie .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Próba : Sprawdź, czy poniższe informacje są prawidłowe. Powiedzmy, że bierzemy sumę tych warunkowych oczekiwań, tak, że: ∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = \mathbb{E}\left( \sum_i X_i \mid T \right) …

2
Warunkowe oczekiwanie wykładniczej zmiennej losowej
W przypadku zmiennej losowej ( ) Intuicyjnie czuję, że powinno być równe ponieważ według właściwości bez pamięci rozkład jest taki sam jak ale przesunięty w prawo o .X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda)E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda}E[X|X>x]E[X|X>x]\mathbb{E}[X|X > x]x+E[X]x+E[X]x + \mathbb{E}[X]X|X>xX|X>xX|X > xXXXxxx Jednak staram się użyć właściwości bez pamięci, aby dać konkretny dowód. Każda pomoc …

4
Oczekiwany numer będę włączony po wyciągnięciu kart, dopóki nie otrzymam asa, 2, 3 itd
Mam problem z rozwiązaniem poniższych problemów. Dobierasz karty ze standardowej talii 52 kart bez wymiany, dopóki nie otrzymasz asa. Dobierasz z tego, co pozostało, dopóki nie dostaniesz 2. Kontynuujesz z 3. Jakiej oczekiwanej liczby będziesz się spodziewać po wyczerpaniu całej talii? To było naturalne pozwolić Ti=first position of card whose …

1
Dokładny test Fishera i rozkład hipergeometryczny
Chciałem lepiej zrozumieć dokładny test Fishera, więc wymyśliłem następujący przykład zabawki, w którym f i m odpowiada płci męskiej i żeńskiej, a n i y odpowiada takiemu „zużyciu sody”: > soda_gender f m n 0 5 y 5 0 Oczywiście jest to drastyczne uproszczenie, ale nie chciałem, aby kontekst przeszkadzał. …

1
R / mgcv: Dlaczego produkty tensorowe te () i ti () wytwarzają różne powierzchnie?
mgcvOpakowanie Rposiada dwie funkcje montowania interakcji produktów napinacz: te()i ti(). Rozumiem podstawowy podział pracy między nimi (dopasowanie interakcji nieliniowej vs. rozkładanie tej interakcji na główne efekty i interakcję). To, czego nie rozumiem, to dlaczego te(x1, x2)i ti(x1) + ti(x2) + ti(x1, x2)może powodować (nieznacznie) różne wyniki. MWE (dostosowany z ?ti): …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Łatwiejszy sposób na znalezienie ?
Rozważ 3 próbki pobrane z rozkładu jednolitego , gdzie jest parametrem. Chcę znaleźć gdzie to statystyka zamówień .u(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE [X( 2 )|X( 1 ),X( 3 )]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X( i )X(i)X_{(i)}jaii Spodziewałbym się, że wynikiem będzie Ale jedynym sposobem na pokazanie tego wyniku wydaje się być zbyt długo, nie …

1
Oczekiwanie na produkty wyższego rzędu o normalnych rozkładach
Mam dwie normalnie rozmieszczone zmienne i ze średnią zerową i macierzą kowariancji . Jestem zainteresowany próbą obliczenia wartości w kategoriach wpisów .X1X1X_1X2X2X_2ΣΣ\SigmaE[X21X22]E[X12X22]E[X_1^2 X_2^2]ΣΣ\Sigma Użyłem prawa całkowitego prawdopodobieństwa, aby uzyskać ale nie jestem pewien, do czego sprowadza się wewnętrzne oczekiwanie. Czy jest tu inna metoda?E[X21X22]=E[X21E[X22|X1]]E[X12X22]=E[X12E[X22|X1]]E[X_1^2 X_2^2] = E[X_1^2 E[X_2^2 | X_1]] …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.