Pytania otagowane jako self-study

Rutynowe ćwiczenie z podręcznika, kursu lub testu stosowane na zajęciach lub do samodzielnej nauki. Polityka tej społeczności polega na „udzielaniu pomocnych wskazówek” w przypadku takich pytań, a nie na udzielaniu pełnych odpowiedzi.

1
Bezstronny estymator z minimalną wariancją dla
Niech będzie losową próbką o rozkładzie dla . To znaczy,X1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Znajdź obiektywny estymator o minimalnej wariancji dlag(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Moja próba: Ponieważ rozkład geometryczny pochodzi z rodziny wykładniczej, statystyki jest kompletna i wystarczająca dla . Ponadto, jeśli jest estymatorem dla , jest on bezstronny. Dlatego według twierdzenia Rao-Blackwella …

1
Rodzina wykładnicza: obserwowane a oczekiwane wystarczające statystyki
Moje pytanie wynika z przeczytania „Szacowania rozkładu Dirichleta” Minki , który stwierdza bez dowodu w kontekście wyprowadzenia estymatora największego prawdopodobieństwa dla rozkładu Dirichleta na podstawie obserwacji losowych wektorów: Jak zawsze w przypadku rodziny wykładniczej, gdy gradient wynosi zero, oczekiwane wystarczające statystyki są równe zaobserwowanym wystarczającym statystykom. Nie widziałem oszacowania maksymalnego …

1
Zaloguj prawdopodobieństwo dla GLM
W poniższym kodzie wykonuję regresję logistyczną zgrupowanych danych za pomocą glm i „ręcznie” za pomocą mle2. Dlaczego funkcja logLik w R daje mi logarytm logLik (fit.glm) = - 2,336, który jest inny niż logLik (fit.ml) = - 5,514, który otrzymuję ręcznie? library(bbmle) #successes in first column, failures in second Y …

3
Ćwiczenie 2.2 elementów uczenia statystycznego
Podręcznik najpierw generuje dane 2-klasowe poprzez: co daje: a następnie pyta: Próbuję rozwiązać ten problem, najpierw modelując to za pomocą tego modelu graficznego: gdzie ccc jest etykieta, h(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10) jest indeksem wybranej średniej mchmhcm_h^c, i xxxjest punktem danych. To da Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} \Pr(x\mid m_h^c) =& \mathcal{N}(m_h^c,\mathbf{I}/5)\\ \Pr(m_h^c\mid h,c=\mathrm{blue}) …

4
Model historii zdarzeń dyskretnych (przeżycie) w R.
Próbuję dopasować model czasu dyskretnego do R, ale nie jestem pewien, jak to zrobić. Czytałem, że możesz zorganizować zmienną zależną w różnych wierszach, po jednym dla każdej obserwacji czasu, i użyć glmfunkcji z łączem logit lub cloglog. W tym sensie, mam trzy kolumny: ID, Event(1 lub 0, w każdym okresie …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R regresja liniowa zmienna kategorialna „ukryta” wartość
To tylko przykład, na który natknąłem się kilka razy, więc nie mam żadnych przykładowych danych. Uruchamianie modelu regresji liniowej w R: a.lm = lm(Y ~ x1 + x2) x1jest zmienną ciągłą. x2jest kategoryczny i ma trzy wartości, np. „Niska”, „Średnia” i „Wysoka”. Jednak dane wyjściowe podane przez R byłyby mniej …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


2
Prawdopodobieństwo
Załóżmy, że i są niezależnymi losowymi zmiennymi geometrycznymi o parametrze . Jakie jest prawdopodobieństwo, że ?X1X1X_1X2X2X_2pppX1≥X2X1≥X2X_1 \geq X_2 Jestem zdezorientowany tym pytaniem, ponieważ nie powiedziano nam nic o i poza tym, że są geometryczne. Czy nie byłoby to ponieważ i mogą być czymkolwiek w tym zakresie?X1X1X_1X2X2X_250%50%50\%X1X1X_1X2X2X_2 EDYCJA: Nowa próba P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1 …

3
Niezależność statystyki od rozkładu gamma
Niech będzie losową próbką z rozkładu gamma .X1,...,XnX1,...,XnX_1,...,X_nGamma(α,β)Gamma(α,β)\mathrm{Gamma}\left(\alpha,\beta\right) Niech i będą odpowiednio średnią próbną i wariancją próbki.X¯X¯\bar{X}S2S2S^2 Następnie udowodnij lub obal, że i są niezależne.X¯X¯\bar{X}S2/X¯2S2/X¯2S^2/\bar{X}^2 Moja próba: Ponieważ , musimy sprawdzić niezależnośćS2/X¯2=1n−1∑ni=1(XiX¯−1)2S2/X¯2=1n−1∑i=1n(XiX¯−1)2S^2/\bar{X}^2 = \frac{1}{n-1} \sum_{i=1}^n \left(\frac{X_i}{\bar{X}}-1\right)^2 X¯X¯\bar{X}i , ale jak mam ustalić niezależność między nimi?(XiX¯)ni=1(XiX¯)i=1n\left(\frac{X_i}{\bar{X}} \right)_{i=1}^{n}

2
Seans
Gdyby X∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1), znajdź rozkład Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2}. Mamy FY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈ ( - 1 ,- 1 +1 +y2)√y] ) ,jeśliy&gt; 0P r ( X∈ ( - 1 ,- 1 +1 +y2)√y] ) + P r ( X∈ ( 1 ,- 1 -1 +y2)√y] ) ,jeśliy&lt; 0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify&gt;0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify&lt;0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad …

3
Co wyższe, lub
Miałem więc test prawdopodobieństwa i tak naprawdę nie mogłem odpowiedzieć na to pytanie. Poprosił tylko o coś takiego: „Biorąc pod uwagę, że jest zmienną losową, 0 , użyj poprawnej nierówności, aby udowodnić, co jest wyższe lub równe, E (X ^ 2) ^ 3 lub E (X ^ 3) ^ 2 …

2
Czy właściwość niezmienniczości estymatora ML jest bezsensowna z perspektywy Bayesa?
Casella i Berger podają właściwość niezmienniczości estymatora ML w następujący sposób: Wydaje mi się jednak, że określają „prawdopodobieństwo” ηη\eta w całkowicie doraźny i bezsensowny sposób: Jeśli zastosuję podstawowe zasady teorii prawdopodobieństwa do prostego przypadku, gdzieś η=τ(θ)=θ2η=τ(θ)=θ2\eta=\tau(\theta)=\theta^2Zamiast tego otrzymuję następujące informacje: L(η|x)=p(x|θ2=η)=p(x|θ=−η–√∨θ=η–√)=:p(x|A∨B)L(η|x)=p(x|θ2=η)=p(x|θ=−η∨θ=η)=:p(x|A∨B)L(\eta|x)=p(x|\theta^2=\eta)=p(x|\theta = -\sqrt \eta \lor \theta = \sqrt \eta)=:p(x|A \lor …

1
Który model głębokiego uczenia może klasyfikować kategorie, które nie wykluczają się wzajemnie
Przykłady: w opisie stanowiska mam zdanie: „Starszy inżynier Java w Wielkiej Brytanii”. Chcę użyć modelu głębokiego uczenia się, aby przewidzieć go jako 2 kategorie: English i IT jobs. Jeśli użyję tradycyjnego modelu klasyfikacji, może on przewidzieć tylko 1 etykietę z softmaxfunkcją na ostatniej warstwie. Dlatego mogę użyć 2 modelowych sieci …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

4
Jak interpretować krzywą przeżycia modelu zagrożenia Coxa?
Jak interpretujesz krzywą przeżycia z proporcjonalnego modelu hazardu Coxa? W tym przykładzie zabawki załóżmy, że mamy proporcjonalny model hazardu Coxa dla agezmiennej w kidneydanych i generujemy krzywą przeżycia. library(survival) fit &lt;- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Na przykład o czasie 200200200, które stwierdzenie jest prawdziwe? czy oba są w …

1
Błędy normalnie rozłożone i centralne twierdzenie graniczne
We wstępnej ekonometrii Wooldridge'a jest cytat: Argument uzasadniający normalną dystrybucję błędów zwykle działa mniej więcej tak: ponieważ uuu jest sumą różnych wpływających na nie zaobserwowanych czynników yyy, możemy odwołać się do centralnego twierdzenia o granicy, aby dojść do wniosku uuu ma przybliżony rozkład normalny. Ten cytat dotyczy jednego z założeń …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.