Pytania otagowane jako variance

Oczekiwane kwadratowe odchylenie zmiennej losowej od jej średniej; lub średnie kwadratowe odchylenie danych o ich średniej.

4
Interpretowanie wariancji efektu losowego w blasku
Przeglądam artykuł na temat zapylania, w którym dane są dystrybuowane dwumianowo (owoce dojrzewają lub nie). Użyłem więc glmerz jednym losowym efektem (pojedyncza roślina) i jednym stałym efektem (leczenie). Recenzent chce wiedzieć, czy roślina miała wpływ na zbiór owoców - ale mam problem z interpretacją glmerwyników. Czytałem w Internecie i wydaje …

1
Determinant informacji Fishera
(Podobne pytanie zadałem na stronie math.se. ) W geometrii informacji wyznacznikiem macierzy informacji Fishera jest naturalna postać objętości na rozmaitości statystycznej, więc ma dobrą interpretację geometryczną. Na przykład fakt, że pojawia się w definicji Jeffreys przed, jest związany z jej niezmiennością przy reparametryzacjach, która jest (imho) właściwością geometryczną. Ale co …

3
Alternatywa dla jednokierunkowej wariancji ANOVA
Chciałbym porównać średnie dla trzech grup równych rozmiarów (równy rozmiar próbki jest mały, 21). Średnie każdej grupy są normalnie rozmieszczone, ale ich wariancje są nierówne (testowane przez Levene'a). Czy transformacja jest najlepszą drogą w tej sytuacji? Czy powinienem najpierw rozważyć coś jeszcze?

1
Odchylenie statystyki Cohena
Cohena jest jednym z najczęstszych sposobów mierzenia wielkości efektu ( patrz Wikipedia ). Po prostu mierzy odległość między dwoma środkami pod względem zbiorczego odchylenia standardowego. Jak możemy uzyskać matematyczny wzór szacowania wariancji Cohena ? dddddd Edycja z grudnia 2015 r .: Z tym pytaniem wiąże się pomysł obliczania przedziałów ufności …

5
Jak wykonać przypisanie wartości w bardzo dużej liczbie punktów danych?
Mam bardzo duży zestaw danych i brakuje około 5% wartości losowych. Te zmienne są ze sobą skorelowane. Poniższy przykładowy zestaw danych R jest tylko zabawkowym przykładem z fałszywymi skorelowanymi danymi. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 



2
Jak mogę połączyć p-bootstrapowane wartości p w wielokrotnie przypisywanych zestawach danych?
Niepokoi mnie problem, że chciałbym uruchomić wartość p dla oszacowania podstawie danych wielokrotnego przypisania (MI), ale nie jest dla mnie jasne, jak połączyć wartości p w zestawach MI.θθ\theta W przypadku zestawów danych MI standardowe podejście do uzyskania całkowitej wariancji oszacowań wykorzystuje reguły Rubina. Zobacz tutaj, aby zapoznać się z zestawieniem …


1
Różnice między PROC Mixed i lme / lmer w R - stopnie swobody
Uwaga: to pytanie jest repost, ponieważ moje poprzednie pytanie musiało zostać usunięte ze względów prawnych. Porównując PROC MIXED z SAS z funkcją lmez nlmepakietu w R, natknąłem się na pewne dość mylące różnice. Mówiąc dokładniej, stopnie swobody w różnych testach różnią się między PROC MIXEDi lmezastanawiałem się, dlaczego. Zacznij od …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 


2
Jak sparametryzować stosunek dwóch normalnie rozłożonych zmiennych lub odwrotność jednej?
Problem: Parametryzuję rozkłady do wykorzystania jako priorytety i dane w metaanalizie bayesowskiej. Dane są przedstawione w literaturze jako statystyki podsumowujące, prawie wyłącznie zakłada się, że są normalnie rozłożone (chociaż żadna ze zmiennych nie może być <0, niektóre są stosunkami, niektóre są masą itp.). Natknąłem się na dwa przypadki, dla których …

2
Matematyczna intuicja równania odchylenia wstępnego
I ostatnio zadawane pytanie mającą matematycznego interpretacji / intuicji za elementarnej równanie dotyczące próbki średniej i wariancji: , geometryczny lub inne.mi[ X2)] = Va r ( X) + ( E[ X] )2)E[X2]=Var(X)+(E[X])2 E[X^2] = Var(X) +(E[X])^2 Ale teraz ciekawi mnie powierzchownie podobne równanie kompromisu wariancji odchylenia. MSE ( θ^) = …
12 variance  bias 



Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.