Pytania otagowane jako residuals

Resztki modelu to wartości rzeczywiste minus wartości prognozowane. Wiele modeli statystycznych przyjmuje założenia dotyczące błędu, który jest szacowany na podstawie reszt.

3
Średni błąd kwadratu i rezydualna suma kwadratów
Patrząc na definicje Wikipedii: Mean Squared Error (MSE) Resztkowa suma kwadratów (RSS) Tak mi się wydaje MSE = 1N.RSS = 1N.∑ ( fja- yja)2)MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 gdzie N.NN jest numerem on próbek i fifif_i jest nasza ocena yiyiy_i . Jednak żaden z artykułów Wikipedii …
31 residuals  mse 


1
Czy stopnie swobody mogą być liczbą niecałkowitą?
Kiedy korzystam z GAM, daje mi resztkowy DF (ostatni wiersz kodu). Co to znaczy? Wychodząc poza przykład GAM, ogólnie, czy liczba stopni swobody może być liczbą niecałkowitą?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
Diagnostyka uogólnionych modeli liniowych (mieszanych) (w szczególności reszt)
Obecnie mam trudności ze znalezieniem odpowiedniego modelu dla danych trudnych do zliczenia (zmienna zależna). Próbowałem różnych modeli (modele efektów mieszanych są niezbędne dla mojego rodzaju danych), takich jak lmeri lme4(z transformacją logarytmiczną), a także uogólnionych liniowych modeli efektów mieszanych z różnymi rodzinami, takimi jak dwumian Gaussa lub ujemny. Nie jestem …

5
Założenia modeli liniowych i co zrobić, jeśli reszty nie są normalnie rozłożone
Jestem trochę zdezorientowany, jakie są założenia regresji liniowej. Do tej pory sprawdziłem, czy: wszystkie zmienne objaśniające korelowały liniowo ze zmienną odpowiedzi. (Tak było) między zmiennymi objaśniającymi była jakakolwiek kolinearność. (była niewielka kolinearność). odległości Cooka od punktów danych mojego modelu są mniejsze niż 1 (tak jest, wszystkie odległości są mniejsze niż …

2
Dlaczego normalność reszt jest „w ogóle nieistotna” w celu oszacowania linii regresji?
Gelman i Hill (2006) piszą na s. 46, że: Założeniem regresji, które jest na ogół najmniej ważne, jest to, że błędy są zwykle rozkładane. W rzeczywistości, w celu oszacowania linii regresji (w porównaniu z przewidywaniem poszczególnych punktów danych), założenie normalności nie jest wcale ważne. Zatem, w przeciwieństwie do wielu podręczników …

1
Diagnostyka resztkowa w modelach regresji opartych na MCMC
Niedawno przystąpiłem do dopasowywania modeli mieszanych z regresją w ramach Bayesa, używając algorytmu MCMC (właściwie funkcja MCMCglmm w R). Wydaje mi się, że zrozumiałem, jak zdiagnozować zbieżność procesu szacowania (ślad, wykres Geweke'a, autokorelacja, rozkład tylny ...). Jedną z rzeczy, która uderza mnie w ramy Bayesa, jest to, że wiele wysiłku …

2
W prostej regresji liniowej, skąd bierze się wzór na wariancję reszt?
Zgodnie z tekstem, którego używam, wzór na wariancję reszty podaje:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) I trudno w wierzyć od końcowa jest różnica pomiędzy obserwowanych wartości i wartość zmontowanym; jeśliby obliczyć wariancję różnicy, przynajmniej oczekiwałbym pewnych „plusów” w wynikowym wyrażeniu. Każda pomoc w zrozumieniu pochodnej będzie mile widziana.ithithi^{th}ithithi^{th}ithithi^{th}


1
Intuicyjny kalkulator kanapkowy
Wikipedia i winieta pakietu warstwowego R dostarczają dobrych informacji na temat założeń wspierających standardowe błędy współczynnika OLS oraz matematycznego tła estymatorów warstwowych. Nadal nie jestem pewien, w jaki sposób rozwiązany jest problem heteroscedastyczności resztek, prawdopodobnie dlatego, że nie do końca rozumiem standardowe oszacowanie wariancji współczynników OLS. Jaka intuicja kryje się …

2
Wykresy rezydualne: dlaczego wykres kontra wartości dopasowane, a nie obserwowane wartości ?
W kontekście regresji OLS rozumiem, że wykres resztkowy (w porównaniu z dopasowanymi wartościami) jest konwencjonalnie oglądany w celu przetestowania stałej wariancji i oceny specyfikacji modelu. Dlaczego reszty są wykreślane względem pasowań, a nie wartości ? Czym różnią się informacje od tych dwóch wykresów?YYY Pracuję nad modelem, który wytworzył następujące wykresy …



Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.