Pytania otagowane jako least-squares

Odnosi się do ogólnej techniki szacowania, która wybiera wartość parametru, aby zminimalizować kwadratową różnicę między dwiema wielkościami, taką jak wartość obserwowana zmiennej i oczekiwana wartość tej obserwacji uwarunkowana wartością parametru. Gaussowskie modele liniowe pasują do najmniejszych kwadratów, a najmniejsze kwadraty to idea leżąca u podstaw zastosowania błędu średniego kwadratu (MSE) jako metody oceny estymatora.

2
Założenia dotyczące najmniejszych kwadratów
Załóżmy następującą zależność liniową: , gdzie jest zmienną zależną, pojedynczą zmienną niezależną, a termin błędu.Yi=β0+β1Xi+uiYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_iYiYiY_iXiXiX_iuiuiu_i Według Stock &amp; Watson (Wprowadzenie do ekonometrii; Rozdział 4 ), trzecim najmniejszym kwadratem jest założenie, że czwarte momenty i są niezerowe i skończone .XiXiX_iuiuiu_i(0&lt;E(X4i)&lt;∞ and 0&lt;E(u4i)&lt;∞)(0&lt;E(Xi4)&lt;∞ and 0&lt;E(ui4)&lt;∞)(0<E(X_i^4)<\infty …



1
Co jest zwyczajne w zwykłych najmniejszych kwadratach?
Mój przyjaciel niedawno zapytał, co jest takiego zwyczajnego, o zwykłych najmniejszych kwadratach. Wydaje się, że nigdzie nie rozmawialiśmy. Obaj zgodziliśmy się, że OLS jest specjalnym przypadkiem modelu liniowego, ma wiele zastosowań, jest dobrze znany i jest szczególnym przypadkiem wielu innych modeli. Ale czy to naprawdę wszystko? Dlatego chciałbym wiedzieć: Skąd …

2
Jest asymptotycznie skuteczny w warunkach heteroscedastyczności
Wiem, że OLS jest bezstronny, ale nieskuteczny przy heteroscedastyczności w ustawieniu regresji liniowej. W Wikipedii http://en.wikipedia.org/wiki/Minimum_mean_square_error Estymator MMSE jest asymptotycznie obiektywny i zbiega się w rozkładzie do rozkładu normalnego: , gdzie I (x) to informacja Fishera dla x. Zatem estymator MMSE jest asymptotycznie wydajny.n−−√(x^−x)→dN(0,I−1(x))n(x^−x)→dN(0,I−1(x))\sqrt{n}(\hat{x} - x) \xrightarrow{d} \mathcal{N}\left(0 , I^{-1}(x)\right) …

2
W jaki sposób wartości rezydualne odnoszą się do podstawowych zakłóceń?
W metodzie najmniejszych kwadratów chcemy oszacować nieznane parametry w modelu: Yj=α+βxj+εj(j=1...n)Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Gdy to zrobimy (dla niektórych obserwowanych wartości), otrzymamy dopasowaną linię regresji: Yj=α^+β^x+ej(j=1,...n)Yj=α^+β^x+ej(j=1,...n)Y_j = \hat{\alpha} + \hat{\beta}x +e_j \enspace (j =1,...n) Teraz oczywiście chcemy sprawdzić niektóre wykresy, aby upewnić się, że …

1
Stosujesz regresję kalenicową dla nieokreślonego układu równań?
Gdy , problem najmniejszych kwadratów, który nakłada sferyczne ograniczenie na wartość można zapisać jako dla zbyt określonego systemu. \ | \ cdot \ | _2 to euklidesowa norma wektora.y=Xβ+ey=Xβ+ey = X\beta + eδδ\deltaββ\betamin ∥y−Xβ∥22s.t. ∥β∥22≤δ2min⁡ ‖y−Xβ‖22s.t.⁡ ‖β‖22≤δ2\begin{equation} \begin{array} &\operatorname{min}\ \| y - X\beta \|^2_2 \\ \operatorname{s.t.}\ \ \|\beta\|^2_2 \le \delta^2 …


2
Twierdzenie Gaussa-Markowa: NIEBIESKI i OLS
Czytam o twierdzeniu Guassa-Markowa na wikipedii i miałem nadzieję, że ktoś może mi pomóc ustalić główny punkt tego twierdzenia. Zakładamy, że model liniowy w postaci macierzy podaje: i szukamy NIEBIESKIEGO, .y= Xβ+ ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta Zgodnie z tym , to, że etykieta "pozostałych" i przycisków "błąd". …

2
Parametryczne, półparametryczne i nieparametryczne ładowanie początkowe dla modeli mieszanych
Z tego artykułu pochodzą następujące przeszczepy . Jestem nowicjuszem w bootstrapie i próbuję zaimplementować parametryczne, semiparametryczne i nieparametryczne bootstrapowanie dla liniowego modelu mieszanego z R bootpakietem. Kod R. Oto mój Rkod: library(SASmixed) library(lme4) library(boot) fm1Cult &lt;- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn &lt;- function(data, …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.