Resztki modelu to wartości rzeczywiste minus wartości prognozowane. Wiele modeli statystycznych przyjmuje założenia dotyczące błędu, który jest szacowany na podstawie reszt.
W scenariuszu regresji LASSO, w którym y=Xβ+ϵy=Xβ+ϵy= X \beta + \epsilon , a oszacowania LASSO są podane przez następujący problem optymalizacji minβ||y−Xβ||+τ||β||1minβ||y−Xβ||+τ||β||1 \min_\beta ||y - X \beta|| + \tau||\beta||_1 Czy są jakieś założenia dystrybucyjne dotyczące ϵϵ\epsilon ? W scenariuszu OLS można oczekiwać, że ϵϵ\epsilon są niezależne i zwykle dystrybuowane. Czy …
Kontekst To pytanie używa R, ale dotyczy ogólnych problemów statystycznych. Analizuję wpływ czynników umieralności (% umieralności z powodu chorób i pasożytnictwa) na tempo wzrostu populacji ćmy w czasie, gdy populacje larw pobierano z 12 miejsc raz w roku przez 8 lat. Dane dotyczące tempa wzrostu populacji pokazują wyraźny, ale nieregularny …
Załóżmy, że przeprowadziliśmy prostą regresję liniową y=β0+β1x+uy=β0+β1x+uy=\beta_0+\beta_1x+u , zapisaliśmy reszty ui^ui^\hat{u_i} narysowaliśmy histogram rozkładu reszt. Jeśli otrzymamy coś, co wygląda jak dobrze znana dystrybucja, czy możemy założyć, że nasz termin błędu ma tę dystrybucję? Powiedzmy, że jeśli dowiemy się, że reszty przypominają rozkład normalny, czy uzasadnione jest przyjęcie normalności terminu …
Wiem, że znormalizowane pozostałości Pearson uzyskuje się w tradycyjny probabilistyczny sposób: ri=yi−πiπi(1−πi)−−−−−---√rja=yja-πjaπja(1-πja) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} i Pozostałości dewiacji są uzyskiwane w bardziej statystyczny sposób (udział każdego punktu w prawdopodobieństwie): reja= sja- 2 [ yjalogπja^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilogπi^+(1−yi)log(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} gdzie sisis_i = 1 jeśli yiyiy_i …
Pytanie początkującego o resztki Pearsona w kontekście testu chi-kwadrat na dobroć dopasowania: Oprócz statystyki testowej chisq.testfunkcja R zgłasza resztkową wartość Pearsona: (obs - exp) / sqrt(exp) Rozumiem, dlaczego przyglądanie się różnicy między wartościami obserwowanymi i oczekiwanymi nie jest tak pouczające, ponieważ mniejsza próbka spowoduje mniejszą różnicę. Chciałbym jednak dowiedzieć się …
Uważam, że jest to metoda ad hoc i wydaje mi się bardzo podejrzana, ale być może czegoś mi brakuje. Widziałem to w regresji wielokrotnej, ale bądźmy prostymi: yi=β0+β1xi+εiyi=β0+β1xi+εi y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} Teraz weź pozostałości z dopasowanego modelu ei=yi−(β^0+β^1xi)ei=yi−(β^0+β^1xi) e_{i} = y_{i} - \left( \hat{\beta}_{0} + …
Analizuję zestaw danych przy użyciu modelu efektów mieszanych z jednym ustalonym efektem (warunkiem) i dwoma efektami losowymi (uczestnik ze względu na projekt i parę wewnątrz przedmiotu). Model ten został wygenerowany z lme4pakietu: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Następnie wykonałem test współczynnika wiarygodności tego modelu względem modelu bez ustalonego efektu (warunku) i mam znaczącą różnicę. …
\newcommand{\E}{\mathbb{E}} Jaka jest transformacja normalizująca dla rodziny wykładniczej pochodny? A(⋅)=∫duV1/3(μ)A(⋅)=∫duV1/3(μ)A(\cdot) = \displaystyle\int\frac{du}{V^{1/3}(\mu)} Mówiąc dokładniej : Próbowałem postępować zgodnie ze szkicem rozszerzenia Taylora na stronie 3, slajd 1 tutaj, ale mam kilka pytań. Gdy z rodziny wykładniczej, transformacja h (X) i \ kappa _i oznaczają i ^ {th} kumulant, slajdy twierdzą, …
Próbuję wykonać regresję danych heteroscedastycznych, w których próbuję przewidzieć wariancje błędów, a także wartości średnie w odniesieniu do modelu liniowego. Coś takiego: y(x,t)ξ(x,t)y¯(x,t)σ(x,t)=y¯(x,t)+ξ(x,t),∼N(0,σ(x,t)),=y0+ax+bt,=σ0+cx+dt.y(x,t)=y¯(x,t)+ξ(x,t),ξ(x,t)∼N(0,σ(x,t)),y¯(x,t)=y0+ax+bt,σ(x,t)=σ0+cx+dt.\begin{align}\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\right),\\ \xi\left(x,t\right) &\sim N\left(0,\sigma\left(x,t\right)\right),\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt. \end{align} Słowami, dane składa się z powtarzalnych pomiarów przy różnych wartościach i . Sądzę pomiary …
Mam szereg czasowy, który próbuję przewidzieć, dla którego wykorzystałem model sezonowy ARIMA (0,0,0) (0,1,0) [12] (= fit2). Różni się od tego, co R zasugerował z auto.arima (R obliczone ARIMA (0,1,1) (0,1,0) [12] byłoby lepsze dopasowanie, nazwałem to fit1). Jednak w ciągu ostatnich 12 miesięcy mojego szeregu czasowego mój model (fit2) …
Biorę kurs na modele regresji, a jedną z właściwości przewidzianych dla regresji liniowej jest to, że reszty zawsze sumują się do zera po uwzględnieniu przecięcia. Czy ktoś może podać dobre wyjaśnienie, dlaczego tak jest?
Błąd standardowy to szacowane odchylenie standardowe estymatora dla parametru .σ^(θ^)σ^(θ^)\hat \sigma(\hat\theta)θ^θ^\hat\thetaθθ\theta Dlaczego szacowane odchylenie standardowe reszt określa się jako „resztkowy błąd standardowy” (np. Na wyjściu funkcji R summary.lm), a nie „resztowe odchylenie standardowe”? Jakie parametry szacunkowe wyposażamy tutaj w standardowy błąd? Czy uważamy każdą resztę za estymator dla „jego” terminu …
Chciałbym wykonać test W Shapiro Wilka i test Kołmogorowa-Smirnowa na resztkach modelu liniowego w celu sprawdzenia normalności. Zastanawiałem się tylko, jakie resztki powinny być do tego użyte - surowe resztki, resztki Pearsona, resztki studenckie czy resztki standaryzowane? Dla testu W Shapiro-Wilka wydaje się, że wyniki dla reszt surowych i Pearsona …
Dość podstawowe pytanie: Co oznacza normalny rozkład reszt z regresji liniowej? Pod względem tego, w jaki sposób wpływa to na moje oryginalne dane z regresji? Jestem totalnie zakłopotany, dzięki chłopaki
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.