Pytania otagowane jako regression

Techniki analizy zależności między jedną (lub więcej) zmiennymi „zależnymi” a zmiennymi „niezależnymi”.

3
Regresja liniowa: jakikolwiek nienormalny rozkład dający tożsamość OLS i MLE?
To pytanie jest inspirowane długą dyskusją w komentarzach tutaj: W jaki sposób regresja liniowa wykorzystuje rozkład normalny? W zwykłym modelu regresji liniowej, dla uproszczenia, zapisanym tutaj tylko z jednym predyktorem: gdzie są znanymi stałymi, a są zerowymi średnimi niezależnymi błędami. Jeśli dodatkowo przyjmiemy rozkład normalny dla błędów, wówczas zwykłe estymatory …


1
Biodrowy estymator regresji osiągający lepsze wyniki niż obiektywny w modelu błędu w modelu zmiennych
Pracuję nad niektórymi danymi syntetycznymi dla modelu błędu w zmiennej dla niektórych badań. Obecnie mam pojedynczą zmienną niezależną i zakładam, że znam wariancję prawdziwej wartości zmiennej zależnej. Dzięki tym informacjom mogę uzyskać obiektywny estymator dla współczynnika zmiennej zależnej. Model: y=0,5x-10+e2e1~N(0,σ2)σe2~N(0,1)x~=x+e1x~=x+e1\tilde{x} = x + e_1 y=0.5x−10+e2y=0.5x−10+e2y = 0.5x -10 + e_2 …

3
Dlaczego ślad
W modelu możemy oszacować przy użyciu równania normalnego :y=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilonββ\beta β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y, i moglibyśmy dostaćy^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. Wektor reszt szacowany jest przez ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = Q (X \beta + \epsilon) …

3
Który z nich jest lepszy maksymalnym prawdopodobieństwem lub marginalnym prawdopodobieństwem i dlaczego?
Wykonując regresję, jeśli zastosujemy definicję z: Jaka jest różnica między częściowym prawdopodobieństwem, prawdopodobieństwem profilu i prawdopodobieństwem krańcowym? że, maksymalne prawdopodobieństwo Znajdź β i θ, które maksymalizuje L (β, θ | dane). Chociaż, Krańcowa Prawdopodobieństwo Integrujemy się θ z równania prawdopodobieństwa, wykorzystując fakt, że możemy zidentyfikować rozkład prawdopodobieństwa θ uwarunkowane beta. …


1
Dlaczego lm () R zwraca inne współczynniki niż mój podręcznik?
tło Próbuję zrozumieć pierwszy przykład w kursie na temat dopasowywania modeli (więc może się to wydawać absurdalnie proste). Obliczenia wykonałem ręcznie i pasują one do przykładu, ale kiedy powtórzę je w R, współczynniki modelu są wyłączone. Myślałem, że różnica może wynikać z tego, że podręcznik używa wariancji populacji ( ), …
13 r  regression  self-study  lm 

2
Czy kiedykolwiek istnieje powód, aby nie stosować ortogonalnych wielomianów podczas dopasowywania regresji?
Ogólnie zastanawiam się, czy kiedykolwiek lepiej nie używać ortogonalnych wielomianów podczas dopasowywania regresji do zmiennych wyższego rzędu. W szczególności zastanawiam się nad użyciem R: Jeśli poly()z raw = FALSEprodukuje te same wartości, montowany poly()z raw = TRUEoraz polyz raw = FALSErozwiązuje niektóre z problemów związanych z wielomianowej regresji, to należy …

3
Modelowe założenia regresji cząstkowej metodą najmniejszych kwadratów (PLS)
Próbuję znaleźć informacje dotyczące założeń regresji PLS (pojedynczy yyy ). Szczególnie interesuje mnie porównanie założeń PLS z regresją OLS. Przeczytałem / przejrzałem wiele literatury na temat PLS; artykuły Wolda (Svante i Herman), Abdiego i wielu innych, ale nie znalazły zadowalającego źródła. Wold i in. (2001) Regresja PLS: podstawowe narzędzie chemometrii …

1
Jak skalować nowe obserwacje w celu dokonywania prognoz, gdy model został wyposażony w skalowane dane?
Rozumiem pojęcie skalowania macierzy danych do zastosowania w modelu regresji liniowej. Na przykład w R możesz użyć: scaled.data <- scale(data, scale=TRUE) Moje jedyne pytanie brzmi: w przypadku nowych obserwacji, dla których chcę przewidzieć wartości wyjściowe, w jaki sposób są one odpowiednio skalowane? Czy to by było scaled.new <- (new - …

1
Dlaczego standardowy błąd przechwytywania zwiększa się o dalsze
Standardowy błąd terminu przechwytującego ( ) w jest podawany przez gdzie to średnia z .y=β1x+β0+εSE( β 0)2=σ2[1β^0β^0\hat{\beta}_0y=β1x+β0+εy=β1x+β0+εy=\beta_1x+\beta_0+\varepsilonˉxxiSE(β^0)2=σ2[1n+x¯2∑ni=1(xi−x¯)2]SE(β^0)2=σ2[1n+x¯2∑i=1n(xi−x¯)2]SE(\hat{\beta}_0)^2 = \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\right]x¯x¯\bar{x}xixix_i Z tego, co rozumiem, SE określa twoją niepewność - na przykład w 95% próbek przedział będzie zawierał true . Nie rozumiem, w jaki sposób SE, miara niepewności, rośnie z . Jeśli …

1
Interpretacja geometryczna uogólnionego modelu liniowego
W przypadku modelu liniowego możemy uzyskać przyjemną geometryczną interpretację oszacowanego modelu za pomocą OLS: . jest rzutem y na przestrzeń rozpiętą na x, a reszta jest prostopadła do tej przestrzeni rozpiętej na x.y = x β + e r ey= x β+ ey=xβ+ey=x\beta+ey^= x β^+ e^y^=xβ^+e^\hat{y}=x\hat{\beta}+\hat{e}y^y^\hat{y}mi^e^\hat{e} Moje pytanie brzmi: czy …

1
Używanie MLE vs. OLS
Kiedy lepiej jest stosować oszacowanie maksymalnego prawdopodobieństwa zamiast zwykłych najmniejszych kwadratów? Jakie są zalety i ograniczenia każdego z nich? Staram się zebrać praktyczną wiedzę na temat tego, gdzie wykorzystać każdą z nich w typowych sytuacjach.


2
Regresja liniowa a nieliniowa
Mam zestaw wartości i , które są teoretycznie związanych wykładniczo:xxxyyy y=axby=axby = ax^b Jednym ze sposobów uzyskania współczynników jest zastosowanie logarytmów naturalnych po obu stronach i dopasowanie modelu liniowego: > fit <- lm(log(y)~log(x)) > a <- exp(fit$coefficients[1]) > b <- fit$coefficients[2] Innym sposobem uzyskania tego jest regresja nieliniowa, biorąc pod …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.