ANOVA a wielokrotna regresja liniowa? Rozumiem, że obie te metody wydają się wykorzystywać ten sam model statystyczny. Jednak w jakich okolicznościach powinienem skorzystać z której metody? Jakie są zalety i wady tych metod w porównaniu? Dlaczego ANOVA jest tak często stosowana w badaniach eksperymentalnych i rzadko znajduję badanie regresji?
Interesuje mnie geometryczne znaczenie wielokrotnej korelacji RRR i współczynnik determinacji w regresji lub w notacji wektorowej,R2R2R^2yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Tutaj macierz projektowa ma wierszyXX\mathbf{X}nnnkkk kolumn, z których pierwszą jest , wektor 1s, który odpowiada przecięciu …
W analizie regresji liniowej analizujemy wartości odstające, badamy wielokoliniowość, testujemy heteroscedastyczność. Pytanie brzmi: czy istnieje jakikolwiek nakaz ich zastosowania? Mam na myśli, czy najpierw musimy przeanalizować wartości odstające, a następnie zbadać wielokoliniowość? Czy odwrotnie? Czy jest na to jakaś zasada?
Początkowo myślałem, że kolejność nie ma znaczenia, ale potem przeczytałem o procesie ortogonalizacji Gram-Schmidta do obliczania wielu współczynników regresji, a teraz mam inne przemyślenia. Zgodnie z procesem gram-schmidta, im później zmienna objaśniająca jest indeksowana wśród innych zmiennych, tym mniejszy jest jej wektor resztkowy, ponieważ odejmuje się od niego wektory resztkowe …
Co to jest notacja algebraiczna do obliczania przedziału predykcji dla regresji wielokrotnej? Brzmi głupio, ale mam problem ze znalezieniem wyraźnej algebraicznej notacji tego.
Szukam zaawansowanego studium przypadku regresji liniowej ilustrującego kroki wymagane do modelowania złożonych, wielu nieliniowych zależności za pomocą GLM lub OLS. Zaskakująco trudno jest znaleźć zasoby wykraczające poza podstawowe przykłady szkolne: większość książek, które przeczytałem, nie pójdzie dalej niż logiczna transformacja odpowiedzi w połączeniu z BoxCox jednego predyktora, lub w najlepszym …
Kiedy wykonujemy wiele regresji i mówimy, że patrzymy na średnią zmianę zmiennej dla zmiany zmiennej , utrzymując wszystkie pozostałe zmienne na stałym poziomie, na jakich wartościach utrzymujemy inne zmienne jako stałe? Ich średni? Zero? Dowolna wartość?yyyxxx Jestem skłonny myśleć, że to ma jakąkolwiek wartość; tylko szukam wyjaśnień. Gdyby ktoś miał …
Wielokrotna imputacja jest dość prosta, jeśli masz model liniowy a priori , który chcesz oszacować. Jednak rzeczy wydają się nieco trudniejsze, gdy faktycznie chcesz dokonać wyboru modelu (np. Znajdź „najlepszy” zestaw zmiennych predykcyjnych z większego zestawu zmiennych kandydujących - mam na myśli szczególnie LASSO i wielomiany ułamkowe za pomocą R). …
Zastanawiam się, jaki jest dokładny związek między częściowym a współczynnikami w modelu liniowym i czy powinienem użyć tylko jednego, czy obu, aby zilustrować znaczenie i wpływ czynników.R2R2R^2 O ile mi wiadomo, wraz z summaryotrzymaniem oszacowań współczynników i anovasumą kwadratów dla każdego czynnika - proporcja sumy kwadratów jednego czynnika podzielona przez …
Przeczytałem, że są to warunki korzystania z modelu regresji wielokrotnej: reszty modelu są prawie normalne, zmienność reszt jest prawie stała reszty są niezależne i każda zmienna jest liniowo powiązana z wynikiem. Czym różnią się 1 i 2? Możesz go zobaczyć tutaj: Tak więc powyższy wykres mówi, że reszta, która wynosi …
Zrozumiałem, w jaki sposób regresja kalenicy zmniejsza geometrycznie współczynniki do zera. Co więcej, wiem, jak to udowodnić w specjalnym „przypadku ortonormalnym”, ale jestem zdezorientowany, jak to działa w przypadku ogólnym poprzez „rozkład widmowy”.
Czy przekształcenie wielowymiarowego modelu regresji liniowej jako wielokrotnej regresji liniowej jest całkowicie równoważne? Ja nie odnosząc się po prostu działa ttt oddzielnych regresji. Przeczytałem o tym w kilku miejscach (Bayesian Data Analysis - Gelman i wsp. Oraz Multivariate Old School - Marden), że wielowymiarowy model liniowy można łatwo sparametryzować jako …
Wikipedia i winieta pakietu warstwowego R dostarczają dobrych informacji na temat założeń wspierających standardowe błędy współczynnika OLS oraz matematycznego tła estymatorów warstwowych. Nadal nie jestem pewien, w jaki sposób rozwiązany jest problem heteroscedastyczności resztek, prawdopodobnie dlatego, że nie do końca rozumiem standardowe oszacowanie wariancji współczynników OLS. Jaka intuicja kryje się …
Zaczynam od mojej regresji OLS: gdzie D jest zmienną fikcyjną, szacunki różnią się od zera niską wartością p. Następnie wykonuję test RESETU Ramseya i stwierdzam, że mam trochę błędnej specyfikacji równania, a zatem uwzględniam kwadrat x: y = β 0 + β 1 x 1 + β 2 x 2 …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.