Pytania otagowane jako multicollinearity

Sytuacja, w której istnieje silna zależność liniowa między zmiennymi predykcyjnymi, tak że ich macierz korelacji staje się (prawie) pojedyncza. Ten „zły stan” utrudnia określenie unikalnej roli, jaką odgrywa każdy z predyktorów: pojawiają się problemy z oszacowaniem i zwiększają się standardowe błędy. Dwukrotnie bardzo wysokie skorelowane predyktory są jednym przykładem wielokoliniowości.

5
Czy standaryzowanie zmiennych niezależnych zmniejsza kolinearność?
Natknąłem się na bardzo dobry tekst na Bayes / MCMC. IT sugeruje, że standaryzacja zmiennych niezależnych sprawi, że algorytm MCMC (Metropolis) będzie bardziej wydajny, ale może także zmniejszyć (wiele) kolinearność. Czy to może być prawda? Czy powinienem to robić standardowo (przepraszam). Kruschke 2011, Doing Bayesian Data Analysis. (AP) edycja: na …

1
Interpretowanie proporcji, które sumują się jako jedna zmienna niezależna w regresji liniowej
Znam pojęcie zmiennych kategorialnych i odpowiednie kodowanie zmiennych zastępczych, które pozwalają nam dopasować jeden poziom jako poziom podstawowy, aby uniknąć kolinearności. Znam również sposób interpretacji oszacowań parametrów z takich modeli: Przewidywana zmiana wyniku dla danego dopasowanego poziomu predyktora jakościowego w stosunku do kategorii podstawowej. Nie jestem pewien, jak interpretować zestaw …


2
Interpretacja macierzy wariancji-kowariancji
Załóżmy, że mamy model liniowy Model1i vcov(Model1)daje następującą macierz: (Intercept) latitude sea.distance altitude (Intercept) 28.898100 -23.6439000 -34.1523000 0.50790600 latitude -23.643900 19.7032500 28.4602500 -0.42471450 sea.distance -34.152300 28.4602500 42.4714500 -0.62612550 altitude 0.507906 -0.4247145 -0.6261255 0.00928242 W tym przykładzie, co faktycznie wyświetla ta macierz? Jakie założenia możemy bezpiecznie przyjąć dla naszego modelu i …

1
Czy występuje problem z wielokoliniowością i regresją splajnów?
Podczas korzystania z naturalnych (tj. Ograniczonych) splajnów sześciennych, tworzone funkcje podstawowe są wysoce współliniowe, a po zastosowaniu w regresji wydają się generować bardzo wysokie statystyki VIF (współczynnik inflacji wariancji), sygnalizując wielokoliniowość. Czy rozważając przypadek modelu do celów prognozowania, jest to problem? Wydaje się, że zawsze tak będzie ze względu na …

2
Jak rozpocząć budowanie modelu regresji, gdy najsilniej powiązanym predyktorem jest binarny
Mam zestaw danych zawierający 365 obserwacji trzech zmiennych mianowicie pm, tempi rain. Teraz chcę sprawdzić zachowanie pmw odpowiedzi na zmiany w dwóch pozostałych zmiennych. Moje zmienne to: pm10 = Odpowiedź (zależna) temp = predyktor (niezależny) rain = predyktor (niezależny) Oto macierz korelacji dla moich danych: > cor(air.pollution) pm temp rainy …

3
Jakie są zalety różnych podejść do wykrywania kolinearności?
Chcę wykryć, czy kolinearność jest problemem w mojej regresji OLS. Rozumiem, że czynniki inflacyjne wariancji i wskaźnik warunków są dwiema powszechnie stosowanymi miarami, ale trudno mi znaleźć coś konkretnego na podstawie zalet każdego podejścia lub tego, jakie powinny być wyniki. Bardzo przydatne byłoby wybitne źródło, które wskazuje, jakie podejście należy …

5
Co zrobić ze zmiennymi współliniowymi
Oświadczenie: To jest praca domowa. Próbuję znaleźć najlepszy model dla cen diamentów, w zależności od kilku zmiennych i wydaje mi się, że mam do tej pory całkiem niezły model. Natknąłem się jednak na dwie zmienne, które są oczywiście współliniowe: >with(diamonds, cor(data.frame(Table, Depth, Carat.Weight))) Table Depth Carat.Weight Table 1.00000000 -0.41035485 0.05237998 …

2
Kolinearność między zmiennymi kategorialnymi
Wiele jest o kolinearności w odniesieniu do predyktorów ciągłych, ale nie tak bardzo, że mogę znaleźć na predyktory jakościowe. Mam dane tego typu zilustrowane poniżej. Pierwszy czynnik to zmienna genetyczna (liczba alleli), drugi czynnik to kategoria choroby. Najwyraźniej geny poprzedzają chorobę i są czynnikiem pokazującym objawy, które prowadzą do diagnozy. …



1
Współczynnik inflacji wariancji dla uogólnionych modeli addytywnych
W zwykłych obliczeń VIF dla regresji liniowej, każdy niezależnie / objaśniający zmienna jest traktowany jako zmienną zależną w zwykłym regresji najmniejszych kwadratów. to znaczyXjotXjotX_j Xjot= β0+ ∑i = 1 , i ≠ jnβjaXjaXjot=β0+∑ja=1,ja≠jotnβjaXja X_j = \beta_0 + \sum_{i=1, i \neq j}^n \beta_i X_i Gdy wartości są zapisywane dla każdego z …

3
Zależność liniowa między zmiennymi objaśniającymi w regresji wielokrotnej
Czytałem rozdział dotyczący regresji wielokrotnej analizy danych i grafiki przy użyciu R: podejście oparte na przykładach i byłem nieco zdezorientowany, gdy dowiedziałem się, że zaleca sprawdzanie liniowych zależności między zmiennymi objaśniającymi (za pomocą wykresu rozrzutu), a jeśli nie ma t dowolny, przekształcając je tak, oni mają stać się bardziej liniowo …

2
Czy wielokoliniowość jest ukryta w zmiennych jakościowych?
Zauważyłem, że podczas majstrowania przy modelu regresji wielowymiarowej zaobserwowano niewielki, ale zauważalny efekt wielokoliniowości, mierzony współczynnikami inflacji wariancji, w kategoriach zmiennej jakościowej (oczywiście po wykluczeniu kategorii odniesienia). Załóżmy na przykład, że mamy zestaw danych ze zmienną ciągłą y i jedną nominalną zmienną kategorialną x, która ma k możliwych wzajemnie wykluczających …

3
Określanie istotności statystycznej współczynnika regresji liniowej w obecności wielokoliniowości
Załóżmy, że mam kilka miast o różnej wielkości populacji i chciałem sprawdzić, czy istnieje dodatnia liniowa zależność między liczbą sklepów monopolowych w mieście a liczbą DUI. Gdzie określam, czy związek ten jest znaczący, czy nie, na podstawie testu t szacowanego współczynnika regresji. Teraz wyraźnie pop. wielkość miasta będzie pozytywnie skorelowana …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.