Pytania otagowane jako multicollinearity

Sytuacja, w której istnieje silna zależność liniowa między zmiennymi predykcyjnymi, tak że ich macierz korelacji staje się (prawie) pojedyncza. Ten „zły stan” utrudnia określenie unikalnej roli, jaką odgrywa każdy z predyktorów: pojawiają się problemy z oszacowaniem i zwiększają się standardowe błędy. Dwukrotnie bardzo wysokie skorelowane predyktory są jednym przykładem wielokoliniowości.

9
Czy istnieje intuicyjne wyjaśnienie, dlaczego wielokoliniowość stanowi problem w regresji liniowej?
Wiki omawia problemy, które powstają, gdy wielokoliniowość jest problemem regresji liniowej. Podstawowym problemem jest to, że wielokoliniowość powoduje niestabilne oszacowanie parametrów, co bardzo utrudnia ocenę wpływu zmiennych niezależnych na zmienne zależne. Rozumiem techniczne przyczyny problemów (może nie być w stanie odwrócić , źle warunkowane itp.), Ale szukam bardziej intuicyjnego (być …

9
Dlaczego możliwe jest uzyskanie istotnej statystyki F (p <0,001), ale nieistotnych testów t regresora?
Dlaczego w wielokrotnej regresji liniowej możliwe jest uzyskanie bardzo istotnej statystyki F (p &lt;0,001), ale bardzo wysokich wartości p we wszystkich testach t regresora? W moim modelu jest 10 regresorów. Jeden ma wartość p 0,1, a reszta jest powyżej 0,9 Aby poradzić sobie z tym problemem, patrz pytanie uzupełniające .

1
Jaka korelacja czyni macierz osobliwością i jakie są implikacje osobliwości lub bliskości osobliwości?
Robię obliczenia na różnych macierzach (głównie w regresji logistycznej) i często pojawia się błąd „Matryca jest pojedyncza”, gdzie muszę wrócić i usunąć skorelowane zmienne. Moje pytanie brzmi: co uważasz za „wysoce” skorelowaną macierz? Czy istnieje wartość progowa korelacji reprezentująca to słowo? Na przykład, jeśli zmienna była skorelowana z 0,97 względem …

3
Jaki jest wpływ skorelowanych predyktorów w modelu regresji wielokrotnej?
Nauczyłem się w mojej klasie modeli liniowych, że jeśli dwa predyktory są skorelowane i oba są zawarte w modelu, jeden będzie nieistotny. Załóżmy na przykład, że wielkość domu i liczba sypialni są skorelowane. Podczas prognozowania kosztu domu za pomocą tych dwóch predyktorów jeden z nich można upuścić, ponieważ oba zapewniają …

6
Dlaczego wielokoliniowość nie jest sprawdzana we współczesnych statystykach / uczeniu maszynowym
W tradycyjnej statystyce, budując model, sprawdzamy wielokoliniowość za pomocą metod takich jak szacunki współczynnika inflacji wariancji (VIF), ale w uczeniu maszynowym zamiast tego używamy regularyzacji do wyboru funkcji i nie wydaje się, aby sprawdzać, czy cechy są skorelowane w ogóle. Dlaczego to robimy?

2
Czy wysoce skorelowane zmienne w losowym lesie nie zniekształcają dokładności i wyboru cech?
W moim rozumieniu wysoce skorelowane zmienne nie spowodują problemów z wieloma kolinearnością w losowym modelu lasu (proszę mnie poprawić, jeśli się mylę). Jednak z drugiej strony, jeśli mam zbyt wiele zmiennych zawierających podobne informacje, czy model będzie ważył za dużo na tym zestawie, a nie na innych? Na przykład istnieją …

3
Którego współczynnika inflacji wariancji powinienem używać: lub ?
Próbuję interpretować czynniki inflacji wariancji za pomocą viffunkcji w pakiecie R car. Funkcja drukuje zarówno uogólniony i . Zgodnie z plikiem pomocy ta ostatnia wartośćVIFVIF\text{VIF}GVIF1 / ( 2 ⋅ df )GVIF1/(2)⋅df)\text{GVIF}^{1/(2\cdot\text{df})} Aby dopasować się do wymiaru elipsoidy ufności, funkcja wypisuje również GVIF ^ [1 / (2 * df)], gdzie df …

3
Jak radzić sobie z wielokoliniowością podczas wyboru zmiennych?
Mam zestaw danych z 9 ciągłymi zmiennymi niezależnymi. Staram się wybierać między tymi zmiennymi, aby dopasować model do jednego procentu (zależnej) zmiennej Score. Niestety wiem, że między kilkoma zmiennymi wystąpi poważna kolinearność. Próbowałem użyć stepAIC()funkcji w R do wyboru zmiennych, ale ta metoda, co dziwne, wydaje się wrażliwa na kolejność, …

3
Jak odróżnić modele regresji liniowej od nieliniowej?
Czytałem następujący link o regresji nieliniowej SAS Nieliniowy . Rozumiem po przeczytaniu pierwszego rozdziału „Regresja nieliniowa vs. regresja liniowa”, że poniższe równanie jest w rzeczywistości regresją liniową, czy to prawda? Jeśli tak to dlaczego? y=b1x3+b2x2+b3x+cy=b1x3+b2x2+b3x+cy = b_1x^3 + b_2x^2 + b_3x + c Czy mam również zrozumieć, że w regresji …

2
Diagnostyka kolinearności jest problematyczna tylko wtedy, gdy uwzględniony jest termin interakcji
Przeprowadziłem regresję w hrabstwach USA i sprawdzam kolinearność moich „niezależnych” zmiennych. Diagnostyka regresji Belsleya, Kuha i Welscha sugeruje przyjrzenie się wskaźnikowi stanu i proporcjom rozkładu wariancji: library(perturb) ## colldiag(, scale=TRUE) for model with interaction Condition Index Variance Decomposition Proportions (Intercept) inc09_10k unins09 sqmi_log pop10_perSqmi_log phys_per100k nppa_per100k black10_pct hisp10_pct elderly09_pct inc09_10k:unins09 …

5
Jak przetestować i uniknąć wielokoliniowości w mieszanym modelu liniowym?
Obecnie korzystam z modeli liniowych z mieszanym efektem. Korzystam z pakietu „lme4” w języku R. Moje modele mają postać: model &lt;- lmer(response ~ predictor1 + predictor2 + (1 | random effect)) Przed uruchomieniem moich modeli sprawdziłem możliwą wielokoliniowość między predyktorami. Zrobiłem to przez: Utwórz ramkę danych predyktorów dummy_df &lt;- data.frame(predictor1, …

2
Czy PCA jest niestabilna w wielokoliniowości?
Wiem, że w sytuacji regresji, jeśli masz zestaw wysoce skorelowanych zmiennych, jest to zwykle „złe” ze względu na niestabilność szacowanych współczynników (wariancja zmierza w kierunku nieskończoności, gdy wyznacznik zmierza w kierunku zera). Moje pytanie brzmi, czy ta „zła” utrzymuje się w sytuacji PCA. Czy współczynniki / obciążenia / ciężary / …


1
Czy istnieje powód, aby preferować konkretną miarę wielokoliniowości?
Pracując z wieloma zmiennymi wejściowymi, często martwimy się wielokoliniowością . Istnieje wiele miar wielokoliniowości, które są wykorzystywane do wykrywania, myślenia i / lub komunikowania wielokoliniowości. Niektóre typowe zalecenia to: Wielokrotność dla danej zmiennej R2jRj2R^2_j Tolerancja, dla określonej zmiennej 1−R2j1−Rj21-R^2_j Współczynnik inflacji wariancji, dla konkretnej zmiennej VIF=1toleranceVIF=1tolerance\text{VIF}=\frac{1}{\text{tolerance}} Numer warunku macierzy projektowej …

1
Jak radzić sobie z wysoką korelacją między predyktorami w regresji wielokrotnej?
Znalazłem odniesienie w artykule, który brzmi: Według Tabachnick i Fidell (1996) zmienne niezależne o korelacji dwuwymiarowej większej niż 0,70 nie powinny być uwzględniane w analizie regresji wielokrotnej. Problem: Użyłem w układzie regresji wielokrotnej 3 zmiennych skorelowanych&gt; .80, VIF na poziomie około .2 - .3, Tolerancja ~ 4- 5. Nie mogę …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.