Pytania otagowane jako multivariate-analysis

Analizuje, gdzie analizowanych jest jednocześnie więcej niż jedna zmienna, a te zmienne są albo zależne (reakcyjne), albo jedyne w analizie. Można to skontrastować z analizą „wielokrotną” lub „wielowymiarową”, która zakłada więcej niż jedną zmienną predykcyjną (niezależną).

3
Jakiego testu mogę użyć do porównania nachyleń z dwóch lub więcej modeli regresji?
Chciałbym przetestować różnicę w odpowiedzi dwóch zmiennych na jeden predyktor. Oto minimalny odtwarzalny przykład. library(nlme) ## gls is used in the application; lm would suffice for this example m.set <- gls(Sepal.Length ~ Petal.Width, data = iris, subset = Species == "setosa") m.vir <- gls(Sepal.Length ~ Petal.Width, data = iris, subset …

6
Zmienna procedura selekcji do klasyfikacji binarnej
Jakiego wyboru zmiennych / cech preferujesz do klasyfikacji binarnej, gdy w zestawie do nauki jest o wiele więcej zmiennych / cech niż obserwacji? Celem jest omówienie procedury wyboru funkcji, która najlepiej redukuje błąd klasyfikacji. Możemy poprawić notacje dla spójności: dla , niech będą zestawem uczącym się obserwacji z grupy . …


1
Czy stopnie swobody mogą być liczbą niecałkowitą?
Kiedy korzystam z GAM, daje mi resztkowy DF (ostatni wiersz kodu). Co to znaczy? Wychodząc poza przykład GAM, ogólnie, czy liczba stopni swobody może być liczbą niecałkowitą?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
Rozkład odległości Mahalanobisa na poziomie obserwacji
Jeśli mam wielowymiarową normalną próbkę iid i zdefiniuję (który jest rodzajem odległości Mahalanobisa [kwadrat] od punktu próbki do wektora przy użyciu macierzy do ważenia), jaki jest rozkład (odległość Mahalanobisa do średnia próbki przy użyciu przykładowej macierzy kowariancji )?d 2 i ( b , A ) = ( X i - …

2
Lasy losowe dla regresji wielowymiarowej
Mam problem z regresją wielu wyjść z funkcjami wejściowymi i wyjściowymi d y . Dane wyjściowe mają złożoną, nieliniową strukturę korelacji.dxdxd_xdydyd_y Chciałbym użyć losowych lasów do przeprowadzenia regresji. O ile wiem, losowe lasy do regresji działają tylko z jednym wyjściem, więc musiałbym trenować lasy losowe - jeden dla każdego wyjścia. …

2
Na czym polega „regresja o zmniejszonej randze”?
Czytałem Elementy uczenia statystycznego i nie mogłem zrozumieć, o co chodzi w rozdziale 3.7 „Skurcz i wybór wielu wyników”. Mówi o RRR (regresja o zmniejszonej rangi) i mogę jedynie zrozumieć, że założenie dotyczy uogólnionego wielowymiarowego modelu liniowego, w którym współczynniki są nieznane (i należy je oszacować), ale wiadomo, że nie …

3
Co mówi mi o danych dodatnia nieokreślona macierz kowariancji?
Mam wiele obserwacji na wielu odmianach i chciałbym ocenić gęstość prawdopodobieństwa dla wszystkich zmiennych. Zakłada się, że dane są zwykle dystrybuowane. Przy niskiej liczbie zmiennych wszystko działa tak, jakbym się spodziewał, ale przejście do większej liczby powoduje, że macierz kowariancji staje się niejednoznaczna. Zmniejszyłem problem w Matlabie do: load raw_data.mat; …


2
Co w nazwie: Precyzja (odwrotność wariancji)
Intuicyjnie średnia to tylko średnia z obserwacji. Wariancja polega na tym, jak bardzo te obserwacje różnią się od średniej. Chciałbym wiedzieć, dlaczego odwrotność wariancji jest znana jako precyzja. Jaką intuicję możemy z tego zrobić? I dlaczego macierz precyzji jest tak przydatna jak macierz kowariancji w rozkładzie wielowymiarowym (normalnym)? Wgląd proszę?

3
Jak przeprowadzić izometryczną transformację logarytmiczną
Mam dane na temat zachowań ruchowych (czasu spania, siedzącego trybu życia i aktywności fizycznej), które wynoszą około 24 (jak w godzinach dziennie). Chcę utworzyć zmienną, która przechwytuje względny czas spędzony na każdym z tych zachowań - powiedziano mi, że dokonałaby tego izometryczna transformacja logarytmiczna. Wygląda na to, że powinienem użyć …

1
Konstrukcja dystrybucji Dirichleta z dystrybucją Gamma
Niech X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} będą wzajemnie niezależnymi zmiennymi losowymi, z których każda ma rozkład gamma o parametrach αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 pokazują, że Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, mają wspólny podział jakoDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) Wspólne pdf (X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})} Następnie, aby znaleźć wspólne pdf(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})nie mogę znaleźć jakobiańskiego tj.J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.