Pytania otagowane jako linear-algebra

Dziedzina matematyki zajmująca się badaniem skończonych wymiarowych przestrzeni wektorowych, w tym macierzy i ich manipulacji, które są ważne w statystyce.




1
Co oznaczają strzałki w biplocie PCA?
Rozważ następujący dwupłat PCA: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Zostało narysowanych kilka czerwonych strzałek, co one oznaczają? Wiedziałem, że pierwsza strzałka oznaczona „Var1” powinna wskazywać najbardziej zróżnicowany kierunek zbioru danych (jeśli uważamy, że to 2000 punktów danych, …
14 r  pca  linear-algebra  biplot 


1
Pakiet GBM vs. Caret korzystający z GBM
Stroiłem model przy użyciu caret, ale potem ponownie uruchomiłem model przy użyciu gbmpakietu. Rozumiem, że caretpakiet używa gbmi wynik powinien być taki sam. Jednak tylko szybki test przy użyciu data(iris)wykazuje rozbieżność w modelu około 5% przy użyciu RMSE i R ^ 2 jako metryki oceny. Chcę znaleźć optymalną wydajność modelu …


2
Przyrostowa regresja procesu Gaussa
Chcę wdrożyć przyrostową regresję procesu gaussowskiego za pomocą przesuwanego okna nad punktami danych, które docierają jeden po drugim przez strumień. Pozwolić reddoznacz wymiarowość przestrzeni wejściowej. Więc każdy punkt danychxjaxix_i ma redd liczba elementów. Pozwolić nnn być wielkości przesuwanego okna. Aby dokonać prognoz, muszę obliczyć odwrotność macierzy gramowej K.KK, gdzie K.I …

4
Czy „losowa projekcja” ściśle nie jest projekcją?
Obecne implementacje algorytmu losowej projekcji zmniejszają wymiarowość próbek danych poprzez mapowanie ich z do przy użyciu macierzy projekcji d \ razy k R, której wpisy znajdują się w odpowiednim rozkładzie (na przykład z \ matematyka N (0,1) ):RdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Dogodnie istnieją teoretyczne dowody …


1
Jak uzyskać „wartości własne” (procent wyjaśnionej wariancji) wektorów, które nie są wektorami własnymi PCA?
Chciałbym zrozumieć, w jaki sposób mogę uzyskać procent wariancji zbioru danych, nie w przestrzeni współrzędnych zapewnionej przez PCA, ale w stosunku do nieco innego zestawu (obróconych) wektorów. set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, yy) plot(vecs, xlim = c(-4, 4), …

2
Odpowiednia miara, aby znaleźć najmniejszą macierz kowariancji
W podręczniku, który czytam, używają one pozytywnej definitywności (półdodatniej definitywności) do porównania dwóch macierzy kowariancji. Pomysł jest, że jeśli jest Pd następnie jest mniejsza niż . Ale walczę o intuicję tego związku?A - BA−BA-BbBBZAAA Istnieje podobny wątek tutaj: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Jaka jest intuicja używania definitywności do porównywania macierzy? Chociaż odpowiedzi są …

1
Dlaczego oceny głównych składników nie są skorelowane?
Przypuśćmy, że jest macierzą danych skoncentrowanych na średnich. Macierz ma , ma różne wartości własne, a wektory własne , \ mathbf s_2 ... \ mathbf s_m , które są ortogonalne.ZAA\mathbf AS =cov( A )S=cov(A)\mathbf S=\text{cov}(\mathbf A)m × mm×mm\times mmmms1s1\mathbf s_1s2)s2\mathbf s_2smsm\mathbf s_m -tego główny składnik (niektórzy nazywają je "wyniki") jest …

1
R regresja liniowa zmienna kategorialna „ukryta” wartość
To tylko przykład, na który natknąłem się kilka razy, więc nie mam żadnych przykładowych danych. Uruchamianie modelu regresji liniowej w R: a.lm = lm(Y ~ x1 + x2) x1jest zmienną ciągłą. x2jest kategoryczny i ma trzy wartości, np. „Niska”, „Średnia” i „Wysoka”. Jednak dane wyjściowe podane przez R byłyby mniej …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Jak zmienia się podobieństwo cosinus po transformacji liniowej?
Czy istnieje matematyczny związek między: podobieństwo cosinus nazwa dwóch wektorów i orazsim(A,B)sim⁡(A,B)\operatorname{sim}(A, B)AAABBB cosinus podobieństwo z i , niejednorodnie skalowane poprzez danej matrycy ? Tutaj jest daną macierzą diagonalną z nierównymi elementami na przekątnej.sim(MA,MB)sim⁡(MA,MB)\operatorname{sim}(MA, MB)AAABBBMMMMMM Próbowałem przejrzeć obliczenia, ale nie mogłem dotrzeć do prostego / interesującego linku (wyrażenia). Zastanawiam się, …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.