Pytania otagowane jako svm

Support Vector Machine odnosi się do „zestawu powiązanych nadzorowanych metod uczenia się, które analizują dane i rozpoznają wzorce, stosowanych do klasyfikacji i analizy regresji”.

1
Czy stopnie swobody mogą być liczbą niecałkowitą?
Kiedy korzystam z GAM, daje mi resztkowy DF (ostatni wiersz kodu). Co to znaczy? Wychodząc poza przykład GAM, ogólnie, czy liczba stopni swobody może być liczbą niecałkowitą?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
Różnica jąder w SVM?
Czy ktoś może mi powiedzieć różnicę między jądrami w SVM: Liniowy Wielomian Gaussowski (RBF) Sigmoid Ponieważ, jak wiemy, jądro służy do mapowania naszej przestrzeni wejściowej na przestrzeń cech o wysokiej wymiarowości. I w tej przestrzeni cech znajdujemy liniowo oddzielalną granicę. Kiedy są używane (pod jakim warunkiem) i dlaczego?


1
One-vs-All i One-vs-One w svm?
Jaka jest różnica między klasyfikatorem SVM jeden na wszystkich a jednym na jednego? Czy jeden do wszystkich oznacza jednego klasyfikatora do klasyfikacji wszystkich typów / kategorii nowego obrazu, a jeden do jednego oznacza każdy typ / kategorię nowego obrazu klasyfikuje się za pomocą innego klasyfikatora (każda kategoria jest obsługiwana przez …

2
Obsługa maszyn wektorowych i regresji
Odbyła się już doskonała dyskusja na temat tego, w jaki sposób maszyny wektorów nośnych radzą sobie z klasyfikacją, ale jestem bardzo zdezorientowany, w jaki sposób maszyny wektorów nośnych uogólniają się na regresję. Czy ktoś chce mnie oświecić?


2
Jak działa intuicyjna obsługa regresji wektorowej?
Wszystkie przykłady SVM są związane z klasyfikacją. Nie rozumiem, w jaki sposób można użyć SVM do regresji (regressor wektora pomocniczego) w regresji. Z mojego zrozumienia, SVM maksymalizuje margines między dwiema klasami, aby znaleźć optymalną hiperpłaszczyznę. Jak mogłoby to działać w przypadku problemu regresji?
25 regression  svm 

3
Mapa funkcji dla jądra Gaussa
W SVM jądro Gaussa jest zdefiniowane jako: gdzie x, y \ in \ mathbb {R ^ n} . Nie znam jednoznacznego równania \ phi . Chcę wiedzieć.K(x,y)=exp(−∥x−y∥222σ2)=ϕ(x)Tϕ(y)K(x,y)=exp⁡(−‖x−y‖222σ2)=ϕ(x)Tϕ(y)K(x,y)=\exp\left({-\frac{\|x-y\|_2^2}{2\sigma^2}}\right)=\phi(x)^T\phi(y)x,y∈Rnx,y∈Rnx, y\in \mathbb{R^n}ϕϕ\phi Ja też chcę wiedzieć, czy ∑iciϕ(xi)=ϕ(∑icixi)∑iciϕ(xi)=ϕ(∑icixi)\sum_ic_i\phi(x_i)=\phi \left(\sum_ic_ix_i \right) gdzie ci∈Rci∈Rc_i\in \mathbb R . Teraz myślę, że to nie jest równe, ponieważ …

4
Dlaczego algorytmy optymalizacyjne są zdefiniowane w kontekście innych problemów optymalizacyjnych?
Prowadzę badania nad technikami optymalizacji w uczeniu maszynowym, ale jestem zaskoczony, że duża liczba algorytmów optymalizacji jest definiowana pod kątem innych problemów z optymalizacją. Poniżej zilustruję kilka przykładów. Na przykład https://arxiv.org/pdf/1511.05133v1.pdf Wszystko wygląda ładnie i dobrze, ale jest to w aktualizacji .... więc jaki algorytm rozwiązuje dla ? Nie wiemy …

2
Jaka jest funkcja utraty twardej marży SVM?
max(0,1−yi(w⊺xi+b))max(0,1−yi(w⊺xi+b))\max(0,1-y_i(w^\intercal x_i+b))12∥w∥2+C∑imax(0,1−yi(w⊺xi+b))12‖w‖2+C∑imax(0,1−yi(w⊺xi+b)) \frac{1}{2}\|w\|^2+C\sum_i\max(0,1-y_i(w^\intercal x_i+b)) ∥w∥2‖w‖2\|w\|^2max(0,1−yi(w⊺xi+b))max(0,1−yi(w⊺xi+b))\max(0,1-y_i(w^\intercal x_i+b)) Jednak w przypadku SVM z twardym marginesem cała funkcja celu to po prostu 12∥w∥212‖w‖2 \frac{1}{2}\|w\|^2 Czy to oznacza, że ​​SVM z twardym marginesem minimalizuje tylko regularyzator bez funkcji straty? Brzmi bardzo dziwnie. Cóż, jeśli 12∥w∥212‖w‖2)\frac{1}{2}\|w\|^2 jest funkcją straty w tym przypadku, czy możemy ją …

3
Obsługuje regresję wektorową do przewidywania wielowymiarowych szeregów czasowych
Czy ktoś próbował przewidywać szeregi czasowe przy użyciu regresji wektorów pomocniczych? Rozumiem maszyny wektorów pomocniczych i częściowo rozumiem regresję wektorów pomocniczych, ale nie rozumiem, jak można ich użyć do modelowania szeregów czasowych, zwłaszcza szeregów czasowych na wielu odmianach. Próbowałem przeczytać kilka artykułów, ale są one na zbyt wysokim poziomie. Czy …

3
Czy możliwe jest zejście gradientu dla SVM w jądrze (jeśli tak, to dlaczego ludzie używają programowania kwadratowego)?
Dlaczego ludzie używają technik programowania kwadratowego (takich jak SMO) podczas obsługi SVM z jądrem? Co jest nie tak z Gradient Descent? Czy nie jest możliwe używanie go z jądrem, czy jest to po prostu zbyt wolne (i dlaczego?). Oto nieco więcej kontekstu: starając się lepiej zrozumieć SVM, użyłem Gradient Descent …


1
libsvm „osiąganie maksymalnej liczby iteracji” ostrzeżenie i wzajemna weryfikacja
Używam libsvm w trybie C-SVC z wielomianowym jądrem stopnia 2 i muszę trenować wiele SVM. Każdy zestaw treningowy ma 10 funkcji i 5000 wektorów. Podczas treningu otrzymuję to ostrzeżenie dla większości maszyn SVM, które trenuję: WARNING: reaching max number of iterations optimization finished, #iter = 10000000 Czy ktoś mógłby wyjaśnić, …


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.