Pytania otagowane jako kernel-trick

Metody uczenia się jądra są używane w uczeniu maszynowym do uogólnienia technik liniowych na sytuacje nieliniowe, zwłaszcza SVM, PCA i GP. Nie mylić z [wygładzaniem jądra], do szacowania gęstości jądra (KDE) i regresji jądra.

1
Regularyzowana regresja liniowa vs. regresja RKHS
Badam różnicę między regularyzacją w regresji RKHS a regresją liniową, ale trudno mi zrozumieć kluczową różnicę między nimi. Biorąc pod uwagę pary wejścia-wyjścia , chcę oszacować funkcję w następujący sposób gdzie jest funkcją jądra. Współczynniki można znaleźć, rozwiązując gdzie, z pewnym nadużyciem notacji, i, j wpis w macierzy K jądra …

2
Którego jądra SVM należy użyć do problemu klasyfikacji binarnej?
Jestem początkującym, jeśli chodzi o obsługę maszyn wektorowych. Czy istnieją jakieś wytyczne, które mówią, które jądro (np. Liniowe, wielomianowe) najlepiej nadaje się do określonego problemu? W moim przypadku muszę klasyfikować strony internetowe według tego, czy zawierają one określone informacje, czy nie, tj. Mam problem z klasyfikacją binarną. Czy możesz ogólnie …


2
Czy do wyboru funkcji można użyć jądra PCA?
Czy można używać analizy głównych składników jądra (kPCA) do latentnego indeksowania semantycznego (LSI) w taki sam sposób, jak w przypadku PCA? Wykonuję LSI in R za pomocą prcompfunkcji PCA i wydobywam cechy z najwyższymi obciążeniami od pierwszegokkkskładniki. Dzięki temu uzyskuję funkcje najlepiej opisujące komponent. Próbowałem użyć kpcafunkcji (z kernlibpakietu), ale …
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.