Metod jądra można używać w przypadku problemów nadzorowanych i nienadzorowanych. Dobrze znanymi przykładami są odpowiednio maszyna wektora nośnego i klaster spektralny jądra .
Metody jądra zapewniają uporządkowany sposób użycia algorytmu liniowego w transformowanej przestrzeni cech, dla której transformacja jest zazwyczaj nieliniowa (i do przestrzeni o wyższym wymiarze). Kluczową zaletą tej tak zwanej sztuczki jądra jest to, że nieliniowe wzorce można znaleźć przy rozsądnych kosztach obliczeniowych.
Zauważ, że powiedziałem, że koszt obliczeniowy jest rozsądny, ale nie bez znaczenia. Metody jądra zazwyczaj konstruują macierz jądraK ∈RN.× N. z N.liczba wystąpień szkoleniowych. Złożoność metod jądra jest zatem funkcją liczby instancji szkoleniowych, a nie liczby wymiarów wejściowych. Na przykład maszyny wektorowe wsparcia mają złożoność treningową międzyO (N.2)) i O (N.3)). W przypadku problemów z bardzo dużymiN., złożoność ta jest obecnie wygórowana.
To sprawia, że metody jądra są bardzo interesujące z perspektywy obliczeniowej, gdy liczba wymiarów jest duża, a liczba próbek względnie niska (powiedzmy mniej niż 1 milion).
Powiązane: Jądro liniowe i jądro nieliniowe dla maszyny wektora wsparcia?
SVM dla problemów na dużą skalę
W przypadku problemów o bardzo dużych wymiarach, takich jak 10000
wymiary, o których wspominasz w pytaniu, często nie ma potrzeby mapowania do przestrzeni cech wyższych wymiarów. Przestrzeń wejściowa jest już wystarczająco dobra. W przypadku takich problemów metody liniowe są o rząd wielkości szybsze z prawie taką samą wydajnością predykcyjną. Przykłady tych metod można znaleźć w LIBLINEAR lub Vowpal Wabbit .
Metody liniowe są szczególnie interesujące, gdy masz wiele próbek w wielowymiarowej przestrzeni wejściowej. Gdy masz tylko500 próbki, przy użyciu nieliniowej metody jądra również będą tanie (od N.jest mały). Jeśli miałbyś, powiedzmy,5.000.000 próbki w 10.000 wymiary, metody jądra byłyby niemożliwe.
W przypadku problemów niskowymiarowych z wieloma instancjami treningowymi (tak zwane duże N. mały pproblemy), metody liniowe mogą dawać słabą dokładność predykcyjną. W przypadku takich problemów metody zestawów, takie jak EnsembleSVM, zapewniają nieliniowe granice decyzyjne przy znacznie zmniejszonym koszcie obliczeniowym w porównaniu ze standardowym SVM.
RBF
jądralibsvm
, to zawsze jest ono zbyt mocne, klasyfikator osiąga wysoką dokładność, ale niską dokładność w zestawie testowym. A jeśli zrobię redukcję wymiarów przed klasyfikatorem, a zmniejszone wymiary są zbliżone do liczby próbek treningowych, klasyfikator może osiągnąć dobry zysk między zestawem treningowym a testowym. Czy wyniki pasują do większości wyników empirycznych? Dzięki.