To pytanie jest odpowiedzią na komentarz, który widziałem na inne pytanie.
Komentarz dotyczył programu szkolenia Machine Learning na Coursera, podobnie jak „SVM nie są obecnie tak często używane”.
Właśnie ukończyłem odpowiednie wykłady i rozumiem SVM, ponieważ są one solidnym i wydajnym algorytmem uczenia się do klasyfikacji oraz że podczas korzystania z jądra mają „niszę” obejmującą pewną liczbę funkcji, być może od 10 do 1000, i liczba próbek szkoleniowych może od 100 do 10 000. Ograniczenie próbek treningowych polega na tym, że podstawowy algorytm obraca się wokół optymalizacji wyników generowanych z kwadratowej macierzy o wymiarach opartych na liczbie próbek treningowych, a nie na liczbie oryginalnych elementów.
Podobnie komentarz, który widziałem, odnosi się do prawdziwej zmiany od czasu kursu, a jeśli tak, to co to za zmiana: nowy algorytm, który obejmuje również „słaby punkt” SVM, lepsze procesory, co oznacza, że przewagi obliczeniowe SVM nie są warte tyle ? A może jest to opinia lub osobiste doświadczenie komentatora?
Próbowałem wyszukać np. „Są modne maszyny do obsługi wektorów” i nie znalazłem nic, co by sugerowało, że zostały odrzucone na rzecz czegoś innego.
Wikipedia ma to: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . głównym punktem spornym wydaje się być trudność z interpretacją modelu. Co sprawia, że SVM jest dobry dla silnika przewidującego czarną skrzynkę, ale nie jest tak dobry do generowania wglądu. Nie uważam tego za poważny problem, to kolejna drobna rzecz, którą należy wziąć pod uwagę przy wyborze odpowiedniego narzędzia do pracy (wraz z charakterem danych szkoleniowych i zadania edukacyjnego itp.).