O ile mogę stwierdzić, SOM w stylu Kohonen osiągnęły szczyt około 2005 roku i ostatnio nie spotkały się z tak dużą przychylnością. Nie znalazłem żadnego artykułu, który mówi, że SOM zostały uwzględnione inną metodą lub okazały się równoważne z czymś innym (w każdym razie w większych wymiarach). Ale wygląda na to, że tSNE i inne metody otrzymują teraz o wiele więcej atramentu, na przykład w Wikipedii lub w SciKit Learn, a SOM jest wymieniany bardziej jako metoda historyczna.
(Właściwie artykuł w Wikipedii wydaje się wskazywać, że SOM nadal mają pewne zalety w stosunku do konkurentów, ale jest to również najkrótszy wpis na liście. EDYCJA: Na życzenie Gunga jednym z artykułów, o których myślę, jest: nieliniowa redukcja wymiarów Zauważ, że SOM napisał o tym mniej niż inne metody. Nie mogę znaleźć artykułu, w którym wspomniano o przewadze, którą SOM wydają się zachowywać w porównaniu z większością innych metod.)
Jakieś spostrzeżenia? Ktoś inny zapytał, dlaczego nie są używane SOM, i dostał referencje od jakiegoś czasu, a ja znalazłem materiały z konferencji SOM, ale zastanawiałem się, czy wzrost SVM lub tSNE, i in., Po prostu przyćmił SOM w uczeniu maszynowym pop.
EDYCJA 2: Zupełnie przez przypadek właśnie czytałem dziś wieczorem ankietę z 2008 roku na temat nieliniowej redukcji wymiarowości, i dla przykładów wspomina tylko: Isomap (2000), lokalnie liniowe osadzanie (LLE) (2000), Hessian LLE (2003), Laplacian eigenmaps (2003) i semidefinite embedding (SDE) (2004).