Główna idea k-Nearest-Neighbor uwzględnia najbliższych punktów i decyduje o klasyfikacji danych większością głosów. Jeśli tak, to nie powinno mieć problemów z danymi o wyższych wymiarach, ponieważ metody takie jak mieszanie wrażliwe na lokalizację mogą skutecznie znaleźć najbliższych sąsiadów.
Ponadto wybór funkcji w sieciach bayesowskich może zmniejszyć wymiar danych i ułatwić uczenie się.
Jednak niniejszy artykuł przeglądowy autorstwa Johna Lafferty w uczeniu statystycznym wskazuje, że uczenie się nieparametryczne w przestrzennych przestrzeniach cech jest nadal wyzwaniem i nierozwiązane.
Co idzie nie tak?