W przypadku wielu projektów uczenia maszynowego, które wykonujemy, zaczynamy od k klasyfikatora Nearest Neighbor. Jest to idealny klasyfikator początkowy, ponieważ zwykle mamy wystarczająco dużo czasu na obliczenie wszystkich odległości, a liczba parametrów jest ograniczona (k, metryka odległości i waga)
Jednak często powoduje to, że trzymamy się klasyfikatora KNN, ponieważ w dalszej części projektu nie ma miejsca na przejście na inny klasyfikator. Jaki byłby dobry powód, aby wypróbować nowy klasyfikator. Oczywiste są ograniczenia pamięci i czasu, ale czy istnieją przypadki, w których inny klasyfikator może faktycznie poprawić dokładność?