Wspaniały pakiet libsvm zawiera interfejs Pythona i plik „easy.py”, który automatycznie wyszukuje parametry uczenia się (koszt i gamma), które maksymalizują dokładność klasyfikatora. W obrębie danego zestawu parametrów uczenia się kandydata dokładność jest operacjonalizowana przez krzyżową weryfikację, ale wydaje mi się, że podważa to cel krzyżowej weryfikacji. Oznacza to, że o ile same parametry uczenia się mogą zostać wybrane w sposób, który może powodować nadmierne dopasowanie danych, uważam, że bardziej odpowiednim podejściem byłoby zastosowanie weryfikacji krzyżowej na poziomie samego wyszukiwania: przeprowadź wyszukiwanie na zestawie danych treningowych, a następnie oceń najwyższą dokładność SVM wynikającą z ostatecznie wybranych parametrów uczenia się, oceniając w oddzielnym zestawie danych testowych. A może coś tu brakuje?