Uwaga: przypadek to n >> p
Czytam Elementy uczenia statystycznego i jest wiele wzmianek o „właściwym” sposobie przeprowadzania walidacji krzyżowej (np. Strona 60, strona 245). W szczególności moje pytanie brzmi: jak ocenić ostateczny model (bez osobnego zestawu testowego) za pomocą k-fold CV lub bootstrapowania, gdy przeprowadzono wyszukiwanie modelu? Wydaje się, że w większości przypadków (algorytmy ML bez wbudowanego wyboru funkcji) będzie
- Krok wyboru funkcji
- Etap wyboru parametru meta (np. Parametr kosztu w SVM).
Moje pytania:
- Widziałem, że krok wyboru funkcji można wykonać tam, gdzie wybór funkcji odbywa się na całym zestawie treningowym i jest odłożony na bok. Następnie, stosując k-fold CV, algorytm wyboru cech jest stosowany przy każdym zakładaniu (uzyskiwanie różnych cech możliwych za każdym razem) i błąd jest uśredniany. Następnie użyłbyś wybranych funkcji przy użyciu wszystkich danych (które zostały odłożone) do trenowania trybu końcowego, ale wykorzystałeś błąd z weryfikacji krzyżowej jako oszacowanie przyszłej wydajności modelu. CZY TO JEST POPRAWNE?
- Kiedy używasz weryfikacji krzyżowej do wyboru parametrów modelu, to jak potem oszacować wydajność modelu? CZY JEST TO TEN SAM PROCES, JAK POWYŻEJ POWYŻEJ, CZY POWINIENEŚ WYKORZYSTAĆ NESTED CV, JAK PODANE NA STRONIE 54 ( pdf ) CZY INNE?
- Kiedy wykonujesz oba kroki (ustawienie funkcji i parametrów) ..... to co robisz? złożone zagnieżdżone pętle?
- Jeśli masz oddzielną próbkę wstrzymania, czy problem zniknie i możesz użyć weryfikacji krzyżowej, aby wybrać funkcje i parametry (bez obaw, ponieważ szacunki wydajności będą pochodzić z zestawu wstrzymań)?