Po ponownym przeczytaniu tego pytania mogę dać ci następującą granicę:
Załóżmy, że próbki zostały narysowane iid, rozkład jest ustalony, a utrata jest ograniczona przez , a następnie z prawdopodobieństwem co najmniej ,
1 - δ E [ e ( H ) ] ≤ e ( H ) + B √b1 - δ
mi [ E( h ) ] ≤ E^( h ) + B dziennik1δ2 m-----√
gdzie to wielkość próbki, a to pewność. Granica trywialnie utrzymuje nierówność McDiarmida.1 - δm1 - δ
E [ e ( H ) ] e ( H )m to wielkość próbki, to błąd uogólnienia, a jest błędem testowym dla hipotezy.E [ E( h ) ]mi^( h )
Nie zgłaszaj tylko błędu weryfikacji krzyżowej ani błędu testu, ponieważ są one zasadniczo bez znaczenia, ponieważ są jedynie punktowymi szacunkami.
Stary post do zapisu:
Nie jestem pewien, czy w pełni zrozumiałem twoje pytanie, ale spróbuję to zrobić.
Po pierwsze, nie jestem pewien, jak zdefiniowałbyś przedział predykcji dla wyboru modelu, ponieważ, jak rozumiem, przedziały predykcji przyjmują pewne założenia dystrybucyjne. Zamiast tego można wyprowadzić nierówności koncentracji, które w pewnym stopniu wiążą zmienną losową ze względu na jej wariancję. Nierówności w koncentracji są wykorzystywane w uczeniu maszynowym, w tym w zaawansowanej teorii zwiększania. W tym przypadku chcesz powiązać błąd uogólnienia (błąd ogólnie, punkty, których nie widziałeś) przez błąd empiryczny (błąd w zestawie testowym) oraz pewien termin złożoności i termin odnoszący się do wariancji.
Teraz muszę rozwiać nieporozumienie na temat walidacji krzyżowej, które jest niezwykle powszechne. Weryfikacja krzyżowa da jedynie obiektywne oszacowanie oczekiwanego błędu modelu DLA STAŁEGO ROZMIARU PRÓBKI. Dowód na to działa tylko w przypadku protokołu „jeden wyłącz”. Jest to w rzeczywistości dość słaba, ponieważ nie daje żadnych informacji dotyczących wariancji. Z drugiej strony, walidacja krzyżowa zwróci model zbliżony do rozwiązania minimalizacji ryzyka strukturalnego, które jest teoretycznie najlepszym rozwiązaniem. Dowód można znaleźć w załączniku tutaj: http://www.cns.nyu.edu/~rabadi/resources/scat-150519.pdf
Jak więc ustalić granicę uogólnienia? (Pamiętaj, że granica uogólnienia to w zasadzie interwał przewidywania dotyczący błędu uogólnienia dla konkretnego modelu). Cóż, te granice są specyficzne dla algorytmu. Niestety istnieje tylko jeden podręcznik, który wyznacza granice dla wszystkich powszechnie używanych algorytmów w uczeniu maszynowym (w tym do wzmacniania). Książka jest Foundations of Machine Learning (2012) Mohri, Rostamizadeh i Talwalkar. Slajdy wykładowe obejmujące materiał można znaleźć na stronie internetowej Mohri: http://www.cs.nyu.edu/~mohri/ml14/
Chociaż elementy uczenia statystycznego są ważną i nieco pomocną książką, nie są zbyt rygorystyczne i pomijają wiele bardzo ważnych szczegółów technicznych dotyczących algorytmów i całkowicie pomijają wszelkie granice uogólnień. Podstawy uczenia maszynowego to najbardziej kompleksowa książka do uczenia maszynowego (co ma sens, ponieważ została napisana przez jednych z najlepszych w tej dziedzinie). Podręcznik jest jednak zaawansowany, więc uważaj na szczegóły techniczne.
Uogólnienie dotyczące wzmocnienia można znaleźć (z dowodem) tutaj: http://www.cs.nyu.edu/~mohri/mls/lecture_6.pdf
Mam nadzieję, że są to wystarczające wskazówki, aby odpowiedzieć na twoje pytanie. Waham się przed udzieleniem pełnej odpowiedzi, ponieważ omówienie wszystkich niezbędnych szczegółów zajmie około 50 stron, nie mówiąc już o wstępnych dyskusjach ...
Powodzenia!