Interesujące pytanie. Osobiście nie widziałem tego w przypadku produktów wprowadzanych do produkcji, ale rozumiem logikę.
Teoretycznie im więcej danych widział twój wdrożony model, tym lepiej powinno się uogólniać. Więc jeśli wyszkoliłeś model na pełnym zestawie dostępnych danych, powinien uogólnić się lepiej niż model, który widział tylko na przykład zestawy pociągów / wartości (np. ~ 90%) z pełnego zestawu danych.
Problem z tym (a przede wszystkim z powodu tego, że dzielimy dane na zestawy kolejowe / wartościowe / testowe!) Polega na tym, że chcemy być w stanie zgłaszać dane statystyczne dotyczące dokładności niewidzialnych danych. Gdy tylko ponownie przeszkolimy model na wszystkich danych, nie będzie już możliwe zgłaszanie takich roszczeń.
[Edytować]
Oto powiązane pytanie na temat Cross-Validated , w którym zaakceptowana odpowiedź przedstawia mi podobne punkty i wymienia inne sposoby robienia rzeczy.
Pętlimy:
- wytrenuj model
- ocenić wydajność zestawu jeśli jest zadowalający, przejdź do kroku 5→
- zmień model
- przejdź do kroku 1
- ocenić wydajność zestawu testowego
- Prezentuj model z dokładnością testu znalezioną w kroku 5
W końcu, jeśli uda ci się uzyskać świetny wynik w zestawie testowym, możesz twierdzić, że dobrze się uogólnia. Zatem pytanie, czy ponowne szkolenie w pełnym zbiorze danych poprawi wydajność przyszłych niewidzialnych danych, nie jest czymś, co można dokładnie przetestować. Empiryczne dowody lepszej wydajności w innych powiązanych zestawach problemów byłyby jedynym źródłem lub wskazówką w momencie, w którym należy podjąć decyzję.
Sprawdzeniem rozsądku byłoby ponowne przetestowanie końcowego ponownie wyszkolonego modelu na oryginalnym zestawie testowym; spodziewając się, że uzyska wyniki wyższe niż kiedykolwiek wcześniej, gdy model widział tylko zestaw pociąg / wartość, ponieważ faktycznie widział zestaw testowy podczas treningu. Nie dałoby mi to 100% pewności, że ten ostateczny model jest lepszy we wszystkich przyszłych przypadkach, ale przynajmniej jest tak dobry, jak to tylko możliwe przy danych danych.
Być może istnieją bardziej rygorystyczne argumenty przeciwko robieniu tego, co mówisz (prawdopodobnie naukowo umotywowane), jednak wydaje się atrakcyjne dla praktycznych zastosowań!