Strategia wzmocnienia może poprawić wydajność twojego modelu, więc warto spróbować. Jeśli chodzi o nauczanie przyrostowe / online, nie znam żadnego pakietu w języku R, który go wdraża (inni, proszę mnie poprawić, jeśli się mylę). W Scikit Learn istnieją nietypowe klasyfikatory, które pozwalają na stopniowe uczenie się. Jeśli jednak jesteś przywiązany do używania języka R, możesz nie mieć innego wyjścia, jak napisać własny model przyrostowy. W obu przypadkach, przegląd nietypowych klasyfikatorów Scikit Learn może dać ci wyobrażenie, od czego zacząć.
Kolejnym szczegółem, o którym należy pamiętać, jest stopień, w jakim aktualizacja modelu na jednym fałszywie dodatnim lub fałszywie ujemnym poprawi wydajność modelu. W dziedzinie oszustw istnieje zwykle tysiące do milionów razy więcej przypadków nieuczciwości niż oszustw. Dlatego ważne jest, aby nauczyć się prawidłowo rozróżniać każde wystąpienie oszustwa, ale aktualizacja modelu w jednym wystąpieniu oszustwa prawdopodobnie nie zmieni znacząco modelu. Rozważ inne strategie, dzięki którym model będzie miał większe znaczenie dla przypadków oszustw.
Najprostszym sposobem ulepszenia nadzorowanego modelu na podstawie informacji zwrotnych od ludzkich badaczy byłoby zbudowanie oddzielnego modelu od skorygowanych instancji (tj. Instancji niepoprawnie przewidywanych, które zostały odpowiednio oznakowane). Następnie możesz sprawić, aby dwa modele „głosowały” na klasyfikację przyszłych instancji, agregując ich przewidywane członkostwa w klasie. Na przykład ModelA może wierzyć, że Instancja 1 to [Oszustwo: 0,65, Non-Fraud: 0,35], podczas gdy Model B uważa, że Instance1 to [Fraud: 0,47, Non-Fraud: 0,53]. Prognozowanie zespołu byłoby zatem [Oszustwo: (0,65 + 0,47) / 2 = 0,56, Non-oszustwo: (0,35 + 0,53) / 2 = 0,44].
Jeśli Twój oryginalny model działa lepiej niż przypadek, liczba poprawnie sklasyfikowanych wystąpień będzie większa niż liczba nieprawidłowo sklasyfikowanych. Dlatego nie chcesz przypisywać równej wagi modelom, jeśli są one szkolone w nieproporcjonalnej liczbie instancji. Istnieją dwie proste opcje, aby poradzić sobie z tą rozbieżnością: 1) poczekaj, aż zgromadzisz wystarczającą liczbę poprawionych instancji, aby w przybliżeniu równa się liczbie, na której trenowano oryginalny model, lub 2) przypisz wagę każdemu modelowi na podstawie tego, jak model działa na zestawie sprawdzania poprawności.