Nie ma żadnych silnych, dobrze udokumentowanych zasad, które pomogłyby ci wybrać między rodzajami regularyzacji w sieciach neuronowych. Możesz nawet łączyć techniki regularyzacji, nie musisz wybierać tylko jednej.
Wykonalne podejście może opierać się na doświadczeniu oraz śledzeniu literatury i wyników innych osób, aby zobaczyć, co dało dobre wyniki w różnych obszarach problemowych. Biorąc to pod uwagę, rezygnacja okazała się bardzo skuteczna w przypadku szerokiego zakresu problemów i prawdopodobnie możesz uznać ją za dobry pierwszy wybór prawie niezależnie od tego, co próbujesz.
Czasami może również pomóc wybranie znanej Ci opcji - praca z technikami, które znasz i masz doświadczenie, może dać lepsze wyniki niż wypróbowanie całej torby różnych opcji, w których nie jesteś pewien, jaki rząd wielkości wypróbować dla parametru . Kluczową kwestią jest to, że techniki mogą współdziałać z innymi parametrami sieci - na przykład możesz chcieć zwiększyć rozmiar warstw z rezygnacją w zależności od procentu rezygnacji.
Wreszcie, może nie mieć większego znaczenia, z jakich technik regularyzacji korzystasz, tylko to, że rozumiesz swój problem i model wystarczająco dobrze, aby wykryć, kiedy jest on zbyt dobry i może zrobić z większą regularyzacją. Lub odwrotnie, zauważ, kiedy jest on niedopasowany i powinieneś skrócić regularyzację.