Odkryłem, że Imagenet i inne duże CNN korzystają z lokalnych warstw normalizacji odpowiedzi. Nie mogę jednak znaleźć tylu informacji na ich temat. Jak ważne są i kiedy należy je stosować?
From http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers :
„Lokalna warstwa normalizacyjna odpowiedzi dokonuje pewnego rodzaju„ bocznego hamowania ”poprzez normalizację w lokalnych regionach wejściowych. W trybie ACROSS_CHANNELS, lokalne regiony rozciągają się w pobliskich kanałach, ale nie mają zasięgu przestrzennego (tzn. Mają kształt rozmiar_lokalny x 1 x 1) W trybie WITHIN_CHANNEL, lokalne regiony rozszerzają się przestrzennie, ale są w osobnych kanałach (tj. Mają kształt 1 x rozmiar_lokalny x rozmiar_lokalny). Każda wartość wejściowa jest dzielona przez (1+ (α / n) ∑ix2i) β, gdzie n to rozmiar każdego regionu lokalnego, a suma jest przejmowana na region wyśrodkowany na tej wartości (w razie potrzeby dodawane jest zerowanie). ”
Edytować:
Wydaje się, że tego rodzaju warstwy mają minimalny wpływ i nie są już używane. Zasadniczo ich rola została pokonana przez inne techniki regularyzacji (takie jak rezygnacja i normalizacja partii), lepsze inicjalizacje i metody treningowe. Zobacz moją odpowiedź poniżej, aby uzyskać więcej informacji.