Jaki jest efekt NIE zmieniania ciężarów filtrów CNN podczas propagacji wstecznej? Zmieniłem tylko w pełni połączone wagi warstw podczas treningu w zbiorze danych MNIST i nadal osiągałem prawie 99 procent dokładności.
Jaki jest efekt NIE zmieniania ciężarów filtrów CNN podczas propagacji wstecznej? Zmieniłem tylko w pełni połączone wagi warstw podczas treningu w zbiorze danych MNIST i nadal osiągałem prawie 99 procent dokładności.
Odpowiedzi:
Nie zmieniając ciężaru warstw splotowych CNN, w zasadzie podajesz swoje klasyfikatory (warstwa w pełni połączona) losowymi cechami (tj. Nie optymalnymi cechami dla danego zadania klasyfikacyjnego).
MNIST jest dość łatwym zadaniem do klasyfikacji obrazów, które można w zasadzie przesłać pikselami wejściowymi do klasyfikatora bez wyodrębniania cech i nadal osiąga wyniki w wysokich latach 90-tych. Poza tym być może warstwy puli pomagają trochę ...
Spróbuj wyszkolić MLP (bez warstw konw / puli) na obrazie wejściowym i zobacz, jak się on układa. Oto przykład, w którym MLP (1 ukryta i 1 warstwa wyjściowa) osiągnęła 98% + bez wstępnego przetwarzania / ekstrakcji funkcji.
Edytować:
Chciałbym również zwrócić uwagę na inną odpowiedź, którą napisałem, która szczegółowo opisuje, dlaczego MNIST jest tak prosty jak zadanie klasyfikacji obrazów.