Wprowadzenie do tła
W splotowej sieci neuronowej zwykle mamy ogólną strukturę / przepływ, który wygląda następująco:
- obraz wejściowy (tj. wektor 2D
x)
(Pierwsza warstwa konwergencji (konw. 1) zaczyna się tutaj ...)
- zwinąć zestaw filtrów (
w1) wzdłuż obrazu 2D (tzn. wykonać iloczynyz1 = w1*x + b1iloczynu iloczynu), gdziez1jest 3D, ab1jest stronniczy. - zastosuj funkcję aktywacji (np. ReLu), aby utworzyć
z1nieliniową (np.a1 = ReLu(z1)), gdziea1jest 3D.
(2. warstwa konwergentna (konw. 2) zaczyna się tutaj ...)
- zbierz zestaw filtrów wzdłuż nowo obliczonych aktywacji (tzn. wykonaj
z2 = w2*a1 + b2pomnożenie iloczynu iloczynu), gdziez2jest 3D, ab2jest stronnicze. - zastosuj funkcję aktywacji (np. ReLu), aby utworzyć
z2nieliniową (np.a2 = ReLu(z2)), gdziea2jest 3D.
Pytanie
Definicja pojęcia „mapa obiektów” wydaje się różnić w zależności od literatury. Konkretnie:
- W przypadku pierwszej warstwy splotowej, czy „mapa funkcji” odpowiada wektorowi wejściowemu
x, produktowi kropkiz1wyjściowej, aktywacjom wyjściowyma1lub „procesowi” konwersjixdoa1, czy coś innego? - Podobnie, w przypadku drugiej warstwy splotowej, czy „mapa cech” odpowiada aktywacjom wejściowym
a1, iloczynowiz2wyjściowej, aktywacji wyjścioweja2lub konwersji „procesu”a1naa2coś innego?
Ponadto, czy to prawda, że termin „mapa funkcji” jest dokładnie taki sam, jak „mapa aktywacji”? (czy faktycznie oznaczają dwie różne rzeczy?)
Dodatkowe referencje:
Fragmenty z sieci neuronowych i dogłębnego uczenia się - rozdział 6 :
* Nomenklatura jest tutaj używana luźno. W szczególności używam „mapy cech”, aby nie oznaczać funkcji obliczonej przez warstwę splotową, ale raczej aktywację ukrytych neuronów wychodzących z warstwy. Ten rodzaj łagodnego nadużywania nomenklatury jest dość powszechny w literaturze naukowej.
Fragmenty z wizualizacji i zrozumienia sieci splotowych przez Matta Zeilera :
W tym artykule przedstawiamy technikę wizualizacji, która ujawnia bodźce wejściowe, które pobudzają indywidualne mapy cech na dowolnej warstwie modelu. [...] Nasze podejście zapewnia natomiast nieparametryczny widok niezmienności, pokazujący, które wzorce z zestawu treningowego aktywują mapę obiektów. [...] lokalna operacja kontrastu, która normalizuje reakcje na mapach obiektów. [...] Aby zbadać daną aktywację konwekcyjną, ustawiamy wszystkie pozostałe aktywacje w warstwie na zero i przekazujemy mapy funkcji jako dane wejściowe do dołączonej warstwy dekonwnet. [...] Konwnet używa relu nieliniowości, które korygują mapy obiektów, dzięki czemu mapy obiektów są zawsze dodatnie. [...] Konwnet wykorzystuje wyuczone filtry do splotu map obiektów z poprzedniej warstwy. [...] Ryc. 6, te wizualizacje są dokładnymi reprezentacjami wzorca wejściowego, który stymuluje daną mapę funkcji w modelu [...], gdy części oryginalnego obrazu wejściowego odpowiadające wzorowi są zatkane, widzimy wyraźny spadek aktywności na mapie cech. [...]
Uwagi: wprowadza także termin „mapa obiektów” i „rektyfikowana mapa obiektów” na ryc. 1.
Fragmenty ze Stanford CS231n Rozdział o CNN :
[...] Jedną z niebezpiecznych pułapek, które można łatwo zauważyć dzięki tej wizualizacji, jest to, że niektóre mapy aktywacyjne mogą być zerowe dla wielu różnych danych wejściowych, co może wskazywać na martwe filtry i może być objawem wysokich wskaźników uczenia się [...] Typowo wyglądające aktywacje na pierwszej warstwie CONV (po lewej) i piątej warstwie CONV (po prawej) wyszkolonego AlexNet patrzącego na zdjęcie kota. Każde okno pokazuje mapę aktywacji odpowiadającą niektórym filtrom. Zauważ, że aktywacje są rzadkie (większość wartości wynosi zero, w tej wizualizacji pokazanej na czarno) i przeważnie lokalne.
Fragmenty z Przewodnika dla początkujących-do-zrozumienia-splotowych sieci neuronowych
[...] Każda unikalna lokalizacja na woluminie wejściowym generuje liczbę. Po najechaniu filtrem na wszystkie lokalizacje przekonasz się, że pozostała tablica liczb 28 x 28 x 1, którą nazywamy mapą aktywacyjną lub mapą obiektów.
a1,a2etc). Myślę, że w Conv2 nazwałbyma1mapę aktywacji wejścia ia2mapę aktywacji wyjścia. W Conv1 Ixobraz wejściowy ia1mapa aktywacji wyjściowej.