Myślę, że jest kilka rzeczy, które Cię dezorientują, więc najpierw.
x [ n ]h [ n ]x [ n ]h [ n ]y[ n ] = ( x ⋆ h ) [ n ]
y[ n ] = ∑m = - ∞∞x [ m ] h [ n - m ]
To samo dotyczy sygnałów jednowymiarowych, ale to samo można powiedzieć o obrazach, które są tylko sygnałami dwuwymiarowymi. W takim przypadku równanie staje się:
jan e w[ r , c ] = ∑u = - ∞∞∑v = - ∞∞jao l d[ u , v ] k [ r - u , c - v ]
Obrazowo dzieje się to:
W każdym razie należy pamiętać, że jądro , tak naprawdę, nauczyło się podczas szkolenia Deep Neural Network (DNN). Jądro będzie po prostu tym, czym przekręcisz swój wkład. DNN nauczy się jądra, dzięki czemu wydobędzie pewne aspekty obrazu (lub poprzedniego obrazu), które będą dobre dla zmniejszenia utraty celu docelowego.
Jest to pierwszy kluczowy punkt do zrozumienia: tradycyjnie ludzie projektują jądra, ale w głębokim uczeniu pozwalamy sieci decydować, jakie powinno być najlepsze jądro. Jedyne, co określamy, to wymiary jądra. (Nazywa się to hiperparametrem, na przykład 5x5 lub 3x3 itp.).