Studiowałem architekturę syjamskiej sieci neuronowej wprowadzonej przez Yanna LeCuna i jego współpracowników w 1994 r. Do rozpoznawania podpisów ( „Weryfikacja podpisu przy użyciu sieci neuronowej z opóźnieniem czasowym syjamskim” .pdf , NIPS 1994)
Zrozumiałem ogólną ideę tej architektury, ale tak naprawdę nie rozumiem, jak działa backpropagacja w tym przypadku. Nie rozumiem, jakie są docelowe wartości sieci neuronowej, które pozwolą na propagację wsteczną w celu prawidłowego ustawienia wag każdego neuronu.
W tej architekturze algorytm oblicza podobieństwo kosinusowe między końcowymi reprezentacjami dwóch sieci neuronowych. Artykuł stwierdza: „Pożądane dane wyjściowe dotyczą niewielkiego kąta między wyjściami dwóch podsieci (f1 i f2), gdy przedstawione są prawdziwe podpisy oraz duży kąt, jeśli jeden z podpisów jest fałszywy ”.
Naprawdę nie rozumiem, w jaki sposób mogliby wykorzystać funkcję binarną (podobieństwo cosinusa między dwoma wektorami) jako cel do uruchomienia propagacji wstecznej.
Jak obliczana jest propagacja wsteczna w syjamskich sieciach neuronowych?