Odpowiedzi:
Algorytm wstecznej propagacji jest algorytmem spadku gradientu do dopasowania modelu sieci neuronowej. (jak wspomniał @Dikran) Pozwól mi wyjaśnić, jak to zrobić.
Formalnie: użycie obliczenia gradientu na końcu tego słupka w ramach równania [1] poniżej (czyli definicja spadku gradientu) daje algorytm wstecznej propagacji jako szczególny przypadek zastosowania spadku gradientu.
Model sieci neuronowej Formalnie naprawiamy pomysły za pomocą prostego modelu jednowarstwowego:
Aby naprawić pomysły, zastosowano kwadratową funkcję Loss . Dlatego wektory wejściowe z można dopasować do rzeczywistych danych wyjściowych z (mogą być wektorami), minimalizując empiryczne loss: w odniesieniu do wyboru i .
Zejście gradientowe Zejście gradientowe dla zminimalizowaniato algorytm, który iteruje: dla dobrze wybranych rozmiarów kroków(zwany również współczynnikiem uczenia się w ramach propagacji wstecznej). Wymaga obliczenia gradientu. W rozważanym przypadku.
Gradient (dla prostego rozważanego modelu sieci neuronowej) Oznaczmy przez gradient gradientu w funkcji , a gradient jako funkcja . Standardowe obliczenia (przy użyciu reguły do wyprowadzania składu funkcji) i użycie zapisu dają dla wszystkich
Użyłem tutaj notacji R: jest wektorem złożonym ze współrzędnych od indeksu do indeksu .x a b
Propagacja wsteczna jest sposobem wypracowania pochodnej funkcji błędu w odniesieniu do wag, aby model mógł być szkolony metodami optymalizacji spadku gradientu - jest to po prostu zastosowanie „reguły łańcucha”. Nie ma w tym nic więcej, więc jeśli czujesz się dobrze z rachunkiem, jest to w zasadzie najlepszy sposób, aby na to spojrzeć.
Jeśli nie podoba ci się rachunek różniczkowy, lepszym sposobem byłoby powiedzenie, że wiemy, jak źle radzą sobie jednostki wyjściowe, ponieważ mamy pożądaną moc wyjściową do porównania rzeczywistej mocy wyjściowej. Jednak nie mamy pożądanego wyjścia dla ukrytych jednostek, więc co robimy? Reguła wstecznej propagacji jest w zasadzie sposobem na zrzucenie winy za błąd jednostek wyjściowych na jednostki ukryte. Im większy wpływ ukryta jednostka ma na konkretną jednostkę wyjściową, tym większa jest wina za błąd. Całkowita wina związana z ukrytą jednostką daje wtedy wskazanie, jak bardzo należy zmienić wagę warstwy wejściowej do ukrytej. Dwie rzeczy, które decydują o tym, jak duża część winy jest przekazywana z powrotem, to waga łącząca ciężary warstwy ukrytej i wyjściowej (oczywiście) i moc wyjściowa ukrytej jednostki (jeśli krzyczy, a nie szepcze, może mieć większy wpływ). Reszta to tylko matematyczne subtelności, które zamieniają tę intuicję w pochodną kryterium treningowego.
Poleciłbym również książkę Biskupów, by uzyskać właściwą odpowiedź! ; o)
Jest to algorytm do uczenia wielowarstwowych sieci neuronowych (wielowarstwowe perceptrony). W Internecie jest kilka dobrych apletów Java, które ilustrują to, co się dzieje, na przykład ten: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html . Ponadto książka Bishopa na temat NN jest standardowym źródłem informacji na temat wszystkiego, co ma związek z NN.