Zacząłem uczyć się o sieciach neuronowych w samouczku dotyczącym sieci neuronowych i programowania. W szczególności w trzecim rozdziale znajduje się sekcja o funkcji entropii krzyżowej i definiuje utratę entropii krzyżowej jako:
Jednak, czytając wprowadzenie Tensorflow , utratę entropii krzyżowej definiuje się jako:
(przy użyciu tych samych symboli jak powyżej)
Następnie, szukając tego, co się dzieje, znalazłem inny zestaw notatek: ( https://cs231n.github.io/linear-classify/#softmax-classifier ), który wykorzystuje zupełnie inną definicję utraty entropii krzyżowej, chociaż to czas na klasyfikator softmax, a nie na sieć neuronową.
Czy ktoś może mi wyjaśnić, co się tutaj dzieje? Dlaczego występują rozbieżności? co ludzie określają jako utratę entropii? Czy istnieje jakaś nadrzędna zasada?