Niedawno natknąłem się na tf.nn.sparse_softmax_cross_entropy_with_logits i nie mogę zrozumieć, jaka jest różnica w porównaniu do tf.nn.softmax_cross_entropy_with_logits .
Czy jedyną różnicą jest to, że wektory szkoleniowe y
muszą być zakodowane na gorąco podczas używania sparse_softmax_cross_entropy_with_logits
?
Czytając API, nie mogłem znaleźć żadnej innej różnicy w porównaniu z softmax_cross_entropy_with_logits
. Ale dlaczego potrzebujemy wtedy dodatkowej funkcji?
Czy nie powinien softmax_cross_entropy_with_logits
dawać takich samych wyników, jak sparse_softmax_cross_entropy_with_logits
gdyby był dostarczany z zakodowanymi na gorąco danymi / wektorami uczącymi?