8
Co robi funkcja tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Nie rozumiem obowiązku tej funkcji. Czy to jest jak tabela przeglądowa? Co oznacza zwrócenie parametrów odpowiadających każdemu identyfikatorowi (w identyfikatorach)? Na przykład w skip-grammodelu, jeśli używamy tf.nn.embedding_lookup(embeddings, train_inputs), to dla każdego train_inputznajduje odpowiednie osadzenie?