Istnieją rekurencyjne sieci neuronowe i rekurencyjne sieci neuronowe. Oba są zwykle oznaczone tym samym akronimem: RNN. Według Wikipedii , Rekurencyjne NN są w rzeczywistości Rekurencyjne NN, ale tak naprawdę nie rozumiem wyjaśnienia.
Co więcej, wydaje mi się, że nie znajduję lepszego (z przykładami) dla przetwarzania w języku naturalnym. Faktem jest, że chociaż Socher używa Recursive NN dla NLP w swoim samouczku , nie mogę znaleźć dobrej implementacji rekurencyjnych sieci neuronowych, a kiedy szukam w Google, większość odpowiedzi dotyczy Recurrent NN.
Poza tym, czy istnieje inna nazwa DNN, która lepiej pasuje do NLP, czy zależy to od zadania NLP? Sieci głębokiego przekonania czy autoakodery piętrowe? (Wydaje mi się, że nie znajduję żadnego konkretnego zastosowania dla ConvNets w NLP, a większość implementacji dotyczy maszyn.)
Wreszcie, naprawdę wolałbym implementacje DNN dla C ++ (jeszcze lepiej, jeśli ma obsługę GPU) lub Scali (lepiej, jeśli ma obsługę Spark) niż Python lub Matlab / Octave.
Próbowałem Deeplearning4j, ale jest w ciągłym rozwoju, a dokumentacja jest trochę przestarzała i nie mogę sprawić, by działała. Szkoda, bo ma „czarną skrzynkę” jak sposób robienia rzeczy, bardzo podobny do scikit-learn lub Weka, czego naprawdę chcę.