Chciałbym zmniejszyć wymiarowość na prawie 1 milionach wektorów, każdy o 200 wymiarach ( doc2vec). Używam do tego TSNEimplementacji z sklearn.manifoldmodułu, a głównym problemem jest złożoność czasu. Mimo method = barnes_hutto szybkość obliczeń jest wciąż niska. Czasami nawet kończy się pamięć.
Używam go na 48-rdzeniowym procesorze z 130G RAM. Czy istnieje metoda równoległego uruchomienia lub wykorzystania dużej ilości zasobów w celu przyspieszenia procesu?