Czy ktoś tutaj używał obliczeń naukowych o podwójnej precyzji z procesorami graficznymi nowej generacji (np. K20) za pośrednictwem Pythona?
Wiem, że ta technologia szybko się rozwija, ale jaki jest obecnie najlepszy sposób? GPU nie wchodzi w zakres popularnych naukowych bibliotek Pythona numpy i scipy, a ja chciałem użyć theano, ale wydaje się, że używa GPU tylko precyzji float32. Wiem, że Google może dostarczyć wyniki wyszukiwania dla Pythona GPU, ale mam nadzieję na więcej wglądu niż listę projektów, które mogą, ale nie muszą być w drodze do ich twórcy.