Załóżmy, że mam dużą tablicę numpy w pamięci, mam funkcję, func
która przyjmuje tę gigantyczną tablicę jako dane wejściowe (wraz z kilkoma innymi parametrami). func
z różnymi parametrami mogą działać równolegle. Na przykład:
def func(arr, param):
# do stuff to arr, param
# build array arr
pool = Pool(processes = 6)
results = [pool.apply_async(func, [arr, param]) for param in all_params]
output = [res.get() for res in results]
Jeśli użyję biblioteki wieloprocesorowej, ta olbrzymia tablica zostanie skopiowana wiele razy do różnych procesów.
Czy istnieje sposób, aby różne procesy korzystały z tej samej tablicy? Ten obiekt tablicy jest tylko do odczytu i nigdy nie będzie modyfikowany.
Co jest bardziej skomplikowane, jeśli arr nie jest tablicą, ale dowolnym obiektem w języku Python, czy istnieje sposób na udostępnienie go?
[ZMIENIONO]
Przeczytałem odpowiedź, ale nadal jestem trochę zdezorientowany. Ponieważ fork () jest funkcją kopiowania przy zapisie, nie powinniśmy wywoływać żadnych dodatkowych kosztów podczas tworzenia nowych procesów w wieloprocesorowej bibliotece Pythona. Ale poniższy kod sugeruje, że istnieje ogromny narzut:
from multiprocessing import Pool, Manager
import numpy as np;
import time
def f(arr):
return len(arr)
t = time.time()
arr = np.arange(10000000)
print "construct array = ", time.time() - t;
pool = Pool(processes = 6)
t = time.time()
res = pool.apply_async(f, [arr,])
res.get()
print "multiprocessing overhead = ", time.time() - t;
wyjście (a przy okazji, koszt rośnie wraz ze wzrostem rozmiaru tablicy, więc podejrzewam, że nadal istnieje narzut związany z kopiowaniem pamięci):
construct array = 0.0178790092468
multiprocessing overhead = 0.252444982529
Dlaczego jest tak duże obciążenie, jeśli nie skopiowaliśmy tablicy? A jaką część oszczędza mi pamięć współdzielona?