Używam ramek danych Pandas i chcę utworzyć nową kolumnę jako funkcję istniejących kolumn. Nie widziałem dobrej dyskusji na temat różnicy prędkości między df.apply()
i np.vectorize()
, więc pomyślałem, że zapytam tutaj.
Funkcja Pandy apply()
jest powolna. Z tego, co zmierzyłem (pokazane poniżej w niektórych eksperymentach), użycie np.vectorize()
jest 25 razy szybsze (lub więcej) niż korzystanie z funkcji DataFrame apply()
, przynajmniej na moim MacBooku Pro 2016. Czy jest to oczekiwany wynik i dlaczego?
Na przykład załóżmy, że mam następującą ramkę danych z N
wierszami:
N = 10
A_list = np.random.randint(1, 100, N)
B_list = np.random.randint(1, 100, N)
df = pd.DataFrame({'A': A_list, 'B': B_list})
df.head()
# A B
# 0 78 50
# 1 23 91
# 2 55 62
# 3 82 64
# 4 99 80
Załóżmy dalej, że chcę utworzyć nową kolumnę jako funkcję dwóch kolumn A
i B
. W poniższym przykładzie użyję prostej funkcji divide()
. Aby zastosować tę funkcję, mogę użyć albo df.apply()
albo np.vectorize()
:
def divide(a, b):
if b == 0:
return 0.0
return float(a)/b
df['result'] = df.apply(lambda row: divide(row['A'], row['B']), axis=1)
df['result2'] = np.vectorize(divide)(df['A'], df['B'])
df.head()
# A B result result2
# 0 78 50 1.560000 1.560000
# 1 23 91 0.252747 0.252747
# 2 55 62 0.887097 0.887097
# 3 82 64 1.281250 1.281250
# 4 99 80 1.237500 1.237500
Jeśli zwiększę się N
do rzeczywistych rozmiarów, takich jak 1 milion lub więcej, zauważę, że np.vectorize()
jest to 25 razy szybsze lub więcej niż df.apply()
.
Poniżej znajduje się kompletny kod do testów porównawczych:
import pandas as pd
import numpy as np
import time
def divide(a, b):
if b == 0:
return 0.0
return float(a)/b
for N in [1000, 10000, 100000, 1000000, 10000000]:
print ''
A_list = np.random.randint(1, 100, N)
B_list = np.random.randint(1, 100, N)
df = pd.DataFrame({'A': A_list, 'B': B_list})
start_epoch_sec = int(time.time())
df['result'] = df.apply(lambda row: divide(row['A'], row['B']), axis=1)
end_epoch_sec = int(time.time())
result_apply = end_epoch_sec - start_epoch_sec
start_epoch_sec = int(time.time())
df['result2'] = np.vectorize(divide)(df['A'], df['B'])
end_epoch_sec = int(time.time())
result_vectorize = end_epoch_sec - start_epoch_sec
print 'N=%d, df.apply: %d sec, np.vectorize: %d sec' % \
(N, result_apply, result_vectorize)
# Make sure results from df.apply and np.vectorize match.
assert(df['result'].equals(df['result2']))
Wyniki przedstawiono poniżej:
N=1000, df.apply: 0 sec, np.vectorize: 0 sec
N=10000, df.apply: 1 sec, np.vectorize: 0 sec
N=100000, df.apply: 2 sec, np.vectorize: 0 sec
N=1000000, df.apply: 24 sec, np.vectorize: 1 sec
N=10000000, df.apply: 262 sec, np.vectorize: 4 sec
Jeśli np.vectorize()
generalnie jest zawsze szybszy niż df.apply()
, to dlaczego np.vectorize()
nie jest wspominany więcej? Widzę tylko posty StackOverflow związane z df.apply()
, takimi jak:
pandy tworzą nową kolumnę na podstawie wartości z innych kolumn
np.vectorize
jest to w zasadziefor
pętla Pythona (to wygodna metoda), aapply
z