Przedstawiam wyniki testów porównawczych, porównujące najbardziej znaczące podejścia zaprezentowane do tej pory, a mianowicie @ bobince's findnth()
(na podstawie str.split()
) vs. @ tgamblin's lub @Mark Byers ' find_nth()
(na podstawie str.find()
). Porównam również z rozszerzeniem C ( _find_nth.so
), aby zobaczyć, jak szybko możemy jechać. Oto find_nth.py
:
def findnth(haystack, needle, n):
parts= haystack.split(needle, n+1)
if len(parts)<=n+1:
return -1
return len(haystack)-len(parts[-1])-len(needle)
def find_nth(s, x, n=0, overlap=False):
l = 1 if overlap else len(x)
i = -l
for c in xrange(n + 1):
i = s.find(x, i + l)
if i < 0:
break
return i
Oczywiście wydajność ma największe znaczenie, jeśli łańcuch jest duży, więc przypuśćmy, że chcemy znaleźć 1000001. znak nowej linii („\ n”) w pliku o nazwie „bigfile” o wielkości 1,3 GB. Aby zaoszczędzić pamięć, chcielibyśmy popracować nad mmap.mmap
reprezentacją obiektową pliku:
In [1]: import _find_nth, find_nth, mmap
In [2]: f = open('bigfile', 'r')
In [3]: mm = mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ)
Jest już pierwszy problem findnth()
, ponieważ mmap.mmap
obiekty nie obsługują split()
. Więc właściwie musimy skopiować cały plik do pamięci:
In [4]: %time s = mm[:]
CPU times: user 813 ms, sys: 3.25 s, total: 4.06 s
Wall time: 17.7 s
Auć! Na szczęście s
nadal mieści się w 4 GB pamięci mojego Macbooka Air, więc zróbmy benchmark findnth()
:
In [5]: %timeit find_nth.findnth(s, '\n', 1000000)
1 loops, best of 3: 29.9 s per loop
Najwyraźniej okropny występ. Zobaczmy, jak działa podejście oparte na str.find()
:
In [6]: %timeit find_nth.find_nth(s, '\n', 1000000)
1 loops, best of 3: 774 ms per loop
Dużo lepiej! Najwyraźniej findnth()
problem polega na tym, że jest on zmuszony do skopiowania ciągu w trakcie split()
, co jest już drugim razem, gdy kopiowaliśmy 1,3 GB danych dookoła s = mm[:]
. Tu pojawia się druga zaleta find_nth()
: Możemy go używać mm
bezpośrednio, tak że nie są wymagane żadne kopie pliku:
In [7]: %timeit find_nth.find_nth(mm, '\n', 1000000)
1 loops, best of 3: 1.21 s per loop
Wydaje się, że działanie na mm
vs. jest niewielki spadek wydajności s
, ale to pokazuje, że find_nth()
możemy uzyskać odpowiedź w 1,2 sekundy w porównaniu do findnth
47 sekund.
Nie znalazłem przypadków, w których str.find()
podejście oparte było znacznie gorsze niż str.split()
podejście oparte, więc w tym miejscu argumentowałbym, że odpowiedź @ tgamblin lub @Mark Byers powinna zostać zaakceptowana zamiast @ bobince.
W moich testach find_nth()
powyższa wersja była najszybszym czystym rozwiązaniem Pythona, jakie mogłem wymyślić (bardzo podobnym do wersji @Mark Byers). Zobaczmy, o ile lepiej możemy zrobić z modułem rozszerzającym C. Oto _find_nthmodule.c
:
#include <Python.h>
#include <string.h>
off_t _find_nth(const char *buf, size_t l, char c, int n) {
off_t i;
for (i = 0; i < l; ++i) {
if (buf[i] == c && n-- == 0) {
return i;
}
}
return -1;
}
off_t _find_nth2(const char *buf, size_t l, char c, int n) {
const char *b = buf - 1;
do {
b = memchr(b + 1, c, l);
if (!b) return -1;
} while (n--);
return b - buf;
}
/* mmap_object is private in mmapmodule.c - replicate beginning here */
typedef struct {
PyObject_HEAD
char *data;
size_t size;
} mmap_object;
typedef struct {
const char *s;
size_t l;
char c;
int n;
} params;
int parse_args(PyObject *args, params *P) {
PyObject *obj;
const char *x;
if (!PyArg_ParseTuple(args, "Osi", &obj, &x, &P->n)) {
return 1;
}
PyTypeObject *type = Py_TYPE(obj);
if (type == &PyString_Type) {
P->s = PyString_AS_STRING(obj);
P->l = PyString_GET_SIZE(obj);
} else if (!strcmp(type->tp_name, "mmap.mmap")) {
mmap_object *m_obj = (mmap_object*) obj;
P->s = m_obj->data;
P->l = m_obj->size;
} else {
PyErr_SetString(PyExc_TypeError, "Cannot obtain char * from argument 0");
return 1;
}
P->c = x[0];
return 0;
}
static PyObject* py_find_nth(PyObject *self, PyObject *args) {
params P;
if (!parse_args(args, &P)) {
return Py_BuildValue("i", _find_nth(P.s, P.l, P.c, P.n));
} else {
return NULL;
}
}
static PyObject* py_find_nth2(PyObject *self, PyObject *args) {
params P;
if (!parse_args(args, &P)) {
return Py_BuildValue("i", _find_nth2(P.s, P.l, P.c, P.n));
} else {
return NULL;
}
}
static PyMethodDef methods[] = {
{"find_nth", py_find_nth, METH_VARARGS, ""},
{"find_nth2", py_find_nth2, METH_VARARGS, ""},
{0}
};
PyMODINIT_FUNC init_find_nth(void) {
Py_InitModule("_find_nth", methods);
}
Oto setup.py
plik:
from distutils.core import setup, Extension
module = Extension('_find_nth', sources=['_find_nthmodule.c'])
setup(ext_modules=[module])
Zainstaluj jak zwykle z python setup.py install
. Kod C odgrywa tutaj przewagę, ponieważ ogranicza się do znajdowania pojedynczych znaków, ale zobaczmy, jak szybko to jest:
In [8]: %timeit _find_nth.find_nth(mm, '\n', 1000000)
1 loops, best of 3: 218 ms per loop
In [9]: %timeit _find_nth.find_nth(s, '\n', 1000000)
1 loops, best of 3: 216 ms per loop
In [10]: %timeit _find_nth.find_nth2(mm, '\n', 1000000)
1 loops, best of 3: 307 ms per loop
In [11]: %timeit _find_nth.find_nth2(s, '\n', 1000000)
1 loops, best of 3: 304 ms per loop
Najwyraźniej jeszcze trochę szybciej. Co ciekawe, na poziomie C nie ma różnicy między obudowami in-memory i mmapped. Warto również zauważyć, że _find_nth2()
, który opiera się na string.h
„s memchr()
funkcja biblioteki, traci się przeciwko zwykłej realizacji w _find_nth()
: dodatkowy«optymalizacje»w memchr()
widocznie mści ...
Podsumowując, implementacja w findnth()
(oparta na str.split()
) jest naprawdę złym pomysłem, ponieważ (a) działa strasznie w przypadku większych ciągów z powodu wymaganego kopiowania i (b) w ogóle nie działa na mmap.mmap
obiektach. Implementacja w find_nth()
(oparta na str.find()
) powinna być preferowana we wszystkich okolicznościach (i dlatego powinna być akceptowaną odpowiedzią na to pytanie).
Wciąż jest sporo miejsca na ulepszenia, ponieważ rozszerzenie C działało prawie 4 razy szybciej niż czysty kod Pythona, co wskazuje, że może istnieć argument za dedykowaną funkcją biblioteczną Pythona.