Mam katalog z około 100 000 małych plików (każdy plik jest z 1-3 linii, każdy plik jest plikiem tekstowym). Rozmiar katalogu nie jest bardzo duży (<2 GB). Te dane znajdują się na profesjonalnie administrowanym serwerze NFS. Serwer działa pod Linuksem. Myślę, że systemem plików jest ext3, ale nie jestem tego pewien. Ponadto nie mam dostępu root do serwera.
Te pliki są wynikiem eksperymentu naukowego na dużą skalę, nad którym nie mam kontroli. Muszę jednak przeanalizować wyniki.
Każda operacja / przetwarzanie we / wy w tym katalogu jest bardzo, bardzo wolne. Otwieranie pliku (otwieranie w pythonie), czytanie z otwartego pliku, zamykanie pliku są bardzo wolne. W bash ls, du itp. Nie działają.
Pytanie brzmi:
Jaka jest maksymalna liczba plików w katalogu w systemie Linux w taki sposób, że przetwarzanie, otwieranie, czytanie itp. Jest praktyczne? Rozumiem, że odpowiedź zależy od wielu rzeczy: typu fs, wersji jądra, wersji serwera, sprzętu itp. Chcę tylko, jeśli to możliwe, ogólnej zasady.