Prowadzę symulacje dynamiki molekularnej (MD) przy użyciu kilku pakietów oprogramowania, takich jak Gromacs i DL_POLY.
Gromacs obsługuje teraz zarówno algorytmy dekompozycji cząstek, jak i dekompozycji domen. Domyślnie symulacje Gromacs wykorzystują rozkład domen, chociaż przez wiele lat, do niedawna, rozkład cząstek był jedyną metodą zaimplementowaną w Gromacs. W jednym z artykułów Gromacsa (DOI 10.1002 / jcc.20291) autorzy podają powód swojego wstępnego wyboru rozkładu cząstek:
„Wczesną decyzją projektową był wybór raczej pracy z rozkładem cząstek niż z rozkładem domen w celu rozdzielenia pracy między procesorami. W tym drugim przypadku domeny przestrzenne są przypisywane do procesorów, co umożliwia szybkie znajdowanie sąsiadów przestrzennych tylko przez lokalną komunikację, ale z powodu komplikacji cząstki poruszające się ponad granicami przestrzennymi są znaczne. Rozkład domen jest lepszym wyborem tylko wtedy, gdy rozmiar układu liniowego znacznie przekracza zakres interakcji, co rzadko ma miejsce w przypadku dynamiki molekularnej. Dzięki rozkładowi cząstek każdy procesor oblicza siły i aktualizuje współrzędne / prędkości dla przypisanej frakcji cząstek, przy użyciu wstępnie obliczonej listy sąsiadów równomiernie rozmieszczonej w procesorach powstające z interakcji pary między cząstkami i, która jest potrzebna do aktualizacji prędkości obu cząsteki j i j, jest obliczany tylko raz i przekazywany innym procesorom. Każdy procesor zachowuje w swojej lokalnej pamięci pełny zestaw współrzędnych systemu, a nie ogranicza pamięci do potrzebnych współrzędnych. Jest to prostsze i pozwala zaoszczędzić koszty komunikacji, podczas gdy twierdzenie o pamięci zwykle nie jest wcale czynnikiem ograniczającym, nawet dla milionów cząstek. Z drugiej strony lista sąsiadów, która może zawierać do 1000 razy więcej cząstek, jest rozłożona na procesory. Komunikacja ogranicza się zasadniczo do wysyłania współrzędnych i sił raz na krok wokół pierścienia procesora. Wybory te okazały się z czasem solidne i można je łatwo zastosować w nowoczesnych klastrach procesorów ”.
Co rozumieją przez „rozmiar systemu liniowego” w zdaniu „Dekompozycja domen jest lepszym wyborem tylko wtedy, gdy rozmiar systemu liniowego znacznie przekracza zakres interakcji, co rzadko zdarza się w dynamice molekularnej”? Z powyższego akapitu rozumiem, że rozkład cząstek ma tę zaletę, że nie trzeba zajmować się cząstkami poruszającymi się przez granice domen; raczej wystarczy mieć wystarczającą ilość pamięci dla każdego procesora, aby zapisać całkowitą konfigurację systemu. Tak więc rozkład cząstek wygląda bardzo korzystnie, podczas gdy rozkład domen wygląda bardzo niekorzystnie.
Jestem pewien, że jest to bardzo skomplikowane pytanie (i prawdopodobnie temat wielu książek), ale w gruncie rzeczy, jeśli rozkład cząstek wydaje się tak korzystny, dlaczego ktoś miałby używać rozkładu domen? Czy dekompozycja domeny jest po prostu korzystna, jeśli rozmiar systemu jest bardzo duży (utrudniając lub uniemożliwiając zapisanie całkowitej konfiguracji w każdym procesorze)? Na podstawie cytowanego akapitu powyżej nie jestem pewien, dlaczego dekompozycja domen jest teraz, niedawno, domyślnym algorytmem paralelizacji w Gromacs.
Wygląda na to, że DL_POLY teraz (wersja 4) również korzysta z dekompozycji domen. Z podręcznika wersji 4:
„Podział danych konguracyjnych w ten sposób opiera się na lokalizacji atomów w komórce symulacyjnej, taki geometryczny przydział danych systemowych jest cechą charakterystyczną algorytmów DD. Należy pamiętać, że aby strategia działała skutecznie, symulowano system musi posiadać odpowiednio jednorodną gęstość, aby każdy procesor miał przydzieloną prawie równą część danych atomu (w jak największym stopniu). Dzięki temu podejściu obliczanie sił i całkowanie równań ruchu są dzielone (rozsądnie) równo między procesory i w dużym stopniu można go obliczyć niezależnie dla każdego procesora. Metoda jest koncepcyjnie prosta, ale trudna do zaprogramowania i szczególnie nadaje się do symulacji na dużą skalę, w których wydajność jest najwyższa.
...
W przypadku strategii DD algorytm SHAKE (RATTLE) jest prostszy niż w przypadku metody replikowanych danych DL_POLY Classic), gdzie wymagane są globalne aktualizacje pozycji atomów (scalanie i splicing). ”
To sprawia, że brzmi to tak, jakby dekompozycja domeny była dobra, ponieważ może być bardziej wydajna, chociaż być może trudniejsza do wdrożenia.
Z drugiej strony poprzednia wersja (DL_POLY Classic) stosowała równoległą replikację danych, która wydaje się być inną nazwą rozkładu cząstek. Z podręcznika tej wersji:
Strategia danych replikowanych (RD) jest jednym z kilku sposobów osiągnięcia równoległości w MD. Jego nazwa pochodzi od replikacji danych konfiguracyjnych na każdym węźle komputera równoległego (tj. Tablic definiujących współrzędne atomowe , prędkości i wymusza , dla wszystkiev i f i Natomy w układzie symulowanym są odtwarzane na każdym węźle przetwarzającym). W tej strategii większość obliczeń sił i całkowanie równań ruchu można łatwo i równo podzielić między węzłami i w dużym stopniu przetwarzać niezależnie w każdym węźle. Metoda jest stosunkowo prosta do zaprogramowania i jest dość wydajna. Co więcej, można go bardzo łatwo „zwinąć”, aby działać na jednym procesorze. Jednak strategia może być kosztowna pod względem pamięci i mieć duże koszty ogólne komunikacji, ale ogólnie okazała się skuteczna w szerokim zakresie zastosowań.
Ten akapit wydaje się zasadniczo zgodny z pierwszym akapitem tego pytania, z tym wyjątkiem, że mówi, że powielony rozkład danych / cząstek ma „wysokie koszty ogólne komunikacji”. Akapit z artykułu Gromacsa wydaje się mówić przeciwnie - ten rozkład cząstek jest lepszy, ponieważ ma mniejszy narzut komunikacyjny niż rozkład domen.
Czy masz jakieś przemyślenia?