To pytanie jest podobne do bardziej ogólnego pytania dotyczącego tego, jaki jest właściwy model teoretyczny komputera do projektowania algorytmów i struktur danych.
Tutaj pytam konkretnie o obecne komputery o wysokiej wydajności (takie jak te wymienione na liście 500 najlepszych ), a nawet o nadchodzące superkomputery.
Biorąc pod uwagę, że komputery te zwykle pracują na ogromnych zestawach danych (wydaje się, że niektórzy ludzie używają takich maszyn głównie dlatego, że mają ogromną połączoną pamięć główną) aspektów modelu I / O (wprowadzonego przez Aggarwal i Vitter w 1988 r. ) I jego równoległej wersji , PEM ( Arge, Goodrich, Nelson i Sitchinava w 2008 r. ) powinien być obecny. Z drugiej strony, powinno być coś o komunikacji, w szczególności karanie bardzo małych pakietów do wszystkich innych węzłów obliczeniowych.
Jak możesz sobie wyobrazić, nie obawiam się, że przy tworzeniu nowego modelu zabrakło mi pomysłów, ale trochę się martwię, że mógłbym przeoczyć poprzednie próby, szczególnie dlatego, że mam wrażenie, że lata 1980- Około 1995 roku miało miejsce wiele takich prób modelowania (takich jak BSP lub modele pomostowe), które wydają się nie być szeroko stosowane.
Jakie modele powinienem przyjrzeć się bliżej?