Dziedzina przetwarzania rozproszonego okazała się bardzo krótka w opracowaniu jednej teorii matematycznej opisującej algorytmy rozproszone. Istnieje kilka „modeli” i struktur obliczeń rozproszonych, które po prostu nie są ze sobą kompatybilne. Sama eksplozja różnych właściwości czasowych (asynchronia, synchronizacja, synchronizacja częściowa), różne prymitywy komunikacyjne (przekazywanie wiadomości w stosunku do pamięci współużytkowanej, transmisja w stosunku do emisji pojedynczej), wiele modeli błędów (zatrzymanie awaryjne, odzyskiwanie po awarii, wysyłanie pominięć, bizantyna itd. on) pozostawiło nam niewyobrażalną liczbę modeli, ram i metodologii systemowych, które porównują względne wyniki w zakresie rozwiązalności i dolne granice w tych modelach i ramach stały się uciążliwe, trudne do zastosowania, a czasami niemożliwe.
Moje pytanie jest bardzo proste, dlaczego tak jest? Co takiego zasadniczo różni się w przetwarzaniu rozproszonym (od jego sekwencyjnego odpowiednika), że nie byliśmy w stanie połączyć badań w ujednoliconą teorię przetwarzania rozproszonego? Dzięki przetwarzaniu sekwencyjnemu maszyny Turinga, funkcje rekurencyjne i rachunek Lambda Calculus zostały równorzędne. Czy to był tylko przypadek szczęścia, czy naprawdę zrobiliśmy dobrą robotę w enkapsulacji przetwarzania sekwencyjnego w sposób, który nie został jeszcze osiągnięty w przypadku przetwarzania rozproszonego?
Innymi słowy, czy przetwarzanie rozproszone z natury nie poddaje się eleganckiej teorii (a jeśli tak, to w jaki sposób i dlaczego?), Czy też po prostu nie jesteśmy wystarczająco inteligentni, aby odkryć taką teorię?
Jedyne odniesienie, które udało mi się znaleźć, które odnosi się do tego problemu, to: „Ocena dwóch dekad badań teorii rozproszonego przetwarzania danych ” Fischera i Merritt DOI: 10.1007 / s00446-003-0096-6
Wszelkie odniesienia lub ekspozycje byłyby naprawdę pomocne.