Mówisz, że obsługiwane są pliki statyczne not of a big size
. Im są mniejsze, tym bardziej będziesz się martwić pakietami na sekundę zamiast ogólnej przepustowości w sieci.
Podobnie jak w przypadku przepustowości, AWS nie publikuje żadnych konkretnych liczb, tylko „Niski”, „Umiarkowany”, „Wysoki” itp. Miałem pewne problemy z ograniczeniami PPS, a było to nawet mniej publikowane niż liczby przepustowości, więc uruchomiłem niektóre testy.
Oto, co znalazłem dla różnych rozmiarów instancji:
t1.micro 8,473
t2.nano 9,807
t2.micro 19,391
t2.small 28,296
t2.medium 47,214
t2.large 49,512
c1.medium 110,575
m3.large 142,839
m1.large 157,557
m4.large 222,280
c4.large 233,450
r3.large 412,315
c3.large 475,996
i3.large 529,558
r4.large 544,981
c5.large 823,806
Znalazłem też o wiele więcej wokół gwarantowanej przepustowości i najlepszego wysiłku PPS (pakietów na sekundę). Umieściłem go w blogu na temat monitorowania pakietów na sekundę w EC2, gdzie pokazuję wykresy i tabele lepiej niż mogę to pokazać w komentarzu.
Aby powiązać to z oznaczeniem wydajności sieci Amazon („Niska”, „Umiarkowana”, „Wysoka”), zapewne zdziwiłbyś się, wiedząc, że istnieje niewielka korelacja między rzeczywistą przepustowością a rzeczywistym PPS z tymi oznaczeniami. Są bezwartościowe - polegają tylko na wynikach testów, a nie na opublikowanych kategoriach AWS.