Tam, gdzie pracuję, mamy wiele „dużych żelaznych” serwerów, które są używane do hostowania wielu maszyn wirtualnych za pomocą Xen Hypervisor. Zazwyczaj są one skonfigurowane z 32 GB pamięci RAM, procesorami Dual Quad Core i szybkimi dyskami z dużą ilością operacji we / wy.
Jesteśmy w momencie, gdy istniejąca konfiguracja sprzętowa staje się coraz dłuższa w zębie i nadszedł czas, aby pozyskać większy, szybszy i bardziej błyszczący nowy sprzęt.
Jak wspomniano powyżej, istniejący zestaw został wdrożony z 32 GB pamięci RAM, co skutecznie ograniczyło liczbę maszyn wirtualnych, które możemy wdrożyć na hoście.
Przy badaniu nowszego sprzętu widać jednak, że można uzyskać coraz więcej pamięci RAM na jednym komputerze z 64, 72, a nawet 96 GB w jednej obudowie. Oczywiście pozwoli nam to uzyskać więcej maszyn na danym hoście, co zawsze jest zwycięstwem. Dotychczasowa analiza sugeruje, że czynnik ograniczający zostanie teraz przesunięty na podsystem dyskowy.
Problem polega na tym, że próbujemy dowiedzieć się, gdzie jesteśmy ... Dzięki wykorzystaniu wiemy, że nie jesteśmy ograniczeni pod względem przepustowości we / wy, a tym bardziej liczby losowych I Operacje / O, które można wykonać. Wiemy anegdotycznie, że kiedy osiągniemy ten punkt, iowait poleci do nieba, a cała wydajność maszyny trafi do psów.
To jest sedno pytania, które zadaję: czy ktoś jest świadomy sposobu dokładnego śledzenia / trendowania istniejącej wydajności I / O, w szczególności w odniesieniu do liczby losowych operacji I / O, które są wykonywane?
To, co tak naprawdę próbuję uzyskać, to „ta konfiguracja może z powodzeniem obsłużyć liczbę losowych żądań We / Wy X, a obecnie (średnio) wykonujemy operacje Y ze szczytem operacji Z”.
Z góry dziękuję!