W jaki sposób moduły równoważące obciążenie pasują do centrum danych o znacznie większej przepustowości niż są w stanie obsłużyć?


10

Posiadasz centrum danych znormalizowane dla połączeń 10GE. Z, powiedzmy, Nexusem 7000 w rdzeniu, Nexusem 5000 w agregacji i niektórymi przedłużaczami sieci dla krawędzi do serwerów (używam sprzętu Cisco jako przykładów, ponieważ to jest to, co jest w moim konkretnym laboratorium). Niektóre urządzenia równoważące obciążenie ACE 4710 wiszą na Nexusie 5000, ale mają one tylko interfejsy 1GE. Wszystkie połączenia z przełącznikami są 10GE, potrzebne do ogromnego ruchu wschód-zachód (VM-to-VM) w nowoczesnych zwirtualizowanych centrach danych.

Czy usługi równoważenia obciążenia nie stają się wąskim gardłem w niektórych warunkach drogowych? Widzę, że część lokalnego ruchu wschód-zachód nie musi nawet docierać do modułu równoważenia obciążenia, ale są też inne sytuacje, w których trzeba przejść przez rdzeń, a być może nawet połączenie centrum danych.

Zasadniczo wiem, że usługi równoważenia obciążenia są używane w ruchu klient-serwer (północ-południe) i rzeczy takie jak HTTP GET nie wymagają 10GE, ale są sytuacje, w których twój moduł równoważenia obciążenia 1GE może przeszkadzać w przeciwnym razie 10GE ścieżka ruchu i powodować problemy np. W vMotion (na przykład)?


1
ACE 4710 jest EOL / EOS od 2010 roku. Czy jesteś przywiązany do tego modułu równoważenia obciążenia, czy jesteś otwarty na stosowanie nowoczesnego modułu równoważenia obciążenia, który może skalować się znacznie wyżej? (Wielu producentów je tworzy.) Nie ma powodu, aby sztucznie ograniczać wydajność w sposób opisany przez Ciebie. Cóż, bez powodu poza kosztami, ale tak naprawdę, jeśli kupiłeś opisaną infrastrukturę, prawdopodobnie miałbyś resztki gotówki na prawdziwą konfigurację modułu równoważenia obciążenia.
Brett Lykins

W rzeczywistości nie jest to środowisko produkcyjne, ale rzeczywisty scenariusz „laboratoryjny”, który zawiera te konkretne urządzenia. W bardziej ogólnym znaczeniu moje pytanie brzmi: biorąc pod uwagę obciążenie typowym centrum danych, w jaki sposób moduł równoważenia obciążenia nie stanie się wąskim gardłem w twoim projekcie? Odnosi się to do twojego projektu, na przykład jeśli twoje centrum danych jest wielowarstwowe, na jakim poziomie równoważenia obciążenia itp. W moim konkretnym przykładzie, którego nie mogę zmienić, ponieważ nie jest to mój projekt, czy sensowne jest, aby mieć te Urządzenia ACE jednoręczne od Nexusa 5000, które są znacznie potężniejsze.
wartownik

Odpowiedzi:


6

Czy usługi równoważenia obciążenia nie stają się wąskim gardłem w niektórych warunkach drogowych?

Oczywiście, ale ogólnie nie jest tak w przypadku dobrze zaprojektowanej sieci.

Powinieneś być w stanie zaprojektować swoją sieć w sposób, który pozwoliłby na większość twojego wewnętrznego ruchu serwer-serwer (jak to ujął „wschód-zachód”), nawet jeśli musi on przecinać twój rdzeń lub między centrami danych.

Podczas gdy często moduł równoważenia obciążenia jest domyślną bramą dla serwerów za nim, widziałem konfiguracje, w których uruchamiany jest protokół routingu (tj. OSPF lub RIP), aby umożliwić ruchowi „wschód-zachód” w celu obejścia modułu równoważenia obciążenia lub w mniejszych wdrożeniach gdzie zastosowano trasy statyczne.

Jeśli usługi równoważenia obciążenia będą stanowić wąskie gardło nawet przy dobrym projekcie (tj. Natężenie ruchu jest tak duże), istnieją również sposoby równoważenia obciążenia w wielu modułach równoważenia obciążenia.


4
W rzeczy samej. Jeśli na twojej ścieżce vMotion znajduje się LB, nie powiodło ci się jako inżynier.
Ricky Beam

„... istnieją również sposoby równoważenia obciążenia w wielu modułach równoważenia obciążenia” - na przykład wybierając moduł równoważenia obciążenia sieciowego z DNS?
Andrei Rînea

2

Jest to rzeczywiście wąskie gardło i ograniczy Twoją przepustowość do „najsłabszego ogniwa w łańcuchu”, którym są Twoje LB. Możesz jednak obejść to. Jeśli używasz czegoś zwanego „przełączeniem wstecznym” lub „bezpośrednim powrotem serwera”, możesz wykonać asynchroniczny przepływ ruchu. Sposób działania jest następujący:

a) klient wysyła żądanie http do 2.2.2.2

b) LB odpowiada w 2.2.2.2 i przekazuje żądanie przychodzące do serwera - ponieważ LB i serwer znajdują się w tej samej sieci LAN, odbywa się to na warstwie 2.

c) Serwer akceptuje to połączenie przychodzące, ponieważ IP 2.2.2.2 znajduje się na aliasowanym interfejsie pętli zwrotnej (w przeciwnym razie upuści pakiet, który nie pasuje do interfejsu).

d) Serwer odpowiada bezpośrednio na klienta.

Żądanie to kilka bajtów. Podawana treść może mieć dowolny rozmiar. Wychodzący ruch nie przechodzi przez LB, więc możesz obsłużyć DUŻO większy ruch.

Twoje zdrowie,

--tc


1
Pamiętaj, że takie postępowanie jest odpowiednie tylko dla klastrów L4. W przypadku klastrów L7 spowoduje to przerwanie przepisywania nagłówków, wstawianie plików cookie (trwałość), zakończenie SSL, dowolne dopasowanie adresów URL i wszelkie inne bardziej zaawansowane funkcje wielu mechanizmów równoważenia obciążenia.
YLearn
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.