Prawidłowe umieszczenie urządzeń na tkaninie Fibre Channel


10

Dostajemy parę nowych przełączników 8 Gb dla naszej sieci kanałów światłowodowych. Jest to dobra rzecz, ponieważ brakuje nam portów w naszym głównym centrum danych i pozwoli nam mieć co najmniej jeden ISL 8 Gb między naszymi dwoma centrami danych.

Nasze dwa centra danych znajdują się w odległości około 3,2 km od siebie, gdy biegnie światłowód. Od kilku lat otrzymujemy solidną usługę 4 Gb i mam nadzieję, że może ona również utrzymać 8 Gb.

Obecnie zastanawiam się, jak zmienić konfigurację naszej sieci, aby akceptowała te nowe przełączniki. Z powodu decyzji o kosztach kilka lat temu nie prowadzimy całkowicie oddzielnej tkaniny z podwójną pętlą. Koszt pełnej redundancji był postrzegany jako droższy niż mało prawdopodobne przestoje awarii przełącznika. Ta decyzja została podjęta przed moim czasem i od tego czasu niewiele się poprawiło.

Chciałbym skorzystać z okazji, aby uczynić naszą tkaninę bardziej odporną na awarię przełącznika (lub aktualizacji FabricOS).

Oto schemat tego, co myślę o układzie. Niebieskie elementy są nowe, czerwone elementy to istniejące linki, które zostaną (ponownie) przeniesione.

Digib FibreChannel
(źródło: sysadmin1138.net )

Czerwona linia ze strzałkami to bieżące łącze przełącznika ISL, oba numery ISL pochodzą z tego samego przełącznika. EVA6100 jest obecnie podłączony do obu przełączników 16/4, które mają ISL. Nowe przełączniki pozwolą nam mieć dwa przełączniki w zdalnym DC, jeden z ISL dalekiego zasięgu przenosi się do nowego przełącznika.

Zaletą tego jest to, że każdy przełącznik ma nie więcej niż 2 przeskoki od innego przełącznika, a dwa EVA4400, które będą w relacji replikacji EVA, są oddalone od siebie o 1 przeskok. EVA6100 na wykresie to starsze urządzenie, które ostatecznie zostanie wymienione, prawdopodobnie na jeszcze jedną EVA4400.

Dolna połowa wykresu to miejsce, w którym znajduje się większość naszych serwerów, i mam obawy dotyczące dokładnego umiejscowienia. Co trzeba tam wejść:

  • 10 hostów VMWare ESX4.1
    • Dostęp do zasobów w EVA6100
  • 4 serwery Windows Server 2008 w jednym klastrze przełączania awaryjnego (klaster serwer plików)
    • Dostęp do zasobów zarówno w EVA6100, jak i zdalnym EVA4400
  • 2 serwery Windows Server 2008 w drugim klastrze przełączania awaryjnego (zawartość tablicy)
    • Dostęp do zasobów w EVA6100
  • 2 serwery baz danych MS-SQL
    • Dostęp do zasobów w EVA6100, z nocnym eksportem DB do EVA4400
  • 1 biblioteka taśm LTO4 z 2 napędami taśm LTO4. Każdy dysk ma własny port światłowodowy.
    • Serwery kopii zapasowych (nie na tej liście) buforują je

W tej chwili klaster ESX może tolerować do 3, a może 4 hostów, które przestają działać, zanim będziemy musieli zacząć wyłączać maszyny wirtualne z powodu miejsca. Na szczęście wszystko ma włączone MPIO.

Obecne linki 4Gb ISL nie zbliżyły się do nasycenia, które zauważyłem. To może się zmienić wraz z replikacją dwóch EVA4400, ale co najmniej jeden z ISL będzie miał 8 Gb. Patrząc na wydajność, z której wychodzę z EVA4400-A, jestem bardzo pewien, że nawet przy ruchu replikacyjnym trudno będzie nam przekroczyć linię 4 Gb.

4-węzłowy klaster obsługujący pliki może mieć dwa węzły na SAN1SW4 i dwa na SAN1SW1, ponieważ to spowoduje odłożenie obu macierzy pamięci o jeden skok.

10 węzłów ESX, nad którymi jestem nieco chory. Trzy na SAN1SW4, trzy na SAN1SW2 i cztery na SAN1SW1 to opcja, i bardzo chciałbym usłyszeć inne opinie na temat układu. Większość z nich ma karty FC z podwójnym portem, więc mogę dwukrotnie uruchomić kilka węzłów. Nie wszystkie z nich , ale wystarczające, aby pozwolić jednemu przełącznikowi zawieść bez zabicia wszystkiego.

Dwie skrzynki MS-SQL muszą działać na SAN1SW3 i SAN1SW2, ponieważ muszą znajdować się blisko podstawowej pamięci, a wydajność eksportu db jest mniej ważna.

Dyski LTO4 są obecnie na SW2 i 2 przeskokach od głównego streamera, więc już wiem, jak to działa. Mogą pozostać na SW2 i SW3.

Wolałbym, aby dolna połowa wykresu nie była w pełni połączoną topologią, ponieważ zmniejszyłoby to naszą użyteczną liczbę portów z 66 do 62, a SAN1SW1 wynosiłby 25% ISL. Ale jeśli jest to zdecydowanie zalecane, mogę wybrać tę trasę.


Aktualizacja: Niektóre numery wydajności, które prawdopodobnie będą przydatne. Miałem je, właśnie rozłożyłem, że są przydatne w tego rodzaju problemach.

EVA4400-A na powyższej tabeli wykonuje następujące czynności:

  • Podczas dnia pracy:
    • Średnia liczba operacji we / wy poniżej 1000 z skokami do 4500 podczas migawek ShadowCopy klastra serwerów plików (trwa około 15-30 sekund).
    • MB / s zazwyczaj utrzymuje się w zakresie 10-30 MB, z skokami do 70 MB i 200 MB podczas ShadowCopies.
  • W nocy (kopie zapasowe) następuje naprawdę szybkie pedałowanie:
    • Operacje we / wy wynoszą średnio około 1500, z skokami do 5500 podczas tworzenia kopii zapasowych DB.
    • MB / s różni się bardzo, ale działa około 100 MB przez kilka godzin i pompuje imponujące 300 MB / s przez około 15 minut podczas procesu eksportu SQL.

EVA6100 jest znacznie bardziej zajęty, ponieważ jest domem dla klastra ESX, MSSQL i całego środowiska Exchange 2007.

  • W ciągu dnia operacje we / wy wynoszą średnio około 2000 z częstymi skokami do około 5000 (więcej procesów bazy danych), a MB / s średnio od 20-50 MB / s. Maksymalne MB / s zdarza się podczas migawek ShadowCopy w klastrze obsługującym pliki (~ 240 MB / s) i trwa krócej niż minutę.
  • W nocy Exchange Online Defrag, który działa od 1 do 5 rano, pompuje operacje we / wy do linii na 7800 (blisko prędkości flanki dla losowego dostępu z tą liczbą wrzecion) i 70 MB / s.

Byłbym wdzięczny za wszelkie sugestie.


Czy wiesz, ile systemów będziesz CA'ing? Widzimy ~ 20 Mb / s dla „typowego” departamentalnego systemu opartego na Oracle.
Simon Catlin,

@ Simon Nasze produkty Oracle są w zupełnie innym środowisku. W tej chwili 6 serwerów rozmawia przez ISL dalekiego zasięgu, tylko 4 z nich robią to w sposób ciągły; pozostałe dwa wykonują duże serie 1-2 razy dziennie. Przepustowość tego EVA wynosi średnio około 15-30 MB / s, a maksimum do 150 MB podczas normalnych kopii zapasowych i 320 MB podczas eksportu SQL (trwa około 15 minut).
sysadmin1138

Odpowiedzi:


6

przepraszam za opóźnienie.

Spojrzałem na to, co masz i co chcesz osiągnąć, miałem kilka przemyśleń, najpierw fajny obraz ...

alternatywny tekst

  • Wydaje się, że nie ma sensu używanie łącza 8 Gb / s między stronami właśnie dlatego, że jesteś ograniczony przez porty 4 Gb / s na zdalnym urządzeniu 4400, masz już stabilną przepustowość 4 Gb / s, a dostępna przepustowość jest znacznie wyższa niż rzeczywiste wymagania dotyczące użytkowania - dzisiaj wydaje się marnotrawstwem postawienie jednego z przełączników 24x8. Używałbym dwóch przełączników 16x4Gb w zdalnej witrynie.
  • Kusiłbym, aby użyć nowych przełączników 24x8 jako głównych przełączników „rdzeniowych” - większość ruchu odbywa się z serwera do 6100, a nowe urządzenie będzie znacznie szybsze. W ten sposób powinieneś zobaczyć pewne niewielkie wzrosty wydajności, ponieważ nowy przełącznik ma większe bufory i mniejsze opóźnienia, a także możesz wybrać i wybrać serwery, które chcesz przenieść do 8 Gb, kiedy i kiedy chcesz, to samo w przypadku wymiany 6100 ( 4600 ma natywne porty 8 Gb, ale to jeszcze nie oficjalne;)).
  • Następnie wchodzimy w część projektu, w której mamy dwie opcje; aby zachować lub odrzucić dwa „przełączniki środkowe” 16x4Gb - wyłącznie na podstawie liczby portów. Zasadniczo, jeśli użyłeś przełączników 24x8 jako modułów podstawowych, masz tylko 3 wolne porty (ponieważ użyjesz 18 dla 18 serwerów, plus 2 do 6100 i łącze ISL, równe 21). Państwo moglipodłącz lokalną 4400 do przełączników 24x8, pozostawiając dokładnie 1 wolny port dla napędów taśmowych, ale to pozostawia zero wolnych portów. Chciałbym pokusić się o użycie dwóch „przełączników środkowych” 16x4Gb albo jako drugorzędnych przełączników lokalnych do obsługi lokalnych napędów 4400 i taśm lub ewentualnie do obsługi łączy ISL między witrynami, jeśli chcesz - chociaż będziesz mieć porty za darmo na przełącznikach 24x8Gb, aby zrobić to bezpośrednio stamtąd, jeśli chcesz - nie pokazałem obu, ponieważ są bardzo bardzo podobne.

Więc to są moje przemyślenia - są pewne poprawki, które mam do zrobienia, ale moje ogólne pomysły już istnieją - nie wahaj się do mnie wrócić z wszelkimi wyjaśnieniami.


Jeśli chodzi o budżet Ghods, mamy nadzieję, że kiedy przejdziemy do wymiany 6100, będziemy mogli również umieścić kilka serwerów ESX w zdalnej witrynie. Jestem bardzo szczęśliwy, czekając, aż moce, które będą świadome, że macierz post-6100 ma partnera replikacji w zdalnej lokacji, to The Thing i czekam, aż ten projekt dla ISL między lokacjami 8Gb. Kiedy wrócę do pracy, muszę wyśmiewać ludzi, co do prawdopodobieństwa, że ​​te nowe pudełka ESX są bez zastępcy 6100.
sysadmin1138

1
Po wypiciu kawy i przemyśleniu tego, mam kilka komentarzy. Jednym z moich celów jest lepsze radzenie sobie z awariami przełączników (lub restartami), liniowe topo ulega zepsuciu, kiedy to się dzieje. Kilka ISL to naprawi. Trzymanie 24/8 w jednym miejscu to bardzo dobry pomysł, który trzymam. Smaczne 4600.
sysadmin1138
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.