Dawno, dawno temu budowałem własne serwery SQL i miałem kontrolę nad konfiguracją dysków, poziomami RAID itp. Tradycyjna rada dotycząca oddzielania danych, dzienników, tempdb, kopii zapasowych (w zależności od budżetu!) Zawsze była bardzo ważną częścią procesu projektowania serwera SQL.
Teraz dzięki sieci SAN na poziomie przedsiębiorstwa po prostu żądam określonej ilości miejsca na dysku dla nowego serwera SQL, podzielonej na dyski logiczne do przechowywania danych, kopii zapasowych i udostępniania plików. Z pewnością ułatwia mi to pracę, ale jest taka część mnie, która nie czuje się całkowicie komfortowo, że tak naprawdę nie mogę zajrzeć „za zasłonę”, aby zobaczyć, co się tam naprawdę dzieje.
Rozumiem, że zespół SAN nie konfiguruje różnych „typów” dysków inaczej (optymalizując dyski danych pod kątem losowego dostępu w porównaniu z dyskami logowymi do zapisu strumieniowego). Niektóre z nich mogą zależeć od samego produktu SAN (mamy HP XP12000 i HP XP24000), ale zapewniłem, że oprogramowanie HP wykonuje wszelkiego rodzaju konfigurację wydajności dynamicznej (szukając hotspotów we / wy i rekonfigurując na bieżąco, aby zoptymalizować te jednostki LUN), aby zespoły aplikacji i DBA nie musiały się martwić żadnymi z tych rzeczy. Coś o „rozkładaniu obciążenia wszystkich serwerów na ogromną liczbę wrzecion” lub coś w tym rodzaju.
Moje pytania / dyskusja:
Nie czyniąc wrogów w zespole SAN, jak mogę zapewnić siebie i twórców aplikacji, że nasze serwery SQL nie cierpią z powodu źle skonfigurowanej pamięci? Używasz tylko statystyk perfmon? Inne testy porównawcze, takie jak sqlio?
Jeśli załaduję test na te dyski SAN, czy to naprawdę da mi niezawodną, powtarzalną miarę tego, co zobaczę, gdy uruchomimy? (zakładając, że oprogramowanie SAN może „dynamicznie konfigurować” inaczej w różnych momentach).
Czy intensywne operacje we / wy w jednej części sieci SAN (powiedzmy na serwerze Exchange) wpływają na moje serwery SQL? (zakładając, że nie dają dedykowanych dysków każdemu serwerowi, co powiedziano mi, że nie są)
Czy pomogłoby w tym żądanie rozdzielenia dysków logicznych dla różnych funkcji dysków logicznych (dane vs log vs tempdb)? Czy SAN zobaczyć różne aktywności na tych IO i optymalnie skonfigurować je inaczej?
W tej chwili jesteśmy trochę w kryzysie kosmicznym. Zespołom aplikacyjnym polecono przycinanie archiwów danych itp. Czy problemy związane z przestrzenią zmusiłyby zespół SAN do podjęcia różnych decyzji dotyczących konfiguracji pamięci wewnętrznej (poziomy RAID itp.), Które mogłyby wpłynąć na wydajność mojego serwera?
Dziękuję za twoje przemyślenia (podobny temat krótko omówiony w tym pytaniu SF )