Pracuję nad obliczeniem „tylnej części koperty” dla konfiguracji bazy danych raportowania 100 TB. Szukam tutaj myśli od ekspertów. Proponowane środowisko:
- Pojemność ~ 100 TB
- Tabele ~ 200, rozmiary od 1 GB do 5 TB. średni rozmiar może wynosić od 100 GB do 200 GB
- ETL - zadania mogą wymagać łączenia tabel 10-milionowych wierszy, z kluczami łączenia od 10 bajtów do 500 bajtów. takie dołączenia powinny zakończyć się w niecałe 2-5 minut
- Wybór na żywo - początkowo zainteresowany tylko wybranymi prędkościami. powinien obsługiwać 500 selekcji / sekundę. Aktualizacje / sekunda będą relatywnie znacznie mniejsze i można je zignorować w tym ćwiczeniu.
- potrzebujesz dostępności 24x7. Powinny być dostępne 2 niezależne serwery DB do obsługi wybranych połączeń (z replikowanymi danymi).
Pytania:
- Obecnie patrzę na Oracle. Jakie są Twoje doświadczenia z innymi komercyjnymi (lub) rozwiązaniami typu open source dla dużych baz danych?
- Jaki system operacyjny widziałeś najlepiej? Planuję Linux na Dell.
- Czy pamięć sieciowa, taka jak NetApp, jest koniecznością? Jakie problemy przewidujesz przy użyciu komercyjnych dysków z półki?
- Gdy sprzęt i system operacyjny będą gotowe, ile czasu poświęcisz na konfigurację, konfigurację bazy danych, pamięci itp.
- Jakie kompozycje zespołów najlepiej sprawdzały się w obserwowanych środowiskach? Mam na myśli różnych administratorów (administrator systemu operacyjnego, administrator bazy danych Oracle?) Wymaganych do zarządzania i obsługi takiej konfiguracji. Ile z nich może być potrzebnych do osiągnięcia nieprzerwanego działania 24x7.
- Wszelkie przybliżenia / zakres na licencjach DB, koszty pamięci sieciowej.
Wiem, że nie mam wszystkich szczegółów środowiska. Nie szukam dokładnych szczegółów, wystarczy przybliżenie. Chociaż menedżerowie najlepiej odpowiedzą na niektóre pytania, interesuje mnie perspektywa administratorów. Doceniam twój wkład.