Ocena, czy system działa wystarczająco dobrze, aby był odpowiedni do określonego celu. Zwykle wydajność odnosi się do prędkości, z jaką system wykonuje operację lub zestaw operacji w czasie.
Mam przyzwoitą ilość danych w bazie danych. Mam dobrze utworzone tabele i dobre relacje między nimi z pewną nadmiarowością w moich danych. Ale jak daleko mam iść z normalizacją? Czy występują wady wydajności związane ze zbyt dużą normalizacją?
Mam bazę danych PostgreSQL 9.2, która ma główny schemat z około 70 tabelami i zmienną liczbą identycznie ustrukturyzowanych schematów dla każdego klienta po 30 tabel. Schematy klienta mają klucze obce odnoszące się do głównego schematu, a nie na odwrót. Właśnie zacząłem wypełniać bazę danych prawdziwymi danymi zaczerpniętymi z poprzedniej wersji. …
Jestem w sytuacji, w której chcę uzyskać minimalną wartość z 6 kolumn. Znalazłem do tej pory trzy sposoby, aby to osiągnąć, ale mam obawy dotyczące wydajności tych metod i chciałbym wiedzieć, które z nich byłyby lepsze. Pierwszą metodą jest użycie dużej instrukcji . Oto przykład z 3 kolumnami, na podstawie …
Słyszałem dziś tylko o Robercie Martinie i wygląda na to, że jest znaczącą postacią w świecie oprogramowania, więc nie mam na myśli, że mój tytuł wygląda tak, jakby to była przynęta na kliknięcie lub wkładam słowa do jego ust, ale to po prostu jak interpretowałem to, co od niego usłyszałem, …
Rozważ tabelę wartości i skrótów, takie jak: +------------+----------+------+-----+---------+----------------+ | Field | Type | Null | Key | Default | Extra | +------------+----------+------+-----+---------+----------------+ | id | int(11) | NO | PRI | NULL | auto_increment | | val | char(9) | NO | | NULL | | | val_hashed | char(50) …
Mam trudności z uchwyceniem koncepcji zalet i wad partycjonowania tabel. Zaraz rozpocznę pracę nad projektem, który miałby 8 tabel, a jedna z nich będzie główną tabelą danych, która pomieści 180-260 milionów rekordów. Ponieważ będzie to właściwie indeksowana tabela, myślę o ograniczeniu rekordów tabeli do 20 milionów w ten sposób, że …
Mam instrukcję SQL, która wstawia wiersze do tabeli z indeksem klastrowym w kolumnie TRACKING_NUMBER. NA PRZYKŁAD: INSERT INTO TABL_NAME (TRACKING_NUMBER, COLB, COLC) SELECT TRACKING_NUMBER, COL_B, COL_C FROM STAGING_TABLE Moje pytanie brzmi - czy pomaga w użyciu klauzuli ORDER BY w instrukcji SELECT dla kolumny indeksu klastrowanego, czy też jakiekolwiek zyski …
Mam pytanie związane z wydajnością. Załóżmy, że mam użytkownika o imieniu Michael. Weź następujące zapytanie: UPDATE users SET first_name = 'Michael' WHERE users.id = 123 Czy zapytanie faktycznie wykona aktualizację, nawet jeśli jest aktualizowana do tej samej wartości? Jeśli tak, jak mogę temu zapobiec?
Prowadzimy witrynę (Moodle), którą użytkownicy obecnie uważają za wolną. Myślę, że udało mi się wyśledzić problem, tworząc MySQL, tworząc tymczasowe tabele na dysku. Obserwuję zmienną created_tmp_disk_tablesw administracji serwera Mysql Workbench i liczba ta rośnie z około 50 tabelami / s. Po kilku dniach użytkowania created_tmp_disk_tableswynosi> 100 tys. Wydaje się również, …
Chcę przetestować wydajność (aka wypalanie) rpm serwera MySQL z niektórymi innymi widelcami, takimi jak serwer Percona, MariaDB i być może niektóre inne. Mam nadzieję, że zadając to pytanie, lepiej zrozumiem metodologię tworzenia właściwego testu wydajności. Planowałem użyć sysbench do uruchomienia mojego rzeczywistego testu, ale jestem otwarty na wszystko. Jakie kroki …
To pytanie zostało przeniesione z przepełnienia stosu, ponieważ można na nie odpowiedzieć w programie Exchange Exchange Administrators Database Administrator. Migrował 7 lat temu . Mam dużą tabelę obiektów (15M + wiersz) w PostgreSQL 9.0.8, dla których chcę zapytać o nieaktualne pole. Chcę podzielić zapytanie na miliony, dla celów skalowalności i …
Istnieje wiele artykułów przesadzających (oczywiście IMHO) innodb_file_per_table. Rozumiem, że dzięki innodb_file_per_tablelepszej kontroli nad poszczególnymi tabelami; jak tworzenie kopii zapasowych każdej tabeli osobno. Jednak żądanie lepszej wydajności jest wątpliwe. W moim teście nie ma różnicy w wydajności innodb_file_per_tablei ibdata1dla bazy danych o pojemności 60 GB. Oczywiście był to prosty test z …
Robię projekt, w którym muszę codziennie zmieniać około 36 000 rekordów w jednej tabeli. Zastanawiam się, co będzie działać lepiej: usuń wiersze i wstaw nowe, lub zaktualizuj już istniejące wiersze Dla mnie łatwiej jest po prostu usunąć wszystkie wiersze i wstawić nowe, ale jeśli to spowoduje fragmentację tabeli i indeksów …
Oto trzy proste testy, które odczytują te same dane, ale raportują bardzo różne logiczne odczyty: Ustawiać Poniższy skrypt tworzy tabelę testową ze 100 identycznymi wierszami, z których każdy zawiera kolumnę xml z wystarczającą ilością danych, aby upewnić się, że jest przechowywana poza wierszem. W mojej testowej bazie danych długość wygenerowanego …
Od czasu do czasu uruchamiając program Microsoft SQL Server Profiler, sugeruje mi kilka nowych indeksów i statystyk do stworzenia („... 97% szacowana poprawa ...”). Z mojego zrozumienia każdą dodaną indeks może dokonać SQL SELECTkwerendy szybciej, ale również UPDATElub INSERTzapytania wolniejsze od indeksy muszą być skorygowane. Zastanawiam się, kiedy mam „zbyt …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.