Pytania otagowane jako bulk

2
Optymalizacja wydajności aktualizacji zbiorczych w PostgreSQL
Korzystanie z PG 9.1 na Ubuntu 12.04. Obecnie uruchomienie dużego zestawu instrukcji UPDATE w bazie danych, które mają postać: UPDATE table SET field1 = constant1, field2 = constant2, ... WHERE id = constid (Po prostu nadpisujemy pola obiektów identyfikowanych przez identyfikator.) Wartości pochodzą z zewnętrznego źródła danych (jeszcze nie w …

2
Najbardziej efektywny sposób zbiorczego usuwania wierszy z postgresu
Zastanawiam się, jaki byłby najbardziej efektywny sposób usuwania dużej liczby wierszy z PostgreSQL, ten proces byłby codziennie częścią powtarzającego się zadania masowego importowania danych (delta wstawiania + usuwania) do tabeli. Mogą być tysiące, potencjalnie miliony wierszy do usunięcia. Mam plik kluczy podstawowych, po jednym w wierszu. Dwie opcje, o których …


2
Co konkretnie robi OracleBulkCopy i jak mogę zoptymalizować jego wydajność?
Podsumowując szczegóły: Musimy wprowadzić około 5 milionów wierszy do bazy danych dostawców (Oracle). Wszystko idzie świetnie w przypadku partii 500 tys. Wierszy przy użyciu OracleBulkCopy(ODP.NET), ale gdy próbujemy skalować do 5 mln, wydajność zaczyna zwalniać do indeksowania, gdy osiągnie znak 1 mln, staje się stopniowo wolniejsza w miarę ładowania większej …
14 oracle  bulk 

3
Utwórz tabelę z pliku CSV z nagłówkami
Szukam sposobu na wygenerowanie nowej tabeli MySQL wyłącznie na podstawie zawartości określonego pliku CSV. Pliki CSV, których będę używał, mają następujące właściwości; „|” rozdzielony. Pierwszy wiersz określa nazwy kolumn (nagłówki), a także „|” rozdzielony. Nazwy kolumn i kolejność nie są ustalone. Liczba kolumn nie jest stała. Pliki mają duży rozmiar …
12 mysql  csv  import  bulk 

1
Najlepszy sposób na ponowny import dużej ilości danych przy minimalnym przestoju
Muszę zaimportować około 500 000 rekordów zawierających dane wyszukiwania IP (odwołanie tylko do odczytu) raz w tygodniu (tylko trzy kolumny int / bigint). Nie chcę się martwić połączeniem danych z istniejącą tabelą, wolę wyczyścić stare i ponownie zaimportować. Idealnie byłoby, gdyby zapytania dotyczące danych byłyby kontynuowane (nie otrzymujemy ich zbyt …
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.