Mam już kilka milionów wierszy w mojej bazie danych. Nie wiedziałem o typie danych UUID PostgreSQL podczas projektowania mojego schematu.
Jedna z tabel ma 16 mln wierszy (około 3,5 mln do 4 mln rekordów na odłamek), rosnąc przy około 500 000 rekordów dziennie. Nadal mam luksus wyłączania systemu produkcyjnego na kilka godzin w razie potrzeby. Nie będę miał tego luksusu za tydzień lub dwa.
Moje pytanie brzmi: czy warto to zrobić? Zastanawiam się nad wydajnością JOIN, wykorzystaniem miejsca na dysku (pełny zrzut gzip'd to 1,25 GiB), tego typu rzeczy.
Schemat tabeli to:
# \d twitter_interactions
Table "public.twitter_interactions"
Column | Type | Modifiers
-------------------------+-----------------------------+-----------
interaction_id | character(36) | not null
status_text | character varying(1024) | not null
screen_name | character varying(40) | not null
twitter_user_id | bigint |
replying_to_screen_name | character varying(40) |
source | character varying(240) | not null
tweet_id | bigint | not null
created_at | timestamp without time zone | not null
Indexes:
"twitter_interactions_pkey" PRIMARY KEY, btree (interaction_id)
"twitter_interactions_tweet_id_key" UNIQUE, btree (tweet_id)
"index_twitter_interactions_on_created_at" btree (created_at)
"index_twitter_interactions_on_screen_name" btree (screen_name)
Triggers:
insert_twitter_interactions_trigger BEFORE INSERT ON twitter_interactions FOR EACH ROW EXECUTE PROCEDURE twitter_interactions_insert_trigger()
Number of child tables: 9 (Use \d+ to list them.)