Czy jest możliwe mysqldump podzbiór bazy danych wymagany do odtworzenia zapytania?


37

tło

Chciałbym podać podzbiór mojej bazy danych wymagany do odtworzenia selectzapytania. Moim celem jest, aby mój przepływ pracy obliczeniowej był odtwarzalny (jak w odtwarzalnych badaniach ).

Pytanie

Czy istnieje sposób na włączenie tej instrukcji select do skryptu, który zrzuca dane, których dotyczy zapytanie, do nowej bazy danych, tak aby baza danych mogła zostać zainstalowana na nowym serwerze mysql, a instrukcja działałaby z nową bazą danych. Nowa baza danych nie powinna zawierać zapisów oprócz tych, które zostały użyte w zapytaniu.

Aktualizacja: Dla wyjaśnienia nie jestem zainteresowany zrzutem csv wyników zapytań. Muszę tylko zrzucić podzbiór bazy danych, aby można go było zainstalować na innym komputerze, a następnie samo zapytanie można odtworzyć (i zmodyfikować w odniesieniu do tego samego zestawu danych).

Przykład

Na przykład moja analiza może zapytać o podzbiór danych, który wymaga rekordów z wielu (w tym przykładzie 3) tabel:

select table1.id, table1.level, table2.name, table2.level 
       from table1 join table2 on table1.id = table2.table1_id 
       join table3 on table3.id = table2.table3_id
       where table3.name in ('fee', 'fi', 'fo', 'fum'); 

OK, więc żadnych dodatkowych zapisów. Czy chcesz tylko kolumny określone w zapytaniu?
Richard

@Richard Nie zastanawiałem się nad tym - byłoby miło wiedzieć, jak to zrobić.
David LeBauer,

3
To bardzo wyjątkowe pytanie, na które niektórzy zastanawiali się i wymagali odpowiedzi. +1 za upublicznienie tego typu pytania.
RolandoMySQLDBA,

Przyszli czytelnicy: Oprócz zaakceptowanej odpowiedzi zobacz odpowiedź randomx , która konkretnie zrzuca dane potrzebne do zapytania.
ToolmakerSteve

Odpowiedzi:


52

mysqldump ma opcję --where , aby wykonać klauzulę WHERE dla danej tabeli.

Chociaż nie jest możliwe wykonanie mysqldump kwerendy łączenia, można wyeksportować określone wiersze z każdej tabeli, aby każdy wiersz pobrany z każdej tabeli był później zaangażowany w łączenie.

W przypadku podanego zapytania konieczne byłoby trzykrotne mysqldump:

Najpierw mysqldump wszystkie wiersze table3 o nazwie w („opłata”, „fi”, „fo”, „fum”):

mysqldump -u... -p... --where="name in ('fee','fi','fo','fum')" mydb table3 > table3.sql

Następnie mysqldump wszystkie wiersze table2, które mają pasujące wartości table3_id z pierwszego mysqldump:

mysqldump -u... -p... --lock-all-tables --where="table3_id in (select id from table3 where name in ('fee','fi','fo','fum'))" mydb table2 > table2.sql

Następnie mysqldump wszystkie wiersze table1, które mają pasujące wartości table1_id z drugiego mysqldump:

mysqldump -u... -p... --lock-all-tables --where="id in (select table1_id from table2 where table3_id in (select id from table3 where name in ('fee','fi','fo','fum')))" mydb table1 > table1.sql

Uwaga: Ponieważ drugi i trzeci mysqldump wymagają użycia więcej niż jednej tabeli, należy użyć opcji --lock-all-tables .

Utwórz nową bazę danych:

mysqladmin -u... -p... mysqladmin create newdb

Na koniec załaduj trzy mysqldumps do innej bazy danych i spróbuj dołączyć do niej w nowej bazie danych.

mysql -u... -p... -D newdb < table1.sql
mysql -u... -p... -D newdb < table2.sql
mysql -u... -p... -D newdb < table3.sql

W kliencie mysql uruchom zapytanie dotyczące łączenia

mysql> use newdb
mysql> select table1.id, table1.level, table2.name, table2.level 
       from table1 join table2 on table1.id = table2.table1_id 
       join table3 on table3.id = table2.table3_id
       where table3.name in ('fee', 'fi', 'fo', 'fum'); 

Spróbuj !!!

OSTRZEŻENIE: Jeśli nie zostanie poprawnie zindeksowany, drugi i trzeci mysqldump mogą trwać wiecznie !!!

Na wszelki wypadek zindeksuj następujące kolumny:

ALTER TABLE table2 ADD INDEX (table1_id);
ALTER TABLE table2 ADD INDEX (table3_id);
ALTER TABLE table3 ADD INDEX (name,id);

Zakładam, że id jest kluczem podstawowym table3.


1
dzięki za szczegółowy przykład! Przegapiłem --whereklauzulę w dokumentacji; poinformuje cię, jak to działa, gdy mam szansę go wypróbować.
David LeBauer,

1
+1 Podoba mi się to lepiej niż metoda --tables dla tego problemu. Zasadniczo użyłbym - tabel, ale opcja - gdzie indziej jest bardzo fajna.
Richard

Gdy wykonujesz mysqldump pojedynczą tabelę, --lock-all-tables nie jest używany. Stało się tak, że klauzula where dotyczyła tabel innych niż ta, która została zrzucona, musisz powiedzieć mysqldump --lock-all-tables. Opcja --lock-all-tables jest aktywna dla zrzucania jednej lub więcej baz danych, NIE DLA POJEDYNCZEJ TABELI. Próbowałem wykonać 2. i 3. mysqldumps, ale na to narzekało. Gdy ręcznie wydałem --lock-all-tables, błąd zniknął i mysqldump zakończył się powodzeniem. Zauważ też, że pierwszy mysqldump w mojej odpowiedzi nie ma --lock-all-tables.
RolandoMySQLDBA

@Rolando dziękuje za pomoc.
Działa

@Rolando przepraszam, nie zauważyłem, że odpowiedziałeś na mój komentarz / pytanie, zanim go usunąłem. Otrzymałem ten sam błąd. Po ponownym przeczytaniu instrukcji widzę, że --lock-tables blokuje tylko zrzuty tabel . Byłem zdezorientowany, ponieważ --lock-all-tables blokuje wszystkie tabele we wszystkich bazach danych, co nie jest konieczne, gdy używa się tylko jednej bazy danych.
David LeBauer,

7

Uznałbym za pomocą „outfile” jako część SELECT zamiast mysqldump aby rozwiązać ten problem. Możesz utworzyć dowolną instrukcję SELECT, a następnie dołączyć „INTO OUTFILE” /path/to/outfile.csv „...” na końcu z odpowiednią konfiguracją dla wyjścia w stylu CSV. Następnie możesz po prostu użyć czegoś takiego jak składnia „ LOAD DATA INFILE ...”, aby załadować dane do nowej lokalizacji schematu.

Na przykład za pomocą SQL:

select table1.id, table1.level, table2.name, table2.level 
       from table1 join table2 on table1.id = table2.table1_id 
       join table3 on table3.id = table2.table3_id
       where table3.name in ('fee', 'fi', 'fo', 'fum')
INTO OUTFILE '/tmp/fee-fi-fo-fum.csv'
FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '"'
LINES TERMINATED BY '\n'
; 

Pamiętaj, że potrzebujesz wystarczającej ilości miejsca na docelowej partycji dysku.


Podoba mi się to dla ładowania danych. Nadal będziesz musiał przenieść schemat do nowej bazy danych, ale łatwo to osiągnąć za pomocą innych sztuczek.
Richard

Podoba mi się to również, ponieważ niektórzy ludzie mogą nie chcieć tabel bazowych, a jedynie połączony wynik jako pojedynczy plik CSV importowany. +1 !!!
RolandoMySQLDBA

@ randy Dziękuję za odpowiedź, ale nie sądzę, że to rozwiązuje mój problem, ponieważ nie interesuje mnie zrzut csv wyników zapytań. Muszę tylko zrzucić podzbiór bazy danych, aby można go było zainstalować na innym komputerze, a następnie samo zapytanie można odtworzyć (i zmodyfikować w odniesieniu do tego samego zestawu danych). Celem jest obieg obliczeniowy, który wspiera powtarzalne badania .
David LeBauer,

Dla przyszłych czytelników ponownie komentarz Davida: jak wspomniał Richard, musisz osobno wyeksportować schemat odpowiednich tabel. Te schematy można łatwo załadować do nowej bazy danych. Następnie, jak powiedział randomx, ładujesz plik Load Data Infile.csv do nowej bazy danych. Teraz można wykonać zapytanie.
ToolmakerSteve

Właśnie zdałem sobie sprawę, że ograniczeniem tej techniki jest to, że dane wyjściowe zapytania nie są w tej samej organizacji, co oryginalne tabele. Chociaż nadal podoba mi się to podejście, aby odtworzyć oryginalną strukturę tabeli: Uruchom osobne zapytania, po jednym na tabelę, aby wyeksportować dane potrzebne do tej tabeli.
ToolmakerSteve

6

Narzędzie mysqldump ma opcję --tables, która pozwala określić, które tabele należy zrzucić. Pozwala określić listę tabel.

Nie znam żadnego łatwiejszego (zautomatyzowanego) sposobu.


dziękuję za pomoc, ale chcę wyeksportować tylko wybrane wiersze każdej tabeli, a nie tylko wymagane tabele. Mógłbym mieć skrypt, który następuje po zrzutu delete from table1 where id not in (.....);, jeśli jest to najłatwiejszy sposób, dopóki skrypt może być zautomatyzowany, nie jest konieczne, aby istniało określone narzędzie.
David LeBauer,

Zasługujesz na +1, ponieważ - tabele byłyby prostsze, a upuszczenie niepotrzebnych danych byłoby po prostu więcej pracy konia na nowym serwerze, szczególnie jeśli zaangażowane tabele mają ponad 1 GB. Większość ludzi czułaby się w ten sposób z większym komfortem, ponieważ ma to sens tylko pod względem kroków. Moja odpowiedź wymaga tylko trochę planowania i nieco większego ryzyka.
RolandoMySQLDBA


2

Czy wypróbowałeś już funkcję cytowania w mysql?

SELECT CONCAT("insert into table4(id,level,name,levelt2) VALUES(",   quote(table1.id),   ",",    quote(table1.level),   ",",    quote(table2.name),   ",",    quote(table2.level),    ");") as q
       from table1 join table2 on table1.id = table2.table1_id 
       join table3 on table3.id = table2.table3_id
       where table3.name in ('fee', 'fi', 'fo', 'fum'); 

zapisz powyższe, jako query.sql

cat query.sql|mysql --skip-column-names --raw > table4.sql

1

W MySQL:

SHOW CREATE TABLE table1; -- use these two create statements
SHOW CREATE TABLE table2; -- to design table4's create statement
CREATE TABLE table4( .... );
INSERT INTO table4(id,level,name,levelt2)
SELECT table1.id, table1.level, table2.name, table2.level 
   from table1 join table2 on table1.id = table2.table1_id 
   join table3 on table3.id = table2.table3_id
   where table3.name in ('fee', 'fi', 'fo', 'fum'); 

W wierszu poleceń:

mysqldump mydb table4 |gzip > table4.sql.gz

Na serwerze docelowym skonfiguruj ~ / .my.cnf

[client]
default-character-set=utf8

Importuj na serwer docelowy

zcat table4.sql.gz | mysql

1

napisałem mały skrypt dla podobnego problemu, oto on: https://github.com/digitalist/mysql_slice

include ('queryDumper.php');


$exampleQuery="select * from information_schema.columns c1 
left join information_schema.columns c2 on 1=1 limit 1";

//define credentials
$exampleMysqli = new mysqli($host, $user, $password, $database);
$exampleResult=$exampleMysqli->query($exampleQuery);

//if  mysqlnd (native driver installed), otherwise use wrapper
$exampleData=fetchAll($exampleResult);
$exampleMeta=$exampleResult->fetch_fields();

/*
 * field content removal options
 * column name => function name in queryDumper.php, namespace QueryDumperHelpers
 * 
 * */

$forbiddenFields=array(
'password'=>'replacePassword', //change password -> md5("password")
'login'=>'replaceLogin', //change login vasya@mail.ru -> vasya@example.com
'comment'=>'sanitizeComment' //lorem ipsum or 
);


//get tables dump
$dump=(\queryDumper\dump($exampleData, $exampleMeta, $forbiddenFields));



$dropDatabase=true; //default false
$dropTable=true; //default false

$dbAndTablesCreationDump=\QueryDumperDatabaseAndTables\dump($exampleMysqli,$exampleMeta, $dropDatabase, $dropTable);

$databases=$dbAndTablesCreationDump['databases'];
$tables=$dbAndTablesCreationDump['tables'];
$eol=";\n\n";
echo implode($eol, $databases)."\n";
echo implode($eol, $tables).";\n";
echo "\n";

//consider using array_unique($dump) before imploding
echo implode("\n\n", $dump);
echo "\n";
?>

tzn. masz to zapytanie :

SELECT * FROM employees.employees e1 
LEFT JOIN employees.employees e2 ON 1=1 
LIMIT 1; 

masz ten zrzut :

DROP DATABASE `employees`;

CREATE DATABASE `employees`;
CREATE TABLE `employees` ( /* creation code */ ) ENGINE=InnoDB DEFAULT CHARSET=latin1;

INSERT IGNORE INTO `employees`.`employees` VALUES ("10001","1953-09-02","Georgi","Facello","M","1986-06-26");

INSERT IGNORE INTO `employees`.`employees` VALUES ("10001","1953-09-02","Georgi","Facello","M","1986-06-26");
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.