Taky se vám stalo, že databáze nebo tabulka nejde ani přes SSH vyexrtpotovat, protože je prostě moc velká? Pohořel jsem s databází už kolem 2GB. Zkoušel jsem si nastavit větší limit času pro zpracování, ale nepomohlo.
Stále hláška: mysqldump: Error 3024: Query execution was interrupted, maximum statement execution time exceeded when dumping table data at row: 2297736
A jelikož jsem to zkoušel vícekrát a po každé to skončí na jiném řádku je to omezeno časem. Pokud by to vždy skončilo na stejném řádku je chybná tabulka!
První rada je exportovat bez komprese, to ušetří čas. 
Nakonec jsem musel databázi vyexportovat zvlášť velkou tabulku rozdělenou na 3 části a zbytek. Jak prosté.
1) export první části tabulky, prvních milion řádků:
mysqldump poradte_cz_ data --where="idkey <= 1000000 " > tmp/data.sql
2) export dalšího milionu řádků:
mysqldump poradte_cz_ data --where="idkey > 1000000 and idkey <= 2000000 " > tmp/data2.sql
3) export zbytku tabulky:
mysqldump poradte_cz_ data --where="idkey > 2000000 " > tmp/data3.sql
4) konečně export všeho kromě tabulky, kterou už mám:
mysqldump poradte_cz_ --ignore-table=poradte_cz.data > tmp/poradte-backup.sql
Když se nyní pokusíte importovat rozdělenou tablku zjistíte, že každý import dalšího souboru smaže předešlou práci. Je potřeba otevřít v linuxu NANO a 2. a 3. soubor editor resp vymazat požadavek na vymazání dat. V mém případě to byly 500MB soubory, takže editace nebyla rychlá, ale šlo to. Stačilo komentovat /*tohle nechci*/
Hurá!