Ciao a tutti!
Ho scoperto che non riesco ad uploare (in PHPMyAdmin) database superiori a 7MB e il mio ne pesa 25MB, come procedere? Suggerimenti?
Sono su Dreamhost.
Grazie
Kipper
Ciao a tutti!
Ho scoperto che non riesco ad uploare (in PHPMyAdmin) database superiori a 7MB e il mio ne pesa 25MB, come procedere? Suggerimenti?
Sono su Dreamhost.
Grazie
Kipper
Puoi dividerlo in pezzi. Ci sono due vie per farlo una è manualmente (quella che di solito uso io in questi casi) l'altra è per mezzo di un programmino che però non ricordo come si chiama. Sicuramente con una ricerca riesci a trovarlo.
Krima, ho già indicato un problematica estremamente simile in una precedente discussione, riferita a database dell'ordine dei GB.
quello che cercado di discutere era come poter realizzare il backup del database su + file in modo che l'import quando necessario potesse essere realizzato caricando di volta in volta un file per volta.
Che suggerisci?
http://www.sanisapori.eu
Ho trovato "bigdump.php" è lui? ...ma come si usa?
Grazie
Kipper
http://www.wanderings.net/notebook/Main/HowToImportLargeMySQLDataFiles
Più imparo, più dubito.
Ciao a tutti!
Dopo aver configurato e uploato bigdump.php e database.sql nella root ricevo questo messaggio di errore:
Processing file: database.sql
Starting from line: 3078
Stopped at the line 3378.
At this place the current query includes more than 300 dump lines. That can happen if your dump file was created by some tool which doesn't place a semicolon followed by a linebreak at the end of each query, or if your dump contains extended inserts. Please read the BigDump FAQs for more infos.
Soluzioni?
Grazie ancora a tutti voi!
Ciao
Kipper
Il programma è http://www.rusiczki.net/blog/blogstuff/SQLDumpSplitter.rar io però non lo ho mai provato.
Risolto con SQLDumpSplitter ...ottimo!
Grazie a tutti
Ciao
Kipper
Non va proprio bene questa soluzione... nel senso che va benissimo per tante cose... ma non per progetti professionali!
:(
... e tra l'altro è un file per windows! ... quindi non va bene x progetti professionali.
http://www.sanisapori.eu
La mia opinione è diverso - ma purtroppo arrivo (quasi) alla stessa conclusione. Mi sembra che kipper ha trovato un ottimo programma (anche se non l'ho usato) in BigDump, (quindi ringrazio per la dritta) perchè:
L'altro programma mi lascia qualche dubbio sulla provenienza, e sulla attività - sembra che l'autore è andata via (per usare un termine Drupal), quindi poco speranza di aiuto.
Il problema che ha incontrato kipper è dovuto al uso (abbastanza comune, ed un ottimizzazione) dei extended insert (http://dev.mysql.com/doc/refman/5.1/en/mysqldump.html#option_mysqldump_e...), cioè raggruppare multiple inserimenti di righe (rows) con un unico query INSERT. Questo velocizza la (ri)costruzione della tabella, ma crea anche dei query molto, ma molto lungo - centinaia di righe di testo, magari decine di migliaia di caratteri.
Quindi quasi paradossalemente bisogna rendere un db già grande, ancora più grande (cioè togliere extended insert) per poter trasferirlo in 'pacchetti' o blocchi come vuole BigDump. Sperando che tutto va a buon fine perchè probabilmente mancerà gli transactions. Proprio come Drupal (almeno fino alla versione 7).
Se vogliamo parlare di sistemi 'professionale', allora bisogna scegliere opzione sempre più distante dal SQL. Non sono un autorità su DB, ma la soluzione migliore (ma praticamente impossibile su shared hosting) sarebbe sicuramente mysql stesso dalla riga di commando, o probabilmente un tipo di hotswap, come http://dev.mysql.com/doc/refman/5.1/en/mysqlhotcopy.html o replicazione del db tipo http://dev.mysql.com/doc/refman/5.1/en/replication-howto.html - in ordine di complessità di amministrazione, ma anche di sicurezza e velocità di sostituzione.
Più imparo, più dubito.