Bonjour,
nous avons intégré dans une appli une sauvegarde se basant sur mysqldump. On effectue un dump pour chaque table.
Pour la restauration on lance un par un chaque script ainsi généré.
Jusqu'ici tout va bien...
Sauf que chez un client, une table atteint environ 3 000 000 d'enregistrements
et qu'en restaurant la base, je n'en retrouve que 500 000.
La taille du fichier généré pour cette table est de ... 1,4Go, ce qui n'est pas pour faciliter la recherche d'erreurs dans le script.
Visiblement, l'import plante en plein milieu à cause d'une erreur dans les requêtes insert du script. En creusant, j'ai pu constater ceci:
dans les valeurs à ajouter, un "$" s'est substitué à une ",":
(....'2008-11-06 17:49:00'$18,'Soutirage',1,....)
au lieu de
'2008-11-06 17:49:00',18,'Soutirage',1,
un ":" s'est substitué à une valeur numérique ;
,353822,2203,2:53,4177,'20081106174904597',
au lieu de
,353822,2203,2953,4177,'20081106174904597',
ou encore un "/" s'est substitué à une "cote" (et au passage un g à la place d'un "o")
,'2008-11-06 17:49:00',18,'Sgutirage/,1,
au lieu de
,'2008-11-06 17:49:00',18,'Soutirage',1,
ces substitutions ne sont pas systématiques sur tout le fichier... et il ne s'agit pas de caractère d'échappement...
Est ce que quelqu'un a déjà eu ce genre de problème?
Est ce que ce problème peut être dû au volume des données trop important?
Si oui, y a t il moyen de saucissonner le "dump" en blocs de n enregistrements ?
Partager