Bonjour à tous,
Je suis confronté à un problème de volume de données à importer dans différentes tables.
Je prends le cas extrême d'un des fichiers contenant 667654 lignes et qui ne peut que grandir. Il contient une liste de factures émises depuis le 01/01/2018 et je le recréé tout les jours. Actuellement pour l'import j'utilise cette commandes :
mysqlimport --compress --fields-enclosed-by='' --lines-terminated-by='\n' --fields-terminated-by='|' --host=mysql.db --user=user --password=pass --local --delete database www/plugins/portail/csv/${TABLE}.csv
Mon idée est d'avoir moins de volumes de données à traiter. Dans un premier temps lors de l'export vers le csv j'exporterais uniquement les nouvelles factures créées depuis le dernier export, du coups le fichier sera réduit à quelques lignes. Ensuite côté mysql je veux mettre à jour ma table et non l'importer dans la totalité. Mon problème est que je ne trouve pas comment en ligne de commande mettre à jour les données et non faire un import total comme actuellement. J'insiste sur le "en ligne de commande" car je communique avec le serveur mysql au travers de ssh (hébergement mutualisé ovh).
Est-ce que vous auriez une idée ?
Merci d'avance.
Partager