Bonjour,
Voici la problématique que je dois résoudre :
je doit importer en base un fichier plat qui comporte environ + de 70000 ligne, chaque ligne ayant environ une vingtaine de colonnes.
En terme de puissance ça ne passera pas je crois que ce soit dans la lecture du fichier ou dans l'insertion.
je me vois pas faire une boucle de 70000 itérations avec lecture de la ligne + insert de ligne lue....
J'ai donc pensé à lire le fichier par bloc de 2000 lignes puis d'utiliser la méthode addBatch() de jdbc comme ca j'ai qu'un commit tout les 2000 insert et j'explose pas le log car 2000 ca reste raisonnable.
En plus de cela dans le batch la requete est précompilé (preparedstatement)
Vous en pensz quoi de ce raisonnement ?
Merci
Partager