Rebonjour,
Ok dsl du temps de réponse. Alors en fait j'ai un fichier .csv de plus d'1Go ( que j'ai due découper façon guy Georges ) en 8 fichiers de 170 Mo composé de +- 2 170 000 lignes chacun.
j'ai +- 100927 doublons pour par fichiers .csv
Table doublons
id varchar(30), t1 varchar(10), t2 varchar(60), t3 decimal(5,0), t4 varchar(50), t5 varchar(10), coor1 decimal(5,0), coor2 decimal(9,6)
NB : la seule chose qui différencie les doublons sont les colonnes Coor1 & Coor2
La table de donnée est identique !
J'ai structuré ainsi sans optimisation car je ne voulais pas perdre de ligne, ou arrêter le chargement du fichier toutes les trois minutes pour une ligne qui ne correspond pas au format, puis épurer pour reconstruire. (facile en théorie)
Bref mise à par Delete je ne vois pas d'autres solutions Help !
Partager