Bonjour a tous
J'ai un très gros fichiers :
144 Gigas
1 612 288 890 enregs
9 Index
Il faut en supprimer 500 000 000 et le fichier est utilisé 7j/7
J'ai testé le fait de sortir via CPYF d'une vue crée pour l'occasion, les enregs concernés pour sauvegarde/Archivage. (Fait)
J'ai testé un pgm en SQLRPGLE qui lit ma vue (Natif) et fait du delete + commit en SQL a l'enreg sur la table avec la clé primaire, pendant un temps paramétrable. (Ceci est La solution que j'avais choisis pour ne pas locker la table seulement celle ci ce révèle beaucoup trop longue 2 900 000 enregs en par groupe de 12h)
J'avais imaginer faire du cpyf vers une copie de ma table vide pour n'avoir au final que les enregs qui m'intéresse et remplacer l'une par l'autre a un instant T, mais ceci pose le problème de l'identifiant de niveau fichier qui est stocker dans les objets pgm. (Donc signifiant une recompile de trop nombreux pgm + une copie + rée indexation (sur les 1 100 000 000 enregs pour le coup contrairement a mes 500 000 000) (C'est surement la solution qui me semble la plus rapide malheureusement mais il faut que ceci tiennent en temps pour qu'il n'y ai pas eu de mise a jour sur la table d'origine entre temps)
Qu'en pensez vous ? une autre idée ?
Partager