Bonjour,
J'avais ouvert une discussion il y a quelques semaines (mois) sur la purge des snapshots logs volumineux (plusieurs millions de lignes).
Ce problème vient du fait que certaines VM ne viennent plus rafraichir leurs données et le M$LOG grossit encore et encore ..
Il existe une procédure permettant de purger ces tables mais lorsque la taille est trop importante cela pose problème car la table est lockée pendant la purge.
Ce petit rappel juste pour planter le décor
Je me suis finalement résolu à faire un truncate de la table de log et à faire ensuite un refresh complet du snapshot.
La question arrive, la table sur laquelle je viens faire le refresh comporte 3.6M de lignes et je consomme lors du refresh plus de 100M de consistent gets.
Même si certaines données ne sont pas 'cohérentes' lors du refresh j'ai un peu de mal à comprendre comment je peux consommer autant.
Merci pour votre aide
Bonne soirée,
Alain
Partager