Bonjour. Je bosse actuellement sur mon site perso (enfin), j'ai codé un ti moteur de recherche en perl. Dernièrement suite a un problème de serveur
mon spider a été stopé en pleine indexation
.
Ce qui ma obligé a vider et recommencer la manoeuvre , je voudrais donc savoir si il y a moyen d'ecrire un cache pour que lors d'une coupure de connection ou d'un problème sur le serveur le robot continue le travaille la ou il c'etait arreté ? Pour faire simple pendant qu'il 'spide ' il ne met pas directement les données dans Mysql mais dans un fichier , puis seulement dans Mysql ?
Merci
Partager