Bonjour :D. Je bosse actuellement sur mon site perso (enfin), j'ai codé un ti moteur de recherche en perl. Dernièrement suite a un problème de serveur :twisted: mon spider a été stopé en pleine indexation :evil: .
Ce qui ma obligé a vider et recommencer la manoeuvre , je voudrais donc savoir si il y a moyen d'ecrire un cache pour que lors d'une coupure de connection ou d'un problème sur le serveur le robot continue le travaille la ou il c'etait arreté ? Pour faire simple pendant qu'il 'spide ' il ne met pas directement les données dans Mysql mais dans un fichier , puis seulement dans Mysql ?
Merci