Bonjour a tous,
j'ai un script qui tourne sur une trentaine de Go de fichiers de logs dans le but d'etablir des stats. Il prend chaque fichier, le lit ligne par ligne, cherche quelques patterns, construit 2 gigantesques hash maps (et une localisee par fichier), et log dans un fichier de resultat. Il marche tres bien mais a priori il va tourner pendant une bonne dizaine de jours...
Auriez vous des recommandations pour essayer d'optimiser le temps d' execution ?
Merci.








Répondre avec citation



. Sérieusement, si ton script est long, bah c'est qu'il y a beaucoup de données à gérer, donc je ne vois pas comment tu pourrais faire autrement. Est ce un script qui tournera en boucle ? Pourquoi utiliser les hashmap ? Sans script, difficile de se faire une idée 

Partager