Optimiser traitement donnees
Bonjour,
j'ai eu besoin de concatener le contenu de plusieurs dizaines de fichiers texte.
pour cela j'ai réalisé le code ci-dessous:
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| import os
liste_fichier_texte = os.listdir(r"fichiers_text_a_concat")
full_single_text = ""
for i in range (0, len(liste_fichier_texte), 1):
fichier_text = open("fichiers_text_a_concat" + os.sep + liste_fichier_texte[i])
text = fichier_text.readlines()
fichier_text.close()
for i in range(0, len(text), 1):
full_single_text = full_single_text + text[i].strip("\n") + "\n"
new_fichier_full_txt = open(r"Full_concat_text.txt", "w")
new_fichier_full_txt.write(full_single_text)
new_fichier_full_txt.close() |
Il marche, mais lors de l’exécution, j'ai constaté que le temps de traitement de chaque fichier texte était de plus en plus long... alors que les fichiers qui se succédaient n'étaient pas forcément de plus en plus lourd. Au final mes 150 fichiers texte se sont concaténés en un seul fichier texte en un peu moins de 10minutes.. pour 1 fichier de seulement 25Mo.
il existe un moyen d'accélérer ce type de traitement?
merci,
cordialement,
clem