Bonjour à tous,
J'ai besoin des récupérer des pages HTML sur un site et donc j'ai essayé différents aspirateurs de site (httrack, backstreet browser, website extractor).
Avec aucun je n'ai réussi à télécharger seulement les fichiers HTML. Quel que soit le logiciel, il me télécharge TOUS les fichiers du site même si je mets une règle pour exclure les autres types de fichier. Et je ne veux pas tout télécharger car il y a trop de fichiers. J'ai eu beau lire les aides je ne comprends pas ce qui cloche.
Alors peut-être que je n'ai pas saisi le fonctionnement de ces aspirateurs.
Si quelqu'un peut m'éclairer de ses lumières je l'en remercie.
pepper
Partager