"en explorant les sous-répertoires" d'un site web?
C'est "complique" car le serveur web répond un peu comme il veut aux requêtes HTTP. C'est ce qui rend les crawlers difficiles a construire: chaque site pouvant demander des règles spécifiques.
Sans codage spécifique, vous arriverez difficilement a faire mieux que wget.
- W
Partager