Bonjour à tous,
Je souhaiterais savoir si le module WWW::Mechanize respecte les règles de /robots.txt ?
La documentation du module n'en parle pas, et j'ai trouvé peu d'infos sur le net, et plutôt contradictoire :
OUI - http://www.infoqu.com/dev/perl-progr...oblem-33618-1/
NON - http://www.webmasterworld.com/search...rs/3866421.htm
En fouillant dans les sources et dans LWP::UserAgent, je n'ai rien trouvé.
Il est possible qu'il faille alors utiliser LWP::RobotUA.
Dans ce contexte, et si j'ai bien vrai, est-il possible de configurer WWW::Mechanize pour qu'il utilise LWP::RobotUA à la place de LWP::UserAgent ?
Partager