Bonjour,

Nous avons un serveur web qui délivre plusieurs sites via un Wordpress multi-sites, ce qui veut dire que, par exemple fictif, le site toto.enfa.fr ne correspond pas à un répertoire toto dans le serveur web mais est délivré via le Wordpress multi-sites.

Je souhaite empêcher les robots de télécharger les fichiers (principalement du PDF ou du doc) de nos sites.

J'ai essayé diverses solutions trouvées sur robots-txt.com/ :
Ceci, trouvé sur la partie wildcards
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
User-agent: *
Disallow: /*.doc$
Disallow: /*.pdf$
Ou bien ceci, trouvé sur la partie Wordpress :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
Mais les robots semblent toujours là !
66.249.67.49 - - [05/Dec/2014:11:56:45 +0100] "GET /wp-content/uploads/2010/07/2-11-courrier.pdf HTTP/1.1" 200 32481 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Une idée plus efficace à me soumettre ?