robots.txt avec des sous-domaines en Wordpress multi-sites
Bonjour,
Nous avons un serveur web qui délivre plusieurs sites via un Wordpress multi-sites, ce qui veut dire que, par exemple fictif, le site toto.enfa.fr ne correspond pas à un répertoire toto dans le serveur web mais est délivré via le Wordpress multi-sites.
Je souhaite empêcher les robots de télécharger les fichiers (principalement du PDF ou du doc) de nos sites.
J'ai essayé diverses solutions trouvées sur robots-txt.com/ :
Ceci, trouvé sur la partie wildcards
Code:
1 2 3
| User-agent: *
Disallow: /*.doc$
Disallow: /*.pdf$ |
Ou bien ceci, trouvé sur la partie Wordpress :
Code:
1 2 3 4
| User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/ |
Mais les robots semblent toujours là ! :(
Citation:
66.249.67.49 - - [05/Dec/2014:11:56:45 +0100] "GET /wp-content/uploads/2010/07/2-11-courrier.pdf HTTP/1.1" 200 32481 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Une idée plus efficace à me soumettre ?