Bonjour,
Nous avons un serveur web qui délivre plusieurs sites via un Wordpress multi-sites, ce qui veut dire que, par exemple fictif, le site toto.enfa.fr ne correspond pas à un répertoire toto dans le serveur web mais est délivré via le Wordpress multi-sites.
Je souhaite empêcher les robots de télécharger les fichiers (principalement du PDF ou du doc) de nos sites.
J'ai essayé diverses solutions trouvées sur robots-txt.com/ :
Ceci, trouvé sur la partie wildcards
Ou bien ceci, trouvé sur la partie Wordpress :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3 User-agent: * Disallow: /*.doc$ Disallow: /*.pdf$
Mais les robots semblent toujours là !
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/
Une idée plus efficace à me soumettre ?66.249.67.49 - - [05/Dec/2014:11:56:45 +0100] "GET /wp-content/uploads/2010/07/2-11-courrier.pdf HTTP/1.1" 200 32481 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Partager