Bonjour à tous,
J'ai des dizaines de milliers d'erreurs par mois à cause de navigateurs pourris (je ne sais pas lesquels) qui gèrent très mal les background multiples en CSS et me font des requêtes comme :
/img/image1.gif),%20url(http://www.monsite.org/img/image2.png
alors que la ligne du CSS est
background-image:url('http://www.monsite.org/img/image1.gif'),url('http://www.monsite.org/img/image2.png')
le code est transformé au passage (plus de ' et ajout d'espaces %20).
J'ai l'impression que c'est des robots, il y a pas mal d'IP.
J'ai déjà un système d'URL Rewriting qui marche très bien. J'aimerai y ajouter une ligne pour que ces URL pourries ne soient pas traitées par le serveur.
Genre blocage comme pour les IP mais là c'est des URL.
C'est pour éviter que ça me remplisse les logs de 100000 lignes/mois.
Si je peux éliminer les URL contenant url( ça m'en supprimera une très grosse quantité.
J'ai regardé côté erreur 301 mais je ne veux pas de redirection vers une page d'erreur ou autre, je veux que le serveur dise : y'a rien à récupérer à cette adresse bye.
Merci pour vos suggestions
Partager