Bonjour,

s'il est normal qu'un site internet soit parcouru par des robots de type Googlebot, bingbot, etc...

je ne comprends pas pourquoi certains hébergeurs semblent de plus en plus en faire autant?

J'ai en effet constaté que Amazon, OVH, et plein d'hébergeurs venus des 4 coins du monde, pays de l'est, Angleterre, Allemagne, Russie, Etats-Unis, etc... scannent des sites, en visitant une page à la seconde, et faussant les relevés de données statistiques.

Pourquoi font-ils cela? Et comment les détecter? Si le HTTP_USER_AGENT permet souvent de détecter explicitement les robots, pour les hébergeurs, je ne vois pas comment les détecter autrement, que par le traçage de leur adresse ip.

En espérant ne pas être le seul à me poser la question.

Bien bonne journée à vous.