Bonjour,

Je cherche à afficher mon site d'une façon différente suivant s'il s'agit d'un robot ou d'un humain. J'aimerais si possible que toute entité (sans exception) n'étant pas humaine se retrouve à lire une page différente de la page sur laquelle se retrouvera l'humain.

J'ai pensé à une technique toute simple : utiliser une redirection javascript.
Le robot, qui n'interprète pas le javascript va rester sur la page initiale. (remplie avec du contenu bidon)
L'humain, qui utilise un navigateur va quant à lui être redirigé en javascript vers index.php?humain=true (et j'afficherai alors le vrai contenu)

Par ailleurs, pour éviter que l'url de destination de la redirection se retrouve en clair sur la page lue par le robot, je pensais tout simplement crypter le code javascript qui redirige l'humain vers la bonne page avec l'outil :
http://www.iwebtool.com/html_encrypter

Ainsi l'humain est bien redirigé vers la bonne page, mais le robot qui lui ne sera pas redirigé ne pourra même pas lire l'url de cette page.

Pensez-vous que cela puisse suffire à bloquer tous les robots existants (surtout ceux de google) ou certains arriveront à interpréter le javascript et se retrouveront sur la page destinée aux humains ?

Cordialement,

reywas