Les journaux qui demandent une compensation de la part des GAFAM sont par ailleurs bien contentes que ces derniers leur gonflent les audiences.
Si tel n'était pas le cas, un simple fichier robots.txt suffirait pour demander aux GAFAM d'exclure tout ou partie des pages de leur site. La convention existe depuis 1994... et je note qu'elle est bien utilisée (Le Monde, Libé...) avec même des fichiers sitemap pour aiguiller les robots.
Après on peut se poser la question de à qui profite le plus ce référencement, mais c'est un peu gagnant-gagnant.
Partager