Bonjour,
j'ai un site sous wordpress, avec une extension seo qui m'a généré des pages qui servent plus au référencement du plugin qu'à mon site. Je l'ai supprimé mais il reste encore plein de page disséminées dans l'arborescence de wordpress.
Je voudrais donc pouvoir empêcher l'indexation de ces pages et le plus simple serait d'interdire l'indexation du site dans robots.txt, mais avec le fichier sitemap qui autorise les vraies pages du site. Ceci est-il réalisable? Ou en résumé, le plus fort, c'est robots.txt ou sitemap.xml??
Partager