-
optimisation du PR
Bonjour à tous, voilà je suis en train d'optimiser mon site afin d'améliorer son référencement.
Sur mon site, je dispose d'un menu. Sur ce menu, un onglet possède un sous-menu sous forme de menu déroulant.
J'ai fait en sorte que ce sous menu ne soit pas visible par google en générant le menu déroulant et son contenu via un javascript externe de manière à ce que je ne perde pas tout le jus dès la page d'accueil. Les liens contenu dans le menu déroulant sont accessibles en cliquant sur l'onglet ou en consultant le sitemap.
Le but de tout cela est de trouver un compromis entre le confort de navigation (moins de clique pour le visiteur) et une meilleure répartition du jus de liens. J'ai lu sur le net que google était capable de lire les liens javascript mais pas ceux situé dans des fichiers externes. L'article date de 2009 mais je ne sais pas si c'est toujours le cas d'où ma question : Est-ce que google risque de me pénaliser par cette pratique ? Merci d'avance pour vos réponses :)
-
J'ai du mal à comprendre l'intérêt de la chose... :koi:
Si ton menu mène vers des liens significatifs, il est important que Google puisse les voir et les suivre.
Bref, ta technique me semble faire l'opposé de ce que tu crois !
-
Ben en fait, j'ai lu dans un tuto sur le net qu'il fallait bien répartir les liens d'un site et d'éviter de mettre tous les liens sur la page d'index. Que par exemple lors de l'arrivée du robot sur la page d'index on avait 100% du potentiel de référencement et que ce potentiel de référencement était subdivisé en fonction du nombre de lien.
Sur mon site, je dispose d'un menu avec un onglet Produits & Solutions. Cet onglet possède un ensemble de lien en rapport avec ce thème.
Dans la version javascript, un menu déroulant affiche l'ensemble des liens en rapport avec le thème au passage de la souris dans la page d'index
Dans la version sans script, lorsque l'on clique sur l'onglet, on arrive sur une page produits_solutions. Dans cette page, on retrouve l'ensemble des liens.
Au début, pour le menu déroulant sur la page d'index, je faisait simplement apparaître le menu déroulant avec un jeu de display:none et display:block. Donc visible pour le robot google. Mais comme j'ai lu sur un tuto, que plus il y avait de lien, plus le potentiel était divisé alors j'ai choisit de remplir ce menu directement en javascript.
Sur ma page d'index, j'ai en tout 20 liens. Donc sur 100% de potentiel de référencement, je passe à 5% de potentiel de référencement sur mes autres pages. Avec ma méthode, il ne reste plus que 7 liens, ce qui me fait environ 14% de potentiel de référencement. Sur la page produits et solutions les 14% seront répartis sur l'ensemble des liens présent sur cette page.
Après j'ai peut-être mal compris le tuto.
Ce qui va être différent pour le robot ou une personne qui n'a pas activé javascript, c'est la hierarchie du site donc plus de lien à parcourir au lieu de tout avoir sur la page d'index avec un système de menu déroulant. Ce que je veut juste savoir, c'est est-ce que le crawler de google peut s'en apercevoir et me sanctionner pour cette pratique.
-
Je suis d'accord avec @Bovino. La page index est la page la plus haute dans la hiérarchie du site, donc la plus lue par les moteurs. Elle va les mener vers les pages inférieures grâce aux liens.
Néanmoins, une trop grande masse de liens dissipe effectivement le travail du bot; d'où la possibilité de mettre les pages les plus importantes dans le menu, et de mettre les liens vers les sous-sections sur chacune de ces pages.
En outre, le cas des sitemaps "robot" et "utilisateur" démontrent l'intérêt de pages où tous les liens sont rassemblés.
-
Il faut encore que je réfléchisse à la réorganisation de mon site. Et au final, j'aurais peut-être pas besoin de planquer des liens.
Ça me fait ragé tout ça quand même. Pour moi, c'est des choses qui aurait normalement dû être vu en enseignement supérieur. Heureusement qu'il y a le net et des gens sur les forum prêt à aider.
Merci beaucoup, toutes ces informations m'aide énormément.