IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Référencement Discussion :

Google va renforcer ses mesures anti-cloacking


Sujet :

Référencement

  1. #1
    Expert éminent sénior
    Avatar de Idelways
    Homme Profil pro
    Développeur Ruby on Rails / iOS
    Inscrit en
    juin 2010
    Messages
    1 374
    Détails du profil
    Informations personnelles :
    Sexe : Homme

    Informations professionnelles :
    Activité : Développeur Ruby on Rails / iOS

    Informations forums :
    Inscription : juin 2010
    Messages : 1 374
    Points : 68 503
    Points
    68 503
    Par défaut Google va renforcer ses mesures anti-cloacking
    Google va renforcer ses mesures anti-cloacking
    Un changement important qui pourrait impacter les sites mobiles et les contenus riches



    Comme résolution du nouvel an, Google a décidé de resserrer l'étau sur le « cloaking », cette pratique qui consiste à présenter aux moteurs de recherche un contenu différent de celui présenté à l'utilisateur.

    Souvent utilisée à des fins de spam, cette technique est réprimée par Google et les autres moteurs de recherche.

    Pourtant, de nombreux webmasters la trouvent utile pour améliorer le référencement de sites conçus avec des technologies encore mal prises en compte par les bots des moteurs de recherche, comme le Flash ou le Rich Media en général.

    Matt Cutts, en charge des mesures anti-spam chez Google, a fait savoir via son Twitter que la protection anti-spam ne se contentera plus d'analyser uniquement le contenu des sites. Cutts conseille donc aux développeurs Web d'éviter d'envoyer des entêtes/redirections différentes pour Googlebot et l'utilisateur.

    Ce court message ne donne pas plus de détails, ce qui n'est pas nouveau pour Google qui a toujours entouré de mystère le fonctionnement précis de son algorithme de recherche.
    Mais l'enjeu est tellement important que les interprétations vont bon train sur les impacts des nouvelles méthodes qui seront utilisées par le numéro 1 des moteurs de recherche.

    Google n'a d'ailleurs pas l'habitude de communiquer sur les changements de son algorithme, du moins pas avant leur application, ce qui présage de changements (très) importants.

    Le risque est évidemment de pénaliser les sites légitimes qui présentent une version alternative – mais fidèle - pour que leurs contenus riche soient mieux indexés (et positionnés). Ou de pénaliser les sites qui présentent des contenus différents mais optimisés, par exemple, pour la navigation mobile.

    Un changement que les développeurs Web suivront de toute façon de près.

    Source : le compte Twitter de Matt Cutts

    Et vous ?

    Utilisez-vous (légitimement) la technique du cloaking ? Dans quel but ?
    Quelles solutions imaginez-vous pour ne pas être pénalisé(e) par ces nouvelles mesures anti-cloacking ?

    En collaboration avec Gordon Fowler

  2. #2
    Membre éprouvé

    Profil pro
    Inscrit en
    novembre 2009
    Messages
    612
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : novembre 2009
    Messages : 612
    Points : 1 013
    Points
    1 013
    Par défaut
    le but d'un moteur de recherche est de référencer des contenues présent sur le web.
    Le principe est tous simple.
    Sauf que ce n'est pas exactement le cas. Google référence t'il l'ajax, silver light, flash, canvas (textes dessinées dynamiquement ), java ?
    La réponse est non.
    Mais même ci c'était le cas, on se trouve de toute façons a un moment ou un autre avec des concurrents, mieux positionnés.
    Pour éviter cela, des opérations sont tentés pour améliorer le référencement.
    Du coup ont s'éloignes du principe du <<moteur de recherche qui référence des contenues>>.
    Et ont tombe dans le principe du <<web master qui référence lui même ses contenues>>.

    Du coup on en arrive à se rendre compte que ce n'est pas le format html/js/flash/silverlight qui compte.
    Ce qui compte c'est d'être bien positionné, la technologie après, est secondaire.

    Tous cela pour dire quoi ?
    Tous simplement que google na jamais été le "moteur de recherche qui référence tous les contenues". Depuis longtemps, ce sont les web master qui références et mettent en place des stratégie de référencement, google étant devenue une technologie/un outil parmi d'autre.
    Du coup cette information ne change pas la donne.
    Les web master vont continuer de référencer leur contenues en prenant en compte ce nouveau paramètre.
    sans pour autant ce sentir obligés d'abandonner certaines technologie.
    Flash player ActionScript Virtual Machine 2 http://www.mozilla.org/projects/tamarin/
    fonctionnement de la machine virtuel : (ActionScript Virtual Machine 2 (AVM2)) :
    http://www.adobe.com/content/dam/Ado...m2overview.pdf

  3. #3
    Nouveau membre du Club
    Profil pro
    Inscrit en
    avril 2007
    Messages
    68
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : avril 2007
    Messages : 68
    Points : 32
    Points
    32
    Par défaut
    Personnellement j'utilise sur un site un système de cloaking. Je laisse passer google sur du contenue à accès payant mais je bloque les visiteurs en les renvoyant vers une page leur demandant de s'abonner.

  4. #4
    Nouveau membre du Club
    Profil pro
    Inscrit en
    juillet 2009
    Messages
    40
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juillet 2009
    Messages : 40
    Points : 30
    Points
    30
    Par défaut Cloacking et référencement
    Cette décision devrait inciter à plus de travail les rédacteurs web, et trier les "bons" référenceurs.

  5. #5
    Membre du Club
    Homme Profil pro
    Développeur Web
    Inscrit en
    juin 2005
    Messages
    48
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : juin 2005
    Messages : 48
    Points : 47
    Points
    47
    Par défaut
    Ben ce qu'il y a aussi c'est qu'on entend tres rarement (voir jamais pour ma part) des sites ayant ete blacklisté ou déreferencé a cause du cloaking ou autre methode, du coup on se dit que finalement toutes les 'menaces' sont peut etre juste pour faire peur (un peu comme au gosse on leur dit que si il font pipi dans la piscine l'eau va devenir rouge.....)

Discussions similaires

  1. Google décide de renforcer ses câbles sous-marins
    Par Stéphane le calme dans le forum Actualités
    Réponses: 12
    Dernier message: 28/08/2014, 11h23
  2. Google va renforcer ses mesures anti-cloacking
    Par Idelways dans le forum Actualités
    Réponses: 1
    Dernier message: 03/01/2011, 11h27
  3. Google va renforcer ses mesures anti-cloacking
    Par Idelways dans le forum Général Conception Web
    Réponses: 1
    Dernier message: 03/01/2011, 11h27
  4. Réponses: 3
    Dernier message: 03/12/2010, 18h50
  5. Réponses: 4
    Dernier message: 18/08/2010, 22h25

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo