IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Conception Web Discussion :

La qualité de la recherche sur Google s'est considérablement dégradée au cours de ces dernières années


Sujet :

Conception Web

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut La qualité de la recherche sur Google s'est considérablement dégradée au cours de ces dernières années
    Google se dégrade-t-il ? Les critiques affirment que les annonces et les sites de spam tuent la recherche
    l'IA de Google n'aiderait pas non plus à avoir de bons résultats

    Un nombre croissant de personnes continuent d'affirmer que Google serait en train de mourir. À en croire ce qu'ils disent, les résultats de recherche de Google seraient de plus en plus truffés de publicités payantes et les sites Web de spam parviennent de mieux en mieux à se hisser dans les résultats de recherche en déjouant les algorithmes de l'entreprise. Le résultat final serait que la recherche Google se détériore progressivement, devenant moins utile et plus ennuyeuse.

    Les résultats de recherche de Google seraient de moins en moins fiables

    Au début des années 2000, Google a su rapidement séduire les gens en raison de la facilité avec laquelle il pouvait indexer n'importe quel site Web n'importe où dans le monde. Cet outil de recherche en ligne permettait d'accéder à tout ce qu'une personne pouvait attendre d'Internet. Pour certains, les mots "Internet" et "Google" se confondaient, tandis que pour d'autres, ils étaient une seule et même chose. À cette époque, l'entreprise a connu un grand succès et s'est développée rapidement en quelques années. Aujourd'hui encore, pour le commun des mortels, Internet tourne autour d'un simple mot : "Google".

    Nom : der.png
Affichages : 47183
Taille : 51,7 Ko

    Cependant, certains initiés pensent que Google n'est plus vraiment ce qu'il était, sa régie publicitaire influençant grandement les résultats de recherche au grand dam des internautes. Les résultats de Google seraient de plus en plus "affinés" afin de répondre aux 80 % de requêtes les plus populaires, tout en devenant bien pires pour les requêtes techniques ou complexes. « Une fois que vous avez dépassé la première ou la deuxième page, les résultats sont encore pires, avec des pages sans aucun rapport avec la requête (par exemple, elles ne contiennent même pas les phrases recherchées) », a déclaré l'un des critiques du moteur de recherche.

    « Ils sont probablement en train de tester ou ont déjà mis en œuvre une sorte d'optimisation de type bandit à plusieurs bras, comme pour les résultats de recherche de YouTube, où ils affichent simplement toutes les pages populaires (sans tenir compte de la pertinence) pour voir si elles donnent lieu à un clic », a-t-il ajouté. D'autres estiment qu'en 2000, Google serait devenu populaire parce que les hackers ont réalisé qu'il était meilleur que Lycos (un moteur de recherche lancé en 1994) ou Excite (une collection de sites et services Web, lancée en1995). Mais en raison de ces problèmes, les utilisateurs précoces utiliseraient de moins en moins Google.

    « Un petit problème médical récent a mis en évidence à quel point quelqu'un doit perturber la recherche Google. Google ne produit plus des résultats de recherche de haute qualité dans un nombre significatif de catégories importantes. La santé, les critiques de produits et les recettes sont trois catégories dans lesquelles j'ai effectué des recherches aujourd'hui et où les premiers résultats présentaient des sites de type "clickbait" ("putaclic" ou "piège à clics") criblés de publicités pourries. Je suis sûr qu'il y en a beaucoup d'autres », a écrit sur Twitter en janvier Michael Seibel, partenaire chez Y Combinator et directeur général de YC Early Stage.

    La publicité et le SEO seraient les principaux problèmes de Google

    Selon les critiques, les algorithmes de Google seraient en train de mourir en raison de la publicité, des spams, du SEO (search engine optimization - optimisation des moteurs de recherche) et de l'IA. Dmitri Kyle Brereton, ingénieur logiciel et écrivain, affirme "qu'il est évident que la diffusion d'annonces crée des incitations mal alignées pour les moteurs de recherche. Les fondateurs de Google l'auraient eux-mêmes souligné tout au début de leur activité". En 1998, Sergey Brin et Larry Page auraient déclaré : « actuellement, le modèle économique prédominant pour les moteurs de recherche commerciaux est la publicité ».

    Nom : dc.png
Affichages : 4797
Taille : 156,6 Ko

    « Les objectifs du modèle économique publicitaire ne correspondent pas toujours à la fourniture d'une recherche de qualité aux utilisateurs. Nous nous attendons à ce que les moteurs de recherche financés par la publicité soient intrinsèquement biaisés en faveur des annonceurs et loin des besoins des consommateurs. En outre, les revenus publicitaires incitent souvent à fournir des résultats de recherche de mauvaise qualité ». D'après les critiques, ces réflexions sur les défaillances des moteurs de recherche financés par la publicité se lisent comme un manuel d'instructions pour ce que Google a fait ensuite.

    Page et Brin ont commencé à vendre des annonces à côté de leurs résultats de recherche dès le début des années 2000 et, depuis, les activités publicitaires de Google n'ont cessé de croître. Les annonces diffusées sur le réseau de Google - qui comprend YouTube et les placements d'annonces sur des sites tiers - auraient rapporté à la société la somme astronomique de 54 milliards de dollars au cours du premier trimestre 2022. Cela pourrait lui rapporter jusqu'à 180 milliards de dollars au cours de l'année 2022. « Ils ont récemment poussé le bouchon au maximum afin de soutirer jusqu'au dernier centime avant leur effondrement inévitable », a déclaré Brereton.

    Les critiques sur la qualité et la pertinence des résultats de recherche ont considérablement augmenté ces derniers mois. Cependant, un porte-parole de Google a fait valoir cette année que "la qualité de Google Search s'est considérablement améliorée au fil du temps". « Chaque année, nous apportons des milliers d'améliorations à Google, et nos tests nous donnent des preuves claires que ces changements rendent vraiment la recherche meilleure pour les internautes. Au cours des sept dernières années, nous avons diminué les résultats non pertinents de plus de 50 % », a déclaré le porte-parole.

    Nom : 2de.png
Affichages : 4820
Taille : 46,0 Ko

    Quant au SEO, les critiques, y compris Brereton, affirment qu'il existe des milliers de personnes dont le seul travail consiste à jouer avec les algorithmes pour atteindre le sommet d'une page de résultats de Google. « Il ne faut donc pas s'étonner de la détérioration de la qualité des résultats de recherche. Pour être franc, ce problème se poserait probablement avec n'importe quel moteur de recherche, mais on s'attendrait à ce que Google soit capable de mettre au point un algorithme qui soit moins manipulable », a écrit Brereton dans un billet de blogue en février dernier.

    Enfin, alors que Google tente de rendre son moteur de recherche plus "intelligent" grâce à l'intelligence artificielle, les critiques accusent l'IA de biaiser les résultats de recherche. « De plus en plus, Google ne vous donne pas les résultats correspondant à ce que vous avez tapé. Il essaie d'être intelligent et de comprendre ce que vous avez "vraiment voulu dire", en plus de personnaliser les choses pour vous. Si vous vouliez vraiment dire exactement ce que vous avez tapé, alors les jeux sont faits. Même l'opérateur de recherche de correspondance exacte (" ") ne donne plus de correspondance exacte, ce qui est assez bizarre », a déclaré Brereton.

    À propos des alternatives potentielles à Google, Brereton affirme que Bing et DuckDuckGo souffrent de nombreux problèmes similaires à ceux de Google, tels que le spam et les publicités liés aux algorithmes. Selon lui, les nouvelles alternatives les plus intéressantes sont les sites Neeva, Brave et You.com. Brave a abandonné récemment le moteur de recherche de Google au profit de son propre moteur de recherche.

    Cependant, les critiques estiment que la mainmise de Google sur le marché de la recherche rend difficile l'émergence d'un concurrent. « L'alternative ne peut pas être simplement deux fois meilleure, elle doit être tellement meilleure que cela vaut la peine de changer de site », suggère Brereton.

    Sources : Dmitri Kyle Brereton, exemples de résultats Google biaisés recensés en Norvège

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que la recherche sur Google se dégrade ?
    Que pensez-vous des problèmes de Google relevés par les internautes ?
    Avez-vous identifié d'autres problèmes dont souffre le moteur de recherche de Google ?
    Google peut-il trouver un compromis avantageux entre la recherche et la publicité ?
    Selon vous, l'utilisation de l'IA par Google améliore-t-il les résultats de recherche ?

    Voir aussi

    Le navigateur Brave supprime Google comme moteur de recherche par défaut et le remplace par son propre moteur de recherche

    Le projet Dragonfly, le moteur de recherche controversé de Google pour le marché chinois, « a été abandonné », selon un représentant de l'entreprise

    Quel moteur de recherche pourrait être le prochain Google ? Voici comment certains essaient de détrôner le géant de Mountain View

    Les bénéfices d'Alphabet (Google) ont chuté de plus d'un milliard de dollars par rapport à 2021, suite au ralentissement de la croissance de la publicité sur YouTube et son moteur de recherche
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre averti
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    187
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 187
    Points : 434
    Points
    434
    Par défaut
    En plus des ad on a de plus en plus souvent des sites pourris générés par traduction automatique de sites anglais, bourrés de pub évidemment.

    Redoutablement efficace : ublacklist
    Il y a sûrement un équivalent pour chrome.

    Dans certains cas (comme les soluces de JV), il y a tellement de ces résultats pourris qu'avec cet addon la première page de recherche contient plus que 3-4 résultats :p

  3. #3
    Membre chevronné

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    598
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 598
    Points : 2 020
    Points
    2 020
    Par défaut
    Je viens de faire la même recherche en français "meilleur ordinateur portable pour la maison" et je n'ai aucune pub !!

    De toute façon, aujourd'hui, qui va payer pour un moteur de recherche ?

    On peut passer à un moteur alternatif qui présente moins de pub, mais généralement ces moteurs soutraitent leurs requêtes à Google ou à Bing.
    Si leurs revenus publicitaires baissent, Ms et Google n'auront qu'à augmenter le coût de ces requêtes pour tuer cette concurrences ou les obliger à eux aussi mettre plus de pub.

    Il y a un équilibre à trouver entre un max de pub et ce que l'utilisateur va accepter.
    Et cette acceptation est grande. Je ne regarde plus la TNT, mais quand je suis chez ma mère, qui n'a que cela, et que je vois ces couloir de pub de plus d'1/4h, je me demande comment les gens supportent encore cela. Pourtant, et malgré Netflix et compagnie, ça marche encore.
    --
    vanquish

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    525
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 525
    Points : 9 606
    Points
    9 606
    Par défaut La qualité de la recherche sur Google s'est considérablement dégradée au cours de ces dernières années
    Une étude confirme ce que vous soupçonniez : la qualité de la recherche sur Google se dégrade considérablement
    et les choses pourraient empirer avec l'avènement de l'IA générative

    Un nombre croissant d'utilisateurs se plaignent de la dégradation continue de la qualité des résultats des moteurs de recherche. Des chercheurs allemands se sont penchés sur la question dans le cadre d'une nouvelle étude et leur rapport semble donner raison aux utilisateurs. Elle rapporte que la qualité des résultats de Google et de ses rivaux est en déclin et que les choses ne feront probablement qu'empirer avec l'avènement de l'IA générative. Elle estime que le moteur de recherche Google est infesté de spam SEO, le référencement a ruiné la qualité de la recherche et les moteurs de recherche rivaux de Google, dont Bing et DuckDuckGo, ne font pas mieux.

    Le marketing d'affiliation et le référencement ruinent la qualité de la recherche en ligne

    L'étude a été réalisée par des chercheurs allemands de l'université de Leipzig, de l'université Bauhaus de Weimar et du Center for Scalable Data Analytics and Artificial Intelligence (Centre pour l'analyse des données évolutives et l'intelligence artificielle). Ils ont passé un an à examiner les résultats de 7 392 requêtes d'évaluation de produits sur Google, Bing et DuckDuckGo, ce qui, selon eux, constitue la première étude systématique sur la question de la détérioration de la qualité des résultats des moteurs de recherche. L'étude confirme ce malheureux constat. Google soutient le contraire et affirme que ses résultats de recherche sont meilleurs que jamais.

    Nom : asldzpntgde.png
Affichages : 10335
Taille : 70,9 Ko

    Selon l'équipe, une grande partie du désastre serait lié à ce que l'on appelle le marketing d'affiliation. « Nous pouvons conclure que les pages les mieux classés sont en moyenne plus optimisées, plus monétisées avec du marketing d'affiliation et qu'elles montrent des signes de moindre qualité de texte », note l'équipe. Les chercheurs ont également constaté que si une petite partie des évaluations de produits utilise le marketing d'affiliation, la majorité des résultats des moteurs de recherche utilisent cette tactique, ce qui ne fait qu'aggraver le problème relatif à la qualité des SERP (Search Engine Result Page - Page de résultats d'un moteur de recherche).

    En fait, l'une des voies de monétisation utilisée par de nombreux sites Web aujourd'hui est la critique et le regroupement de produits. Ces articles comportent des liens spéciaux permettant d'acheter des produits auprès de détaillants tels qu'Amazon, BestBuy et Walmart. Si vous achetez quelque chose après avoir cliqué sur l'un de ces liens d'affiliation, le site Web qui vous a référé reçoit une commission. Certains éditeurs ont tendance à appliquer des politiques strictes qui séparent les critiques et les décisions éditoriales de ces aspects commerciales. Mais de nombreux autres sites sont moins scrupuleux et jouent avec le système pour en tirer un profit rapide.

    Ces sites se moquent la qualité des pages et remplissent le Web de cochonneries. En d'autres termes, plus une page est chargée en liens d'affiliation et en stratégies de référencement, plus elle est mauvaise. Ces pages étant omniprésentes, les résultats se dégradent généralement. À titre d'exemple, pour Google, cela signifie que tout le monde peut évaluer le même produit, de sorte que le site qui attire le plus d'internautes sur la page gagne plus d'argent. Il en résulte une guerre permanente pour savoir qui apparaîtra en premier sur Google pour des requêtes de recherche populaires telles que "meilleur parapluie", "tissu crêpe robe", "hôtels pas cher Paris"...

    Il existe de nombreuses astuces pour apparaître en premier sur Google, certaines plus viles que d'autres. Dans l'ensemble, ces stratégies sont appelées "SEO" (Search Engine Optimization). Selon les analystes, le référencement est un mal nécessaire dans un monde où Google dirige Internet, et il peut être utilisé pour aider les gens à promouvoir un contenu de qualité. Google l'encourage même. L'entreprise veut montrer aux utilisateurs les meilleurs résultats, de la plus haute qualité, et Google offre des conseils aux sites qui veulent faire mieux. Pour cela, elle propose des outils de référencement tels Google Analytics, Google Search Console et Google Trends.

    Cependant, de nombreux sites Web malhonnêtes ne cherchent qu'à gagner de l'argent, et il existe toutes sortes d'astuces et de techniques sournoises pour contourner le système. Ces derniers temps, il semble bien qu'ils aient le dessus. « Le référencement est une bataille constante et nous observons des schémas répétés d'entrée et de sortie de spams dans les résultats, à mesure que les moteurs de recherche et les ingénieurs en référencement ajustent leurs paramètres à tour de rôle », affirment les chercheurs. Ou plus précisément, ce sont les crétins qui produisent du contenu de mauvaise qualité pour se faire quelques dollars de plus qui l'emportent.

    Google et ses rivaux ont du mal à lutter contre les mauvaises pratiques de référencement

    Il s'agit d'une réalité dure à accepter pour Google et ses rivaux : la qualité des résultats de recherche se dégrade. Ils ne veulent pas que cela produise et procèdent à des ajustements réguliers et à des modifications de leurs algorithmes pour les repousser. Mais selon les chercheurs allemands, ces efforts ne fonctionnent pas ou ont, au mieux, "un effet positif temporaire". L'équipe est très claire à ce sujet : les moteurs de recherche semblent perdre le jeu du chat et de la souris qu'est le spam SEO. Les effets des changements sont éphémères, les spammeurs trouvent de nouvelles failles rapidement et compliquent la tâche aux équipes des entreprises.

    Nom : axcdsfrtegnh.png
Affichages : 2393
Taille : 51,6 Ko

    L'étude estime que les performances de Google étaient nettement supérieures à celles de Bing et de DuckDuckGo. Toutefois, un porte-parole de Google a contesté les conclusions et la méthodologie de l'étude. « L'étude ne s'intéresse qu'au contenu des critiques de produits et ne reflète pas la qualité globale et l'utilité de la recherche pour les milliards de requêtes que nous recevons chaque jour. Nous avons apporté des améliorations spécifiques afin de résoudre ces problèmes, et l'étude elle-même souligne que Google s'est amélioré au cours de l'année écoulée et que ses performances sont supérieures à celles des autres moteurs de recherche », note-t-il.

    « De manière plus générale, de nombreux tiers ont mesuré les résultats des moteurs de recherche pour d'autres types de requêtes et ont constaté que Google était de bien meilleure qualité que les autres », a-t-il ajouté. Néanmoins, rien ne change le nombre croissant de preuves et l'intensification du récit qui suggèrent que Google - et les moteurs de recherche en général - a un sérieux problème. Google s'est peut-être amélioré au cours de l'étude, mais les experts ont tendance à s'accorder sur le fait que, dans l'ensemble, Google s'est beaucoup dégradé ces dernières années. Certains experts affirment même que Google se trouve dans un état de désarroi.

    « On a l'impression que quelqu'un dort au volant », note Lily Ray, directrice principale du référencement et responsable de la recherche organique chez Amsive Digital. Selon elle, l'ensemble de la communauté SEO peut voir que Google travaille sur ce problème. Toutefois, il y a un large consensus sur le fait que, dans une certaine mesure, les choses sont en train de s'effondrer. « Nous n'avons jamais vu Google dans un tel état de désarroi. Il s'est amélioré sur certains points, mais sur d'autres, il a empiré », a-t-elle déclaré. Les rapports faisant état de la dégradation de la qualité des résultats de recherche de Google se sont multipliés ces dernières années.

    Il est devenu si difficile de trouver des résultats utiles que les internautes ont commencé à ajouter le mot "Reddit" à leurs termes de recherche pour obtenir un contenu rédigé par quelqu'un qui s'intéresse réellement à la question, et non par quelqu'un qui essaie simplement de gagner de l'argent. En outre, Google est devenu tellement dépendant du contenu généré par les utilisateurs, que les spammeurs trouvent de plus en plus de moyens de manipuler, que les résultats de Google Search ont empiré lors d'une récente panne de Reddit. Tout cela n'est pas anodin si l'on considère que l'ensemble de l'économie d'Internet repose sur Google.

    Les analystes affirment que l'IA générative pourrait aggraver davantage l'état du Web

    Ces derniers mois, Google a fait couler beaucoup d'encre à cause de campagnes de spam de masse. En outre, d'autres rapports ont expliqué comment la domination de Google a façonné l'Internet moderne et l'a rempli de contenus de mauvaise qualité et de spam, optimisés pour arriver en tête des SERP - et non pour être utiles aux humains. En 2022, Google a même affirmé qu'il mettait à jour son algorithme pour donner la priorité au "contenu humain", mais comme l'ont constaté les chercheurs, ces efforts ont été vains, car les experts en SEO et les spammeurs ont vite trouvé le moyen de contourner les dernières modifications apportées au système.

    Aujourd'hui, avec l'avènement de l'IA générative capable de produire des textes de mauvaise qualité en un instant, Internet est en passe d'être de plus en plus inondé de déchets. L'hallucination de modèles d'IA constitue en outre un danger pour le Web. Les chercheurs ont constaté que les domaines de spam sont omniprésents dans les SERP et qu'il existe "une tendance générale à la baisse de la qualité des textes dans les trois moteurs de recherche". Dans le même temps la ligne de démarcation entre le contenu bénin et le spam devient de plus en plus floue, une situation qui ne manquera pas de s'aggraver dans le sillage de l'IA générative".

    « Le spam dynamique contradictoire sous la forme de contenu commercial de faible qualité et produit en masse mérite plus d'attention », affirment les chercheurs. La manière de le combattre n'est pas nécessairement claire. L'étude ne formule aucune recommandation, car selon l'équipe, l'évaluation statique réalisée dans le cadre de l'étude n'est tout simplement pas suffisante pour élaborer une contre-stratégie. Elle note que les efforts futurs iront dans ce sens, mais il reste à savoir s'il est encore possible d'éviter que la recherche en ligne ne devienne un véritable cauchemar. De nombreux chercheurs et analystes se montrent sceptiques à cet égard.

    Janek Bevendorff, assistant de recherche à l'université de Leipzig et auteur de l'article, a déclaré qu'il est difficile de dire s'il existe une solution facile pour sortir de la situation difficile dans laquelle l'on se trouve actuellement en matière de recherche en ligne. Il a déclaré que les moteurs de recherche devraient être plus prudents dans la sélection des pages à promouvoir si elles proviennent de sites qui produisent de gros volumes de contenu et que certaines formes d'affiliation et les pages remplies de contenu répétitif de faible qualité sont déjà signalées comme spam par Google.

    « Le marketing d'affiliation est en partie responsable de l'aspect actuel du contenu en ligne », a déclaré Bevendorff, tout en précisant que "l'interdire complètement n'est probablement pas une solution", car de nombreux sites authentiques utilisent cette tactique, ainsi que l'optimisation du référencement, comme une source de revenus importante. « En fin de compte, cela pourrait rester un jeu du chat et de la souris », a déclaré Bevendorff.

    Source : rapport de l'étude (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des conclusions de l'étude sur la qualité de la recherche sur Google ?
    Partagez-vous les conclusions de l'étude ? Le référencement est-il la principale cause de ce désastre ?
    Comment peut-on venir à bout de ce phénomène ? Faut-il interdire le référencement et le marketing d'affiliation ?
    Quelles sont les astuces que vous utilisez pour trouver des résultats utiles et de qualité sur les moteurs de recherche ?
    Selon vous, quels impacts l'IA pourrait-elle avoir sur le Web à l'avenir ? Partagez-vous les prédictions des chercheurs ?

    Voir aussi

    Les chatbots IA sont utilisés pour produire du contenu sur des sites web de mauvaise qualité afin d'attirer les annonceurs, l'argent de la pub en ligne finance les fermes de contenu basées sur l'IA

    Google se dégrade-t-il ? Les critiques affirment que les annonces et les sites de spam tuent la recherche, l'IA de Google n'aiderait pas non plus à avoir de bons résultats

    Google a ajouté de minuscules icônes de favicon à l'affichage des résultats de recherche de son moteur de recherche sur desktop

  5. #5
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 844
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 844
    Points : 36 271
    Points
    36 271
    Par défaut Le spam par l'IA gagnerait la bataille contre la qualité des moteurs de recherche
    Le spam par l'IA gagnerait la bataille contre la qualité des moteurs de recherche,
    les tentatives de Google pour freiner la croissance des contenus générés par l'IA n'auraient pas beaucoup aidé

    Les avancées de l'IA dans la création de contenus ont propulsé le spam sur les moteurs de recherche à des niveaux alarmants, défiant même les efforts de Google pour maintenir la qualité des résultats. Selon Jon Gillham, fondateur d'Originality.ai, la majorité des spams sur Google sont désormais générés par l'IA. Malgré les tentatives de Google pour éliminer ces contenus, environ 10 % des résultats de recherche sont désormais inondés de spam d'IA. Cette prolifération risque également de dégrader la qualité des données, car les IA réutilisent et régurgitent du contenu synthétique de faible qualité.

    Bien que des outils de reconnaissance comme celui d'Originality.ai offrent une aide, ils ne suffisent pas à résoudre entièrement le problème. Les dernières mesures de Google visent à améliorer la qualité des résultats en éliminant le contenu non original et en luttant contre les pratiques abusives, telles que l'utilisation de domaines expirés ou la création de contenu à grande échelle pour manipuler les classements. Cependant, il reste à voir si ces efforts seront suffisants pour endiguer le flot de spam par IA et restaurer la qualité des moteurs de recherche.


    Nom : GogglrvsAI.jpg
Affichages : 3989
Taille : 19,6 Ko

    Dans les premières années 2000, Google a rapidement captivé les utilisateurs grâce à sa capacité à indexer efficacement n'importe quel site Web à travers le monde. Cet outil de recherche en ligne offrait un accès à tout ce que l'on pouvait espérer trouver sur Internet. Pour beaucoup, les termes « Internet » et « Google » étaient interchangeables, fusionnant ainsi en une seule entité. À cette époque, l'entreprise a connu un succès fulgurant et s'est rapidement développée. Aujourd'hui encore, pour la plupart des gens, l'idée d'Internet est étroitement liée au simple mot : « Google ». De plus en plus de personnes soutiennent que Google est en déclin. Selon leurs dires, les résultats de recherche de Google sont de plus en plus envahis par des publicités payantes, tandis que les sites Web indésirables parviennent de mieux en mieux à s'imposer dans les résultats en contournant les algorithmes de l'entreprise. En conséquence, l'expérience de recherche sur Google se dégrade progressivement, devenant moins pertinente et plus fastidieuse.

    Des chercheurs allemands ont examiné cette problématique dans le cadre d'une étude, et leurs conclusions semblent confirmer les préoccupations des utilisateurs. Selon leur rapport, la qualité des résultats de Google et de ses concurrents est en baisse, et cette tendance risque de s'aggraver avec l'émergence de l'intelligence artificielle générative. L'étude souligne que le moteur de recherche Google est envahi par du spam SEO, ce qui dégrade la qualité de la recherche, tandis que ses concurrents comme Bing et DuckDuckGo ne font pas mieux.

    Les chercheurs, issus de l'université de Leipzig, de l'université Bauhaus de Weimar et du Centre pour l'analyse des données évolutives et l'intelligence artificielle, ont passé un an à analyser les résultats de 7 392 requêtes d'évaluation de produits sur Google, Bing et DuckDuckGo. Cette étude, présentée comme la première du genre, confirme les inquiétudes quant à la détérioration de la qualité des résultats des moteurs de recherche. Alors que Google défend la qualité de ses résultats, l'étude contredit cette affirmation. Selon les chercheurs, une partie significative du problème réside dans ce qu'ils appellent le marketing d'affiliation. Ils notent que les pages les mieux classées sont en moyenne plus optimisées pour le marketing d'affiliation, ce qui se traduit par une qualité de texte moindre. De plus, ils soulignent que bien qu'une petite fraction des évaluations de produits utilise cette stratégie, la majorité des résultats des moteurs de recherche y recourent, exacerbant ainsi les problèmes de qualité des pages de résultats des moteurs de recherche (SERP).

    La prolifération des contenus issus de l'IA perturbe les résultats de recherche de Google, malgré les efforts du géant du web pour endiguer cette croissance. Gillham qui est également PDG d'Originality.ai, souligne que Google semble perdre la bataille contre ce spam dans ses résultats de recherche. Selon lui, tous les spams actuels proviennent de l'IA, bien que tous les contenus d'IA ne soient pas du spam. Les rapports mensuels de l'équipe de Gillham montrent qu'environ 10 % des résultats de recherche Google contiennent du contenu généré par l'IA, malgré les promesses de Google de nettoyer ces contenus indésirables. Bien que des mesures manuelles aient été prises, l'algorithme de Google semble toujours dépassé par l'envahissement des contenus d'IA.

    Cette prolifération soulève également des préoccupations quant à la qualité des données, car les IA absorbent et régurgitent d'autres contenus synthétiques de qualité médiocre. Bien que la technologie de reconnaissance de Gillham soit utile pour détecter ce type de contenu, il admet qu'elle ne constitue pas une solution complète. Ces efforts sont considérés comme un pas en avant pour réduire la corruption des données, mais selon Gillham, ils ne résolvent pas entièrement le problème.

    Google dévoile de nouvelles stratégies pour combattre le spam

    Chaque jour, les internautes se tournent vers le moteur de recherche pour trouver le meilleur de ce que le Web a à offrir. Google a depuis longtemps mis en place des politiques et des systèmes automatisés pour lutter contre les spammeurs. L’entreprise met régulièrement à jour ces politiques et ces systèmes afin de lutter contre cette tendance et à mettre en relation les internautes avec des sites web de qualité. Voici, ci-dessous, les principaux changements apportés par Google pour améliorer la qualité de la recherche et l'utilité des résultats :

    • amélioration de la qualité du classement : des améliorations sont apportées aux algorithmes des principaux systèmes de classement ceci pour remettre les informations les plus utiles sur le web et réduire les contenus non originaux dans les résultats de recherche ;
    • nouvelles politiques de lutte contre les spam améliorées : les politiques de lutte contre le spam sont mis à jour afin d'exclure de la recherche les contenus de qualité médiocre, tels que les sites web expirés transformés en dépôts de spam par leurs nouveaux propriétaires et les spams sur les notices nécrologiques.

    Réduction des résultats de qualité médiocre et non originaux

    En 2022, nous Google a commencé à ajuster ses systèmes de classement afin de réduire les contenus inutiles et non originaux dans le moteur de recherche et de les maintenir à des niveaux très bas.

    Citation Envoyé par Danny Sullivan,Chargé de liaison avec le public pour la recherche
    Beaucoup d'entre nous ont connu la frustration de visiter une page web qui semble contenir ce que nous recherchons, mais qui ne répond pas à nos attentes. Il se peut que le contenu ne contienne pas les informations souhaitées ou qu'il ne semble même pas avoir été créé pour, ou même par, une personne. Nous nous efforçons de faire en sorte que les pages affichées dans le moteur de recherche soient aussi utiles et pertinentes que possible. Pour ce faire, nous perfectionnons constamment nos systèmes : en 2021, nous avons lancé des milliers de mises à jour de la recherche sur la base de centaines de milliers de tests de qualité, y compris des évaluations dans le cadre desquelles nous recueillons les commentaires d'évaluateurs humains.

    Nous savons que les gens ne trouvent pas le contenu utile s'il semble avoir été conçu pour attirer les clics plutôt que pour informer les lecteurs. C'est pourquoi, pour les utilisateurs anglophones du monde entier, nous apporterons une série d'améliorations au moteur de recherche afin de permettre aux internautes de trouver plus facilement des contenus utiles rédigés par et pour des personnes
    .
    La mise à jour de mars 2024 consiste à affiner certains les systèmes de classement de base pour aider Google à mieux comprendre si les pages web sont inutiles, offrent une mauvaise expérience utilisateur ou donnent l'impression d'avoir été créées pour les moteurs de recherche plutôt que pour les internautes. Il peut s'agir de sites créés principalement pour répondre à des requêtes de recherche très spécifiques. Selon Google, la combinaison de cette mise à jour et des efforts précédents permettra de réduire collectivement de 40 % le contenu de mauvaise qualité et non original dans les résultats de recherche.

    De nos jours, les techniques de création de contenu à grande échelle sont devenues plus sophistiquées, rendant parfois difficile de déterminer si le contenu est généré uniquement par automatisation. Pour contrer ces pratiques, Google s'engage à renforcer sa politique en se concentrant spécifiquement sur le spam par l'IA. Cela permettra de cibler un éventail plus large de contenus à faible valeur ajoutée, tels que les pages prétendant répondre à des requêtes populaires mais ne fournissant pas de contenu réellement utile.

    Elizabeth Tucker, Directrice de la Gestion des produits, a déclaré dans un post publié en mars de cette année : « Depuis des décennies, nous nous appuyons sur des systèmes avancés de lutte contre le spam et sur des politiques anti-spam pour empêcher les contenus de qualité médiocre d'apparaître dans les résultats de recherche - et ce travail se poursuit. Nous mettons régulièrement à jour nos politiques anti-spam pour mieux contrer les pratiques abusives, nouvelles et en constante évolution, qui entraînent l'apparition de contenus non originaux et de faible qualité dans les résultats de recherche. À partir d'aujourd'hui, nous prendrons des mesures contre un plus grand nombre de ces comportements manipulateurs. Bien que nos systèmes de classement empêchent de nombreux types de contenus de faible qualité d'être bien classés dans le moteur de recherche, ces mises à jour nous permettent de cibler plus précisément nos actions dans le cadre de nos politiques anti-spam ».

    Il arrive que des sites web ayant leur propre contenu de qualité hébergent également du contenu de qualité médiocre fourni par des tiers dans le but de tirer parti de la bonne réputation du site hébergeur. Par exemple, un tiers peut publier des avis sur les prêts sur salaire sur un site web éducatif de confiance afin d'obtenir des avantages en termes de classement de la part du site. Ce type de contenu bien classé dans le moteur de recherche peut semer la confusion ou induire en erreur les visiteurs qui peuvent avoir des attentes très différentes quant au contenu d'un site web donné.

    Google considère désormais comme du spam le contenu tiers de très faible valeur produit principalement à des fins de classement et sans surveillance étroite du propriétaire du site web. Il arrive que des domaines expirés soient achetés et réaffectés dans le but premier d'améliorer le classement dans les moteurs de recherche d'un contenu peu original ou de faible qualité. Cela peut induire les utilisateurs en erreur et leur faire croire que le nouveau contenu fait partie de l'ancien site, ce qui n'est pas forcément le cas. Les domaines expirés qui sont achetés et réaffectés dans le but d'améliorer le référencement de contenus de faible qualité sont désormais considérés comme du spam.

    Défis et solutions face à la prolifération du spam en ligne à l'Ère de l'IA

    L'avènement de l'intelligence artificielle dans la création de contenus n'est pas sans conséquences négatives, notamment en ce qui concerne la prolifération du spam sur les moteurs de recherche. Les affirmations de Jon Gillham, fondateur d'Originality.ai, selon lesquelles la majorité des spams sur Google sont désormais générés par l'IA, soulignent un problème croissant qui défie les efforts de Google pour maintenir la qualité des résultats.

    La situation actuelle où environ 10 % des résultats de recherche sont inondés de spam d'IA est alarmante. Non seulement cela nuit à l'expérience utilisateur en fournissant des informations de faible qualité, voire trompeuses, mais cela risque également de compromettre la crédibilité et l'intégrité des moteurs de recherche eux-mêmes. L'utilisation d'IA pour générer du contenu de spam pose également des défis en termes de qualité des données, car cela peut entraîner une réutilisation et une régurgitation de contenus synthétiques de qualité médiocre, ce qui peut rendre difficile la distinction entre des informations légitimes et des contenus trompeurs.


    La lutte contre le spam par IA sur les moteurs de recherche nécessite une approche multidimensionnelle. Cela comprendrait non seulement le développement et le déploiement d'outils de détection plus sophistiqués, mais aussi une collaboration étroite entre les acteurs de l'industrie, les chercheurs en IA et les régulateurs pour élaborer des politiques et des réglementations efficaces. De plus, il est crucial d'éduquer les utilisateurs sur la manière de reconnaître et d'éviter le spam, afin de réduire leur propagation et leur efficacité. Seulement en adoptant une approche holistique et coordonnée, il sera possible de réduire efficacement l'impact du spam par IA sur les moteurs de recherche et de restaurer la qualité des résultats.

    Les dernières mesures de Google visant à améliorer la qualité des résultats en éliminant le contenu non original et en luttant contre les pratiques abusives sont certainement louables. Cependant, il reste à voir si ces mesures seront efficaces pour endiguer le flot de spam par IA et pour restaurer la confiance dans les moteurs de recherche.

    Sources : Google, Jon Gillham, fondateur de la plateforme de détection de contenu AI Originality.ai

    Et vous ?

    Quel est votre avis sur le sujet ?

    Google parviendra-t-il à gagner cette guerre contre le spam par IA ?

    Les mesures et les réglementations actuelles en matière de spam et d'IA sont-elles adaptées pour faire face à ce problème émergent ?

    Voir aussi :

    Google estime que le contenu généré automatiquement par une IA est contraire à ses directives aux webmasters et est considéré comme du spam

    Comment le contenu généré par l'IA pourrait favoriser une migration des médias sociaux vers un contenu indépendant « rédigé » par l'auteur, d'après Andrew Golis

    90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 264
    Points : 4 060
    Points
    4 060
    Par défaut
    Quel est votre avis sur le sujet ?
    Quand je cherche de la doc technique, j'ai l'impression de tomber de plus en plus sur ce genre de contenu.

    Google parviendra-t-il à gagner cette guerre contre le spam par IA ?
    Ca va être compliqué.
    Solutions ?
    - être plus tracké par Google & les autres qui va calculer le temps que l'on reste sur un site et la fréquence à laquelle on visite celui-ci ? (si ce n'est pas déjà fait)
    - noter les pages consultées ?
    - autres ?
    ... mais des bots pourraient encore fausse ce système.

    Les mesures et les réglementations actuelles en matière de spam et d'IA sont-elles adaptées pour faire face à ce problème émergent ?
    La réglementation ne va rien changer car le contenu généré n'est pas forcément fait par un individu qui est dans le pays de cette réglementation.

  7. #7
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    783
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 783
    Points : 3 369
    Points
    3 369
    Par défaut
    Google parviendra-t-il à gagner cette guerre contre le spam par IA ?
    peut être qu'il va falloir faire un système de notation collaborative par des humains de chaque site...

  8. #8
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    92
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 92
    Points : 328
    Points
    328
    Par défaut
    Le retour aux "bons" vieux annuaires de liens.

Discussions similaires

  1. Réponses: 20
    Dernier message: 25/02/2011, 01h37
  2. Réponses: 7
    Dernier message: 28/10/2010, 08h32
  3. Google Wave va intégrer un outil plus puissant que les Google Docs
    Par Gordon Fowler dans le forum Actualités
    Réponses: 56
    Dernier message: 07/12/2009, 11h55
  4. Réponses: 12
    Dernier message: 02/07/2009, 07h46
  5. Réponses: 3
    Dernier message: 19/06/2009, 12h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo