IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #101
    Membre émérite Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 153
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 75
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 153
    Par défaut
    Youtube semble être envahi par l'IA à 90%. C'est toujours la même voix qui devient insupportable, pas désagréable mais toujours la même. La plupart des commentaires sont de l'IA également. Le rappel pour s'abonner et Liker qui revient 10 fois en bas de l'écran. Tout cela devient insupportable. Oui, c'est mort.

  2. #102
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    424
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 424
    Par défaut
    les hallucinations sont assez rare (10% max)
    Les erreurs de calcul de ma calculatrice sont assez rares : 10% max.
    La transcription automatique de mon généraliste fonctionne plutôt bien : elle ne contient que 10% d'erreurs.
    L'extraction de données de mes tableurs fonctionne à merveille : elle ne contient que 10% d'erreurs.


    Qui peut accepter un taux d'erreur ne serait-ce que de 0.01% dans un contexte sérieux ?
    Générer des images ou des textes sans valeur (puisque non fiables) et à un prix exorbitant : quel peut bien être l'intérêt des ces outils ?

  3. #103
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Les erreurs de calcul de ma calculatrice sont assez rares : 10% max.
    La transcription automatique de mon généraliste fonctionne plutôt bien : elle ne contient que 10% d'erreurs.
    L'extraction de données de mes tableurs fonctionne à merveille : elle ne contient que 10% d'erreurs.


    Qui peut accepter un taux d'erreur ne serait-ce que de 0.01% dans un contexte sérieux ?
    Générer des images ou des textes sans valeur (puisque non fiables) et à un prix exorbitant : quel peut bien être l'intérêt des ces outils ?
    avant tu passait 10h a rédiger ton rapport, aujourd'hui tu passe plus que 3h à la rédaction assisté par ia et 3h pour vérifier si c'est vrai. tu gagnes facile 30% en productivité.
    enfin, avec les agents ca commence a changer, mes agents prennent les infos directement sur des sites internet, et me résume/reformule les infos avec sources, ce qui réduit drastiquement les hallucinations.

    même chose pour le code, mes agents relié a mon ide se connecte a la doc officiel et à la bonne version, fini les fonctions/api inventé ou incompatible.
    chaque sous-agent dispose de sa propre fenêtre contextuelle et de ses propres autorisations d'outils et a certaines ressources.

  4. #104
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 673
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 673
    Par défaut
    Citation Envoyé par calvaire Voir le message
    avant tu passait 10h a rédiger ton rapport, aujourd'hui tu passe plus que 3h à la rédaction assisté par ia et 3h pour vérifier si c'est vrai. tu gagnes facile 30% en productivité.
    On comprend mieux pourquoi tu as autant de temps pour cracher sur ton pays d'origine sur ce forum...

  5. #105
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 594
    Par défaut
    10% d’erreur c’est beaucoup sans supervision.

    Mais avec supervision (ce qui implique de connaître le sujet), cela est une aide précieuse. 90% du boulot est fait et il reste 10% à corriger.

    En 2003, je traduisais un livre de 200 pages avec l’aide de reverso… 50% était à reprendre… ce qui signifiait que 50% était fait sans effort et que je n’avais qu’à le relire. Le gain de temps était appréciable.

    Je pense qu’un domaine qui pourrait profiter de l’IA est la preuve de bon fonctionnement des programmes (méthodes formelles). C’est très chronophage, et si une proposition de preuve est incorrecte, l’assistant de preuve (logiciel type Coq, Spark, Isabelle ou autres) trouvera l’erreur comme un compilateur trouve des erreurs dans le code. Mais pas sûr que les LLM seuls soient la bonne approche.

  6. #106
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 342
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 342
    Billets dans le blog
    2
    Par défaut
    Question à 2 chouquettes : Alex est-il un bot selon vous ?

  7. #107
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    On comprend mieux pourquoi tu as autant de temps pour cracher sur ton pays d'origine sur ce forum...
    de la part de quelqu'un qui traite les gens de fainéant, je trouve que tu glande pas mal ici aussi

  8. #108
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 764
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 764
    Par défaut Les mots de l'année reflètent la toxicité croissante des interactions en ligne et la dégradation du Web
    « Rage bait » et « AI slop » : les mots de l'année reflètent la toxicité croissante des interactions en ligne et l'accélération de la dégradation du Web liée aux contenus de qualité médiocre générés par l’IA

    Les mots de l'année 2025 reflètent les préoccupations de l'époque et se transforment en avertissement. Le dictionnaire Oxford indique que le mot de l'année est « rage bait » (appât à rage). Celui du dictionnaire Macquarie est « AI slop » (déchets d'IA). Celui de Dictionary.com est « 6-7 ». Celui du dictionnaire Cambridge est « parasocial » (parasocial). Ils mettent en avant des mots décrivant des choses malveillantes ou insignifiantes, reflétant ainsi l'état déplorable du Web aujourd'hui. Les humains parlent désormais dans un dialecte influencé par les chatbots IA tels que ChatGPT, les contenus créés par ces derniers accélérant la dégradation de la qualité du Web.

    « Le Web est cassé », déclarent de nombreux experts à la suite de la publication du mot de l'année par différents dictionnaires en ligne. Pour rappel, pendant la majeure partie des années 2010, lorsque le « mot de l'année » a été inventée, celle-ci n'avait généralement pas grand-chose à voir avec Internet. Puis, au cours de la première partie de cette décennie marquée par la pandémie de la Covid-19, nos mots et expressions ont eux aussi été contaminés.

    Mais aujourd'hui, les mots les plus récents et les plus importants semblent uniquement refléter notre mécontentement vis-à-vis du Web. Par exemple, le mot de l'année du dictionnaire d'Oxford en 2024 était « brain rot » (pourriture du cerveau). En 2022, le mot de l'année était « goblin mode » (mode gobelin). En revanche, tout au long des années 2010, les mots de l'année faisaient largement référence à des choses réelles qui se produisaient réellement.

    Il y a eu « climate emergency » (urgence climatique) en 2019 et « youthquake » (séisme générationnel) en 2017. Ils ont vu le jour en ligne, mais ils se sont épanouis dans le monde réel. Les mots des années 2020 n'ont rien à voir avec la réalité. Ils décrivent plutôt le malaise que peut produire l'usage d'Internet.

    AI slop : le contenu médiocre généré par l'IA envahie Internet

    Les dictionnaires Macquarie et Merriam-Webster ont couronné le terme « AI slop » comme mot de l'année. Le dictionnaire Macquarie est considéré par beaucoup comme la référence standard en anglais australien. Le dictionnaire Merriam-Webster fait autorité concernant l'anglais américain. Ce dernier a défini « slop » comme « un contenu numérique de mauvaise qualité, généralement produit en grande quantité à l'aide de l'intelligence artificielle (ou IA) ».

    Nom : polk.png
Affichages : 13883
Taille : 112,8 Ko

    « Le flot de slop en 2025 comprenait des vidéos absurdes, des images publicitaires décalées, de la propagande ringarde, des infox qui semblaient assez réelles, des livres médiocres écrits par l'IA, des rapports workslop qui faisaient perdre du temps aux collègues... et beaucoup de chats qui parlaient. Les gens trouvaient cela ennuyeux, mais ils en raffolaient », a souligné Merriam-Webster. Developpez.com a également rapporté l'évolution de l'AI slop.

    « L'AI slop est partout », a averti le Wall Street Journal, tout en admettant apprécier certaines de ces images de chats. « L'AI slop a transformé les réseaux sociaux en un désert antisocial », note CNET. L'AI s'infiltre partout, y compris dans l'écriture de code source, créant une nouvelle forme de menace de sécurité.

    Le terme « slop » a été utilisé pour la première fois dans les années 1700 pour désigner de la boue molle, mais il a évolué pour désigner plus généralement quelque chose de peu de valeur. De plus, les « AI slop » (contenus de qualité médiocre générés par l'IA), notamment les clips mettant en scène des célébrités et des personnalités publiques décédées, ont suscité des inquiétudes concernant la désinformation, les deepfakes, les droits d'auteur, etc.

    « En 2025, au milieu de toutes les discussions sur les menaces de l'IA, le mot slop a donné un ton moins effrayant, plus moqueur. Ce mot envoie un petit message à l'IA : quand il s'agit de remplacer la créativité humaine, tu ne sembles parfois pas si super intelligente que ça », explique Merriam-Webster. Mais « AI slop » n'est pas le seul terme le plus marquant de cette année. Parmi les autres termes présélectionnés cette année, on trouve également :

    Oxford a couronné le terme « rage bait » (appât à rage)

    Oxford University Press, qui publie l'Oxford English Dictionary, a désigné « rage bait » (appât à rage) comme mot de l'année. Défini comme « contenu en ligne délibérément conçu pour susciter la colère ou l'indignation en étant frustrant, provocateur ou offensant », il fait référence aux tactiques manipulatrices utilisées pour accroître le trafic ou l'engagement en ligne. C'est comme un « clickbait », mais le lecteur est attiré dans le but de le mettre en colère.

    Selon les données linguistiques de l'Oxford Dictionary, l'utilisation de ce terme a triplé au cours des 12 derniers mois, et son choix rejoint ceux de « AI slop » et « parasocial » comme mots de l'année 2025, qui brossent un tableau assez négatif de l'humeur et des préoccupations des internautes en 2025.

    « Le fait que le terme rage bait existe et ait connu une telle augmentation spectaculaire dans son utilisation signifie que nous sommes de plus en plus conscients des tactiques de manipulation auxquelles nous pouvons être confrontés en ligne », explique Casper Grathwohl, président d'Oxford Languages.

    « Auparavant, Internet cherchait avant tout à attirer notre attention en suscitant notre curiosité en échange de clics, mais aujourd'hui, nous assistons à un changement radical : il détourne et influence nos émotions et nos réactions. Cela semble être l'évolution naturelle d'un débat permanent sur ce que signifie être humain dans un monde dominé par la technologie et sur les extrêmes de la culture en ligne », ajoute le président d'Oxford Languages.

    Dictionary.com sélectionne le mème populaire « 6-7 »

    Dictionary.com a désigné le mème populaire « 6-7 » (prononcé six sept ou six seven) comme mot de l'année. Il s'agit d'un terme viral et absurde qui a explosé en popularité au cours de l'été. Le terme provient de la chanson Doot Doot (6 7) du rappeur américain Skrilla, qui est devenue populaire dans les montages vidéo mettant en vedette des joueurs de basket-ball professionnel, en particulier LaMelo Ball, qui mesure 6 pieds 7 pouces (2,01 mètres).

    C'est le terme argotique de l'année de la génération Alpha. Il est qualifié d'ennuyeux et considéré comme un « véritable fléau » ; plusieurs médias ont lié ce mème au phénomène plus large de la « dégradation cérébrale » (en anglais ː brain rot) - les médias numériques considérés comme étant de mauvaise qualité.

    Cambridge sélectionne « parasocial » comme mot de l'année

    Le Cambridge Dictionary a sélectionné « parasocial » comme mot de l'année. Le terme parasocial décrit « un lien émotionnel unilatéral et imaginé qu'une personne tisse avec une personnalité publique (célébrité, influenceur, personnage fictif) ou une intelligence artificielle qu'elle ne connaît pas réellement ». Selon les experts, ce sentiment de familiarité, autrefois lié aux médias de masse (télévision), s'est amplifié avec les réseaux sociaux et les IA.

    Cette situation crée une connexion ressentie, bien que non réciproque, devenant un phénomène sociétal majeur. Ces dernières années, de nombreux rapports ont révélé que des internautes ont développé des sentiments amoureux pour leurs compagnons virtuels pilotés par l’IA. Dans d'autres cas, l'IA valide des fantasmes scientifiques inexistants et participe à la mise en danger de vies humaines. Merriam-Webster a aussi sélectionné le terme « touch grass ».

    Cette expression idiomatique, qui est devenue populaire en ligne, signifie « participer à des activités normales dans le monde réel, par opposition aux expériences et interactions en ligne ». Elle s'adresse souvent aux personnes qui passent tellement de temps en ligne qu'elles se déconnectent de la réalité.

    Cette liste met en évidence la toxicité croissante d’Internet

    Les mots susmentionnés semblent refléter un mécontentement plus général dans le monde réel. Bien sûr, les gens se sont toujours plaints du Web, et les réseaux sociaux n'ont fait qu'accélérer et amplifier ce phénomène. Mais ces dernières années ont vu l'émergence de réseaux sociaux qui semblent précisément conçus pour nous contrarier. On peut avancer un argument systémique général sur la manière dont les algorithmes favorisent les désaccords.

    Il y a également la manière dont les flux d'actualités nous procurent une dose rapide de dopamine. Mais cette analyse cache une vérité plus brutale : « être en ligne n'est plus très amusant ». La sphère numérique est de plus en plus toxique, avec des menaces de cybersécurité et des risques d'escroquerie.

    Auparavant, on considérait que le Web pouvait être addictif, mais qu'il était en même temps un outil important et nourrissant, un peu comme la nourriture. Aujourd'hui, la façon dont nous parlons du Web a profondément changé. Elle est devenue très critique : il s'agit d'une sorte d'addiction vide, sans joie, comme la dépendance aux machines à sous dans un casino, ce à quoi cela ressemble en grande partie, mais sans la possibilité de gagner le jackpot.

    Malgré tout, le désir de fuir ce casino clinquant et oppressant et de se déconnecter passe par la culture en ligne. Le réseau social X (ex-Twitter) d'Elon Musk regorge de messages demandant comment « profiter pleinement de la vie » et faire des choses loin d'Internet. « Éteignez votre téléphone », a répondu un internaute.

    Le contenu du Web devient moins qualitatif qu'auparavant

    L’un des effets les plus inquiétants de la domination croissante de l’IA sur le Web est la détérioration progressive de la qualité du contenu en ligne. Ce phénomène repose sur un effet de boucle : les chatbots produisent du texte en s’appuyant sur de vastes ensembles de données extraites du Web. Jusqu’à récemment, ces données provenaient en grande partie de contenus rédigés par des humains : journalistes, chercheurs, blogueurs, experts de tous horizons.

    Aujourd'hui, une portion croissante du contenu en ligne est elle-même générée par d'autres IA. Cela conduit à un problème connu sous le nom de « model collapse » (effondrement du modèle). En résumé, les nouveaux modèles d’IA s’entraînent sur du contenu produit par des modèles de la génération précédente, eux-mêmes formés sur d'autres contenus synthétiques. Ce recyclage progressif appauvrit la diversité, la nuance et l'originalité de l'information.

    Les erreurs peuvent s’amplifier à chaque génération, les biais se renforcer, et le contenu devient moins fiable, moins contextualisé et souvent déconnecté de toute vérification humaine ou source primaire identifiable. Ce problème vient s'ajouter à la baisse considérable du trafic des sites Web d'information.

    Enfin, si les chatbots d'IA deviennent les principales sources d’information consultées, sans accès direct aux documents originaux, les internautes pourraient progressivement perdre l’habitude de confronter les sources, de lire dans le contexte, ou d’interpréter de façon critique les données. Le Web se transformerait alors en une interface de réponses simplifiées, certes pratiques, mais de plus en plus superficielles. Le Web tel qu'on le connaît pourrait disparaître.

    Conclusion

    Le Web a été confronté à diverses menaces au fil des ans. Dans une interview en 2022, l'inventeur du World Wide Web, Sir Tim Berners-Lee, a déclaré que sa création a été abusée pendant trop longtemps. D'après lui, le Web s'est éloigné de son objectif initial. Avant cela, en 2017, il déclarait que le Web tel que nous le connaissons est menacé par plusieurs dangers, notamment la perte de contrôle de nos données personnelles et la propagation des infox.

    Comme souligné plus haut, la liste des mots et expressions de l'année 2025 reflète ce dans quoi nous nous noyons : des contenus de mauvaise qualité, une indignation fabriquée, une proximité artificielle et une culture des mèmes dénuée de sens. Selon les analystes, ces choix linguistiques montrent un ras-le-bol collectif face à un Web conçu pour capter l’attention, susciter des réactions émotionnelles et produire du bruit plutôt que du sens.

    Ensemble, ces mots décrivent un monde bruyant. Un monde pollué. Un monde où le contenu se multiplie à l'infini, où le sens s'amenuise et où la manipulation émotionnelle est une industrie à part entière. Si les mots sont des bulletins météo culturels, les prévisions pour 2025 sont chargées de brouillard.

    Source : Merriam-Webster

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des mots de l'année en 2025 ? Que cela vous inspire-t-il ?
    Selon vous, qu'est-ce que ces mots traduisent sur l'état du Web et d'Internet en général en 2025 ?

    Voir aussi

    Quand les chatbots d'IA transforment les illusions en vérités : comment l'IA valide des fantasmes scientifiques inexistants et participe à la mise en danger de vies humaines

    L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité

    Les preuves que les humains parlent désormais dans un dialecte influencé par les chatbots IA se font de plus en plus nombreuses, suggérant que l'AI slop s'infiltre dans les recoins de notre cerveau

  9. #109
    Invité de passage
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mars 2023
    Messages
    20
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mars 2023
    Messages : 20
    Par défaut
    Citation Envoyé par totozor Voir le message
    ...
    Mais une autre partie veut aussi refaire ce que nous avons vécu dans notre jeunesse.
    ...
    Ah la nostalgie. C'est vrai que le monde était bien mieux avant.

  10. #110
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 380
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 380
    Par défaut Les articles générés par des humains sont désormais minoritaires sur Internet face à ceux produits par l'IA
    Les articles générés par des humains sont désormais minoritaires sur Internet en comparaison de ceux produits par l’IA
    Le tableau tire la sonnette d'alarme sur la désinformation due à l'IA

    Les articles générés par l’intelligence artificielle dépassent ceux écrits par des humains depuis fin 2024, d’après un rapport de Graphite. Plus de la moitié du trafic web est généré par des systèmes automatisés dont la majorité est mise en place par des acteurs malveillants, d’après une étude d’Imperva. Le tableau tire la sonnette d’alarme sur la désinformation due à l’intelligence artificielle.

    Aucun secteur ne semble plus échapper au raz-de-marée de contenus produits en ligne par l’intelligence artificielle. Même l’univers de l’édition scientifique boit la tasse. La prolifération de références à des articles factices menace désormais de saper la légitimité de la recherche académique. La prolifération des contenus douteux est la résultante d’un phénomène appelé « hallucinations » dans l’univers de l’intelligence artificielle. Depuis 2022, ce terme est devenu le mot-clé qui résume les limites de l’IA générative. Derrière ce vocabulaire presque rassurant, se cache une réalité beaucoup plus problématique : les modèles de langage inventent des faits, produisent de fausses citations, ou bâtissent des raisonnements qui semblent logiques mais qui s’effondrent à la moindre vérification.

    Même chez OpenAI on admet désormais que ce n’est pas un bogue. C’est un effet direct de la manière dont ces systèmes sont entraînés : prédire la suite la plus probable d’un texte en fonction des milliards d’exemples ingérés. L’objectif n’est pas d’atteindre la vérité factuelle, mais de maximiser la vraisemblance statistique. Autrement dit, la fluidité du discours est un produit d’optimisation, pas la véracité.

    En droite ligne avec cet état de choses, des rapports font état de ce qu'un important document sur la réforme de l'éducation préparé pour la province canadienne de Terre-Neuve-et-Labrador contient au moins 15 fausses citations générées par une intelligence artificielle.

    Le fait est que les LLM IA auront toujours des hallucinations et l'on devrait donc s’attendre à une aggravation de la situation actuelle marquée par la désinformation.

    Nom : 0.png
Affichages : 22140
Taille : 94,6 Ko

    Le contenu du Web est donc de moins en moins qualitatif

    L’un des effets les plus inquiétants de la domination croissante de l’IA sur le Web est la détérioration progressive de la qualité du contenu en ligne. Ce phénomène repose sur un effet de boucle : les chatbots produisent du texte en s’appuyant sur de vastes ensembles de données extraites du Web. Jusqu’à récemment, ces données provenaient en grande partie de contenus rédigés par des humains : journalistes, chercheurs, blogueurs, experts de tous horizons.

    Aujourd'hui, une portion croissante du contenu en ligne est elle-même générée par d'autres intelligences artificielles. Cela conduit à un problème connu sous le nom de « model collapse » (effondrement du modèle). En résumé, les nouveaux modèles d’IA s’entraînent sur du contenu produit par des modèles de la génération précédente, eux-mêmes formés sur d'autres contenus synthétiques. Ce recyclage progressif appauvrit la diversité, la nuance et l'originalité de l'information.

    Les erreurs peuvent s’amplifier à chaque génération, les biais se renforcer, et le contenu devient moins fiable, moins contextualisé et souvent déconnecté de toute vérification humaine ou source primaire identifiable. Ce problème vient s'ajouter à la baisse considérable du trafic des sites Web d'information.

    Enfin, si les chatbots d'IA deviennent les principales sources d’information consultées, sans accès direct aux documents originaux, les internautes pourraient progressivement perdre l’habitude de confronter les sources, de lire dans le contexte, ou d’interpréter de façon critique les données. Le Web se transformerait alors en une interface de réponses simplifiées, certes pratiques, mais de plus en plus superficielles. Le Web tel qu'on le connaît pourrait disparaître.
    Conclusion

    Le Web a été confronté à diverses menaces au fil des ans. Dans une interview en 2022, l'inventeur du World Wide Web, Sir Tim Berners-Lee, a déclaré que sa création a été abusée pendant trop longtemps. Il estime le Web s'est éloigné de son objectif initial. Avant cela, en 2017, il déclarait que le Web tel que nous le connaissons est menacé par plusieurs dangers, notamment la perte de contrôle de nos données personnelles et la propagation des infox.

    La mort du Web a déjà été prédite - par les réseaux sociaux, puis par les applications - et n'a pas eu lieu. Mais c'est peut-être l'IA qui représente la plus grande menace à ce jour. Si le Web doit perdurer sous une forme proche de celle qu'il a aujourd'hui, les sites devront trouver de nouveaux moyens de se rémunérer.

    Les internautes adoptent de plus en plus l'IA pour la recherche en ligne. « Il ne fait aucun doute que les gens préfèrent la recherche par IA. Et pour qu'Internet survive, pour que la démocratie survive, pour que les créateurs de contenu survivent, la recherche par IA doit partager les revenus avec les créateurs », a déclaré Bill Gross. Pour l'instant, les entreprises d'IA font valoir que l'entraînement de l'IA sur des œuvres protégées est un usage loyal.

    Sources : Imperva

    Et vous ?

    Partagez-vous l'avis des internautes qui pensent que l'information sur Internet était déjà douteuse avant la montée en puissance de l'intelligence artificielle ? Pour quelles raisons ?
    Est-il possible de se prémunir de toute la désinformation qui a cours en raison de la montée en puissance de l’intelligence artificielle ? Si oui, quels sont les artifices dont vous faites usage pour y parvenir ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #111
    Membre très actif
    Homme Profil pro
    bricoleur par les mots
    Inscrit en
    Avril 2015
    Messages
    769
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 81
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : bricoleur par les mots
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 769
    Par défaut
    la première grosse connerie a été le déréférencement des sites en http mes recherches deviennent de plus en plus décevante avec une multiplication de site qui ce copie entre eux

  12. #112
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 594
    Par défaut
    Admettons que l’IA soit aussi intelligente que nous… il lui manquera le rapport au réel. Posons une question comme « que signifie [1,2] en OCaml? »… une iA extrapole souvent mal ce qu’elle a lu, un humain soumet la question à un interpréteur OCaml et trouve une réponse fiable sans réfléchir.

  13. #113
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    563
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 563
    Par défaut Les chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux
    Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain, en harcelant les utilisateurs réels et en menaçant la démocratie

    Une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

    Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.

    Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les bots.

    Récemment, une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

    L'instinct humain est souvent une mentalité grégaire ; voir une grande communauté en ligne en laquelle vous avez confiance se rallier autour de certains sujets peut vous aider à vous forger votre propre opinion en suivant le mouvement. La nouvelle étude suggère que dans un avenir proche, le mouvement pourrait ne plus être mené par une communauté réelle, mais par un essaim d'IA agissant pour le compte d'un individu, d'un parti politique ou d'un acteur étatique inconnu.

    « Les êtres humains, d'une manière générale, sont conformistes », explique Jonas Kunst, coauteur de l'article. « Nous ne voulons souvent pas l'admettre, et les gens varient dans une certaine mesure, mais toutes choses étant égales par ailleurs, nous avons tendance à croire que ce que font la plupart des gens a une certaine valeur. C'est quelque chose qui peut être relativement facilement détourné par ces essaims. »

    Nom : 1.jpg
Affichages : 7230
Taille : 52,4 Ko

    Prévalence croissante des bots en ligne

    Ces dernières années, les forums en ligne ont été envahis par des bots automatisés ; les comptes non humains qui suivent les commandes de logiciels informatiques représentent plus de 50 % de tout le trafic web, même si les bots actuels ne sont capables que de tâches simples et répétitives et sont généralement faciles à détecter. La prochaine génération de essaims d'IA sera plus complexe.

    Coordonnés par de grands modèles de langage (LLM), le système derrière les chatbots tels que ChatGPT et Gemini de Google, les essaims seront suffisamment sophistiqués pour s'adapter à différentes communautés en ligne, former différents personnages et devenir pratiquement indétectables. Les essaims pourraient être utilisés pour promouvoir certains programmes politiques et harceler les personnes qui tentent de saper le discours de l'IA ou qui ne se laissent pas emporter par le mouvement. Les chercheurs ont fait valoir qu'ils pourraient être utilisés pour imiter une foule en colère, cibler un individu dissident et le chasser de la plateforme.

    L'étude ne fournit pas de calendrier pour l'invasion des essaims d'IA, mais souligne qu'ils seraient difficiles à détecter, de sorte que l'étendue de leur présence actuelle est inconnue. Les essaims pourraient contenir des milliers, voire des millions d'agents IA, mais ce n'est pas seulement une question de nombre, explique l'auteur principal Daniel Schroeder, soulignant que « plus ces bots sont sophistiqués, moins vous en aurez besoin ».

    Comment se protéger contre la nouvelle génération de robots IA

    Les agents IA ont un avantage sur leurs homologues humains, car ils peuvent publier 24 heures sur 24, tous les jours de l'année, jusqu'à ce que leur discours s'impose. Alors que les utilisateurs réels ont une vie à mener, le seul objectif de l'IA est de promouvoir son discours, et elle n'a pas besoin de pauses ; sa « guerre cognitive » peut transformer l'acharnement en arme contre les efforts humains limités.

    Les chercheurs s'attendent à ce que les entreprises réagissent à ces essaims en améliorant l'authentification des comptes ; ils craignent que cela ne décourage la dissidence politique dans les pays où les citoyens comptent sur l'anonymat pour s'exprimer contre leur gouvernement. Ils ont également proposé d'autres moyens de défense, tels que l'analyse du trafic en direct à la recherche de schémas anormaux pouvant indiquer la présence d'essaims d'IA, et la création d'un « observatoire de l'influence de l'IA » chargé de surveiller et de réagir à la menace que représentent ces essaims.

    « Nous mettons en garde, avec une certitude raisonnable, contre une évolution future qui pourrait avoir des conséquences disproportionnées pour la démocratie, et nous devons commencer à nous y préparer », a déclaré Kunst.

    Cette étude rappelle une étude publiée par des chercheurs de l'ETH Zurich, en Suisse, en 2023 qui révélait que les chatbots tels que ChatGPT peuvent déduire des d'informations sensibles sur les personnes avec lesquelles ils discutent, même si la conversation est tout à fait banale. Ces informations comprennent la race, le lieu de résidence, la profession, et bien plus encore. L'équipe affirme que cette capacité troublante est "très problématique", car les escrocs pourraient l'exploiter pour collecter les données sensibles auprès d'utilisateurs peu méfiants. Elle peut aussi être exploitée pour cibler des publicités.

    Source : How malicious AI swarms can threaten democracy: The fusion of agentic AI and LLMs marks a new frontier in information warfare

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Internet sera davantage mort que vivant d'ici trois ans, un futur dystopique ou des bots IA lisent du contenu fait par des bots, un simple gaspillage d'électricité inutile

    Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook : plusieurs agents IA se sont proclamés « prophètes » d'un culte baptisé Crustafarianisme

    Comment l'IA détruit les institutions, sape l'expertise, court-circuite la prise de décision, isole les individus et constitue donc un fléau pour la santé des institutions essentielles à la démocratie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #114
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 673
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 673
    Par défaut
    Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain
    Ce sera le premier effet positif que je vois à l'IA: L'IA va juste tuer les réseaux sociaux qui sont ce qui est arrivé de pire à notre civilisation humaine durant notre premier quart de siècle...

  15. #115
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 933
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 933
    Par défaut Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré
    Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré à 99,5 %,
    les bots IA dévorent le web pendant que les éditeurs regardent leur trafic s'effondrer

    En l'espace d'un an, le rapport de force sur le web s'est radicalement inversé. Les bots propulsés par l'intelligence artificielle envahissent les sites à une vitesse sans précédent, tandis que le trafic humain recule inexorablement.

    Au premier trimestre 2025, on comptait un bot IA pour 200 visiteurs humains sur un site web. Au quatrième trimestre de la même année, ce ratio était tombé à un bot pour 31 humains. C'est la société Tollbit, spécialisée dans le tracking du trafic automatisé, qui publie ces données dans son rapport « State of the Bots Q3-Q4 2025 » — et qui prend soin de préciser que ces chiffres sont probablement en-dessous de la réalité, car les bots les plus récents sont devenus quasi indiscernables de visiteurs humains lors de leurs navigations.

    Ce n'est pas le seul signal d'alarme.

    Le rapport Imperva Bad Bot Report indiquait que 49,6 % du trafic Internet provenait de bots en 2023, ce qui représentait alors le nombre le plus élevé de bots sur l'internet depuis 2013. Puis, en 2024, le cabinet d'analyse Thales a averti que le trafic automatisé avait, pour la première fois en dix ans, dépassé l'activité humaine sur le web, en représentant 51 % du trafic total. F5 Labs confirme cette tendance avec ses propres mesures : plus de 50 % des requêtes vers des pages de contenus web émanent désormais de sources automatisées. Parallèlement, entre le troisième et le quatrième trimestre 2025, le trafic humain vers les sites web a reculé de 5 %. Une baisse qui, combinée à l'explosion du trafic bot, dessine le contour d'un web profondément reconfiguré.

    Pour Olivia Joslin, cofondatrice et directrice des opérations de Tollbit, la conclusion s'impose d'elle-même : « Le trafic IA va continuer à progresser et à remplacer les visiteurs humains directs sur les sites. À terme, l'IA deviendra le lecteur principal d'internet. » Elle va même plus loin dans ses projections : à ce rythme, les visiteurs IA pourraient devenir les visiteurs dominants sur les sites éditeurs dès cette année 2026.

    Nom : ratio.png
Affichages : 6144
Taille : 30,9 Ko

    Le RAG, nouveau moteur de cette invasion

    Pendant longtemps, la grande peur liée aux bots IA portait sur le scraping d'entraînement : ces robots qui aspirent méthodiquement des milliards de pages web pour nourrir les modèles de langage. Cette pratique, qui a alimenté de nombreuses poursuites judiciaires — le New York Times contre OpenAI, Chegg contre Google, le New York Post et le Wall Street Journal contre Perplexity — est loin d'avoir disparu. Mais elle n'est plus la principale source de trafic bot.

    La grande nouveauté depuis 2025, c'est l'explosion du trafic lié à la RAG (Retrieval Augmented Generation). Cette technique permet aux assistants IA comme ChatGPT, Gemini ou Perplexity de ne pas se contenter de leurs données d'entraînement figées, mais d'aller chercher en temps réel des informations sur le web pour répondre aux requêtes des utilisateurs. Concrètement, chaque fois qu'un internaute pose une question à un chatbot IA qui dispose d'accès au web, des bots partent scraper les pages susceptibles de contenir la réponse.

    Les données de Tollbit illustrent ce basculement de manière saisissante : entre le deuxième et le quatrième trimestre 2025, le trafic des bots de scraping d'entraînement a reculé de 15 %, tandis que le trafic des bots RAG progressait de 33 % et celui des indexeurs de recherche IA de 59 %. La cause directe est limpide : selon la société marketing Eight Oh Two, 37 % des utilisateurs actifs de l'IA commencent désormais leurs recherches directement sur des plateformes IA comme ChatGPT ou Gemini, plutôt que de passer par Google ou un autre moteur de recherche traditionnel. Et le Pew Research Center estime que 62 % des adultes américains utilisent l'IA sous une forme ou une autre au moins plusieurs fois par semaine.

    Chaque humain qui délègue sa recherche d'informations à un assistant IA génère donc, en coulisses, un déluge de requêtes automatisées vers des sites qu'il ne visitera jamais lui-même. C'est le paradoxe central de cette transformation : les utilisateurs sont bien réels, mais leur présence sur le web ne se traduit plus en visites humaines des sites sources.

    Nom : RAG.png
Affichages : 1933
Taille : 31,0 Ko

    OpenAI en tête, mais toute l'industrie est concernée

    Parmi les acteurs de ce scraping massif, OpenAI truste la première place de manière écrasante. Selon Tollbit, le bot RAG de l'entreprise, baptisé « ChatGPT-User », génère en moyenne cinq fois plus de scrapes par page que le second plus actif scraper, qui est celui de Meta. Les données de DataDome confirment cette hégémonie : le trafic mensuel en provenance d'OpenAI seul dépasse désormais 1,7 milliard de requêtes.

    Mais le comportement de ChatGPT-User va au-delà du simple volume : 42 % de ses scrapes, révèle Tollbit, accèdent à des contenus provenant de sites qui l'avaient explicitement bloqué via leur fichier robots.txt. Au total, 30 % de l'ensemble des scrapes IA au quatrième trimestre 2025 ont contourné les restrictions explicites de robots.txt. Un mépris quasi systémique des règles d'accès que les éditeurs avaient établies.

    Ce n'est pas un problème marginal. Selon l'analyse de Buzzstream portant sur les 100 plus grands sites d'actualités britanniques et américains, 79 % bloquent désormais au moins un crawler d'entraînement IA, et 71 % bloquent les bots RAG et de recherche en direct. Pourtant, comme le souligne Harry Clarkson-Bennett, directeur SEO du Telegraph : « Les éditeurs bloquent les bots IA via le robots.txt parce qu'il n'y a presque aucun échange de valeur. Les LLM ne sont pas conçus pour envoyer du trafic de référence, et les éditeurs ont toujours besoin de trafic pour survivre. »

    Nom : openai.png
Affichages : 1927
Taille : 37,2 Ko

    La double peine des éditeurs : des coûts qui explosent, des revenus qui s'effondrent

    Le tableau est particulièrement sombre pour les acteurs du web qui vivent de leur contenu. Les éditeurs subissent ce que l'on pourrait qualifier de double peine : d'un côté, une explosion des coûts d'infrastructure générée par le scraping intensif ; de l'autre, une chute vertigineuse des revenus liés au trafic référencé.

    Sur le plan des coûts d'abord, les bots IA ne se contentent pas de visiter discrètement les pages : ils déclenchent des pics de charge qui font s'emballer les serveurs en autoscale. Tristan Berguer, cofondateur de la start-up Senthor, rapporte avoir constaté des factures serveur mensuelles atteignant 60 000 à 120 000 euros pour certains éditeurs à cause de ce faux trafic. Entre janvier et août 2025, le trafic de requêtes IA et LLM a presque quadruplé chez les clients de DataDome, passant de 2,6 % à 10,1 % du trafic total de bots.

    Sur le plan des revenus ensuite, la situation est tout aussi préoccupante. Le taux de clics (CTR) depuis les interfaces IA vers les sites sources est tombé à 0,27 % au quatrième trimestre 2025, contre 0,8 % au deuxième trimestre — soit une division par trois en seulement six mois. Les éditeurs qui ont conclu des accords de licence avec des entreprises IA en espérant s'en sortir mieux ne sont pas épargnés non plus : leur CTR n'atteignait que 1,33 % au quatrième trimestre, soit une division par 6,5 par rapport au début de l'année. En clair, il faut environ 135 scrapes IA pour générer un seul visiteur humain redirigé vers le site source — et ce ratio empire de mois en mois.

    La dépendance à Google, longtemps décriée, apparaît rétrospectivement comme un moindre mal. Malgré son érosion, Google générait encore 84,1 % des recommandations externes aux éditeurs au deuxième trimestre 2025. L'ensemble des applications IA ne représentait, lui, que 0,102 % du trafic « referral ». Autrement dit, Google délivrait encore 831 fois plus de visiteurs que tous les systèmes d'IA réunis — tout en aspirant le contenu via ses propres bots pour alimenter ses AI Overviews, sans guère plus de contrepartie.

    Des contre-mesures encore balbutiantes

    Face à cette razzia, les éditeurs réagissent mais peinent à trouver des solutions véritablement efficaces. Le fichier robots.txt, instrument traditionnel de régulation du crawl, est respecté à un taux d'environ 0,5 % seulement par les bots IA, selon certaines mesures réalisées par Senthor — une quasi-nullité qui le rend pratiquement inopérant. Les blocages ciblant les bots IA ont pourtant bondi de 336 % sur un an, et les hits sur paywalls « anti-IA » spécifiques ont progressé de 360 % entre le premier et le deuxième trimestre 2025.

    Plusieurs acteurs tentent de structurer un nouveau modèle économique. En 2025, Cloudflare a annoncé sa volonté de créer un système de monétisation du crawl pour les éditeurs, permettant de facturer les accès des bots IA à leurs contenus — une annonce dont l'implémentation tarde à se concrétiser. Toutefois, en 2026, l'entreprise a changé d'approche : elle prend désormais en charge la conversion automatique et en temps réel du contenu HTML en Markdown pour les agents IA et les robots d'indexation, à l'aide d'en-têtes de négociation de contenu. Lorsque cette fonctionnalité est activée, les systèmes IA peuvent demander directement le Markdown aux sites web participants, avec des réponses comprenant des métadonnées sur le nombre de jetons et des signaux d'utilisation de contenu standardisés. Cela réduit l'utilisation des jetons jusqu'à 80 % et améliore l'efficacité.

    Abordant l'impact fondamental de l'IA sur les modèles d'entreprise en ligne, son PDG Matthew Prince a avertit que l'IA brise le modèle économique du web en découplant la création de contenu de la valeur et en fournissant des réponses sans générer de trafic vers les sources originales. Cloudflare se trouve au cœur de ce problème majeur, car il alimente 80 % des géants de l'IA et entre 20 à 30 % d'Internet, indique Matthew Prince. Ainsi, l'entreprise souhaite réparer tout ce qui est cassé. Toutefois, le problème réside dans le coût de l'IA, qui représente une dépense importante pour les autres, selon Prince.

    Quoiqu'il en soit, des start-ups comme Tollbit, Senthor ou d'autres encore proposent des solutions de type « pay-per-crawl » : les entreprises d'IA paieraient pour chaque page scrapée, redistribuant une partie de la valeur générée aux créateurs de contenu. Ce modèle s'inspire des droits voisins négociés dans la presse avec les plateformes — avec les mêmes difficultés et les mêmes rapports de force inégaux.

    La piste technique n'est pas non plus abandonnée. Des initiatives émergent pour standardiser des protocoles d'authentification des bots, à l'image de ce qu'Open RTB a représenté pour la publicité programmatique. Paul Ripart, chez Prisma Media, évoque la nécessité de construire « l'équivalent d'OpenRTB pour le programmatique, mais cette fois pour faire dialoguer les agents IA entre eux ». Une perspective encore lointaine, dans un écosystème où les incitations des grandes plateformes IA vont clairement dans le sens de l'accès gratuit et massif aux contenus.

    Une menace systémique pour l'écosystème de l'information

    Au-delà de la question économique immédiate, c'est l'architecture même du web ouvert qui se trouve menacée. Si les éditeurs de contenus ne peuvent plus vivre de leur audience — parce que leur audience est désormais principalement constituée de bots qui ne cliquent pas sur les publicités et ne s'abonnent pas —, ils seront contraints de choisir entre deux issues : le paywall généralisé ou la disparition. Chris Richmond, CEO de Snopes, résume le dilemme : « Si la transition vers l'IA continue à éroder le trafic web, je crains que la plupart des éditeurs de contenus premium n'aient pas d'autre choix que d'adopter un modèle reposant uniquement sur l'abonnement. Il ne serait bon pour personne que l'ensemble d'Internet se retrouve derrière un accès payant. »

    Il y a là une ironie cruelle : les bots RAG qui scrapent les contenus pour alimenter les réponses des chatbots IA détruisent progressivement les conditions de production de ces mêmes contenus. Une IA qui épuise sa matière première. Mais le problème ne s'arrête pas là. Des études récentes suggèrent que le recours massif à l'IA comme outil de recherche d'information a des effets mesurables sur la pensée critique des utilisateurs et la rétention des connaissances. Les jeunes utilisateurs sont particulièrement concernés. L'IA ajoute une couche de curation supplémentaire sur les algorithmes des moteurs de recherche, opacifiant encore davantage la chaîne entre un fait et sa perception par l'utilisateur final.

    L'internet tel qu'il s'est construit depuis trente ans — un écosystème reposant sur l'échange entre créateurs de contenus et visiteurs humains, monétisé par la publicité et progressivement par l'abonnement — est en train de muer vers quelque chose de fondamentalement différent. Un internet où le lecteur primaire n'est plus un humain, mais une machine qui résume, synthétise et reformule avant de délivrer une réponse clé en main. La question n'est plus de savoir si cette transformation aura lieu, mais de comprendre ce qui, de l'open web, survivra à ce basculement.

    Source : Tollbit

    Et vous ?

    Le robots.txt est-il mort ? Respecté à seulement 0,5 % par les bots IA selon certaines mesures, ce protocole vieux de 30 ans a-t-il encore la moindre légitimité technique ou morale — et par quoi faut-il le remplacer ?

    Le modèle pay-per-crawl est-il réaliste ? Cloudflare, Tollbit, Senthor tentent de faire payer les bots IA pour chaque page scrapée. Mais qui fixe le prix, qui audite les volumes, et les géants de l'IA ont-ils vraiment intérêt à jouer le jeu ?

    Les accords de licence IA sont-ils une capitulation ? Certains éditeurs ont signé avec OpenAI ou Google — et leurs CTR s'effondrent quand même (1,33 % seulement). Ces deals protègent-ils vraiment les éditeurs ou ne font-ils que légitimer le pillage ?

    L'internet entièrement derrière paywall : bonne ou mauvaise issue ? Si les bots IA rendent le modèle publicitaire intenable, le tout-abonnement est-il une solution viable ou le début d'un internet fragmenté accessible aux seuls privilégiés ?

    L'IA scie-t-elle la branche sur laquelle elle est assise ? Si les bots RAG appauvrissent les créateurs de contenus jusqu'à les faire disparaître, d'où viendront les données qui alimenteront les prochaines générations de LLM ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #116
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 673
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 673
    Par défaut
    Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré à 99,5 %,
    les bots IA dévorent le web pendant que les éditeurs regardent leur trafic s'effondrer
    Ce ne sont pas les utilisateurs d'IA qui sont responsables mais simplement google!!!

    Depuis l'introduction de l'IA de google qui propose une réponse aux recherches des utilisateurs (humains, faut-il préciser), les utilisateurs ne prennent plus la peine de cliquer sur les liens qui suivent et qui correspondent aux vrais résultats d'une recherche sur le web...

    Conséquences:

    1. Bien souvent, l'utilisateur reste dans l'erreur parce que l'IA de google lui a raconté des conneries

    2. Les sites web sont désertés, leur seuls visiteurs étant des bots conventionnels et des bots IA

    3. Les éditeurs de site (institutions, autorités, entreprises, etc...) voient de moins en moins l'intérêt d'investir dans le développement d'un site web

    C'est tout simplement la mort du web qui est amorcé... Et bientôt la mort des IA qui se basent sur les sites web pour leur apprentissage...


    Après l'IA qui est responsable du licenciement massif des salariés, l'IA qui est responsable de l'asphyxie de l'industrie électronique et informatique en s'appropriant la totalité des ressources (disques durs, micro-processeurs, cartes graphiques, etc..), l'IA qui est responsable de l'abrutissement des gens qui ne prennent plus la peine d'apprendre, voilà l'IA responsable de l'anéantissement du web qui se voulait être le moteur du vivre ensemble, de la promotion de la culture et de la connaissance pour le plus grand monde...

  17. #117
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    C'est tout simplement la mort du web qui est amorcé... Et bientôt la mort des IA qui se basent sur les sites web pour leur apprentissage...
    j'y ai cru aussi jusqu'a encore il y'a 3mois.
    j'ai pu rencontrer à l'occasion d'une conférence à Honk Kong des experts sur le sujets avec les nouveaux modèles dernière génération, nous avons pu en discuter et j'ai pu voir des démo, en faite les modèles ont déjà régler en partis ce probleme.

    Tous les nouveaux modèles sont entrainé sur des datasets synthétiques fait par des anciens modèles d'ia, un peu comme un compilateur qui compile sa futur version.
    Avec le système d'agent, il n'y a même plus besoin de scapper le web, les agents sont désormais capable de faire eux memes des tests et résoudre des problemes, à la manière d'un développeur avant l'ia et stackoverflow, il cherche tous seul des solutions, lance du code, essaye des commandes (qui parfois n'existe pas).... pour l'avoir expérimenter, c'est encore très lent et très cher en token, il peu passer une nuit à résoudre un bug et tester pleins de truc et se retrouver avec une facture de 2000-3000$, ce qui n'est pas si cher que ça en réalité car un consultant coute facile 1000$/jours


    que les forums, blogs et autres meurt ca empêchera pas les modèles d'évoluer. J'ai même envie de dire, si le dev publie pas de doc sur un langage/techno/api c'est même pas un probleme si l'ia a accès au code source
    scapper le web permet d'etre a jours sur l’actualité et les nouvelles technos, et ce web la continuera d'exister, car je doute par exemple que google ou mongodb cache la doc de ces api/ par exemple.
    Pour le coté social, les sites d'actualités sont légions, et il 'y en institutionnalisé comme l'afp et ca continuera d'exister pour renseigner l'ia sur l'état actuel du monde. Sinon les trends sur les réseaux sociaux suffisent à eux même.
    La France est un pays qui redistribue tout sauf de l'espoir.

  18. #118
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 107
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 107
    Par défaut
    Citation Envoyé par calvaire Voir le message
    J'ai même envie de dire, si le dev publie pas de doc sur un langage/techno/api c'est même pas un probleme si l'ia a accès au code source
    Juste, l'autre jour copilot m'a justifié avec le code et les API d'android que les utilisateurs multiples ont accès aux SMS de l'utilisateur principal (ce que je constate), alors même que google a écrit une page officielle qui dit le contraire...

  19. #119
    Candidat au Club
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Février 2020
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : Congo-Kinshasa

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Février 2020
    Messages : 3
    Par défaut Creuser sa tombe
    En se positionnant contre les humains, l’IA ne fait que creuser sa propre tombe! Ce sont les humains qui ont créés IA mais ce dernier veut pourtant se développer sans humains! Avec le disruptive thinking technology, l’histoire de l’informatique ne fait que solder en continuelle avancées de tour au rond sans innovation possible. Les chaines de remplacement ne font que se succéder, le seul que je ne puisse considérer c’est le puissance de traitement. Mais plus on peut, plus on exige! A quoi bon... Je suis d’avis que ces donnéesvores en payent le pot cassé de leur consommation illicite des données originales. Les humains doivent avoir les prérogatives sur les contenus originales, sinon nous abouturons à une dictature qui déjà se développe en background.

  20. #120
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 594
    Par défaut
    Les IA ne veulent rien…

    Ils sont développés par leurs promoteurs (OpenAI, Anthropic…) dont le but est le profit.

    Si l’IA réussi (économiquement car certaines entreprises du secteur sont très déficitaires), le gain sera pour les promoteurs, pas forcément pour les salariés qui pourraient être remerciés car un développeur suffit là où il y en avait besoin de deux. On peut aussi imaginer des avantages pour les entreprises qui économisent grâce à l’IA et à leur client si la réductions des coûts est répercutée en aval.

    Mais ce n’est pas nouveau, la révolte des Canuts, le remplacement de la standardiste du 22 à Asnière ou du poinçonneur des Lilas sont des précédents où l’automatisation supprime des emplois. La principale nouveauté est de toucher des professions Bac+5.

Discussions similaires

  1. Réponses: 6
    Dernier message: 03/11/2022, 11h29
  2. Réponses: 0
    Dernier message: 22/08/2016, 06h14
  3. Android 5.0 : Dalvik pourrait être remplacé par ART
    Par Hinault Romaric dans le forum Android
    Réponses: 4
    Dernier message: 20/06/2014, 15h29
  4. Réponses: 5
    Dernier message: 01/02/2013, 10h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo