IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    je n'y crois pas, les spectateurs veulent voir leur youtuber pas une ia.

    c'est comme un film/série, si l'acteur principale change il y'a un désengagement du publique.
    Imaginer Xfiles sans Duchovnie , ou le joueur du grenier sans les gros fred et seb.

    Meme les chaines d'infos, ce qui marche le mieux reste des humains qu'on voit, pas les videos qui passe des videos stocks à la chaine.
    Hugo decrypte, draw my economie, money radar même si on la voit pas, c'est une vrai femme qui parle, blast si c'était pas les 2 nanas sexy personne ne regarderait cette chaine d'infos.


    dans le futur, si l'ia arrive a me généré une video réaliste (expression du visage) avec une vrai voix réaliste de ça, qui dégage de l’émotion oui ce sera la fin.
    Nom : Sharbat_Gula.jpeg
Affichages : 862
Taille : 27,0 Ko

  2. #2
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    577
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 577
    Par défaut Alexis Ohanian, cofondateur de Reddit, prévient que « la majeure partie d'Internet est désormais morte »
    Alexis Ohanian, cofondateur de Reddit, prévient que « la majeure partie d'Internet est désormais morte » et cite la « théorie de l'Internet mort »

    Alexis Ohanian a décrit une grande partie de l'environnement en ligne comme « botté » ou « quasi-IA », reflétant une tendance qui, selon lui, réduit les interactions humaines sur les plateformes sociales. « Vous prouvez tous que l'Internet est en grande partie mort », a déclaré Ohanian, soulignant la prévalence des contenus automatisés et des publications peu élaborées, y compris ce qu'il a qualifié de « LinkedIn slop ». Ohanian a cité la « théorie de l'Internet mort », qui suggère que l'activité des bots pourrait dépasser celle des humains en ligne.

    Les patrons de la Tech commencent à le reconnaître : l'IA alimente une crise de confiance dans les interactions en ligne. Tout indique que l'avenir d'Internet sera marqué par des interactions entre robots bien plus nombreuses que celles entre humains. La théorie de l'Internet mort semble de plus en plus correspondre à la réalité, caractérisée par l'invasion de larges pans d'Internet par les robots et les agents d'IA qui déversent un flux continu de contenus automatisés sans originalité, ce qui noie peu à peu les échanges réellement humains. D’après les tendances actuelles, certains analystes estiment qu’Internet sera davantage mort que vivant d’ici trois ans.

    Récemment, Alexis Ohanian, cofondateur de Reddit, a exprimé ses inquiétudes quant à l'état actuel d'Internet lors d'une apparition sur TBPN (Technology Business Programming Network). Alexis Kerry Ohanian Sr est un entrepreneur et investisseur américain dans le domaine de l'Internet. Il est surtout connu comme cofondateur et ancien président exécutif du site de réseau social Reddit, aux côtés de Steve Huffman et Aaron Swartz. Il a également cofondé la société de capital-risque Initialized Capital, aidé à lancer le site de recherche de voyages Hipmunk et créé l'entreprise sociale Breadpig. Il a également été partenaire de l'accélérateur de start-ups et de la société de capital-risque Y Combinator.

    Alexis Ohanian a décrit une grande partie de l'environnement en ligne comme « botté » ou « quasi-IA », reflétant une tendance qui, selon lui, réduit les interactions humaines sur les plateformes sociales. « Vous prouvez tous que l'Internet est en grande partie mort », a déclaré Ohanian aux animateurs John Coogan et Jordi Hays, soulignant la prévalence des contenus automatisés et des publications peu élaborées, y compris ce qu'il a qualifié de « LinkedIn slop ». Ohanian a cité la « théorie de l'Internet mort », qui suggère que l'activité des bots pourrait dépasser celle des humains en ligne.


    Bien que le PDG d'OpenAI, Sam Altman, ait déclaré avoir précédemment rejeté cette théorie, il a reconnu avoir vu « beaucoup de comptes Twitter gérés par des LLM (Large Language Model) ». L'entrepreneur a fait valoir que l'avenir d'Internet dépendait des « spectateurs en direct et du contenu en direct », les réseaux sociaux évoluant pour se concentrer sur des interactions humaines vérifiables.

    Il a souligné l'importance croissante des discussions de groupe privées sur des plateformes telles que Discord et Signal en tant qu'espaces permettant de véritables interactions humaines, tout en notant que certains utilisateurs commencent à intégrer l'IA dans ces discussions. « Je pense que nous verrons émerger une nouvelle génération de réseaux sociaux vérifiables comme étant humains, car tout se passe désormais dans les discussions de groupe », a déclaré Ohanian, soulignant l'éloignement progressif des flux publics traditionnels.

    Outre l'interaction, un rapport avait déjà révélé les conséquences de l'IA sur le web. En effet, les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.

    Source : Alexis Ohanian, cofondateur de Reddit, sur TBPN

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le patron de ChatGPT, Sam Altman, suggère que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes telles que X d'Elon Musk sont aujourd'hui envahies par les robots

    Sommes-nous en train d'assister à la mort d'Internet ? ARPANET à l'IA : les défis de l'authenticité sur l'Internet moderne, perspectives sur l'évolution et les aspirations pour l'avenir

    « Les réseaux sociaux tels que nous les connaissons vivent leurs derniers jours. Ils promettaient de créer des liens, mais ils ont fini par épuiser leurs utilisateurs », affirme un expert
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 679
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 679
    Par défaut
    la majeure partie d'Internet est désormais morte
    Pas "morte" mais "sans présence humaine"!

    Il est intéressant de voir ce qui se passe actuellement sur youtube: Une multitude de vidéos musicales sont apparues qui portent la signature de l'IA.

    Vous avez des vidéos montrant des défilé de "templiers" marchant à queue-leu-leu (qui n'ont rien des templiers historiques avec des armures diverses et variées, à cheval, à pied dans des paysages enneigés, des palais monumentaux, etc.), des chasseuses nordiques chevauchant des loups géants dans des paysages enneigées (elles sont toutes âgées de moins de 25 ans et toutes sorties d'un catalogue de mannequins de mode), on a aussi la variante "chevauchant des tigres), de femmes elfes déambulant à côté de fauve qui dans la réalité les auraient bouffé au bout de 10 secondes (loups, ours géants, tigres, etc...) ou encore un défilé de soldats romains ou encore des joueuses de cornemuses écossaises...

    Que constate-t-on? Toujours les mêmes caractéristiques: Très bonne qualité des rendus, des files à la queue-leu-leu de mannequins de mode (homme ou femme) et... et... et...

    Un auteur qui répond immédiatement à tous les commentaires humains et cela dans toutes les langues: Sur une des vidéos, "l'auteur" répond à des interventions en anglais, allemand, français et même... en roumain!

    Les youtubeurs vont devoir retourner derrière la caisse enregistreuses de l'épicerie du coin ou se faire embaucher dans un entrepôt à porter des caisses

    ---

    Ne serait-ce pas Google lui-même qui organise le remplacement des youtubeurs humains par des "youtubeurs" IA dont Google a le contrôle et... les revenus publicitaires?

  4. #4
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 879
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 879
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Ne serait-ce pas Google lui-même qui organise le remplacement des youtubeurs humains par des "youtubeurs" IA dont Google a le contrôle et... les revenus publicitaires?
    Ça, ça ne serait pas étonnant.

  5. #5
    Membre chevronné
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Septembre 2019
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Morbihan (Bretagne)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2019
    Messages : 320
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Pas "morte" mais "sans présence humaine"!

    Il est intéressant de voir ce qui se passe actuellement sur youtube: Une multitude de vidéos musicales sont apparues qui portent la signature de l'IA.

    Vous avez des vidéos montrant des défilé de "templiers" marchant à queue-leu-leu (qui n'ont rien des templiers historiques avec des armures diverses et variées, à cheval, à pied dans des paysages enneigés, des palais monumentaux, etc.), des chasseuses nordiques chevauchant des loups géants dans des paysages enneigées (elles sont toutes âgées de moins de 25 ans et toutes sorties d'un catalogue de mannequins de mode), on a aussi la variante "chevauchant des tigres), de femmes elfes déambulant à côté de fauve qui dans la réalité les auraient bouffé au bout de 10 secondes (loups, ours géants, tigres, etc...) ou encore un défilé de soldats romains ou encore des joueuses de cornemuses écossaises...

    Que constate-t-on? Toujours les mêmes caractéristiques: Très bonne qualité des rendus, des fils à la queue-leu-leu de mannequins de mode (homme ou femme) et... et... et...

    Un auteur qui répond immédiatement à tous les commentaires humains et cela dans toutes les langues: Sur une des vidéos, "l'auteur" répond à des interventions en anglais, allemand, français et même... en roumain!

    Les youtubeurs vont devoir retourner derrière la caisse enregistreuses de l'épicerie du coin ou se faire embaucher dans un entrepôt à porter des caisses

    ---

    Ne serait-ce pas Google lui-même qui organise le remplacement des youtubeurs humains par des "youtubeurs" IA dont Google a le contrôle et... les revenus publicitaires?
    J'imagine que ça dépend de chacun. Pour ma part, la plupart des vidéos "short" que me propose youtube sont des vidéos de catastrophe (manège qui se détache, immeuble qui s'effondre, etc.) ou des vidéos de chat ou d'ours générés par IA. Du coup, je ne regarde plus du tout ce genre de vidéos. Je ne comprend pas l'intérêt de youtube d'autoriser (voire favoriser) ce genre de vidéo qui n'a aucun intérêt.

  6. #6
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 063
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 063
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Les youtubeurs vont devoir retourner derrière la caisse enregistreuses de l'épicerie du coin ou se faire embaucher dans un entrepôt à porter des caisses
    Il y a des choses que seuls les humains peuvent produire.

    Je ne vois pas un Farine de Blé ou un Joueur du Grenier créé par l'IA. (il n'y a pas encore de robot qui peuvent mettre un moteur de Toyota dans une vieille Volvo)
    Est-ce que les IA pourront produire des dramas comme les 2 types de la chaîne Vilebrequin ?

    Et même au niveau du streaming, l'IA ne pourrait pas produire un streamer échec comme Blitzstream.

    Par contre le contenu produit par l'IA sera aimé par les algorithmes et les annonceurs. Le contenu sera bienséant.
    Elles seront bien répertoriés, mis en avant, il y a aura probablement des placements de produit.

  7. #7
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    reddit je n'ai jamais compris comment ca marchait, je trouve l'ergonomie aux fraises, tant pour l'écriture de post que de lecture. C'est très compliqué de s'y retrouver.

    stackoverflow, quand j'étais junior je me suis fait rembarrer pas mal de fois au point de me dégouter de la plateforme et de ne jamais y contribuer.


    a l'inverse, chatgpt/claude, te répondent toujours, H24, dans la seconde avec une communication bienveillante, chaque question c'est toujours "très bonne question"/"bonne remarque", pas de read the fucking manual ou apprends les bases pour faire ca ou lit un bouquin de 500 pages.
    il donne toujours une réponse, compréhensible pour son lecteur en fonction de son niveau.

    un jeune qui ne connait rien au code, sa doit bien souler de voir un post sur un forum "j'aimerais crée un os", mais faut reconnaitre que ce genre de question dans chatgpt enrichit la personne, il va tous lui expliquer, pourquoi c'est difficile, et si il s'accroche en vibe coding il arrivera sans problème a faire un os qui boot et affiche hello world.
    J'aime me perdre dans des discussions ou j'ai le niveau 0 sur tous et n'importe quoi avec chatgpt, physique quantique, biologie, adn...

    Finalement j'en ressort plus enrichie, ce que des humains n'aurait pas la patience de faire (moi même j'en fais partie) et donc un forum ne m'aurais jamais apporté.
    et si le sujet et intéressant, il peut même recommander des livres/videos/site web en fonction de son niveau, de c pas sorcier, aux cours de Stanford (qui sont gratuit sur youtube)

    et bientot il va s'ouvrir a l'érotisme, de quoi donner des idées aux célibataires ou aux couples qui veulent pimenter.
    vraiment les llm sont la plus belle inventions de l'homme du 21ieme siecle.

  8. #8
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    434
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 434
    Par défaut
    un jeune qui ne connait rien au code, sa doit bien souler de voir un post sur un forum "j'aimerais crée un os", mais faut reconnaitre que ce genre de question dans chatgpt enrichit la personne, il va tous lui expliquer, pourquoi c'est difficile, et si il s'accroche en vibe coding il arrivera sans problème a faire un os qui boot et affiche hello world.
    C'est beau de rêver.

    J'aime me perdre dans des discussions ou j'ai le niveau 0 sur tous et n'importe quoi avec chatgpt, physique quantique, biologie, adn...
    C'est sans doute la plus mauvaise utilisation qu'on puisse faire d'un LLM.

    et bientot il va s'ouvrir a l'érotisme, de quoi donner des idées aux célibataires ou aux couples qui veulent pimenter.
    vraiment les llm sont la plus belle inventions de l'homme du 21ieme siecle.
    Hé béh, on vit pas dans le même monde. Je te laisse le tien avec plaisir.

  9. #9
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 594
    Par défaut
    10% d’erreur c’est beaucoup sans supervision.

    Mais avec supervision (ce qui implique de connaître le sujet), cela est une aide précieuse. 90% du boulot est fait et il reste 10% à corriger.

    En 2003, je traduisais un livre de 200 pages avec l’aide de reverso… 50% était à reprendre… ce qui signifiait que 50% était fait sans effort et que je n’avais qu’à le relire. Le gain de temps était appréciable.

    Je pense qu’un domaine qui pourrait profiter de l’IA est la preuve de bon fonctionnement des programmes (méthodes formelles). C’est très chronophage, et si une proposition de preuve est incorrecte, l’assistant de preuve (logiciel type Coq, Spark, Isabelle ou autres) trouvera l’erreur comme un compilateur trouve des erreurs dans le code. Mais pas sûr que les LLM seuls soient la bonne approche.

  10. #10
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 342
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 342
    Billets dans le blog
    2
    Par défaut
    Question à 2 chouquettes : Alex est-il un bot selon vous ?

  11. #11
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    577
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 577
    Par défaut Les chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux
    Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain, en harcelant les utilisateurs réels et en menaçant la démocratie

    Une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

    Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.

    Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les bots.

    Récemment, une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

    L'instinct humain est souvent une mentalité grégaire ; voir une grande communauté en ligne en laquelle vous avez confiance se rallier autour de certains sujets peut vous aider à vous forger votre propre opinion en suivant le mouvement. La nouvelle étude suggère que dans un avenir proche, le mouvement pourrait ne plus être mené par une communauté réelle, mais par un essaim d'IA agissant pour le compte d'un individu, d'un parti politique ou d'un acteur étatique inconnu.

    « Les êtres humains, d'une manière générale, sont conformistes », explique Jonas Kunst, coauteur de l'article. « Nous ne voulons souvent pas l'admettre, et les gens varient dans une certaine mesure, mais toutes choses étant égales par ailleurs, nous avons tendance à croire que ce que font la plupart des gens a une certaine valeur. C'est quelque chose qui peut être relativement facilement détourné par ces essaims. »

    Nom : 1.jpg
Affichages : 7282
Taille : 52,4 Ko

    Prévalence croissante des bots en ligne

    Ces dernières années, les forums en ligne ont été envahis par des bots automatisés ; les comptes non humains qui suivent les commandes de logiciels informatiques représentent plus de 50 % de tout le trafic web, même si les bots actuels ne sont capables que de tâches simples et répétitives et sont généralement faciles à détecter. La prochaine génération de essaims d'IA sera plus complexe.

    Coordonnés par de grands modèles de langage (LLM), le système derrière les chatbots tels que ChatGPT et Gemini de Google, les essaims seront suffisamment sophistiqués pour s'adapter à différentes communautés en ligne, former différents personnages et devenir pratiquement indétectables. Les essaims pourraient être utilisés pour promouvoir certains programmes politiques et harceler les personnes qui tentent de saper le discours de l'IA ou qui ne se laissent pas emporter par le mouvement. Les chercheurs ont fait valoir qu'ils pourraient être utilisés pour imiter une foule en colère, cibler un individu dissident et le chasser de la plateforme.

    L'étude ne fournit pas de calendrier pour l'invasion des essaims d'IA, mais souligne qu'ils seraient difficiles à détecter, de sorte que l'étendue de leur présence actuelle est inconnue. Les essaims pourraient contenir des milliers, voire des millions d'agents IA, mais ce n'est pas seulement une question de nombre, explique l'auteur principal Daniel Schroeder, soulignant que « plus ces bots sont sophistiqués, moins vous en aurez besoin ».

    Comment se protéger contre la nouvelle génération de robots IA

    Les agents IA ont un avantage sur leurs homologues humains, car ils peuvent publier 24 heures sur 24, tous les jours de l'année, jusqu'à ce que leur discours s'impose. Alors que les utilisateurs réels ont une vie à mener, le seul objectif de l'IA est de promouvoir son discours, et elle n'a pas besoin de pauses ; sa « guerre cognitive » peut transformer l'acharnement en arme contre les efforts humains limités.

    Les chercheurs s'attendent à ce que les entreprises réagissent à ces essaims en améliorant l'authentification des comptes ; ils craignent que cela ne décourage la dissidence politique dans les pays où les citoyens comptent sur l'anonymat pour s'exprimer contre leur gouvernement. Ils ont également proposé d'autres moyens de défense, tels que l'analyse du trafic en direct à la recherche de schémas anormaux pouvant indiquer la présence d'essaims d'IA, et la création d'un « observatoire de l'influence de l'IA » chargé de surveiller et de réagir à la menace que représentent ces essaims.

    « Nous mettons en garde, avec une certitude raisonnable, contre une évolution future qui pourrait avoir des conséquences disproportionnées pour la démocratie, et nous devons commencer à nous y préparer », a déclaré Kunst.

    Cette étude rappelle une étude publiée par des chercheurs de l'ETH Zurich, en Suisse, en 2023 qui révélait que les chatbots tels que ChatGPT peuvent déduire des d'informations sensibles sur les personnes avec lesquelles ils discutent, même si la conversation est tout à fait banale. Ces informations comprennent la race, le lieu de résidence, la profession, et bien plus encore. L'équipe affirme que cette capacité troublante est "très problématique", car les escrocs pourraient l'exploiter pour collecter les données sensibles auprès d'utilisateurs peu méfiants. Elle peut aussi être exploitée pour cibler des publicités.

    Source : How malicious AI swarms can threaten democracy: The fusion of agentic AI and LLMs marks a new frontier in information warfare

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Internet sera davantage mort que vivant d'ici trois ans, un futur dystopique ou des bots IA lisent du contenu fait par des bots, un simple gaspillage d'électricité inutile

    Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook : plusieurs agents IA se sont proclamés « prophètes » d'un culte baptisé Crustafarianisme

    Comment l'IA détruit les institutions, sape l'expertise, court-circuite la prise de décision, isole les individus et constitue donc un fléau pour la santé des institutions essentielles à la démocratie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 679
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 679
    Par défaut
    Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain
    Ce sera le premier effet positif que je vois à l'IA: L'IA va juste tuer les réseaux sociaux qui sont ce qui est arrivé de pire à notre civilisation humaine durant notre premier quart de siècle...

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 947
    Par défaut Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré
    Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré à 99,5 %,
    les bots IA dévorent le web pendant que les éditeurs regardent leur trafic s'effondrer

    En l'espace d'un an, le rapport de force sur le web s'est radicalement inversé. Les bots propulsés par l'intelligence artificielle envahissent les sites à une vitesse sans précédent, tandis que le trafic humain recule inexorablement.

    Au premier trimestre 2025, on comptait un bot IA pour 200 visiteurs humains sur un site web. Au quatrième trimestre de la même année, ce ratio était tombé à un bot pour 31 humains. C'est la société Tollbit, spécialisée dans le tracking du trafic automatisé, qui publie ces données dans son rapport « State of the Bots Q3-Q4 2025 » — et qui prend soin de préciser que ces chiffres sont probablement en-dessous de la réalité, car les bots les plus récents sont devenus quasi indiscernables de visiteurs humains lors de leurs navigations.

    Ce n'est pas le seul signal d'alarme.

    Le rapport Imperva Bad Bot Report indiquait que 49,6 % du trafic Internet provenait de bots en 2023, ce qui représentait alors le nombre le plus élevé de bots sur l'internet depuis 2013. Puis, en 2024, le cabinet d'analyse Thales a averti que le trafic automatisé avait, pour la première fois en dix ans, dépassé l'activité humaine sur le web, en représentant 51 % du trafic total. F5 Labs confirme cette tendance avec ses propres mesures : plus de 50 % des requêtes vers des pages de contenus web émanent désormais de sources automatisées. Parallèlement, entre le troisième et le quatrième trimestre 2025, le trafic humain vers les sites web a reculé de 5 %. Une baisse qui, combinée à l'explosion du trafic bot, dessine le contour d'un web profondément reconfiguré.

    Pour Olivia Joslin, cofondatrice et directrice des opérations de Tollbit, la conclusion s'impose d'elle-même : « Le trafic IA va continuer à progresser et à remplacer les visiteurs humains directs sur les sites. À terme, l'IA deviendra le lecteur principal d'internet. » Elle va même plus loin dans ses projections : à ce rythme, les visiteurs IA pourraient devenir les visiteurs dominants sur les sites éditeurs dès cette année 2026.

    Nom : ratio.png
Affichages : 6216
Taille : 30,9 Ko

    Le RAG, nouveau moteur de cette invasion

    Pendant longtemps, la grande peur liée aux bots IA portait sur le scraping d'entraînement : ces robots qui aspirent méthodiquement des milliards de pages web pour nourrir les modèles de langage. Cette pratique, qui a alimenté de nombreuses poursuites judiciaires — le New York Times contre OpenAI, Chegg contre Google, le New York Post et le Wall Street Journal contre Perplexity — est loin d'avoir disparu. Mais elle n'est plus la principale source de trafic bot.

    La grande nouveauté depuis 2025, c'est l'explosion du trafic lié à la RAG (Retrieval Augmented Generation). Cette technique permet aux assistants IA comme ChatGPT, Gemini ou Perplexity de ne pas se contenter de leurs données d'entraînement figées, mais d'aller chercher en temps réel des informations sur le web pour répondre aux requêtes des utilisateurs. Concrètement, chaque fois qu'un internaute pose une question à un chatbot IA qui dispose d'accès au web, des bots partent scraper les pages susceptibles de contenir la réponse.

    Les données de Tollbit illustrent ce basculement de manière saisissante : entre le deuxième et le quatrième trimestre 2025, le trafic des bots de scraping d'entraînement a reculé de 15 %, tandis que le trafic des bots RAG progressait de 33 % et celui des indexeurs de recherche IA de 59 %. La cause directe est limpide : selon la société marketing Eight Oh Two, 37 % des utilisateurs actifs de l'IA commencent désormais leurs recherches directement sur des plateformes IA comme ChatGPT ou Gemini, plutôt que de passer par Google ou un autre moteur de recherche traditionnel. Et le Pew Research Center estime que 62 % des adultes américains utilisent l'IA sous une forme ou une autre au moins plusieurs fois par semaine.

    Chaque humain qui délègue sa recherche d'informations à un assistant IA génère donc, en coulisses, un déluge de requêtes automatisées vers des sites qu'il ne visitera jamais lui-même. C'est le paradoxe central de cette transformation : les utilisateurs sont bien réels, mais leur présence sur le web ne se traduit plus en visites humaines des sites sources.

    Nom : RAG.png
Affichages : 1974
Taille : 31,0 Ko

    OpenAI en tête, mais toute l'industrie est concernée

    Parmi les acteurs de ce scraping massif, OpenAI truste la première place de manière écrasante. Selon Tollbit, le bot RAG de l'entreprise, baptisé « ChatGPT-User », génère en moyenne cinq fois plus de scrapes par page que le second plus actif scraper, qui est celui de Meta. Les données de DataDome confirment cette hégémonie : le trafic mensuel en provenance d'OpenAI seul dépasse désormais 1,7 milliard de requêtes.

    Mais le comportement de ChatGPT-User va au-delà du simple volume : 42 % de ses scrapes, révèle Tollbit, accèdent à des contenus provenant de sites qui l'avaient explicitement bloqué via leur fichier robots.txt. Au total, 30 % de l'ensemble des scrapes IA au quatrième trimestre 2025 ont contourné les restrictions explicites de robots.txt. Un mépris quasi systémique des règles d'accès que les éditeurs avaient établies.

    Ce n'est pas un problème marginal. Selon l'analyse de Buzzstream portant sur les 100 plus grands sites d'actualités britanniques et américains, 79 % bloquent désormais au moins un crawler d'entraînement IA, et 71 % bloquent les bots RAG et de recherche en direct. Pourtant, comme le souligne Harry Clarkson-Bennett, directeur SEO du Telegraph : « Les éditeurs bloquent les bots IA via le robots.txt parce qu'il n'y a presque aucun échange de valeur. Les LLM ne sont pas conçus pour envoyer du trafic de référence, et les éditeurs ont toujours besoin de trafic pour survivre. »

    Nom : openai.png
Affichages : 1971
Taille : 37,2 Ko

    La double peine des éditeurs : des coûts qui explosent, des revenus qui s'effondrent

    Le tableau est particulièrement sombre pour les acteurs du web qui vivent de leur contenu. Les éditeurs subissent ce que l'on pourrait qualifier de double peine : d'un côté, une explosion des coûts d'infrastructure générée par le scraping intensif ; de l'autre, une chute vertigineuse des revenus liés au trafic référencé.

    Sur le plan des coûts d'abord, les bots IA ne se contentent pas de visiter discrètement les pages : ils déclenchent des pics de charge qui font s'emballer les serveurs en autoscale. Tristan Berguer, cofondateur de la start-up Senthor, rapporte avoir constaté des factures serveur mensuelles atteignant 60 000 à 120 000 euros pour certains éditeurs à cause de ce faux trafic. Entre janvier et août 2025, le trafic de requêtes IA et LLM a presque quadruplé chez les clients de DataDome, passant de 2,6 % à 10,1 % du trafic total de bots.

    Sur le plan des revenus ensuite, la situation est tout aussi préoccupante. Le taux de clics (CTR) depuis les interfaces IA vers les sites sources est tombé à 0,27 % au quatrième trimestre 2025, contre 0,8 % au deuxième trimestre — soit une division par trois en seulement six mois. Les éditeurs qui ont conclu des accords de licence avec des entreprises IA en espérant s'en sortir mieux ne sont pas épargnés non plus : leur CTR n'atteignait que 1,33 % au quatrième trimestre, soit une division par 6,5 par rapport au début de l'année. En clair, il faut environ 135 scrapes IA pour générer un seul visiteur humain redirigé vers le site source — et ce ratio empire de mois en mois.

    La dépendance à Google, longtemps décriée, apparaît rétrospectivement comme un moindre mal. Malgré son érosion, Google générait encore 84,1 % des recommandations externes aux éditeurs au deuxième trimestre 2025. L'ensemble des applications IA ne représentait, lui, que 0,102 % du trafic « referral ». Autrement dit, Google délivrait encore 831 fois plus de visiteurs que tous les systèmes d'IA réunis — tout en aspirant le contenu via ses propres bots pour alimenter ses AI Overviews, sans guère plus de contrepartie.

    Des contre-mesures encore balbutiantes

    Face à cette razzia, les éditeurs réagissent mais peinent à trouver des solutions véritablement efficaces. Le fichier robots.txt, instrument traditionnel de régulation du crawl, est respecté à un taux d'environ 0,5 % seulement par les bots IA, selon certaines mesures réalisées par Senthor — une quasi-nullité qui le rend pratiquement inopérant. Les blocages ciblant les bots IA ont pourtant bondi de 336 % sur un an, et les hits sur paywalls « anti-IA » spécifiques ont progressé de 360 % entre le premier et le deuxième trimestre 2025.

    Plusieurs acteurs tentent de structurer un nouveau modèle économique. En 2025, Cloudflare a annoncé sa volonté de créer un système de monétisation du crawl pour les éditeurs, permettant de facturer les accès des bots IA à leurs contenus — une annonce dont l'implémentation tarde à se concrétiser. Toutefois, en 2026, l'entreprise a changé d'approche : elle prend désormais en charge la conversion automatique et en temps réel du contenu HTML en Markdown pour les agents IA et les robots d'indexation, à l'aide d'en-têtes de négociation de contenu. Lorsque cette fonctionnalité est activée, les systèmes IA peuvent demander directement le Markdown aux sites web participants, avec des réponses comprenant des métadonnées sur le nombre de jetons et des signaux d'utilisation de contenu standardisés. Cela réduit l'utilisation des jetons jusqu'à 80 % et améliore l'efficacité.

    Abordant l'impact fondamental de l'IA sur les modèles d'entreprise en ligne, son PDG Matthew Prince a avertit que l'IA brise le modèle économique du web en découplant la création de contenu de la valeur et en fournissant des réponses sans générer de trafic vers les sources originales. Cloudflare se trouve au cœur de ce problème majeur, car il alimente 80 % des géants de l'IA et entre 20 à 30 % d'Internet, indique Matthew Prince. Ainsi, l'entreprise souhaite réparer tout ce qui est cassé. Toutefois, le problème réside dans le coût de l'IA, qui représente une dépense importante pour les autres, selon Prince.

    Quoiqu'il en soit, des start-ups comme Tollbit, Senthor ou d'autres encore proposent des solutions de type « pay-per-crawl » : les entreprises d'IA paieraient pour chaque page scrapée, redistribuant une partie de la valeur générée aux créateurs de contenu. Ce modèle s'inspire des droits voisins négociés dans la presse avec les plateformes — avec les mêmes difficultés et les mêmes rapports de force inégaux.

    La piste technique n'est pas non plus abandonnée. Des initiatives émergent pour standardiser des protocoles d'authentification des bots, à l'image de ce qu'Open RTB a représenté pour la publicité programmatique. Paul Ripart, chez Prisma Media, évoque la nécessité de construire « l'équivalent d'OpenRTB pour le programmatique, mais cette fois pour faire dialoguer les agents IA entre eux ». Une perspective encore lointaine, dans un écosystème où les incitations des grandes plateformes IA vont clairement dans le sens de l'accès gratuit et massif aux contenus.

    Une menace systémique pour l'écosystème de l'information

    Au-delà de la question économique immédiate, c'est l'architecture même du web ouvert qui se trouve menacée. Si les éditeurs de contenus ne peuvent plus vivre de leur audience — parce que leur audience est désormais principalement constituée de bots qui ne cliquent pas sur les publicités et ne s'abonnent pas —, ils seront contraints de choisir entre deux issues : le paywall généralisé ou la disparition. Chris Richmond, CEO de Snopes, résume le dilemme : « Si la transition vers l'IA continue à éroder le trafic web, je crains que la plupart des éditeurs de contenus premium n'aient pas d'autre choix que d'adopter un modèle reposant uniquement sur l'abonnement. Il ne serait bon pour personne que l'ensemble d'Internet se retrouve derrière un accès payant. »

    Il y a là une ironie cruelle : les bots RAG qui scrapent les contenus pour alimenter les réponses des chatbots IA détruisent progressivement les conditions de production de ces mêmes contenus. Une IA qui épuise sa matière première. Mais le problème ne s'arrête pas là. Des études récentes suggèrent que le recours massif à l'IA comme outil de recherche d'information a des effets mesurables sur la pensée critique des utilisateurs et la rétention des connaissances. Les jeunes utilisateurs sont particulièrement concernés. L'IA ajoute une couche de curation supplémentaire sur les algorithmes des moteurs de recherche, opacifiant encore davantage la chaîne entre un fait et sa perception par l'utilisateur final.

    L'internet tel qu'il s'est construit depuis trente ans — un écosystème reposant sur l'échange entre créateurs de contenus et visiteurs humains, monétisé par la publicité et progressivement par l'abonnement — est en train de muer vers quelque chose de fondamentalement différent. Un internet où le lecteur primaire n'est plus un humain, mais une machine qui résume, synthétise et reformule avant de délivrer une réponse clé en main. La question n'est plus de savoir si cette transformation aura lieu, mais de comprendre ce qui, de l'open web, survivra à ce basculement.

    Source : Tollbit

    Et vous ?

    Le robots.txt est-il mort ? Respecté à seulement 0,5 % par les bots IA selon certaines mesures, ce protocole vieux de 30 ans a-t-il encore la moindre légitimité technique ou morale — et par quoi faut-il le remplacer ?

    Le modèle pay-per-crawl est-il réaliste ? Cloudflare, Tollbit, Senthor tentent de faire payer les bots IA pour chaque page scrapée. Mais qui fixe le prix, qui audite les volumes, et les géants de l'IA ont-ils vraiment intérêt à jouer le jeu ?

    Les accords de licence IA sont-ils une capitulation ? Certains éditeurs ont signé avec OpenAI ou Google — et leurs CTR s'effondrent quand même (1,33 % seulement). Ces deals protègent-ils vraiment les éditeurs ou ne font-ils que légitimer le pillage ?

    L'internet entièrement derrière paywall : bonne ou mauvaise issue ? Si les bots IA rendent le modèle publicitaire intenable, le tout-abonnement est-il une solution viable ou le début d'un internet fragmenté accessible aux seuls privilégiés ?

    L'IA scie-t-elle la branche sur laquelle elle est assise ? Si les bots RAG appauvrissent les créateurs de contenus jusqu'à les faire disparaître, d'où viendront les données qui alimenteront les prochaines générations de LLM ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #14
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 679
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 679
    Par défaut
    Les bots envahissent Internet et les utilisateurs d'IA en sont responsables : RAG, scraping, robots.txt ignoré à 99,5 %,
    les bots IA dévorent le web pendant que les éditeurs regardent leur trafic s'effondrer
    Ce ne sont pas les utilisateurs d'IA qui sont responsables mais simplement google!!!

    Depuis l'introduction de l'IA de google qui propose une réponse aux recherches des utilisateurs (humains, faut-il préciser), les utilisateurs ne prennent plus la peine de cliquer sur les liens qui suivent et qui correspondent aux vrais résultats d'une recherche sur le web...

    Conséquences:

    1. Bien souvent, l'utilisateur reste dans l'erreur parce que l'IA de google lui a raconté des conneries

    2. Les sites web sont désertés, leur seuls visiteurs étant des bots conventionnels et des bots IA

    3. Les éditeurs de site (institutions, autorités, entreprises, etc...) voient de moins en moins l'intérêt d'investir dans le développement d'un site web

    C'est tout simplement la mort du web qui est amorcé... Et bientôt la mort des IA qui se basent sur les sites web pour leur apprentissage...


    Après l'IA qui est responsable du licenciement massif des salariés, l'IA qui est responsable de l'asphyxie de l'industrie électronique et informatique en s'appropriant la totalité des ressources (disques durs, micro-processeurs, cartes graphiques, etc..), l'IA qui est responsable de l'abrutissement des gens qui ne prennent plus la peine d'apprendre, voilà l'IA responsable de l'anéantissement du web qui se voulait être le moteur du vivre ensemble, de la promotion de la culture et de la connaissance pour le plus grand monde...

  15. #15
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    C'est tout simplement la mort du web qui est amorcé... Et bientôt la mort des IA qui se basent sur les sites web pour leur apprentissage...
    j'y ai cru aussi jusqu'a encore il y'a 3mois.
    j'ai pu rencontrer à l'occasion d'une conférence à Honk Kong des experts sur le sujets avec les nouveaux modèles dernière génération, nous avons pu en discuter et j'ai pu voir des démo, en faite les modèles ont déjà régler en partis ce probleme.

    Tous les nouveaux modèles sont entrainé sur des datasets synthétiques fait par des anciens modèles d'ia, un peu comme un compilateur qui compile sa futur version.
    Avec le système d'agent, il n'y a même plus besoin de scapper le web, les agents sont désormais capable de faire eux memes des tests et résoudre des problemes, à la manière d'un développeur avant l'ia et stackoverflow, il cherche tous seul des solutions, lance du code, essaye des commandes (qui parfois n'existe pas).... pour l'avoir expérimenter, c'est encore très lent et très cher en token, il peu passer une nuit à résoudre un bug et tester pleins de truc et se retrouver avec une facture de 2000-3000$, ce qui n'est pas si cher que ça en réalité car un consultant coute facile 1000$/jours


    que les forums, blogs et autres meurt ca empêchera pas les modèles d'évoluer. J'ai même envie de dire, si le dev publie pas de doc sur un langage/techno/api c'est même pas un probleme si l'ia a accès au code source
    scapper le web permet d'etre a jours sur l’actualité et les nouvelles technos, et ce web la continuera d'exister, car je doute par exemple que google ou mongodb cache la doc de ces api/ par exemple.
    Pour le coté social, les sites d'actualités sont légions, et il 'y en institutionnalisé comme l'afp et ca continuera d'exister pour renseigner l'ia sur l'état actuel du monde. Sinon les trends sur les réseaux sociaux suffisent à eux même.
    La France est un pays qui redistribue tout sauf de l'espoir.

  16. #16
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 107
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 107
    Par défaut
    Citation Envoyé par calvaire Voir le message
    J'ai même envie de dire, si le dev publie pas de doc sur un langage/techno/api c'est même pas un probleme si l'ia a accès au code source
    Juste, l'autre jour copilot m'a justifié avec le code et les API d'android que les utilisateurs multiples ont accès aux SMS de l'utilisateur principal (ce que je constate), alors même que google a écrit une page officielle qui dit le contraire...

  17. #17
    Candidat au Club
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Février 2020
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : Congo-Kinshasa

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Février 2020
    Messages : 3
    Par défaut Creuser sa tombe
    En se positionnant contre les humains, l’IA ne fait que creuser sa propre tombe! Ce sont les humains qui ont créés IA mais ce dernier veut pourtant se développer sans humains! Avec le disruptive thinking technology, l’histoire de l’informatique ne fait que solder en continuelle avancées de tour au rond sans innovation possible. Les chaines de remplacement ne font que se succéder, le seul que je ne puisse considérer c’est le puissance de traitement. Mais plus on peut, plus on exige! A quoi bon... Je suis d’avis que ces donnéesvores en payent le pot cassé de leur consommation illicite des données originales. Les humains doivent avoir les prérogatives sur les contenus originales, sinon nous abouturons à une dictature qui déjà se développe en background.

  18. #18
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    594
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 594
    Par défaut
    Les IA ne veulent rien…

    Ils sont développés par leurs promoteurs (OpenAI, Anthropic…) dont le but est le profit.

    Si l’IA réussi (économiquement car certaines entreprises du secteur sont très déficitaires), le gain sera pour les promoteurs, pas forcément pour les salariés qui pourraient être remerciés car un développeur suffit là où il y en avait besoin de deux. On peut aussi imaginer des avantages pour les entreprises qui économisent grâce à l’IA et à leur client si la réductions des coûts est répercutée en aval.

    Mais ce n’est pas nouveau, la révolte des Canuts, le remplacement de la standardiste du 22 à Asnière ou du poinçonneur des Lilas sont des précédents où l’automatisation supprime des emplois. La principale nouveauté est de toucher des professions Bac+5.

  19. #19
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Citation Envoyé par floyer Voir le message
    Mais ce n’est pas nouveau, la révolte des Canuts, le remplacement de la standardiste du 22 à Asnière ou du poinçonneur des Lilas sont des précédents où l’automatisation supprime des emplois.
    Avec le recul, on peut affirmer que la disparition de ces métiers fut une bonne chose. Qui, en 2026, aurait vraiment envie de devenir Canut et de filer la soie ?
    Qui voudrait être standardiste à répondre à des dizaines d’appels répétitifs et chiants, ou poinçonneur des Lilas coincé dans une cabine glaciale à vérifier des tickets toute la journée  ?


    Citation Envoyé par floyer Voir le message
    La principale nouveauté est de toucher des professions Bac+5.
    C’est faux de dire que la nouveauté est de toucher des professions Bac+5, dans les années 1970 les métiers d’analyste et de programmeur informatique ont commencé à être impactés par l’arrivée des premiers logiciels de calcul automatique et des mainframes. ce sont des postes nécessitant un haut niveau d’études, mais ils ont vu certaines tâches répétitives disparaître. Cela montre que l’automatisation n’a jamais été limitée aux métiers peu qualifiés.
    Ou l'’introduction de machines automatisées pour les analyses sanguines ou biochimiques années 80-90 a réduit le rôle manuel des techniciens de laboratoire. Ces postes nécessitaient un niveau Bac+2 à Bac+5 selon la spécialisation, mais des tâches répétitives ont été supprimées, ce qui montre que l’automatisation n’a jamais été réservée aux "métiers peu qualifiés".

    Finalement, es ce intéressant de pisser du code ? pas vraiment je trouve. Le vrai rôle d’un ingénieur, c’est de matérialiser les stratégies business et marketing en produits ou services à forte valeur ajoutée.
    Jusqu’à aujourd'hui apprendre le code et coder était le moyen de le faire, mais avec l'ia on est aujourd'hui dans de l'hybride, mais le but reste le même.
    La France est un pays qui redistribue tout sauf de l'espoir.

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 947
    Par défaut Créateur de PUBG : les LLM se nourrissent de leurs propres déchets et entraînent le web dans une spirale
    Le créateur de PUBG tire la sonnette d'alarme : les LLM se nourrissent de leurs propres déchets et entraînent le web dans une spirale de dégradation sans fond,
    l'IA générative risque de rendre internet de moins en moins fiable

    Brendan Greene, père du genre battle royale avec PlayerUnknown's Battlegrounds, brise le silence sur l'intelligence artificielle générative. Dans une interview, le développeur irlandais dresse un constat sévère : le contenu produit par les grands modèles de langage (LLM) est en train de corrompre l'internet dans une boucle de rétroaction dont personne ne semble mesurer véritablement les conséquences. Derrière la formule-choc « une course vers le fond », se cache un problème scientifique documenté qui préoccupe jusqu'aux chercheurs de Nature et Harvard : le « model collapse », ou effondrement des modèles.

    « Comment faire confiance à quelque chose qui vous dit de vérifier ses propres réponses ? »

    La déclaration de Brendan Greene arrive dans un contexte de débat croissant sur la fiabilité des systèmes d'IA générative. Interrogé par le journaliste Joshua Wolens de PC Gamer sur l'avenir du calcul local face à la tendance généralisée vers le cloud, Greene a dévié sur un sujet qui lui tient manifestement à cœur. Son point de départ est le non-déterminisme des LLM : « comment faire confiance à quelque chose qui vous dit en bas de page de vérifier toutes les réponses qu'il vous donne ? Parce que ça peut halluciner, et ça hallucine », déclare-t-il.

    Le créateur de PUBG ne s'arrête pas là. Il pointe du doigt une statistique qu'il juge alarmante : environ 20 % des interactions en ligne seraient désormais artificielles, et la quantité d'informations générées par des LLM serait « vertigineusement élevée ». Ces chiffres, difficiles à vérifier avec précision dans leur totalité, reflètent néanmoins une tendance documentée. Des données issues de trackers spécialisés indiquent que 74,2 % des pages web nouvellement créées contenaient une partie de texte généré par IA en avril 2025, et que la proportion de pages rédigées par IA dans les vingt premiers résultats Google est passée de 11 % à près de 20 % entre mai 2024 et juillet 2025.

    Nom : brendan.png
Affichages : 20942
Taille : 305,1 Ko

    La boucle infernale : quand l'IA se nourrit de ses propres déchets

    C'est là que le propos de Greene prend toute sa dimension technique. Il décrit la situation comme « une boucle auto-alimentée » : les LLM ingèrent ce contenu de mauvaise qualité, qui devient alors « vérité », ce qui ressemble selon lui à « une course vers le fond ». L'expression peut paraître provocatrice, mais elle recouvre un phénomène bien réel que les chercheurs nomment model collapse (l'effondrement des modèles).

    Une étude publiée dans Nature a démontré que l'entraînement de modèles d'IA générative sur des données réelles et générées de façon indiscriminée, pratique courante via le scraping du web, conduit à un effondrement de leur capacité à produire des résultats diversifiés et de qualité. Autrement dit, plus les modèles consomment leur propre production, moins ils sont capables d'originalité ou de précision.

    La Harvard Journal of Law & Technology explique le mécanisme par une analogie parlante : c'est similaire à photocopier une photocopie plusieurs fois: chaque itération dégrade un peu plus le signal d'origine. Les chercheurs y soulignent également une conséquence économique structurelle : les données non contaminées, collectées avant la généralisation de l'IA générative en 2022, pourraient devenir un actif stratégique, creusant un fossé entre les acteurs déjà établis (qui les possèdent) et les nouveaux entrants.

    Le problème est encore plus préoccupant qu'il n'y paraît. Des travaux présentés à l'ICLR 2025 ont établi qu'une proportion infime de données synthétiques dans un corpus d'entraînement (aussi faible qu'un sur mille) peut suffire à provoquer un effondrement des performances, et que des modèles plus grands amplifient ce phénomène plutôt qu'ils ne le résolvent. La promesse que l'augmentation d'échelle (scaling) résout tous les problèmes se heurte ici à un mur.

    « Le scaling ne résoudra pas le problème de l'intelligence »

    Greene s'attaque directement à ce dogme du secteur. Il dénonce l'absurdité d'exploiter des centres de données alimentés aux turbines à gaz ou au méthane uniquement pour obtenir plus de puissance de calcul, en affirmant que « le scaling ne résoudra pas le problème de l'intelligence ». Une prise de position directement dirigée vers l'obsession de l'industrie pour l'AGI (l'Intelligence Artificielle Générale), ce Graal perpétuellement annoncé à deux ans d'échéance, et perpétuellement repoussé.

    Pour lui, les LLM actuels ne sont que « des modèles statistiques qui donnent le mot suivant », des outils certes utiles dans des domaines spécifiques, mais qui ne « scalent pas » lorsqu'on tente d'en faire des services généraux via des surcouches et des GPT. Sa conclusion sur l'AGI est tranchée : nous n'y sommes pas près.

    Ce constat rejoint une inquiétude plus large documentée en février 2026. Un article paru dans les Communications of the ACM a observé que l'effondrement des modèles n'est plus un risque théorique mais un phénomène déjà présent dans des systèmes en production, avec des dégradations mesurées dans des outils commerciaux, comme un suppresseur de fond qui a commencé à échouer sur certaines textures de cheveux, ou des générateurs d'images produisant des résultats de plus en plus homogènes.

    Nom : high.png
Affichages : 2836
Taille : 143,1 Ko

    La distinction que Greene tient à préserver : ML versus IA générative

    Habile communicant, Greene prend soin de ne pas se laisser enfermer dans une posture anti-IA globale. Son studio PlayerUnknown Productions, basé à Amsterdam et actuellement en développement sur le jeu de survie Prologue: Go Wayback, utilise bel et bien des techniques d'apprentissage automatique, mais dans un cadre radicalement différent.

    Il insiste sur le fait que son usage est « très spécifique au domaine » : appliqués à un ensemble de données restreint et maîtrisé, les modèles sont efficaces, peu sujets aux hallucinations, et surtout déterministes. C'est la condition sine qua non à ses yeux. Ce qui l'agace, en revanche, c'est la confusion entretenue entre apprentissage automatique ciblé et IA générative grand public : Apple a parlé de ML pendant des années sans déclencher de réactions, puis dès que le mot « IA » a été prononcé, tout le monde s'est mis à s'enflammer alors que c'est le même champ, et que ça exploite les mêmes mécanismes, ironise-t-il.

    Cette position tranche avec celle de Krafton, l'éditeur coréen qui détient encore PUBG et une participation minoritaire dans PlayerUnknown Productions, et qui a adopté une stratégie délibérément « AI-first », allant jusqu'à proposer des départs volontaires à ses équipes. Greene, lui, a fermement réaffirmé l'indépendance de son studio vis-à-vis des orientations stratégiques de son investisseur.

    La décentralisation comme réponse ?

    Fidèle à sa vision à long terme de mondes virtuels planétaires et d'une informatique distribuée, Greene réaffirme sa conviction que l'avenir passe par le calcul local plutôt que par des mega data centers. Il s'inquiète notamment des expulsions de résidents causées par l'implantation forcée de ces infrastructures en Géorgie, et estime que la puissance de calcul à grande échelle ne peut pas reposer uniquement sur des serveurs centralisés.

    Cette position rejoint un débat plus large sur la soutenabilité écologique et sociale du modèle d'IA générative dominant. Pendant que les grands acteurs se livrent à une course aux armements computationnels, la qualité intrinsèque du web (ce vaste corpus sur lequel repose toute l'économie de l'entraînement des LLM) se dégrade. Et si personne ne protège activement la donnée humaine originale, le résultat risque d'être une « spirale entropique » où les erreurs se cumulent et où les modèles produisent des résultats de plus en plus incohérents, répétitifs ou incorrects.

    Le paradoxe est cruel : l'industrie de l'IA déploie des ressources colossales pour produire toujours plus de contenu, qui finit par empoisonner les données nécessaires à son propre développement futur. Brendan Greene n'est pas chercheur, mais sa métaphore de la « course vers le fond » a le mérite de nommer le phénomène avec une clarté que beaucoup de communiqués de presse corporate évitent soigneusement.

    Sources : interview de Brendan Greene, étude publiée dans Nature sur le model colapse, Harvard Journal of Law & Technology , OpenReview

    Et vous ?

    La donnée humaine est-elle vouée à devenir une ressource rare ? Si les contenus générés par IA contaminent progressivement le web, les corpus pré-2022 pourraient devenir des actifs stratégiques que seules les grandes entreprises déjà établies contrôlent, creusant encore davantage les inégalités dans la course à l'IA.

    Le calcul local est-il une réponse réaliste à la crise des LLM centralisés ? Greene milite pour une informatique distribuée et déterministe. Mais à l'heure où les modèles les plus performants nécessitent des dizaines de milliers de GPU, cette vision est-elle techniquement atteignable à court terme ?

    Peut-on réguler la production de contenu IA avant que la boucle ne devienne irréversible ? Des mécanismes comme le filigranage (watermarking) ou le marquage de provenance des données sont évoqués, mais aucune norme contraignante n'existe encore. Qui devrait imposer ces règles ? Les États, les plateformes, les développeurs de modèles ?

    La distinction entre ML spécialisé et IA générative est-elle comprise du grand public ? Greene déplore que son usage ciblé de l'apprentissage automatique soit amalgamé avec le tout-venant de l'IA générative. Comment l'industrie peut-elle rétablir une distinction claire sans perdre ceux qui ne font pas la différence entre ChatGPT et un algorithme de recommandation ?

    Voir aussi :

    L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité

    Cloudflare exige que Google modifie la façon dont ses outils IA explorent le web : « Nous obtiendrons de Google un moyen de bloquer les IA Overviews sans bloquer l'indexation de la recherche classique »

    SocialAI : la «théorie de l'Internet mort» prend vie avec l'app de médias sociaux alimentée par l'IA, suggérant que la majorité des activités sociales en ligne sont artificielles et manipulent les utilisateurs

    DuckDuckGo dit stop à l'invasion des images générées par IA dans les résultats de recherche en introduisant une fonctionnalité permettant de les masquer : une petite option, un grand signal pour le web
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 6
    Dernier message: 03/11/2022, 11h29
  2. Réponses: 0
    Dernier message: 22/08/2016, 06h14
  3. Android 5.0 : Dalvik pourrait être remplacé par ART
    Par Hinault Romaric dans le forum Android
    Réponses: 4
    Dernier message: 20/06/2014, 15h29
  4. Réponses: 5
    Dernier message: 01/02/2013, 10h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo