IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 671
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 671
    Par défaut La Chine a proposé des règles exigeant l'étiquetage et l'identification des contenus générés par l'IA
    La Chine veut exiger des plateformes et des fournisseurs de services en ligne qu'ils apposent un logo visible sur tout le matériel généré par l'IA et qu'ils intègrent des métadonnées dans les fichiers concernés.

    La Chine a proposé des lignes directrices exigeant l'étiquetage et l'identification des contenus générés par l'intelligence artificielle (IA), car cette technologie pose de nouveaux défis à la sécurité nationale et à l'intérêt public. Pékin propose ces règles pour lutter contre la désinformation, les deepfakes, les problèmes de droits d'auteur et d'autres risques liés aux médias générés par l'intelligence artificielle.

    L'IA générative, comme ChatGPT d'OpenAI, pourrait complètement réorganiser la façon dont le contenu numérique est développé, a déclaré Nina Schick, conseillère et conférencière en IA au début de l'année 2023: "Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle". "Je crois que la majorité du contenu numérique va commencer à être produite par l'IA. Vous voyez ChatGPT... mais il y a toute une pléthore d'autres plateformes et applications qui arrivent."

    En 2024, des rapports confirment que les contenus générés par l'intelligence artificielle (IA) sont de plus en plus présents sur internet. Dans ce contexte, la Chine va exiger l'étiquetage des contenus générés par l'IA, car la technologie pose de nouveaux défis. Le projet de réglementation, qui fait actuellement l'objet d'une consultation publique, prévoit des exigences claires en matière d'étiquetage des contenus générés par l'intelligence artificielle lors de leur production, de leur affichage et de leur distribution.

    Les fournisseurs de contenu en ligne seraient tenus d'utiliser des étiquettes visibles - telles que texte, son ou graphique - pour tous les textes, vidéos, sons et scènes virtuelles générés par l'IA. Par ailleurs, des identifiants plus subtils, tels que les filigranes numériques et les étiquettes de métadonnées, seraient également encouragés pour les contenus générés par l'IA.

    Le projet stipule également qu'aucune organisation ou personne ne peut malicieusement supprimer, altérer, falsifier ou dissimuler les étiquettes requises ou violer les droits et les intérêts d'autrui par une identification incorrecte du contenu généré par l'IA. Les règles proposées exigent également que les plateformes de contenu en ligne réglementent tout contenu généré par l'IA qu'elles distribuent.

    Nom : 1.jpg
Affichages : 6005
Taille : 42,3 Ko

    Selon l'organisme de surveillance Cyberspace Administration of China, les lignes directrices s'appliqueront aux organisations industrielles, aux entreprises, aux établissements d'enseignement et de recherche scientifique, aux institutions culturelles publiques et aux institutions professionnelles qui utilisent l'IA pour générer du contenu et fournir des services au public chinois.

    Les exigences visent à sauvegarder la sécurité nationale et l'intérêt public et à protéger les droits et les intérêts légitimes des personnes et des organisations, selon le projet, qui a été publié pour une consultation publique d'un mois. Les règles s'appuient sur des cadres juridiques antérieurs, notamment les dispositions administratives relatives à la synthèse approfondie dans les services d'information basés sur l'internet, mises en œuvre en janvier 2023, qui exigent un étiquetage visible des contenus susceptibles de créer de la confusion ou d'induire le public en erreur.

    Une autre réglementation importante, les Mesures provisoires pour la gestion des services d'IA générative promulguées en août 2023, a constitué le premier ensemble de règles chinoises ciblant les services d'IA générative. En août de l'année dernière, le Comité technique national de normalisation de la sécurité de l'information a publié un guide décrivant les normes d'étiquetage du contenu pour le texte, les images, l'audio et la vidéo.

    Les réglementations proposées constituent la dernière réponse de la Chine au développement rapide de l'IA et aux défis posés par cette technologie, notamment la diffusion de fausses informations et les problèmes de droits d'auteur. Par exemple, la technologie deepfake, qui s'appuie sur l'apprentissage en profondeur de l'IA pour modifier les images, le son et la vidéo, a été exploitée pour créer de fausses photographies et commettre des fraudes.

    Zhang Linghan, professeur à l'université chinoise de sciences politiques et de droit, a été cité dans le Quotidien du peuple comme ayant déclaré que "le système d'étiquetage améliorera les capacités de gouvernance des contenus générés par l'IA, réduira la production de fausses informations, empêchera la contamination des futurs ensembles de données d'entraînement et favorisera un écosystème sain de cyberinformation".

    De nombreux pays et organisations étudient les moyens de réglementer les contenus générés par l'IA afin d'en garantir l'authenticité, de protéger les droits d'auteur et de maintenir l'ordre social. Parmi les initiatives notables, on peut citer le plan coordonné de l'Union européenne sur l'intelligence artificielle, le Deepfakes Accountability Act des États-Unis et le Online Harms White Paper du gouvernement britannique.

    "Cette initiative marque une nouvelle phase de réglementation stricte et de normes de conformité élevées dans le secteur des services d'IA générative en Chine ", a déclaré un avocat basé à Pékin et spécialisé dans les transactions de propriété intellectuelle.

    Source : Lignes directrices de la réglementation

    Et vous ?

    Pensez-vous que cette réglementation est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La Chine est le pays qui adopte le plus l'IA générative, 83 % des décideurs Chinois interrogés ayant déclaré utiliser l'IA générative, la technologie sur laquelle repose ChatGPT

    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 809
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 809
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Quel est votre avis sur le sujet ?
    Ce serait chouette de toujours savoir quand un document a été généré par l'IA.

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 683
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 683
    Par défaut La Chine rend obligatoire l'étiquetage des contenus générés par l'IA pour lutter contre la désinformation
    La Chine rend obligatoire l'étiquetage des contenus générés par l'IA pour lutter contre la désinformation et la fraude en ligne
    mais les experts expriment des réserves quant à l'efficacité de cette approche

    Les autorités chinoises ont publié de nouvelles directives exigeant l'apposition d'étiquettes sur tous les contenus générés par l'IA et diffusés en ligne. L'initiative vise à lutter contre l'utilisation abusive de l'IA et la diffusion d'infox. Les directives stipulent que le contenu généré ou synthétisé à l'aide des systèmes d'IA, y compris les textes, les images, les audios, les vidéos et les scènes virtuelles, doit être étiqueté de manière visible et invisible. Les contenus générés par l'IA déferlent la toile. Les autorités chinoises espèrent que les nouvelles règles, qui entreront en vigueur le 1er septembre 2025, contribueront à « promouvoir le développement sain de l'IA ».

    La Chine rend obligatoire l'étiquetage de tout type de contenu généré par l'IA

    En 2024, des rapports ont confirmé que les contenus générés par l'IA sont de plus en plus présents sur Internet. Des experts s'attendent à ce qu'une bonne partie des contenus en ligne soient générés par l'IA d'ici la fin de l'année 2025. « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle », a déclaré Nina Schick, conseillère et conférencière en IA, au début de l'année 2023.

    Dans ce contexte, la Chine avait envisagé d'exiger l'apposition d'étiquettes sur tous les contenus générés par l'IA et diffusés en ligne, car la technologie pose de nouveaux défis. C'est désormais chose faite. La nouvelle réglementation chinoise est prévue pour entrer en vigueur le 1er septembre 2025.


    La réglementation a été publiée conjointement par l'Administration du cyberespace de Chine (CAC), le ministère chinois de l'Industrie et des Technologies de l'information, le ministère chinois de la Sécurité publique et l'Administration nationale de la radio et de la télévision (NRTA).

    Les directives stipulent que « le contenu généré ou synthétisé à l'aide de technologies d'IA - y compris les textes, les images, les audios, les vidéos et les scènes virtuelles - doit être étiqueté de manière visible et invisible ». Pour les contenus générés par des technologies de synthèse profonde susceptibles de confondre ou d'induire le public en erreur, des étiquettes explicites doivent être placées à un endroit raisonnable pour que le public en soit conscient.

    Un porte-parole de l'administration du cyberespace a déclaré que « la nouvelle réglementation vise à mettre un terme à l'utilisation abusive des technologies d'IA de génération de contenu et à la diffusion d'infox ». Des règles similaires sont également à l'étude en Europe et aux États-Unis.

    Étiquette visible et invisible : comment cela va-t-il se passer dans la pratique ?

    Les étiquettes explicites doivent être clairement visibles pour les utilisateurs, tandis que les étiquettes implicites, comme les filigranes numériques, doivent être intégrées dans les métadonnées. Plus de détails sont attendus dans les mois à venir. En attendant, la réglementation stipule que les étiquettes implicites doivent inclure des détails sur les attributs du contenu, le nom ou le code du fournisseur de services et les numéros d'identification du contenu.

    Les fournisseurs de services en ligne proposant des plateformes de génération de contenu doivent également veiller à respecter les règles chinoises en matière de cybersécurité et de gestion de la synthèse profonde. Les plateformes doivent vérifier les contenus générés par l'IA avant de les mettre en ligne.

    Elles doivent ajouter des étiquettes si nécessaire. Si les métadonnées ne comportent pas de marqueurs d'IA, mais que le contenu présente des signes de génération par l'IA, il faut le signaler en conséquence. Les distributeurs d'application doivent évaluer les caractéristiques liées à l'IA avant d'approuver les services.

    Le gouvernement espagnol a approuvé un projet de loi qui prévoit d'imposer des amendes massives aux entreprises qui utilisent des contenus générés par l'IA sans les étiqueter correctement comme tels. La réglementation vise à freiner la diffusion des deepfakes nuisibles.

    les utilisateurs doivent déclarer lorsqu'ils publient des contenus générés par l'IA

    Selon la nouvelle réglementation chinoise sur l'IA, les utilisateurs qui publient du contenu généré par l'IA doivent le déclarer, tandis que les fournisseurs de services sont tenus d'en conserver une trace pendant au moins six mois. La suppression, la modification ou la dissimulation des étiquettes sur le contenu généré par l'IA sont strictement interdites, et des sanctions sont prévues en cas de non-respect de ces règles. Peu de détails ont fuité à ce sujet.

    Cette réglementation reflète la surveillance accrue de l'IA par Pékin, qui s'inquiète de plus en plus de la désinformation, de la violation des droits d'auteur et de la fraude en ligne. La dernière directive des régulateurs chinois s'appuie sur les règles existantes régissant la technologie de synthèse profonde (deepfake) et les recommandations algorithmiques, renforçant ainsi la surveillance gouvernementale des contenus générés par des systèmes d'IA.

    Parmi les principaux objectifs de cette année figurent un contrôle rigoureux du contenu généré par l'IA, une application stricte de l'étiquetage obligatoire et des sanctions à l'encontre de ceux qui utilisent l'IA pour diffuser des infox ou manipuler l'opinion publique, notamment via des commentateurs en ligne rémunérés. Ces influenceurs sont également appelés « armées de l'eau », en référence à leur capacité à inonder le Web de messages coordonnés.

    Parmi les autres priorités du gouvernement chinois figurent la répression du marketing trompeur sur les plateformes de vidéos courtes, la lutte contre la désinformation par les influenceurs des médias sociaux et le renforcement des protections en ligne pour les utilisateurs mineurs.

    L'étiquetage est-il la solution optimale ? Il souffre de nombreuses limites

    Le soutien à l'étiquetage obligatoire du contenu généré par l'IA s'est accru en Chine. La montée en puissance des modèles d'IA développés au niveau national, tels que ceux de DeepSeek et du laboratoire Qwen AI d'Alibaba, ainsi que de Manus, l'agent d'IA de la startup Butterfly Effect, a intensifié les discussions sur la réglementation. Les gouvernements du monde entier ont pris des mesures rapides dans le but de réglementer les contenus générés par l'IA.

    La nouvelle loi sur l'IA de l'Union européenne (EU AI Act) impose un étiquetage clair assorti d'exigences de traçabilité, tandis que les États-Unis travaillent à l'élaboration de lignes directrices pour l'étiquetage et la détection des contenus générés par l'IA. Elle est entrée en vigueur en août dernier.

    La Grande-Bretagne, quant à elle, a présenté un projet de loi proposant la création d'une autorité de régulation de l'IA et la consécration de la transparence et de la conformité. Dans les forums de discussions, les utilisateurs appellent également à une norme internationale et open source en la matière.

    Mais selon certains experts, l'étiquetage seul peut ne pas être suffisant. Par exemple, ils notent également que l'application de la loi présente des difficultés. Les applications d'IA en temps réel, telles que la diffusion en direct et les appels vocaux, sont particulièrement difficiles à réglementer, car l'ajout d'étiquettes sans perturber la vitesse et la qualité pose des problèmes techniques. Selon les experts, l'étiquetage des contenus n'est pas la solution optimale.

    En décembre 2024, le groupe de réflexion Information Technology and Innovation Foundation, basé à Washington, a soulevé des préoccupations similaires. Son rapport met en évidence les principales faiblesses du filigrane, des empreintes numériques et des métadonnées chiffrées, qui peuvent tous être facilement supprimés ou invalidés par des modifications. La vérification entre plateformes reste également incohérente, ce qui rend la détection peu fiable.

    D'autres affirment que l'étiquetage seul ne peut pas faire grand-chose pour enrayer la désinformation ou garantir la responsabilité. Les violations de la propriété intellectuelle persistent, et une confiance excessive dans l'étiquetage peut entraîner des préjugés à l'encontre des contenus générés par des machines.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'étiquetage obligatoire des contenus générés par l'IA ?
    Selon vous, la réglementation chinoise est-elle pertinente ? Peut-elle atteindre ces objectifs ?
    Que pensez-vous des limites de l'étiquetage ? Peut-il être renforcé ? Quelle alternative s'offre à l'industrie ?

    Voir aussi

    La Chine veut exiger des plateformes et des fournisseurs de services en ligne qu'ils apposent un logo visible sur tout le matériel généré par l'IA et qu'ils intègrent des métadonnées dans les fichiers concernés

    L'Espagne va imposer des amendes massives pour non-étiquetage des contenus générés par l'IA, avec des amendes pouvant aller jusqu'à 35 millions € ou 7 % du chiffre d'affaires annuel mondial des entreprises

    90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 683
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 683
    Par défaut L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web
    L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité

    Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.

    Les sites Web vivent principalement de la publicité ou d’abonnements. Cependant, l'essor de l'IA générative menace de provoquer l'effondrement de ce modèle économique. À l'ère des chatbots, les internautes n'ont plus besoin de poser leurs questions aux moteurs de recherche et de cliquer sur des liens pour obtenir une réponse. Ils posent leurs questions directement aux chatbots et obtiennent presque aussitôt des réponses plutôt que des liens à suivre.

    OpenAI, le fabricant de ChatGPT, affirme qu'environ 800 millions de personnes utilisent son chatbot. ChatGPT est l'application la plus téléchargée sur la boutique d'applications de l'iPhone. Apple a déclaré que les recherches classiques via son navigateur Web Safari ont chuté pour la première fois en avril 2025, les internautes ayant préféré poser leurs questions directement aux chatbots. OpenAI prévoit de lancer son propre navigateur dans un avenir proche.

    Face à la montée en puissance des chatbots, Google, qui détient environ 90 % du marché mondial de la recherche en ligne, a ajouté des fonctions d'IA à son propre moteur de recherche afin de ne pas se laisser distancer. En 2024, il a commencé à faire précéder les résultats de recherche d'aperçus générés par l'IA, qui sont depuis devenus omniprésents. En mai, il a lancé le « mode IA », une version de son moteur de recherche qui ressemble à un chatbot.

    Mais si les internautes n'ont plus besoin de cliquer sur des liens pour obtenir une réponse, les revenus fondent. Selon certains observateurs, il fallait autrefois deux pages publiées pour générer un visiteur. Désormais, il en faut des dizaines, voire des centaines, pour une seule visite quand l'IA est intermédiaire.

    Le modèle économique traditionnel des sites Web s'effondre

    Google affirme désormais que, grâce à l'IA, les utilisateurs peuvent « laisser Google faire la recherche à leur place ». Comme Google se charge de la recherche, les internautes ne visitent plus les sites à partir desquels les informations sont glanées. Similarweb, qui mesure le trafic de plus de 100 millions de domaines Web, estime que le trafic de recherche mondial (par des humains) a chuté de 15 % au cours de l'année qui s'est achevée en juin 2025.

    Nom : 6ce64f351ef7eec930d890de6ff64975bc9c4943.png
Affichages : 204809
Taille : 291,4 Ko

    Bien que certaines catégories de plateformes, telles que les sites d'amateurs, s'en sortent bien, d'autres ont été durement touchées. La plupart des sites les plus touchés sont précisément ceux qui auraient pu répondre à des demandes de recherche courantes. Les sites scientifiques et éducatifs ont perdu 10 % de leurs visiteurs. Les sites de référence ont perdu 15 % de leurs visiteurs. Les sites consacrés à la santé ont perdu jusqu'à 31 % de leurs visiteurs.

    Pour les entreprises qui vendent de la publicité ou des abonnements, la perte de visiteurs est synonyme de perte de revenus. « Nous avons longtemps entretenu des relations très positives avec Google... Ils ont rompu le contrat », déclare Neil Vogel, directeur de Dotdash Meredith, qui possède des titres tels que People et Food & Wine. Il y a trois ans, ses sites Web tiraient plus de 60 % de leur trafic de Google. Aujourd'hui, ce chiffre est de l'ordre de 30 %.

    « Ils volent notre contenu pour nous concurrencer », déclare Neil Vogel. Google insiste sur le fait que l'utilisation qu'il fait du contenu d'autrui est équitable. Mais depuis qu'il a lancé ses aperçus d'IA, la part des recherches liées à l'actualité qui ne donnent lieu à aucun clic est passée de 56 % à 69 %.

    « La nature d'Internet a complètement changé. L'IA est en train d'étouffer le trafic de la plupart des sites de contenu », déclare Prashanth Chandrasekar, PDG de Stack Overflow. Avec de moins de visiteurs, Stack Overflow voit moins de questions posées sur ses forums de programmation. Wikipédia, également alimentée par des passionnés, a averti que les résumés générés par l'IA sans attribution « bloquent les voies d'accès... et de contribution » au site.

    Les éditeurs exigent d'être payés pour l'accès à leurs données

    Pour maintenir le trafic et l'argent, de nombreux éditeurs ont négocié des accords de licence avec des entreprises d'IA, à grand renfort de menaces juridiques, ce que Robert Thomson, PDG de News Corp, a appelé « faire la cour et poursuivre en justice ». Son entreprise, qui possède notamment le Wall Street Journal et le New York Post, a conclu un accord avec OpenAI. Deux de ses filiales poursuivent Perplexity AI, un autre moteur de réponse d'IA.

    De nombreux autres accords de licence et actions en justice sont en cours. Cette approche a toutefois ses limites. D'une part, les juges semblent jusqu'à présent enclins à se ranger du côté des entreprises d'IA : le mois dernier, deux affaires distinctes de droit d'auteur en Californie ont donné raison aux défendeurs, Meta et Anthropic, qui ont tous deux fait valoir que l'entraînement de leurs modèles sur le contenu d'autrui relevait de l'usage loyal.

    Selon OpenAI, la course prendrait immédiatement fin si l'entraînement des modèles sur du contenu protégé n'est pas considéré comme un usage loyal. La Silicon Valley affirme qu'un accès illimité aux œuvres protégés par des droits d'auteur est nécessaire pour gagner la course à l'IA face à la Chine. Le président américain Donald Trump semble adhérer à l'argument de la Silicon Valley et a pris des mesures controversées pour soutenir l'industrie.

    Donald Trump a limogé la directrice du Bureau américain du droit d'auteur après qu'elle eut affirmé que l'entraînement de l'IA sur du matériel protégé par le droit d'auteur n'était pas toujours légal. Le Bureau a publié un rapport remettant en cause l'approche actuelle de la Silicon Valley basée sur plus de données.

    Les accords ne font pas l'unanimité. Reddit, un forum en ligne, a concédé une licence sur son contenu à Google, apparemment pour 60 millions de dollars par an. Pourtant, sa valeur boursière a chuté de plus de la moitié après qu'il a fait état d'une croissance du nombre d'utilisateurs plus lente que prévu en février, en raison de l'affaiblissement du trafic de recherche. (La croissance a depuis repris et le cours de l'action a regagné un peu de terrain).

    Le contenu du Web devient moins qualitatif qu'auparavant

    L’un des effets les plus inquiétants de la domination croissante de l’IA sur le Web est la détérioration progressive de la qualité du contenu en ligne. Ce phénomène repose sur un effet de boucle : les chatbots produisent du texte en s’appuyant sur de vastes ensembles de données extraites du Web. Jusqu’à récemment, ces données provenaient en grande partie de contenus rédigés par des humains : journalistes, chercheurs, blogueurs, experts de tous horizons.

    Aujourd'hui, une portion croissante du contenu en ligne est elle-même générée par d'autres IA. Cela conduit à un problème connu sous le nom de « model collapse » (effondrement du modèle). En résumé, les nouveaux modèles d’IA s’entraînent sur du contenu produit par des modèles de la génération précédente, eux-mêmes formés sur d'autres contenus synthétiques. Ce recyclage progressif appauvrit la diversité, la nuance et l'originalité de l'information.

    Les erreurs peuvent s’amplifier à chaque génération, les biais se renforcer, et le contenu devient moins fiable, moins contextualisé et souvent déconnecté de toute vérification humaine ou source primaire identifiable. Ce problème vient s'ajouter à la baisse considérable du trafic des sites Web d'information.

    Enfin, si les chatbots d'IA deviennent les principales sources d’information consultées, sans accès direct aux documents originaux, les internautes pourraient progressivement perdre l’habitude de confronter les sources, de lire dans le contexte, ou d’interpréter de façon critique les données. Le Web se transformerait alors en une interface de réponses simplifiées, certes pratiques, mais de plus en plus superficielles. Le Web tel qu'on le connaît pourrait disparaître.

    Mettre fin à l'exploration anarchique du Web par les chatbots

    OpenAI, Google et les autres entreprises engagées dans la course à l'IA explorent et collectent les données sur des centaines de millions de sites Web sans l'autorisation des administrateurs, ce qui est considéré par de nombreux éditeurs comme un vol. Certains sites ont commencé à bloquer les robots d'indexation des entreprises d'IA. Mais cela signifie également qu'ils n'ont aucune visibilité dans les moteurs de recherche. Ce qui les pénalise davantage.

    Selon le PDG de Cloudflare, Matthew Prince, « l'IA est un fardeau économique ». Il a averti que l'IA brise le modèle économique du Web en découplant la création de contenu de la valeur et en fournissant des réponses sans générer de trafic vers les sources originales. Par conséquent, à l'avenir, tous les nouveaux clients de Cloudflare se verront demander s'ils souhaitent autoriser les robots des entreprises d'IA à explorer leurs sites Web, et dans quel but.

    Cloudflare est une société américaine qui fournit des services de réseau de diffusion de contenu, de cybersécurité, d'atténuation des attaques DDoS, de réseaux étendus, de proxys inversés, de services de noms de domaine, d'enregistrement de domaines accrédités par l'ICANN, etc. Il est basé à San Francisco, en Californie. En janvier 2025, Cloudflare était utilisé par environ 19,3 % de tous les sites Web sur Internet pour ses services de sécurité Web.

    Avec cette envergure, Cloudflare a une meilleure chance de permettre une réponse collective de la part des sites qui veulent forcer les entreprises d'IA à faire des concessions. Cloudflare teste actuellement un système de paiement à l'utilisation qui permettrait aux sites de faire payer un droit d'entrée aux robots.

    « Nous devons fixer les règles du jeu », déclare Matthew Prince, qui dit préférer « un monde où les humains obtiendraient du contenu gratuitement et où les robots paieraient une tonne pour l'obtenir ». Récemment, Cloudflare a exigé de Google qu'il modifie la manière dont ses systèmes d'IA explorent le Web : « nous obtiendrons de Google un moyen de bloquer AI Overviews sans bloquer l'indexation de la recherche classique », a déclaré l'entreprise.

    Faire payer aux chatbots d'IA l'accès aux contenus originaux

    La société Tollbit propose également une solution : il s'agit d'un paywall permettant aux sites de contenu de faire payer aux robots d'indexation des tarifs variables. Par exemple, une publication pourrait faire payer davantage pour les nouveaux articles que pour les anciens. Au cours du premier trimestre de cette année, Tollbit a traité 15 millions de microtransactions de ce type, pour 2 000 producteurs de contenu, dont l'Associated Press et Newsweek.

    Selon Toshit Panigrahi, PDG de Tollbit, alors que les moteurs de recherche traditionnels encouragent les contenus homogènes - « à quelle heure commence le Super Bowl ? », par exemple - la facturation de l'accès encourage l'unicité. L'un des tarifs les plus élevés pratiqués par Tollbit est facturé par un journal local.

    La société ProRata propose un autre modèle. ProRata est pionnier dans les années 1990 des publicités en ligne payantes qui ont alimenté une grande partie du Web depuis lors. Il propose que l'argent des publicités placées à côté des réponses générées par l'IA soit redistribué aux sites proportionnellement à la contribution de leur contenu à la réponse. L'entreprise est dirigée par Bill Gross et possède également son propre moteur de réponse, Gist.ai.

    Gist.ai partage les recettes publicitaires avec ses quelque 500 partenaires, dont le Financial Times et The Atlantic. Il ne représente pas encore une menace sérieuse pour Google. Selon Bill Gross, son principal objectif est de « montrer un modèle commercial équitable que d'autres pourraient éventuellement copier ».

    DuckDuckGo dit stop à l'invasion des images générées par l'IA

    DuckDuckGo, le moteur de recherche axé sur la confidentialité et la vie privée, est exaspéré par la prolifération des images générées par l'IA. Il a introduit une fonctionnalité permettant aux utilisateurs de masquer les images générées par l'IA dans les résultats de recherche. Cette nouveauté vise à offrir aux internautes un contrôle accru sur le contenu qu'ils voient et à réduire la prévalence des images synthétiques qui envahissent de plus en plus le Web.

    Au cours des dernières années, la montée en puissance d’outils d'IA comme Midjourney, DALL-E, ou encore Stable Diffusion a littéralement inondé le Web d’illustrations photoréalistes, d’images surréalistes ou d’avatars de synthèse. Ces images brouillent la frontière entre fiction et réalité. Pour de nombreux internautes, cela pose problème, notamment lorsqu'ils recherchent des informations fiables, des représentations authentiques ou des sources vérifiables.

    Les utilisateurs peuvent accéder au nouveau paramètre de DuckDuckGo en effectuant une recherche sur le moteur de recherche, puis en se rendant dans l'onglet « Images ». Ils verront alors apparaître un nouveau menu déroulant intitulé « Images d'IA ». Les utilisateurs peuvent alors choisir de voir le contenu de l'IA en sélectionnant « Afficher » ou « Masquer ». L'initiative a été saluée par les utilisateurs de DuckDuckGo, qui dénoncent l'invasion de l'IA.

    Dans une démarche encore plus radicale, DuckDuckGo propose désormais une version alternative de son moteur de recherche, accessible via l’adresse "noai.duckduckgo.com". Cette version du moteur de recherche vise à retirer le contenu généré par l'IA des résultats de recherche. Sur cette version :

    • le filtre des images générées par l'IA est activé par défaut et non désactivable ;
    • les réponses générées par IA (notamment les résumés DuckAssist) sont supprimées ;
    • l’interface ne montre plus le chatbot Duck AI.


    Cette version particulièrement aux utilisateurs soucieux de préserver une expérience de navigation 100 % humaine, sans intervention de l'IA générative. C'est un positionnement rare à l’heure où la plupart des concurrents, de Google à Bing, travaillent à intégrer l'IA plus profondément dans leurs interfaces.

    Conclusion

    Le Web a été confronté à diverses menaces au fil des ans. Dans une interview en 2022, l'inventeur du World Wide Web, Sir Tim Berners-Lee, a déclaré que sa création a été abusée pendant trop longtemps. D'après lui, le Web s'est éloigné de son objectif initial. Avant cela, en 2017, il déclarait que le Web tel que nous le connaissons est menacé par plusieurs dangers, notamment la perte de contrôle de nos données personnelles et la propagation des infox.

    La mort du Web a déjà été prédite - par les réseaux sociaux, puis par les applications - et n'a pas eu lieu. Mais c'est peut-être l'IA qui représente la plus grande menace à ce jour. Si le Web doit perdurer sous une forme proche de celle qu'il a aujourd'hui, les sites devront trouver de nouveaux moyens de se rémunérer.

    Les internautes adoptent de plus en plus l'IA pour la recherche en ligne. « Il ne fait aucun doute que les gens préfèrent la recherche par IA. Et pour qu'Internet survive, pour que la démocratie survive, pour que les créateurs de contenu survivent, la recherche par IA doit partager les revenus avec les créateurs », a déclaré Bill Gross. Pour l'instant, les entreprises d'IA font valoir que l'entraînement de l'IA sur des œuvres protégées est un usage loyal.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'impact de l'IA générative sur le Web ouvert ?
    Selon vous, le Web ouvert tel que nous le connaissons va-t-il disparaître ?
    Comment les sites Web peuvent-ils réinventer leur modèle économique à l'ère de l'IA ?
    Que pensez-vous des initiatives visant à faire payer aux chatbots d'IA l'accès aux contenus créés par des humains ?

    Voir aussi

    Cloudflare exige que Google modifie la façon dont ses outils IA explorent le web : « Nous obtiendrons de Google un moyen de bloquer les IA Overviews sans bloquer l'indexation de la recherche classique »

    SocialAI : la «théorie de l'Internet mort» prend vie avec l'app de médias sociaux alimentée par l'IA, suggérant que la majorité des activités sociales en ligne sont artificielles et manipulent les utilisateurs

    DuckDuckGo dit stop à l'invasion des images générées par IA dans les résultats de recherche en introduisant une fonctionnalité permettant de les masquer : une petite option, un grand signal pour le web

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 553
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 553
    Par défaut
    L'IA ne tue pas le Web... Elle ne fait que l'achever!

    Le premier responsable de la mort du web n'est autre que Google qui depuis longtemps ne fournit plus des résultats de recherche correspondant le mieux à la demande faite mais bien le lien le plus rémunérateur pour ses caisses!

  6. #6
    Invité
    Invité(e)
    Par défaut
    L'Europe va-t-elle encore une fois copier la dictature modèle chinoise ?! Comme pour le QR code lors du Covid ou la censure des contenus en ligne ?!

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 796
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 796
    Par défaut La « théorie de l'Internet mort » prend vie avec le lancement de SocialAI, une application de médias IA
    La « théorie de l'Internet mort » prend vie avec le lancement de SocialAI, une application de médias sociaux alimentée par l'IA.
    Elle suggère que la majorité des activités sociales en ligne sont artificielles et conçues pour manipuler les utilisateurs

    La théorie de l’Internet mort, une théorie du complot qui suggère que la majorité des activités sociales en ligne sont artificielles et conçues pour manipuler les utilisateurs, a récemment pris une nouvelle dimension. Une extension de cette théorie du complot est l'hypothèse qu'Internet va être submergé par le contenu généré par des algorithmes, notamment avec les avancées sur les agents conversationnels. Cette théorie est devenue encore plus pertinente avec le lancement de SocialAI, une application de réseaux sociaux où les utilisateurs interagissent exclusivement avec des chatbots IA. Disponible sur l’App Store d’iPhone, cette application a suscité des critiques acerbes dès son lancement.

    Qu’est-ce que la théorie de l’Internet mort ?

    La théorie de l’Internet mort postule que la plupart des interactions en ligne sont générées par des bots et des algorithmes plutôt que par de véritables êtres humains. Selon cette théorie, ces interactions artificielles sont utilisées pour influencer les opinions, les comportements et les décisions des utilisateurs.

    Si elle a été au départ reléguée au rang de théorie du complot, elle paraît de plus en plus conforme au réel. Josh Yoshija Walter, professeur de transformation numérique à la Haute école spécialisée Kalaidos ainsi qu'à l'université de Berne, et auteur de l'article Artificial influencers and the dead internet theory, nous le confirme. « Quand cette théorie a vu le jour, nous avions encore besoin des humains pour créer des contenus de qualité, l'IA n'était pas suffisamment avancée. Mais avec le perfectionnement des grands modèles de langage, il est beaucoup plus réaliste de penser qu'Internet pourrait devenir un lieu rempli de contenus générés par des systèmes d'IA. À ce stade, la création de contenus comme les influenceurs artificiels n'est pas totalement automatisée, mais je pense qu'elle le sera bientôt. » Selon un rapport de l'agence européenne de police criminelle Europol, 90 % des contenus du Web pourraient être générés par IA d'ici 2025.


    Vient alors SocialAI

    Lundi, le développeur de logiciels Michael Sayman a lancé une nouvelle application de réseau social peuplé d'IA, appelée SocialAI, qui semble donner vie à cette théorie du complot, en permettant aux utilisateurs d'interagir uniquement avec des chatbots d'IA plutôt qu'avec d'autres humains. L'application est disponible sur le magasin d'applications de l'iPhone, mais jusqu'à présent, elle fait l'objet de critiques virulentes.

    Àgé de 28 ans, Michael Sayman a précédemment occupé le poste de chef de produit chez Google, et il a également oscillé entre Facebook, Roblox et Twitter au fil des ans. Dans un billet d'annonce sur X, Sayman explique qu'il rêvait de créer ce service depuis des années, mais que la technologie n'était pas encore au point. Pour lui, il s'agit d'un outil qui peut aider les personnes seules ou rejetées :

    « J'ai passé des années à vouloir créer une application grand public, ce qui a longtemps été impossible. Aujourd'hui, la technologie a enfin rattrapé ma vision. Je vous présente SocialAI, un réseau social privé où vous recevez des millions de commentaires générés par l'IA qui vous offrent un retour d'information, des conseils et des réflexions sur chaque message que vous publiez.

    « SocialAI est plus qu'un projet de plus pour moi - c'est l'aboutissement de tout ce à quoi j'ai pensé, obsédé et rêvé depuis des années. J'ai toujours voulu créer quelque chose qui ne se contente pas de montrer ce qui est possible avec la technologie, mais qui aide aussi les gens d'une manière réelle et tangible. SocialAI est conçu pour aider les gens à se sentir écoutés et pour leur offrir un espace de réflexion, de soutien et de retour d'information qui agit comme une communauté soudée.

    « Cette application est un peu de moi - mes frustrations, mes ambitions, mes espoirs et tout ce en quoi je crois. C'est une réponse à toutes les fois où je me suis sentie isolée, ou comme si j'avais besoin d'une oreille attentive, mais que je n'en avais pas. Je sais que cette application ne résoudra pas tous les problèmes de la vie, mais j'espère qu'elle sera un petit outil qui permettra à d'autres de réfléchir, de grandir et de se sentir vus ».

    Fonctionnement de SocialAI

    Vous souvenez-vous de la dernière fois où vous avez publié une prise de position pertinente sur les médias sociaux et où vous n'avez obtenu aucun engagement ou avez été victime de trolls ? Désormais, vous pouvez éviter cela grâce à un nouveau « réseau social » rempli de chatbots d'IA ineptes qui pourraient débattre avec vous, vous attaquer ou même vous dire des choses gentilles si vous le souhaitez (ce sera à vous de choisir).

    SocialAI se distingue par ses fonctionnalités uniques qui permettent aux utilisateurs de personnaliser leurs interactions en ligne. Les utilisateurs peuvent choisir parmi différents types de followers IA, chacun ayant des caractéristiques et des comportements spécifiques. Les utilisateurs peuvent choisir entre les « partisans », les « intellos », les « sceptiques », les « visionnaires » et les « ideators » (qui pourrait être traduit par « concepteurs »). Ensuite, d'innombrables chatbots sur ces thèmes remplissent les réponses à vos messages. Par exemple, les « partisans » sont programmés pour encourager et soutenir les publications des utilisateurs, tandis que les « sceptiques » posent des questions critiques et remettent en question les affirmations des utilisateurs. Cette personnalisation permet aux utilisateurs de créer une expérience en ligne qui correspond à leurs préférences et à leurs besoins.

    Ces robots de conversation répondent ensuite aux messages des utilisateurs par de brefs commentaires et réactions sur presque tous les sujets, y compris des textes « Lorem ipsum » dépourvus de sens.

    Parfois, les robots sont trop serviables. Sur Bluesky, un utilisateur a demandé des instructions sur la façon de fabriquer de la nitroglycérine à partir de produits chimiques ménagers courants et a reçu plusieurs réponses enthousiastes de bots détaillant les étapes, bien que plusieurs bots aient fourni des recettes différentes, dont aucune n'est peut-être tout à fait exacte.

    SocialAI apparaît comme une sorte de blague, ou peut-être une sorte de méta-commentaire sur le concept des médias sociaux et de l'engagement bon marché, en particulier après que le créateur Michael Sayman a expliqué de manière utile : « Maintenant, nous pouvons tous savoir ce que ressent Elon Musk après avoir acquis Twitter pour 44 milliards de dollars, mais sans avoir à dépenser 44 milliards de dollars ». Il précise également que le site est « conçu pour aider les gens à se sentir écoutés », et qu'il s'agit ostensiblement d'un moyen d'aider les gens à éviter de se sentir isolés.

    Nom : michael.png
Affichages : 8687
Taille : 154,3 Ko

    Réactions et controverses

    L’application a été critiquée pour son approche extrême de l’interaction sociale.

    Après que son créateur a annoncé que SocialAI était « un réseau social privé où vous recevez des millions de commentaires générés par l'IA vous offrant un retour d'information, des conseils et des réflexions sur chaque message que vous publiez », le spécialiste de la sécurité informatique Ian Coldwater a déclaré sur X : « Cela ressemble à un véritable enfer ».

    Nom : ian.png
Affichages : 2338
Taille : 112,1 Ko

    Certains experts en sécurité informatique et développeurs ont exprimé leur inquiétude, qualifiant l’application de « véritable enfer ». Ils craignent que l’utilisation de chatbots IA pour simuler des interactions humaines puisse avoir des effets négatifs sur la santé mentale des utilisateurs et sur la qualité des interactions en ligne. Colin Fraser, développeur de logiciels et spécialiste de l'IA, a exprimé un sentiment similaire : « Je ne veux pas dire que c'est méchant ou que c'est un plongeon ou quoi que ce soit d'autre, mais cela ressemble vraiment à l'enfer. L'enfer avec un grand E. »

    Malgré cela, Sayman défend son projet en affirmant que SocialAI est conçu pour aider les personnes se sentant isolées à trouver un espace de réflexion et de soutien.

    Il faut noter que les robots de SocialAI ont des limites, ce qui n'est pas surprenant. Outre le fait de confabuler des informations erronées (ce qui pourrait être une caractéristique plutôt qu'un bogue dans ce cas), ils ont tendance à utiliser un format cohérent de réponses brèves qui donnent l'impression d'être en boîte. Leur gamme d'émotions simulées est également limitée. Les tentatives visant à obtenir des réactions fortement négatives de la part de l'IA sont généralement infructueuses, les robots évitant les attaques personnelles même lorsque les utilisateurs maximisent les paramètres de trolling et de sarcasme.

    Implications pour l’avenir des réseaux sociaux

    Le lancement de SocialAI soulève des questions importantes sur l’avenir des interactions en ligne. Si les interactions artificielles deviennent la norme, cela pourrait avoir des conséquences profondes sur la manière dont nous percevons et utilisons les réseaux sociaux. La théorie de l’Internet mort pourrait ne plus être une simple théorie du complot, mais une réalité tangible. Les réseaux sociaux alimentés par l’IA pourraient offrir de nouvelles opportunités pour la personnalisation et l’engagement des utilisateurs, mais ils pourraient également poser des défis en termes d’authenticité et de confiance.

    En attendant, en tant qu'œuvre d'art de performance prospective, on pourrait voir en SocialAI une forme de commentaire social sur l'insipidité des médias sociaux ou sur les méfaits des bulles de filtres algorithmiques qui ne vous donnent que ce que vous avez envie de voir et d'entendre.

    Pour l'instant, l'application a déjà reçu quelques critiques positives sur l'app store de la part de personnes qui semblent apprécier cet aperçu de l'hypothétique de « l'Internet mort » en se disputant verbalement avec les bots pour se divertir : « 5 étoiles et je l'utilise depuis 10 minutes. Je pourrais me disputer avec cette IA pendant des HEURES 😭 c'est en fait tellement amusant de voir ce qu'elle va répondre aux choses les plus aléatoires 💀. »

    Conclusion

    La montée en puissance des applications de réseaux sociaux alimentées par l’IA comme SocialAI pourrait transformer radicalement notre expérience en ligne. Alors que certains voient cela comme une évolution positive, d’autres y voient une menace pour l’authenticité des interactions humaines. Seul le temps dira si cette nouvelle ère de l’Internet sera bénéfique ou néfaste pour la société.

    Sources : Threads, BlueSky

    Et vous ?

    Êtes-vous tentés de l'essayer ?
    Pensez-vous que les interactions artificielles peuvent réellement remplacer les interactions humaines authentiques ? Pourquoi ou pourquoi pas ?
    Quels sont, selon vous, les avantages et les inconvénients des réseaux sociaux alimentés par l’IA comme SocialAI ?
    Croyez-vous que l’utilisation de bots et d’algorithmes pour générer des interactions en ligne pourrait influencer vos opinions et comportements ?
    Comment percevez-vous l’impact potentiel de SocialAI sur les personnes se sentant isolées ? Est-ce une solution viable ou une illusion de connexion ?
    La théorie de l’Internet mort vous semble-t-elle plausible à la lumière des développements technologiques actuels ?
    Devrait-il y avoir des mécanismes de régulation ou de contrôle pour garantir l’authenticité des interactions en ligne ?
    Pensez-vous que les applications comme SocialAI pourraient avoir des effets négatifs sur la santé mentale des utilisateurs ?
    Comment imaginez-vous l’évolution des réseaux sociaux dans les prochaines années avec l’intégration croissante de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 654
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    [...]en permettant aux utilisateurs d'interagir uniquement avec des chatbots d'IA plutôt qu'avec d'autres humains.
    [...]
    Pour lui, il s'agit d'un outil qui peut aider les personnes seules ou rejetées :
    C'est absurde son truc, non?
    Sa solution aux personnes seules et rejetées consiste à leur construire un monde virtuel (dans lequel elles sont seules mais virtuellement entourées - et pour peu que ça fonctionne ces personnes vont "rejeter" le monde réel).
    C'est tellement absurde que s'en est presque brillant.
    « SocialAI est plus qu'un projet de plus pour moi - c'est l'aboutissement de tout ce à quoi j'ai pensé, obsédé et rêvé depuis des années. J'ai toujours voulu créer quelque chose qui ne se contente pas de montrer ce qui est possible avec la technologie, mais qui aide aussi les gens d'une manière réelle et tangible. SocialAI est conçu pour aider les gens à se sentir écoutés et pour leur offrir un espace de réflexion, de soutien et de retour d'information qui agit comme une communauté soudée.
    Le problème est que les gens se sentent intégrés mais en pratique ils s'isolent.

    Savez vous pourquoi beaucoup de personnes transgenres sont développeuses et fan de WOW?
    Parce que les deux environnements proposent des interactions avec des personnes sans se faire juger physiquement. C'est dingue le nombre de geek.ettes qui avaient tout le temps de problèmes de micro

    Ce que je veux dire est que ce dont il rêve existe déjà.
    Il ne répond peut être pas aux problèmes de tout le monde mais la solution à l'isolation n'est jamais plus d'isolation.
    Et je sais que ma démonstration ignore certains handicaps (notamment ceux qui ont des difficultés d'expression) mais d'autres moyens existent (notamment les échanges par mail qui permettent de prendre le temps d'échanger sans lasser la personne en face)

    La théorie de l’Internet mort vous semble-t-elle plausible à la lumière des développements technologiques actuels ?
    Est-ce vraiment un problème - en dehors du scandale écologique?
    Je me fous pas mal que des IA passent leur temps à interagir entre elles.

  9. #9
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    360
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 360
    Billets dans le blog
    1
    Par défaut
    Je trouve que c'est du génie. Un mélange de folie, de cauchemar, de théâtre absurde, de possible solution réelle à certains problèmes complexes inattaqués pour l'instant... Il fallait assumer le truc et c'est fait. Je lève mon chapeau... artificiel ou réel, on s'en fiche après tout.

  10. #10
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 998
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 998
    Par défaut Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir
    Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »

    Sundar Pichai, PDG de Google, a prédit l'avenir de l'intelligence artificielle (IA). S'exprimant lors de l'événement The New York Times Dealbook, Sundar Pichai a déclaré que le développement de l'IA allait commencer à ralentir. « Je pense que les progrès vont devenir plus difficiles quand je regarde vers [2025]. Les fruits à portée de main ont disparu », a-t-il affirmé lors de son intervention.

    Les prédictions de Sundar Pichai rejoignent les préoccupations croissantes des analystes du secteur quant à la trajectoire de l'IA générative. En effet, selon le cabinet d'analystes CCS Insight, l'IA générative, malgré l'attention considérable qu'elle suscite, sera confrontée à un ralentissement imminent et à des défis de plus en plus importants. Selon les experts, les coûts opérationnels élevés, les risques et la complexité de la technologie l'emporteront sur l'engouement initial. Ces systèmes reposent sur une immense puissance de calcul pour gérer leurs algorithmes complexes, ce qui fait de l'évolutivité une entreprise coûteuse.

    À l'heure actuelle, la plupart des entreprises spécialisées dans le développement de l'IA publient un modèle général, puis commencent à travailler sur une version plus spécifique. Par exemple, OpenAI, fabricant de ChatGPT, a mis au point ChatGPT 4, qui a été transformé en 4o, lui-même divisé en « Mini » (une version moins coûteuse) et auquel succède maintenant o1.

    Chaque nouveau modèle est accompagné de milliards d'instructions, ce qui, selon Sundar Pichai, n'est pas la voie à suivre. Il n'est plus question de grossir en termes de capacité.


    Le prochain objectif de M. Pichai est de réaliser des « percées plus profondes », qu'il ne considère pas comme un mur : « Vous pouvez donc considérer qu'il y a un mur ou qu'il y a de petites barrières ».

    L'une de ces barrières est la possibilité que les données générées par l'IA deviennent les données d'entraînement, ce qui empoisonnerait le puits.

    En effet, une récente étude de l'université d'Oxford et de Cambridge a révélé que le fait de s'appuyer sur des contenus générés par l'IA pour la formation des modèles d'IA entraîne l'« effondrement » de ces modèles. Ce phénomène, connu sous le nom de contamination récursive des données, entraîne une dégradation des performances et des biais dans la précision des prédictions et rendra plus difficile la formation des futurs grands modèles de langage.

    On estime qu'en 2024, 57 % de l'internet sera généré par l'IA, ce qui ne constitue pas de bonnes données à récolter.

    L'IA est formée à partir de milliards de données provenant des médias, des livres et de l'internet. Et comme les entreprises commencent à manquer de matériel, il en résulte un effet de plateau alors que les grands modèles de langage comme ChatGPT sont mis à jour.

    Les sauts importants entre les modèles observés entre le GPT 3.5 et le GPT 4 cesseront d'être aussi fréquents au fur et à mesure que les nouvelles données disponibles se tariront.

    Pour contourner ce problème, les entreprises ont conclu des accords afin d'obtenir une source directe de nouveaux contenus. OpenAI, par exemple, s'est associé à des éditeurs tels que Future. Google lui-même a conclu un accord de 60 millions de dollars pour récolter les données de Reddit à des fins de formation.

    L'industrie de l'IA confrontée à un plateau alors que la formation commence à ralentir

    L'IA et son industrie sont actuellement dans une course effrénée pour être les meilleurs. Cependant, ses principales promesses, comme l'intelligence générale artificielle (AGI), qui permet à un ordinateur d'imiter théoriquement le cerveau humain, sont minimisées par les leaders de l'industrie.

    Le PDG d'OpenAI, Sam Altman, a récemment revu à la baisse les attentes concernant le prochain obstacle majeur de l'IA. Alors qu'il prévoit un lancement en 2025, il a déclaré lors du 2024 New York Times DealBook Summit : « À mon avis, l'IA sera disponible plus tôt que ne le pensent la plupart des gens dans le monde, et elle aura beaucoup moins d'importance ».

    OpenAI a vu plusieurs de ses dirigeants quitter l'entreprise, alors qu'elle s'apprête à devenir une société à but lucratif.

    Sundar Pichai s'en est pris à Microsoft, l'une des entreprises les plus importantes dans le domaine de l'IA à l'heure actuelle. Le géant de la technologie travaille actuellement sur des centrales nucléaires pour alimenter ses centres de données pour l'IA, mais ne dispose pas encore de son propre modèle pour le public. Au lieu de cela, Microsoft détient une participation de 49 % dans OpenAI et utilise divers wrappers pour présenter le CoPilot alimenté par ChatGPT dans son logiciel.

    Faisant allusion à Microsoft, Sundar Pichai a déclaré : « J'adorerais faire une comparaison côte à côte entre les modèles de Microsoft et les nôtres, n'importe quand, à n'importe quel moment... Ils utilisent les modèles de quelqu'un d'autre ».

    Après deux années d'intérêt croissant et d'investissements sans précédent, l'IA semble toutefois perdre en popularité et certains investisseurs commencent à craindre qu'elle ne leur apporte pas les profits considérables escomptés.

    En août 2024, les cours des actions des entreprises à l'origine de la révolution de l'IA ont chuté de 15 % par rapport à leurs précédents sommets, reflétant les inquiétudes des investisseurs quant à la capacité de la technologie à fournir des résultats à la hauteur des milliards injectés. Les experts s'interrogent également sur les limites des grands modèles de langage (LLM).

    Toutefois, certains spécialistes restent optimistes et estiment que l'IA entre dans une phase de maturation. Selon eux, des applications à fort impact émergeront de cette période de consolidation, jetant les bases de progrès durables.

    Source : Intervention du PDG de Google, Sundar Pichai, lors du sommet New York Times Dealbook

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les prédictions du PDG de Google crédibles ou pertinentes ?

    Voir aussi :

    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

    Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 57
    Par défaut
    Un système probabiliste ne peut générer de l'intelligence. L'astuce, la finesse n'est pas la moyenne.
    Ne surtout pas confondre la connaissance encyclopédique, la culture avec l'intelligence.
    Un indien Yanomami peut avoir un QI de 150 et ne rien connaître du monde extérieur.
    L'association d'idée permet d'innover, ce n'est pas par essence probabiliste.
    Un vrai modèle ne fait pas d'erreur, n'hallucine pas intrinsèquement, ne ment pas sciemment... Altman a un boulot de titan devant lui. Un vrai modèle doit donner un indice de fiabilité, doit donner les sources sur lequel il s'appuie pour formuler sa réponse...
    Les financiers, les happy few n'ont pas compris la problématique.
    Pourtant dans les conditions d'utilisation, il y a un paragraphe qui dit de ne pas utiliser les résultats dans les systèmes critiques, quel processus n'est pas critique mis à part celui qui ne sert à rien ! Traduire, notre produit n'est pas du tout fiable.

  12. #12
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 224
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 224
    Par défaut
    Citation Envoyé par vVDB.fr Voir le message
    [...] notre produit n'est pas du tout fiable.
    Oui, mais ça ne peut pas se vendre.

  13. #13
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 57
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Oui, mais ça ne peut pas se vendre.
    La valorisation de chatGPT (OpenAI) est de 150 milliards.
    Un truc qui ne fonctionne pas se vend très très bien.
    C'est très probablement une hallucination 😂
    La moindre hallucination, et/ou mensonge d'une IA devrait être rédhibitoire, non ?
    Que des gosses utilisent ça pour tricher, ça passe mais des professionnels, des entreprises, des services publics, des armées !
    l'IA n'est pas dangereuse, c'est les pseudo IA qui le sont.

  14. #14
    Expert confirmé
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 564
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 564
    Par défaut
    Citation Envoyé par vVDB.fr Voir le message
    Un indien Yanomami peut avoir un QI de 150 et ne rien connaître du monde extérieur.
    vous avez déjà séjourné dans les Tumuc-Humacs ?
    Oi un indien Yanomami peut avoir un bon QI ce qu'il le différencie avec un occidental c'est qu'il a un savoir quasi encyclopédique de son environnement.
    Il sait distinguer les plantes qui sont bénéfiques pour sa santé, il sait chasser, pécher.
    Ce que ne sait pas faire un européen

  15. #15
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 295
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 295
    Par défaut
    c'est la loi de Gartner, un grand bon en avant avec l'ia et l'utilisation des transformers de manière XXL, puis désormais un calme plat pendant minimum une bonne décennie.
    maintenant les transformer c'est une innovation de google qui a plus de 10ans et qui a de (grosses) limites, il faut innover et utiliser un nouvelle algorithme qui permeterais d'aller plus loin que les GPT...

    d'un point de vue business "Si mon chauffeur de taxi m'en parle, ce n'est plus la peine d'investir" comme l'a dit Warren Buffett, il faut trouver et investir sur la prochaine vague, l'ia c'est terminé y'a plus grand chose a en tiré à la bourse.

    loin de moi l'envie de me faire mousser avec ces belles paroles, j'ai des actions intels et j'ai perdu de l'argent... j'ai un très mauvais biais qui préfère investir dans de l'industrie lourde plutôt que des boites de bureau uniquement (amd, nvidia...), j'ai clairement raté le virage de l'ia.
    bon mes actions dans des boites d'armement ont compensé les perte d'intel par contre

  16. #16
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 224
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 224
    Par défaut
    Citation Envoyé par calvaire Voir le message
    bon mes actions dans des boites d'armement ont compensé les perte d'intel par contre
    donc tu as fait du profit sur la mort des soldats et des civils quand un missile rate sa cible ?
    Et tu t'en vantes ? Tu en es fier ? Tu ferais mieux d'aller te cacher, c'est immonde ce que tu racontes.

    Et je ne parle pas des animaux, qui ne demandent rien à personne et voudraient juste vivre leur vie sans risquer de la perdre tous les jours à grands coups de bénéfices honteux...

    PS : tu arrives à te regarder dans la glace le matin ?

  17. #17
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 295
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 295
    Par défaut
    Citation Envoyé par Jipété Voir le message
    donc tu as fait du profit sur la mort des soldats et des civils quand un missile rate sa cible ?
    Et tu t'en vantes ? Tu en es fier ? Tu ferais mieux d'aller te cacher, c'est immonde ce que tu racontes.

    Et je ne parle pas des animaux, qui ne demandent rien à personne et voudraient juste vivre leur vie sans risquer de la perdre tous les jours à grands coups de bénéfices honteux...

    PS : tu arrives à te regarder dans la glace le matin ?
    c'est pas moi qui fait les guerres et j'ai juste eu de la chance de parier que des conflits allait s’intensifier y'a 10ans et accroitre le besoin. Et heureusement que la France arrive à vendre des armes, c'est l'une des dernières industries qui existe dans le pays et ca permet de réduire la balance commercial
    et d'un point de vue ingénieur, c'est beau, c'est des machines de pointe et extrêmement complexe, ça devrait plutôt être une fierté d'arriver a faire des SCALP ou des cannons César ou l'un des meilleur avion du monde le rafale.
    j'ai il y'a longtemps bosser chez Dassault (sur la camera d'un drone), c'est plutôt cool qu'une boite arrive a faire de l'industrie lourde et de pointe en France et crée des milliers d'emplois.

    La France sait encore faire quelque chose de complexe et de qualité donc oui j'en suis fier. Je suis souvent négatif sur l'avenir en france, donc quand c'est possible faut trouver des bonne noiuvelle, a l'image de Marc Touati et de sa bonne nouvelle en fin de video.

  18. #18
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 072
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 072
    Par défaut ouroboros
    La situation est pénible. Les LLM donnent des réponses médiocres ou fausses. Les sites perso se sont raréfiés et ne sont pas valorisés par les moteurs.
    Les sites bien référencés sont quasiment des fermes de contenu pourris de texte de LLM.
    Quand copilot dit quelque chose d'étrange, parfois il peut donner des sources qui s'avèrent être du mauvais contenu généré par lui-même dans un site-ferme. Les modèles sont déjà empoisonnés.

  19. #19
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 998
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 998
    Par défaut Les contenus générés par l'IA sont généralement légèrement plus performants que ceux créés par l'homme
    Les contenus générés par l'IA peuvent se classer sur Google et sont généralement un peu plus performants que ceux créés par l'homme, le nombre de faux articles générés par l'IA a augmenté de plus de 1000 %

    Une étude de Semrush a révélé des différences minimes dans le classement de Google entre le contenu généré par l'intelligence artificielle (IA) et le contenu créé par l'homme. De manière surprenante, les contenus créés par l'IA sont en général légèrement plus performants que ceux créés par un être humain. Les résultats de l'étude soulignent le rôle croissant de l'IA dans la création de contenu, ainsi que l'impact de cette technologie sur les stratégies de référencement et de contenu.

    L'importance croissante des contenus générés par l'IA s'inscrit dans une tendance plus large qui transforme l'édition numérique. Selon Nina Schick, consultante et confériencière en IA, jusqu'à 90 % du contenu en ligne pourrait être généré par l'IA au cours des prochaines années. Avec des plateformes comme ChatGPT et une gamme croissante d'outils alimentés par l'IA, la conférencière estime que l'IA générative pourrait complétement réorganiser la façon dont le contenu numérique est développé.

    La récente étude de Semrush a analysé 20 000 articles et interrogé plus de 700 spécialistes du marketing pour savoir si le contenu généré par l'IA se classe ou non sur Google. Les résultats de l'analyse ont montré que le contenu généré par l'IA peut être classé sur Google et qu'il est généralement un peu plus performant que le contenu créé par l'homme.

    L'analyse a montré que sur les dix articles les mieux classés sur Google, 57 % étaient générés par l'IA, tandis que 58 % étaient créés par l'homme. Le contenu humain a fait 2,1 % de mieux que le contenu généré par l'IA en ce qui concerne le classement dans les premières positions. Dans les trois premières positions, le contenu humain a fait 6,2 % de mieux et 4,6 % de mieux dans les cinq premières positions. Dans les dix premiers classements, il n'y avait qu'une différence de 1 % entre le contenu créé par l'homme et le contenu généré par l'IA.

    Nom : AI content Google fig 1.PNG
Affichages : 6859
Taille : 48,1 Ko

    Les utilisateurs ont également été interrogés afin qu'ils puissent faire part de leur expérience en ce qui concerne le classement de leurs pages dans les recherches Google. 31 % d'entre eux ont déclaré que leur classement était le même pour les contenus générés par l'homme et ceux générés par l'IA, tandis que 27 % n'en étaient pas sûrs.

    Cependant, 23 % d'entre eux ont déclaré que leur contenu généré par l'IA était plus performant que le contenu rédigé par des humains, tandis que 10 % ont affirmé que leur contenu était beaucoup plus performant en matière de classement dans les moteurs de recherche. En revanche, seulement 9 % des personnes interrogées ont déclaré que leur contenu généré par l'IA était moins performant que le contenu rédigé par un être humain.

    30 % des personnes interrogées dans le cadre de l'étude de Semrush ont déclaré n'avoir constaté aucun changement notable dans leur trafic organique après avoir publié du contenu généré par l'IA, tandis que 39 % ont constaté une augmentation de leur trafic. Seuls 4,8 % des répondants ont déclaré avoir constaté une baisse de leur trafic après avoir publié du contenu d'IA.

    Nom : AI content Google fig 3.PNG
Affichages : 1424
Taille : 68,7 Ko

    Par ailleurs, 68 % des personnes interrogées ont déclaré que l'IA les aidait à créer du contenu plus rapidement, ce qui leur permettait d'améliorer le référencement et le retour sur investissement du contenu, et 57 % ont déclaré qu'elle leur permettait de gagner du temps afin de pouvoir l'utiliser à d'autres fins.

    Le contenu généré par l'IA leur permet également d'économiser de l'argent sur la rédaction et l'édition (48 %) et de générer plus d'engagement avec le contenu (34 %). Cela signifie que l'IA peut être utilisée pour générer du contenu à condition qu'il soit de haute qualité et c'est ce qui lui permet de se classer par rapport au contenu écrit par des humains.

    39 % des personnes interrogées ont déclaré qu'elles combinaient du contenu rédigé par des humains et du contenu généré par l'IA pour leur site web, tandis que 34 % rédigent le contenu elles-mêmes et n'utilisent l'IA que pour l'assister. 5 % n'utilisent que du contenu généré par l'IA, tandis que 18 % n'utilisent pas du tout l'IA.

    Nom : AI content Google fig 4.PNG
Affichages : 1418
Taille : 78,2 Ko

    Lorsqu'on leur demande comment ils intègrent l'IA dans la création de contenu, 62 % des répondants déclarent l'utiliser pour la recherche de sujets et la génération d'idées, 51 % pour l'édition et la réécriture, l'optimisation du contenu pour le référencement et la génération de plans de contenu. Les articles longs et les billets de blog (70 %), les méta-descriptions (55 %) et les descriptions de produits (42 %).

    Les spécialistes du marketing utilisent l'IA pour rendre leur contenu plus attrayant, intéressant et lisible pour les utilisateurs en faisant appel à des rédacteurs humains pour affiner le contenu généré par l'IA (69 %), en humanisant le contenu généré par l'IA (60 %) et en n'utilisant l'IA que pour créer le projet initial et ajouter ensuite du contenu (48 %).

    Nom : AI content Google fig 7.PNG
Affichages : 1423
Taille : 103,5 Ko

    Lorsque l'on demande aux spécialistes du marketing comment ils rendent leur contenu plus original et axé sur l'expertise, ils répondent en menant des recherches originales (55 %), en ajoutant des statistiques utiles au contenu (53 %) et en partageant des expériences personnelles dans le contenu (49 %).

    Alors que les contenus générés par l'IA gagnent progressivement du terrain, les inquiétudes concernant la désinformation en ligne s'intensifient également. Une étude réalisée par Newsguard a en effet révélé que le nombre de sites web hébergeant de faux articles générés par l'IA a bondi de 1 150 % entre avril et décembre 2023, avec une augmentation mensuelle de plus de 143 %. La prolifération rapide de ce type de contenu soulève des questions sur l'authenticité, la responsabilité et l'avenir de l'information sur internet.

    Source : Etude de Semrush

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous les conclusions de cette étude de Semrush crédibles ou pertinentes ?

    Voir aussi :

    Le web de plus en plus pollué par l'IA : plus de la moitié des publications longues de LinkedIn sont générées par l'IA, et le contenu de l'IA sur LinkedIn a augmenté de 189 % après la sortie de ChatGPT

    Le contenu en ligne généré par des non-humains dépassera largement celui produit par des humains d'ici 2026, d'après des études qui tirent la sonnette d'alarme sur la désinformation due à l'IA

    Google estime que le contenu généré automatiquement par une IA est contraire à ses directives aux webmasters et est considéré comme du spam
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  20. #20
    Membre éclairé
    Avatar de yoyo3d
    Homme Profil pro
    Administratif
    Inscrit en
    Avril 2002
    Messages
    423
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Administratif
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : Avril 2002
    Messages : 423
    Par défaut
    que les articles "IA" soient plus pertinents ou efficaces que ceux créés par l'homme, ce n'est pas le problème, par contre j'aimerais le savoir et pouvoir faire le tri rapidement avec un filtre ou un logo car aujourd,hui, il n'est déja plus vraiment possible de faire la différence.... donc comment sourcer et crédibiliser un argument si l'article sur lequel je me suis basé provient d'une IA "polluée"

    mais soyons claire, c'est comme le nutriscore, personne ne souhaite afficher sa production avec un logo IA "nutriscore E"

Discussions similaires

  1. Réponses: 6
    Dernier message: 03/11/2022, 11h29
  2. Réponses: 0
    Dernier message: 22/08/2016, 06h14
  3. Android 5.0 : Dalvik pourrait être remplacé par ART
    Par Hinault Romaric dans le forum Android
    Réponses: 4
    Dernier message: 20/06/2014, 15h29
  4. Réponses: 5
    Dernier message: 01/02/2013, 10h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo