D'accord.
Vous pourriez lire les paroles de cette chanson alors :
Il y a des crimes dont on parle plus que d'autres.
Il y a comme une hiérarchie et ce n'est pas normal.
Par exemple on ne parle pas beaucoup du génocide des natifs amérindiens ou du génocide des aborigènes d'Australie.
Aujourd'hui des gens se disent "tiens c'est bizarre on ne parle pas beaucoup du génocide des palestiniens".
Les contenus générés par l'IA peuvent se classer sur Google et sont généralement un peu plus performants que ceux créés par l'homme, le nombre de faux articles générés par l'IA a augmenté de plus de 1000 %
Une étude de Semrush a révélé des différences minimes dans le classement de Google entre le contenu généré par l'intelligence artificielle (IA) et le contenu créé par l'homme. De manière surprenante, les contenus créés par l'IA sont en général légèrement plus performants que ceux créés par un être humain. Les résultats de l'étude soulignent le rôle croissant de l'IA dans la création de contenu, ainsi que l'impact de cette technologie sur les stratégies de référencement et de contenu.
L'importance croissante des contenus générés par l'IA s'inscrit dans une tendance plus large qui transforme l'édition numérique. Selon Nina Schick, consultante et confériencière en IA, jusqu'à 90 % du contenu en ligne pourrait être généré par l'IA au cours des prochaines années. Avec des plateformes comme ChatGPT et une gamme croissante d'outils alimentés par l'IA, la conférencière estime que l'IA générative pourrait complétement réorganiser la façon dont le contenu numérique est développé.
La récente étude de Semrush a analysé 20 000 articles et interrogé plus de 700 spécialistes du marketing pour savoir si le contenu généré par l'IA se classe ou non sur Google. Les résultats de l'analyse ont montré que le contenu généré par l'IA peut être classé sur Google et qu'il est généralement un peu plus performant que le contenu créé par l'homme.
L'analyse a montré que sur les dix articles les mieux classés sur Google, 57 % étaient générés par l'IA, tandis que 58 % étaient créés par l'homme. Le contenu humain a fait 2,1 % de mieux que le contenu généré par l'IA en ce qui concerne le classement dans les premières positions. Dans les trois premières positions, le contenu humain a fait 6,2 % de mieux et 4,6 % de mieux dans les cinq premières positions. Dans les dix premiers classements, il n'y avait qu'une différence de 1 % entre le contenu créé par l'homme et le contenu généré par l'IA.
Les utilisateurs ont également été interrogés afin qu'ils puissent faire part de leur expérience en ce qui concerne le classement de leurs pages dans les recherches Google. 31 % d'entre eux ont déclaré que leur classement était le même pour les contenus générés par l'homme et ceux générés par l'IA, tandis que 27 % n'en étaient pas sûrs.
Cependant, 23 % d'entre eux ont déclaré que leur contenu généré par l'IA était plus performant que le contenu rédigé par des humains, tandis que 10 % ont affirmé que leur contenu était beaucoup plus performant en matière de classement dans les moteurs de recherche. En revanche, seulement 9 % des personnes interrogées ont déclaré que leur contenu généré par l'IA était moins performant que le contenu rédigé par un être humain.
30 % des personnes interrogées dans le cadre de l'étude de Semrush ont déclaré n'avoir constaté aucun changement notable dans leur trafic organique après avoir publié du contenu généré par l'IA, tandis que 39 % ont constaté une augmentation de leur trafic. Seuls 4,8 % des répondants ont déclaré avoir constaté une baisse de leur trafic après avoir publié du contenu d'IA.
Par ailleurs, 68 % des personnes interrogées ont déclaré que l'IA les aidait à créer du contenu plus rapidement, ce qui leur permettait d'améliorer le référencement et le retour sur investissement du contenu, et 57 % ont déclaré qu'elle leur permettait de gagner du temps afin de pouvoir l'utiliser à d'autres fins.
Le contenu généré par l'IA leur permet également d'économiser de l'argent sur la rédaction et l'édition (48 %) et de générer plus d'engagement avec le contenu (34 %). Cela signifie que l'IA peut être utilisée pour générer du contenu à condition qu'il soit de haute qualité et c'est ce qui lui permet de se classer par rapport au contenu écrit par des humains.
39 % des personnes interrogées ont déclaré qu'elles combinaient du contenu rédigé par des humains et du contenu généré par l'IA pour leur site web, tandis que 34 % rédigent le contenu elles-mêmes et n'utilisent l'IA que pour l'assister. 5 % n'utilisent que du contenu généré par l'IA, tandis que 18 % n'utilisent pas du tout l'IA.
Lorsqu'on leur demande comment ils intègrent l'IA dans la création de contenu, 62 % des répondants déclarent l'utiliser pour la recherche de sujets et la génération d'idées, 51 % pour l'édition et la réécriture, l'optimisation du contenu pour le référencement et la génération de plans de contenu. Les articles longs et les billets de blog (70 %), les méta-descriptions (55 %) et les descriptions de produits (42 %).
Les spécialistes du marketing utilisent l'IA pour rendre leur contenu plus attrayant, intéressant et lisible pour les utilisateurs en faisant appel à des rédacteurs humains pour affiner le contenu généré par l'IA (69 %), en humanisant le contenu généré par l'IA (60 %) et en n'utilisant l'IA que pour créer le projet initial et ajouter ensuite du contenu (48 %).
Lorsque l'on demande aux spécialistes du marketing comment ils rendent leur contenu plus original et axé sur l'expertise, ils répondent en menant des recherches originales (55 %), en ajoutant des statistiques utiles au contenu (53 %) et en partageant des expériences personnelles dans le contenu (49 %).
Alors que les contenus générés par l'IA gagnent progressivement du terrain, les inquiétudes concernant la désinformation en ligne s'intensifient également. Une étude réalisée par Newsguard a en effet révélé que le nombre de sites web hébergeant de faux articles générés par l'IA a bondi de 1 150 % entre avril et décembre 2023, avec une augmentation mensuelle de plus de 143 %. La prolifération rapide de ce type de contenu soulève des questions sur l'authenticité, la responsabilité et l'avenir de l'information sur internet.
Source : Etude de Semrush
Et vous ?
Quelle lecture faites-vous de cette situation ?
Trouvez-vous les conclusions de cette étude de Semrush crédibles ou pertinentes ?
Voir aussi :
Le web de plus en plus pollué par l'IA : plus de la moitié des publications longues de LinkedIn sont générées par l'IA, et le contenu de l'IA sur LinkedIn a augmenté de 189 % après la sortie de ChatGPT
Le contenu en ligne généré par des non-humains dépassera largement celui produit par des humains d'ici 2026, d'après des études qui tirent la sonnette d'alarme sur la désinformation due à l'IA
Google estime que le contenu généré automatiquement par une IA est contraire à ses directives aux webmasters et est considéré comme du spam
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
que les articles "IA" soient plus pertinents ou efficaces que ceux créés par l'homme, ce n'est pas le problème, par contre j'aimerais le savoir et pouvoir faire le tri rapidement avec un filtre ou un logo car aujourd,hui, il n'est déja plus vraiment possible de faire la différence.... donc comment sourcer et crédibiliser un argument si l'article sur lequel je me suis basé provient d'une IA "polluée"
mais soyons claire, c'est comme le nutriscore, personne ne souhaite afficher sa production avec un logo IA "nutriscore E"
Donc, grâce à l'IA, nous allons perdre un temps fou. En effet, avant, on faisait une recherche et on regardait les réponses, en sélectionnant celles qui nous paraissaient correspondre le mieux à notre recherche.
Maintenant, on va faire une recherche, puis il va falloir scruter chaque réponse pour tenter d'éliminer celles qui sont produites par IA (et qui sont potentiellement des conneries) de celles produites par des humains, puis alors, sélectionner celles qui nous paraitront correspondre le mieux.
Merci l'IA (de merde)...![]()
La Chine rend obligatoire l'étiquetage des contenus générés par l'IA pour lutter contre la désinformation et la fraude en ligne
mais les experts expriment des réserves quant à l'efficacité de cette approche
Les autorités chinoises ont publié de nouvelles directives exigeant l'apposition d'étiquettes sur tous les contenus générés par l'IA et diffusés en ligne. L'initiative vise à lutter contre l'utilisation abusive de l'IA et la diffusion d'infox. Les directives stipulent que le contenu généré ou synthétisé à l'aide des systèmes d'IA, y compris les textes, les images, les audios, les vidéos et les scènes virtuelles, doit être étiqueté de manière visible et invisible. Les contenus générés par l'IA déferlent la toile. Les autorités chinoises espèrent que les nouvelles règles, qui entreront en vigueur le 1er septembre 2025, contribueront à « promouvoir le développement sain de l'IA ».
La Chine rend obligatoire l'étiquetage de tout type de contenu généré par l'IA
En 2024, des rapports ont confirmé que les contenus générés par l'IA sont de plus en plus présents sur Internet. Des experts s'attendent à ce qu'une bonne partie des contenus en ligne soient générés par l'IA d'ici la fin de l'année 2025. « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle », a déclaré Nina Schick, conseillère et conférencière en IA, au début de l'année 2023.
Dans ce contexte, la Chine avait envisagé d'exiger l'apposition d'étiquettes sur tous les contenus générés par l'IA et diffusés en ligne, car la technologie pose de nouveaux défis. C'est désormais chose faite. La nouvelle réglementation chinoise est prévue pour entrer en vigueur le 1er septembre 2025.
La réglementation a été publiée conjointement par l'Administration du cyberespace de Chine (CAC), le ministère chinois de l'Industrie et des Technologies de l'information, le ministère chinois de la Sécurité publique et l'Administration nationale de la radio et de la télévision (NRTA).
Les directives stipulent que « le contenu généré ou synthétisé à l'aide de technologies d'IA - y compris les textes, les images, les audios, les vidéos et les scènes virtuelles - doit être étiqueté de manière visible et invisible ». Pour les contenus générés par des technologies de synthèse profonde susceptibles de confondre ou d'induire le public en erreur, des étiquettes explicites doivent être placées à un endroit raisonnable pour que le public en soit conscient.
Un porte-parole de l'administration du cyberespace a déclaré que « la nouvelle réglementation vise à mettre un terme à l'utilisation abusive des technologies d'IA de génération de contenu et à la diffusion d'infox ». Des règles similaires sont également à l'étude en Europe et aux États-Unis.
Étiquette visible et invisible : comment cela va-t-il se passer dans la pratique ?
Les étiquettes explicites doivent être clairement visibles pour les utilisateurs, tandis que les étiquettes implicites, comme les filigranes numériques, doivent être intégrées dans les métadonnées. Plus de détails sont attendus dans les mois à venir. En attendant, la réglementation stipule que les étiquettes implicites doivent inclure des détails sur les attributs du contenu, le nom ou le code du fournisseur de services et les numéros d'identification du contenu.
Les fournisseurs de services en ligne proposant des plateformes de génération de contenu doivent également veiller à respecter les règles chinoises en matière de cybersécurité et de gestion de la synthèse profonde. Les plateformes doivent vérifier les contenus générés par l'IA avant de les mettre en ligne.
Elles doivent ajouter des étiquettes si nécessaire. Si les métadonnées ne comportent pas de marqueurs d'IA, mais que le contenu présente des signes de génération par l'IA, il faut le signaler en conséquence. Les distributeurs d'application doivent évaluer les caractéristiques liées à l'IA avant d'approuver les services.
Le gouvernement espagnol a approuvé un projet de loi qui prévoit d'imposer des amendes massives aux entreprises qui utilisent des contenus générés par l'IA sans les étiqueter correctement comme tels. La réglementation vise à freiner la diffusion des deepfakes nuisibles.
les utilisateurs doivent déclarer lorsqu'ils publient des contenus générés par l'IA
Selon la nouvelle réglementation chinoise sur l'IA, les utilisateurs qui publient du contenu généré par l'IA doivent le déclarer, tandis que les fournisseurs de services sont tenus d'en conserver une trace pendant au moins six mois. La suppression, la modification ou la dissimulation des étiquettes sur le contenu généré par l'IA sont strictement interdites, et des sanctions sont prévues en cas de non-respect de ces règles. Peu de détails ont fuité à ce sujet.
Cette réglementation reflète la surveillance accrue de l'IA par Pékin, qui s'inquiète de plus en plus de la désinformation, de la violation des droits d'auteur et de la fraude en ligne. La dernière directive des régulateurs chinois s'appuie sur les règles existantes régissant la technologie de synthèse profonde (deepfake) et les recommandations algorithmiques, renforçant ainsi la surveillance gouvernementale des contenus générés par des systèmes d'IA.
Parmi les principaux objectifs de cette année figurent un contrôle rigoureux du contenu généré par l'IA, une application stricte de l'étiquetage obligatoire et des sanctions à l'encontre de ceux qui utilisent l'IA pour diffuser des infox ou manipuler l'opinion publique, notamment via des commentateurs en ligne rémunérés. Ces influenceurs sont également appelés « armées de l'eau », en référence à leur capacité à inonder le Web de messages coordonnés.
Parmi les autres priorités du gouvernement chinois figurent la répression du marketing trompeur sur les plateformes de vidéos courtes, la lutte contre la désinformation par les influenceurs des médias sociaux et le renforcement des protections en ligne pour les utilisateurs mineurs.
L'étiquetage est-il la solution optimale ? Il souffre de nombreuses limites
Le soutien à l'étiquetage obligatoire du contenu généré par l'IA s'est accru en Chine. La montée en puissance des modèles d'IA développés au niveau national, tels que ceux de DeepSeek et du laboratoire Qwen AI d'Alibaba, ainsi que de Manus, l'agent d'IA de la startup Butterfly Effect, a intensifié les discussions sur la réglementation. Les gouvernements du monde entier ont pris des mesures rapides dans le but de réglementer les contenus générés par l'IA.
La nouvelle loi sur l'IA de l'Union européenne (EU AI Act) impose un étiquetage clair assorti d'exigences de traçabilité, tandis que les États-Unis travaillent à l'élaboration de lignes directrices pour l'étiquetage et la détection des contenus générés par l'IA. Elle est entrée en vigueur en août dernier.
La Grande-Bretagne, quant à elle, a présenté un projet de loi proposant la création d'une autorité de régulation de l'IA et la consécration de la transparence et de la conformité. Dans les forums de discussions, les utilisateurs appellent également à une norme internationale et open source en la matière.
Mais selon certains experts, l'étiquetage seul peut ne pas être suffisant. Par exemple, ils notent également que l'application de la loi présente des difficultés. Les applications d'IA en temps réel, telles que la diffusion en direct et les appels vocaux, sont particulièrement difficiles à réglementer, car l'ajout d'étiquettes sans perturber la vitesse et la qualité pose des problèmes techniques. Selon les experts, l'étiquetage des contenus n'est pas la solution optimale.
En décembre 2024, le groupe de réflexion Information Technology and Innovation Foundation, basé à Washington, a soulevé des préoccupations similaires. Son rapport met en évidence les principales faiblesses du filigrane, des empreintes numériques et des métadonnées chiffrées, qui peuvent tous être facilement supprimés ou invalidés par des modifications. La vérification entre plateformes reste également incohérente, ce qui rend la détection peu fiable.
D'autres affirment que l'étiquetage seul ne peut pas faire grand-chose pour enrayer la désinformation ou garantir la responsabilité. Les violations de la propriété intellectuelle persistent, et une confiance excessive dans l'étiquetage peut entraîner des préjugés à l'encontre des contenus générés par des machines.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'étiquetage obligatoire des contenus générés par l'IA ?
Selon vous, la réglementation chinoise est-elle pertinente ? Peut-elle atteindre ces objectifs ?
Que pensez-vous des limites de l'étiquetage ? Peut-il être renforcé ? Quelle alternative s'offre à l'industrie ?
Voir aussi
La Chine veut exiger des plateformes et des fournisseurs de services en ligne qu'ils apposent un logo visible sur tout le matériel généré par l'IA et qu'ils intègrent des métadonnées dans les fichiers concernés
L'Espagne va imposer des amendes massives pour non-étiquetage des contenus générés par l'IA, avec des amendes pouvant aller jusqu'à 35 millions € ou 7 % du chiffre d'affaires annuel mondial des entreprises
90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »
La Chine qui lutte contre la "désinformation" ... Il y a la bonne et la mauvaise lutte contre la désinformation![]()
car c'est bien connu, la seule information vrai, c'est celle que donne l'union européenne est ces états membres tels que le gouvernement francais et la bonne parole transmise par bfm/lci.
C'est marrant, la ou je suis, les nouvelle que me proviennent d'europe (CNA, The Straits Times) sont radicalement différente de ce que la presse française raconte (france info), en particulier sur Donald Trump, la guerre en ukraine et la situation économique européenne.
Partager