Des évaluations par les pairs entièrement redigées par l’IA inondent une conférence dédiée à ladite technologie
L’utilisation de l’IA dans la rédaction des contenus scientifiques divise les chercheurs
La plus grande conférence mondiale sur l'apprentissage automatique et l'IA a été inondée d'exemples d'universitaires utilisant du contenu généré par l'IA pour leurs évaluations par les pairs, tandis que de nombreux articles soumis étaient également partiellement, voire entièrement, générés par l'IA, selon un récent rapport. L’utilisation de l’IA dans la rédaction des contenus scientifiques divise les chercheurs. L'International Conference on Machine Learning (ICML) a déjà pris position sur le sujet et a banni l’utilisation de ChatGPT et de tous les outils similaires pour la rédaction d’articles universitaires.
Dans le milieu universitaire, les travaux publiés dans des revues réputées ou présentés lors de grandes conférences sont généralement soumis à un « examen par les pairs », ce qui signifie que des chercheurs du même domaine évaluent la qualité et la rigueur de l'article. Mais à l'approche de la L'International Conference on Learning Representations (ICLR) de 2026, qui devrait accueillir environ 11 000 chercheurs en IA au Brésil, 21 % des évaluations par les pairs de l'ICLR auraient été entièrement générées par l'IA, et plus de la moitié présentaient des signes d'utilisation de l'intelligence artificielle.
Cette analyse est de Panagram, une startup américaine qui fournit des outils permettant de détecter les textes générés par l'IA. Panagram a examiné l'ensemble des 19 490 études et 75 800 évaluations par les pairs soumises à l'ICLR 2026. Ces chiffres proviennent uniquement de Panagram et n'ont pas encore été vérifiés de manière indépendante.
Graham Neubig, chercheur en intelligence artificielle à l'université Carnegie Mellon, a commencé à avoir des soupçons après avoir reçu ce qui semblait être une évaluation par les pairs générée par une IA, ce qui l'a incité à faire appel à la start-up pour mener l'enquête en la contactant sur les réseaux sociaux.
ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires, selon l’ICMLICLR authors, want to check if your reviews are likely AI generated?
— Graham Neubig (@gneubig) November 15, 2025
ICLR reviewers, want to check if your paper is likely AI generated?
Here are AI detection results for every ICLR paper and review from @pangramlabs!
It seems that ~21% of reviews may be AI? pic.twitter.com/GztpO9Vv7x
C’est la position de l'International Conference on Machine Learning (ICML) sur le sujet : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article. »
Selon l'ICML, la montée en puissance de modèles de langage d'intelligence artificielel accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».
Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a eu à bloquer l'accès à l'outil pour toute personne sur son réseau.
En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.
Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?
Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.
« Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en faveur des locuteurs natifs », explique Goldberg. « En utilisant des outils comme ChatGPT pour aider à exprimer leurs idées, il semble que de nombreux locuteurs non natifs pensent qu'ils peuvent "uniformiser les règles du jeu" sur ces questions ». a estimé Goldberg. Ce dernier est persuadé que « de tels outils peuvent aider les chercheurs à gagner du temps, ainsi qu'à mieux communiquer avec leurs pairs ».
Mais les outils d'écriture d'IA sont également qualitativement différents des logiciels plus simples comme Grammarly. Deb Raji, chercheuse en intelligence artificielle à la Fondation Mozilla, a déclaré qu'il était logique que l'ICML introduise une politique spécifiquement destinée à ces systèmes. Comme Goldberg, elle a déclaré avoir entendu des anglophones non natifs dire que de tels outils peuvent être « incroyablement utiles » pour la rédaction d'articles, et a ajouté que les modèles linguistiques ont le potentiel d'apporter des modifications plus radicales au texte.
« Je vois les LLM comme tout à fait distincts de quelque chose comme la correction automatique ou la grammaire, qui sont des outils correctifs et éducatifs », a déclaré Raji. « Bien qu'ils puissent être utilisés à cette fin, les LLM ne sont pas explicitement conçus pour ajuster la structure et la langue du texte déjà écrit - ils ont également d'autres capacités plus problématiques, telles que la génération de nouveaux textes et de spam ».
Goldberg a déclaré que même s'il pensait qu'il était certainement possible pour les universitaires de générer des articles entièrement à l'aide de l'IA, « ils sont très peu incités à le faire ». « En fin de compte, les auteurs signent sur le papier et ont une réputation à tenir », a-t-il déclaré. « Même si le faux article passe d'une manière ou d'une autre par un examen par les pairs, toute déclaration incorrecte sera associée à l'auteur et restera avec lui pendant toute sa carrière ».
Ce point est particulièrement important étant donné qu'il n'existe aucun moyen totalement fiable de détecter le texte généré par l'IA. Même l'ICML note qu'une détection infaillible est « difficile » et que la conférence n'appliquera pas son interdiction de manière proactive en exécutant les soumissions via un logiciel de détection. Au lieu de cela, elle n'enquêtera que sur les soumissions qui ont été signalées par d'autres universitaires comme suspectes.
En d'autres termes : en réponse à l'essor des technologies perturbatrices et nouvelles, les organisateurs s'appuient sur des mécanismes sociaux traditionnels pour faire respecter les normes académiques. L'IA peut être utilisée pour peaufiner, éditer ou écrire du texte, mais il appartiendra toujours aux humains d'évaluer sa valeur.
Et vous ?
Que pensez-vous de la décision de certaines organisations de bannir l'utilisation de chatGPT et des outils similaires ?
Que pensez-vous des propos des experts dans le domaine de l'IA qui voient en de tels outils une opportunité pour leurs pairs qui ne sont pas anglophones natifs de mieux présenter leurs idées ?
D'une manière plus générale, que pensez-vous des outils comme chatGPT ? En avez-vous déjà essayé un ?
Si oui, lequel et qu'en avez-vous pensé ? Si non, aimeriez-vous en essayer un ?







Que pensez-vous de la décision de certaines organisations de bannir l'utilisation de chatGPT et des outils similaires ?
Répondre avec citation





Partager