IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 908
    Par défaut Un plugin utilise les critères de Wikipedia pour rendre les textes générés impossibles à repérer
    Les bénévoles de Wikipédia ont passé des années à répertorier les indices révélateurs de l'écriture générée par IA,
    un plugin s'en sert comme manuel pour les dissimuler

    À force de vouloir distinguer l’écriture humaine de la production automatisée, le web est peut-être en train de provoquer l’effet inverse. Un nouveau plugin d’aide à la rédaction s’appuie sur les règles internes utilisées par Wikipedia pour repérer les textes générés par intelligence artificielle, afin… d’aider l’IA à mieux imiter l’humain. Présentée comme une amélioration stylistique, cette approche soulève un débat de fond sur la nature même de l’écriture, la pertinence des outils de détection et l’avenir de la confiance éditoriale en ligne.

    Depuis plusieurs années, la lutte contre les contenus générés automatiquement est un sujet central pour les plateformes collaboratives. C'est dans ce contexte d'ailleurs qu'un détecteur de contenu généré par IA et présenté comme étant « le plus avancé et fiable » a conclu que la Bible a été écrite par une IA.

    Si Sean Goedecke a récemment indiqué que les outils de détection de l'IA ne peuvent pas prouver qu'un texte a été généré par l'IA, cela n'empêche pas les tentatives de solution.

    Wikipedia, dont le modèle repose sur la contribution humaine et la vérifiabilité, a progressivement affiné des règles empiriques permettant d’identifier les textes jugés trop « mécaniques ». Il ne s’agit pas d’un simple détecteur statistique, mais d’un ensemble de signaux rédactionnels : structure trop lisse, absence de nuances, formulations génériques, transitions artificielles ou encore surabondance de phrases explicatives sans point de vue clair.

    Le plugin dont il est question détourne cette logique. Plutôt que d’utiliser ces critères pour bloquer ou supprimer un texte, il les intègre directement dans le processus de génération. L’objectif est clair : produire des phrases qui évitent précisément les travers associés à l’écriture automatique, en introduisant des aspérités stylistiques, des variations de rythme et une forme de narration plus organique.

    Nom : zero.png
Affichages : 6303
Taille : 153,7 Ko

    Une approche technique fondée sur les « anti-patterns » de l’IA

    Samedi, l'entrepreneur technologique Siqi Chen a publié un plugin open source pour l'assistant IA Claude Code d'Anthropic qui demande au modèle IA d'arrêter d'écrire comme un modèle IA. Baptisé « Humanizer », ce plugin simple fournit à Claude une liste de 24 modèles linguistiques et de formatage que les éditeurs de Wikipédia ont répertoriés comme des indices révélateurs des chatbots. Chen a publié le plugin sur GitHub, où il a recueilli plus de 1 600 étoiles lundi.

    « C'est vraiment pratique que Wikipédia ait compilé une liste détaillée des "signes d'écriture IA" », a écrit Chen sur X. « À tel point que vous pouvez simplement dire à votre LLM de... ne pas le faire. »

    La source est un guide du WikiProject AI Cleanup, un groupe d'éditeurs Wikipédia qui traquent les articles générés par l'IA depuis fin 2023. L'éditeur Wikipédia français Ilyas Lebleu a fondé le projet. Les bénévoles ont marqué plus de 500 articles à examiner et, en août 2025, ont publié une liste officielle des modèles qu'ils continuaient à voir.

    Nom : human.png
Affichages : 1189
Taille : 56,5 Ko

    D’un point de vue technique, le fonctionnement du plugin repose sur un principe relativement simple mais redoutablement efficace. Les règles de détection de Wikipedia sont traduites en contraintes inversées. Là où un texte IA est souvent trop équilibré, le modèle est encouragé à introduire des irrégularités. Là où les phrases sont trop prévisibles, des constructions moins attendues sont favorisées. Là où le ton aest neutre et encyclopédique, une légère subjectivité contrôlée peut être injectée.

    Cette approche ne vise pas à tromper un algorithme unique, mais à s’aligner sur des standards éditoriaux humains éprouvés. En ce sens, le plugin agit davantage comme un coach stylistique que comme un simple filtre. Il rappelle que l’écriture humaine n’est pas seulement une question de grammaire correcte, mais de choix, d’intentions et parfois même d’imperfections assumées.

    Quand la détection devient une source d’inspiration

    Il faut reconnaître au projet une certaine cohérence intellectuelle. Les règles de détection mises au point par Wikipedia ne sont pas des algorithmes opaques, mais le fruit d’années de modération humaine. Elles décrivent ce qui, dans un texte, « sonne faux » : une structure trop lisse, un ton excessivement neutre, une absence de point de vue, des transitions mécaniques ou une accumulation d’explications sans véritable intention narrative.

    En s’appuyant sur ces critères, le plugin ne cherche pas à améliorer la grammaire ou l’orthographe, déjà largement maîtrisées par les modèles de langage. Il vise un niveau plus élevé : le style, le rythme, la respiration du texte. D’un point de vue purement rédactionnel, l’idée peut apparaître vertueuse. Elle pousse l’IA à éviter les tics les plus évidents de l’écriture automatisée et à produire des contenus moins génériques, potentiellement plus agréables à lire.

    Pour certains usages professionnels — documentation interne, brouillons éditoriaux, supports pédagogiques — cette approche peut même être perçue comme un progrès. Elle rappelle que la qualité d’un texte ne se résume pas à l’exactitude factuelle, mais aussi à sa capacité à engager le lecteur.

    Une mise en abyme inquiétante pour la détection de l’IA

    Mais cette logique révèle rapidement ses limites. En utilisant les règles de détection comme guide de génération, le plugin illustre une dynamique bien connue : chaque mécanisme de contrôle devient une source d’optimisation pour ce qu’il cherche à encadrer. La frontière entre amélioration stylistique et contournement assumé devient alors extrêmement mince.

    Le problème n’est pas tant technique que conceptuel. Si les critères utilisés pour identifier un texte IA peuvent être systématiquement inversés, cela signifie que la détection basée sur le style est structurellement fragile. Elle repose sur des signaux mouvants, culturels, et donc imitable. À terme, la question n’est plus de savoir si un texte est détectable, mais si la détection elle-même a encore un sens opérationnel.

    Ce glissement fragilise les plateformes qui fondent leur crédibilité sur la contribution humaine. Il introduit une zone grise où des contenus peuvent respecter toutes les normes formelles de l’écriture humaine tout en étant produits sans intention, sans vécu et sans responsabilité directe.

    Les promesses réelles : une IA plus lisible, moins caricaturale

    Il serait cependant réducteur de rejeter en bloc ce type d’outil. En forçant les modèles à sortir de leurs automatismes, le plugin met en lumière une faiblesse réelle de l’IA générative actuelle : sa tendance à produire des textes corrects mais fades, informatifs mais interchangeables. En cela, l’intégration de règles issues de pratiques éditoriales humaines peut contribuer à relever le niveau moyen de lisibilité sur le web.

    Cette approche rappelle aussi une vérité souvent oubliée : beaucoup de contenus humains sont eux-mêmes formatés, répétitifs et peu incarnés. Si un outil pousse l’IA à écrire « moins comme une IA », il met indirectement en évidence ce qui fait encore la différence d’un bon auteur : le point de vue, la subjectivité assumée, la capacité à prendre un risque stylistique.

    Dans cette perspective, le plugin peut être vu comme un miroir tendu aux rédacteurs humains autant qu’aux machines.

    Les limites fondamentales : imitation sans intention, écriture sans responsabilité

    La critique la plus sérieuse reste toutefois celle de l’intention. Un texte humain n’est pas seulement une combinaison de structures et de variations stylistiques. Il est le produit d’un contexte, d’une expérience, parfois d’un doute ou d’une contradiction. En cherchant à reproduire ces signaux de surface, l’IA ne fait que simuler l’apparence de l’humanité, sans en partager les contraintes morales ou intellectuelles.

    Le risque est alors celui d’un web saturé de contenus « crédibles » mais creux, où la lisibilité masque l’absence de responsabilité. Qui répond d’un texte conçu pour paraître humain tout en étant généré à grande échelle ? Qui en assume les biais, les angles morts, ou les interprétations abusives ?

    En ce sens, ce plugin ne résout rien : il déplace simplement le problème. Il ne répond pas à la question de la transparence, mais la rend plus difficile à appliquer.

    Vers un changement de paradigme inévitable

    Ce débat révèle surtout une évolution profonde. La distinction entre écriture humaine et écriture artificielle devient de moins en moins pertinente techniquement, mais de plus en plus cruciale éthiquement. Si l’IA peut apprendre à écrire « comme un humain » en se basant sur des règles éditoriales existantes, alors le véritable enjeu n’est plus la détection, mais la déclaration et le cadre d’usage.

    Ce plugin n’est ni un scandale ni une révolution. Il est un symptôme. Celui d’un web où la forme tend à l’emporter sur l’origine, et où la question centrale n’est plus « qui a écrit ce texte ? », mais « pourquoi, et dans quel but ? ». À défaut d’y répondre collectivement, la frontière entre parole humaine et production automatisée risque de devenir, non pas floue, mais tout simplement invisible.

    Humanizer

    Sources : Siqui Chen, Claude support, guide de Wikipedia

    Et vous ?

    Qu'en pensez-vous ? Quelle lecture faites-vous de la situation ?

    Faut-il encore investir dans des outils de détection de textes générés par IA, alors que leurs propres règles servent désormais à entraîner des systèmes conçus pour les contourner, y compris à partir de référentiels issus de Wikipedia ?

    Peut-on réellement parler de transparence numérique si une IA est explicitement optimisée pour masquer son origine artificielle plutôt que pour la signaler clairement au lecteur ?

    Les plateformes éditoriales doivent-elles interdire par principe les contenus produits avec des outils cherchant à imiter l’écriture humaine, ou est-ce devenu une bataille perdue d’avance ?

    À partir de quel seuil un texte « sonnant humain » devient-il problématique : lorsqu’il trompe un lecteur, lorsqu’il influence une décision, ou seulement lorsqu’il diffuse une information erronée ?

    Le recours à ce type de plugin doit-il être considéré comme une simple aide à la rédaction, au même titre qu’un correcteur orthographique avancé, ou comme un outil de dissimulation technologique ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 419
    Par défaut
    Ce plugin n’est ni un scandale ni une révolution. Il est un symptôme. Celui d’un web où la forme tend à l’emporter sur l’origine, et où la question centrale n’est plus « qui a écrit ce texte ? », mais « pourquoi, et dans quel but ? ». À défaut d’y répondre collectivement, la frontière entre parole humaine et production automatisée risque de devenir, non pas floue, mais tout simplement invisible.
    Merci, belle conclusion (en espérant qu'elle a été écrite par un humain ;-).

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    168
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 168
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Merci, belle conclusion (en espérant qu'elle a été écrite par un humain ;-).
    Il n’y a pas de À ni de « » sur nos claviers AZERTY, c’est un premier indice même si ça ne prouve rien bien sûr.
    Un deuxième indice est l'utilisation massive de virgules. Bien sûr ça ne prouve toujours rien mais on peut se poser des questions quand les indices s'accumulent.

  4. #4
    Expert confirmé

    Inscrit en
    Août 2006
    Messages
    3 980
    Détails du profil
    Informations forums :
    Inscription : Août 2006
    Messages : 3 980
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Il n’y a pas de À ni de « » sur nos claviers AZERTY, c’est un premier indice même si ça ne prouve rien bien sûr.
    Un deuxième indice est l'utilisation massive de virgules. Bien sûr ça ne prouve toujours rien mais on peut se poser des questions quand les indices s'accumulent.
    Pas disponible directement, mais très facile à obtenir, donc pas du tout discriminant.
    Si les cons volaient, il ferait nuit à midi. :D

  5. #5
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 869
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 869
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Il n’y a pas de À ni de « » sur nos claviers AZERTY, c’est un premier indice même si ça ne prouve rien bien sûr.
    Un deuxième indice est l'utilisation massive de virgules. Bien sûr ça ne prouve toujours rien mais on peut se poser des questions quand les indices s'accumulent.
    "À" est accessible très facilement avec un bon pilote clavier. J'utilise le "clavier français latin9 style Xorg" et j'accède à "À" en utilisant les touches "AltGR + Shift + à".

Discussions similaires

  1. Réponses: 2
    Dernier message: 22/06/2022, 01h54
  2. Réponses: 21
    Dernier message: 01/03/2006, 17h51
  3. Peut-on utiliser les SGBDs libres pour construire un DWH ?
    Par daabos dans le forum Alimentation
    Réponses: 6
    Dernier message: 01/10/2004, 11h35
  4. Réponses: 7
    Dernier message: 07/09/2004, 15h16
  5. [Debutant] probleme pour utiliser les classes d'un .jar
    Par pissek dans le forum Eclipse Java
    Réponses: 3
    Dernier message: 12/05/2004, 19h21

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo