IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

« Je voudrais pousser ChatGPT du haut d'une falaise » : dans les amphis, des professeurs se battent


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 679
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 679
    Par défaut
    Citation Envoyé par shenron666 Voir le message
    Le vrai problème de l'IA vient des sources de données.
    Déjà il y a les données volées sans respect du droit d'auteur.
    Mais aussi les données non vérifiées voire les données fakes volontairement injectées pour corrompre l'IA, et on se retrouve avec un outil qui peut devenir comme un torchon médiatique où les informations pernnent plus de temps à être vérifiées qu'exploitées.
    Vous pouvez aussi ajouter à votre liste, les "correctifs" de l'IA apportés par leur créateur... Les exemples sont nombreux: A de multiples reprises des IA ont eu un comportement "déviant" en indiquant des informations délirantes du style "manger 5 fois par jour des cailloux, c'est bon pour la santé" ou en proposant le suicide comme solution à des utilisateurs... Autre cas avec Grok de Musk qui est une IA qui a tout simplement été réglée pour avoir un comportement orienté "extrême-droite".

    Combien d'utilisateurs réguliers de l'IA savent aujourd'hui que leur IA est en réalité un système qui n'a rien d'intelligent et dont les réponses peuvent avoir été manipulées???

  2. #2
    Membre Expert
    Avatar de shenron666
    Homme Profil pro
    avancé
    Inscrit en
    Avril 2005
    Messages
    2 618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : avancé

    Informations forums :
    Inscription : Avril 2005
    Messages : 2 618
    Par défaut
    Citation Envoyé par ring0 Voir le message
    La dernière fois qu'il m'en a parlé, Socrate m'a rappelé qu'il était mort en 400 AEC, alors que les livres sont arrivés 200 ans plus tard (voir Wikipedia). De quels livres parles-tu?
    commences par relire l'histoire de Socrate
    quant aux livres, ils étaient présent à l'époque de Socrate, et quitte à "voir Wikipedia", apprends à mettre des liens
    Tutoriels OpenGL
    Je ne répondrai à aucune question en MP
    - Si c'est simple tu dis que c'est compliqué et tu le fait
    - Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.

  3. #3
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 385
    Par défaut Les étudiants affluent vers une nouvelle spécialisation proposée par les universités : l’IA
    Les étudiants affluent vers une nouvelle spécialisation proposée par les universités : l’intelligence artificielle
    Pour laquelle certaines entreprises sont prêtes à rémunérer à hauteur du million de dollars

    De récentes données font état de ce que de plus en plus d’étudiants optent pour une spécialisation en intelligence artificielle. L’IA est désormais la deuxième spécialisation la plus étudiée au MIT après l'informatique. Un programme de l’université de San Diego se démarque car il prépare les étudiants en informatique à développer la prochaine génération de systèmes d'IA, à améliorer les fondements des systèmes d'IA en cours d’utilisation et à familiariser les étudiants avec les questions éthiques liées à ces systèmes et leur impact sur la société. C’est ce type même de spécialistes que recherchent certaines entreprises prêtes à rémunérer à hauteur du million de dollars par an.

    D'ici 2029, cette filière devrait compter 1000 étudiants inscrits. Les 200 premiers étudiants de premier cycle ont débuté leur cursus cet automne 2025. À la fin de leurs études, ces étudiants devraient avoir acquis la capacité d'intégrer des logiciels, du matériel informatique et des composants d'intelligence artificielle dans des systèmes informatiques, selon Minnes, membre du département d'informatique de l'université de Californie à San Diego et vice-présidente de l'enseignement de premier cycle au sein du département d'informatique et d'ingénierie de la Jacobs School.

    Les ingénieurs logiciels spécialisés en IA gagnent jusqu'à 100 000 $ de plus que leurs homologues non spécialisés en intelligence artificielle

    La course à l'IA a favorisé une hausse considérable de la demande mondiale pour les compétences en IA (apprentissage automatique, apprentissage profond, science des données, traitement du langage naturel…). Selon des études, la demande dépasse largement l'offre réelle et cela concerne à la fois les ingénieurs en IA et les chercheurs en IA. Sachant cela, les entreprises font parfois des offres très alléchantes pour s'assurer les services de meilleurs spécialistes de l'IA. Cette vulnérabilité des entreprises offre une aubaine rare aux talents en IA pour négocier des rémunérations à des sommets jamais atteints auparavant.

    De récentes données publiées par Levels.fyi, un site qui suit les tendances salariales, révèlent que les ingénieurs en IA peuvent prétendre à des rémunérations de plusieurs centaines de milliers de dollars aux États-Unis. En avril 2024, le salaire médian des ingénieurs logiciels avec des compétences en IA s'élevait à 300 000 $ aux États-Unis, un chiffre qui éclipse d'environ 100 000 $ les revenus de leurs homologues ne travaillant pas dans le domaine de l'IA. La disparité salariale entre les ingénieurs en IA et ceux qui ne le sont pas, qui était d'environ 30 % au milieu de l'année 2022, s'est aujourd'hui creusée à près de 50 %.

    Nom : 0.png
Affichages : 14131
Taille : 68,4 Ko

    Alina Kolesnikova, scientifique des données qui a compilé les données pour Levels.fyi, souligne que les organisations accordent une grande importance à l'expertise en IA, quel que soit le niveau de l'emploi. Cet écart de rémunération est encore plus flagrant dans certaines entreprises. Par exemple, Cruise, une entreprise spécialisée dans les voitures autonomes, rémunère ses ingénieurs en IA au niveau du personnel avec un salaire médian de 680 500 dollars, un chiffre qui dépasse de 185 500 dollars les revenus de leurs homologues ne travaillant pas dans le domaine de l'IA. Il y a également des rémunérations qui atteignent le million.

    Glassdoor estime que le salaire de base moyen d'un ingénieur en IA est de 108 043 $ par an aux États-Unis. En France, le salaire moyen d'un ingénieur spécialisé en IA serait d'environ 50 139 euros. Les analystes indiquent que ces chiffres sont nettement supérieurs au salaire annuel moyen de l'ensemble des professions dans ces pays. Les ingénieurs en IA collaborent généralement avec des scientifiques des données et d'autres parties prenantes, traduisant leurs stratégies axées sur les données en une application d'IA au niveau de la production. Voici d'autres exemples :

    • Allemagne : le salaire annuel d'un ingénieur en IA serait d'environ 84 574 euros ;
    • Royaume-Uni : un ingénieur en IA pourrait toucher un salaire moyen annuel pouvant aller jusqu'à 60 000 livres par an ;
    • Australie : le salaire d'un ingénieur en IA pourrait atteindre 110 000 dollars australiens par an ;
    • Singapour : le salaire annuel moyen d'un ingénieur en IA serait de 74 943 dollars singapouriens ;
    • Canada : le salaire annuel moyen d'un ingénieur en IA s'élèverait à plus de 85 000 dollars canadiens.

    Pour s'assurer les services des meilleurs talents en IA, les entreprises offrent des salaires lucratifs, qui peuvent parfois atteindre un million de dollars. « Il est clair que les entreprises apprécient les compétences en IA et sont prêtes à payer le prix fort pour les acquérir, quel que soit le niveau de l'emploi », a déclaré Kolesnikova. Elles acquièrent aussi des startups et débauchent les talents de leurs rivaux. En outre, elles investissent dans la formation de la prochaine vague de spécialistes l'IA. Les géants de la technologie tels que Google, Amazon, Meta et Microsoft se livrent une concurrence encore plus féroce.

    Ils séduisent les chercheurs et les ingénieurs en IA avec des salaires très élevés, des plans d'action et même des primes à la signature qui se chiffrent en millions. Leurs stratégies comprennent l'acquisition de startups prometteuses dans le domaine de l'IA, le débauchage de talents chez les concurrents et l'établissement de laboratoires de recherche sur l'IA dans des régions riches en talents.

    Nom : 1.png
Affichages : 4008
Taille : 63,8 Ko

    Microsoft, qui est réputée pour cultiver les talents en matière d'IA, a vu certains de ses professionnels de l'IA être recrutés par d'autres entreprises. Bien que les détails ne soient pas divulgués, il est évident que la demande d'expertise en matière d'IA monte en flèche et que les entreprises se donnent beaucoup de mal pour s'assurer les meilleurs talents. OpenAI, un partenaire clé de Microsoft et l'un des leaders de la course à l'IA, a récemment perdu de nombreux spécialistes de l'IA, notamment des chercheurs de renom en sécurité de l'IA comme Ilya Sutskever, cofondateur d'OpenAI et ancien directeur scientifique, et Jan Leike.

    Les grandes entreprises technologiques continuent à investir massivement dans le développement de nouvelles technologies d'IA, ce qui favorise la demande de recrues compétentes en matière d'IA. Cette demande croissante fait grimper les salaires dans l'ensemble du secteur. Selon les analystes, la demande croissante de compétences en IA est en train de remodeler le marché de l'emploi. Les ingénieurs en IA font désormais partie des personnes qui gagnent le plus dans l'industrie technologique. Le rapport indique que les entreprises reconnaissent le rôle essentiel des technologies de l'IA dans le maintien de leur compétitivité.

    Par conséquent, elles sont prêtes à payer le prix fort pour s'assurer les meilleurs talents. Cette tendance devrait se poursuivre à mesure que l'IA continue d'imprégner divers secteurs, notamment la finance, les soins de santé et les transports. En somme, Kolesnikova estime que l'essor du secteur de l'IA et la pénurie croissante de talents ont entraîné une hausse substantielle des salaires des professionnels de l'IA. Les organisations investissent massivement dans les talents de l'IA, offrent des salaires élevés et financent des initiatives éducatives pour s'assurer qu'elles ont accès à des professionnels de l'IA compétents.

    Source : UDiego

    Et vous ?

    Avez-vous déjà envisagé un retour sur les bancs aux fins de vous spécialiser en intelligence artificielle ? Le conseilleriez-vous à un proche ?
    Que pensez-vous de la rémunération des spécialistes de l'IA aux États-Unis ? Disproportionnée ou adaptée aux réalités de la vie dans ce pays ?
    Les talents en IA peuvent-ils prétendre à des rémunérations similaires en France et en Europe ?
    Pourquoi observe-t-on une forte disparité entre les rémunérations des talents en IA aux États-Unis et en Europe ?

    Voir aussi :

    Les chercheurs en IA peuvent s'attendre à des rémunérations pouvant aller jusqu'à 865 000 dollars par an, ces rémunérations seraient dues à un manque de talents dans le secteur de l'IA

    Amazon, Netflix et Meta sont prêts à payer des salaires allant jusqu'à 900 000 dollars pour attirer les talents de l'IA générative et certains postes n'exigent aucun diplôme universitaire

    Un ingénieur de Google gagne 150 000 $, travaille 1 heure/jour et consacre le reste de son temps à sa startup. Comment certains ingénieurs logiciels gagnent des fortunes en ne faisant presque rien
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #4
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 067
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 067
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Avez-vous déjà envisagé un retour sur les bancs aux fins de vous spécialiser en intelligence artificielle ? Le conseilleriez-vous à un proche ?
    Je ne l'ai pas envisagé et je conseille de ne pas y aller parce que c'est trop tard.
    Si tu commences aujourd'hui tu finiras peut-être ta formation après l'éclatement de la bulle

    Citation Envoyé par Patrick Ruiz Voir le message
    Que pensez-vous de la rémunération des spécialistes de l'IA aux États-Unis ? Disproportionnée ou adaptée aux réalités de la vie dans ce pays ?
    Si le but des gros salaires c'est de pousser des gens à quitter leur entreprise, ça va.
    Par exemple si Méta propose beaucoup d'argent à un gars pour quitter Google, ou si Méta propose beaucoup d'argent à un gars pour quitter OpenAI.
    Là je comprend un peu le truc. Mais sinon c'est n'importe quoi, rien ne justifie des salaires aussi gros.

    Ça rappelle la différence entre la valeur boursière de Tesla et sa valeur réelle. C'est complètement déconnecté de la réalité.
    Il y a forcément des gens qui coûtent moins cher et qui bossent mieux...

    Citation Envoyé par Patrick Ruiz Voir le message
    Pourquoi observe-t-on une forte disparité entre les rémunérations des talents en IA aux États-Unis et en Europe ?
    Je ne crois pas au concept de "talent", mais peu importe, les salaires aux USA sont généralement beaucoup plus élevé qu'en Europe.
    On va dire que le salaire mensuel médian Français c'est dans les 2 147€ net, aux USA c'est plus proche des 4 100$ net. Mais c'est pas le même coût de la vie, la mutuel coûte une blinde, même l'école coûte cher.

    ====
    Bref que ceux qui touchent un gros salaire mettent de côté parce qu'ils finiront par se faire virer.
    L'IA embauchera moins de gens dans le futur. (parce que moins d’entreprises feront de l'IA, vu qu'elles auront quasiment toutes fais faillite)

  5. #5
    Membre à l'essai
    Homme Profil pro
    Curieux
    Inscrit en
    Octobre 2019
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Curieux
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2019
    Messages : 12
    Par défaut Quelle tristesse
    L'intelligence artificielle est le croisement des mathématiques, de l'informatique et de larges bibliothèques. Lequel(s) des trois vous voulez interdire aux universités ?
    Bien sûr, il faut former les jeunes à son utilisation, et faire de la prévention sur les risques. Ça permettra à une génération de faire des choix éclairés sur l'utilisation ou la régulation de l'outil.

  6. #6
    Expert confirmé Avatar de disedorgue
    Homme Profil pro
    Ingénieur intégration
    Inscrit en
    Décembre 2012
    Messages
    4 429
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2012
    Messages : 4 429
    Par défaut
    quelque part, tu embauches un talent en ia 900 000 $ au lieu de 10 "juste sachant" à 100 000 $ qui vont te faire la même chose que le talentueux et après, on n'a plus besoin d'aucun, puisque l'ia est là toute prête et bien pensante qui pourra faire le boulot de son créateur en plus du sien, car c'est bien ça une ia, elle est intelligente...

    En fait, c'est un KOHLANTA mais dans la vraie vie, plein de participant et un seul gagnant.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 952
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 952
    Par défaut Pour éviter d'être accusés à tort d'avoir triché à l'aide de l'IA, les étudiants se tournent vers l'IA
    Le paradoxe universitaire : pour éviter d'être accusés à tort d'avoir triché à l'aide de l'IA, les étudiants se tournent vers des outils d'IA qui « humanisent » leurs copies
    ou bâclent désormais leur travail pour ne pas déclencher d'alerte

    Aux États-Unis, de plus en plus d’étudiants affirment être accusés à tort d’avoir triché à l’aide de l’intelligence artificielle. En cause : des détecteurs d’IA jugés peu fiables, et l’émergence parallèle d’outils de « humanisation » destinés à contourner ces mêmes systèmes. Une enquête révèle une réalité troublante : dans cette bataille technologique, ce sont parfois les étudiants honnêtes qui se retrouvent pris au piège.

    Selon des analyses récentes, notamment relayées par plusieurs médias grands publics et spécialisés, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité académique.

    La principale préoccupation, largement documentée, est l'augmentation potentielle de la tricherie. Des enseignants rapportent déjà une recrudescence de travaux rendus qui portent manifestement la marque de l'IA, obligeant les institutions à repenser leurs stratégies de contrôle et d'évaluation. Certains établissements voient même un retour en grâce des examens sur table et des interrogations orales, des méthodes jugées plus à même de vérifier l'acquisition réelle des connaissances par l'étudiant.

    La réponse des enseignants ? Des détecteurs d'IA

    L'adoption rapide de l'IA par les jeunes a suscité une vague d'inquiétude quant à la possibilité que les étudiants trichent pendant leurs études, ce qui a conduit de nombreux professeurs à soumettre les travaux écrits à des détecteurs d'IA en ligne qui vérifient si les étudiants ont utilisé de grands modèles linguistiques pour rédiger leurs travaux à leur place. Certaines universités affirment avoir surpris des centaines d'étudiants en train de tricher de cette manière.

    Cependant, depuis leur apparition il y a quelques années, les détecteurs d'IA ont été critiqués à plusieurs reprises pour leur manque de fiabilité et leur tendance à signaler les locuteurs non natifs de l'anglais comme suspects de plagiat.

    D'ailleurs, ZeroGPT, un détecteur de contenu généré par IA présenté comme étant « le plus avancé et fiable », indique qu'un passage biblique qui lui a été soumis (notamment Philippiens chapitre 4 verset 4 à 9) a 98,1% de chance d'être généré par IA.

    Nom : zerogpt.png
Affichages : 114060
Taille : 153,6 Ko

    L’émergence des « humanizers » comme réponse défensive

    De plus en plus d'étudiants affirment également que leurs travaux ont été signalés à tort comme ayant été rédigés par une IA. Plusieurs d'entre eux ont intenté des poursuites judiciaires contre des universités pour le préjudice moral et les sanctions qu'ils affirment avoir subis en conséquence.

    Plusieurs cas d’étudiants sanctionnés, parfois sévèrement, sur la base de ces seuls indicateurs sont rapportés. Certains expliquent avoir rédigé leurs devoirs sans aucune assistance automatisée, avant de se voir reprocher un style jugé « trop fluide » ou « trop structuré ». Le soupçon ne repose donc plus sur des faits observables, mais sur une interprétation algorithmique du langage.

    Face aux accusations de tricherie liée à l'IA, certains étudiants se tournent vers un nouveau groupe d'outils d'IA générative appelés « humanisateurs ». Ces outils analysent les dissertations et suggèrent des modifications à apporter au texte afin qu'il ne soit pas identifié comme ayant été créé par une IA. Certains sont gratuits, tandis que d'autres coûtent environ 20 dollars par mois.

    Certains utilisateurs des outils humanisateurs s'en servent pour éviter d'être pris en flagrant délit de tricherie, tandis que d'autres affirment ne pas utiliser du tout l'IA dans leur travail, mais veulent s'assurer qu'ils ne seront pas accusés à tort d'utiliser l'IA par des programmes de détection de l'IA.

    En réponse à cela, et à mesure que les chatbots continuent de progresser, des entreprises telles que Turnitin et GPTZero ont mis à niveau leurs logiciels de détection de l'IA, dans le but de repérer les textes qui ont été traités par un humaniseur. Elles ont également lancé des applications que les étudiants peuvent utiliser pour suivre l'activité de leur navigateur ou l'historique de leurs écrits afin de pouvoir prouver qu'ils ont rédigé eux-mêmes le contenu, bien que certains humaniseurs puissent taper le texte que l'utilisateur souhaite copier-coller au cas où les frappes de l'étudiant seraient suivies.

    « Les étudiants essaient désormais de prouver qu'ils sont humains, même s'ils n'ont peut-être jamais touché à l'IA », explique Erin Ramirez, professeure agrégée en éducation à l'université d'État de Californie, à Monterey Bay. « Alors, où en sommes-nous ? Nous sommes pris dans une spirale sans fin. »

    Quand bien écrire devient suspect

    L’un des aspects les plus inquiétants soulevés concerne les profils d’étudiants les plus touchés. Les étudiants non natifs de l’anglais, ceux qui utilisent des outils de correction grammaticale, ou au contraire ceux qui ont un style académique très maîtrisé, semblent davantage exposés aux faux signalements.

    Dans certains témoignages, des étudiants expliquent avoir volontairement simplifié leur écriture, raccourci leurs phrases ou supprimé des transitions logiques pour éviter d’être détectés. Autrement dit, le système incite implicitement à produire des travaux de moindre qualité. L’algorithme devient le véritable lecteur à satisfaire, bien avant l’enseignant.

    « Si nous écrivons correctement, nous sommes accusés d'utiliser l'IA, ce qui est absolument ridicule », a déclaré Aldan Creo, un étudiant diplômé espagnol qui étudie la détection de l'IA à l'université de Californie à San Diego. « À long terme, je pense que cela va poser un gros problème. »

    Les éditeurs de détecteurs d’IA eux-mêmes reconnaissent souvent que leurs outils ne doivent pas être utilisés comme preuve définitive. Pourtant, sur le terrain, ces avertissements sont parfois ignorés ou minimisés.

    Pour les étudiants accusés à tort, les recours sont complexes, chronophages et émotionnellement coûteux. Certains racontent des procédures disciplinaires longues, sans véritable possibilité de démontrer leur innocence, puisqu’il est quasiment impossible de prouver qu’un texte n’a pas été généré par une IA. L’asymétrie est frappante : une accusation algorithmique suffit, mais la défense repose sur la parole de l’étudiant.

    En novembre, un assistant enseignant dans un cours de science des données a accusé Creo d'utiliser l'IA pour rédiger un rapport. Creo a expliqué à l'assistant enseignant qu'il avait l'habitude d'expliquer étape par étape son raisonnement pour résoudre un problème, ce que ChatGPT est connu pour faire, selon une copie des messages qu'il a échangés avec l'assistant enseignant.

    Finalement, sa note a été corrigée, mais pour éviter une nouvelle bataille, Creo a déclaré qu'il « simplifiait » parfois son travail en laissant des mots mal orthographiés ou en utilisant des structures de phrases espagnoles qui ne sont pas correctes en anglais. Désormais, Creo passe tout son matériel au crible d'un détecteur d'IA à titre préventif.

    « Je dois faire tout ce que je peux pour montrer que je rédige réellement mes devoirs moi-même », a-t-il déclaré.

    Nom : exam.png
Affichages : 34937
Taille : 268,2 Ko
    Haishan Yang, 33 ans, étudiait dans le cadre d'un programme de doctorat en économie de la santé à l'université du Minnesota-Twin Cities lorsqu'il a été accusé d'avoir utilisé l'intelligence artificielle lors d'un examen.

    Une crise de confiance entre étudiants et institutions : « j'écris uniquement pour ne pas déclencher ces détecteurs d'IA »

    Au-delà de la technologie, une rupture de confiance plus profonde semble se dessiner. Les étudiants interrogés par les médias expriment le sentiment d’être présumés coupables par défaut. Les enseignants, de leur côté, se disent démunis face à des outils d’IA de plus en plus performants et à la pression institutionnelle pour maintenir l’intégrité académique.

    Cette tension transforme la relation pédagogique. Le devoir n’est plus seulement un exercice d’apprentissage, mais un objet potentiellement litigieux, susceptible de déclencher une enquête. Dans ce contexte, l’IA ne sert plus uniquement à apprendre ou à tricher, mais à naviguer dans un système perçu comme hostile.

    Dans le pire des cas, le stress causé par ces accusations a poussé certains étudiants à abandonner leurs études.

    Brittany Carr a obtenu des notes insuffisantes pour trois devoirs qu'elle avait réalisés en tant qu'étudiante à distance à la Liberty University, une école évangélique privée de Virginie qui compte parmi les établissements en ligne les plus fréquentés des États-Unis, car ceux-ci avaient été signalés par un détecteur d'IA. Elle a montré l'historique de ses révisions, y compris la façon dont elle avait rédigé le premier devoir à la main dans un cahier, selon des captures d'écran d'e-mails et de messages qu'elle a échangés avec ses professeurs.

    « Comment l'IA aurait-elle pu inventer tout cela ? », a demandé Carr dans un e-mail daté du 5 décembre. « J'ai parlé de mon diagnostic de cancer, de ma dépression et de mon parcours, et vous croyez que c'est l'IA ? »

    Ses preuves n'ont pas suffi : l'école de travail social lui a tout de même demandé de suivre un cours sur « l'écriture intègre » et de signer une déclaration dans laquelle elle s'excusait d'avoir utilisé l'IA, comme le montrent les e-mails.

    « C'est un sentiment très étrange, car l'école utilise l'IA pour nous dire que nous utilisons l'IA », a-t-elle déclaré.

    Cela l'a stressée. Carr craignait qu'une nouvelle accusation de tricherie n'amène le ministère des Anciens combattants à lui retirer son aide financière. Afin d'éviter d'autres accusations injustifiées, elle a déclaré avoir soumis tous ses documents au détecteur d'IA de Grammarly et modifié toutes les sections mises en évidence jusqu'à ce que le détecteur conclue que l'ensemble du texte avait été rédigé par un humain.

    « Mais j'ai l'impression que mes écrits ne donnent aucune information pertinente — j'écris uniquement pour ne pas déclencher ces détecteurs d'IA », a-t-elle déclaré.

    L’évaluation à l’ère de l’IA

    Peut-on réellement continuer à évaluer les étudiants comme avant, tout en essayant de filtrer l’IA à l’aide d’outils imparfaits ? Pour de nombreux experts, la réponse est clairement non.

    Plutôt que de s’en remettre à des détecteurs peu fiables, certaines universités commencent à repenser leurs modalités d’évaluation. Travaux en classe, présentations orales, processus d’écriture documenté, usage encadré et déclaré de l’IA : ces pistes visent à réduire la dépendance à la détection automatisée, au profit d’une approche pédagogique plus réaliste.

    La réponse de certains établissement secondaire et supérieur aux États-Unis ? Le retour du stylo et du papier

    Avec un accès facile à des applications telles que ChatGPT, qui peut répondre à n'importe quelle question et rédiger des dissertations complètes à votre place, les lycéens et les étudiants ont commencé à tricher, se contentant de laisser un algorithme réfléchir et passer les examens à leur place. Il n'est donc pas surprenant que certains éducateurs aient adopté l'analogie pour tenter d'endiguer la vague d'anti-intellectualisme qui déferle sur le pays.

    Le Wall Street Journal a récemment fait des recherches et découvert que les ventes de cahiers bleus ont augmenté. Citant des données provenant d'un certain nombre de grandes universités publiques, le journal note que les achats en gros de ces livrets ont augmenté à pas de géant depuis le lancement de ChatGPT à la fin de l'année 2022 :

    « Les ventes de cahiers bleus pour cette année scolaire ont augmenté de plus de 30 % à l'Université A&M du Texas et de près de 50 % à l'Université de Floride. La croissance improbable a été encore plus impressionnante à l'Université de Californie, Berkeley. Au cours des deux dernières années universitaires, les ventes de cahiers bleus au Cal Student Store ont augmenté de 80 %. La demande de cahiers bleus est soudainement en plein essor parce qu'ils contribuent à résoudre un problème qui n'existait pas jusqu'à présent sur les campus ».

    Pourtant, si le retour des cahiers bleus est considéré par certain comme un pas dans la bonne direction, ils ne sont certainement pas la panacée pour la grande variété de maux causés par l'utilisation de l'IA par les étudiants. Philip D. Bunn, professeur assistant au Covenant College en Géorgie, a récemment écrit sur son blog que la dissertation traditionnelle ne peut être remplacée par la dissertation en classe. Bunn écrit que « le processus de rédaction d'un article en dehors de la classe ne peut pas être simplement reproduit lors d'un examen dans un livre bleu, et quelque chose de sérieux est perdu si nous abandonnons complètement la dissertation traditionnelle, que ces dissertations soient plus analytiques, argumentatives ou basées sur la recherche ».

    Une bataille technologique probablement perdue d’avance

    En filigrane se dessine une conclusion difficile à éviter : à mesure que les modèles d’IA progressent et que les outils dits « d'humanisation » se perfectionnent, la détection automatique devient de moins en moins pertinente. Chercher à distinguer de façon fiable un texte humain d’un texte assisté par IA pourrait relever d’une illusion technique.

    Dans cette guerre des algorithmes, persister dans la logique du contrôle risque surtout de produire des dégâts collatéraux. Faux coupables, stress accru, nivellement par le bas de l’expression écrite : autant de signaux faibles qui suggèrent que le problème n’est pas l’IA en elle-même, mais la difficulté des institutions à accepter qu’elle fasse désormais partie intégrante du paysage éducatif.

    Sources : Liberty University, Yale Day, ABC, MPR

    Et vous ?

    Les détecteurs d’IA ont-ils encore une légitimité pédagogique dès lors que leurs éditeurs eux-mêmes reconnaissent qu’ils ne constituent pas une preuve fiable ?

    Accuser un étudiant sur la base d’un score algorithmique n’instaure-t-il pas une présomption de culpabilité incompatible avec les principes fondamentaux de l’enseignement supérieur ?

    Les faux positifs des détecteurs d’IA pénalisent-ils davantage certains profils d’étudiants, notamment les non-natifs ou ceux ayant un style académique très normé ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 067
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 067
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    L’un des aspects les plus inquiétants soulevés concerne les profils d’étudiants les plus touchés. Les étudiants non natifs de l’anglais, ceux qui utilisent des outils de correction grammaticale, ou au contraire ceux qui ont un style académique très maîtrisé, semblent davantage exposés aux faux signalements.

    Dans certains témoignages, des étudiants expliquent avoir volontairement simplifié leur écriture, raccourci leurs phrases ou supprimé des transitions logiques pour éviter d’être détectés. Autrement dit, le système incite implicitement à produire des travaux de moindre qualité. L’algorithme devient le véritable lecteur à satisfaire, bien avant l’enseignant.

    « Si nous écrivons correctement, nous sommes accusés d'utiliser l'IA, ce qui est absolument ridicule », a déclaré Aldan Creo, un étudiant diplômé espagnol qui étudie la détection de l'IA à l'université de Californie à San Diego. « À long terme, je pense que cela va poser un gros problème. »
    Moi non plus je n'ai pas confiance dans ceux qui s'expriment correctement et ne font pas de faute
    Ils méritent un peu d'être sanctionné à tort.

    Citation Envoyé par Stéphane le calme Voir le message
    Face aux accusations de tricherie liée à l'IA, certains étudiants se tournent vers un nouveau groupe d'outils d'IA générative appelés « humanisateurs ». Ces outils analysent les dissertations et suggèrent des modifications à apporter au texte afin qu'il ne soit pas identifié comme ayant été créé par une IA. Certains sont gratuits, tandis que d'autres coûtent environ 20 dollars par mois.

    Certains utilisateurs des outils humanisateurs s'en servent pour éviter d'être pris en flagrant délit de tricherie, tandis que d'autres affirment ne pas utiliser du tout l'IA dans leur travail, mais veulent s'assurer qu'ils ne seront pas accusés à tort d'utiliser l'IA par des programmes de détection de l'IA.
    J'ai du mal à croire ceux qui disent utiliser un « humanisateur » car ils écrivent tellement bien que leur travaux passent pour de l'IA.
    Si tu n'es pas capable de le faire toi même, c'est que tu n'es pas si doué que ça. Ce n'est quand même pas compliqué de s'exprimer de manière incorrecte ou maladroite.
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  9. #9
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 346
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 346
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Si tu n'es pas capable de le faire toi même, c'est que tu n'es pas si doué que ça. Ce n'est quand même pas compliqué de s'exprimer de manière incorrecte ou maladroite.

    Bientôt, il va falloir fournir trois versions de son devoir :
    • une rédigée normalement comme d'habitude
    • la réponse de l'IA "telle que"
    • puis un mélange des deux premières, avec les fautes d'orthographe ajoutées par IA


    On n'arrête pas le "progrès".

  10. #10
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 067
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 067
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Bientôt
    Ben non.

    La plupart des étudiants ne peuvent pas produire un devoir si bien rédigé qu'il semble avoir été réalisé par une IA. Donc eux sont tranquille.
    Ensuite il y a des les tricheurs et ceux qui disent "je m'exprime tellement bien qu'on pense que je suis une IA" (ils le diraient beaucoup mieux que ça).

    Pour eux ça fait :
    • Faire le devoir en trichant ou pas
    • Rendre le devoir plus humain à la main ou en utilisant l'IA


    =======
    Pour réduire la triche il faut leur faire faire (ça ce n'est pas une IA qui l'aurait écrit) des examens sans internet : pas de PC, pas de montre, pas de téléphone, pas de lunette, pas d'implant dans le cerveau.

    Citation Envoyé par Stéphane le calme Voir le message
    Le Wall Street Journal a récemment fait des recherches et découvert que les ventes de cahiers bleus ont augmenté. Citant des données provenant d'un certain nombre de grandes universités publiques, le journal note que les achats en gros de ces livrets ont augmenté à pas de géant depuis le lancement de ChatGPT à la fin de l'année 2022 :

    « Les ventes de cahiers bleus pour cette année scolaire ont augmenté de plus de 30 % à l'Université A&M du Texas et de près de 50 % à l'Université de Floride. La croissance improbable a été encore plus impressionnante à l'Université de Californie, Berkeley. Au cours des deux dernières années universitaires, les ventes de cahiers bleus au Cal Student Store ont augmenté de 80 %. La demande de cahiers bleus est soudainement en plein essor parce qu'ils contribuent à résoudre un problème qui n'existait pas jusqu'à présent sur les campus ».

    Pourtant, si le retour des cahiers bleus est considéré par certain comme un pas dans la bonne direction, ils ne sont certainement pas la panacée pour la grande variété de maux causés par l'utilisation de l'IA par les étudiants. Philip D. Bunn, professeur assistant au Covenant College en Géorgie, a récemment écrit sur son blog que la dissertation traditionnelle ne peut être remplacée par la dissertation en classe. Bunn écrit que « le processus de rédaction d'un article en dehors de la classe ne peut pas être simplement reproduit lors d'un examen dans un livre bleu, et quelque chose de sérieux est perdu si nous abandonnons complètement la dissertation traditionnelle, que ces dissertations soient plus analytiques, argumentatives ou basées sur la recherche ».
    Le lobby des cahiers bleus doit être à fond dans la lutte contre l'IA.
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  11. #11
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 679
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 679
    Par défaut
    Et donc un "parrain de l'IA" vient de faire un beau discours en affirmant que l'IA allait permettre de grandes avancées dans des domaines tels que... L'éducation?!?!?!

    En voilà une preuve...

  12. #12
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 346
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 346
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Ben non.

    La plupart des étudiants ne peuvent pas produire un devoir si bien rédigé qu'il semble avoir été réalisé par une IA. Donc eux sont tranquille.
    Le minimum qu'on puisse attendre de l'école primaire est quand même d'en sortir capable d'écrire bien mieux que ça, non ?

    Après, une fois qu'on arrive en ayant au maximum fait une faute d'orthographe dans le trimestre, et peut-être une fois un texte mal construit, on peut trouver un intérêt à s'informer sur ce qu'est l'IA.

    Pour ce qui est d'un contenu valable, il se peut qu'il faille attendre le collège, selon la sévérité du lecteur.

    Ah oui mais c'est vrai qu'aujourd'hui nous avons Macron qui a ffait deux mandats, et qu'il faut donc revoir les ambitions à la baisse.

  13. #13
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 346
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 346
    Par défaut
    Pour éviter d'être accusés à tort d'utiliser l'IA, ils se tournent vers l'IA.

    C'est ... intéressant, comme démarche.

  14. #14
    Membre averti
    Homme Profil pro
    Ingénieur qualité méthodes
    Inscrit en
    Janvier 2009
    Messages
    25
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur qualité méthodes
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2009
    Messages : 25
    Par défaut Cercle vicieux ou conspiration technosolutionniste ?
    ... Enfin bref, on touche le fond, là, non ? ...

    Est-ce qu'un jour un débat "démocratique" sur l'IA aura lieu, entre des gens non issus de la tech, avec des philosophes, des sociologues, peut-être même des politiques, et des vrais gens tirés au sort ?
    Parce qu'on est quand même en train de vivre une révolution qui pourrait bien se retourner contre l'espèce humaine toute entière. Cela dit, si ça pouvait débarrasser la planète d'une espèce particulièrement nuisible, ça ne serait pas un mal.

    Après, on peut aussi penser que c'est un véritable complot, une dérive pensée par les gourous de la tech pour prendre le pouvoir. Niveler par le bas, anéantir toute velléité de réflexion approfondie afin d'asseoir l'utilisation de l'IA et la prise de pouvoir de la technique sur les politiques pour faire enfin advenir une politique technosolutionniste et totalitaire qui leur permettra d'aller sur Mars après avoir rendu la Terre inhabitable. Ces gens sont sans limite.
    Bon, je conspirationnise un peu là ... mais c'est pas sûr... D'ailleurs le correcteur orthographique a accepté conspirationnise ... 2 fois... c'est un signe, non ?

  15. #15
    Membre éclairé
    Homme Profil pro
    Gérant
    Inscrit en
    Février 2006
    Messages
    265
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Dom-Tom

    Informations professionnelles :
    Activité : Gérant

    Informations forums :
    Inscription : Février 2006
    Messages : 265
    Par défaut Pourquoi faire compliqué quand on peut faire simple ?
    Ou plus simplement, sans dépenser un seul €uro et sans prise de tête technologique, devoirs surveillés avec papier et stylo uniquement ! On verra très vite ceux qui étaient habitués à tricher...
    Pourquoi faire compliqué quand on peut faire simple ?

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 952
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 952
    Par défaut Un professeur lutte contre la tricherie alimentée par l'IA grâce à des examens oraux automatisés
    Combattre le feu par le feu : un professeur lutte contre la tricherie alimentée par l'IA
    grâce à des examens oraux automatisés qui coûtent 42 centimes par étudiant

    Confronté à des rendus d'étudiants trop parfaits pour être honnêtes, Panos Ipeirotis, professeur à la NYU Stern School of Business, a choisi de combattre le feu par le feu. En déployant un agent vocal basé sur ElevenLabs, Claude, Gemini et ChatGPT, il a organisé des examens oraux entièrement automatisés, personnalisés et évalués par un jury de modèles de langage — le tout pour 15 dollars, soit 42 cents par étudiant. Une expérience aussi révélatrice que controversée, qui interroge en profondeur l'avenir de l'évaluation académique à l'ère de l'IA générative.

    Tout a commencé par un sentiment diffus, mais persistant. Dans le cadre du cours « AI/ML Product Management » co-animé avec Konstantinos Rizakos à la NYU Stern School of Business, les soumissions préalables aux études de cas semblaient anormalement soignées. Pas le genre de « bon étudiant » soigné — plutôt le genre de mémo McKinsey relu par trois équipes d'édition. Panos Ipeirotis l'exprime sans détour sur son blog : l'IA était visiblement dans la boucle, non pas pour augmenter la réflexion des apprenants, mais pour la remplacer.

    Précision importante : dans un cours entièrement consacré à l'IA et au machine learning, l'utilisation de l'IA n'est pas interdite — elle est activement encouragée. La distinction qu'Ipeirotis cherche à préserver est plus subtile : utiliser l'IA pour amplifier sa propre réflexion est de l'éducation et non lui sous-traiter intégralement sa pensée. Cette nuance, facile à formuler, est devenue presque impossible à détecter dans les productions écrites.

    Sa réponse initiale fut classique : interroger les étudiants à l'improviste en plein cours. Le résultat fut, selon ses propres mots, « éclairant ». Nombre de ceux qui avaient rendu des travaux structurés et nuancés se révélaient incapables d'en expliquer les choix fondamentaux après deux questions de suivi. L'écart entre les productions écrites et la capacité à les défendre oralement était trop systématique pour être attribué au simple trac. La conclusion s'imposait : si vous ne pouvez pas défendre votre propre travail en temps réel, le document écrit ne mesure pas ce que vous pensez mesurer.

    Le professeur en tire une conclusion radicale : l'équilibre historique qui permettait aux examens à domicile d'évaluer la compréhension réelle est « mort, révolu, kaput ». Les étudiants peuvent désormais répondre à la quasi-totalité des questions d'examen traditionnelles grâce aux LLM disponibles. Même le repli vers les examens papier en salle ne suffit plus dès lors qu'on cherche à évaluer la contribution individuelle à des projets de groupe — une présentation peut être générée clé en main par NotebookLM ou Gemini sans que l'étudiant ait jamais ouvert le sujet.

    L'examen oral : vertueux mais non scalable — jusqu'à aujourd'hui

    L'examen oral s'impose naturellement comme la parade : impossible de souffler une réponse à un étudiant en temps réel sans que cela soit détectable, il force la pensée en mouvement, l'application spontanée, la défense de décisions réelles. Mais sa vertu est aussi son talon d'Achille : il ne passe pas à l'échelle.

    Avec 36 étudiants et deux instructeurs, l'expérience reste gérable — à peine. Mais les demandes d'aménagements s'accumulent instantanément : un vol le 15, trois autres examens ce jour-là, un événement familial. Tous légitimes. Multipliez par dix pour une grande classe, et vous obtenez un cauchemar logistique d'un mois. C'est précisément pourquoi les examens oraux ont progressivement disparu de l'enseignement supérieur à mesure que les effectifs grossissaient.

    L'idée d'Ipeirotis : utiliser l'IA pour restaurer ce format d'évaluation disparu. Inspiré par des travaux de recherche de Brian Jabarian montrant comment l'IA conduit des entretiens d'embauche, il décide de construire un agent vocal examinateur sur la plateforme ElevenLabs Conversational AI. L'idée peut sembler absurde. Elle ne l'était plus vraiment, à condition d'accepter que le problème à résoudre n'est pas de reproduire un jury humain, mais de mesurer une compréhension réelle à l'échelle.

    Architecture technique : sous-agents, variables dynamiques et jury de LLM

    L'examen se déroule en deux parties distinctes. La première porte sur le projet de fin de semestre de chaque étudiant : objectifs, données utilisées, choix de modélisation, métriques d'évaluation, points de défaillance. C'est là que la stratégie « copier-coller dans ChatGPT » s'effondre : improviser des réponses cohérentes sur des décisions spécifiques face à un interlocuteur qui creuse est autrement plus difficile que produire un texte poli. La seconde partie consiste à sélectionner une étude de cas parmi celles étudiées en cours et à répondre à des questions couvrant les thématiques abordées.

    Techniquement, l'agent est décomposé en sous-agents spécialisés via un système de workflow. Un agent d'authentification vérifie l'identité de l'étudiant avant tout. Un agent dédié au projet injecte les paramètres personnalisés (nom, détails du projet) en variables dynamiques. Un agent de discussion de cas sélectionne et interroge sur une étude de cas. Cette architecture multi-agents n'est pas que cosmétique : elle empêche le système de dériver vers une conversation non bornée et facilite le débogage. La prochaine étape naturelle est d'y connecter un système RAG sur les propres soumissions des étudiants — slides, rapports, notebooks — pour que l'agent puisse citer et sonder précisément leur travail réel.

    Pour la notation, Ipeirotis s'inspire de l'approche « Council of LLMs » proposée par Andrej Karpathy : trois modèles distincts — Claude, Gemini et ChatGPT — évaluent chaque transcription de manière indépendante, puis consultent les évaluations des autres et révisent leur jugement. Claude joue le rôle de président du jury et synthétise la note finale avec les preuves à l'appui. La délibération imite un jury humain, avec une dynamique de confrontation et de convergence.

    Nom : performance.png
Affichages : 73528
Taille : 72,6 Ko

    Ce qui a dysfonctionné — et les corrections apportées

    La première version de l'agent a essuyé des critiques sérieuses. Le problème le plus flagrant : la voix. Les professeurs avaient cloné celle d'un collègue, Foster Provost, dont le clone était techniquement le plus fidèle. Mais les étudiants l'ont trouvée « intense », « condescendante ». L'un d'eux a même signalé que « l'agent lui criait dessus ». L'anxiété de performance, déjà élevée dans un contexte d'examen oral, a été amplifiée par le timbre et le débit de la voix synthétique — une variable à laquelle les concepteurs de l'agent n'avaient pas accordé suffisamment d'importance au départ.

    Autre écueil majeur : l'agent empilait les questions. Au lieu d'en poser une à la fois, il formulait des requêtes composites (« Expliquez votre choix de métrique, quelles baselines avez-vous testées, pourquoi pas X, et que feriez-vous ensuite ? »), soit quatre questions déguisées en une seule. La charge cognitive pour un étudiant en temps réel devenait ingérable. La correction : une règle stricte dans le prompt — une seule question par tour, le reste est chaîné sur les échanges suivants.

    La clarification posait également problème : quand un étudiant demandait à l'agent de répéter la question, celui-ci la paraphrasait légèrement différemment, créant l'impression de répondre à un sujet distinct. La correction : instruction explicite de répéter mot pour mot, sans reformulation. Par ailleurs, l'agent interrompait les silences réflexifs trop rapidement. Le délai avant l'intervention a été porté de 5 à 10 secondes — un changement minime en apparence, mais déterminant pour la qualité des réponses.

    Enfin, la pseudo-aléa de sélection des cas s'est révélée problématique. Demander à un LLM de « choisir aléatoirement » parmi une liste, c'est comme demander à un humain de penser à un chiffre entre 1 et 10 : on obtient beaucoup de 7. L'agent a choisi Zillow dans 88 % des cas tant que cette étude figurait dans la liste. Après son retrait, il s'est verrouillé sur « predictive policing » dans 16 cas sur 21 le lendemain. Ce phénomène, documenté dans la littérature sur les biais des LLM, découle des préférences statistiques encodées dans les données d'entraînement. La solution : générer le nombre aléatoire côté code et le passer comme paramètre déterministe à l'agent — ne jamais déléguer l'aléatoire à un modèle de langage.

    Nom : zillow.png
Affichages : 14823
Taille : 11,8 Ko

    Les chiffres : 42 cents, un miroir pédagogique inattendu

    36 étudiants, 9 jours d'examen, 25 minutes en moyenne par session (de 9 à 64 minutes), 65 messages par conversation en moyenne. Coût total : 15 dollars — 8 pour Claude (le modèle le plus sollicité en tant que président du jury), 2 pour Gemini, 0,30 pour OpenAI, et environ 5 pour les minutes vocales ElevenLabs. Soit 0,42 dollar par étudiant, auxquels s'ajoute l'abonnement mensuel ElevenLabs à 99 dollars.

    L'alternative humaine ? 36 étudiants × 25 minutes × 2 correcteurs = 30 heures de travail. Au tarif d'un assistant d'enseignement (environ 25 $/h), cela représente 750 dollars. À tarif professoral, la réponse est plus simple : on ne fait tout simplement pas d'examens oraux. L'économie d'un facteur 50 est réelle, mais Ipeirotis insiste : le véritable avantage n'est pas le coût, c'est la valeur délivrée.

    Premier constat surprenant : la durée de l'examen ne corrèle pas avec la note obtenue (r = -0,03). L'examen le plus court — 9 minutes — a obtenu le meilleur score (19/20). Le plus long — 64 minutes — une note médiocre. Parler longtemps ne signifie pas maîtriser : l'hésitation verbale est en elle-même un signal d'évaluation que les formats écrits sont structurellement incapables de capturer.

    Deuxième révélation, plus inconfortable pour l'équipe enseignante : l'analyse par thématique a exposé une lacune dans l'enseignement lui-même. Sur le thème « Expérimentation », les étudiants ont obtenu en moyenne 1,94 sur 4 — contre 3,39 pour « Formulation du problème ». Trois étudiants (8 %) ont obtenu zéro ; aucun n'a atteint le score maximal. Ipeirotis l'admet sans détour : les tests A/B avaient été survolés en cours. L'évaluateur externe rendu impossible à ignorer a agi comme un miroir tendu à l'enseignant lui-même — une fonction que les examens internes n'assurent jamais.

    Nom : break.png
Affichages : 14854
Taille : 16,8 Ko

    La délibération du jury IA : Gemini trop généreux, Claude trop sévère

    Le premier tour de notation indépendant a révélé des divergences frappantes : Gemini affichait une moyenne de 17/20, Claude de 13,4/20 — un écart de 3,6 points, soit la différence entre un B+ et un B-. Claude et OpenAI convergeaient déjà dès ce premier tour (70 % de leurs notes à moins d'un point d'écart). Gemini se comportait en correcteur complaisant, incapable de résister à la tentation de la générosité — un biais possiblement encodé dans son alignement.

    Après la phase de délibération, l'accord s'est considérablement amélioré : 62 % des notes à moins d'un point d'écart (contre 0 % au premier tour), 85 % à moins de deux points. Gemini a baissé ses notes de 2 points en moyenne après avoir pris connaissance des critiques précises de Claude sur les lacunes en expérimentation. Il ne pouvait plus justifier un 17 face à des arguments factuels et circonstanciés.

    La qualité du feedback généré surpasse, selon Ipeirotis, ce que des correcteurs humains produisent habituellement sous contrainte de temps : des résumés structurés en points forts, faiblesses et actions, avec des citations verbatim extraites de la transcription. Pour l'étudiant le mieux noté : une observation précise sur sa maîtrise des compromis de métriques, illustrée par un exemple spécifique qu'il avait donné. Pour un étudiant en difficulté : une consigne d'entraînement détaillée sur la conception de tests A/B, avec les étapes exactes à maîtriser. Spécifique, actionnable, ancré dans la preuve. Ce niveau de granularité est tout simplement impossible à tenir pour un correcteur humain sur des dizaines de copies.

    Ce que disent les étudiants : stressant mais perçu comme juste

    Seulement 13 % des étudiants ont préféré le format oral IA. 57 % auraient opté pour un examen écrit traditionnel. 83 % ont trouvé l'oral plus stressant. Et pourtant : 70 % ont jugé qu'il évaluait leur compréhension réelle — l'item le mieux noté de tout le questionnaire. Les étudiants acceptent le verdict, même s'ils n'apprécient pas le vecteur.

    Ils ont en revanche plébiscité la flexibilité temporelle : pouvoir passer l'examen depuis chez soi, à l'heure de son choix, sur neuf jours. Un avantage logistique majeur qui compense partiellement la sévérité du format. Ipeirotis y voit aussi un avantage pédagogique structurel : puisque les questions spécifiques sont générées en temps réel par l'agent, les sujets d'examen ne peuvent pas fuiter. Les étudiants peuvent s'entraîner autant qu'ils le souhaitent avec le même agent — ce qui ne fait que renforcer leur maîtrise réelle. C'est précisément ainsi que l'apprentissage est censé fonctionner.

    Une expérience fondatrice pour l'évaluation à l'ère de l'IA

    Ce que l'expérience de Panos Ipeirotis démontre avant tout, c'est que l'IA générative n'a pas seulement créé un problème de tricherie : elle a rendu obsolètes des décennies de pratiques d'évaluation. La réponse ne peut pas se limiter à restaurer le passé — revenir aux examens sur papier est une régression qui ne règle pas le problème fondamental de l'évaluation individuelle dans les travaux collectifs.

    L'examen oral automatisé par IA n'est pas une solution parfaite. Il est stressant, techniquement fragile dans ses premières versions, et soulève des questions d'équité et d'accessibilité qui devront être traitées systématiquement — pour les étudiants dyslexiques, malentendants, ou simplement défavorisés par un environnement vocal anxiogène. Mais à 42 cents par étudiant, avec un feedback de qualité supérieure à ce que produisent des correcteurs humains sous pression, une capacité à diagnostiquer les lacunes de l'enseignement lui-même, et l'impossibilité structurelle de faire fuiter les sujets, il représente une piste d'une solidité inhabituelle.

    La conclusion d'Ipeirotis est lapidaire : « Combattre le feu par le feu. » L'IA a tué l'examen traditionnel. C'est à l'IA de forger ses successeurs. Les prompts de l'agent vocal et du jury de notation sont publics — une invitation ouverte à la communauté académique à s'emparer de cette approche, à l'améliorer, et à poser collectivement la question que ce professeur new-yorkais a eu le mérite de soulever en premier : comment évalue-t-on la compréhension réelle quand la simulation de la compréhension ne coûte plus rien ?

    Sources : blog de Panos Ipeirotis, prompts de l'agent vocal (GitHub), prompts du jury de notation (GitHub), Council of LLMs (GitHub), recherche de Brian Jabarian

    Et vous ?

    Si un jury de LLM évalue les connaissances de manière plus cohérente qu'un jury humain, cela signifie-t-il que les humains étaient de mauvais évaluateurs — ou que les machines ne mesurent pas ce qui compte vraiment ?

    La délibération entre Claude, Gemini et ChatGPT a poussé Gemini vers plus de sévérité. Peut-on parler de « pression sociale » entre IA, et dans quel sens ce mécanisme biaise-t-il l'évaluation finale ?

    À 42 cents par étudiant, l'examen oral automatisé pourrait devenir un standard mondial — y compris là où les enseignants qualifiés sont rares. Est-ce une opportunité pédagogique ou un risque d'appauvrissement de la relation éducative ?

    La durée d'un examen oral ne corrèle pas avec la note obtenue : le plus court a décroché le meilleur résultat. Qu'est-ce que cela dit de notre rapport culturel à la « démonstration d'effort » dans l'évaluation ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #17
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 398
    Par défaut
    Je ne vois pas bien la valeur d'un diplôme du supérieur si ce dernier ne nécessite pas d'avoir fourni un travail inédit et original pour l'obtenir.

    Or le résultat produit par les LLM n'est ni inédit ni original. Par déduction, on peut légitimement se questionner sur la valeur des diplômes si ces derniers suffisent à tuer la difficulté des examens proposés.

  18. #18
    Invité de passage
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2014
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2014
    Messages : 2
    Par défaut Où se déroulerais l'examen dans ce modèle ?
    Bonjour,

    J'apprécie l'idée d'un examen basé sur le modèle d'un entretien d'embauche IA comme moyen de lutte contre la fraude. Est-il possible de savoir, dans de telles conditions où se déroule cet oral ? En salle de classe ou bien à la maison sans surveillance ? Car dans ce dernier cas, les méthode de triches sont encore nombreuses. On pourrait tout à fait mettre une IA juste à côté de soi, sur son téléphone où ses lunettes hit-tech qui écoute et souffle des réponses mot à mot (un peu comme les discours TV de présidents).

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 952
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 952
    Par défaut Le paradoxe des détecteurs d'IA en classe : accusés à tort de tricher, des étudiants apprennent l'IA
    Le paradoxe des détecteurs d'IA en classe : pour prouver qu'ils ne trichent pas en se servant de l'IA, des étudiants apprennent à utiliser l'IA.
    Pourquoi les détecteurs d'IA en classe sont dans une impasse

    Les outils de détection de contenu généré par intelligence artificielle, déployés à la hâte dans les établissements scolaires pour lutter contre la triche, produisent un effet exactement inverse à celui recherché. Des chercheurs et enseignants documentent un phénomène paradoxal : des étudiants n'ayant jamais utilisé l'IA se mettent à apprendre à la manier, non pas pour tricher, mais pour se défendre contre des accusations injustes. Portrait d'une dérive institutionnelle qui sacrifie la qualité d'écriture sur l'autel d'un algorithme défaillant.

    En économie comportementale, l'effet cobra désigne les situations où une mesure corrective aggrave le problème qu'elle était censée résoudre. L'histoire est bien connue : le gouvernement colonial britannique en Inde, souhaitant réduire la population de cobras, offrit une prime pour chaque serpent mort. Résultat, des éleveurs se mirent à en produire industriellement pour encaisser les primes. Quand le programme fut supprimé, les reptiles élevés en captivité furent relâchés, empirant la situation initiale.

    C'est exactement ce qui se passe aujourd'hui dans les salles de classe américaines — et, de façon croissante, ailleurs dans le monde occidental — avec les détecteurs de textes générés par IA. Mike Masnick, fondateur de TechDirt, et Dadland Maye, enseignant en écriture dans plusieurs universités américaines, ont documenté de façon rigoureuse un phénomène qui devrait alerter tous ceux qui s'intéressent aux interactions entre technologie et systèmes éducatifs.

    Le cas le plus révélateur n'est pas celui d'un tricheur pris la main dans le sac. C'est celui d'une étudiante dont la plume avait toujours été saluée par ses professeurs. Arrivée dans un nouvel établissement, elle comprend que son style confiant et élaboré risque de déclencher les algorithmes de détection — des enseignants ne la connaissant pas n'auraient aucun moyen de savoir que cette voix est la sienne. Sa réaction ? Elle interroge Google Gemini pour comprendre quels patterns stylistiques attirent l'attention des logiciels de surveillance. Cette enquête ouvre une porte. Elle apprend comment les prompts façonnent les sorties, quelles structures de phrases suscitent le soupçon. L'outil devient un moyen de compléter ses cours et de clarifier des notions complexes, mais la démarche la met mal à l'aise. « J'ai comme l'impression de tricher », confie-t-elle à Maye — bien que ce soit précisément l'envie de ne pas tricher qui l'y ait conduit.

    Un autre cas, plus radical encore : après avoir été faussement accusé d'utilisation de l'IA dans un autre cours, un étudiant décide de prendre les devants. Il souscrit à plusieurs abonnements IA, étudie minutieusement le fonctionnement des systèmes de détection et développe une véritable maîtrise des outils qu'il n'avait jamais prévu d'employer. Il décide ensuite de ne rien dire à ses professeurs, jugeant que sa nouvelle littératie en IA ne ferait qu'aggraver les soupçons à son égard.

    Des outils techniquement défaillants aux effets pédagogiques dévastateurs

    Pour comprendre pourquoi cette situation a pu se développer, il faut revenir sur le fonctionnement réel de ces détecteurs. La plupart analysent des métriques statistiques du texte : la perplexité (à quel point les choix lexicaux sont prévisibles par un modèle de langage) et la variabilité rythmique (la variabilité de la longueur et de la complexité des phrases). Le problème fondamental est qu'une écriture claire, efficace et disciplinée peut être confondue avec de l'IA, même lorsqu'elle est rédigée par des humains. En d'autres termes, les caractéristiques d'une bonne prose académique recoupent précisément ce que les détecteurs considèrent comme suspect.

    Les chiffres sont éloquents. Une étude publiée par Cell.com indique que 61,3 % des textes rédigés par des non-natifs anglophones sont signalés à tort comme générés par IA. Une étude de l'Université Stanford a établi que les taux de faux positifs pour les étudiants en langue seconde pouvaient atteindre 97 % — plus de la moitié des essais TOEFL ayant été classés comme générés par IA par les sept meilleurs détecteurs du marché. Ces chiffres vertigineux révèlent une réalité simple : ces outils ne détectent pas l'IA avec une fiabilité suffisante pour justifier des sanctions académiques.

    Une recherche publiée dans Acta Neurochirurgica (Springer Nature) conclut que la précision des détecteurs reste insuffisante dans un cadre académique, avec des erreurs notables dès que les textes sont techniques ou rédigés dans un style soutenu. En Australie, l'Australian Catholic University a suspendu l'usage du détecteur IA de Turnitin après que des étudiants ont été accusés à tort sur la seule base de scores automatisés. En France, le phénomène a déjà fait surface : en 2025, une lycéenne parisienne a été accusée d'avoir eu recours à une intelligence artificielle lors de l'épreuve de philosophie du baccalauréat, après avoir composé sur ordinateur.

    Turnitin revendique une précision de 98 à 99 %, mais admet un taux de faux positifs pouvant atteindre 4 %. Sur les 2,2 millions d'étudiants que comptent les États-Unis chaque année, ce seul taux représente potentiellement 88 000 étudiants accusés à tort. En mai 2025, à l'Université de Buffalo, environ 20 % des étudiants d'un même cours ont été simultanément signalés par le système — alors qu'ils avaient rédigé leurs travaux eux-mêmes.

    Nom : trusted.png
Affichages : 10342
Taille : 152,8 Ko

    Le soupçon comme pédagogie

    La dimension la plus préoccupante n'est pas statistique. Elle est pédagogique. En déployant des outils de surveillance automatisée sur les productions des étudiants, les institutions envoient un message clair sur la nature de l'écriture : elle est avant tout une performance à gérer, un risque à minimiser, un test à passer — non une pratique intellectuelle à développer.

    Maye, dans son article publié dans le Chronicle of Higher Education, formule cette idée avec précision : les outils de détection communiquaient quelque chose aux étudiants, même quand les enseignants ne disaient rien. Que le style pouvait jouer contre eux. Que la fluidité invite le soupçon. Le message implicite : écris de façon suffisamment quelconque pour ne pas déclencher l'alarme.

    Comme l'illustre l'anecdote fondatrice de Masnick — son enfant contraint de reformuler un essai sur Harrison Bergeron de Kurt Vonnegut parce que le mot « devoid » déclenchait le détecteur —, l'ironie est totale. Harrison Bergeron est précisément une dystopie dans laquelle une société impose « l'égalité » en handicapant quiconque excelle, pour ramener tout le monde au plus petit dénominateur commun. Et voilà que des outils censés protéger l'intégrité académique fonctionnent comme le Handicapper General de l'écriture étudiante, punissant la fluidité et pénalisant le vocabulaire.

    L'impact est particulièrement sévère pour les étudiants déjà vulnérables. Dans des établissements comme le CUNY, beaucoup travaillent entre 20 et 40 heures par semaine, nombreux sont multilingues, et ils se heurtent à des politiques IA différentes dans chaque cours. Un étudiant décrit avoir passé des heures à reformuler des phrases que les détecteurs signalaient comme générées par IA, alors que chaque mot était le sien. « Je reformule, encore et encore. Ça prend trop de temps », témoigne-t-il. Ce temps volé à l'apprentissage réel est peut-être le coût le plus lourd de cette dérive.

    La loi de Goodhart appliquée à l'éducation

    Les informaticiens reconnaîtront ici la loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart : « Quand une mesure devient un objectif, elle cesse d'être une bonne mesure. » Appliquée à l'éducation, cela signifie que dès lors que le score d'un détecteur IA devient le critère d'évaluation, les étudiants optimisent leur écriture pour ce score — et non pour communiquer avec clarté, originalité et profondeur.

    Cela crée un cercle vicieux : les étudiants, pour éviter d'être accusés d'utiliser des IA, adoptent un style d'écriture qui ressemble de plus en plus à celui généré par des machines. Les détecteurs, en réponse, deviennent de plus en plus stricts, poussant les étudiants à se conformer encore davantage. Les vrais tricheurs, eux, sont les mieux armés pour contourner le système : ils connaissent les techniques d'obfuscation, savent paraphraser les sorties IA, utilisent des outils « d'humanisation » de textes. Les détecteurs ne piègent pas les fraudeurs calculateurs — ils piègent les bons élèves.

    Changer de paradigme : l'IA comme sujet d'enseignement

    Face à cette impasse, Maye a opté pour une stratégie radicalement différente. À mi-semestre, il a cessé d'exiger la déclaration d'utilisation de l'IA. À la place, il a autorisé les étudiants à employer l'IA pour la recherche et la construction de plans, tout en exigeant que la rédaction reste la leur. Et surtout, il leur a appris à utiliser ces outils de manière critique et responsable.

    Le résultat fut immédiat. L'atmosphère de la classe se transforma. Des étudiants vinrent le voir après les cours pour lui demander comment bien utiliser ces outils : l'un voulait savoir comment construire un prompt de recherche sans copier les sorties ; un autre comment repérer quand un résumé s'éloigne trop de la source. Ces conversations étaient pédagogiques par nature. Elles ne devinrent possibles qu'une fois que l'utilisation de l'IA cessa de fonctionner comme un problème de déclaration pour devenir un sujet d'instruction.

    C'est là le retournement fondamental. Le régime de surveillance avait rendu impossible l'enseignement. En sortant de la logique policière, l'enseignant avait retrouvé l'espace pour faire son vrai travail.

    Ce que cela dit de notre rapport à la technologie

    Cette affaire illustre un problème plus général que connaissent bien les professionnels de l'IT : la tentation de résoudre un problème humain et complexe par l'ajout d'une couche technologique, sans analyser les effets systémiques induits. Les détecteurs d'IA en milieu scolaire sont un cas d'école de ce qu'on pourrait appeler la solution-surface : un outil qui donne l'apparence d'une réponse tout en aggravant la dynamique sous-jacente.

    Le parallèle avec d'autres domaines est saisissant. En cybersécurité, on sait que les filtres trop agressifs — listes noires, règles IDS mal calibrées — génèrent autant de faux positifs qu'ils en neutralisent de vrais. Ils dégradent la confiance, saturent les équipes d'alertes non pertinentes et poussent les utilisateurs à contourner les mesures plutôt qu'à les respecter. La logique est identique dans les salles de classe.

    La vraie question n'est pas de savoir si les étudiants utilisent l'IA — ils l'utilisent et l'utiliseront, comme chaque génération s'est emparée des outils de son époque, de la calculatrice au correcteur orthographique. La question est de savoir quelle culture de l'écriture, de la pensée critique et de la responsabilité intellectuelle on souhaite construire avec eux. Un algorithme ne peut pas répondre à cette question. Seul un enseignant le peut.

    Source : Dadland Maye

    Et vous ?

    Les détecteurs d'IA en milieu scolaire sont-ils une erreur de conception fondamentale, ou simplement des outils immatures qui s'amélioreront avec le temps ? Peut-on imaginer un seuil de fiabilité acceptable pour les utiliser dans des décisions à enjeux élevés ?

    Le phénomène décrit — des étudiants qui apprennent à utiliser l'IA pour se défendre contre les accusations d'utilisation de l'IA — est-il spécifique au milieu académique, ou observe-t-on des dynamiques similaires dans d'autres contextes professionnels ?

    Les étudiants non anglophones et les apprenants en langue seconde sont statistiquement les plus pénalisés par les faux positifs. Cela pose-t-il un problème de discrimination systémique que les institutions auraient l'obligation légale de traiter ?

    L'approche de Dadland Maye — enseigner l'IA plutôt que la prohiber — est-elle généralisable à toutes les disciplines ? Où se situe la limite entre l'utilisation légitime comme outil et le remplacement de la pensée par la machine ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #20
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    3 346
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 3 346
    Par défaut
    Pour apprendre à nager, il doit bien y avoir moyen d'envoyer une IA à sa place.

    Une fois jeté à l'eau, entre celui qui aura fait ça et celui qui sera venu en personne au cours, j'ai une petite idée sur celui qui va flotter, et ce qui va arriver à l'autre.

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 04h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 22h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 17h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 10h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo